DE69937819T2 - Optische Bestimmung der relativen Positionen von Körpern in einem Raum - Google Patents

Optische Bestimmung der relativen Positionen von Körpern in einem Raum Download PDF

Info

Publication number
DE69937819T2
DE69937819T2 DE69937819T DE69937819T DE69937819T2 DE 69937819 T2 DE69937819 T2 DE 69937819T2 DE 69937819 T DE69937819 T DE 69937819T DE 69937819 T DE69937819 T DE 69937819T DE 69937819 T2 DE69937819 T2 DE 69937819T2
Authority
DE
Germany
Prior art keywords
optical
relative
observation
systems
point arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69937819T
Other languages
English (en)
Other versions
DE69937819D1 (de
Inventor
Jean-Loup Rapidel
Jean-Thierry Lapreste
Gerard Rives
Michel Dhome
Jean-Marc Lavest
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FFB
Original Assignee
FFB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FFB filed Critical FFB
Publication of DE69937819D1 publication Critical patent/DE69937819D1/de
Application granted granted Critical
Publication of DE69937819T2 publication Critical patent/DE69937819T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/275Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment
    • G01B11/2755Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing wheel alignment using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/12Method or fixture for calibrating the wheel aligner
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/14One or more cameras or other optical devices capable of acquiring a two-dimensional image
    • G01B2210/143One or more cameras on each side of a vehicle in the main embodiment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/30Reference markings, reflector, scale or other passive device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/10Wheel alignment
    • G01B2210/30Reference markings, reflector, scale or other passive device
    • G01B2210/303Reference markings, reflector, scale or other passive device fixed to the ground or to the measuring station

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

  • Die vorliegende Erfindung betrifft eine optische Anlage zur Bestimmung der relativen Stellungen von vier Objekten im Raum, von der Art, die vier optische Systeme aufweist, die jeweils mit einem Beobachtungssystem verbunden sind, wobei die optischen Systeme jeweils für die Bestimmung der Stellung eines Objektes im Raum relativ zu seinem Beobachtungssystem von einem Bild des Objektes ausgehend eingerichtet sind, das das genannte optische System aufgenommen hat.
  • Sie betrifft außerdem ein Verfahren zur Bestimmung der relativen Stellungen von vier Objekten im Raum, von der Art, die vier optische Systeme aufweist, die jeweils mit einem Beobachtungssystem verbunden sind, wobei die optischen Systeme jeweils für die Bestimmung der Stellung eines Objektes im Raum relativ zu seinem Beobachtungssystem von einem Bild des Objektes ausgehend eingerichtet sind, das das genannte optische System aufgenommen hat.
  • Für die Prüfung der Geometrie eines Kraftfahrzeugs ist erforderlich, die relativen Stellungen der Räder des Fahrzeugs zu kennen. Diese Informationen erlauben es, die Parallelität der Räder und insbesondere die Geometrie des Fahrzeugs zu prüfen und gegebenenfalls zu korrigieren.
  • Hierfür sind verschiedene Anlagen und Verfahren bekannt, die mit Hilfe mehrerer optischer Systeme, die jeweils ein Rad des Fahrzeugs beobachten, erlauben, die relativen Stellungen dieser Räder zu bestimmen. Derartige Vorrichtungen und Verfahren werden beispielsweise in den Schriften WO-94/05969 und US-A-5 675 515 beschrieben.
  • In diesen Anlagen bestehen die optischen Systeme aus unabhängigen Kameras oder einer einzigen Kamera, die mit Linsenanord nungen verbunden ist, die für denselben einfallenden Strahl verschiedene optische Wege definieren. Die optischen Systeme erlauben die gleichzeitige Beobachtung der Räder des Fahrzeuges und aus den Bildern von diesen die Bestimmung ihrer relativen Stellungen.
  • Hierzu ist erforderlich, dass die verschiedenen optischen Systeme in bekannten relativen Stellungen zueinander stehen, da es sonst unmöglich ist, die Informationen, die aus den Bildern jedes Rades gewonnen wurden, in Beziehung zu setzen. Um feste relative Stellungen der optischen Systeme zueinander zu garantieren, sehen die Vorrichtungen, die in diesen Schriften beschrieben werden, starre mechanische Konstruktionen vor, auf denen die optischen Systeme fest montiert werden.
  • Die Anwesenheit derartiger starrer mechanischer Konstruktionen macht die Anlage sperrig. Außerdem ist diese störempfindlich, da die Verformung der starren mechanischen Konstruktionen, beispielsweise aufgrund eines ungewollten Stoßes, zu Messfehlern der relativen Stellungen der Räder des Fahrzeuges führt.
  • US-A-5 148 591 beschreibt eine Robotervorrichtung und ein Verfahren zur Eichung einer Robotervorrichtung der Art, die einen Arm aufweist und ein aktives Ende, um automatisch ein Objekt in einer Arbeitsstation zu handhaben oder zu bearbeiten, indem Bewegungen des Armes und des aktiven Endes mit Hilfe eines Steuerrechners gesteuert werden, der dafür programmiert ist, eine vorgesehene Handhabung oder Bearbeitung des Objektes auszuführen, und eine computergesteuerte Eichung von Bewegungen des Armes und des aktiven Endes duch Erzeugung einer Korrektur aufgrund eines Vergleichs zwischen einer Sollstellung und einer tatsächlichen Stellung des Armes und Verwendung des Korrektursignals, um das entsprechende Steuersignal zu ändern, dadurch gekennzeichnet, dass die Stellung des Armes und des aktiven Endes, wenn diese sich der Arbeitsstation nähern, unabhängig von den Steuerungsmitteln festgestellt werden, damit ein Eichsignal erzeugt wird, das Eichsignal mit einem festgelegten Bezugssignal verglichen wird, um das Korrektursignal zu erzeugen, und der Steuerungscomputer in Reaktion auf das Korrektursignal reinitialisiert wird.
  • Die Erfindung hat zum Ziel, eine optische Anlage und ein optisches Verfahren zur Bestimmung der relativen Stellungen von vier Objekten, insbesondere Fahrzeugrädern im Raum vorzuschlagen, wobei die Anlage über geringen Platzbedarf verfügt, einfach anzuwenden ist und eine geringere Störempfindlichkeit unter den rauhen Bedingungen aufweist, die in einer Kraftfahrzeug-Werkstatt angetroffen werden.
  • Hierzu hat die Erfindung eine optische Anlage nach Patentanspruch 1 zum Gegenstand.
  • In besonderen Ausführungsformen weist die optische Anlage die Merkmale nach den Patentansprüchen 2–5 auf.
  • Die Erfindung hat außerdem ein optisches Verfahren nach Patentanspruch 6 zum Gegenstand.
  • Die Erfindung wird beim Lesen der folgenden nur als Beispiel gemachten Beschreibung unter Bezugnahme auf die Zeichnungen deutlicher werden. Es zeigen:
  • 1 eine Draufsicht einer erfindungsgemäßen optischen Anlage, geeignet, die Stellungen der vier Räder eines Kraftfahrzeuges relativ zueinander zu bestimmen;
  • 2A und 2B perspektivische Ansichten desselben optischen Bezugssystems der Vorrichtung der 1 in denen ein Beobach tungs-Koordinatensystem, das Bestandteil des Bildaufnahmeorgans ist, bzw. ein sichtbares Koordinatensystem dargestellt ist, das durch eine Bezugspunktanordnung definiert ist;
  • 3 eine perspektivische Ansicht eines optischen Bezugssystems, das einem Spiegel gegenüber angeordnet ist, der zwischen zwei Positionen bewegbar ist, um die Position des Beobachtungs-Koordinatensystems des optischen Systems relativ zu seinem sichtbaren Koordinatensystem zu bestimmen, und
  • 4 eine schematische Ansicht, die die erfindungsgemäße Bestimmung der relativen Positionen der Beobachtungs-Koordinatensysteme zweier einander gegenüber befindlicher optischer Systeme darstellt.
  • Die in 1 dargestellte Anlage dient dazu, auf optischem Wege die relativen Positionen der vier Räder R eines Kraftfahrzeuges zu bestimmen, das mit dem Bezugszeichen 10 bezeichnet ist.
  • Die Anlage umfasst vier optische Systeme 12, 14, 16, 18, die jeweils einem Rad R des Fahrzeuges zugeordnet sind. Sie umfassen jeweils eine mit 12A, 14A, 16A, 18A bezeichnete CCD-Videokamera. Diese vier Kameras sind mit einer zentralen Datenverarbeitungseinheit 20 verbunden, die beispielsweise aus einem Computer besteht, der in der Lage ist, die empfangenen Bilder zu verarbeiten.
  • Die optischen Systeme 12, 14, 16, 18 können relativ zueinander um das Fahrzeug 10 bewegt werden. Für eine korrekte Arbeitsweise der Anlage sind die optischen Systeme in den vier Ecken eines das Fahrzeug umgebenden Vierecks, insbesondere eines Rechtecks, unbeweglich angeordnet.
  • Das optische System 12 ist in den 2A und 2B perspektivisch dargestellt. Die Videokamera 12A wird von einem Stativ 24 getragen, das dafür eingerichtet ist, auf dem Boden aufgestellt zu werden. Außerdem ist die Kamera 12A mit einer Zielscheibe 26 fest verbunden, die ein sichtbares Koordinatensystem (0, xyz) definiert, das mit A12 bezeichnet ist und in 2A erkennbar ist. Die Zielscheibe 26 ist durch mechanische Mittel relativ zur Struktur der Kamera festgesetzt und insbesondere relativ zu seinem mit C12 bezeichneten Koordinatensystem (0', x'y'z'). Das Beobachtungs-Koordinatensystem C12 ist mit dem Bildaufnahmeorgan 28 der Kamera 12A verbunden und insbesondere mit seinem CCD-Sensor.
  • Das optische System 12 stellt ein optisches Bezugssystem dar. In gleicher Weise stellt das optische System 16, das in der gegenüberliegenden Ecke des Fahrzeugs in der Anordnung der 1 angeordnet ist, ebenfalls ein optisches Bezugssystem dar und hat einen zu der des optischen Systems 12 identischen Aufbau.
  • Dagegen weisen die optischen Systeme 14 und 18 keine Zielscheibe auf und bestehen aus einer einfachen Videokamera 14A, 18A, die von einem Stativ getragen wird.
  • In Variante haben die optischen Systeme 14 und 18 denselben Aufbau, wie die optischen Systeme 12 und 16. In diesem Fall sind die vier optischen Systeme optische Bezugssysteme, was redundante Messungen ermöglicht und also eine größere Zuverlässigkeit des Ergebnisses dieser Messungen.
  • Wie in 2A dargestellt, besteht die Zielscheibe 26 beispielsweise aus einer Scheibe mit Zentrum 0, über deren Peripherie zwölf koplanare Punkte 26A verteilt sind. Außerdem trägt die Zielscheibe 26 einen dreizehnten Punkt 26B, der vor der Haupt ebene der Scheibe angeordnet ist, die die zwölf Punkte 26A trägt.
  • Dieser Punkt teilt die Scheibe 26 in Winkelrichtung und erlaubt die Definition zweier zueinander rechtwinkliger Achsen Ox und Oy in der Ebene dieser Zielscheibe. Die Achse Oy verläuft vorteilhafterweise in Höhe des Punktes 26B.
  • Die Zielscheibe 26 weist eine Hauptsymmetrieachse auf, die durch die zwölf koplanaren Punkte definiert ist, die regelmäßig über die Peripherie der Scheibe verteilt sind. Die Hauptsymmetrieachse ist eine Achse Oz, die auf den Achsen Ox, Oy senkrecht steht.
  • Die Achsen Ox, Oy, Oz und der Punkt 0 definieren das sichtbare Koordinatensystem A12.
  • So bildet die Zielscheibe 26 eine Bezugspunktanordnung bekannter geometrischer Konfiguration, die das sichtbare Koordinatensystem A12 definiert. Dieses ist in einer bestimmbaren Position relativ zum Beobachtungs-Koordinatensystem C12 der Kamera festgesetzt.
  • Wie in 2B, hat das Beobachtungs-Koordinatensystem C12 das Zentrum des CCD-Sensors der Kamera 12A, bezeichnet mit O', zum Zentrum. Das Beobachtungskoordinatensystem ist durch ein Achsenkreuz (O'x', O'y', O'z') definiert, wobei O'z' die optische Achse der Kamera ist, O'x' eine zu den horizontalen Pixellinien des CCD-Sensors parallele Achse und O'y' eine zu den vertikalen Pixelspalten des CCD-Sensors parallele Achse.
  • Die geometrische Konfiguration der Bezugspunktanordnung der Zielscheibe 26 ist in der Datenverarbeitungseinheit 20 gespeichert.
  • Die Datenverarbeitungseinheit 20 enthält Mittel zur Ausführung von Algorithmen zur Bestimmung der Position eines Objektes im Raum. Insbesondere ist sie dafür eingerichtet, die Position eines Objektes zu bestimmen, das eine Bezugspunktanordnung trägt, die in einer bekannten geometrischen Konfiguration angeordnet ist, wobei diese Konfiguration vorab in der Einheit 20 gespeichert ist. Diese Position wird aus dem Bild dieses Objektes bestimmt, das eine Kamera erstellt hat, die mit der Datenverarbeitungseinheit verbunden ist. Die Position des Objektes im Raum wird relativ zum Beobachtungs-Koordinatensystem C12 der Kamera berechnet. Der ausgeführte Algorithmus ist jeder geeigneten Art und beispielsweise von der Art dessen, der in der Anmeldung WO 94/05969 beschrieben ist.
  • Angesicht der Ausführung derartiger Algorithmen ist es angebracht, vorher geeichte Kameras zu verwenden, um die Fehler zu kompensieren, die durch die Unvollkommenheit der Kamera und des Sensors, den sie trägt, entstehen.
  • Hierzu werden für jede Kamera deren Kenndaten (Beobachtungs-Koordinatensystem, Brennweite, Größe der Bildelemente oder Pixel, Radial-, Tangentialverzerrung) bestimmt, und ihre äußeren Eigenschaften (Drehungs- und Verschiebungsmatrizen, die auf das beobachtete Objekt angewandt, ein vollkommen identisches Bild mit dem durch die Kamera beobachteten, von Verzerrungen befreiten Bild bilden). Auf diese Weise werden durch bekannte Verfahren die Korrekturen bestimmt, die an den erzeugten Bildern vorgenommen werden müssen, um eine korrekte Position eines Ojektes im Raum zu bestimmen.
  • Für die Ausführung des erfindungsgemäßen Verfahrens ist erforderlich, für jedes optische Bezugssystem 12, 16 die relativen Positionen des Beobachtungs-Koordinatensystems der Kamera und des durch die Zielscheibe definierten sichtbaren Koordinatensystems zu kennen. Tatsächlich ist es bei der Befestigung der Zielscheibe an der Kamera extrem schwierig, um nicht zu sagen unmöglich, diese derart zu befestigen, dass die beiden Koordinatensysteme C12 und A12 exakt zusammenfallen.
  • In 3 ist das Verfahren dargestellt, das angewandt wird, um die relative Position der beiden Koordinatensysteme C12 und A12 des optischen Systems 12 zu bestimmen. Das für das optische System 16 angewandte Verfahren ist hierzu analog.
  • Nach diesem Verfahren wird das optische System 12 der reflektierenden Oberfläche eines Planspiegels 50 gegenüber angeordnet. Dieser Spiegel hängt an einem Ausleger-Träger 52. Die Aufhängemittel sind einer freien Drehbewegung des Spiegels um eine vertikale Achse Δ angepasst.
  • Der Spiegel 50 trägt auf seiner reflektierenden Seite eine Gesamtheit von Bezusmarkierungen 54A, die aus schwarzen Scheiben bestehen, die in einer bekannten geometrischen Form, wie etwa einem Quadrat, an der Peripherie des Spiegels befestigt sind. Eine zusätzliche Bezugsmarkierung 54B ist vor der reflektierenden Seite des Spiegels 50 angeordnet. Die geometrische Konfiguration der Bezugsmarkierungen 54A und 54B ist bekannt und in der Datenverarbeitungseinheit 20 gespeichert.
  • In 3 ist die Normale des Spiegels 50 mit n bezeichnet. Diese Normale steht auf dem Spiegel senkrecht und verläuft durch das Zentrum der Figur, die durch die Gesamtheit der Markierungen 54A und 54B begrenzt ist. Der Spiegel verfügt über ein eigenes Koordinatensystem (Om, xmymzm), dessen Zentrum Om das Zentrum der Figur ist, die durch die Marken 54A begrenzt wird. Die Achse Omzm verläuft längs der Normalen n. Die Achsen OmXm und OmYm verlaufen im rechten Winkel zueinander in der Ebene des Spiegels 50. Vorteilhafterweise verläuft die Achse Omym parallel zur Achse Δ.
  • Die Zielscheibe 26, die die Anordnung von Bezugspunkten 26A und 26B trägt, spiegelt sich an der reflektierenden Oberfläche des Spiegels 50 und bildet auf dem Spiegel ein Bild der Zielscheibe, das mit 56 bezeichnet ist.
  • So nimmt die Kamera 12A im Beobachtungs-Koordinatensystem C12 ein Bild der reflektierenden Oberfläche des Spiegels 50 auf, die einerseits die Gesamtheit der Bezugsmarken 54A und 54B trägt und andererseits das reflektierte Bild 56 der vom optischen System getragenen Zielscheibe.
  • Da die Kamera 12A mit der Datenverarbeitungseinheit 20 verbunden ist, bestimmt diese mit Hilfe des gespeicherten Algorithmus aus dem aufgenommenen Bild von der Gesamtheit der Bezugsmarken 54A und 54B, die der Spiegel trägt, die Position des Spiegels 50 relativ zum Beobachtungs-Koordinatensystem C12.
  • Ebenso bestimmt die Datenverarbeitungseinheit 20 durch Anwendung des gespeicherten Algorithmus die Position des virtuellen Bildes der Zielscheibe 26 relativ zum Beobachtungs-Koordinatensystems C12 der Kamera. Insbesondere bestimmt die Datenverarbeitungseinheit 20 die Position eines virtuellen sichtbaren Koordinatensystems (O'', x''y''z''), das dem virtuellen Bild der Zielscheibe 26 zugeordnet ist, relativ zum Beobachtungs-Koordinatensystem (O', x'y'z') der Kamera.
  • Das virtuelle sichtbare Koordinatensystem (O'', x''y''z'') ist das virtuelle Bild des sichtbaren Koordinatensystems (O, xyz), das sich durch Spiegelung im Spiegel 50 ergeben hat.
  • Aufgrund der relativen Positionen des Beobachtungs-Koordinatensystems (O', x'y'z') relativ zum Koordinatensystem des Spiegels (Om, xmymzm) einerseits und des virtuellen sichtbaren Koordinatensystems (O'', x''y''z'') relativ zum Beobachtungs-Koordinatensystem (O', x'y'z') andererseits bestimmt die zentrale Datenverarbeitungseinheit 20 die Position des Beobachtungs-Koordinatensystems (O', x'y'z') der Kamera relativ zum sichtbaren Koordinatensystem (O, xyz), das durch die Zielscheibe 26 definiert wird.
  • Hierzu geht die Datenverarbeitungseinheit 20 folgendermaßen vor.
  • Durch den von der Einheit 20 ausgeführten Algorithmus wird die Position des virtuellen Bildes, das dem Bild 56 der Zielscheibe entspricht und durch Reflexion im Spiegel 50 erhalten wird, durch Auswertung des Bildes bestimmt, das von der Kamera 12A aufgenommen wird.
  • Diese Positionierung erlaubt die Bestimmung einer Matrix Mo-v des Überganges zwischen dem virtuellen Koordinatensystem (O'', x''y''z''), das mit dem virtuellen Bild verbunden ist, und dem Beobachtungs-Koordinatensystem (O', x'y'z'). Dieser Koordinaten-Übergang kann in Matrixschreibweise folgendermaßen ausgedrückt werden:
    Figure 00110001
    wobei Mo-v eine 4×4-Matrix ist,
    und wobei R eine 3×3-Rotations-Untermatrix ist,
    T eine 1×3-Verschiebungs-Untermatrix,
    (x'', y'', z'') die Koordinaten eines Punktes M im virtuellen sichtbaren Koordinatensystem (O'', x''y''z'') und
    (x'y'z') die Koordinaten des Punktes M im Beobachtungs-Koordinatensystem (O', x'y'z').
  • Mit Hilfe eines Algorithmus gleicher Art bestimmt die Datenverarbeitungseinheit 20 die Stellung des Spiegels 50 und insbesondere des ihm zugeordneten Koordinatensystems (Om, xmymzm) im mit der Kamera verbundenen Beobachtungs-Koordinatensystem (O', x'y'z'). Hierzu wertet die Datenverarbeitungseinheit 20 das Bild des Spiegels 50 aus, das von der Kamera aufgenommen wird, und bestimmt die Stellung des Spiegels 50 aus der Auswertung der Stellung der Bezugsmarkierungen 54A und 54B, die auf dem Bild erscheinen.
  • So wird eine Matrix des Überganges Mm zwischen dem Beobachtungs-Koordinatensystem (O', x'y'z' und dem Koordinatensystem (Om, xmymzm) des Spiegels bestimmt. Die Koordinaten desselben Punktes M in den beiden Koordinatensystemen sind also durch die folgende Beziehung miteinander verbunden:
    Figure 00110002
    wobei Rm eine 3×3-Rotations-Untermatrix ist,
    Tm eine 1×3-Verschiebungs-Untermatrix,
    (xm, ym, zm) die Koordinaten des Punktes M im Koordinatensystem des Spiegels (Om, xmymzm) sind, woraus sich ergibt
    Figure 00120001
    wobei Mm –1 die zur Matrix Mm inverse Matrix ist.
  • So ist es möglich, die Koordinaten eines Punktes M im virtuellen sichtbaren Koordinatensystem (O'', x''y''z'') in Abhängigkeit von seinen Koordinaten im Koordinatensystem des Spiegels (Om, xmymzm) durch die folgende Matrixbeziehung wiederzugeben:
    Figure 00120002
    wobei Mo-v' = Mo-v*Mm –1, wobei * das Matrizenprodukt ist.
  • Zur Bestimmung der Position eines reellen Punktes M im Koordinatensystem des Spiegels (Om, xmymzm) wird die Eigenschaft genutzt, dass das virtuelle Bild eines Punktes mit den Koordinaten (x, y, z) in einem gegebenen Koordinatensystem in dem Fall, dass der Spiegel in der Ebene Ox, Oy liegt, die Koordinaten (x, y, –z) hat.
  • So werden die Koordinaten (x'', y'', z'') des virtuellen Bildes im virtuellen sichtbaren Koordinatensystem des Punktes M mit den Koordinaten (x, y, z) im sichtbaren Koordinatensystem durch Anwendung der folgenden Diagonalmatrix Sz erhalten:
    Figure 00130001
  • Die im sichtbaren Koordinatensystem (O, xyz) ausgedrückten Koordinaten (xyz) eines Punktes M haben in Abhängigkeit von den Koordinaten (xmymzm) desselben Punktes im Koordinatensystem des Spiegels (Om, xmymzm) die Form:
    Figure 00130002
  • Hierin ist also Mo' = Mo-v'*Sz·Mo' die Matrix des Überganges vom Koordinatensystem des Spiegels (Om, xmymzm) zum sichtbaren Koordinatensystem (O, xyz).
  • Zur Bestimmung der Koordinaten eines Punktes im sichtbaren Koordinatensystem (O, xyz) aus den Koordinaten (x', y', z') desselben Punktes im Beobachtungs-Koordinatensystem (O, x'y'z') wird aus den Beziehungen (1) und (2) die folgende Matrizenbeziehung abgeleitet:
    Figure 00130003
  • So wird verständlich, dass die zentrale Datenverarbeitungseinheit 20 durch Ausführung der oben dargestellten Berechnung die Position des mit der Kamera verbundenen Beobachtungs-Koordinatensystems C12 relativ zum sichtbaren Koordinatensystem A12 bestimmen kann, das der Zielscheibe 26 zugeordnet ist, die mit dieser Kamera fest verbunden ist.
  • Außerdem ist erfindungsgemäß vorgesehen, die Gesamtheit der optischen Systeme und insbesondere die optischen Bezugssysteme relativ zur Vertikalen des Ortes der Fahrzeugkontrolle aufzustellen.
  • Hierzu wird ein Bild des Spiegels 50 in einer ersten Stellung, in 3 in durchgezogenen Linien dargestellt, erstellt. Dann wird der Spiegel in eine zweite Stellung gebracht, die in 3 in unterbrochenen Linien dargestellt ist. Die Bewegung erfolgt um die Achse Δ der Aufhängung des Spiegels. Diese Achse Δ entspricht der Vertikalen des Betriebsortes der Anlage.
  • Mit Hilfe des gespeicherten Algorithmus bestimmt die zentrale Datenverarbeitungseinheit 20 für die beiden Spiegelstellungen die Koordinaten der Ebenen, in denen sich der Spiegel erstreckt. Dabei entspricht die Gerade Δ der Schnittlinie der beiden so bestimmten Ebenen. Die zentrale Datenverarbeitungseinheit 20 bestimmt so die relative Stellung des optischen Bezugssystems relativ zu einer Reihe horizontaler Ebenen, die für den besonderen Fall der Geometrie der Fahrzeuge von ausschlaggebender Bedeutung sind.
  • In 4 sind die optischen Systeme 12 und 14 einander gegenüber in Abwesenheit des Kraftfahrzeuges 10 schematisch dargestellt. Die optischen Systeme 12 und 14 sind, wie in 1, in einem ausreichenden Abstand einander gegenüber angeordnet, um den Durchtritt des Fahrzeugs 10 zu erlauben.
  • Um beispielsweise die relative Position der Vorderräder des Fahrzeuges zu bestimmen, müssen die relativen Positionen der Beobachtungs-Koordinatensysteme bestimmt werden, die mit den optischen Systemen 12 und 14 verbunden sind. Diese werden in der 6 durch C12 und C14 bezeichnet.
  • Die Übergangsmatrix zwischen dem Beobachtungs-Koordinatensystem C12 und dem sichtbaren Koordinatensystem A12 ist bekannt, da sie nach dem oben dargelegten Verfahren bestimmt wurde.
  • Um die relativen Positionen der Beobachtungs-Koordinatensysteme C12 und C14 zueinander zu bestimmen, nimmt das optische System 14 auf Anweisung der zentralen Datenverarbeitungseinheit 20 ein Bild der Zielscheibe 26 auf. Dieses Bild wird von der Datenverarbeitungseinheit 20 verarbeitet.
  • Diese bestimmt aufgrund der Kenntnis der geometrischen Konfiguration der Bezugspunktanordnung der Zielscheibe 26 durch Ausführung des gespeicherten Algorithmus die Position der Zielscheibe 26 relativ zum Beobachtungskoordinatensystem C14 des beobachtenden optischen Systems. Sie ermittelt so daraus die Position des sichtbaren Koordinatensystems A12, das durch die Zielscheibe 26 definiert wird, relativ zum Beobachtungs-Koordinatensystem C14.
  • In Kenntnis der Übergangsmatrix vom Beobachtungs-Koordinatensystem C12 zum sichtbaren Koordinatensystem A12 und umgekehrt, bestimmt die zentrale Datenverarbeitungseinheit 20 die relativen Positionen der Beobachtungs-Koordinatensysteme C12 und C14.
  • Auf diese Weise bestimmt die zentrale Datenverarbeitungseinheit 20 die relative Position zwischen den Beobachtungs-Koordinatensystemen, die den beiden einander gegenüber befindlichen optischen Systemen 12 und 14 zugeordnet sind.
  • In gleicher Weise beobachtet das optische System 16, das relativ zum Platz des Fahrzeugs 10 auf der dem optischen System 12 entgegengesetzten Seite angeordnet ist, die Zielscheibe 26, die vom optischen System 12 getragen wird, in Abwesenheit des Fahrzeuges. In ähnlicher Weise bestimmt die zentrale Datenverarbeitungseinheit 20 die Position des mit C16 bezeichneten Beobachtungskoordinatensystems, das dem optischen System 16 zugeordnet ist, relativ zum Beobachtungs-Koordinatensystem C12 des optischen Bezugssystems.
  • Da schließlich das optische System 16 ebenfalls mit einer Zielscheibe versehen ist, die relativ zur in dieses optische System eingebauten Kamera festgesetzt ist, erlaubt deren Beobachtung durch das optische System 18 der zentralen Datenverarbeitungseinheit 20, die Stellung des mit C18 bezeichneten Beobachtungs-Koordinatensystems, das dem optischen System 18 zugeordnet ist, relativ zum Beobachtungs-Koordinatensystem C16 des optischen Bezugssystems 16 zu bestimmen.
  • In ähnlicher Weise nämlich, wie im angesichts der 4 beschriebenen Verfahren, erlaubt die Kenntnis der relativen Positionen des sichtbaren Koordinatensystems der Zielscheibe, die vom optischen System 16 getragen wird, und des dem optischen System 16 zugehörigen Beobachtungs-Koordinatensys tems, die relativen Positionen der Beobachtungs-Koordinatensysteme C16 und C18 zu bestimmen.
  • Wenn ein optisches System ein sogenanntes Bezugssystem ist, wird so durch Verkettung die gesamte Anlage geeicht.
  • Nach Einfahren des Fahrzeuges 10 können die vier optischen Systeme einander nicht mehr beobachten. Dagegen ist jedes von ihnen in der Lage, ein Bild von einem Rad R des Fahrzeuges aufzunehmen.
  • Wie in der Anmeldung WO-94/05969 beschrieben, ist jedes Rad mit einer Zielscheibe oder Aufsatz 60 ausgestattet, die starr und in bekannter Weise mit dem Rad verbunden ist. Jeder Aufsatz trägt eine Gesamtheit von Marken, die in einer bekannten und in der Datenverarbeitungseinheit 20 gespeicherten geometrischen Konfiguration verteilt sind.
  • Vor Bestimmung der relativen Positionen der Aufsätze und also der der Räder ist es angebracht, die Verwindung jedes Aufsatzes und seine Exzentrizität zu berücksichtigen, damit die zentrale Datenverarbeitungseinheit 20 dies bei den späteren Berechnungen berücksichtigt. Hierzu wertet die Einheit 20 nach einem an sich bekannten Verfahren mehrere Bilder jedes Rades aus, die in verschiedenen bestimmten Stellungen aufgenommen wurden.
  • Aus der gleichzeitigen Beobachtung jedes Aufsatzes 60 durch die vier optischen Systeme bestimmt die zentrale Datenverarbeitungseinheit 20 die Position jedes Rades relativ zum Beobachtungs-Koordinatensystem der zugehörigen Kamera, wie an sich bekannt. Da nämlich das Zentrum der Räder bekannt ist, die horizontalen Ebenen bekannt sind, ihre Schnittliinie mit den Radebenen bekannt sind, die Vertikale des Ortes bekannt ist, ist es einfach, die charakteristischen Winkel und Abstände der Geometrie des Fahrzeuges zu bestimmen.
  • In Kenntnis der relativen Positionen der Beobachtungs-Koordinatensysteme der vier optischen Systeme ermittelt die zentrale Datenverarbeitungseinheit 20 die relativen Positionen der vier Räder des Fahrzeugs. So ist es möglich, die Geometrie des Fahrzeugs zu bestimmen und jegliche für das zufriedenstellende Funktionieren des Fahrzeugs erforderliche Einstellungsarbeit vorzunehmen.
  • Es ist leicht verständlich, dass mit einer derartigen Anlage die Stellung der vier optischen Systeme für jedes Fahrzeug geändert werden kann. Außerdem ist es nicht erforderlich, nach jedem Messvorgang eine feste Position zwischen den optischen Systemen aufrecht zu erhalten. Es ist lediglich erforderlich, dass die Einheit 20 nach jedem Fahrzeug erneut nach dem oben erläuterten Verfahren die relativen Positionen der Beobachtungs-Koordinatensysteme bestimmt, die zu den verschiedenen optischen Systemen gehören. Auf diese Weise hat die Anlage einen geringen Platzbedarf und kann außerhalb der Verwendungszeiten leicht gelagert werden.
  • Außerdem kann die hier beschriebene Anlage und das Verfahren auf eine beliebige Anzahl an Kameras verallgemeinert werden, die relativ zueinander geeicht werden. So ist es möglich, das Fahrzeug in verschiedenen Stellungen und unterschiedlichen Höhen zu vermessen.

Claims (6)

  1. Optische Anlage zur Bestimmung der relativen Stellungen der Objekte (R) im Raum, von der Art, die vier optische Systeme (12, 14, 16, 18) aufweist, die jeweils mit einem Beobachtungssystem (C12, C14, C16, C18) verbunden sind, wobei die optischen Systeme jeweils für die Bestimmung der Stellung eines Objektes im Raum relativ zu seinem Beobachtungssystem (C12, C14, C16, C18) von einem Bild des Objektes ausgehend eingerichtet sind, das das genannte optische System (12, 14, 16, 18) aufgenommen hat, wobei die optischen Systeme (12, 14, 16, 18) relativ zueinander bewegbar sind, wobei ein optisches System (12, 16), das ein optisches Bezugssystem darstellt, eine Anordnung (26) von Bezugspunkten bekannter geometrischer Konfiguration aufweist, wobei die Bezugspunktanordnung (26) in einer bekannten Stellung relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems (12, 16) festgesetzt und von jedem anderen optischen System (14, 16, 18) bei Abwesenheit der Objekte sichtbar ist, wobei jedes andere optische System (14, 16, 18) Mittel (20) zur Analyse eines Bildes der Bezugspunktanordnung (26) aufweist, dadurch gekennzeichnet, dass jedes andere optische System (14, 16, 18) Mittel (20) zur Positionierung der Bezugspunktanordnung (26) relativ zu seinem Beobachtungssystem (C14, C16, C18) aufweist, dadurch, dass sie Mittel (20) zur Ableitung der Stellung des Beobachtungssystems (C14, C16, C18) jedes anderen optischen Systems (14, 16, 18) relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems aus der Stellung der Bezugspunktanordnung (26) relativ zu jedem Beobachtungssys tem (C14, C16, C18) und der bekannten Stellung der Bezugspunktanordnung (26) relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems (12, 16) aufweist, und dadurch, dass die vier optischen Systeme (12, 14, 16, 18) in den Ecken eines Viereckes zur Bestimmung der relativen Stellungen von vier Objekten (R) im Raum angeordnet sind, wobei zwei optische Systeme (12, 16) in einander gegenüberliegenden Ecken des genannten Viereckes angeordnet sind.
  2. Anlage nach Patentanspruch 1, dadurch gekennzeichnet, dass jedes optische System (12, 14, 16, 18) eine Videokamera (12A, 14A, 16A, 18A) aufweist, die von einem Ständer (24) getragen wird und mit derselben Datenverarbeitungszentraleinheit (20) verbunden ist.
  3. Anlage nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, dass die genannte Bezugspunktanordnung (26) eine Gruppe sichtbarer, diskreter, koplanarer Markierungen (26A) umfasst, sowie mindestens eine nicht koplanare sichtbare Markierung (26B).
  4. Anlage nach irgendeinem der vorangehenden Patentansprüche, dadurch gekennzeichnet, dass sie Ansätze (60) umfasst, die dafür eingerichtet sind, jeweils mit einem Objekt (R) in einer bekannten Stellung verbunden zu sein, und dadurch, dass jedes optische System (12, 14, 16, 18) Mittel (20) zur Bestimmung der Stellung eines Ansatzes (60) im Raum relativ zu seinem Beobachtungssystem (C12, C14, C16, C18) aus der bestimmten Stellung des Ansatzes (60) relativ zu seinem Beobachtungssystem (C12, C14, C16, C18) und der bekannten Stellung des Ansatzes (60) relativ zum Objekt (R) aufweist.
  5. Anlage nach irgendeinem der vorangehenden Patentansprüche, in der die Bezugspunktanordnung (26) eines ersten optischen Bezugssystems (12) vom zweiten optischen Bezugssystem (16) aus in Abwesenheit der Objekte (R) sichtbar ist, dadurch, dass das zweite optische Bezugssystem (16) Mittel (20) zur Analyse eines Bildes der Bezugspunktanordnung (26) des ersten optischen Bezugssystems (12) umfasst und Mittel (20) zur Positionierung der Anordnung (26) der Bezugspunkte (12) relativ zu seinem Beobachtungssystem (C16), dadurch, dass sie Mittel (20) zur Ableitung der Stellung des Beobachtungssystems (C16) des zweiten optischen Bezugssystems (16) relativ zum Beobachtungssystem (C12) des ersten optischen Bezugssystems (12) aus der Stellung der Bezugspunktanordnung (26) des ersten optischen Bezugssystems (12) relativ zum Beobachtungssystem (C16) des zweiten optischen Bezugssystems (16) und der bekannten Stellung der Bezugspunktanordnung (26) des ersten optischen Bezugssystems (12) relativ zum Beobachtungssystem (C12) des ersten optischen Bezugssystems (12) umfasst, und dadurch, dass sie Mittel (20) zur Ableitung der relativen Stellungen der Beobachtungssysteme (C12, C14, C16, C18) jeweils der optischen Bezugssysteme (12, 14, 16, 18) zueinander umfasst.
  6. Optisches Verfahren zur Bestimmung der relativen Stellungen der Objekte (R) im Raum, von der Art, die vier optische Systeme (12, 14, 16, 18) verwendet, die jeweils mit einem Beobachtungssystem (C12, C14, C16, C18) verbunden sind, wobei die optischen Systeme jeweils für die Bestimmung der Stellung eines Objektes im Raum relativ zu seinem Beobachtungssystem (C12, C14, C16, C18) von einem Bild des Objektes ausgehend eingerichtet sind, das das genannte optische System (12, 14, 16, 18) aufgenommen hat, wobei die optischen Systeme (12, 14, 16, 18) relativ zueinander bewegbar sind, wobei ein optisches System (12, 16), das ein optisches Bezugssystem darstellt, mit einer Anordnung (26) von Bezugspunkten bekannter geometrischer Konfiguration versehen wird, wobei die Bezugspunktanordnung (26) in einer bekannten Stellung relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems (12, 16) festgesetzt und von jedem anderen optischen System (14, 16, 18) bei Abwesenheit der Objekte (R) sichtbar ist, und jedes andere optische System (14, 16, 18) ein Bild der Bezugspunktanordnung (26) analysiert, dadurch gekennzeichnet, dass jedes andere optische System (14, 16, 18) die Positionierung der Bezugspunktanordnung (26) relativ zu seinem Beobachtungssystem (C14, C16, C18) bestimmt, dadurch, dass die Stellung des Beobachtungssystems (C14, C16, C18) jedes anderen optischen Systems (14, 16, 18) relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems aus der Stellung der Bezugspunktanordnung (26) relativ zu jedem Beobachtungssystem (C14, C16, C18) und der bekannten Stellung der Bezugspunktanordnung (26) relativ zum Beobachtungssystem (C12, C16) des optischen Bezugssystems (12, 16) abgeleitet wird, und dadurch, dass die vier optischen Systeme (12, 14, 16, 18) in den Ecken eines Viereckes zur Bestimmung der relativen Stellungen von vier Objekten (R) im Raum angeordnet werden, wobei zwei optische Systeme (12, 16) in einander gegenüberliegenden Ecken des genannten Viereckes angeordnet werden.
DE69937819T 1998-11-20 1999-11-16 Optische Bestimmung der relativen Positionen von Körpern in einem Raum Expired - Lifetime DE69937819T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9814661A FR2786268B1 (fr) 1998-11-20 1998-11-20 Installation et procede optiques de determination des positions relatives d'au moins deux objets dans l'espace
FR9814661 1998-11-20

Publications (2)

Publication Number Publication Date
DE69937819D1 DE69937819D1 (de) 2008-02-07
DE69937819T2 true DE69937819T2 (de) 2008-12-24

Family

ID=9533015

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69937819T Expired - Lifetime DE69937819T2 (de) 1998-11-20 1999-11-16 Optische Bestimmung der relativen Positionen von Körpern in einem Raum

Country Status (4)

Country Link
US (1) US6424411B1 (de)
EP (2) EP1808670A3 (de)
DE (1) DE69937819T2 (de)
FR (1) FR2786268B1 (de)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968282B1 (en) 2000-05-22 2005-11-22 Snap-On Incorporated Self-calibrating, multi-camera machine vision measuring system
CN100346133C (zh) * 2000-03-23 2007-10-31 捷装技术公司 自校准、多相机机器视觉测量系统
JP4849757B2 (ja) * 2000-03-23 2012-01-11 スナップ − オン テクノロジーズ,インコーポレイテッド 自己校正するマルチカメラ機械視覚測定システム
CN1306246C (zh) * 2000-08-14 2007-03-21 捷装技术公司 用于机动车辆车轮对准的自校准三维机器测量系统
DE10043354A1 (de) 2000-09-02 2002-03-14 Beissbarth Gmbh Fahrwerkvermessungseinrichtung
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US6839972B2 (en) * 2001-06-15 2005-01-11 Snap-On Incorporated Self-calibrating position determination system
US7062861B2 (en) 2001-06-28 2006-06-20 Snap-On Incorporated Self-calibrating position determination system and user interface
US7164472B2 (en) * 2003-10-09 2007-01-16 Hunter Engineering Company Common reference target machine vision wheel alignment system
US7538864B2 (en) * 2005-03-24 2009-05-26 Hunter Engineering Company Vehicle wheel alignment system scanned beam imaging sensor
US7181856B1 (en) * 2005-11-09 2007-02-27 Hanchett Michael T Laser measurement system
US7710555B2 (en) 2006-06-27 2010-05-04 Burke E. Porter Machinery Company Apparatus and method for determining the orientation of an object such as vehicle wheel alignment
US7313869B1 (en) 2006-07-18 2008-01-01 Snap-On Incorporated Vehicle wheel alignment system and methodology
US7864309B2 (en) * 2007-05-04 2011-01-04 Burke E. Porter Machinery Company Non contact wheel alignment sensor and method
DE102008000837A1 (de) * 2008-03-26 2009-10-01 Robert Bosch Gmbh Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
WO2010002968A1 (en) * 2008-07-03 2010-01-07 Rotary Lift, A Division Of Dover Industrial Products, Inc. Vehicle guidance system for automotive lifts
US8650766B2 (en) * 2008-09-12 2014-02-18 Robert Bosch Gmbh Target system, set of target systems and device for optically aligning an axle
ITMI20111695A1 (it) * 2011-09-21 2013-03-22 Cemb S P A Dispositivo e procedimento di misura delle dimensioni e degli angoli caratteristici di ruote, sterzo e telaio di veicoli in genere.
WO2014065693A1 (en) * 2012-10-26 2014-05-01 Nagornov Vladimir Vladimirovich Method and system for determining vehicle wheel alignment
DE112017004974T5 (de) 2016-09-30 2019-06-19 Burke E. Porter Machinery Company Radeinstellungsmessverfahren und System für Fahrzeugräder
US11835646B2 (en) 2018-04-30 2023-12-05 BPG Sales and Technology Investments, LLC Target alignment for vehicle sensor calibration
US11243074B2 (en) 2018-04-30 2022-02-08 BPG Sales and Technology Investments, LLC Vehicle alignment and sensor calibration system
US11624608B2 (en) 2018-04-30 2023-04-11 BPG Sales and Technology Investments, LLC Vehicular alignment for sensor calibration
US11781860B2 (en) 2018-04-30 2023-10-10 BPG Sales and Technology Investments, LLC Mobile vehicular alignment for sensor calibration
US11597091B2 (en) 2018-04-30 2023-03-07 BPG Sales and Technology Investments, LLC Robotic target alignment for vehicle sensor calibration
CN113008165B (zh) * 2021-02-05 2023-08-22 深圳市易检车服软件开发有限公司 车辆的车轮定位方法、终端设备及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
DE4041723A1 (de) * 1990-12-24 1992-06-25 Thiedig Ullrich Verfahren und vorrichtung zur bestimmung der position eines messpunktes relativ zu einem bezugspunkt
US5532816A (en) * 1994-03-15 1996-07-02 Stellar Industries, Inc. Laser tracking wheel alignment measurement apparatus and method
FR2737561B1 (fr) * 1995-08-02 1997-08-29 Muller Bem Dispositif de mesure et de controle geometrique de vehicules a roues

Also Published As

Publication number Publication date
EP1003011B1 (de) 2007-12-26
EP1003011A1 (de) 2000-05-24
US6424411B1 (en) 2002-07-23
FR2786268B1 (fr) 2001-04-13
DE69937819D1 (de) 2008-02-07
EP1808670A3 (de) 2012-02-22
EP1808670A2 (de) 2007-07-18
FR2786268A1 (fr) 2000-05-26

Similar Documents

Publication Publication Date Title
DE69937819T2 (de) Optische Bestimmung der relativen Positionen von Körpern in einem Raum
DE69826753T2 (de) Optischer Profilsensor
EP2002203B1 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
EP1342051B1 (de) Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel, deren mittelpunkt bekannt ist
EP1711777B2 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
EP2603767B1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
EP2166510B1 (de) Verfahren zum Ermitteln der Position und der Orientierung einer in einem Fahrzeug angeordneten Kamera
EP2574876B1 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2133659B1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE112007001977T5 (de) Verfahren zur Generierung dreidimensionaler Modelldaten und Vorrichtung zur Generierung dreidimensionaler Modelldaten
DE19618283A1 (de) Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung
DE4301538A1 (de) Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
WO2000026615A1 (de) Vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen
EP3707569B1 (de) Kalibrierung eines stationären kamerasystems zur positionserfassung eines mobilen roboters
DE10048096A1 (de) Verfahren zur Kalibrierung eines messenden Sensors auf einem Koordinatenmeßgerät
DE4208455A1 (de) Verfahren und anordnung zur beruehrungslosen dreidimensionalen messung
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
EP1468792A2 (de) Verfahren zum Kalibrieren eines Roboters
DE69934472T2 (de) Bestimmung der Position der optischen Achse einer Kamera
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102021126484A1 (de) Kalibrierungsverfahren zur automatisierten Kalibrierung von Kamera zu medizinischem Roboter und chirurgisches Assistenzsystem
EP3561772B1 (de) Verfahren zur kalibrierung einer zeilenbildaufnahmeeinheit
DE102017203084B4 (de) Verfahren zur Ermittlung von Korrekturdaten zur Korrektur von temperaturabhängigen Messdaten eines optischen Sensors
EP1245344B1 (de) Reintegration einer digitalen Kamera in ein Bildverarbeitungssystem, welche aus einer kalibrierten Position in eine unkalibrierte Position versetzt worden ist

Legal Events

Date Code Title Description
8364 No opposition during term of opposition