DE69829091T2 - Messungsgerät - Google Patents

Messungsgerät Download PDF

Info

Publication number
DE69829091T2
DE69829091T2 DE69829091T DE69829091T DE69829091T2 DE 69829091 T2 DE69829091 T2 DE 69829091T2 DE 69829091 T DE69829091 T DE 69829091T DE 69829091 T DE69829091 T DE 69829091T DE 69829091 T2 DE69829091 T2 DE 69829091T2
Authority
DE
Germany
Prior art keywords
image
images
search
characteristic
characteristic pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69829091T
Other languages
English (en)
Other versions
DE69829091D1 (de
Inventor
Hitoshi Itabashi-ku Otani
Nobuo Itabashi-ku Kochi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP9147059A external-priority patent/JPH10318732A/ja
Priority claimed from JP14706697A external-priority patent/JP4359939B2/ja
Application filed by Topcon Corp filed Critical Topcon Corp
Publication of DE69829091D1 publication Critical patent/DE69829091D1/de
Application granted granted Critical
Publication of DE69829091T2 publication Critical patent/DE69829091T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

  • Die vorliegende Erfindung betrifft Technologien zum Erzielen einer Automation einer Ausrichtungsarbeit, die einer Stufe einer Durchführung einer dreidimensionalen Messung aus verschiedenen Kamerapositionen vorausgeht, einer automatischen Erfassung von Anfangswerten für eine Stereoanpassung, und einer Automation der dreidimensionalen Messung.
  • Beim Durchführen einer dreidimensionalen Messung nach einem Nahbereich-Messbildverfahren wird die Messung durch den Fluss von Prozessen ausgeführt, wie er in 1 gezeigt. Es ist nämlich erforderlich, Prozesse (a) zum Aufnehmen eines Paars von Stereobildern eines Gegenstands → (b) für eine Positionserfassung, → (c) für eine Ausrichtung, → (d) für eine Stereomodellbildung, → und (e) für eine dreidimensionale Messung durchzuführen. Obwohl diese Prozesse bzw. Vorgänge hauptsächlich durch Operationen eines Computers durchgeführt werden, wurden die Prozesse (b) für die Positionserfassung und (e) für die dreidimensionale Messung bisher manuell durchgeführt. Die Positionserfassung (b) ist ein Vorprozess zu der Ausrichtung, welche einen Prozess darstellt, um eine Position, eine Inklination und Ähnliches der Kameras zu erhalten, um Bilder aufzunehmen.
  • Durch Erhalten der relativen Position zwischen den Kameras und dem Gegenstand bei dem Prozess der Ausrichtung (c) wird es möglich, ein Stereomodell zu bilden, welches eine Stereoansicht bereitstellt, um die dreidimensionale Messung zu erzielen. Der Prozess der Positionserfassung (b), der der Ausrichtung (c) vorhergeht, stellt eine Arbeit dar, wie z.B. das Erhalten von Koordinatenpositionen, an jeder Kamera, von sechs oder mehr entsprechenden Punkten, die durch getrennte Kameras aufgenommen werden.
  • Bei der dreidimensionalen Messung (e) gibt es zwei Arten: eine Punktmessung und eine planare bzw. ebene Messung.
  • Im Falle der Punktmessung wird der an dem Gegenstand zu messende Punkt im Allgemeinen manuell gemessen. Wenn jedoch eine automatische Messung geplant ist oder eine Genauigkeitsverbesserung gewünscht ist, ist es praktisch, eine Markierung auf den Gegenstand zu kleben.
  • Im Falle der ebenen Messung wird eine automatische Messung unter Verwendung eines Stereoanpassungsverfahrens durch eine Bildverarbeitung ausgeführt. Dann war es jedoch erforderlich, eine ursprüngliche Einstellung zu machen, wie z.B. eine Bestimmung eines Schablonen- bzw. Musterbilds („template image") und ein Einrichten der gesuchten Breite durch manuelle Arbeit.
  • Bei der Tätigkeit der Positionserfassung (b) wählt die Bedienungsperson sechs oder mehr Messpunkte an dem Gegenstand in dem linken Bild und dem rechten Bild aus, und, während jedes Bild beobachtet wird, korreliert die Messpunkte auf dem Gegenstand miteinander und erfasst die Koordinaten der Positionen. Da die Bedienungsperson jedoch grundsätzlich eine solche Arbeit durchzuführen hatte, während eine Stereoansicht aufgenommen wurde, erforderte es Können, und außerdem war es kompliziert, schwierig und problematisch.
  • Insbesondere bei Arbeiten, wie z.B. einem miteinander Korrelieren des linken Bilds und des rechten Bilds beim Bestimmen der Messpunkte und einem Erfassen der detaillierten Koordinaten der Positionen, neigten persönliche Fehler dazu, aufzutreten, wobei Ergebnisse von Bedienungsperson zu Bedienungsperson unterschiedlich waren und eine ausreichende Genauigkeit schwierig zu erhalten war. Es gab sogar Fälle, bei denen eine solche Messung durch einige Bedienungspersonen nicht erzielbar war. Um den Schwierigkeiten zu begegnen, wird manchmal ein Verfahren, wie z.B. das Kleben einer Markierung auf den Gegenstand, praktiziert.
  • Jedoch stellt es keine vorteilhafte Sache dar, dass eine Tätigkeit wie z.B. das Kleben einer Markierung auf den Gegenstand zunimmt, und es gibt sogar solche Fälle, bei denen, abhängig von den Gegenständen, ein Kleben einer Markierung auf den Gegenstand sehr schwierig ist. Deshalb hat sich dieses Verfahren hinsichtlich seiner Verwendung, nicht weit verbreitet.
  • Es gibt auch ein solches Verfahren, eine dreidimensionale Messung mit zwei Kameras durchzuführen, die fest an einem Stereopfannenneigungskopf („stereo pan tilt head") angebracht sind, wodurch die Ausrichtungsarbeit eliminiert wird.
  • In diesem Fall sollte es jedoch absolut keine Abweichung bei der relativen Position zwischen den zwei Kameras auf dem Pfannenneigungskopf geben, und deshalb sind die Messumgebung und der Messgegenstand stark eingeschränkt. Gleichzeitig sind solche Vorrichtungen groß, schwer und schwierig zu handhaben, und außerdem teuer. Also wird dieses Verfahren ebenfalls nicht so weitläufig verwendet.
  • Des Weiteren musste die Bedienungsperson bei der Punktmessung bei der dreidimensionalen Messung (e), wenn keine Markierung oder Ähnliches auf den Messgegenstand geklebt waren, den Messpunkt angeben, während das bei dem Ablauf der Messung aufgenommene Bild beobachtet wird. Deshalb waren viel Arbeit und Zeit erforderlich, wenn es viele Messpunkte gab. Wenn des Weiteren versucht wurde, präzise Messung zu machen, gab es eine Neigung dazu, dass persönliche Fehler auftraten, und schlimmstenfalls konnte eine Messung selbst nicht erzielt werden.
  • Solche Dinge, wie oben beschrieben, können umgangen werden, falls eine Messung ausgeführt wird, nachdem eine Markierung auf einen Gegenstand geklebt wurde, aber in diesem Fall, wie oben beschrieben, war die Arbeit zum Anbringen der Markierung erneut erforderlich, und abhängig von den Gegenständen war es schwierig, eine Markierung auf den Gegenstand zu kleben, und manchmal wurde es unmöglich, eine Messung durchzuführen.
  • Im Falle der planaren Messung war es erforderlich, manuell eine Arbeit, wie z.B. das Musterbild bestimmen und eine optimale gesuchte Breite bestimmen, als Präprozess beim Durchführen einer automatischen Messung durch eine Stereoanpassung durchzuführen. Wenn des Weiteren fehlangepasste Punkte oder Ähnliches auftraten, musste eine Korrektur manuell durchgeführt werden. Somit war es schwierig, eine Automation zu realisieren.
  • Die US 4,858,157 offenbart eine Koordinatenmessvorrichtung, die eine Erfassungseinheit, die aus einem optischen System zum Erhalten eines Bilds eines Objekts und aus einem Erfassungssystem mit einer Vielzahl gruppierter Erfassungselemente, die derart angeordnet sind, dass jeweilige Erfassungssignale bei der Position des Bilds überlagert werden, gebildet ist, eine Steuereinheit zum Herausnehmen von Daten aus jedem der gruppierten Erfassungselemente und eine Speichereinheit zum Speichern der Daten von jeder Gruppe aufweist, die aus der Steuereinheit herausgenommen sind.
  • Es ist eine Aufgabe der Erfindung, eine Formmessvorrichtung und eine Bildbildungsvorrichtung vorzusehen, die die Vorgänge von der Ausrichtungsarbeit bis zu der dreidimensionalen Messung automatisch, effektiv und präzise durchführen können.
  • Eine bevorzugte Formmessvorrichtung gemäß der Erfindung umfasst ein Teil für die Extrahierung eines charakteristischen Musters, in Übereinstimmung mit einem Paar erster Bilder eines Messgegenstands, die charakteristische Muster aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus unterschiedlichen Winkeln und mit einem Paar zweiter Bilder des Messgegenstands, die keine charakteristischen Muster aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus den gleichen Winkeln wie die ersten Bilder, zum Berechnen der Differenz zwischen dem ersten Bild und dem zweiten Bild, die aus jeder Richtung aufgenommen sind, wodurch die charakteristischen Muster erhalten werden, ein Teil für die Berechnung eines Positionsverhältnisses zwischen dem Paar der ersten Bilder und dem Paar der zweiten Bilder basierend auf Differenzbildern, die in dem Teil für die Extrahierung eines charakteristischen Musters erhalten werden, ein Teil für die Bildung eines Stereomodells in Übereinstimmung mit dem Positionsverhältnis, welches in dem Teil für die Berechnung eines Positionsverhältnisses erhalten wird, zum gegenseitigen In-Beziehung-Setzen der ersten Bilder oder der zweiten Bilder derart, dass ein Stereo modell gebildet wird, welches stereoskopisch betrachtet werden kann, und ein Formmessteil zum Erhalten der Form des Gegenstands in Übereinstimmung mit dem Stereomodell, welches in dem Teil für die Bildung eines Stereomodells gebildet ist.
  • Der Teil für die Extrahierung eines charakteristischen Musters kann angepasst sein, das charakteristische Musterbild durch Vergleich des Differenzbilds, welches aus der Differenz zwischen dem ersten Bild und dem zweiten Bild besteht, die aus jeder Richtung aufgenommen sind, mit einem zuvor gespeicherten Referenzbild mit charakteristischem Muster zu extrahieren.
  • Der Teil für die Extrahierung eines charakteristischen Musters kann angepasst sein, das Bild mit charakteristischem Muster durch Vergleich, gemäß einem Musteranpassungsverfahren, des Differenzbilds, welches aus der Differenz zwischen dem ersten Bild und dem zweiten Bild besteht, die aus jeder Richtung aufgenommen sind, mit einem zuvor gespeicherten Referenzbild mit charakteristischem Muster zu extrahieren.
  • Der Teil für die Extrahierung eines charakteristischen Musters kann angepasst sein, das Bild mit charakteristischem Muster zuerst durch Durchführen einer Groberfassung gemäß eines Musteranpassungsverfahrens zu extrahieren und dann eine präzise Erfassung durch Anwenden einer vorbestimmten Verarbeitung auf ein Bild in der Nähe eines charakteristischen Musters durchzuführen.
  • Eine bevorzugte Bildbildungsvorrichtung zur Formmessung gemäß der Erfindung umfasst ein Teil für die Extrahierung eines charakteristischen Musters zum wahlweisen Bilden charakteristi scher Muster, die als Referenzen auf einem Messgegenstand dienen, und einen Bildbildungsteil zum Aufnehmen eines Bilds eines Messgegenstands mit charakteristischen Mustern, die als Referenzen dienen und auf demselben in verschiedenen Richtungen vorgesehen sind, wodurch ein Paar erster Bilder erhalten wird, und zum Aufnehmen eines Bilds des Messgegenstands mit keinen charakteristischen Mustern, die als darauf in den gleichen Richtungen wie die ersten Bilder vorgesehene Referenzen dienen, wodurch ein Paar zweiter Bilder erhalten wird.
  • Der Teil für die Bildung eines charakteristischen Musters kann aus einem Teil für die Projektion eines charakteristischen Musters zum wahlweisen Projizieren von charakteristischen Mustern bestehen, die als Referenzen auf einem Messgegenstand dienen.
  • 1 stellt ein Blockdiagramm dar, das einen Fluss von Messvorgängen in einem Formmessgerät zeigt.
  • 2 stellt ein Blockdiagramm dar, das konzeptionell die Formmessvorrichtung der Erfindung zeigt.
  • 3 stellt ein Teil zum Aufnehmen eines linken und eines rechten Bilds der Formmessvorrichtung dar.
  • 4 stellt ein Blockdiagramm dar, das ein Teil für die Extrahierung eines Musters der Formmessvorrichtung zeigt.
  • 5 stellt eine Draufsicht dar, die ein Beispiel von projizierten Mustern zeigt.
  • 6 stellt eine Draufsicht dar, die ein weiteres Beispiel projizierter Muster zeigt.
  • 7 stellt eine exemplarische Zeichnung dar, die die Musteranpassung gemäß einem SSDA-Verfahren (Sequential Similarity Detection Algorithm) zeigt.
  • 8 stellt eine exemplarische Zeichnung dar, die ein Momentverfahren zeigt.
  • 9 stellt eine exemplarische Zeichnung dar, die ein Referenzbild zeigt.
  • 10 stellt eine exemplarische Zeichnung dar, die ein Suchbild zeigt.
  • 11 stellt eine exemplarische Zeichnung dar, die ein Suchbild zeigt.
  • 12 stellt eine exemplarische Zeichnung dar, die ein Suchbild zeigt.
  • 13 stellt eine exemplarische Zeichnung dar, die ein Suchbild zeigt.
  • 14 stellt eine exemplarische Zeichnung dar, die ein Suchbild zeigt.
  • 15 stellt eine exemplarische Zeichnung dar, die ein Referenzbild zeigt.
  • 16 stellt eine exemplarische Zeichnung dar, die ein Referenzbild zeigt.
  • 17 stellt ein Blockdiagramm dar, das einen Plan einer Bildmessvorrichtung zeigt.
  • Eine Ausführungsform der Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden.
  • 1 zeigt einen Fluss von Messvorgängen und 2 stellt ein Blockdiagramm dar, das konzeptionell eine Formmessvorrichtung zeigt.
  • a. AUFNEHMEN VON STEREOBILDERN DES GEGENSTANDS
  • Zuerst werden in Übereinstimmung mit den Anweisungen eines Controllers 4 charakteristische Muster von einem Teil 3 zum Projizieren eines charakteristischen Musters auf einen Messgegenstand 0 projiziert. Anschließend wird das Bild des Messgegenstands 0 durch Teile 1 und 2 zum Aufnehmen eines linken und eines rechten Bilds aufgenommen, und die Bilddaten werden an ein Teil 5 für die Extrahierung eines charakteristischen Musters transferiert.
  • Die Teile 1 und 2 für das linke und rechte Bild weisen wie in 3 gezeigt ein optisches System 11, einen CCD 12, einen CCD-Treiber 13, einen Operationsverstärker 14 und einen A/D-Wandler 15 und Ähnliches auf.
  • 5 und 6 zeigen Beispiele von charakteristischen Mustern. Obwohl diese charakteristischen Muster 20 hier von einer kreisförmigen Form sind, könnten sie von jeder anderen Form als einer kreisförmigen Form sein, vorausgesetzt dass sie die Markierungsbildpositionen bereitstellen können, die durch die Projektion des charakteristischen Musters vorgesehen werden.
  • Als Teil 3 zum Projizieren des charakteristischen Musters kann jegliche Vorrichtung, wie z.B. ein Diaprojektor oder ein Laserzeiger, verwendet werden, die zum Projizieren von charakteristischen Mustern 20 fähig ist.
  • 4 stellt ein Blockdiagramm dar, das Details des Teils 5 für die Extrahierung eines charakteristischen Musters zeigt.
  • Die von den Teilen 1 und 2 zum Aufnehmen des linken Bilds und des rechten Bilds transferierten Bilddaten werden durch den A/D-Wandler 15 in 3 in digitale Daten gewandelt und an einen Bildspeicher 51 für eine Projektion eines charakteristischen Musters des Teils 5 für die Extrahierung eines charakteristischen Musters transferiert.
  • In Übereinstimmung mit Anweisungen des Controllers 4 wird dann die Projektion eines charakteristischen Musters angehalten und es werden Bilder ohne charakteristische Muster durch die Teile 1 und 2 zum Aufnehmen des linken Bilds und des rechten Bilds aufgenommen, und die passenden digitalen Daten werden an einen Bildspeicher 52 für Bilder ohne charakteristische Muster des Teils 5 für die Extrahierung eines charakteristischen Musters gesendet.
  • Wenn der Bildtransfer zu dem Bildspeicher 51 für eine Projektion eines charakteristischen Musters und der Bildspei cher 52 für Bilder ohne projizierte charakteristische Muster abgeschlossen ist, werden in Übereinstimmung mit Anweisungen des Controllers 4 die zwei Bilder einer Differenzberechnung in einem Bilddifferenzberechner 53 unterworfen. Das Differenzbild wird in einem Speicher 54 für charakteristische Musterbilder gespeichert.
  • Im Ergebnis werden die in dem Speicher 54 für charakteristische Musterbilder gespeicherten Daten derart sein, dass die Bildinformation des Messgegenstands 0 gelöscht ist, d.h. dass sie lediglich die Information der charakteristischen Muster 20 (Markierungsbilddaten) einschließen.
  • b. POSITIONSERFASSUNG
  • Um den Ausrichtungsprozess durchzuführen, wird eine Erfassung der Markierungsbildpositionen ausgeführt, die durch die Projektion des charakteristischen Musters bereitgestellt werden.
  • Die Koordinatenpositionen des charakteristischen Musters in dem Speicher 54 für charakteristische Musterbilder werden durch einen Teil 55 zum Erfassen charakteristischer Musterpositionen erfasst.
  • Obwohl das charakteristische Muster 20 von einer beliebigen Form sein könnte, vorausgesetzt dass es seine Position klar anzeigt, wird von den hier verwendeten Mustern angenommen, dass sie charakteristische Muster 20 sind, wie sie z.B. in 5 oder 6 gezeigt sind. Des Weiteren können die charakteristischen Muster aus einer beliebigen Anzahl von individuellen Mustern bestehen, falls sie sechs oder darüber ist, wie in 5 oder 6 gezeigt.
  • Da dort in dem Speicher 54 für charakteristische Musterbilder keine andere Information als das durch die Projektion der charakteristischen Muster erhaltene Markierungsbild enthalten ist, kann das Auftreten einer irrtümlichen Erfassung verhindert werden. Da es des Weiteren leichter ist, die Positionserfassung automatisch durchzuführen, ist es möglich, eine konstant stabilisierte Erfassung der Positionskoordinaten frei von persönlichen Fehlern und mit einer Präzision auszuführen.
  • Hier wird ein Fall beschrieben werden, bei dem ein Musteranpassungsverfahren für eine grobe Positionserfassung verwendet wird und ein Momentverfahren für die detaillierte Positionserfassung verwendet wird.
  • Unter Bezugnahme auf das Musteranpassungsverfahren wird der sequenzielle Ähnlichkeitserfassungsalgorithmus ("Sequential Similarity Detection Algorithm", SSDA-Verfahren) als eine Art Korrelationsverfahren beschrieben werden, jedoch könnte auch ein normalisiertes Korrelationsverfahren oder dgl. verwendet werden. Bei der detaillierten Positionserfassung könnte ein Verfahren wie z.B. ein LOG(Laplace- oder Gauß'sches)-Filterverfahren auch anstatt dem Momentverfahren verwendet werden.
  • Nachfolgend werden Positionserfassungsvorgänge beschrieben werden.
  • (Grobe Positionserfassung)
    • 1. Ein Musterbild wird registriert.
  • Als Musterbild könnte ein Simulationsbild ähnlich zu einer der Markierungen der projizierten charakteristischen Muster 20, die in 5 oder 6 gezeigt sind, erzeugt werden oder jedes der tatsächlichen Bilder könnte zur Verwendung ausgewählt werden.
    • 2. Punkte, die S > R (a, b) erfüllen, werden in dem gesamten Bild (s. Gleichung 1) gesucht.
  • Je näher der Wert R (a, b) an 0 ist, desto höher ist die Ähnlichkeit. Für S wird zuvor ein geeigneter Wert eingestellt. Da in diesem Fall eine andere Bildinformation als die charakteristischen Muster gelöscht wird, ist eine Bestimmung einfach gemacht. Während das normalisierte Korrelationsverfahren für die Musteranpassung verwendet werden könnte, kann der Vorgang schneller durchgeführt werden, falls der sequenzielle Ähnlichkeitserfassungsalgorithmus verwendet wird.
  • [Sequenzieller Ähnlichkeitserfassungsalgorithmus (SSDA-Verfahren)]
  • Die Prinzipzeichnung des SSDA-Verfahrens ist in 7 gezeigt, und die passende Gleichung ist in Gleichung 1 gezeigt.
  • Der Punkt, bei dem der Rest R (a, b) zu einem Minimum wird, ist die Position der gewünschten Markierung.
  • Gl. 1
  • Durch Durchführen der Addition von Gl. 1, falls die Berechnungsoperation derart angepasst ist, dass die Addition angehalten wird, wenn der Wert von R (a, b) den Minimalwert der Reste überschreitet, die zuvor erhalten wurden, und falls er zum nächsten (a, b) verschoben ist, kann eine schnellere Verarbeitung erzielt werden.
    • 3. Die Markierungspositionen der projizierten charakteristischen Muster der gewünschten Anzahl von Markierungen werden gemäß Bedingungen bestimmt, wie z.B., dass der Wert R (a, b) sich bei einem Minimum befindet, und Entfernungen zwischen benachbarten Markierungspositionen, und die gleichen werden als Positionskoordinaten verwendet.
  • (Detaillierte Positionsbestimmung)
  • 1. Bestimmung eines Suchgebiets
  • Ein Suchgebiet wird mittig um den Punkt eingestellt, der bei der oben beschriebenen groben Positionserfassung bestimmt wurde.
  • 2. Bestimmung eines Markierungsbereichs
  • Hinsichtlich des Suchgebiets wird ein Bereich, wo die Dichte über einem Schwellenwert liegt, als Markierung eingestellt (s. 8).
  • Als Schwellenwert wird ein geeigneter Wert voreingestellt. Das Bild ist bei anderen Abschnitten als den Markierungen virtuell 0, da es der Differenzverarbeitung unterworfen wurde.
  • 3. Berechnung eines Schwerpunkts
  • Die Positionskoordinate des Schwerpunkts wird gemäß einem Momentverfahren berechnet.
  • [Momentverfahren]
  • Die folgenden Gleichungen werden auf die Punkte über dem Schwellenwert T (der Markierung K) angewendet, wie in 8 gezeigt.
    Gl. 2
    Gl. 3
  • Durch Gl. 2 und Gl. 3 wird es möglich, die Position des Schwerpunkts auf die Sub-Pixelposition herunterzurechnen.
    • 4. Operationen 1–3 werden an jedem Punkt der gesamten Anzahl der Punkte durchgeführt.
  • Durch Durchführen der obigen Vorgänge können die Koordinaten der Markierungsbildpositionen, die durch die charakteristische Musterprojektion bereitgestellt werden, wie in 5 oder 6 gezeigt, berechnet werden.
  • Es könnte möglich sein, die detaillierte Positionserfassung von Anfang an ohne Durchführen der groben Positionserfassung durchzuführen. Des Weiteren könnte jeder andere als der obige Algorithmus für die Positionserfassung verwendet werden.
  • Auf jeden Fall ist es möglich, die Positionen schnell und präzise zu berechnen, da das Bild lediglich aus der Information der charakteristischen Muster besteht.
  • c. AUSRICHTUNG
  • Dann werden die in dem Teil 5 zur Erfassung einer charakteristischen Musterposition erhaltenen Koordinatenwerte an ein Teil 6 zur Berechnung einer Lage gesendet, wobei Berechnungen für die Ausrichtungsarbeit durchgeführt werden.
  • Durch diese Berechnung kann die Positionen der beiden Kameras links und rechts und Ähnliches erhalten werden.
  • Diese Parameter werden in Übereinstimmung mit dem folgenden koplanaren bedingten Ausdruck erhalten:
    Gl. 4
  • Der Ursprung des Modellkoordinatensystems ist bei der Mitte der Projektion auf der linken Seite gewählt und eine X-Achse ist entlang der Linie aufgetragen, die sie mit der Projektionsmitte rechts verbindet. Die reduzierte Skala wird durch Aufnehmen der Länge der Basislinie als Einheitslänge eingestellt. Zu diesem Zeitpunkt bestehen die gesuchten Parameter aus dem Drehwinkel K1 um die Z-Achse und dem Drehwinkel Φ1 um die Y-Achse der Kamera auf der linken Seite und dem Drehwinkel KZ um die Z-Achse, dem Drehwinkel Φ2 um die Y-Achse und dem Drehwinkel ω2 um die X-Achse der Kamera auf der rechten Seite, d.h. fünf Drehwinkel insgesamt. Da in diesem Fall der Drehwinkel ω1 um die X-Achse der Kamera auf der linken Seite 0 ist, muss er nicht berücksichtigt werden.
  • Unter solchen Bedingungen wird der koplanare bedingte Ausdruck der Gl. 4 durch die Gl. 5 ausgedrückt. Durch Auflösen dieser Gleichung können die Parameter erhalten werden.
    Gl. 5
  • Hierbei existieren zwischen dem Modellkoordinatensystem XYZ und dem Kamerakoordinatensystem xyz die folgenden Verhältnisgleichungen für eine Koordinatentransformation:
    Gl. 6
    Gl. 7
  • Durch Verwendung dieser Gleichungen werden die unbekannten Parameter durch die nachfolgende Prozedur erhalten.
    • 1. Der ursprüngliche ungefähre Wert ist im Allgemeinen auf 0 eingestellt.
    • 2. Die Werte der erhältlichen differenziellen Koeffizienten werden, wenn die koplanare bedingte Gleichung 5 einer Taylor-Erweiterung um den ungefähren Wert unterworfen wird und linearisiert wird, aus den Gleichungen 6 und 7 erhalten, und eine Beobachtungsgleichung wird aufgestellt.
    • 3. Durch Anwendung des Fehlerquadratverfahrens wird der Korrekturwert zum Korrigieren des ungefähren Werts erhalten.
    • 4. Der ungefähre Wert wird korrigiert.
    • 5. Unter Verwendung des korrigierten ungefähren Werts werden die obigen Operationen 2–5 wiederholt, bis eine Konvergenz erreicht ist.
  • Es kann einen Fall geben, bei dem eine Konvergenz nicht erreicht wird, wenn die Position einer Markierung wegen der Form des Gegenstands oder Ähnlichem nicht gut erfasst werden kann. In einem solchen Fall könnten die Operationen 1–5 mit solchen Punkten, die einer nach dem anderen eliminiert werden, und Parametern durchgeführt werden, die eine Konvergenz ermöglichen, oder das beste Ergebnis könnte verwendet werden.
  • d. BILDUNG EINES STEREOMODELLS
  • Anschließend wird das Bild in ein Stereomodell-Koordinatensystem transferiert, was einem eine Stereoansicht unter Verwendung der bei dem Orientierungsvorgang erhaltenen Parameter erhalten lässt, und dadurch wird ein Stereomodell gebildet.
  • Die Transformationsgleichungen zu der Modellkoordinate werden wie folgt ausgedrückt:
    Gl. 8
    Gl. 9
    Gl. 10
  • Somit wird es leicht gemacht, die dreidimensionale Messung auszuführen.
  • e. DREIDIMENSIONALE MESSUNG
  • (1) Punktmessung
  • Unter Verwendung der charakteristischen Muster 20 aus sechs oder mehr Punkten, wie in 6 gezeigt, und unter Unterwerfung der Vielzahl von Markierungen unter die gleichen Vorgänge, wie bei der Positionserfassung (b), können von diesen dreidimensionale Koordinaten automatisch und präzise erhalten werden.
  • (2) Planare Messung
  • Die Anfangswerte für die Stereoanpassung können unter Verwendung der projizierten charakteristischen Muster 20 vorgesehen werden, wie in 6 gezeigt.
  • Das Verfahren, die Anfangswerte in dem Fall der planaren Messung zu bestimmen, wird beschrieben werden.
  • 9 und 10 stellen exemplarische Zeichnungen dar, die durch einen Extrahierungsteil der projizierten charakteristischen Muster, die in 6 gezeigt sind, aufgestellt werden.
  • 9 zeigt ein Referenzbild, das als Referenz dient, und 10 zeigt ein Suchbild, in dem eine Suche durchgeführt wird. Entweder das linke Bild oder das rechte Bild könnte als Referenzbild verwendet werden, und das andere könnte als das Suchbild verwendet werden.
  • Beispielsweise wird hier das linke Bild als das Referenzbild und das rechte Bild als das Suchbild eingestellt. Unter Bezug auf die projizierten charakteristischen Muster entsprechen S1, S2, S5 und S6 auf dem Suchbild S' 1, S' 2, S'5 und S'6 auf dem Referenzbild.
  • Die Suche nach entsprechenden Punkten wird durch Anwenden einer Stereoanpassung auf ein Suchgebiet in dem Suchbild mit einem Referenzdatenblock in dem Referenzbild, welches als Musterbild verwendet wird, durchgeführt. Bei der Stereoanpassung wird z.B. eine Bildkorrelation als Vorgang angewendet.
  • [Bestimmung eines Suchgebiets]
  • Das Verfahren, um das Suchgebiet gemäß den projizierten charakteristischen Mustern zu bestimmen, wird beschrieben werden.
  • Nimmt man den Abschnitt (in der horizontalen Richtung) zwischen den projizierten charakteristischen Mustern S1 und S2 als Breite A und den Abschnitt (in der vertikalen Richtung) zwischen S1 und S5 als Breite B, wird der Teil, der durch S1, S2, S5 und S6 umschlossen ist, als Suchgebiet R1 eingestellt. Der durch S2, S3, S6 und S7 eingeschlossene Teil wird als Suchgebiet R2 eingestellt, und auf ähnliche Weise werden nachfol gende Abschnitte, die durch jeweilige projizierte charakteristische Muster umschlossen sind, als Suchgebiete eingestellt.
  • Die Markierungsbilder tatsächlich projizierter charakteristischer Muster liegen nicht immer auf der gleichen Linie, wie in 11 gezeigt, abhängig von der Form des Gegenstands oder der Orientierung der CCD. Somit wird ein solches Rechteck von dem jeweiligen vier projizierten charakteristischen Mustern gebildet, welches die größten Breiten A und B aufweist, und es wird als Suchgebiet eingestellt. Im Falle der 11 betragen die maximalen Breiten, die durch S1, S2, S5 und S6 erhältlich sind, A1 in der horizontalen Richtung und B1 in der vertikalen Richtung, und das aus ihnen gebildete Rechteck wird als das Suchgebiet R1 eingestellt, und ebenso wird das durch die größten Breiten A2 und B2, die aus S2, S3, S6 und S7 erhältlich sind, gebildete Rechteck als das Suchgebiet R2 eingestellt. Auf diese Weise wird sichergestellt, obwohl ein gewisser Überlappungsabschnitt erzeugt wird, dass eine Suche auch im Grenzabschnitt zwischen den Gebieten R1 und R2 durchgeführt werden kann.
  • Das oben beschriebene Verfahren ist derart, dass es die Reichweite der Suchgebiete in dem Suchbild in Übereinstimmung mit den Positionen der Markierungsbilder in dem Suchbild bestimmt, die bereits erhalten sind.
  • 12 zeigt ein Beispiel einer Abwandlung des Verfahrens zum Bestimmen des Suchgebiets.
  • Da die jeweiligen projizierten charakteristischen Muster auf dem linken Bild und dem rechten Bild bereits als einander entsprechenden Punkte erhalten sind, kann eine effektive Suche durchgeführt werden, wenn das Suchgebiet z.B. derart erstellt ist, dass der Suchstartpunkt und der Suchendpunkt den projizierten Punkten nahe sind. Bei dem Beispiel der 11 wird nämlich anscheinend, falls die Suche entlang der Breite A1 der Reihe nach in der vertikalen Richtung von S1 zu S5 verschoben ausgeführt wird, ein verschwenderisches Suchgebiet erzeugt, (wo es keinen entsprechenden Punkt gibt,) wenn die Suche in die Nähe der Linie kommt, die das Muster S5 passiert.
  • Somit könnten, hinunter zu der Position D1 bei dem Halbwegpunkt (in der vertikalen Richtung) zwischen S1 und S5 der 12, die Punkte bei der gleichen Position wie der Punkt S1 als die horizontalen Suchstartpunkte in dem Suchgebiet hergenommen werden, und zwischen D1 und S5 könnte die Linie, die D1 mit S5 verbindet, als die Suchstartpunkte in der horizontalen Richtung genommen werden.
  • Durch Errichten der Suchgebiete durch Anwenden der gleichen Verarbeitung auf jeden der projizierten Punkte und durch Durchführen einer Stereoanpassung mit den Suchgebieten, die sich zu einem gewissen Maß überlappen, kann eine etwas effektivere Suche ausgeführt werden.
  • 13 und 14 zeigen einen Fall, bei dem die Suche in dem Suchgebiet effektiver durchgeführt wird, indem Suchdatenblöcke in einem Suchgebiet errichtet werden.
  • Wenn z.B. Positionen in dem Suchgebiet, entsprechend den Referenzdatenblöcken T1, T2, T3,... in dem in 9 gezeigten Referenzbild, in einem Abschnitt A1 gesucht werden, der durch die Markierungen S1 und S2 in dem Suchbild definiert ist, wobei das Suchgebiet in einige Blöcke geteilt ist, dann werden entsprechende Suchdatenblöcke U1, U2, U3,... gebildet, wie in 13 gezeigt. Dann kann die Suche in dem Suchgebiet schnell und effektiv durchgeführt werden. Zu diesem Zeitpunkt kann die Reichweite des Suchdatenblocks gemäß der Anzahl der Referenzdatenblöcke bestimmt werden, die gebildet sind. Wenn z.B. n Referenzdatenblöcke in dem Abschnitt A' zwischen den Bildern S'1 und S'2 in dem Referenzbild gebildet werden, könnte der Bereich auf A1/n, A1/(n – 1), oder Ähnliches eingestellt werden. In dem durch (n – 1) geteilten Fall wird die Suche mit den Suchdatenblöcken durchgeführt, die einander bis zu einem gewissen Grad überlappen.
  • Das oben beschriebene Verfahren ist derart, dass es den Bereich des Suchgebiets in dem Suchbild in Übereinstimmung mit der Position des Markierungsbilds und der Position des Suchgebiets in dem Suchbild errichtet, die bereits erhalten sind. Von einem anderen Winkel aus kann auch gesagt werden, dass das Verfahren derart ist, dass es den Bereich des Suchgebiets in dem Suchbild in Übereinstimmung mit seinem Verhältnis zu der Position des Markierungsbilds und der Position des Referenzdatenblocks in dem Referenzbild errichtet.
  • Ein abgewandeltes Beispiel des Verfahrens der 13 ist in 14 gezeigt. Dieses Verfahren ist derart, dass es die Größe des Suchdatenblocks variabel macht. Die Größe der Suchdatenblöcke wird nämlich in der Nähe der Markierungen S1 und S2 kleiner gemacht, da es sicher ist, dass sich der entsprechende Punkt dort nahe zu dem Referenzdatenblock befindet, aber da die in Frage stehende Position von dort weiter entfernt ist, wird die Größe größer gemacht, da die Position des entsprechenden Punkts vage wird. Dementsprechend weist der Suchdatenblock seine größte Größe bei der Position auf, die dem Referenzdatenblock bei der Position A1/2 entspricht.
  • Die Größen dieser Suchdatenblöcke werden in Übereinstimmung mit dem Suchgebiet A1 zwischen S1 und S2 bestimmt.
  • Wenn die Anzahl der Referenzdatenblöcke im Abschnitt A1 z.B. durch n bezeichnet wird, werden die Größen der Suchdatenblöcke in dem Abschnitt von S1 zu S1 + A1/2 eingestellt auf (1 + t× i/n) × A1/n,und die Größen der Suchdatenblöcke in dem Abschnitt von S1 + A1/2 zu S2 werden eingestellt auf (1 + t × (n – i)/n) × A1/n,wobei i die Positionen der Suchdatenblöcke entsprechend ihren jeweiligen Referenzdatenblöcken bezeichnet; d.h. i = 1 bis n, und t bezeichnet einen Vergrößerungsfaktor, der auf einen festen Wert einzustellen ist. Wenn es z.B. gewünscht ist, die Größe des Suchdatenblocks bei der Position S1 + A1/2 zweimal so groß wie die bei der Position S1 (U1) zu machen, wird t auf 2 eingestellt.
  • Die Größen der Suchdatenblöcke könnten auch in Übereinstimmung mit den Markierungen S'1 und S'2 und den Referenzdatenblöcken T1, T2,... in dem Referenzbild bestimmt werden. Zu diesem Zeitpunkt könnte das obige A1 durch A' ersetzt werden, und ein in Betracht gezogener Ausdruck mit der Vergrößerung A1/A' könnte multipliziert werden.
  • Durch Errichten des Suchgebiets und der Suchdatenblöcke, wie oben beschrieben, wird es möglich, die Suche nach den entsprechenden Punkten effektiv auszuführen, d.h. mit hohen Geschwindigkeiten und mit einer erhöhten Zuverlässigkeit.
  • Bei dem oben beschriebenen Verfahren wird die Größe des Bereichs des Suchgebiets in dem Suchbild in Übereinstimmung mit seinem Verhältnis zu den Positionen des Suchbilds und der Position des Suchgebiets in dem Suchbild, oder, von einem anderen Winkel aus betrachtet, in Übereinstimmung mit seinem Verhältnis zu der Position des Markierungsbilds und einer Position des Referenzdatenblocks in dem Referenzbild errichtet.
  • [Bestimmung von Referenzdatenblöcken]
  • Die Referenzdatenblöcke, die als Referenzen dienen, werden in Übereinstimmung mit S' 1, S' 2, S' 5 und S' 6 in dem Referenzbild oder in Übereinstimmung mit S1, S2, S5 und S6 in dem Suchbild bestimmt. Wenn z.B. die Entfernung von S'1 und S'2 mit A' bezeichnet ist und die Entfernung von S'1 nach S'5 mit B', dann könnte die Referenzdatenblockbreite in der horizontalen Richtung auf A'/n eingestellt werden und die in der vertikalen Richtung könnte auf B'/m eingestellt werden. Ansonsten könnten die Größen auf das Verhältnis zwischen dem Bild auf der linken Seite und dem auf der rechten Seite proportioniert („proportionated") werden. Sie könnten z.B. auf A'/A *n in der horizontalen Richtung und H'/B *m in der vertikalen Richtung eingestellt werden.
  • Der Zahl n könnten geeignete Werte gemäß einem Verhältnis zwischen der Größe des Messgegenstands und der Pixelanzahl gegeben werden, oder sie könnte auf geeignete Konstanten gemäß den Werten von A' und B' eingestellt werden.
  • 15 zeigt einen Fall, bei dem eine Stereoanpassung, die gleiche wie oben, herangezogen wird, während ein Referenzdatenblock mit drei Größen, anstatt einer Größe, verwendet wird, und Korrelationsprodukte berechnet werden. Auch in diesem Fall können die drei Größen auf Basis der Information von A' und B' bestimmt werden.
  • 16 zeigt ein weiteres Abwandlungsbeispiel der Bestimmung der Referenzdatenblöcke. In den Bereichen nahe zu S'1 und S'2 wird eine relativ gute Korrespondenz zwischen dem Referenzbild und dem Suchbild angenommen, und somit können die Referenzdatenblöcke kleiner gemacht werden. Da dementsprechend die in Frage stehende Position davon weiter entfernt ist, wird die entsprechende Position vage und somit wird die Größe des Referenzdatenblocks dynamisch geändert. Der Referenzdatenblock wird z.B. entsprechend größer gemacht, wenn er von der Position T1 zu der Position T2 und zu der Position T3 läuft, wie in 16 gezeigt. Dem Referenzdatenblock wird die größte Größe gegeben, wenn er sich bei dem Punkt A'/2 befindet. Auf der anderen Seite wird die Größe des Referenzdatenblocks sukzessive verringert, wenn er von A'/2 nach S'/2 läuft.
  • Durch Vorsehen solcher Mittel kann die Zuverlässigkeit der Stereoanpassung erhöht werden.
  • Die Größen der Referenzdatenblöcke werden in Übereinstimmung mit der Breite A' von S'1 nach S'2 in der horizontalen Richtung und der Breite B' von S' 1 nach S' 5 in der vertikalen Richtung bestimmt.
  • Wenn z.B. die Anzahl der Referenzdatenblöcke entlang den Breiten A' und B' mit n und m bezeichnet werden, betragen die Referenzdatenblockgrößen in dem Abschnitt von S'1 nach S'1 + A'/2:
    horizontal: (1 + t × i/n) × A'/n;
    vertikal: (1 + t × 1/m) × B'/m;
    die Referenzdatenblockgrößen in dem Abschnitt von S'1 + A'/2 nach S'2:
    horizontal: (1 + t × (n – i)/n) × A'/n;
    vertikal: (1 + t × (m – 1)/m) × B'/m;
    wobei i und 1 die jeweiligen Positionen der Referenzdatenblöcke bezeichnen, d.h. i = 1 bis n und 1 = 1 bis m.
  • Oben bezeichnet t einen Vergrößerungsfaktor, der auf einen gewünschten Wert eingestellt ist. Wenn es z.B. gewünscht ist, die Größe des Referenzdatenblocks bei der Position S'1 + A'/2 zweimal so groß wie die bei der Position S'1 (T1) zu machen, wird t auf 2 eingestellt.
  • Somit können die Referenzdatenblöcke variabel gemacht werden.
  • Durch Bilden des Referenzdatenblocks mit drei Größen, wie in 15 gezeigt, die, wie in dem obigen Beispiel beschrieben, variabel sind, und durch Durchführen einer Stereoanpassung mit berechneten Korrelationsprodukten, kann ein Suchen nach entsprechenden Punkten des Weiteren mit einer noch größeren Zuverlässigkeit durchgeführt werden.
  • Die Größen der Referenzdatenblöcke könnten auf ähnliche Weise gemäß den Markierungen S1 und S2 in dem Suchbild bestimmt werden. Dann könnte A' durch A1 ersetzt werden und B' könnte mit B1 ersetzt werden, und des Weiteren könnte ein Term mit der in Betracht gezogenen Vergrößerung A'/A1 multipliziert werden.
  • Durch Befolgen der oben beschriebenen Prozedur können Anfangswerte automatisch erhalten werden.
  • Nun wird die Prozedur zum Ausführen einer tatsächlichen Messung (eine Stereoanpassung) beschrieben werden.
  • Beispielhaft wird der Fall von projizierten charakteristischen Mustern S1–S8, die in 6 gezeigt sind, unter Bezugnahme auf 9 und 11 beschrieben werden.
  • Da die Ausrichtungsverarbeitung in der vertikalen Richtung abgeschlossen ist und die Längsparallaxe entfernt ist (eine Positionierung ist abgeschlossen), ist es lediglich erforderlich, entlang der gleichen Linie in dem Referenzbild und dem Suchbild zu suchen. Die Suchdatenblöcke könnten in jedem geeigneten Suchgebiet errichtet werden, wie oben beschrieben.
    • 1. Ein Suchen nach entsprechenden Punkten entlang der Suchbreite A1 von S1 zu S2 der horizontalen Linie L1 in dem Suchgebiet R1 des Suchbilds wird sukzessive von dem Referenzdatenblock T1, T2, T3,... in dem Referenzbild durchgeführt.
  • Die ursprünglichen Werte werden zuvor gemäß einem ungefähren Verfahren bestimmt, wie oben beschrieben.
  • Wenn die Suche entlang der Breite A1 der Linie L1 in dem Suchgebiet R1 abgeschlossen ist,
    • 2. dann wird eine Suche nach entsprechenden Punkten entlang der Suchbreite A2 von S2 nach S3 der Linie L1 in dem Suchgebiet R2 sukzessive von den Positionen der Referenzdatenblöcke durchgeführt, die in dem Gebiet errichtet sind.
    • 3. Dann wird eine Suche nach entsprechenden Punkten entlang der Suchbreite A3 von S3 zu S4 der Linie L1 in dem Suchgebiet R3 durchgeführt. Für das Suchgebiet R3 wird die Suche sukzessive von den Mustergrößen und -positionen durchgeführt, die in dem Gebiet errichtet sind.
  • Wenn die Suche nach entsprechenden Punkten entlang der Linie L1 abgeschlossen ist, dann wird die Suchlinie zu der nächsten Linie L2 verschoben und eine Suche nach entsprechenden Punkten wird wieder auf die gleiche Weise durchgeführt, wie bei den obigen Punkten 1 bis 3 beschrieben, beginnend mit der Suchbreite A1 in dem Suchgebiet R1.
  • Diese Suchoperationen werden um die Anzahl der Linien wiederholt, die erforderlich sind.
  • Durch die oben beschriebene Prozedur können Anfangswerte, d.h. Suchgebiete, Suchdatenblöcke und Referenzdatenblöcke, zur Verwendung bei der Stereoanpassung aus den Positionen der projizierten charakteristischen Muster automatisch bestimmt werden, und eine automatische Messung wird möglich.
  • Da des Weiteren die Referenzdatenblöcke in dem Referenzbild innerhalb A' und B' begrenzt werden können und Suchgebiete in dem Suchbild ebenfalls begrenzt sind, kann eine viel schnellere Verarbeitung als bei einer gewöhnlichen Stereoanpassung erzielt werden. Das heißt, eine Stereoanpassung wird gewöhnlicherweise entlang einer horizontalen Linie bei jeder Suchposition durchgeführt (vgl. Linie der 6), wobei die Verarbeitungszeit auf ein Bruchteil der gewöhnlicherweise erforderlichen Zeit gemäß der Anzahl der projizierten Punkte reduziert werden kann.
  • Da des Weiteren die sich gegenseitig entsprechenden Gebiete in dem Referenzbild und dem Suchbild in zuvor beschränkten Zuständen erhalten werden können, kann eine Fehlanpassung stark verringert werden. Das bedeutet, die Zuverlässigkeit der Stereoanpassung kann stark verbessert werden.
  • Da die Referenzdatenblöcke, die Suchgebiete und die Suchdatenblöcke zusätzlich auf geeignete Weise gemäß einer Ortsinformation der projizierten Punkte bestimmt werden kann, kann die Zuverlässigkeit der Stereoanpassung weiter verbessert werden.
  • Da die Referenzdatenblöcke und die Suchdatenblöcke dynamisch gemäß den Suchpositionen variiert werden könnten, kann die Zuverlässigkeit weiter verbessert werden.
  • Da ferner die oben beschriebene Stereoanpassung an den Bildern durchgeführt werden kann, die keine projizierten charakteristischen Muster aufweisen, tritt keine fehlerhafte Erfassung wegen den charakteristischen Mustern auf. Da des Weiteren das Bild ohne charakteristische Muster die Werte als Daten einer Bilddatenbank aufweist, kann das Originalbild zur gleichen Zeit gespeichert werden, wie es gemessen wird.
  • Des Weiteren kann gemäß der oben beschriebenen Ausführungsform, da ein Bild mit darauf projizierten charakteristischen Mustern und ein Bild ohne selbige darauf projiziert verwendet wird, das Bedürfnis nach der Arbeit, eine Markierung auf den Gegenstand zu kleben, eliminiert werden, und somit wird es möglich, eine Messung an einem Gegenstand durchzuführen, auf den keine Markierung geklebt werden kann.
  • Durch die Möglichkeit eines Bildens bzw. Formen eines Bilds mit lediglich einer charakteristischen Musterinformation durch Erzielen der Differenz zwischen einem Bild mit charakteristischen Mustern und einem Bild ohne sie, können somit die Vorgänge eines Erfassens von charakteristischen Musterpositionen, – einer Ausrichtung, – einer Stereomodellbildung, – und einer dreidimensionalen Messung automatisch und präzise durchgeführt werden, ohne jedoch eine manuelle Arbeit zu erfordern. Das heißt, das Bedürfnis nach einer manuellen Arbeit zur Ausrichtung und einer dreidimensionalen Messung, was lästig war und eine Geschicklichkeit erforderte, kann eliminiert werden, und alle Vorgänge können automatisch mit einer erhöhten Zuverlässigkeit durchgeführt werden.
  • Da es des Weiteren nicht nötig ist, die Kamera fest an dem Pfannenneigungskopf zu sichern, eine hochpräzise dreidimensionale Sicherung jedoch nur durch grobes Einstellen von zwei Kameras in dem Gebiet und durch Aufnehmen von Bildern erzielt werden kann, wird ein solch exzellenter Effekt erhalten, dass eine Messung einfach durchgeführt werden kann und nicht von den Bedingungen im Gebiet und vom Gegenstand abhängt. Außerdem wird es durch Erhöhen der Punktanzahl der charakteristischen Muster möglich, die gleichen wie die Anfangswerte für eine Stereoanpassung zu verwenden, d.h. die Suchbreiten und Musterbilder zu errichten, um eine automatische Stereoanpassung zu erzielen. Deshalb wird ein solch exzellenter Effekt erzielt, dass die Oberflächenform des Gegenstands automatisch gemessen werden kann, während die Zeit, die für die Stereoanpassung erforderlich ist, stark reduziert wird und ihre Zuverlässigkeit sehr verbessert wird.
  • Eine kurze Darstellung der Bildmessvorrichtung gemäß der Erfindung wird unter Bezugnahme auf 17 beschrieben werden.
  • Die Bildmessvorrichtung 30 weist ein Teil 31 zur Messung einer ungefähren Position, ein Dateneinstellungsteil 32 und ein Teil 33 für eine Übereinstimmungsbestimmung auf.
  • Der Teil 31 zur Messung einer ungefähren Position ist angepasst, ein charakteristisches Musterbild zu verwenden, dessen Positionsinformation zuvor bekannt ist, und um aus einem Paar von Bildern eines Messgegenstands aus verschiedenen Win keln ungefähr die Ortsinformation des Gegenstands für eine Messung in jedem Bild zu erhalten.
  • Der Dateneinstellteil 32 ist angepasst, ein Bild des Bildpaars als Referenzbild und das andere als Suchbild einzustellen, und um basierend auf der Ortsinformation, die bei dem Teil 31 zur Messung einer ungefähren Position erhalten ist, Referenzdatenblöcke in dem Referenzbild zu errichten und Suchgebiete im Suchbild zu errichten.
  • Der Teil 33 zur Übereinstimmungsbestimmung ist angepasst, eine Übereinstimmung zwischen einem Suchdatenblock, der in dem Suchgebiet errichtet ist, und dem Referenzdatenblock zu erhalten.
  • Durch Verwenden der Bildmessvorrichtung 30 wird es möglich, eine Automatisierung einer dreidimensionalen Messung zu erhalten, die detailliert beschrieben ist, und eine Genauigkeit bei der Messung zu verbessern.
  • Die beschriebene Bildmessvorrichtung der 17 ist derart, dass sie auf die Formmessvorrichtung anwendbar ist, die unter Bezugnahme auf 116 beschrieben ist.
  • Gemäß der Formmessvorrichtung der Erfindung werden ein Paar erster Bilder eines Messgegenstands mit charakteristischen Mustern, die als darauf in verschiedenen Richtungen vorgesehene Referenzen dienen, und ein Paar zweiter Bilder des Messgegenstands ohne charakteristische Muster, die als darauf in die gleichen Richtungen wie die ersten Bilder vorgesehene Referenzen dienen, verwendet werden, und in Übereinstimmung mit den ersten und zweiten Bildern können die Messvorgänge von der Ausrichtungsarbeit zu der dreidimensionalen Messung automatisch, effektiv und präzise durchgeführt werden, ohne jedoch eine manuelle Arbeit zu erfordern.
  • Des Weiteren ist es gemäß der Bildbildungsvorrichtung für eine Formmessung der Erfindung möglich, ein Paar erster Bilder eines Messgegenstands mit charakteristischen Mustern, die als darauf in verschiedenen Richtungen vorgesehene Referenzen dienen, und ein Paar zweiter Bilder des Messgegenstands ohne charakteristische Muster zu bilden, die als darauf in den gleichen Richtungen wie die ersten Bilder vorgesehene Referenzen dienen.
  • Gemäß der Vorrichtung der Erfindung ist, durch Erhalten aus einem Paar von Bildern eines Messgegenstands aus verschiedenen Richtungen, einer ungefähren Ortsinformation des Messgegenstands in jedem Bild, wobei eines der Bilder des Bilderpaars als Referenzbild und das andere Bild als Suchbild eingestellt wird, und basierend auf der Ortsinformation, die in dem Teil zur Messung einer ungefähren Position erhalten wird, wobei Referenzdatenblöcke in dem Referenzbild errichtet werden, wobei Suchgebiete in dem Suchbild errichtet werden und Suchdatenblöcke in den Suchgebieten errichtet werden, und wobei eine Übereinstimmung zwischen dem Suchdatenblock, der in dem Suchgebiet errichtet ist, und dem Referenzdatenblock erhalten, die Vorrichtung angepasst, zumindest entweder eine Errichtung von Referenzdatenblöcken in dem Referenzbild oder eine Errichtung von Gebieten in dem Suchbild und eine Errichtung der Suchdatenblöcke darin basierend auf der ungefähren Ortsinformation durchzuführen, und deshalb kann die Übereinstimmung genau erhalten werden.
    Figure 00350001
  • T(m1, n1)
    Musterbild
    I(a, b)(m1, n1)
    Teilbild des Gegenstandsbilds
    (a, b)
    Obere linke Koordinaten eines Musterbilds
    R(a, b)
    Rest
    xg = {Σx·f (x, Y)}/Σ f(x, Y) Gl. 2
    (xg, yg)
    Koordinaten eines Schwerpunkts
    f(x, y)
    Konzentration bei Koordinaten (x, y)
    yg = {Σy·f(x, y)}/Σf (x, y) Gl. 3
    (xg, yg)
    Koordinaten eines Schwerpunkts
    f(x, y)
    Konzentration bei Koordinaten (x, y)
    Figure 00360001
    X01, Y01, Z01
    Koordinaten eines Zentrums einer Projektion auf linkem Bild
    X02, Y02, Z02
    Koordinaten eines Zentrums einer Projektion auf rechtem Bild
    X1, Y1, Z1
    Bildkoordinaten im linken Bild
    X2, Y2, Z2
    Bildkoordinaten im rechten Bild
    Figure 00360002

    Gl. 7
    Figure 00370001
    Xm = t1(X1 – X01) + X01 Gl. 8
    Xm, Ym, Zm
    Modellkoordinaten
    t1, t2
    Parameter
    Ym = 1/2×{t1(Y1 – Y01) + t2(Y01 – Y02 ) + Y01 + Y02} Gl. 9
    Xm, Ym, Zm
    Modellkoordinaten
    t1, t2
    Parameter
    Zm = t1(Z1 Zm) + Z01 Gl. 10
    Xm, Ym, Zm
    Modellkoordinaten
    t1, t2
    Parameter

Claims (6)

  1. Formmessvorrichtung gekennzeichnet durch: ein Teil (5) für die Extrahierung eines charakteristischen Musters zum Berechnen, in Übereinstimmung mit einem Paar erster Bilder (51) eines Messgegenstands (0), die charakteristische Muster (S) aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus unterschiedlichen Winkeln und mit einem Paar zweiter Bilder (52) des Messgegenstands (0), die keine charakteristischen Muster aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus den gleichen Winkeln wie die ersten Bilder, der Differenz zwischen den ersten Bildern (51) und den zweiten Bildern (52), die aus jeder Richtung aufgenommen sind, wodurch die charakteristischen Muster (54) erhalten werden; ein Teil (6) für die Berechnung eines Positionsverhältnisses zum Erhalten eines Positionsverhältnisses zwischen dem Paar der ersten Bilder (51) und dem Paar der zweiten Bilder (52) basierend auf den Differenzbildern, die in dem Teil (5) für die Extrahierung eines charakteristischen Musters erhalten werden; ein Teil (7) für die Bildung eines Stereomodells zum gegenseitigen In-Beziehung-Setzen, in Übereinstimmung mit dem Positionsverhältnis, das in dem Teil (6) für die Berechnung eines Positionsverhältnisses erhalten wird, der ersten Bilder (51) oder der zweiten Bilder (52) derart, dass ein Stereomodell gebildet wird, das stereoskopisch betrachtet werden kann; und ein Formmessteil (8) zum Erhalten der Form des Gegenstands (0) in Übereinstimmung mit dem Stereomodell, das in dem Teil (7) für die Bildung eines Stereomodells gebildet wird.
  2. Formmessvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Teil (5) für die Extrahierung eines charakteristischen Musters angepasst ist, um ein charakteristisches Musterbild (54) durch Vergleich des Differenzbilds, das aus der Differenz zwischen dem ersten Bild (51) und dem zweiten Bild (52) gebildet ist, die aus jeder Richtung aufgenommen sind, mit einem charakteristischen Referenzmusterbild, das zuvor gespeichert wird, zu extrahieren.
  3. Formmessvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass der Vergleich gemäß einem Musterübereinstimmungsverfahren durchgeführt wird.
  4. Formmessvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Teil (5) für die Extrahierung eines charakteristischen Musters angepasst ist, das charakteristische Musterbild (54) zuerst mittels Durchführen einer Groberfassung gemäß einem Musterübereinstimmungsverfahren und anschließend mittels Durchführen einer präzisen Erfassung durch Anwenden einer vorbestimmten Verarbeitung eines Bilds in der Nähe eines charakteristischen Musters zu extrahieren.
  5. Bildbildungsvorrichtung zur Formmessung, die gekennzeichnet ist durchs ein Teil (3) für die Bildung eines charakteristischen Musters zum wahlweisen Bilden von charakteristischen Mustern (S), die als Referenzen dienen, auf einen Messgegenstand (E); und ein Bildbildungsteil (1, 2, 5) zum Aufnehmen von Bildern eines Messgegenstands (0), die charakteristische Muster (S) aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus unterschiedlichen Richtungen, wodurch ein Paar erster Bilder (51) erhalten wird, und zum Aufnehmen von Bildern (52) des Messgegenstands (0), die keine charakteristischen Muster aufweisen, die als Referenzen dienen und auf demselben vorgesehen sind, aus den gleichen Richtungen wie die ersten Bilder, wodurch ein Paar zweiter Bilder (52) erhalten wird.
  6. Bildbildungsvorrichtung zur Formmessung nach Anspruch 5, dadurch gekennzeichnet, dass der Teil (3) für die Bildung eines charakteristischen Musters aus einem Teil (3) für die Projektion eines charakteristischen Musters zum wahlweisen Projizieren von charakteristischen Mustern (S) auf einen Messgegenstand (0) gebildet, die als Referenzen dienen.
DE69829091T 1997-05-22 1998-05-20 Messungsgerät Expired - Lifetime DE69829091T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP14706697 1997-05-22
JP9147059A JPH10318732A (ja) 1997-05-22 1997-05-22 形状測定装置及び形状測定用画像形成装置
JP14705997 1997-05-22
JP14706697A JP4359939B2 (ja) 1997-05-22 1997-05-22 画像測定装置

Publications (2)

Publication Number Publication Date
DE69829091D1 DE69829091D1 (de) 2005-03-31
DE69829091T2 true DE69829091T2 (de) 2006-02-09

Family

ID=26477726

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69829091T Expired - Lifetime DE69829091T2 (de) 1997-05-22 1998-05-20 Messungsgerät
DE69833813T Expired - Lifetime DE69833813T2 (de) 1997-05-22 1998-05-20 Vorrichtung zur Korrespondenzsuche in einem Bildpaar

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69833813T Expired - Lifetime DE69833813T2 (de) 1997-05-22 1998-05-20 Vorrichtung zur Korrespondenzsuche in einem Bildpaar

Country Status (3)

Country Link
US (2) US6442292B1 (de)
EP (2) EP1455303B1 (de)
DE (2) DE69829091T2 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4237868B2 (ja) * 1999-05-10 2009-03-11 株式会社トプコン 画像形成システム
US6594623B1 (en) * 1999-11-12 2003-07-15 Cognex Technology And Investment Corporation Determining three-dimensional orientation of objects
DE60124604T2 (de) * 2000-03-30 2007-09-13 Kabushiki Kaisha Topcon Stereobildmessvorrichtung
JP4593730B2 (ja) * 2000-06-26 2010-12-08 株式会社トプコン ステレオ画像の測定装置
EP1422495A4 (de) * 2001-07-30 2009-06-03 Topcon Corp Oberflächenformmessvorrichtung, oberflächenformmessverfahren, oberflächenzustand-grafikvorrichtung
US7154613B2 (en) * 2004-03-15 2006-12-26 Northrop Grumman Corporation Color coded light for automated shape measurement using photogrammetry
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
JP4297501B2 (ja) * 2004-08-11 2009-07-15 国立大学法人東京工業大学 移動体周辺監視装置
US20070091174A1 (en) * 2005-09-30 2007-04-26 Topcon Corporation Projection device for three-dimensional measurement, and three-dimensional measurement system
US7805015B2 (en) 2006-10-27 2010-09-28 International Business Machines Corporation Method of point identification and tracking in a digital video environment
USRE46012E1 (en) 2007-08-17 2016-05-24 Renishaw Plc Non-contact probe
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
JP5691547B2 (ja) * 2010-08-20 2015-04-01 富士ゼロックス株式会社 画像の変更箇所抽出装置、画像の変更箇所表示装置及びプログラム
US20140161328A1 (en) * 2012-12-12 2014-06-12 Jud Ireland System and Method for Automatically Selecting a Condom Size from a Picture Reference
US9767566B1 (en) * 2014-09-03 2017-09-19 Sprint Communications Company L.P. Mobile three-dimensional model creation platform and methods
US10621744B1 (en) 2015-12-11 2020-04-14 State Farm Mutual Automobile Insurance Company Structural characteristic extraction from 3D images
USD889219S1 (en) 2017-08-04 2020-07-07 Husqvarna Ab Air outlet for a trimmer

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4175862A (en) * 1975-08-27 1979-11-27 Solid Photography Inc. Arrangement for sensing the geometric characteristics of an object
JPS60200103A (ja) * 1984-03-26 1985-10-09 Hitachi Ltd 光切断線抽出回路
EP0197341B1 (de) * 1985-03-13 1993-02-17 Kabushiki Kaisha TOPCON Vorrichtung und Verfahren zur Koordinatenmessung
JPH0658209B2 (ja) 1985-03-13 1994-08-03 株式会社トプコン 座標測定方法及び装置
JPS61209314A (ja) 1985-03-13 1986-09-17 Tokyo Optical Co Ltd 座標デ−タ検出装置
JPH0726828B2 (ja) 1986-04-18 1995-03-29 株式会社トプコン 形状測定装置
US4962422A (en) 1988-06-23 1990-10-09 Kabushiki Kaisha Topcon Stereoscopic image display apparatus
US4965442A (en) * 1989-11-07 1990-10-23 Massachusetts Institute Of Technology System for ascertaining direction of blur in a range-from-defocus camera
US5519485A (en) 1992-07-31 1996-05-21 Kabushiki Kaisha Topcon Stereo image measuring apparatus
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
US5742291A (en) * 1995-05-09 1998-04-21 Synthonics Incorporated Method and apparatus for creation of three-dimensional wire frames
US6229913B1 (en) * 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
US5953448A (en) * 1996-03-01 1999-09-14 Textile/Clothing Technology Corporation Contour measurement of an object having a discontinuous surface using block point identification techniques
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
JP3990002B2 (ja) * 1997-05-22 2007-10-10 株式会社トプコン 画像測定装置

Also Published As

Publication number Publication date
US20020181764A1 (en) 2002-12-05
DE69829091D1 (de) 2005-03-31
DE69833813T2 (de) 2006-11-30
EP1455303A3 (de) 2004-10-13
US7016528B2 (en) 2006-03-21
EP0880010A2 (de) 1998-11-25
EP0880010B1 (de) 2005-02-23
EP0880010A3 (de) 2003-03-26
US6442292B1 (en) 2002-08-27
DE69833813D1 (de) 2006-05-11
EP1455303A2 (de) 2004-09-08
EP1455303B1 (de) 2006-03-15

Similar Documents

Publication Publication Date Title
DE69829091T2 (de) Messungsgerät
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE69906873T2 (de) Gerät zum Erzeugen orthogonal projizierter Bilder
DE102016116702B4 (de) Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
DE60023447T2 (de) Verfahren zur berechnung der lage und ausrichtung eines objektes im dreidimensionalen raum
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE60124604T2 (de) Stereobildmessvorrichtung
DE10354752B4 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
DE102016014658A1 (de) Modellerzeugungsvorrichtung, Positions- und Orientierungsberechnungsvorrichtung und Handling Robotervorrichtung
DE102006041645A1 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung in einem Bild
EP1673589A1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE102018207414A1 (de) Bildverarbeitungssystem
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE112017006976B4 (de) Überlagerungspositionskorrektureinrichtung und überlagerungspositionskorrekturverfahren
DE19902401C2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
EP3420531A1 (de) Verfahren und bildverarbeitungsvorrichtung zur bestimmung einer geometrischen messgrösse eines objektes
EP0571425A1 (de) Verfahren zur lagebestimmung eines positionierkörpers relativ zu einem bezugskörper und vorrichtung zur durchführung des verfahrens.
DE10328523B4 (de) Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102020211636A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
DE2209569A1 (de) Stereo-auswerteverfahren und vorrichtung zur durchfuehrung des verfahrens
WO2013091626A1 (de) Verfahren zur kalibrierung einer verkehrsüberwachungskamera zu einem lagesensor
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE19627938B4 (de) Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: WITTE, WELLER & PARTNER, 70178 STUTTGART