WO2000066973A1 - Verfahren zur optischen formerfassung von gegenständen - Google Patents

Verfahren zur optischen formerfassung von gegenständen Download PDF

Info

Publication number
WO2000066973A1
WO2000066973A1 PCT/EP2000/003706 EP0003706W WO0066973A1 WO 2000066973 A1 WO2000066973 A1 WO 2000066973A1 EP 0003706 W EP0003706 W EP 0003706W WO 0066973 A1 WO0066973 A1 WO 0066973A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
light source
positions
objects
dimensional
Prior art date
Application number
PCT/EP2000/003706
Other languages
English (en)
French (fr)
Inventor
Christoph Wagner
Original Assignee
Christoph Wagner
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Christoph Wagner filed Critical Christoph Wagner
Priority to CA002370156A priority Critical patent/CA2370156C/en
Priority to JP2000615562A priority patent/JP2002543411A/ja
Priority to DE50009995T priority patent/DE50009995D1/de
Priority to AT00927045T priority patent/ATE292784T1/de
Priority to US10/018,129 priority patent/US6590669B1/en
Priority to EP00927045A priority patent/EP1190211B1/de
Publication of WO2000066973A1 publication Critical patent/WO2000066973A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Definitions

  • the invention relates to an optical stereo method for recording the shape of three-dimensional objects.
  • optical methods for shape detection of objects are increasingly replacing the previously used mechanically scanning methods.
  • a major advantage of the optical method is that the measurement is contactless and therefore without mechanical interference. solution of the object.
  • Another advantage is that a large number of object points can be recorded at the same time, which leads to a shortening of the measuring time.
  • Known shape detection methods are mostly based on the triangulation principle, the stereo principle or on interferometric techniques.
  • a point of light is projected onto the surface of the object to be measured and observed from a direction deviating from the direction of illumination.
  • the coordinates of the illuminated point can be calculated from knowledge of the orientation of the projection beam in space and the direction from which the observed point is perceived.
  • the method is precise and unambiguous, since the surface of the object to be measured has to be scanned point by point, it is slow.
  • only those points of the surface that are directly visible both from the location of the light source and from an observing camera can be recorded. A data set obtained from such a measurement is therefore never complete.
  • the stripe projection is a further development of the light section technique, in which several lines are projected onto the surface of the object to be measured at the same time.
  • the intensity of these lines varies periodically in the lateral direction and makes the individual lines distinguishable for the observation camera.
  • the procedure is quick, but here too it is necessary to combine several measurements by matching so that the edges and jumps mentioned above can also arise here.
  • Interferometric methods are often used for high-precision measurements. There is also the problem with them that the results of several individual measurements have to be combined in order to achieve a complete three-dimensional representation of the measurement object. In addition, these processes are very sensitive to the smallest vibrations and can usually only be used in laboratory operations.
  • Another group of methods is based on the stereo principle. This takes advantage of the fact that two views of an object, taken from different angles, contain information about the three-dimensional shape.
  • Corresponding features of the object are identified in the two images using software algorithms.
  • the different position of the feature in the two images represents a measure of the depth of the feature in three-dimensional space.
  • the main task in binocular stereo is to determine the correspondence of features.
  • One method is compare small image sections based on their brightness structure. There are two difficulties. If image sections do not have any striking brightness structures, they cannot be assigned to one another. This means that the spatial depth of object points can only be determined in structured areas of the object. In addition, the brightness, more precisely luminance, of an object is not the same for different viewing angles. This can also lead to the fact that no depth can be determined.
  • the binocular stereo principle can be expanded from two views to several views. This provides further information and makes correspondence analysis more reliable, but in many cases not yet sufficient.
  • Another group of stereo methods uses different lighting conditions to determine the shape of objects.
  • the viewing angle remains fixed and the direction of illumination changes.
  • the inclination of the object surface can be deduced from the brightnesses under the individual lighting directions. In this case you measure So not the spatial depth, but a quantity that forms its derivation.
  • Photometric stereo methods are well suited to measure local object structures, but global structure measurements are fraught with errors.
  • a global object structure can be better determined using a method that measures the spatial depth itself, for example, a binocular stereo method.
  • the object of the invention is therefore to specify a method for optical shape detection in which the correspondence problem is at least largely avoided.
  • Brightness values do not therefore have to be used for the correspondence analysis in the method according to the invention, but inclination values can be used. In contrast to brightness values, inclination values are invariant to the line of sight.
  • the correspondence problem is therefore solved in the method according to the invention in particular by determining the surface normal of a surface point on the object from different viewing directions. Pixels with the same surface normals can thus be clearly and easily assigned to one another.
  • the proposed method according to the invention comprises the following steps: a) positioning the object 1, at least one light source 2 and at least one camera 3 in the room in several positions, b) detecting the respective position of the object Gi, the light source Li and the camera Ki, c) illuminating the object 1 by the light source 2 in the positions Gi, Li, Ki, d) taking pictures 4 of the object 1 in the positions Gi , Li, Ki, e) determining the surface normal 5 of the object 1 from the positions Gi, Li, Ki and the pictures 4, f) assigning corresponding pixels 6 in the pictures 4 with the aid of the surface normal 5, g) determining the three-dimensional shape of the Object from the positions Gi, Li, Ki, the surface normal 5 and from corresponding pixels 6.
  • Figure 1 schematically shows a device for optical shape detection of objects
  • Figure 2 is a portable device for optical shape detection of objects.
  • a three-dimensional object 1 to be measured is placed in the positions GI, G2, ... Gi, at least one light source 2 in the positions LI, L2, L3, ... Li and the camera 3 in the positions Kl, K2, ... Ki brought (see Figure 1).
  • This can be done by at least one displacement device, for example a displacement unit, a conveyor belt, a turntable or a robot known per se.
  • This option is very well suited for automated measurement processes on a large number of similar objects 1.
  • Portable, hand-held shape detection systems are of great interest when it comes to measuring individual objects that require great flexibility. Combinations of mechanical guidance and free handling are also conceivable.
  • a light source 2 can be rigidly mounted on the camera 3
  • light sources 2 that are used one after the other, which is equivalent to positioning an individual light source 2 in different positions.
  • cameras 3 can also be used, which means the positioning of a single zigen camera 3 corresponds to different positions.
  • objects 1 can be included.
  • the position Gi, Li or Ki can be given implicitly. If there is a mechanical guide, the position or position Gi, Li and Ki is given by the geometry of the guide.
  • the example of a computer-controlled displacement unit (not shown) makes it easy to see that the position of the control unit is known and can be adopted by it.
  • Gi, Li and Ki can be determined by explicit measurement. This case is particularly important for hand-held measuring devices.
  • the magnetic sensor system consists of a stationary transmitter SE and preferably a plurality of receivers E, which can be attached to the object 1, the light source 2 or the camera 3.
  • a separate Cartesian coordinate system can be assigned to the transmitter SE and the receiver E.
  • the position Gi of the object 1 is now given by the relationship between the transmitter coordinate system and the receiver coordinate system of the object 1. The same applies to light source 2 and camera 3.
  • the light source 2 which illuminates the object 1 to be measured, is preferably chosen to be almost punctiform. This offers the advantage that the photometric stereo method described below is easy to carry out. Possible light sources are e.g. Flash lamps, halogen lamps, external light sources 2 with glass fibers or high-power LEDs.
  • An electronically operating camera 3 is preferably used as the camera 3, the images 4 of which can be easily recorded and further processed by a computer known per se. It is preferably a digital camera 3.
  • a single image 4 is recorded for selected combinations of positions Gi, Li and Ki. From the known positions Gi, Li and Ki as well as the pictures 4, the so-called “surface normal” 5 of a point 7 is then created of item 1 determined.
  • the surface normal 5 is a vector that is perpendicular to a surface element 7 of the surface of the object 1. It is a common measure of the position, orientation or inclination of the surface in space. There are a number of methods that are successfully used to optically determine the inclination of surfaces.
  • a basic method which is called the “photometric stereo method”, can be used for the method described. In the case of the photometric stereo, both the camera 3 and the object remain
  • Occupies 2 different positions in the room. An image 4 is taken in each of these positions.
  • a lamb radiator emits incident light uniformly in all spatial directions. This model is a good approximation for diffusely reflecting objects. The situation is particularly simple when using punctiform light sources 2 Light sources are also possible and can be regarded as the interaction of a large number of point light sources. Refined models have been developed for objects with a portion of specular reflection. The photometric stereo process is repeated for further positions Gi and Ki. The mathematical and physical backgrounds should not be further here be deepened, it is crucial that it is possible to determine the surface normal 5 of an object 1 with the aid of photometric stereo methods.
  • the surface normal 5 of an object 1 is quite different. It is invariant to the position of the camera 3 and the light source 2. This can be mentioned as a main advantage of the proposed method according to the invention. Correspondence analysis can be carried out much more reliably because it is based on a position-invariant variable.
  • pixels 6, as is customary in binocular stereo methods, is used to determine the position of the associated points using geometric relationships and knowledge of camera parameters. te of the object in the room closed. Since a large number of views of the object 1 can be received in the proposed method, it is possible to record the object shape from almost all sides. In the described stereo method, all views are combined into a single three-dimensional view of the object 1. This avoids an explicit merging of three-dimensional partial images as in other methods. The fact that such an explicit matching procedure can be avoided can be cited as a further decisive advantage of the method described.
  • the human eye is able to recognize even the slightest elevations and indentations in the surface of a visualized or real object.
  • humans can also infer the inclination of the surface from the lighting conditions.
  • the inclination of a surface can be understood as a derivative of the location. Small variations in the location can already cause a large change in the inclination, as a result of which even the smallest irregularities are noticed by a human observer. This is a fundamental problem with most three-dimensional shape acquisition techniques. The recording In most cases, measurement data is not adapted to this circumstance, so that even a small amount of noise in the data is very disruptive for the viewer.
  • the information already obtained of the surface normal 5 is used in addition to the correspondence analysis to improve the three-dimensional measurement values. Inevitable errors in the measurement of the location are corrected by knowing the surface normals 5. This mainly eliminates measurement errors in the position of object points, but the curvature at every point on the surface is essentially retained. A drastic improvement in the measurement accuracy compared to binocularly operating stereo processes can therefore be expected. In addition to improved metric accuracy, an improved visual impression can also be expected, since the human sense of sight can evaluate variations in the surface normal of three-dimensional objects very precisely. The proposed method is therefore tailored to the special circumstances of human vision and enables particularly realistic three-dimensional visualization.
  • the position sensor S and a CCD camera 3, preferably working magnetically, comprises the device V three optical fibers F, which are connected to an external light source (not shown).
  • the camera 3, the receiver E of the position sensor S and the fiber ends F, which thus form the light sources 2, are attached to a support plate M, which can be made portable and preferably has handles H for this purpose.
  • the support plate M can also be moved or moved automatically.
  • the images recorded by the camera 3 and the signals from the position sensor S are fed to an evaluation device A and evaluated. This is preferably designed as a computer on which the determination of the surface normal 5 is carried out, as described above.
  • FIG. 2 thus shows a device V for carrying out the method for optical shape detection according to the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur optischen Formerfassung mindestens eines dreidimensionalen Gegenstandes (1) mit den Schritten: a) Positionieren des Gegenstandes (1), mindestens einer Lichtquelle (2) und mindestens einer Kamera (3) im Raum in mehreren Stellungen; b) Erfassen der jeweiligen Stellung des Gegenstandes (Gi), der Lichtquelle (Li) und der Kamera (Ki); c) Beleuchten des Gegenstandes (1) durch die Lichtquelle (2) in den Stellungen (Gi, Li, Ki); d) Aufnehmen von Bildern (4) des Gegenstandes (1) in den Stellungen (Gi, Li, Ki); e) Ermitteln der Oberflächennormalen (5) des Gegenstandes (1) aus den Stellungen (Gi, Li, Ki) und den Bildern (4); f) Zuordnung korrespondierender Bildpunkte (6) in den Bildern (4) mit Hilfe der Oberflächennormale (5); g) Ermitteln der dreidimensionalen Form des Gegenstandes (1) aus den Stellungen (Gi, Li, Ki), der Oberflächennormale (5) und von korrespondierenden Bildpunkten (6).

Description

Verfahren zur optischen For erfassung von Gegenständen
Beschreibung
Die Erfindung betrifft ein optisches Stereoverfahren zur Formerfassung von dreidimensionalen Gegen- tänden .
In vielen Bereichen der industriellen Produktion und im Bereich von Multimedia-Anwendungen werden heute Verfahren benötigt, um geometrische, dreidimensionale Daten eines Gegenstandes mit Hilfe von geeigneten Messeinrichtungen in numerische Daten auf einem Computer zu wandeln. Dies kann zum Zweck der Qualitätskontrolle oder auch mit dem Ziel erfolgen, diese Gegenstände einem menschlichen Beobachter realistisch dreidimensional darzubieten. Es besteht außerdem großes Interesse, Objekte automatisiert zu erfassen und im Internet zu übertragen und zu visualisieren.
Optische Verfahren zur Formerfassung von Objekten lösen immer mehr die bisher verwendeten mechanisch abtastenden Verfahren ab. Ein großer Vorteil der optischen Verfahren besteht darin, dass die Messung berührungslos und damit ohne mechanische Beeinflus- sung des Objektes abläuf . Ein weiterer Vorteil ist darin zu sehen, dass eine große Anzahl von Gegenstandspunkten gleichzeitig erfasst werden kann, was zur einer Verkürzung der Messzeit führt.
Bekannte Formerfassungsverfahren basieren meist auf dem Triangulationsprinzip, dem Stereoprinzip oder auf interferometrischen Techniken.
Bei einem bekannten Triangulationsverfahren wird ein Lichtpunkt auf die Oberfläche des zu vermessenden Objektes projiziert und aus einer von der Beleuchtungsrichtung abweichenden Richtung beobachtet . Die Koordinaten des beleuchteten Punktes kön- nen aus der Kenntnis der Orientierung des Projekti- onsstrahls im Raum und der Richtung, aus der der beobachtete Punkt wahrgenommen wird, berechnet werden. Das Verfahren ist zwar genau und eindeutig, da die Oberfläche des zu vermessenden Gegenstandes a- ber Punkt für Punkt abgetastet werden muss, ist es langsam. Außerdem können nur solche Punkte der 0- berflache erfasst werden, die sowohl vom Ort der Lichtquelle als auch einer beobachtenden Kamera direkt sichtbar sind. Ein durch eine solche Messung erhaltener Datensatz ist daher niemals vollständig. Zwar können mehrere Datensätze durch wiederholte Messungen mit unterschiedlichen Beobachtungs- beziehungsweise Beleuchtungsperspektiven gewonnen werden, um aber die Form des Gegenstandes in seiner Gesamtheit zu erfassen, müssen diese Datensätze jedoch in eine geometrische Beziehung zueinander gestellt werden (Matching) , wofür häufig noch der Eingriff eines menschlichen Benutzers erforderlich ist. Darüber hinaus treten beim Matching auch die Nahtstellen der Datensätze unangenehm in Erscheinung, da die einzelnen Datensätze selten perfekt zur Deckung miteinander gebracht werden können. Als Artefakte können Kanten und Sprünge entstehen, die nicht nur die Genauigkeit der Daten beeinträchtigen, sondern vor allem auch für einen Betrachter visuell störend auffallen. Das menschliche Auge ist in der Lage, bereits geringste Erhebungen und Ein- buchtungen in der Oberfläche eines visualisierten oder realen Gegenstandes zu erkennen. Neben der Lage eines Punktes im Raum kann der Mensch auch die Neigung der Oberfläche aus den Beleuchtungsverhältnissen erschließen. Geringe Variationen des Ortes können bereits eine große Veränderung der Neigung hervorrufen, wodurch auch kleinste Unregelmäßigkeiten einem menschlichen Beobachter auffallen. Dies ist im übrigen ein grundsätzliches Problem der meisten Verfahren zur dreidimensionalen Formerfas- sung. Die Aufnahme von Messdaten ist in den meisten Fällen nicht an diesen Umstand angepasst, so dass schon ein geringes Rauschen der Daten sehr störend für den Betrachter wirkt. Dies gilt auch für die im folgenden beschriebenen bekannten Verfahren.
Weiterentwickelte, auf der Triangulation beruhende Verfahren, sind die Lichtschnitttechnik und die Streifenprojektion. Bei ersterer wird anstatt eines einzelnen Punktes eine Linie auf die Oberfläche des zu vermessenden Gegenstandes projiziert. Diese Linie wird aus einer von der Beleuchtungsrichtung ab- weichenden Richtung beobachtet. Die Raumkoordinaten der beleuchteten Punkte werden in gleicher Weise wie oben erwähnt gewonnen. Dieses Verfahren ist zwar schneller als die punktweise Triangulation, aber immer noch langsamer als andere Verfahren, die eine ganze Fläche auf einmal erfassen können. Auch hier sind mehrere Messungen unter verschiedenen Perspektiven und deren Matching nötig, um zu einer vollständigen Darstellung des Gegenstands zu gelangen.
Bei der Streifenprojektion handelt es sich um eine Weiterentwicklung der Lichtschnitttechnik, bei der mehrere Linien gleichzeitig auf die Oberfläche des zu vermessenden Gegenstandes projiziert werden. Die Intensität dieser Linien variiert periodisch in lateraler Richtung und macht die einzelnen Linien für die Beobachtungskamera unterscheidbar. Das Verfahren ist zwar schnell, aber auch hier ist es nötig, mehrere Messungen durch Matching zusammenzufügen, so dass auch hier die vorstehend erwähnten Kanten und Sprünge entstehen können.
Für hochgenaue Messungen werden häufig interfero- metrische Verfahren eingesetzt. Auch bei ihnen besteht das Problem, dass die Ergebnisse mehrerer Einzelmessungen zusammengefügt werden müssen, um zu einer vollständigen dreidimensionalen Darstellung des Messgegenstandes zu kommen. Darüber hinaus sind diese Verfahren sehr empfindlich gegenüber kleinsten Erschütterungen und können meist nur im Laborbetrieb genutzt werden.
Eine weiter Gruppe von Verfahren beruht auf dem Stereoprinzip. Dabei macht man sich die Tatsache zu Nutze, dass zwei Ansichten eines Gegenstandes, die unter verschiedenen Blickwinkeln aufgenommen wurden, Information über die dreidimensionale Gestalt enthalten. Man spricht hier von einem binokularen Stereoverfahren. Mit Hilfe von Softwarealgorithmen werden korrespondierende Merkmale des Objektes in den beiden Aufnahmen identifiziert. Die unterschiedliche Lage des Merkmals in den beiden Bildern stellt ein Maß für die Tiefe des Merkmals im dreidimensionalen Raum dar. Die Hauptaufgabe beim binokularen Stereo ist es, die Korrespondenz von Merkmalen zu ermitteln. Eine Methode besteht darin, kleine Bildausschnitte miteinander zu vergleichen auf der Grundlage deren Helligkeitsstruktur. Dabei treten zwei Schwierigkeiten auf. Haben Bildausschnitte keine markanten Helligkeitsstrukturen, können sie nicht einander zugeordnet werden. Dies bedeutet, dass die räumliche Tiefe von Objektpunkten nur in strukturierten Bereichen des Objektes ermittelt werden kann. Darüber hinaus ist die Helligkeit, genauer Leuchtdichte, eines Objektes nicht gleich für unterschiedliche Blickwinkel. Das kann ebenfalls dazu führen, dass keine Tiefe ermittelt werden kann.
Das binokulare Stereoprinzip kann von zwei Ansich- ten auf mehrere Ansichten erweitert werden. Dies liefert weitere Information und macht die Korrespondenzanalyse zuverlässiger, in vielen Fällen jedoch noch nicht ausreichend.
Eine weitere Gruppe von Stereoverfahren nutzt unterschiedliche Beleuchtungsbedingungen, um die Form von Gegenständen zu ermitteln. Anders als beim binokularen Stereo bleibt der Blickwinkel fest und die Beleuchtungsrichtung ändert sich. Man spricht daher von einem photometrischen Stereoverfahren. Aus den Helligkeiten unter den einzelnen Beleuchtungsrichtungen kann man auf die Neigung der Objektoberfläche schließen. Man misst in diesem Fall also nicht die räumliche Tiefe, sondern eine Größe, die deren Ableitung bildet. Photometrische Stereoverfahren sind gut geeignet, lokale Objektstrukturen zu messen, globale Strukturmessungen sind allerdings mit Fehlern behaftet. Eine globale Objektstruktur lässt sich besser mit einem Verfahren bestimmen, das die räumliche Tiefe selbst misst, beispielsweise also einem binokularen Stereoverfahren.
Die vorstehend erwähnten Verfahren weisen somit den Nachteil auf, dass nicht in allen Fällen zusammengehörige Bildpunkte auf unterschiedlichen Bildern eindeutig einander zugeordnet werden können. Man spricht dabei von dem Korrespondenzproblem.
Aufgabe der Erfindung ist es daher, ein Verfahren zur optischen Formerfassung anzugeben, bei dem das Korrespondenzproblem zumindest weitestgehend ver- mieden ist.
Gelöst wird diese Aufgabe mit einem Verfahren, das die in Anspruch 1 genannten Merkmale aufweist. Mit diesem Verfahren können sowohl globale als auch die lokale Objektstrukturen genau erfasst werden. Diese beiden Prinzipien sind übrigens auch beim menschlichen Gesichtssinn in starkem Maß beteiligt, um die Gestalt eines Gegenstandes zu erfassen. Deshalb sind Messungen möglich, die nicht nur unter metrischen, sondern auch unter visuellen Aspekten der Wirklichkeit äußerst nahe kommen.
Für die Korrespondenzanalyse beim erfindungsgemäßen Verfahren müssen also nicht Helligkeitswerte benutzt werden, sondern man kann auf Neigungswerte zurückgreifen. Neigungswerte sind anders als Helligkeitswerte nämlich invariant gegenüber der Blickrichtung. Das Korrespondenzproblem wird mithin beim erfindungsgemäßen Verfahren insbesondere dadurch gelöst, dass die Oberflächenormale eines Flächenpunkts am Gegenstand aus verschiedenen Blickrichtungen ermittelt wird. Bildpunkte mit denselben Flächennormalen sind somit leicht und schnell einander eindeutig zuordenbar .
Darüber hinaus ist für das vorgeschlagene Verfahren keine explizite Matching-Prozedur nötig. Dadurch werden Artefakte an den Nahtstellen von Einzelaufnahmen vermieden.
Das vorgeschlagene erfindungsgemäße Verfahren um- fasst folgende Schritte: a) Positionieren des Gegenstandes 1, mindestens einer Lichtquelle 2 und mindestens einer Kamera 3 im Raum in mehreren Stellungen, b) Erfassen der jeweiligen Stellung des Gegenstandes Gi , der Lichtquelle Li und der Kamera Ki, c) Beleuchten des Gegenstandes 1 durch die Lichtquelle 2 in den Stellungen Gi, Li, Ki, d) Aufnehmen von Bildern 4 des Gegenstandes 1 in den Stellungen Gi, Li, Ki , e) Ermitteln der Oberflächennormalen 5 des Gegenstandes 1 aus den Stellungen Gi , Li, Ki und den Bildern 4 , f) Zuordnung korrespondierender Bildpunkte 6 in den Bildern 4 mit Hilfe der Oberflächennormale 5, g) Ermitteln der dreidimensionalen Form des Gegenstandes aus den Stellungen Gi , Li , Ki , der Oberflächennormale 5 und von korrespondierenden Bildpunk- ten 6.
Weitere Ausgestaltungen ergeben sich aus den Unteransprüchen.
Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen mit Bezug auf die Zeichnung näher erläutert. Es zeigen:
Figur 1 schematisch eine Vorrichtung zur opti- sehen Formerfassung von Gegenständen und
Figur 2 eine tragbare Vorrichtung zur optischen Formerfassung von Gegenständen. Ein zu vermessender dreidimensionaler Gegenstand 1 wird in die Stellungen GI, G2 , ... Gi , zumindest eine Lichtquelle 2 in die Stellungen LI, L2 , L3 , ...Li und die Kamera 3 in die Stellungen Kl, K2 , ... Ki gebracht (siehe Figur 1) . Dies kann durch zumindest eine Verlagerungsvorrichtung erfolgen, z.B. eine Verschiebeeinheit, ein Förderband, einen Drehtisch oder einen an sich bekannten Roboter. Diese Option ist sehr gut geeignet für automatisierte Messvorgänge an einer Vielzahl von gleichartigen Gegenständen 1. Ebenso ist es möglich, dass ein Benutzer Gegenstand 1, Lichtquelle 2 und Kamera 3 nach Belieben frei im Raum positioniert. Tragbare, handgeführte Formerfassungssysteme sind von großem Interesse, wenn es um die Vermessung von Einzelobjekten geht, die große Flexibilität erfordern. E- benso sind Kombinationen aus mechanischer Führung und freier Handhabung denkbar. So kann z.B. eine Lichtquelle 2 starr an der Kamera 3 montiert sein
(Spezialfall der mechanischen Führung) , die Einheit aus Kamera 3 und Lichtquelle 2 aber frei beweglich sein. Auch ist es denkbar, mehrere fest montierte
Lichtquellen 2 zu verwenden, die nacheinander be- nutzt werden, was dem Positionieren einer einzelnen Lichtquelle 2 in verschiedenen Stellungen gleichkommt . Analog dazu können auch mehrere Kameras 3 verwendet werden, was dem Positionieren einer ein- zigen Kamera 3 in verschiedenen Stellungen entspricht. Ebenso können mehrere Gegenstände 1 einbezogen werden.
Für den weitern Ablauf der Messung ist es von Bedeutung, die Stellung des Gegenstandes 1 (Gi) , der Lichtquelle 2 (Li) und der Kamera 3 (Ki) zu kennen. Einerseits kann die Stellung Gi , Li bzw. Ki implizit gegeben sein. Liegt eine mechanische Führung vor, so ist die Lage beziehungsweise Stellung Gi, Li und Ki nämlich durch die Geometrie der Führung gegeben. Am Beispiel einer computergesteuerten Verschiebeeinheit (nicht dargestellt) ist leicht zu erkennen, dass die Stellung der Ansteuereinheit be- kannt ist und von dieser übernommen werden kann. Bei ortsfester Montage des Gegenstandes 1, der Lichtquelle 2 oder der Kamera 3 kann die Lage einmal bestimmt und für alle weitern Messungen übernommen werden. Andererseits kann Gi, Li und Ki durch explizite Messung bestimmt werden. Dieser Fall ist besonders für handgeführte Messeinrichtungen zu betrachten. Dies kann durch einen zusätzlichen Sensor S erfolgen, der die Stellung Gi, Li bzw. Ki verfolgt. Solche Sensoren S werden indus- triell hergestellt und arbeiten beispielsweise nach photogrammetrischen, trägheitsbasierten, Ultraschall- oder auch magnetischen Prinzipien. Das Prinzip der Messung soll am Beispiel eines magne- tisch arbeitenden Sensors S (Figur 2) näher beschrieben werden. Das Magnetsensorsystem besteht aus einem ortsfest montierten Sender SE und vorzugsweise mehreren Empfängern E, die am Gegenstand 1, der Lichtquelle 2 bzw. der Kamera 3 befestigt werden können. Dem Sender SE und den Empfängern E kann jeweils ein eigenes kartesisches Koordinatensystem zugeordnet werden. Die Lage Gi des Gegenstandes 1 ist nun gegeben durch die Beziehung zwi- sehen Senderkoordinatensystem und Empfängerkoordinatensystem des Gegenstandes 1. Entsprechendes gilt für Lichtquelle 2 und Kamera 3. Die Beziehung zweier Koordinatensysteme zueinander kann beschrieben werden durch eine Koordinatentransformation. Für das Positionieren von starren Körpern im Raum besitzt diese Koordinatentransformation genau sechs Freiheitsgrade, drei für die Verschiebung in den drei Raumrichtungen und weitere drei für die Drehung im Raum. Es gibt eine Reihe von Möglichkeiten, eine Verschiebung und Drehung anzugeben. Die Verschiebung kann durch einen Vektor mir drei Dimensionen gegeben sein, die Drehung durch die Angabe dreier sogenannter „Eulerwinkel" . Andere Darstellungen der Drehung sind möglich, wie z.B. die Anga- be von sog. „Quaternionen" .
Eine weitere Form der Darstellung beruht auf der Matrizenschreibweise. Hier kann man die sogenannte „Drehmatrix" angeben. Lagesensoren mi sechs Freiheitsgraden liefern als Messwert die Koordinatentransformation meist in Form einer Translation und Drehung in einer der oben genannten oder davon ab- geleiteten Darstellungen. Dieses Gebiet soll nicht weiter vertieft werden, es soll nur deutlich werden, dass alle benötigten Messwerte zur Verfügung gestellt werden können.
Die Lichtquelle 2, die den zu vermessenden Gegenstand 1 ausleuchtet, wird vorzugsweise nahezu punkt- förmig gewählt. Dies bietet den Vorteil, dass das nachfolgend beschriebene photometrische Stereoverfahren einfach durchzuführen ist. Als Lichtquelle denkbar sind z.B. Blitzlampen, Halogenlampen, externe Lichtquellen 2 mit Glasfasern oder Leuchtdioden großer Leistung.
Als Kamera 3 wird vorzugsweise eine elektronisch arbeitende Kamera 3 verwendet, deren Bilder 4 auf einfache Weise von einem an sich bekannten Computer aufgenommen und weiterverarbeitet werden können. Vorzugsweise handelt es sich um eine digitale Kamera 3. Für ausgewählte Kombinationen von Stellungen Gi, Li und Ki wird jeweils ein einzelnes Bild 4 aufgenommen. Aus den bekannten Stellungen Gi, Li und Ki sowie den Bildern 4 wird anschließend die sogenannte „Oberflächennormale" 5 eines Punktes 7 des Gegenstandes 1 bestimmt. Unter der Oberflächennormale 5 versteht man einen Vektor, der senkrecht steht auf einem Flächenelement 7 der Oberfläche des Gegenstands 1. Er ist ein gebräuchliches Maß für die Lage, Orientierung bzw. Neigung der Oberfläche im Raum. Es gibt eine Reihe von Methoden, die erfolgreich eingesetzt werden, um die Neigung von O- berflachen auf optischem Weg zu ermitteln. Eine grundlegende Methode, die „photometrisches Stereo- verfahren" genannt wird, kann für das beschriebene Verfahren eingesetzt werden. Beim photometrischen Stereo bleiben sowohl Kamera 3 als auch Gegenstand
1 zunächst am selben Ort, während eine Lichtquelle
2 verschiedene Stellungen im Raum einnimmt. In je- der dieser Stellungen wird ein Bild 4 aufgenommen.
In vielen Fällen ist es günstig, genau drei Stellungen der Lichtquelle 2 zu wählen, da hiermit die Oberflächennormale 5 eindeutig bestimmt ist. Zum Bestimmen von drei Unbekannten, nämlich den drei Komponenten des Normalenvektors, sind genau drei Beleuchtungsrichtungen notwendig. Vorzugsweise wird man nicht eine Lichtquelle 2 in drei Stellungen bringen, sondern wird drei verschiedene Lichtquellen 2 verwenden und jeweils mit einer von Ihnen den Gegenstand 1 beleuchten. Vorzugsweise sind die drei Lichtquellen 2 fest an der Kamera 3 montiert (siehe Figur 2) . Nun werden die in den Bilder 4 festgehaltenen Lichtintensitäten und die Stellungen Gi, Li und Ki so verknüpft, dass man als Ergebnis die 0- berflächenncrmale 5 des Flächenpunktes 7 des Gegenstandes erhält. Dabei legt man ein Modell des Gegenstandes 1 für seine Abstrahlcharakteristik des einfallenden Lichts zugrunde. Ein grundlegendes Modell der Abstrahlcharakteristik ist der sogenannte „Lambertstrahler". Ein Lamberstrahler sendet einfallendes Licht gleichförmig in alle Raumrichtungen aus. Dieses Modell gilt in guter Näherung für dif- fus reflektierende Objekte. Besonders einfach Verhältnisse liegen vor, wenn man punktförmige Lichtquellen 2 verwendet. Flächige Lichtquellen sind auch möglich und können als Zusammenwirken einer Vielzahl vo Punktlichtquellen betrachtet werden. Bei Objekten mit einem Anteil an spiegelnder Reflexion sind verfeinerte Modelle entwickelt worden. Das photometrische Stereoverfahren wird für weitere Stellungen Gi und Ki wiederholt. Die mathematischen und physikalischen Hintergründe sollen hier nicht weiter vertieft werden, entscheidend ist, dass es möglich ist, die Oberflächennormale 5 eines Gegenstandes 1 mit Hilfe von photometrischen Stereoverfahren zu bestimmen.
Als nächstes wird die Methode des sogenannten „binokularen Stereoverfahrens" angewandt. Das bedeutet, dass korrespondierende Bildpunkte 6 in den aufgenommenen Bildern 4 ermittelt werden. Daraus kar.r. man auf die Lage der den Bildpunkten β entsprechenden Gegenstandspunkte 7 im Raum schließen. Bisherige Verfahren stützen sich bei der Korrespon- der.zanalyse meist auf die in den Bildern 4 festge- hal~ene Lichtintensität. Man setzt dabei voraus, dass korrespondierende Punkte sich durch die gleiche Lichtintensität oder zumindest durch ähnliche Intensitätsmuster bemerkbar machen. Leider ist dies oft nur näherungsweise gegeben und schlägt deshalb häufig fehl. Man kann sagen, dass die Lichtintensität im allgemeinen nicht invariant ist gegenüber der Stellung der Kamera 3, selbst wenn die Lichtquelle 2 nicht bewegt wird. Ähnliches gilt für die Farbeigenschaften .
Ganz anders dagegen verhält es sich mit der Oberflächennormale 5 eines Gegenstandes 1. Sie ist invariant gegenüber der Stellung von Kamera 3 und Lichtquelle 2. Dies ist als ein Hauptvorteil des vorgeschlagenen erfindungsgemäßen Verfahrens zu nennen. Die Korrespondenzanalyse kann wesentlich zuverlässiger durchgeführt werden, da sie sich auf eine stellungsinvariante Größe stützt.
Aus der Korrespondenz von Bildpunkten 6 wird, wie bei binokularen Stereoverfahren üblich, mit Hilfe von geometrische Beziehungen und Kenntnissen von Kameraparametern auf die Lage der zugehörigen Punk- te des Objektes im Raum geschlossen. Da im vorgeschlagenen Verfahren eine Vielzahl von Ansichten des Gegenstandes 1 eingehen kann, ist eine Erfassung der Gegenstandsform von weitgehend allen Sei- ten möglich. Im beschriebenen Stereoverfahren werden alle Ansichten zu einer einzigen dreidimensionalen Ansicht des Gegenstandes 1 vereinigt. Damit wird ein explizites Zusammenfügen von dreidimensionalen Teilbildern wie bei anderen Verfahren umgan- gen. Die Tatsache, dass eine solche explizite Mat- chingprozedur umgangen werden kann, ist als ein weiterer entscheidender Vorteil des beschriebenen Verfahrens zu nennen.
Weiter soll noch einmal betont werden, dass das menschliche Auge in der Lage ist, bereits geringste Erhebungen und Einbuchtungen in der Oberfläche eines visualisierten oder realen Gegenstandes zu erkennen. Neben der Lage eines Punktes im Raum kann der Mensch auch die Neigung der Oberfläche aus den Beleuchtungsverhältnissen erschließen. Die Neigung einer Fläche kann als eine Ableitung des Ortes verstanden werden. Geringe Variationen des Ortes können bereits eine große Veränderung der Neigung her- vorrufen, wodurch auch kleinste Unregelmäßigkeiten einem menschlichen Beobachter auffallen. Dies ist ein grundsätzliches Problem der meisten Verfahren zur dreidimensionalen Formerfassung. Die Aufnahme von Messdaten ist in den meisten Fällen nicht an diesen Umstand angepasst, so dass schon ein geringes Rauschen der Daten sehr störend für den Betrachter wirkt. Deshalb wird die bereits gewonnene Information der Oberflächennormale 5 neben der Korrespondenzanalyse auch zur einer Verbesserung der dreidimensionalen Messwerte herangezogen. Unvermeidliche Fehler bei der Messung des Ortes werden durch Kenntnis der Oberflächennormalen 5 korri- giert. Dabei werden hauptsächlich Messfehler der Lage von Objektpunkten eliminiert, die Krümmung an jedem Punkt der Oberfläche bleibt aber im wesentlichen erhalten. Damit ist eine drastische Verbesserung der Messgenauigkeit gegenüber binokular arbei- tenden Stereoverfahren zu erwarten. Neben einer verbesserten metrischen Genauigkeit ist auch eine verbesserter visueller Eindruck zu erwarten, da der menschliche Gesichtssinn Variationen der Oberflächennormale von dreidimensionalen Objekten sehr ge- nau bewerten kann. Das vorgeschlagenen Verfahren ist daher zugeschnitten auf die speziellen Gegebenheiten des menschlichen Sehens und ermöglicht eine besonders realistische dreidimensionale Visualisierung.
Im folgenden wird anhand von Figur 2 ein Beispiel einer handgeführten Vorrichtung V gegeben, die zur Umsetzung des Verfahrens geeignet ist. Neben einem vorzugsweise magnetisch arbeitenden Lagesensor S und einer CCD-Kamera 3 umfasst die Vorrichtung V drei Lichtleitfasern F, die mit einer externen Lichtquelle verbunden sind (nicht gezeichnet) . Die Kamera 3, der Empfänger E des Lagesensors S und die Faserenden F, die somit die Lichtquellen 2 bilden, sind an einer Tragplatte M befestigt, die tragbar ausgebildet sein kann und hierfür vorzugsweise Handgriffe H aufweist. Die Tragplatte M kann auch automatisch bewegt beziehungsweise verlagert werden. Die von der Kamera 3 aufgezeichneten Bilder und die Signale des Lagesensors S werden einer Auswerteeinrichtung A zugeführt und ausgewertet . Diese ist vorzugsweise als Computer ausgebildet, auf dem die Bestimmung der Oberflächennormalen 5 durchgeführt wird, wie dies vorstehend beschrieben ist. Figur 2 zeigt somit eine Vorrichtung V zur Durchführung des erfindungsgemäßen Verfahrens zur optischen Formerfassung.

Claims

Patentansprüche
1. Verfahren zur optischen Formerfassung mindestens eines dreidimensionalen Gegenstandes (1) mit den Schritten: a) Positionieren des Gegenstandes (1) , mindestens einer Lichtquelle (2) und mindestens einer Kamera (3) im Raum in mehreren Stellungen, b) Erfassen der jeweiligen Stellung des Gegenstandes (Gi) , der Lichtquelle (Li) und der Kamera (Ki) , c) Beleuchten des Gegenstandes (1) durch die Lichtquelle (2) in den Stellungen (Gi, Li, Ki) , d) Aufnehmen von Bildern (4) des Gegenstandes (1) in den Stellungen (Gi, Li , Ki) , e) Ermitteln der Oberflächennormalen (5) des Gegenstandes (1) aus den Stellungen (Gi, Li, Ki) und den Bildern (4) , f) Zuordnung korrespondierender Bildpunkte (6) in den Bildern (4) mit Hilfe der Oberflächennormale (5), g) Ermitteln der dreidimensionalen Form des Gegenstandes aus den Stellungen (Gi, Li, Ki) , der Ober- flächennormale (5) und von korrespondierenden Bildpunkten (6) .
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Gegenstand (1) , die Lichtquelle (2) oder die Kamera (3) von Hand geführt wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Gegenstand (1) , die Lichtquelle (2) oder die Kamera (3) durch eine mechanische Vorrichtung geführt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Stellung von Gegenstand (Gi) , Lichtquelle (Li) oder Kamera (Ki) mit Hilfe eines zusätzlich Sensors (S) erfasst wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Stellung mit Hilfe eines photogram- metrischen, eines trägheitsbasierten, Ultraschalloder magnetisch arbeitenden Sensors (S) ermittelt wird.
6. Verfahren nach einem der vorangehenden Ansprüche , dadurch gekennzeichnet, dass mindestens drei Lichtquellen (2) verwendet werden.
7. Verfahren nach Anspruch 6 , dadurch gekennzeichnet, dass die Lichtquellen (2) fest an der Kamera (3) montiert sind.
PCT/EP2000/003706 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen WO2000066973A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA002370156A CA2370156C (en) 1999-04-30 2000-04-26 Method for optically detecting the shape of objects
JP2000615562A JP2002543411A (ja) 1999-04-30 2000-04-26 物体形状の光学的検出方法
DE50009995T DE50009995D1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen
AT00927045T ATE292784T1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen
US10/018,129 US6590669B1 (en) 1999-04-30 2000-04-26 Method for optically detecting the shape of objects
EP00927045A EP1190211B1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19919963 1999-04-30
DE19919963.9 1999-04-30

Publications (1)

Publication Number Publication Date
WO2000066973A1 true WO2000066973A1 (de) 2000-11-09

Family

ID=7906582

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2000/003706 WO2000066973A1 (de) 1999-04-30 2000-04-26 Verfahren zur optischen formerfassung von gegenständen

Country Status (7)

Country Link
US (1) US6590669B1 (de)
EP (1) EP1190211B1 (de)
JP (1) JP2002543411A (de)
AT (1) ATE292784T1 (de)
CA (1) CA2370156C (de)
DE (2) DE50009995D1 (de)
WO (1) WO2000066973A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1351034A2 (de) * 2002-04-01 2003-10-08 General Electric Company Verfahren und Vorrichtung zur optischen Messung der Position einer Anströmkante
EP1724549A3 (de) * 2005-05-18 2007-10-17 Steinbichler Optotechnik Gmbh Verfahren zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts
EP2105701A1 (de) * 2008-03-25 2009-09-30 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
AT506110B1 (de) * 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102013106696A1 (de) 2013-06-26 2014-12-31 GOM - Gesellschaft für Optische Meßtechnik mbH Steuerungseinheit für eine optische Vermessungseinrichtung und Verfahren zur Steuerung einer optischen Vermessungseinrichtung

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004020419B3 (de) * 2004-04-23 2005-10-20 3D Shape Gmbh Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen
JP2008512672A (ja) * 2004-09-07 2008-04-24 ペトロモデル・イーエイチエフ 鉱物および岩石小片のサイズ、形状、アンギュラリティの解析のため、および組成解析のための装置および方法
FI117650B (fi) * 2004-10-27 2006-12-29 Mapvision Ltd Oy Symmetria-akselin määrittäminen
KR20060065800A (ko) * 2004-12-10 2006-06-14 한국전자통신연구원 헬름홀츠 스테레오를 이용한 깊이 불연속선을 지니는물체의 3차원 형상 획득 장치 및 그 방법
US20060152711A1 (en) * 2004-12-30 2006-07-13 Dale James L Jr Non-contact vehicle measurement method and system
US7623250B2 (en) * 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
DE102005022540B4 (de) * 2005-05-17 2007-07-05 Siemens Ag Verfahren zur Minimierung von Bildartefakten und medizinisches Bildgebungssystem
DE102005023165A1 (de) * 2005-05-19 2006-11-23 Siemens Ag Medizinisches Bildgebungssystem mit einem um einen Patienten verfahrbaren Teil und Kollisionsschutzverfahren
JP4599515B2 (ja) * 2005-05-27 2010-12-15 コニカミノルタセンシング株式会社 3次元形状データの位置合わせ方法および装置
KR100681320B1 (ko) * 2005-12-08 2007-02-09 한국전자통신연구원 헬름홀츠 교환조건으로부터 유도되는 편미분 방정식의레벨셋 풀이 방법을 이용한 물체의 3차원 형상 모델링 방법
US7711182B2 (en) * 2006-08-01 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method and system for sensing 3D shapes of objects with specular and hybrid specular-diffuse surfaces
DE102007020240A1 (de) * 2007-04-24 2008-10-30 Sms Demag Ag Verfahren zur Erkennung und Klassifizierung von Oberflächenfehlern auf stranggegossenen Brammen
JP2010537188A (ja) * 2007-08-22 2010-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表面の光学的特徴付けに対する方法及び装置
TR201009280T1 (tr) * 2008-05-16 2011-09-21 Forensic Technology Wai Inc. Rastlantısal geometriye sahip olan nesnelerin topografyalarının elde edilmesi.
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9245062B2 (en) * 2012-03-22 2016-01-26 Virtek Vision International Inc. Laser projection system using variable part alignment
US9200899B2 (en) 2012-03-22 2015-12-01 Virtek Vision International, Inc. Laser projection system and method
US9746353B2 (en) 2012-06-20 2017-08-29 Kirt Alan Winter Intelligent sensor system
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
DE102013212827B4 (de) * 2013-07-01 2015-03-26 Sac Sirius Advanced Cybernetics Gmbh Verfahren und Vorrichtung zur optischen Formerfassung und/oder Prüfen eines Gegenstandes
CN103411546B (zh) * 2013-08-20 2016-05-11 中国海洋石油总公司 钢结构三维精度的检验方法
CN105764860B (zh) 2013-11-25 2019-01-11 康宁股份有限公司 用于确定基本上圆柱形镜面反射表面的形状的方法
DE102017118767B4 (de) 2017-08-17 2020-10-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
US11350078B2 (en) * 2020-04-03 2022-05-31 Fanuc Corporation 3D pose detection by multiple 2D cameras
CN117047787B (zh) * 2023-10-13 2023-12-29 中国长江电力股份有限公司 基于双目结构光视觉的水轮机顶盖在位机器人编程方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3840739A (en) * 1973-08-03 1974-10-08 Gerber Scientific Instr Co Apparatus and method for tracking a raised edge without shadow interference
US4791482A (en) * 1987-02-06 1988-12-13 Westinghouse Electric Corp. Object locating system
WO1997005449A1 (en) * 1995-07-26 1997-02-13 Crampton Stephen J Scanning apparatus and method
GB2328280A (en) * 1997-07-31 1999-02-17 Tricorder Technology Plc Scanning to obtain size, shape or other 3D surface features

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3570744D1 (en) 1984-02-25 1989-07-06 Massen Robert Process for the contactless measurement of the length of a moving article, and measuring apparatus for carrying out the process
DE3679616D1 (de) 1985-08-28 1991-07-11 Igm Ind Geraete Maschf Gmbh Verfahren zum erfassen der position und geometrie von werkstueckoberflaechen.
FI74556C (fi) * 1986-04-11 1988-02-08 Valtion Teknillinen Foerfarande foer tredimensionell oevervakning av ett maolutrymme.
DE3641816A1 (de) 1986-12-06 1988-06-16 Robert Prof Dr Ing Massen Verfahren und anordnung zur messung und/oder ueberwachung von eigenschaften von garnen und seilen
WO1990016037A1 (en) * 1989-06-20 1990-12-27 Fujitsu Limited Method for measuring position and posture of object
JPH05266146A (ja) * 1992-03-19 1993-10-15 Matsushita Electric Ind Co Ltd 物体形状の表現装置
DE4411646A1 (de) 1994-04-02 1995-11-02 Bernhardt Gerd Prof Dr Ing Hab Verfahren und Anordnung zur Bestimmung der geometrischen Eigenschaften von Objekten vor einem Fahrzeug

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3840739A (en) * 1973-08-03 1974-10-08 Gerber Scientific Instr Co Apparatus and method for tracking a raised edge without shadow interference
US4791482A (en) * 1987-02-06 1988-12-13 Westinghouse Electric Corp. Object locating system
WO1997005449A1 (en) * 1995-07-26 1997-02-13 Crampton Stephen J Scanning apparatus and method
GB2328280A (en) * 1997-07-31 1999-02-17 Tricorder Technology Plc Scanning to obtain size, shape or other 3D surface features

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1351034A2 (de) * 2002-04-01 2003-10-08 General Electric Company Verfahren und Vorrichtung zur optischen Messung der Position einer Anströmkante
EP1351034A3 (de) * 2002-04-01 2003-11-26 General Electric Company Verfahren und Vorrichtung zur optischen Messung der Position einer Anströmkante
EP1724549A3 (de) * 2005-05-18 2007-10-17 Steinbichler Optotechnik Gmbh Verfahren zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts
AT506110B1 (de) * 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
EP2105701A1 (de) * 2008-03-25 2009-09-30 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102013106696A1 (de) 2013-06-26 2014-12-31 GOM - Gesellschaft für Optische Meßtechnik mbH Steuerungseinheit für eine optische Vermessungseinrichtung und Verfahren zur Steuerung einer optischen Vermessungseinrichtung
DE102013106696B4 (de) 2013-06-26 2019-10-10 Gom Gmbh Steuerungseinheit für eine optische Vermessungseinrichtung und Verfahren zur Steuerung einer optischen Vermessungseinrichtung

Also Published As

Publication number Publication date
DE10020893B4 (de) 2018-07-05
ATE292784T1 (de) 2005-04-15
US6590669B1 (en) 2003-07-08
EP1190211B1 (de) 2005-04-06
JP2002543411A (ja) 2002-12-17
DE50009995D1 (de) 2005-05-12
CA2370156A1 (en) 2000-11-09
CA2370156C (en) 2009-02-17
DE10020893A1 (de) 2000-12-28
EP1190211A1 (de) 2002-03-27

Similar Documents

Publication Publication Date Title
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE112014001459B4 (de) Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
EP1711777B1 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
DE102004061338B4 (de) Automatische Bauteilprüfung
DE69826753T2 (de) Optischer Profilsensor
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
EP1716410A1 (de) Verfahren und system zur inspektion von oberflächen
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE102008048963A1 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102009032771A1 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
WO2014139504A1 (de) Vorrichtung zur volumetrischen vermessung eines schlachttierkörperobjekts
WO2019197656A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE4212404A1 (de) Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
EP1813911A1 (de) Positionsbestimmungssystem
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
DE102020132179A1 (de) Verfahren und Vorrrichtung zur photogrammetrischen Vermessung
DE112015004196T5 (de) Gelenkarm-koordinatenmessgerät mit einer 2d-kamera und verfahren zum erhalten von 3d-darstellungen

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA IL JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000927045

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2370156

Country of ref document: CA

Ref country code: CA

Ref document number: 2370156

Kind code of ref document: A

Format of ref document f/p: F

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2000 615562

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 10018129

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000927045

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2000927045

Country of ref document: EP