EP1665162A1 - Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts - Google Patents

Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts

Info

Publication number
EP1665162A1
EP1665162A1 EP04786848A EP04786848A EP1665162A1 EP 1665162 A1 EP1665162 A1 EP 1665162A1 EP 04786848 A EP04786848 A EP 04786848A EP 04786848 A EP04786848 A EP 04786848A EP 1665162 A1 EP1665162 A1 EP 1665162A1
Authority
EP
European Patent Office
Prior art keywords
camera
geometric features
image
determination
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP04786848A
Other languages
English (en)
French (fr)
Inventor
Robert Wagner
Rainer Hesse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micro Epsilon Messtechnik GmbH and Co KG
Original Assignee
Micro Epsilon Messtechnik GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micro Epsilon Messtechnik GmbH and Co KG filed Critical Micro Epsilon Messtechnik GmbH and Co KG
Publication of EP1665162A1 publication Critical patent/EP1665162A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Definitions

  • the present invention relates to a method and a device for non-contact optical 3D image determination of an object, the SD position determination comprising the determination of the 3D position and the 3D orientation of the object, and wherein geometric features on the object are known.
  • the 3D position determination can be used to calibrate a robot.
  • the geometric features are arranged on the robot arm in a known manner, or a calibration target is mounted on the robot arm.
  • the robot arm is moved into the field of view of a fixed camera, and then the 3D position determination of the robot arm is carried out in order to check or re-calibrate its position and orientation.
  • Another application is the 3D position determination of components in the installed state. By determining the position of a reference part, it can be checked, for example, whether the position of built-in parts matches the position of the reference part, in order to identify components that are badly assembled.
  • the known devices for 3D position determination are nowadays exclusively multi-camera systems which cause considerable costs due to the use of two or more cameras.
  • 2D methods for gripping components are known to date, ie position and orientation in one plane (3 degrees of freedom) and additionally height information determined by the size of the component (1 additional degree of freedom).
  • this known method however, a maximum of 2 1 / 2D information about the position of the component is obtained, so that, for example, correct gripping is not possible if the component is skewed.
  • the calibration of a robot is usually carried out manually, since corresponding aids for setting up all 6 degrees of freedom are missing.
  • the calibration is therefore extremely time-consuming, which results in long maintenance intervals.
  • manual calibration procedures are generally relatively inaccurate.
  • the determination of the position of a component after its installation can also only be carried out today with multi-camera systems.
  • sensory solutions for individual measurement variables are known which solve the actual overall task via a multi-sensor evaluation.
  • Such multiple sensory measurements are also time-consuming and often not very helpful for an overall assessment of the 3D position.
  • the present invention is based on the object of designing and developing a method and a device for the contactless optical 3D position determination of an object in such a way that complete SD information about the object to be examined can be determined with simple means and with high measuring speed and measuring accuracy is.
  • the complete 3D position determination is carried out in a particularly advantageous manner by means of a single image recording by the camera.
  • the real imaging process of the camera can be modeled using a mathematical model.
  • properties of the optics used focal length, distortions, etc.
  • perspective transformations and digitization and discretization of the light intensity when recording images in the camera and / or in one Calculator are taken into account.
  • the known 3D position of the geometric features and the corresponding two-dimensional image information can be assigned on the basis of the model.
  • a (usually non-linear) system of equations can be created, in which the parameters of the mapping process are included as unknown quantities.
  • two equations are obtained from assigning a 3D point on the object to its 2D image position.
  • the camera is held stationary.
  • the orientation of the camera can also be predefined.
  • points, straight lines, angles, circles, elliptical contours and / or conic sections can be used as geometric features that are provided at known locations on the object. It is only important in this context that the contours and shapes are generally mathematically describable and are known on the component side and can be observed and evaluated well in the camera image.
  • the geometric objects can be used both for calibration and for determining the position.
  • the geometric objects can be used, for example, to determine the internal camera parameters.
  • the calibration can correct optical distortions and, in particular, the 3D positional relationship between the camera coordinate system and the object coordinate system can be determined.
  • a separate calibration target can also be used for calibration.
  • the 3D position of the object with respect to the camera coordinate system can be determined.
  • the 3D position of the object can be determined with respect to any other fixed coordinate system that can be defined as desired, for example with respect to a world coordinate system that can be determined by an additional setup step.
  • the 3D position of the object can even be determined with respect to a dynamic coordinate system as part of motion measurements or comparison measurements with reference master parts.
  • one or more additional cameras are provided with which the object is recorded, preferably from different recording angles. Several fixed single cameras or one or more moving cameras can be used for the additional recordings. With the additional recordings, the calculated SD positions can be evaluated using an additional quality criterion and corrections made if necessary. The result is a further improved accuracy of the 3D position determination.
  • additional supporting sensors could be provided, with the aid of which errors in the 3D position determination can be compensated and / or corrected.
  • these are, for example, temperature sensors for compensating for fluctuations in the ambient temperature, so that the temperature-dependent expansion of the object to be examined can be taken into account when calculating the 3D position.
  • a trace and / or camber measurement can be carried out on motor vehicles based on geometric features on the rim. It can be provided that striking locations on the rim are automatically offered as geometric features. The striking points can be, for example, the valve or the hub cover. In a preferred embodiment, the prominent positions offered can be accepted interactively by the user or rejected. Knowing the geometric shape on the rim enables you to control the wheelbase in all its degrees of freedom. On the one hand, this eliminates the need for a projected pattern on the rim and, on the other hand, there is the possibility of determining a positive or negative camber with the shock absorber relaxed.
  • a device for non-contact optical 3D position determination is characterized by a camera for creating an image of the object, the 3D position of the Object is predictable.
  • the device according to the invention is preferably used to carry out a method according to one of claims 1 to 20, so that reference is made to the previous part of the description in order to avoid repetitions.
  • the device advantageously comprises an industrial PC which is equipped with suitable image processing software.
  • Fig. A schematic representation of an embodiment of an inventive device for non-contact optical 3D position determination of an object.
  • the figure shows schematically a device for contactless optical SD position determination of an object 1, the 3D position of the object 1 being determined with respect to a spatially fixed coordinate system with the axes x, y and z.
  • a picture of the object 1 is taken by a camera 2 positioned above the object 1.
  • the position and orientation of the camera 2 are predefined in relation to the fixed coordinate system xyz.
  • light sources 3 arranged around the camera 2 ensure sufficient illumination of the object 1.
  • the camera data are transmitted to an industrial PC 4 with a monitor 5.
  • There the 2D image information is assigned to the known 3D position of the geometric features present on the object 1 (not shown).
  • An over-determined system of equations is created for the parameters of the mapping process, and non-linear optimization methods are used to solve them.
  • the exact 3D position of the object 1 can be determined and the coordinates can be transmitted to a robot 6. Knowing the position and orientation of the object 1, the robot 6 can - after appropriate calibration - grasp or process the object 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Assembly (AREA)
  • Manipulator (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, ist im Hinblick auf die Ermittlung einer vollständigen 3D-Information über das zu untersuchende Objekt mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.

Description

„Verfahren und Vorrichtung zur berührungslosen optischen SD- Lagebestimmung eines Objekts"
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-I_agebestimmung eines Objekts, wobei die SD-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind.
Die Automatisierung von Produktionsabläufen spielt in der industriellen Fertigung eine immer bedeutendere Rolle. Für Produktionslinien, die keine exakte Positionierung der zu bearbeitenden Bauteile erlauben, ist es dabei besonders wichtig, die komplette 3D-Lage des Bauteils, d. h. die 3D-Position und die 3D-Orientierung im Raum, zu kennen, um das Bauteil zum Beispiel durch einen Roboter greifen und bearbeiten zu können.
Darüber hinaus kann die 3D-Lagebestimmung zur Kalibrierung eines Roboters verwendet werden. Dabei sind die geometrischen Merkmale in bekannter Weise auf dem Roboterarm angeordnet, oder es ist ein Kalibriertarget auf dem Roboterarm montiert. Der Roboterarm wird in das Sichtfeld einer fest montierten Kamera bewegt, und sodann wird die 3D-Lagebestimmung des Roboterarms durchgeführt, um seine Position und Orientierung zu überprüfen bzw. neu zu kalibrieren.
Eine weitere Anwendung ist die 3D-Lagebestimmung von Bauteilen im eingebauten Zustand. Durch die Lagebestimmung eines Referenzteils kann zum Beispiel überprüft werden, ob die Lage von eingebauten Teilen mit der Lage des Referenzteils übereinstimmt, um so schlecht montierte Bauteile zu ermitteln.
Bei den bekannten Vorrichtungen zur 3D-Lagebestimmung handelt es sich heutzutage ausschließlich um Mehrkamerasysteme, die aufgrund des Einsatzes von zwei oder mehr Kameras erhebliche Kosten verursachen. Im Zusammenhang mit der Verwendung von nur einer einzigen Kamera sind bislang lediglich angepasste 2D- Verfahren zum Greifen von Bauteilen bekannt, d. h. es werden Position und Orientierung in einer Ebene (3 Freiheitsgrade) und zusätzlich eine Höheninformation über die Größe des Bauteils (1 weiterer Freiheitsgrad) bestimmt. Mit diesem bekannten Verfahren erhält man allerdings maximal eine 21/2D-lnformation über die Lage des Bauteils, so dass beispielsweise ein korrektes Greifen bei Schieflage des Bauteils nicht möglich ist.
Die Kalibrierung eines Roboters wird nach jetzigem Stand der Technik meist manuell durchgeführt, da entsprechende Hilfsmittel zur Einrichtung aller 6 Freiheitsgrade fehlen. Die Kalibrierung ist dementsprechend äußerst zeitaufwendig, was lange Wartungsintervalle zur Folge hat. Darüber hinaus sind die manuellen Kalibrierverfahren im Allgemeinen relativ ungenau.
Die Lagebestimmung eines Bauteils nach dessen Einbau kann heutzutage ebenfalls nur mit Mehrkamerasystemen durchgeführt werden. Alternativ sind sensorische Lösungen für Einzelmessgrößen bekannt, welche über eine Multisensorauswertung die eigentliche Gesamtaufgabe lösen. Derartige sensorische Mehrfachmessungen sind ebenfalls zeitaufwendig und zur Gesamtbeurteilung der 3D-Lage oftmals wenig hilfreich.
Der vorliegenden Erfindung liegt nunmehr die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts derart auszugestalten und weiterzubilden, dass mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit die Ermittlung einer vollständigen SD- Information über das zu untersuchende Objekt möglicht ist.
Das erfindungsgemäße Verfahren zur berührungslosen optischen SD-Lagebestimmung löst die voranstehende Aufgabe durch die Merkmale des Patentanspruchs 1. Danach ist ein solches Verfahren dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
In erfindungsgemäßer Weise ist zunächst erkannt worden, dass der Einsatz mehrerer Kameras zur 3D-Lagebestimmung sowohl im Hinblick auf die Kosten als auch in Bezug auf Montage und Justierung der Kameras äußerst aufwendig ist. In Abkehr zu den bekannten Verfahren wird erfindungsgemäß ein Bild des Objekts mittels einer Kamera erstellt und anhand der Bildinformation in Bezug auf die geometrischen Merkmale aus dem Kamerabild die 3D-Lage des Objektes berechnet. Aufgrund der Einfachheit und Kompaktheit ist der Einfluss des erfindungsgemäßen Verfahrens auf Bewegungsabläufe in der Produktion wesentlich reduziert. Bei der Kalibrierung eines Roboters kann mit Hilfe des erfindungsgemäßen Verfahrens auf eine im Allgemeinen ungenaue manuelle Einrichtung verzichtet werden und somit ein höheres Maß an Zuverlässigkeit garantiert werden. Darüber hinaus ist ein schnelleres Einrichten des Roboters und damit eine Verkürzung der Wartungsintervalle ermöglicht.
Im Hinblick auf eine besonders hohe Effizienz des Verfahrens wird die vollständige 3D-Lagebestimmung in besonders vorteilhafter Weise mittels einer einzigen Bildaufnahme der Kamera durchgeführt.
Als Grundlage für die Berechnung der 3D-Lage kann der reale Abbildungsprozess der Kamera durch ein mathematisches Modell modelliert werden. Im Rahmen des Abbildungsprozesses können insbesondere Position und Orientierung zwischen dem zu untersuchenden Objekt und der Kamera, Eigenschaften der verwendeten Optik (Brennweite, Verzeichnungen, etc.), perspektivische Transformationen sowie Digitalisierung und Diskretisierung der Lichtintensität bei der Bildaufnahme in der Kamera und/oder in einem Rechner berücksichtigt werden.
Auf der Basis des Modells kann eine Zuordnung der bekannten 3D-Lage der geometrischen Merkmale und der entsprechenden zweidimensionalen Bildinformationen durchgeführt werden. Mit anderen Worten kann ein (in der Regel nichtlineares) Gleichungssystem erstellt werden, in das die Parameter des Abbildungsprozesses als unbekannte Größen eingehen.
Aus der Zuordnung eines 3D-Punktes auf dem Objekt zu seiner 2D-Bildposition erhält man beispielsweise zwei Gleichungen. Durch Verwendung mehrerer Merkmale ist es somit möglich, ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses aufzustellen und durch mathematische Methoden die unbekannten Größen zu bestimmen. In vorteilhafter Weise werden mehr Gleichungen verwendet als freie Parameter im System modelliert sind. Zur Lösung eines derart überbestimmten Gleichungssystems können dann nichtlineare Optimierungsverfahren eingesetzt werden, um eine optimale Lösung zu ermitteln.
Im Hinblick auf ein hohes Maß an Einfachheit kann vorgesehen sein, dass die Kamera ortsfest gehalten wird. Zusätzlich kann auch die Ausrichtung der Kamera fest vorgegeben werden.
Als geometrische Merkmale, die an bekannten Stellen auf dem Objekt vorgesehen sind, können je nach konkreter Anwendung Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden. Wichtig ist in diesem Zusammenhang lediglich, dass es sich um allgemein mathematisch beschreibbare Konturen und Formen handelt, die bauteilseitig bekannt sind und im Kamerabild gut beobachtet und ausgewertet werden können.
Die geometrischen Objekte können sowohl zur Kalibrierung als auch zur Lagebestimmung verwendet werden. Im Rahmen der Kalibrierung können die geometrischen Objekte beispielsweise verwendet werden, um die internen Kameraparameter zu bestimmen. Durch die Kalibrierung können optische Verzeichnungen korrigiert und insbesondere die 3D-Lagebeziehung zwischen Kamerakoordinatensystem und Objektkoordinatensystem bestimmt werden. Anstelle der geometrischen Merkmale auf dem Objekt kann zur Kalibrierung auch ein separates Kalibriertarget verwendet werden.
Durch die Anwendung der Kamerakalibrierung und die Auswertung der dabei ermittelten sogenannten externen Kameraparameter (3 Parameter für Position, 3 Parameter für Rotation) kann die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems ermittelt werden. Alternativ kann die 3D-Lage des Objekts bezüglich eines beliebig festlegbaren anderen festen Koordinatensystems, beispielsweise gegenüber einem Weltkoordinatensystem, das durch einen zusätzlichen Einrichtschritt ermittelt werden kann, bestimmt werden. Im Rahmen von Bewegungsmessungen oder Vergleichsmessungen zu Referenzmasterteilen, kann die 3D-Lage des Objekts sogar bezüglich eines dynamischen Koordinatensystems bestimmt werden. ln einer konkreten Ausführungsform sind eine oder mehrere zusätzliche Kameras vorgesehen, mit denen das Objekt - vorzugsweise aus unterschiedlichen Aufnahmewinkeln - aufgenommen wird. Für die zusätzlichen Aufnahmen können mehrere feststehende Einzelkameras oder eine oder mehrere bewegliche Kameras eingesetzt werden. Mit den zusätzlichen Aufnahmen können die berechneten SD- Lagen über ein zusätzliches Gütekriterium bewertet und gegebenenfalls Korrekturen durchgeführt werden. Im Ergebnis erhält man eine weiter verbesserte Genauigkeit der 3D-Lagebestimmung.
Des Weiteren könnten zusätzliche unterstützende Sensoren vorgesehen sein, mit deren Hilfe Fehler in der 3D-Lagebestimmung kompensiert und/oder korrigiert werden können. Im Konkreten handelt es sich dabei zum Beispiel um Temperatursensoren zur Kompensation von Schwankungen der Umgebungstemperatur, so dass bei der Berechnung der 3D-Lage die temperaturabhängige Ausdehnung des zu untersuchenden Objektes berücksichtigt werden kann.
In besonders vorteilhafter Weise kann an Kraftfahrzeugen eine Spur- und/oder Sturzvermessung anhand von geometrischen Merkmalen auf der Felge durchgeführt werden. Dabei kann vorgesehen sein, dass markante Stellen auf der Felge automatisch als geometrische Merkmale angeboten werden. Bei den markanten Stellen kann es sich beispielsweise um das Ventil oder um die Nabenabdeckung handeln. In einer bevorzugten Ausgestaltung können die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder aber abgelehnt werden. Durch die Kenntnis der geometrischen Form auf der Felge ergibt sich die Möglichkeit, den Radstand in all seinen Freiheitsgraden zu kontrollieren. Damit entfällt zum einen die Notwendigkeit eines aufprojizierten Musters auf der Felge und zum anderen ergibt sich die Möglichkeit, einen positiven oder negativen Achsensturz bei entspanntem Federbein festzustellen.
In vorrichtungsmäßiger Hinsicht wird die eingangs genannte Aufgabe durch die Merkmale des Patentanspruchs 21 gelöst. Hiernach ist eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung gekennzeichnet durch eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist. Vorzugsweise dient die erfindungsgemäße Vorrichtung zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, so dass zur Vermeidung von Wiederholungen auf den vorigen Teil der Beschreibung verwiesen wird.
Im Hinblick auf eine schnelle Auswertung der Kamerabilder und eine unmittelbare Berechnung der 3D-Lage umfasst die Vorrichtung in vorteilhafter Weise einen Industrie-PC, der mit einer geeigneten Bildverarbeitungssoftware ausgestattet ist.
Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die den Patentansprüchen 1 und 21 nachgeordneten Patentansprüchen und andererseits auf die nachfolgende Erläuterung eines bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung des bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigt die einzige
Fig. eine schematische Darstellung eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts.
Die Fig. zeigt schematisch eine Vorrichtung zur berührungslosen optischen SD- Lagebestimmung eines Objekts 1 , wobei die 3D-Lage des Objekts 1 bezüglich eines raumfesten Koordinatensystems mit den Achsen x, y und z bestimmt wird. Dazu wird von einer oberhalb des Objekts 1 positionierten Kamera 2 eine Aufnahme des Objekts 1 erstellt. Position und Ausrichtung der Kamera 2 sind in Bezug auf das raumfeste Koordinatensystem xyz fest vorgegeben. Während der Aufnahme sorgen rings um die Kamera 2 herum angeordnete Lichtquellen 3 für eine ausreichende Beleuchtung des Objekts 1.
Die Kameradaten werden an einen Industrie-PC 4 mit Monitor 5 übertragen. Dort erfolgt die Zuordnung der 2D-Bildinformation zu der bekannten 3D-Lage der auf dem Objekt 1 vorhandenen geometrischen Merkmale (nicht gezeigt). Für alle freien Parameter des Abbildungsprozesses wird ein überbestimmtes Gleichungssystem erstellt, zu dessen Lösung nichtlineare Optimierungsverfahren eingesetzt werden. Nach Lösung des Gleichungssystems kann die exakte 3D-Lage des Objekts 1 bestimmt werden und die Koordinaten an einen Roboter 6 übertragen werden. In Kenntnis der Position und Orientierung des Objekts 1 kann der Roboter 6 - nach entsprechender Kalibrierung - das Objekt 1 greifen bzw. bearbeiten.
Abschließend sei ganz besonders darauf hingewiesen, dass das voranstehend erörterte Ausführungsbeispiel lediglich zur Beschreibung der beanspruchten Lehre dienst, diese jedoch nicht auf das Ausführungsbeispiel einschränkt.

Claims

Patentansprüche
1. Verfahren zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der SD- Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vollständige 3D-Lagebestimmung mittels einer einzigen Bildaufnahme der Kamera durchgeführt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die bekannte 3D-Lage der geometrischen Merkmale jeweils der entsprechenden zweidimensionalen Bildinformation zugeordnet wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses erstellt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Lösung eines überbestimmten Gleichungssystems nichtlineare Optimierungsverfahren eingesetzt werden.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Kamera ortsfest gehalten wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Ausrichtung der Kamera fest vorgegeben wird.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass als geometrische Merkmale allgemeine mathematisch beschreibbare Konturen und Formen verwendet werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass als geometrische Merkmale Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Kamera mit Hilfe der geometrischen Merkmale kalibriert wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass im Rahmen der Kalibrierung die internen Kameraparameter bestimmt werden.
12. Verfahren nach einem der Ansprüche 1 bis 11 , dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines festen Koordinatensystems bestimmt wird.
13. Verfahren nach einem der Ansprüche 1 bis 11 , dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems, des Objektkoordinatensystems oder bezüglich eines Weltkoordinatensystems bestimmt wird.
14. Verfahren nach einem der Ansprüche 1 bis 11 , dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines dynamischen Koordinatensystems bestimmt wird.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass das Objekt mit einer oder mehreren zusätzlichen Kameras, vorzugsweise aus unterschiedlichen Aufnahmewinkeln, aufgenommen wird.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass mittels der zusätzlichen Aufnahmen die Güte der berechneten 3D-Lage des Objekts bestimmt wird und ggf. Korrekturen durchgeführt werden.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass Fehler in der 3D-Lagebestimmung mittels einer Sensorik kompensiert und/oder korrigiert werden.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass eine Spur- und/oder Sturzvermessung an Kraftfahrzeugen anhand von geometrischen Merkmalen auf der Felge durchgeführt wird.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass als geometrische Merkmale automatisch markante Stellen auf der Felge angeboten werden.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder abgelehnt werden.
21. Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der SD- Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, vorzugsweise zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, g e k e n n z e i c h n e t d u r c h eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist.
22. Vorrichtung nach Anspruch 21 , dadurch gekennzeichnet, dass die Kamera ortsfest ist.
23. Vorrichtung nach Anspruch 21 oder 22, gekennzeichnet durch mindestens einen Industrie-PC zur Auswertung der Kamerabilder und zur Berechnung der 3D- Lage.
24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, dass der Industrie- PC eine Bildverarbeitungssoftware umfasst.
EP04786848A 2003-09-26 2004-09-23 Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts Ceased EP1665162A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10345112 2003-09-26
PCT/DE2004/002132 WO2005031647A1 (de) 2003-09-26 2004-09-23 Verfahren und vorrichtung zur berührungslosen optischen 3d-lagebestimmung eines objekts

Publications (1)

Publication Number Publication Date
EP1665162A1 true EP1665162A1 (de) 2006-06-07

Family

ID=34384326

Family Applications (1)

Application Number Title Priority Date Filing Date
EP04786848A Ceased EP1665162A1 (de) 2003-09-26 2004-09-23 Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts

Country Status (6)

Country Link
US (1) US8064686B2 (de)
EP (1) EP1665162A1 (de)
JP (1) JP2007533963A (de)
CN (1) CN1856804A (de)
DE (1) DE102004046584A1 (de)
WO (1) WO2005031647A1 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP4914039B2 (ja) * 2005-07-27 2012-04-11 キヤノン株式会社 情報処理方法および装置
JP5509645B2 (ja) * 2009-03-25 2014-06-04 富士ゼロックス株式会社 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
CN102022979A (zh) * 2009-09-21 2011-04-20 鸿富锦精密工业(深圳)有限公司 三维光学感测系统
JP5815021B2 (ja) 2010-04-28 2015-11-17 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft 二つの車両構造部品もしくは車両構造部品以外の二つの構造部品を接合する方法
DE102010041356A1 (de) 2010-09-24 2012-03-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Verbinden von Bauteilen
DE102010042803B4 (de) 2010-10-22 2020-09-24 Bayerische Motoren Werke Aktiengesellschaft Bauteilverbindung
DE102011080483B4 (de) 2011-08-05 2015-07-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
CN104175085B (zh) * 2013-05-21 2016-11-09 重庆长安汽车股份有限公司 冲压生产顶杆孔快速定位装置及方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
JP2018040760A (ja) * 2016-09-09 2018-03-15 株式会社鈴木エンタープライズ 構造物寸法計測システム及び計測方法
EP3465618B1 (de) * 2017-08-25 2021-06-09 Chris Hsinlai Liu Maschinenvisionssystem und verfahren zur identifizierung von orten von zielelementen
CN109443321B (zh) * 2018-10-30 2021-01-08 中国人民解放军国防科技大学 一种监测大型结构形变的串并联像机网络测量方法
US10871384B2 (en) 2019-02-26 2020-12-22 Thomas P. Moyer Apparatus and methods utilizing emissive patterns to determine positional information
CN113432585A (zh) * 2021-06-29 2021-09-24 沈阳工学院 一种基于机器视觉技术的非接触式轮毂位置精确测定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4113992A1 (de) * 1991-04-29 1992-11-05 Ameling Walter Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE19934864A1 (de) * 1999-07-24 2001-02-08 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5959397A (ja) * 1982-09-29 1984-04-05 オムロン株式会社 特徴点のラベリング装置
JPS63133002A (ja) * 1986-11-25 1988-06-04 Nec Corp 三次元座標測定装置
JPH076769B2 (ja) * 1988-07-28 1995-01-30 工業技術院長 物体計測装置
US4942539A (en) * 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
US5380978A (en) * 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
US5388059A (en) * 1992-12-30 1995-02-07 University Of Maryland Computer vision system for accurate monitoring of object pose
US6081273A (en) * 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
FR2760277B1 (fr) * 1997-02-28 1999-03-26 Commissariat Energie Atomique Procede et dispositif de localisation d'un objet dans l'espace
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
US6886231B2 (en) * 1999-06-25 2005-05-03 Burke E. Porter Machinery Company Robotic apparatus and method for mounting a valve stem on a wheel rim
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
JP4366023B2 (ja) * 2001-03-16 2009-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
AUPR812601A0 (en) * 2001-10-09 2001-11-01 Integra Medical Imaging (Aust) Pty Ltd 2-D and 3-D pose estimation of articles from 2-D images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4113992A1 (de) * 1991-04-29 1992-11-05 Ameling Walter Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE19934864A1 (de) * 1999-07-24 2001-02-08 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HORAUD R.: "New methods for matching 3-D objects with single perspective views", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. PAMI-9, no. 3, May 1987 (1987-05-01), pages 401 - 412, XP009058237 *
See also references of WO2005031647A1 *

Also Published As

Publication number Publication date
US20070009149A1 (en) 2007-01-11
US8064686B2 (en) 2011-11-22
WO2005031647A1 (de) 2005-04-07
CN1856804A (zh) 2006-11-01
JP2007533963A (ja) 2007-11-22
DE102004046584A1 (de) 2005-05-19

Similar Documents

Publication Publication Date Title
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE102010042540B4 (de) Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems
EP2603767B1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
EP1711777B2 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
EP1376051B1 (de) Kalibrierung eines Bildsensorsystems an einem Kraftfahrzeug mit Kalibrierobjekt und Lagebezugssensor
EP1665162A1 (de) Verfahren und vorrichtung zur berührungslosen optischen 3d-l agebestimmung eines objekts
DE102008041523A1 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP2489977A2 (de) Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102017207696A1 (de) Kalibrierungsvorrichtung und Kalibrierungsverfahren
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102015109557B4 (de) Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE102019102927B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102021209178A1 (de) Verfahren und Vorrichtung zum Bestimmen von Relativposen und zur Kalibrierung bei einem Koordinatenmessgerät oder Roboter
DE102022104880B4 (de) Verfahren zur Kalibrierung eines portablen Referenzsensorsystems, portables Referenzsensorsystem und Verwendung des portablen Referenzsensorsystems
DE10016963C2 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
EP3707569B1 (de) Kalibrierung eines stationären kamerasystems zur positionserfassung eines mobilen roboters
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems
DE102007032471A1 (de) Verfahren und Vorrichtung zur Bestimmung der Lage eines Kamerasystems relativ zu einem Objekt
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102010004233B3 (de) Verfahren zur Bestimmung der Lage eines Kamerasystems bezüglich eines Objekts
DE102016109919A1 (de) Vorrichtung zur Vermessung von Objekten

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20060124

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: HESSE, RAINER

Inventor name: WAGNER, ROBERT

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20070906

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20160430