DE102004046584A1 - Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts - Google Patents

Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts Download PDF

Info

Publication number
DE102004046584A1
DE102004046584A1 DE102004046584A DE102004046584A DE102004046584A1 DE 102004046584 A1 DE102004046584 A1 DE 102004046584A1 DE 102004046584 A DE102004046584 A DE 102004046584A DE 102004046584 A DE102004046584 A DE 102004046584A DE 102004046584 A1 DE102004046584 A1 DE 102004046584A1
Authority
DE
Germany
Prior art keywords
camera
geometric features
orientation
coordinate system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004046584A
Other languages
English (en)
Inventor
Robert Wagner
Rainer Hesse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micro Epsilon Messtechnik GmbH and Co KG
Original Assignee
Micro Epsilon Messtechnik GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micro Epsilon Messtechnik GmbH and Co KG filed Critical Micro Epsilon Messtechnik GmbH and Co KG
Priority to DE102004046584A priority Critical patent/DE102004046584A1/de
Publication of DE102004046584A1 publication Critical patent/DE102004046584A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

Ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3-D-Lagebestimmung eines Objekts, wobei die 3-D-Lagebestimmung die Bestimmung der 3-D-Position und der 3-D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, ist im Hinblick auf die Ermittlung einer vollständigen 3-D-Information über das zu untersuchende Objekt mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3-D-Lage des Objekts berechnet wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind.
  • Die Automatisierung von Produktionsabläufen spielt in der industriellen Fertigung eine immer bedeutendere Rolle. Für Produktionslinien, die keine exakte Positionierung der zu bearbeitenden Bauteile erlauben, ist es dabei besonders wichtig, die komplette 3D-Lage des Bauteils, d. h. die 3D-Position und die 3D-Orientierung im Raum, zu kennen, um das Bauteil zum Beispiel durch einen Roboter greifen und bearbeiten zu können.
  • Darüber hinaus kann die 3D-Lagebestimmung zur Kalibrierung eines Roboters verwendet werden. Dabei sind die geometrischen Merkmale in bekannter Weise auf dem Roboterarm angeordnet, oder es ist ein Kalibriertarget auf dem Roboterarm montiert. Der Roboterarm wird in das Sichtfeld einer fest montierten Kamera bewegt, und sodann wird die 3D-Lagebestimmung des Roboterarms durchgeführt, um seine Position und Orientierung zu überprüfen bzw. neu zu kalibrieren.
  • Eine weitere Anwendung ist die 3D-Lagebestimmung von Bauteilen im eingebauten Zustand. Durch die Lagebestimmung eines Referenzteils kann zum Beispiel überprüft werden, ob die Lage von eingebauten Teilen mit der Lage des Referenzteils übereinstimmt, um so schlecht montierte Bauteile zu ermitteln.
  • Bei den bekannten Vorrichtungen zur 3D-Lagebestimmung handelt es sich heutzutage ausschließlich um Mehrkamerasysteme, die aufgrund des Einsatzes von zwei oder mehr Kameras erhebliche Kosten verursachen. Im Zusammenhang mit der Verwendung von nur einer einzigen Kamera sind bislang lediglich angepasste 2D-Verfahren zum Greifen von Bauteilen bekannt, d. h. es werden Position und Orientierung in einer Ebene (3 Freiheitsgrade) und zusätzlich eine Höheninformation über die Größe des Bauteils (1 weiterer Freiheitsgrad) bestimmt. Mit diesem bekannten Verfahren erhält man allerdings maximal eine 2½D-Information über die Lage des Bauteils, so dass beispielsweise ein korrektes Greifen bei Schieflage des Bauteils nicht möglich ist.
  • Die Kalibrierung eines Roboters wird nach jetzigem Stand der Technik meist manuell durchgeführt, da entsprechende Hilfsmittel zur Einrichtung aller 6 Freiheits grade fehlen. Die Kalibrierung ist dementsprechend äußerst zeitaufwendig, was lange Wartungsintervalle zur Folge hat. Darüber hinaus sind die manuellen Kalibrierverfahren im Allgemeinen relativ ungenau.
  • Die Lagebestimmung eines Bauteils nach dessen Einbau kann heutzutage ebenfalls nur mit Mehrkamerasystemen durchgeführt werden. Alternativ sind sensorische Lösungen für Einzelmessgrößen bekannt, welche über eine Multisensorauswertung die eigentliche Gesamtaufgabe lösen. Derartige sensorische Mehrfachmessungen sind ebenfalls zeitaufwendig und zur Gesamtbeurteilung der 3D-Lage oftmals wenig hilfreich.
  • Der vorliegenden Erfindung liegt nunmehr die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts derart auszugestalten und weiterzubilden, dass mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit die Ermittlung einer vollständigen 3D-Information über das zu untersuchende Objekt möglicht ist.
  • Das erfindungsgemäße Verfahren zur berührungslosen optischen 3D-Lagebestimmung löst die voranstehende Aufgabe durch die Merkmale des Patentanspruchs 1. Danach ist ein solches Verfahren dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
  • In erfindungsgemäßer Weise ist zunächst erkannt worden, dass der Einsatz mehrerer Kameras zur 3D-Lagebestimmung sowohl im Hinblick auf die Kosten als auch in Bezug auf Montage und Justierung der Kameras äußerst aufwendig ist. In Abkehr zu den bekannten Verfahren wird erfindungsgemäß ein Bild des Objekts mittels einer Kamera erstellt und anhand der Bildinformation in Bezug auf die geometrischen Merkmale aus dem Kamerabild die 3D-Lage des Objektes berechnet. Aufgrund der Einfachheit und Kompaktheit ist der Einfluss des erfindungsgemäßen Verfahrens auf Bewegungsabläufe in der Produktion wesentlich reduziert. Bei der Kalibrierung eines Roboters kann mit Hilfe des erfindungsgemäßen Verfahrens auf eine im Allgemeinen ungenaue manuelle Einrichtung verzichtet werden und somit ein höheres Maß an Zuverlässigkeit garantiert werden. Darüber hinaus ist ein schnelleres Einrichten des Roboters und damit eine Verkürzung der Wartungsintervalle ermöglicht.
  • Im Hinblick auf eine besonders hohe Effizienz des Verfahrens wird die vollständige 3D-Lagebestimmung in besonders vorteilhafter Weise mittels einer einzigen Bildaufnahme der Kamera durchgeführt.
  • Als Grundlage für die Berechnung der 3D-Lage kann der reale Abbildungsprozess der Kamera durch ein mathematisches Modell modelliert werden. Im Rahmen des Abbildungsprozesses können insbesondere Position und Orientierung zwischen dem zu untersuchenden Objekt und der Kamera, Eigenschaften der verwendeten Optik (Brennweite, Verzeichnungen, etc.), perspektivische Transformationen sowie Digitalisierung und Diskretisierung der Lichtintensität bei der Bildaufnahme in der Kamera und/oder in einem Rechner berücksichtigt werden.
  • Auf der Basis des Modells kann eine Zuordnung der bekannten 3D-Lage der geometrischen Merkmale und der entsprechenden zweidimensionalen Bildinformationen durchgeführt werden. Mit anderen Worten kann ein (in der Regel nichtlineares) Gleichungssystem erstellt werden, in das die Parameter des Abbildungsprozesses als unbekannte Größen eingehen.
  • Aus der Zuordnung eines 3D-Punktes auf dem Objekt zu seiner 2D-Bildposition erhält man beispielsweise zwei Gleichungen. Durch Verwendung mehrerer Merkmale ist es somit möglich, ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses aufzustellen und durch mathematische Methoden die unbekannten Größen zu bestimmen. In vorteilhafter Weise werden mehr Gleichungen verwendet als freie Parameter im System modelliert sind. Zur Lösung eines derart überbestimmten Gleichungssystems können dann nichtlineare Optimierungsverfahren eingesetzt werden, um eine optimale Lösung zu ermitteln.
  • Im Hinblick auf ein hohes Maß an Einfachheit kann vorgesehen sein, dass die Kamera ortsfest gehalten wird. Zusätzlich kann auch die Ausrichtung der Kamera fest vorgegeben werden.
  • Als geometrische Merkmale, die an bekannten Stellen auf dem Objekt vorgesehen sind, können je nach konkreter Anwendung Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden. Wichtig ist in diesem Zusammenhang lediglich, dass es sich um allgemein mathematisch beschreibbare Konturen und Formen handelt, die bauteilseitig bekannt sind und im Kamerabild gut beobachtet und ausgewertet werden können.
  • Die geometrischen Objekte können sowohl zur Kalibrierung als auch zur Lagebestimmung verwendet werden. Im Rahmen der Kalibrierung können die geometrischen Objekte beispielsweise verwendet werden, um die internen Kameraparameter zu bestimmen. Durch die Kalibrierung können optische Verzeichnungen korrigiert und insbesondere die 3D-Lagebeziehung zwischen Kamerakoordinatensystem und Objektkoordinatensystem bestimmt werden. Anstelle der geometrischen Merkmale auf dem Objekt kann zur Kalibrierung auch ein separates Kalibriertarget verwendet werden.
  • Durch die Anwendung der Kamerakalibrierung und die Auswertung der dabei ermittelten sogenannten externen Kameraparameter (3 Parameter für Position, 3 Parameter für Rotation) kann die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems ermittelt werden. Alternativ kann die 3D-Lage des Objekts bezüglich eines beliebig festlegbaren anderen festen Koordinatensystems, beispielsweise gegenüber einem Weltkoordinatensystem, das durch einen zusätzlichen Einrichtschritt ermittelt werden kann, bestimmt werden. Im Rahmen von Bewegungsmessungen oder Vergleichsmessungen zu Referenzmasterteilen, kann die 3D-Lage des Objekts sogar bezüglich eines dynamischen Koordinatensystems bestimmt werden.
  • In einer konkreten Ausführungsform sind eine oder mehrere zusätzliche Kameras vorgesehen, mit denen das Objekt – vorzugsweise aus unterschiedlichen Aufnahmewinkeln – aufgenommen wird. Für die zusätzlichen Aufnahmen können mehrere feststehende Einzelkameras oder eine oder mehrere bewegliche Kameras eingesetzt werden. Mit den zusätzlichen Aufnahmen können die berechneten 3D-Lagen über ein zusätzliches Gütekriterium bewertet und gegebenenfalls Korrekturen durchgeführt werden. Im Ergebnis erhält man eine weiter verbesserte Genauigkeit der 3D-Lagebestimmung.
  • Des Weiteren könnten zusätzliche unterstützende Sensoren vorgesehen sein, mit deren Hilfe Fehler in der 3D-Lagebestimmung kompensiert und/oder korrigiert werden können. Im Konkreten handelt es sich dabei zum Beispiel um Temperatursensoren zur Kompensation von Schwankungen der Umgebungstemperatur, so dass bei der Berechnung der 3D-Lage die temperaturabhängige Ausdehnung des zu untersuchenden Objektes berücksichtigt werden kann.
  • In besonders vorteilhafter Weise kann an Kraftfahrzeugen eine Spur- und/oder Sturzvermessung anhand von geometrischen Merkmalen auf der Felge durchgeführt werden. Dabei kann vorgesehen sein, dass markante Stellen auf der Felge automatisch als geometrische Merkmale angeboten werden. Bei den markanten Stellen kann es sich beispielsweise um das Ventil oder um die Nabenabdeckung handeln. In einer bevorzugten Ausgestaltung können die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder aber abgelehnt werden. Durch die Kenntnis der geometrischen Form auf der Felge ergibt sich die Möglichkeit, den Radstand in all seinen Freiheitsgraden zu kontrollieren. Damit entfällt zum einen die Notwendigkeit eines aufprojizierten Musters auf der Felge und zum anderen ergibt sich die Möglichkeit, einen positiven oder negativen Achsensturz bei entspanntem Federbein festzustellen.
  • In vorrichtungsmäßiger Hinsicht wird die eingangs genannte Aufgabe durch die Merkmale des Patentanspruchs 21 gelöst. Hiernach ist eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung gekennzeichnet durch eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist. Vorzugsweise dient die erfindungsgemäße Vorrichtung zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, so dass zur Vermeidung von Wiederholungen auf den vorigen Teil der Beschreibung verwiesen wird.
  • Im Hinblick auf eine schnelle Auswertung der Kamerabilder und eine unmittelbare Berechnung der 3D-Lage umfasst die Vorrichtung in vorteilhafter Weise einen Industrie-PC, der mit einer geeigneten Bildverarbeitungssoftware ausgestattet ist.
  • Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die den Patentansprüchen 1 und 21 nachgeordneten Patentansprüchen und andererseits auf die nachfolgende Erläuterung eines bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung des bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigt die einzige
  • Fig. eine schematische Darstellung eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts.
  • Die Fig. zeigt schematisch eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts 1, wobei die 3D-Lage des Objekts 1 bezüglich eines raumfesten Koordinatensystems mit den Achsen x, y und z bestimmt wird. Dazu wird von einer oberhalb des Objekts 1 positionierten Kamera 2 eine Aufnahme des Objekts 1 erstellt. Position und Ausrichtung der Kamera 2 sind in Bezug auf das raumfeste Koordinatensystem xyz fest vorgegeben. Während der Aufnahme sorgen rings um die Kamera 2 herum angeordnete Lichtquellen 3 für eine ausreichende Beleuchtung des Objekts 1.
  • Die Kameradaten werden an einen Industrie-PC 4 mit Monitor 5 übertragen. Dort erfolgt die Zuordnung der 2D-Bildinformation zu der bekannten 3D-Lage der auf dem Objekt 1 vorhandenen geometrischen Merkmale (nicht gezeigt). Für alle freien Parameter des Abbildungsprozesses wird ein überbestimmtes Gleichungssystem erstellt, zu dessen Lösung nichtlineare Optimierungsverfahren eingesetzt werden. Nach Lösung des Gleichungssystems kann die exakte 3D-Lage des Objekts 1 bestimmt werden und die Koordinaten an einen Roboter 6 übertragen werden. In Kenntnis der Position und Orientierung des Objekts 1 kann der Roboter 6 – nach entsprechender Kalibrierung – das Objekt 1 greifen bzw. bearbeiten.
  • Abschließend sei ganz besonders darauf hingewiesen, dass das voranstehend erörterte Ausführungsbeispiel lediglich zur Beschreibung der beanspruchten Lehre dienst, diese jedoch nicht auf das Ausführungsbeispiel einschränkt.

Claims (24)

  1. Verfahren zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vollständige 3D-Lagebestimmung mittels einer einzigen Bildaufnahme der Kamera durchgeführt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die bekannte 3D-Lage der geometrischen Merkmale jeweils der entsprechenden zweidimensionalen Bildinformation zugeordnet wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses erstellt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Lösung eines überbestimmten Gleichungssystems nichtlineare Optimierungsverfahren eingesetzt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Kamera ortsfest gehalten wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Ausrichtung der Kamera fest vorgegeben wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass als geometrische Merkmale allgemeine mathematisch beschreibbare Konturen und Formen verwendet werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass als geometrische Merkmale Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Kamera mit Hilfe der geometrischen Merkmale kalibriert wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass im Rahmen der Kalibrierung die internen Kameraparameter bestimmt werden.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines festen Koordinatensystems bestimmt wird.
  13. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems, des Objektkoordinatensystems oder bezüglich eines Weltkoordinatensystems bestimmt wird.
  14. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines dynamischen Koordinatensystems bestimmt wird.
  15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass das Objekt mit einer oder mehreren zusätzlichen Kameras, vorzugsweise aus unterschiedlichen Aufnahmewinkeln, aufgenommen wird.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass mittels der zusätzlichen Aufnahmen die Güte der berechneten 3D-Lage des Objekts bestimmt wird und ggf. Korrekturen durchgeführt werden.
  17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass Fehler in der 3D-Lagebestimmung mittels einer Sensorik kompensiert und/oder korrigiert werden.
  18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass eine Spur- und/oder Sturzvermessung an Kraftfahrzeugen anhand von geometrischen Merkmalen auf der Felge durchgeführt wird.
  19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass als geometrische Merkmale automatisch markante Stellen auf der Felge angeboten werden.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder abgelehnt werden.
  21. Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, vorzugsweise zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, gekennzeichnet durch eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist.
  22. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass die Kamera ortsfest ist.
  23. Vorrichtung nach Anspruch 21 oder 22, gekennzeichnet durch mindestens einen Industrie-PC zur Auswertung der Kamerabilder und zur Berechnung der 3D-Lage.
  24. Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, dass der Industrie-PC eine Bildverarbeitungssoftware umfasst.
DE102004046584A 2003-09-26 2004-09-23 Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts Withdrawn DE102004046584A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004046584A DE102004046584A1 (de) 2003-09-26 2004-09-23 Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10345112.9 2003-09-26
DE10345112 2003-09-26
DE102004046584A DE102004046584A1 (de) 2003-09-26 2004-09-23 Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts

Publications (1)

Publication Number Publication Date
DE102004046584A1 true DE102004046584A1 (de) 2005-05-19

Family

ID=34384326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004046584A Withdrawn DE102004046584A1 (de) 2003-09-26 2004-09-23 Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts

Country Status (6)

Country Link
US (1) US8064686B2 (de)
EP (1) EP1665162A1 (de)
JP (1) JP2007533963A (de)
CN (1) CN1856804A (de)
DE (1) DE102004046584A1 (de)
WO (1) WO2005031647A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359817B2 (en) * 2004-07-28 2008-04-15 Fanuc Ltd Method of and device for re-calibrating three-dimensional visual sensor in robot system
WO2012038012A2 (de) 2010-09-24 2012-03-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum verbinden von bauteilen
DE102010042803A1 (de) 2010-10-22 2012-04-26 Bayerische Motoren Werke Aktiengesellschaft Bauteilverbindung
DE102011080483A1 (de) 2011-08-05 2013-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds
US9050690B2 (en) 2010-04-28 2015-06-09 Bayerische Motoren Werke Aktiengesellschaft Component connection and/or method for connecting components

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914039B2 (ja) * 2005-07-27 2012-04-11 キヤノン株式会社 情報処理方法および装置
JP5509645B2 (ja) * 2009-03-25 2014-06-04 富士ゼロックス株式会社 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置
CN102022979A (zh) * 2009-09-21 2011-04-20 鸿富锦精密工业(深圳)有限公司 三维光学感测系统
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
CN104175085B (zh) * 2013-05-21 2016-11-09 重庆长安汽车股份有限公司 冲压生产顶杆孔快速定位装置及方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
JP2018040760A (ja) * 2016-09-09 2018-03-15 株式会社鈴木エンタープライズ 構造物寸法計測システム及び計測方法
JP7101616B2 (ja) * 2017-08-25 2022-07-15 クリス・シンライ・リウ 標的要素の位置を特定するためのマシンビジョンシステムおよび方法
CN109443321B (zh) * 2018-10-30 2021-01-08 中国人民解放军国防科技大学 一种监测大型结构形变的串并联像机网络测量方法
US10871384B2 (en) 2019-02-26 2020-12-22 Thomas P. Moyer Apparatus and methods utilizing emissive patterns to determine positional information
CN113432585A (zh) * 2021-06-29 2021-09-24 沈阳工学院 一种基于机器视觉技术的非接触式轮毂位置精确测定方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5959397A (ja) * 1982-09-29 1984-04-05 オムロン株式会社 特徴点のラベリング装置
JPS63133002A (ja) * 1986-11-25 1988-06-04 Nec Corp 三次元座標測定装置
JPH076769B2 (ja) * 1988-07-28 1995-01-30 工業技術院長 物体計測装置
US4942539A (en) * 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
DE4113992A1 (de) * 1991-04-29 1992-11-05 Ameling Walter Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
US5380978A (en) * 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
US5388059A (en) * 1992-12-30 1995-02-07 University Of Maryland Computer vision system for accurate monitoring of object pose
US6081273A (en) * 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
FR2760277B1 (fr) * 1997-02-28 1999-03-26 Commissariat Energie Atomique Procede et dispositif de localisation d'un objet dans l'espace
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
US6886231B2 (en) * 1999-06-25 2005-05-03 Burke E. Porter Machinery Company Robotic apparatus and method for mounting a valve stem on a wheel rim
DE19934864A1 (de) * 1999-07-24 2001-02-08 Bosch Gmbh Robert Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
JP4366023B2 (ja) * 2001-03-16 2009-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
AUPR812601A0 (en) * 2001-10-09 2001-11-01 Integra Medical Imaging (Aust) Pty Ltd 2-D and 3-D pose estimation of articles from 2-D images

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359817B2 (en) * 2004-07-28 2008-04-15 Fanuc Ltd Method of and device for re-calibrating three-dimensional visual sensor in robot system
US9050690B2 (en) 2010-04-28 2015-06-09 Bayerische Motoren Werke Aktiengesellschaft Component connection and/or method for connecting components
WO2012038012A2 (de) 2010-09-24 2012-03-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum verbinden von bauteilen
DE102010041356A1 (de) 2010-09-24 2012-03-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Verbinden von Bauteilen
US9597755B2 (en) 2010-09-24 2017-03-21 Bayerische Motoren Werke Aktiengesellschaft Method for connecting components
DE102010042803A1 (de) 2010-10-22 2012-04-26 Bayerische Motoren Werke Aktiengesellschaft Bauteilverbindung
WO2012052094A2 (de) 2010-10-22 2012-04-26 Bayerische Motoren Werke Aktiengesellschaft Bauteilverbindung
US9222500B2 (en) 2010-10-22 2015-12-29 Bayerische Motoren Werke Aktiengesellschaft Component connection and method for the detachable connection of the components of a component connection
DE102011080483A1 (de) 2011-08-05 2013-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds
WO2013020741A1 (de) 2011-08-05 2013-02-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur herstellung eines bauteils oder eines aus mehreren bauteilen bestehenden bauteilverbunds unter verwendung einer kamera zur erkennung der position eines bauteils
DE102011080483B4 (de) * 2011-08-05 2015-07-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds
US10307878B2 (en) 2011-08-05 2019-06-04 Bayerische Motoren Werke Aktiengesellschaft Method for producing a component or a component composite consisting of a plurality of components, using a camera for detecting the position of a component

Also Published As

Publication number Publication date
US20070009149A1 (en) 2007-01-11
US8064686B2 (en) 2011-11-22
JP2007533963A (ja) 2007-11-22
CN1856804A (zh) 2006-11-01
EP1665162A1 (de) 2006-06-07
WO2005031647A1 (de) 2005-04-07

Similar Documents

Publication Publication Date Title
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
EP2489977B1 (de) Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102010042540B4 (de) Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems
DE102004046584A1 (de) Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts
EP1711777B2 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
EP2448722B1 (de) Kalibrierungsverfahren für ein Messsystem
EP1497613A1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE102005007536A1 (de) Verfahren zur Kalibrierung eines Messsystems
DE102017207696A1 (de) Kalibrierungsvorrichtung und Kalibrierungsverfahren
WO2012019877A1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE202012013561U1 (de) Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE102008019435B4 (de) Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE10016963C2 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE102008000837A1 (de) Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems
DE102019102927A1 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102015109557A1 (de) Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors oder Aktors
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE102022104880B4 (de) Verfahren zur Kalibrierung eines portablen Referenzsensorsystems, portables Referenzsensorsystem und Verwendung des portablen Referenzsensorsystems
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee