DE102004046584A1 - Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts - Google Patents
Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts Download PDFInfo
- Publication number
- DE102004046584A1 DE102004046584A1 DE102004046584A DE102004046584A DE102004046584A1 DE 102004046584 A1 DE102004046584 A1 DE 102004046584A1 DE 102004046584 A DE102004046584 A DE 102004046584A DE 102004046584 A DE102004046584 A DE 102004046584A DE 102004046584 A1 DE102004046584 A1 DE 102004046584A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- geometric features
- orientation
- coordinate system
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
Ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3-D-Lagebestimmung eines Objekts, wobei die 3-D-Lagebestimmung die Bestimmung der 3-D-Position und der 3-D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, ist im Hinblick auf die Ermittlung einer vollständigen 3-D-Information über das zu untersuchende Objekt mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3-D-Lage des Objekts berechnet wird.
Description
- Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind.
- Die Automatisierung von Produktionsabläufen spielt in der industriellen Fertigung eine immer bedeutendere Rolle. Für Produktionslinien, die keine exakte Positionierung der zu bearbeitenden Bauteile erlauben, ist es dabei besonders wichtig, die komplette 3D-Lage des Bauteils, d. h. die 3D-Position und die 3D-Orientierung im Raum, zu kennen, um das Bauteil zum Beispiel durch einen Roboter greifen und bearbeiten zu können.
- Darüber hinaus kann die 3D-Lagebestimmung zur Kalibrierung eines Roboters verwendet werden. Dabei sind die geometrischen Merkmale in bekannter Weise auf dem Roboterarm angeordnet, oder es ist ein Kalibriertarget auf dem Roboterarm montiert. Der Roboterarm wird in das Sichtfeld einer fest montierten Kamera bewegt, und sodann wird die 3D-Lagebestimmung des Roboterarms durchgeführt, um seine Position und Orientierung zu überprüfen bzw. neu zu kalibrieren.
- Eine weitere Anwendung ist die 3D-Lagebestimmung von Bauteilen im eingebauten Zustand. Durch die Lagebestimmung eines Referenzteils kann zum Beispiel überprüft werden, ob die Lage von eingebauten Teilen mit der Lage des Referenzteils übereinstimmt, um so schlecht montierte Bauteile zu ermitteln.
- Bei den bekannten Vorrichtungen zur 3D-Lagebestimmung handelt es sich heutzutage ausschließlich um Mehrkamerasysteme, die aufgrund des Einsatzes von zwei oder mehr Kameras erhebliche Kosten verursachen. Im Zusammenhang mit der Verwendung von nur einer einzigen Kamera sind bislang lediglich angepasste 2D-Verfahren zum Greifen von Bauteilen bekannt, d. h. es werden Position und Orientierung in einer Ebene (3 Freiheitsgrade) und zusätzlich eine Höheninformation über die Größe des Bauteils (1 weiterer Freiheitsgrad) bestimmt. Mit diesem bekannten Verfahren erhält man allerdings maximal eine 2½D-Information über die Lage des Bauteils, so dass beispielsweise ein korrektes Greifen bei Schieflage des Bauteils nicht möglich ist.
- Die Kalibrierung eines Roboters wird nach jetzigem Stand der Technik meist manuell durchgeführt, da entsprechende Hilfsmittel zur Einrichtung aller 6 Freiheits grade fehlen. Die Kalibrierung ist dementsprechend äußerst zeitaufwendig, was lange Wartungsintervalle zur Folge hat. Darüber hinaus sind die manuellen Kalibrierverfahren im Allgemeinen relativ ungenau.
- Die Lagebestimmung eines Bauteils nach dessen Einbau kann heutzutage ebenfalls nur mit Mehrkamerasystemen durchgeführt werden. Alternativ sind sensorische Lösungen für Einzelmessgrößen bekannt, welche über eine Multisensorauswertung die eigentliche Gesamtaufgabe lösen. Derartige sensorische Mehrfachmessungen sind ebenfalls zeitaufwendig und zur Gesamtbeurteilung der 3D-Lage oftmals wenig hilfreich.
- Der vorliegenden Erfindung liegt nunmehr die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts derart auszugestalten und weiterzubilden, dass mit einfachen Mitteln und bei hoher Messgeschwindigkeit und Messgenauigkeit die Ermittlung einer vollständigen 3D-Information über das zu untersuchende Objekt möglicht ist.
- Das erfindungsgemäße Verfahren zur berührungslosen optischen 3D-Lagebestimmung löst die voranstehende Aufgabe durch die Merkmale des Patentanspruchs 1. Danach ist ein solches Verfahren dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
- In erfindungsgemäßer Weise ist zunächst erkannt worden, dass der Einsatz mehrerer Kameras zur 3D-Lagebestimmung sowohl im Hinblick auf die Kosten als auch in Bezug auf Montage und Justierung der Kameras äußerst aufwendig ist. In Abkehr zu den bekannten Verfahren wird erfindungsgemäß ein Bild des Objekts mittels einer Kamera erstellt und anhand der Bildinformation in Bezug auf die geometrischen Merkmale aus dem Kamerabild die 3D-Lage des Objektes berechnet. Aufgrund der Einfachheit und Kompaktheit ist der Einfluss des erfindungsgemäßen Verfahrens auf Bewegungsabläufe in der Produktion wesentlich reduziert. Bei der Kalibrierung eines Roboters kann mit Hilfe des erfindungsgemäßen Verfahrens auf eine im Allgemeinen ungenaue manuelle Einrichtung verzichtet werden und somit ein höheres Maß an Zuverlässigkeit garantiert werden. Darüber hinaus ist ein schnelleres Einrichten des Roboters und damit eine Verkürzung der Wartungsintervalle ermöglicht.
- Im Hinblick auf eine besonders hohe Effizienz des Verfahrens wird die vollständige 3D-Lagebestimmung in besonders vorteilhafter Weise mittels einer einzigen Bildaufnahme der Kamera durchgeführt.
- Als Grundlage für die Berechnung der 3D-Lage kann der reale Abbildungsprozess der Kamera durch ein mathematisches Modell modelliert werden. Im Rahmen des Abbildungsprozesses können insbesondere Position und Orientierung zwischen dem zu untersuchenden Objekt und der Kamera, Eigenschaften der verwendeten Optik (Brennweite, Verzeichnungen, etc.), perspektivische Transformationen sowie Digitalisierung und Diskretisierung der Lichtintensität bei der Bildaufnahme in der Kamera und/oder in einem Rechner berücksichtigt werden.
- Auf der Basis des Modells kann eine Zuordnung der bekannten 3D-Lage der geometrischen Merkmale und der entsprechenden zweidimensionalen Bildinformationen durchgeführt werden. Mit anderen Worten kann ein (in der Regel nichtlineares) Gleichungssystem erstellt werden, in das die Parameter des Abbildungsprozesses als unbekannte Größen eingehen.
- Aus der Zuordnung eines 3D-Punktes auf dem Objekt zu seiner 2D-Bildposition erhält man beispielsweise zwei Gleichungen. Durch Verwendung mehrerer Merkmale ist es somit möglich, ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses aufzustellen und durch mathematische Methoden die unbekannten Größen zu bestimmen. In vorteilhafter Weise werden mehr Gleichungen verwendet als freie Parameter im System modelliert sind. Zur Lösung eines derart überbestimmten Gleichungssystems können dann nichtlineare Optimierungsverfahren eingesetzt werden, um eine optimale Lösung zu ermitteln.
- Im Hinblick auf ein hohes Maß an Einfachheit kann vorgesehen sein, dass die Kamera ortsfest gehalten wird. Zusätzlich kann auch die Ausrichtung der Kamera fest vorgegeben werden.
- Als geometrische Merkmale, die an bekannten Stellen auf dem Objekt vorgesehen sind, können je nach konkreter Anwendung Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden. Wichtig ist in diesem Zusammenhang lediglich, dass es sich um allgemein mathematisch beschreibbare Konturen und Formen handelt, die bauteilseitig bekannt sind und im Kamerabild gut beobachtet und ausgewertet werden können.
- Die geometrischen Objekte können sowohl zur Kalibrierung als auch zur Lagebestimmung verwendet werden. Im Rahmen der Kalibrierung können die geometrischen Objekte beispielsweise verwendet werden, um die internen Kameraparameter zu bestimmen. Durch die Kalibrierung können optische Verzeichnungen korrigiert und insbesondere die 3D-Lagebeziehung zwischen Kamerakoordinatensystem und Objektkoordinatensystem bestimmt werden. Anstelle der geometrischen Merkmale auf dem Objekt kann zur Kalibrierung auch ein separates Kalibriertarget verwendet werden.
- Durch die Anwendung der Kamerakalibrierung und die Auswertung der dabei ermittelten sogenannten externen Kameraparameter (3 Parameter für Position, 3 Parameter für Rotation) kann die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems ermittelt werden. Alternativ kann die 3D-Lage des Objekts bezüglich eines beliebig festlegbaren anderen festen Koordinatensystems, beispielsweise gegenüber einem Weltkoordinatensystem, das durch einen zusätzlichen Einrichtschritt ermittelt werden kann, bestimmt werden. Im Rahmen von Bewegungsmessungen oder Vergleichsmessungen zu Referenzmasterteilen, kann die 3D-Lage des Objekts sogar bezüglich eines dynamischen Koordinatensystems bestimmt werden.
- In einer konkreten Ausführungsform sind eine oder mehrere zusätzliche Kameras vorgesehen, mit denen das Objekt – vorzugsweise aus unterschiedlichen Aufnahmewinkeln – aufgenommen wird. Für die zusätzlichen Aufnahmen können mehrere feststehende Einzelkameras oder eine oder mehrere bewegliche Kameras eingesetzt werden. Mit den zusätzlichen Aufnahmen können die berechneten 3D-Lagen über ein zusätzliches Gütekriterium bewertet und gegebenenfalls Korrekturen durchgeführt werden. Im Ergebnis erhält man eine weiter verbesserte Genauigkeit der 3D-Lagebestimmung.
- Des Weiteren könnten zusätzliche unterstützende Sensoren vorgesehen sein, mit deren Hilfe Fehler in der 3D-Lagebestimmung kompensiert und/oder korrigiert werden können. Im Konkreten handelt es sich dabei zum Beispiel um Temperatursensoren zur Kompensation von Schwankungen der Umgebungstemperatur, so dass bei der Berechnung der 3D-Lage die temperaturabhängige Ausdehnung des zu untersuchenden Objektes berücksichtigt werden kann.
- In besonders vorteilhafter Weise kann an Kraftfahrzeugen eine Spur- und/oder Sturzvermessung anhand von geometrischen Merkmalen auf der Felge durchgeführt werden. Dabei kann vorgesehen sein, dass markante Stellen auf der Felge automatisch als geometrische Merkmale angeboten werden. Bei den markanten Stellen kann es sich beispielsweise um das Ventil oder um die Nabenabdeckung handeln. In einer bevorzugten Ausgestaltung können die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder aber abgelehnt werden. Durch die Kenntnis der geometrischen Form auf der Felge ergibt sich die Möglichkeit, den Radstand in all seinen Freiheitsgraden zu kontrollieren. Damit entfällt zum einen die Notwendigkeit eines aufprojizierten Musters auf der Felge und zum anderen ergibt sich die Möglichkeit, einen positiven oder negativen Achsensturz bei entspanntem Federbein festzustellen.
- In vorrichtungsmäßiger Hinsicht wird die eingangs genannte Aufgabe durch die Merkmale des Patentanspruchs 21 gelöst. Hiernach ist eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung gekennzeichnet durch eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist. Vorzugsweise dient die erfindungsgemäße Vorrichtung zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, so dass zur Vermeidung von Wiederholungen auf den vorigen Teil der Beschreibung verwiesen wird.
- Im Hinblick auf eine schnelle Auswertung der Kamerabilder und eine unmittelbare Berechnung der 3D-Lage umfasst die Vorrichtung in vorteilhafter Weise einen Industrie-PC, der mit einer geeigneten Bildverarbeitungssoftware ausgestattet ist.
- Es gibt nun verschiedene Möglichkeiten, die Lehre der vorliegenden Erfindung in vorteilhafter Weise auszugestalten und weiterzubilden. Dazu ist einerseits auf die den Patentansprüchen 1 und 21 nachgeordneten Patentansprüchen und andererseits auf die nachfolgende Erläuterung eines bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung zu verweisen. In Verbindung mit der Erläuterung des bevorzugten Ausführungsbeispiels der Erfindung anhand der Zeichnung werden auch im Allgemeinen bevorzugte Ausgestaltungen und Weiterbildungen der Lehre erläutert. In der Zeichnung zeigt die einzige
- Fig. eine schematische Darstellung eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts.
- Die Fig. zeigt schematisch eine Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts
1 , wobei die 3D-Lage des Objekts1 bezüglich eines raumfesten Koordinatensystems mit den Achsen x, y und z bestimmt wird. Dazu wird von einer oberhalb des Objekts1 positionierten Kamera2 eine Aufnahme des Objekts1 erstellt. Position und Ausrichtung der Kamera2 sind in Bezug auf das raumfeste Koordinatensystem xyz fest vorgegeben. Während der Aufnahme sorgen rings um die Kamera2 herum angeordnete Lichtquellen3 für eine ausreichende Beleuchtung des Objekts1 . - Die Kameradaten werden an einen Industrie-PC
4 mit Monitor5 übertragen. Dort erfolgt die Zuordnung der 2D-Bildinformation zu der bekannten 3D-Lage der auf dem Objekt1 vorhandenen geometrischen Merkmale (nicht gezeigt). Für alle freien Parameter des Abbildungsprozesses wird ein überbestimmtes Gleichungssystem erstellt, zu dessen Lösung nichtlineare Optimierungsverfahren eingesetzt werden. Nach Lösung des Gleichungssystems kann die exakte 3D-Lage des Objekts1 bestimmt werden und die Koordinaten an einen Roboter6 übertragen werden. In Kenntnis der Position und Orientierung des Objekts1 kann der Roboter6 – nach entsprechender Kalibrierung – das Objekt1 greifen bzw. bearbeiten. - Abschließend sei ganz besonders darauf hingewiesen, dass das voranstehend erörterte Ausführungsbeispiel lediglich zur Beschreibung der beanspruchten Lehre dienst, diese jedoch nicht auf das Ausführungsbeispiel einschränkt.
Claims (24)
- Verfahren zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, dadurch gekennzeichnet, dass mittels einer Kamera ein Bild des Objekts erstellt wird und aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechnet wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vollständige 3D-Lagebestimmung mittels einer einzigen Bildaufnahme der Kamera durchgeführt wird.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die bekannte 3D-Lage der geometrischen Merkmale jeweils der entsprechenden zweidimensionalen Bildinformation zugeordnet wird.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Gleichungssystem für alle freien Parameter des Abbildungsprozesses erstellt wird.
- Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Lösung eines überbestimmten Gleichungssystems nichtlineare Optimierungsverfahren eingesetzt werden.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Kamera ortsfest gehalten wird.
- Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Ausrichtung der Kamera fest vorgegeben wird.
- Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass als geometrische Merkmale allgemeine mathematisch beschreibbare Konturen und Formen verwendet werden.
- Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass als geometrische Merkmale Punkte, Geraden, Winkel, Kreise, elliptische Konturen und/oder Kegelschnitte verwendet werden.
- Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Kamera mit Hilfe der geometrischen Merkmale kalibriert wird.
- Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass im Rahmen der Kalibrierung die internen Kameraparameter bestimmt werden.
- Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines festen Koordinatensystems bestimmt wird.
- Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich des Kamerakoordinatensystems, des Objektkoordinatensystems oder bezüglich eines Weltkoordinatensystems bestimmt wird.
- Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die 3D-Lage des Objekts bezüglich eines dynamischen Koordinatensystems bestimmt wird.
- Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass das Objekt mit einer oder mehreren zusätzlichen Kameras, vorzugsweise aus unterschiedlichen Aufnahmewinkeln, aufgenommen wird.
- Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass mittels der zusätzlichen Aufnahmen die Güte der berechneten 3D-Lage des Objekts bestimmt wird und ggf. Korrekturen durchgeführt werden.
- Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass Fehler in der 3D-Lagebestimmung mittels einer Sensorik kompensiert und/oder korrigiert werden.
- Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass eine Spur- und/oder Sturzvermessung an Kraftfahrzeugen anhand von geometrischen Merkmalen auf der Felge durchgeführt wird.
- Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass als geometrische Merkmale automatisch markante Stellen auf der Felge angeboten werden.
- Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass die angebotenen markanten Stellen vom Benutzer interaktiv akzeptiert oder abgelehnt werden.
- Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts, wobei die 3D-Lagebestimmung die Bestimmung der 3D-Position und der 3D-Orientierung des Objekts umfasst und wobei geometrische Merkmale auf dem Objekt bekannt sind, vorzugsweise zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 20, gekennzeichnet durch eine Kamera zum Erstellen eines Bildes des Objekts, wobei aus dem Kamerabild anhand der Bildinformation über die detektierten geometrischen Merkmale die 3D-Lage des Objekts berechenbar ist.
- Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass die Kamera ortsfest ist.
- Vorrichtung nach Anspruch 21 oder 22, gekennzeichnet durch mindestens einen Industrie-PC zur Auswertung der Kamerabilder und zur Berechnung der 3D-Lage.
- Vorrichtung nach Anspruch 23, dadurch gekennzeichnet, dass der Industrie-PC eine Bildverarbeitungssoftware umfasst.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102004046584A DE102004046584A1 (de) | 2003-09-26 | 2004-09-23 | Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10345112.9 | 2003-09-26 | ||
DE10345112 | 2003-09-26 | ||
DE102004046584A DE102004046584A1 (de) | 2003-09-26 | 2004-09-23 | Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102004046584A1 true DE102004046584A1 (de) | 2005-05-19 |
Family
ID=34384326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102004046584A Withdrawn DE102004046584A1 (de) | 2003-09-26 | 2004-09-23 | Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts |
Country Status (6)
Country | Link |
---|---|
US (1) | US8064686B2 (de) |
EP (1) | EP1665162A1 (de) |
JP (1) | JP2007533963A (de) |
CN (1) | CN1856804A (de) |
DE (1) | DE102004046584A1 (de) |
WO (1) | WO2005031647A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7359817B2 (en) * | 2004-07-28 | 2008-04-15 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
WO2012038012A2 (de) | 2010-09-24 | 2012-03-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum verbinden von bauteilen |
DE102010042803A1 (de) | 2010-10-22 | 2012-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Bauteilverbindung |
DE102011080483A1 (de) | 2011-08-05 | 2013-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds |
US9050690B2 (en) | 2010-04-28 | 2015-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Component connection and/or method for connecting components |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP5509645B2 (ja) * | 2009-03-25 | 2014-06-04 | 富士ゼロックス株式会社 | 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置 |
CN102022979A (zh) * | 2009-09-21 | 2011-04-20 | 鸿富锦精密工业(深圳)有限公司 | 三维光学感测系统 |
JP5494597B2 (ja) * | 2011-09-16 | 2014-05-14 | 株式会社安川電機 | ロボットシステム |
CN104175085B (zh) * | 2013-05-21 | 2016-11-09 | 重庆长安汽车股份有限公司 | 冲压生产顶杆孔快速定位装置及方法 |
US9747680B2 (en) | 2013-11-27 | 2017-08-29 | Industrial Technology Research Institute | Inspection apparatus, method, and computer program product for machine vision inspection |
JP2018040760A (ja) * | 2016-09-09 | 2018-03-15 | 株式会社鈴木エンタープライズ | 構造物寸法計測システム及び計測方法 |
JP7101616B2 (ja) * | 2017-08-25 | 2022-07-15 | クリス・シンライ・リウ | 標的要素の位置を特定するためのマシンビジョンシステムおよび方法 |
CN109443321B (zh) * | 2018-10-30 | 2021-01-08 | 中国人民解放军国防科技大学 | 一种监测大型结构形变的串并联像机网络测量方法 |
US10871384B2 (en) | 2019-02-26 | 2020-12-22 | Thomas P. Moyer | Apparatus and methods utilizing emissive patterns to determine positional information |
CN113432585A (zh) * | 2021-06-29 | 2021-09-24 | 沈阳工学院 | 一种基于机器视觉技术的非接触式轮毂位置精确测定方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5959397A (ja) * | 1982-09-29 | 1984-04-05 | オムロン株式会社 | 特徴点のラベリング装置 |
JPS63133002A (ja) * | 1986-11-25 | 1988-06-04 | Nec Corp | 三次元座標測定装置 |
JPH076769B2 (ja) * | 1988-07-28 | 1995-01-30 | 工業技術院長 | 物体計測装置 |
US4942539A (en) * | 1988-12-21 | 1990-07-17 | Gmf Robotics Corporation | Method and system for automatically determining the position and orientation of an object in 3-D space |
DE4113992A1 (de) * | 1991-04-29 | 1992-11-05 | Ameling Walter | Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen |
US5380978A (en) * | 1991-07-12 | 1995-01-10 | Pryor; Timothy R. | Method and apparatus for assembly of car bodies and other 3-dimensional objects |
US5388059A (en) * | 1992-12-30 | 1995-02-07 | University Of Maryland | Computer vision system for accurate monitoring of object pose |
US6081273A (en) * | 1996-01-31 | 2000-06-27 | Michigan State University | Method and system for building three-dimensional object models |
FR2760277B1 (fr) * | 1997-02-28 | 1999-03-26 | Commissariat Energie Atomique | Procede et dispositif de localisation d'un objet dans l'espace |
JP3377465B2 (ja) * | 1999-04-08 | 2003-02-17 | ファナック株式会社 | 画像処理装置 |
US6886231B2 (en) * | 1999-06-25 | 2005-05-03 | Burke E. Porter Machinery Company | Robotic apparatus and method for mounting a valve stem on a wheel rim |
DE19934864A1 (de) * | 1999-07-24 | 2001-02-08 | Bosch Gmbh Robert | Vorrichtung zum Bestimmen der Rad- und/oder Achsgeometrie von Kraftfahrzeugen |
US6771808B1 (en) * | 2000-12-15 | 2004-08-03 | Cognex Corporation | System and method for registering patterns transformed in six degrees of freedom using machine vision |
JP4366023B2 (ja) * | 2001-03-16 | 2009-11-18 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法 |
AUPR812601A0 (en) * | 2001-10-09 | 2001-11-01 | Integra Medical Imaging (Aust) Pty Ltd | 2-D and 3-D pose estimation of articles from 2-D images |
-
2004
- 2004-09-23 EP EP04786848A patent/EP1665162A1/de not_active Ceased
- 2004-09-23 JP JP2006527269A patent/JP2007533963A/ja active Pending
- 2004-09-23 DE DE102004046584A patent/DE102004046584A1/de not_active Withdrawn
- 2004-09-23 CN CNA2004800277822A patent/CN1856804A/zh active Pending
- 2004-09-23 WO PCT/DE2004/002132 patent/WO2005031647A1/de active Search and Examination
-
2006
- 2006-03-24 US US11/389,381 patent/US8064686B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7359817B2 (en) * | 2004-07-28 | 2008-04-15 | Fanuc Ltd | Method of and device for re-calibrating three-dimensional visual sensor in robot system |
US9050690B2 (en) | 2010-04-28 | 2015-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Component connection and/or method for connecting components |
WO2012038012A2 (de) | 2010-09-24 | 2012-03-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum verbinden von bauteilen |
DE102010041356A1 (de) | 2010-09-24 | 2012-03-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Verbinden von Bauteilen |
US9597755B2 (en) | 2010-09-24 | 2017-03-21 | Bayerische Motoren Werke Aktiengesellschaft | Method for connecting components |
DE102010042803A1 (de) | 2010-10-22 | 2012-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Bauteilverbindung |
WO2012052094A2 (de) | 2010-10-22 | 2012-04-26 | Bayerische Motoren Werke Aktiengesellschaft | Bauteilverbindung |
US9222500B2 (en) | 2010-10-22 | 2015-12-29 | Bayerische Motoren Werke Aktiengesellschaft | Component connection and method for the detachable connection of the components of a component connection |
DE102011080483A1 (de) | 2011-08-05 | 2013-02-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds |
WO2013020741A1 (de) | 2011-08-05 | 2013-02-14 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur herstellung eines bauteils oder eines aus mehreren bauteilen bestehenden bauteilverbunds unter verwendung einer kamera zur erkennung der position eines bauteils |
DE102011080483B4 (de) * | 2011-08-05 | 2015-07-09 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Herstellung eines Bauteils oder eines aus mehreren Bauteilen bestehenden Bauteilverbunds |
US10307878B2 (en) | 2011-08-05 | 2019-06-04 | Bayerische Motoren Werke Aktiengesellschaft | Method for producing a component or a component composite consisting of a plurality of components, using a camera for detecting the position of a component |
Also Published As
Publication number | Publication date |
---|---|
US20070009149A1 (en) | 2007-01-11 |
US8064686B2 (en) | 2011-11-22 |
JP2007533963A (ja) | 2007-11-22 |
CN1856804A (zh) | 2006-11-01 |
EP1665162A1 (de) | 2006-06-07 |
WO2005031647A1 (de) | 2005-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016114337B4 (de) | System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus | |
EP2489977B1 (de) | Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters | |
EP2515101B1 (de) | Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen | |
DE102013021917B4 (de) | Robotersystemanzeigevorrichtung | |
DE112010005008B4 (de) | System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb | |
DE102010042540B4 (de) | Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems | |
DE102004046584A1 (de) | Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts | |
EP1711777B2 (de) | Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum | |
EP2448722B1 (de) | Kalibrierungsverfahren für ein Messsystem | |
EP1497613A1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes | |
DE102005007536A1 (de) | Verfahren zur Kalibrierung eines Messsystems | |
DE102017207696A1 (de) | Kalibrierungsvorrichtung und Kalibrierungsverfahren | |
WO2012019877A1 (de) | Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens | |
EP1910999B1 (de) | Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium | |
DE202012013561U1 (de) | Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts | |
DE102018121481A1 (de) | Entfernungsmesssystem und Entfernungsmessverfahren | |
DE102008019435B4 (de) | Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile | |
DE10016963C2 (de) | Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum | |
DE102008000837A1 (de) | Fahrwerksvermessungssystem sowie Verfahren zum Bestimmen der Lageparameter von Messköpfen eines Fahrwerksvermessungssystems | |
DE102019102927A1 (de) | Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts | |
DE102015109557A1 (de) | Verfahren zur Einstellung einer Prüf- oder Messposition eines berührungslos wirkenden Sensors oder Aktors | |
DE102006005990B4 (de) | Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen | |
DE102022104880B4 (de) | Verfahren zur Kalibrierung eines portablen Referenzsensorsystems, portables Referenzsensorsystem und Verwendung des portablen Referenzsensorsystems | |
WO2009018894A1 (de) | Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts | |
DE102007058293A1 (de) | Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |