DE102021128624A1 - Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe - Google Patents

Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe Download PDF

Info

Publication number
DE102021128624A1
DE102021128624A1 DE102021128624.7A DE102021128624A DE102021128624A1 DE 102021128624 A1 DE102021128624 A1 DE 102021128624A1 DE 102021128624 A DE102021128624 A DE 102021128624A DE 102021128624 A1 DE102021128624 A1 DE 102021128624A1
Authority
DE
Germany
Prior art keywords
target
actual
image
point cloud
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102021128624.7A
Other languages
English (en)
Inventor
Tristan Kenneweg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pandia 3d GmbH
Original Assignee
Pandia 3d GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pandia 3d GmbH filed Critical Pandia 3d GmbH
Priority to DE102021128624.7A priority Critical patent/DE102021128624A1/de
Publication of DE102021128624A1 publication Critical patent/DE102021128624A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

System 10 zum Prüfen eines Objekts 18, umfassend: wenigstens einen Tiefensensor 14, welcher dafür eingerichtet ist, das Objekt 18 abzutasten, um eine 3D-Ist-Punktwolke des Objekts 18 zu generieren; wenigstens eine 2D-Kamera 12, welche dafür eingerichtet ist, ein 2D-Ist-Bild des Objekts 18 aufzunehmen, wobei die Pose der 2D-Kamera 12 relativ zu dem Tiefensensor 14 bekannt ist; eine Recheneinheit 16, welche dafür eingerichtet ist, mit dem Tiefensensor 14 und der 2D-Kamera 12 in Kommunikation zu stehen und die Pose des Objekts 18 relativ zu einem 3D-Soll-Modell oder zu einem Referenzobjekts durch ein Alignment zwischen der 3D-Ist-Punktwolke und einer 3D-Soll-Punktwolke des Objekts zu bestimmen; wobei die 3D-Soll-Punktwolke aus dem 3D-Soll-Modell des Objekts oder durch eine Abtastung des Referenzobjekts mit einem Tiefensensor generiert ist, wobei die Recheneinheit 16 ferner dafür eingerichtet ist, das 3D-Soll-Modell oder die 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts zu positionieren und aus Sicht der 2D-Kamera 12 auf ein 2D-Soll-Bild zu projizieren, wobei die Recheneinheit 16 ferner dafür eingerichtet ist, ein bestimmtes Merkmal 20 des Objekts 18 aus dem 2D-Ist-Bild des Objekts zu detektieren und einen Soll-Ist-Abgleich zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild durchzuführen.

Description

  • Die vorliegende Erfindung betrifft Systeme bzw. Verfahren zum Prüfen eines Objekts, vorzugsweise eines Bauteils oder einer Baugruppe.
  • In vielen produzierenden Unternehmen werden täglich Bauteile oder Baugruppen in großer Anzahl hergestellt. Während die Prozesse entlang der Produktlinie oft automatisiert ablaufen, wird die Qualitätskontrolle der Bauteile oder Baugruppen aber meistens durch Menschen durchgeführt. Die manuelle Qualitätskontrolle ist einerseits ineffizient und mit einem großen zeitlichen Aufwand verbunden und birgt andererseits ein Fehlerpotenzial, da die Beurteilung der Qualität durch unterschiedliche Personen inkonsistent sein kann. Außerdem können durch Müdigkeit oder Ablenkung Fehler übersehen werden.
  • Es ist daher Aufgabe der vorliegenden Erfindung, eine automatisierte Lösung für die Qualitätskontrolle anzubieten, welche die vorstehend genannten Nachteile der manuellen Qualitätskontrolle adressiert.
  • Gemäß einem ersten Aspekt der Erfindung wird die Aufgabe gelöst durch ein System zum Prüfen eines Objekts, umfassend: wenigstens einen Tiefensensor, welcher dafür eingerichtet ist, das Objekt abzutasten, um eine 3D-Ist-Punktwolke des Objekts zu generieren; wenigstens eine 2D-Kamera, welche dafür eingerichtet ist, ein 2D-Ist-Bild des Objekts aufzunehmen, wobei die Pose der 2D-Kamera relativ zu dem Tiefensensor bekannt ist; eine Recheneinheit, welche dafür eingerichtet ist, mit dem Tiefensensor und der 2D-Kamera in Kommunikation zu stehen und die Pose des Objekts relativ zu einem 3D-Soll-Modell oder zu einem Referenzobjekt durch ein Alignment zwischen der 3D-Ist-Punktwolke und einer 3D-Soll-Punktwolke des Objekts zu bestimmen; wobei die 3D-Soll-Punktwolke aus dem 3D-Soll-Modell des Objekts oder durch eine Abtastung des Referenzobjekts mit einem Tiefensensor generiert ist, wobei die Recheneinheit ferner dafür eingerichtet ist, das 3D-Soll-Modell oder die 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts zu positionieren und aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild zu projizieren, wobei die Recheneinheit ferner dafür eingerichtet ist, ein bestimmtes Merkmal des Objekts aus dem 2D-Soll-Bild des Objekts zu detektieren und einen Soll-Ist-Abgleich zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild durchzuführen.
  • In der vorliegenden Anmeldung versteht man unter einem Tiefensensor einen Sensor oder eine Sensorgruppe, der oder die dafür eingerichtet ist, ein Objekt abzutasten und darauf basierend eine 3D-Punktwolke des Objekts zu generieren. Der Tiefensensor ist vorzugsweise eine Tiefenkamera und basiert vorzugsweise auf dem Laufzeitverfahren „Time-of-Flight"(ToF). Das System kann einen oder mehrere Tiefensensoren umfassen, wobei die Posen der einzelnen Tiefensensoren bekannt sind. Unter „Pose“ oder „räumliche Lage“ versteht man die Kombination von Position und Orientierung eines Objekts im dreidimensionalen Raum. Durch eine Abtastung des zu prüfenden Objekts mit den einen oder mehreren Tiefensensoren können eine 3D-Ist-Punktwolke des Objekts generiert werden, wobei die Abtastergebnisse der einzelnen Tiefensensoren zu der 3D-Ist-Punktwolke fusioniert werden können, wobei die Posen der einzelnen Tiefensensoren relativ zueinander vorzugsweise bekannt sind. Je mehr Tiefensensoren vorhanden sind, die das zu prüfende Objekt aus verschiedenen Perspektiven abtasten, desto vollständiger ist die 3D-Ist-Punktwolke des Objekts. Alternativ kann sich der wenigstens eine Tiefensensor entlang einer vorbestimmten Route bewegen, um an verschiedenen Stellen und aus verschiedenen Perspektiven das Objekt abzutasten, um eine möglichst vollständige 3D-Ist-Punktwolke des Objekts zu generieren.
  • Vorzugsweise ist die Pose des Tiefensensors einstellbar, welcher sechs Freiheitsgrade besitzt. Somit kann der Tiefensensor seine räumliche Lage durch Translationen entlang drei zueinander senkrechten Achsen und Rotationen um die drei Achsen frei verändern.
  • Die Pose der 2D-Kamera ist vorzugsweise ebenfalls einstellbar und besitzt sechs Freiheitsgrade.
  • Die Recheneinheit ist vorzugsweise ein Computer. Alternativ kann die Recheneinheit aus mehreren verteilten Computern und/oder Prozessoren bestehen, die miteinander in Kommunikation stehen. In der Recheneinheit ist ein 3D-Soll-Modell des Objekts abgespeichert, wobei das 3D-Soll-Modell vorzugsweise ein CAD-Modell ist. In der Praxis stehen die CAD-Daten des Soll-Zustands eines Bauteils meistens zur Verfügung. Alternativ kann das 3D-Soll-Modell durch eine Abtastung eines fehlerfreien Referenzobjekts mit einem Tiefensensor oder einem 3D-Scanner generiert werden, wobei eine Punktwolke des Referenzobjekts zunächst durch das 3D-Scanning generiert und anschließend mit einem Algorithmus für die 3D-Oberflächenrekonstruktion wie zum Beispiel dem Poisson-Algorithmus zu einem 3D-Soll-Modell umgewandelt werden kann. Der Poisson-Algorithmus ist ein bekannter Algorithmus für die 3D-Oberflächenrekonstruktion, welcher die verfügbaren Punkte aus der Punktwolke sowie deren Normalen für die Rekonstruktion verwendet und somit ein genaues und rauscharmes 3D-Modell generieren kann.
  • Aus dem 3D-Soll-Modell, welches vorzugsweise ein CAD-Modell ist, wird eine 3D-Soll-Punktwolke generiert. Falls ein 3D-Soll-Modell nicht vorhanden ist, kann die 3D-Soll-Punktwolke alternativ durch eine Abtastung eines Referenzobjekts mit einem oder mehreren Tiefensensoren oder 3D-Scannern generiert werden.
  • Die aufgenommene 3D-Ist-Punktwolke wird mit einer Reihe bekannter Algorithmen im Bereich der Punktwolke-Registrierung in das Koordinatensystem der 3D-Soll-Punktwolke überführt, wobei dieser Prozess hier als Alignment bezeichnet und in zwei Schritten aufgeteilt werden kann, wobei der erste Schritt ein grobes Alignment ist und der zweite Schritt ein feines Alignment ist.
  • Im ersten Schritt des groben Alignments wird davon ausgegangen, dass die 3D-Ist-Punktwolke und die 3D-Soll-Punktwolke beliebig weit voneinander entfernt sind. Somit werden die Punktwolken unabhängig von ihrer initialen Ausrichtung zueinander grob ausgerichtet. Das grobe Alignment erfolgt meist über einen Merkmalvergleich zwischen den Punktwolken, wobei die Punktwolken anhand der korrespondierenden Merkmale bestmöglich zueinander ausgerichtet werden können. Je nachdem, welche Merkmale gewählt werden und welche Ausrichtungsstrategien verwendet werden, unterscheiden sich die einzelnen Verfahren des groben Alignments im Stand der Technik voneinander. In der vorliegenden Erfindung wird vorzugsweise der Algorithmus des Fast-Point-Feature-Histogramms (FPFH) verwendet. Ebenso sind Verfahren mithilfe des Principle-Component-Analysis (PCA) möglich. Zudem können Deep-Learning-Verfahren verwendet werden. Im zweiten Schritt des feinen Alignments wird die grobe Ausrichtung zweier Punktwolken verfeinert bzw. optimiert, wobei die grobe Ausrichtung der Punktwolken als initiale Situation für das feine Alignment vorausgesetzt wird. Vorliegend wird vorzugsweise der bekannte Iterativ-Closest-Point-Algorithmus (ICP) verwendet.
  • Auf Basis des oben beschriebenen Alignments zwischen der 3D-Ist-Punktwolke und der 3D-Soll-Punktwolke kann die Pose des Objekts relativ zu dem 3D-Soll-Modell oder zu dem Referenzobjekt bestimmt werden.
  • Die Recheneinheit ist ferner dafür eingerichtet, das 3D-Soll-Modell oder die 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts zu positionieren und aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild zu projizieren. Das heißt, das 3D-Soll-Modell oder die 3D-Soll-Punktwolke wird derart gedreht und/oder verschoben, dass die Pose des 3D-Soll-Modells oder der 3D-Soll-Punktwolke der Pose des Objekts entspricht. Anschließend erfolgt für jede 2D-Kamera eine Projektion des gedrehten- und/oder verschobenen 3D-Soll-Modells oder der gedrehten- und/oder verschobenen 3D-Soll-Punktwolke auf ein 2D-Soll-Bild auf Basis der Pose der 2D-Kamera.
  • Für die Kontrolle eines bestimmten Merkmals eines Bauteils wie zum Beispiel einer Schweißnaht sind Daten wie zum Beispiel 3D-Koordinaten oder optische Eigenschaften des Merkmals vorzugsweise in dem 3D-Soll-Modell hinterlegt. Da die 3D-Daten des Merkmals bekannt sind, sind die 2D-Daten des projizierten Merkmals auf dem 2D-Ist-Bild ebenfalls bekannt. Das heißt, die Recheneinheit kann auf Basis der hinterlegten Merkmaldaten in dem 3D-Soll-Modell ermitteln, welche Pixel des projizierten 2D-Ist-Bilds die semantische Bedeutung des Merkmals wie z.B. der Schweißnaht haben, oder in anderen Worten, welche Pixel des projizierten 2D-Ist-Bilds dem Merkmal entsprechen sollen.
  • Falls das 3D-Soll-Modell durch eine Abtastung eines Referenzobjekts generiert ist und die Daten über das Merkmal nicht vorher hinterlegt sind, können semantischen Informationen beim Abtasten des Referenzobjekts detektiert und anschließend in die 3D-Soll-Punktwolke übertragen werden. Darauf basierend kann die semantische Bedeutung der einzelnen Pixel auf dem projizierten 2D-Soll-Bild ermittelt werden. Falls semantische Informationen in der 3D-Soll-Punktwolke nicht vorhanden sind, können die semantischen Bedeutung der einzelnen Pixel in dem projizierten 2D-Ist-Bild vorzugsweise mit einem Deep-Learning-Verfahren detektiert werden.
  • Die Recheneinheit ist ferner dafür eingerichtet, das entsprechende Merkmal aus dem aufgenommenen 2D-Ist-Bild zu detektieren. Ist eine pixelgenaue Bestimmung notwendig, so ist dieses Problem als „Image Segmentation“ bekannt, welches vorzugsweise mithilfe eines Deep-Learning-Verfahrens, wie zum Bespiel des Convolutional-Neural-Networks (CNN) oder eines Transformers wie zum Beispiel Perceiver I.O, gelöst werden kann. Ist nur eine grobe Bestimmung notwendig, so sind auch klassische Bildverarbeitungsalgorithmen denkbar, welche die optischen Eigenschaften des Merkmals wie zum Beispiel eine erhöhte Lichtreflexion berücksichtigen.
  • Nachdem das Merkmal aus dem 2D-Ist-Bild detektiert worden ist, wird ein Soll-Ist-Abgleich des Merkmals mit dem entsprechenden Merkmal aus dem 2D-Soll-Bild des Objekts durchgeführt. Je nachdem, ob eine Abweichung zwischen dem 2D-Soll-Bild und dem 2D-Ist-Bild in Bezug auf das Merkmal vorhanden ist und wie groß die Abweichung ist, kann die Recheneinheit beurteilen, ob das zu prüfende Objekt die gewünschte Qualität oder den gewünschten Zustand erreicht oder nicht.
  • In einer bevorzugten Ausführungsform ist die Recheneinheit ferner dafür eingerichtet, einen Unterschied des Merkmals zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf die 3D-Ist-Punktwolke oder auf ein daraus generiertes 3D-Modell zu projizieren und vorzugsweise farblich darzustellen. Durch ein einfaches Lochkameramodell mit eventueller Korrektur für Linsenfehler können das Merkmal aus dem 2D-Ist-Bild auf die gescannte 3D-Ist-Punktwolke oder auf ein daraus generiertes 3D-Modell projiziert werden, wobei die Soll-Ist-Differenzen farblich dargestellt werden können. Somit können die Prüfergebnisse dreidimensional visualisiert werden.
  • Die Lösung nach dem ersten Aspekt der Erfindung hat den Vorteil, dass der Prozess für das Prüfen eines Objekts völlig automatisiert werden kann und somit effizienter ist. Ferner ist das Prüfergebnis konsistenter und fehlerunanfälliger im Vergleich zu einer manuellen Kontrolle.
  • Gemäß einem zweiten Aspekt der Erfindung wird die Aufgabe gelöst durch ein System zum Prüfen eines Objekts, umfassend: wenigstens eine 2D-Kamera, welche dafür eingerichtet ist, wenigstens ein 2D-Ist-Bild des Objekts aufzunehmen; eine Recheneinheit, welche dafür eingerichtet ist, mit der 2D-Kamera in Kommunikation zu stehen und die Pose des Objekts relativ zu einem 3D-Soll-Modell auf Basis des 2D-Ist-Bilds vorzugsweise mit einer Deep-Learning-Methode zu bestimmen; wobei die Recheneinheit ferner dafür eingerichtet ist, das 3D-Soll-Modell des Objekts entsprechend der bestimmten Pose des Objekts zu positionieren und anschließend aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild zu projizieren, wobei die Recheneinheit ferner dafür eingerichtet ist, ein bestimmtes Merkmal des Objekts aus dem 2D-Ist-Bild des Objekts zu detektieren und einen Soll-Ist-Abgleich zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild durchzuführen.
  • Im Vergleich zu der Lösung nach dem ersten Aspekt der Erfindung ist im System nach dem zweiten Aspekt der Erfindung kein Tiefensensor vorhanden. Stattdessen erfolgt die Bestimmung der Pose des Objekts auf Basis des wenigstens einen 2D-Ist-Bilds, das durch die wenigstens eine 2D-Kamera aufgenommen wird. Falls nur eine 2D-Kamera vorhanden ist, kann die Recheneinheit mit einem Deep-Learning-Verfahren, beispielsweise mit dem CNN-Verfahren, trainiert werden, um somit die Pose des Objekts zu bestimmen. Falls zwei oder mehr 2D-Kameras vorhanden sind, kann die Pose des Objekts durch geometrische Verfahren wie zum Beispiel die Triangulation bestimmt werden, wobei die Posen der einzelnen 2D-Kameras relativ zueinander bekannt sind. Alternativ kann ein Deep-Learning-Verfahren ebenfalls eingesetzt werden.
  • Mit dem System nach dem zweiten Aspekt der Erfindung kann eine automatisierte, konsistente und fehlerunanfällige Qualitätskontrolle ebenfalls erreicht werden. Ferner ist das System kosteneffizienter, da kein Tiefensensor eingesetzt werden muss.
  • In einer bevorzugten Ausführungsform ist die Recheneinheit ferner dafür eingerichtet, einen Unterschied des Merkmals zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf das 3D-Soll-Modell zu projizieren und vorzugsweise farblich darzustellen. Da kein Tiefensensor vorhanden ist und somit kein 3D-Scanning des Objekts durchgeführt wird, wird der Unterschied des Merkmals aus dem Soll-Ist-Abgleich vorzugsweise auf das 3D-Soll-Modell durch ein Lochkameramodell mit eventueller Korrektur für Linsenfehler sowie ein Korrelationsverfahren projiziert und visualisiert.
  • Gemäß einem dritten Aspekt der Erfindung wird die Aufgabe gelöst durch ein Verfahren zum Prüfen eines Objekts, wobei das Objekt vorzugsweise ein Bauteil oder eine Baugruppe ist, umfassend: Abtasten des Objekts mit mindestens einem Tiefensensor, um eine 3D-Ist-Punktwolke des Objekts zu generieren; Aufnehmen mindestens eines 2D-Ist-Bilds des Objekts mit mindestens einer 2D-Kamera, wobei die Pose der 2D-Kamera relativ zu dem Tiefensensor bekannt ist; Generieren einer 3D-Soll-Punktwolke aus einem 3D-Soll-Modell des Objekts oder durch eine Abtastung eines Referenzobjekts mit einem Tiefensensor; Bestimmen der Pose des Objekts relativ zu dem 3D-Soll-Modell oder zu dem Referenzobjekt durch ein Alignment zwischen der 3D-Ist-Punktwolke und der 3D-Soll-Punktwolke des Objekts; Positionieren des 3D-Soll-Modells oder der 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts; Projizieren des 3D-Soll-Modells oder der 3D-Soll-Punktwolke aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild; Detektieren eines bestimmten Merkmals des Objekts aus dem 2D-Ist-Bild des Objekts; Durchführen eines Soll-Ist-Abgleiches zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild.
  • Die Vorteile des Verfahrens nach dem dritten Aspekt der Erfindung ergeben sich jeweils aus den Vorteilen des erfindungsgemäßen Systems nach dem ersten Aspekt der Erfindung.
  • Gemäß einem vierten Aspekt der Erfindung wird die Ausgabe gelöst durch ein Verfahren zum Prüfen eines Objekts, umfassend: Aufnehmen mindestens eines 2D-Ist-Bilds des Objekts mit mindestens einer 2D-Kamera; Bestimmen der Pose des Objekts relativ zu einem 3D-Soll-Modell des Objekts auf Basis des 2D-Ist-Bilds mit einer Deep-Learning-Methode; Positionieren des 3D-Soll-Modells entsprechend der bestimmten Pose des Objekts; Projizieren des 3D-Soll-Modells des Objekts aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild; Detektieren eines bestimmten Merkmals des Objekts aus dem 2D-Ist-Bild des Objekts; Durchführen eines Soll-Ist-Abgleiches zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild.
  • Die Vorteile des Verfahrens nach dem vierten Aspekt der Erfindung ergeben sich jeweils aus den Vorteilen des erfindungsgemäßen Systems nach dem zweiten Aspekt der Erfindung.
  • Die Erfindung wird nachfolgend anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
    • 1 Eine schematische Darstellung eines Ausführungsbeispiels für ein System zum Prüfen eines Bauteils gemäß der Erfindung;
    • 2 Ein Flussdiagramm über ein Verfahren zum Prüfen eines Bauteils gemäß des in 1 präsentierten Ausführungsbeispiels;
    • 3 Eine schematische Darstellung eines weiteren Ausführungsbeispiels für ein System zum Prüfen eines Bauteils gemäß der Erfindung;
    • 4 Ein Flussdiagramm über ein Verfahren zum Prüfen eines Bauteils gemäß des in 3 präsentierten Ausführungsbeispiels;
  • In der in 1 schematisch dargestellten Ausführungsform umfasst das System 10 zum Prüfen eines Objekts 18 einen Tiefensensor 14, wobei der Tiefensensor 14 vorzugsweise eine Tiefenkamera ist, welche beispielsweise durch eine Microsoft-Kinect-Tiefenkamera gebildet ist. Das Objekt 18 ist vorzugsweise ein zu prüfender Bauteil, welcher eine Schweißnaht 20 an einer bestimmten Stelle aufweisen kann. Die Pose des Tiefensensors 14 ist vorzugsweise einstellbar und besitzt vorzugsweise sechs Freiheitsgrade. Somit kann der Tiefensensor 14 seine räumliche Lage durch Translationen in drei voneinander unabhängigen Richtungen und Rotationen um die voneinander unabhängigen Richtungen frei verändern.
  • Das System 10 umfasst ferner eine 2D-Kamera 12 und die Pose der 2D-Kamera 12 relativ zu dem Tiefensensor 14 ist bekannt. Zudem ist die Pose der 2D-Kamera 12 vorzugsweise einstellbar, welche ebenfalls sechs Freiheitsgrade besitzt.
  • Zudem umfasst das System 10 eine Recheneinheit 16, welche vorzugsweise ein Computer ist. Die Recheneinheit 16 steht mit dem Tiefensensor 14 und der 2D-Kamera 12 in Kommunikation, wobei die Kommunikation vorzugsweise via USB- oder Ethernet-Verbindungen erfolgt.
  • In der Recheneinheit 16 ist vorzugsweise ein 3D-Soll-Modell des Objekts abgespeichert, welches vorzugsweise ein CAD-Modell ist.
  • Die System 10 ist eingerichtet, um ein bestimmtes Merkmal des Objekts 18 wie zum Beispiel die in 1 gezeigten Schweißnaht 20 zu kontrollieren, wobei das Kontrollverfahren durch das Flussdiagramm in 2 dargestellt ist.
  • Zunächst einmal wird in Schritt S1 das Objekt 18 mit dem Tiefensensor 14 abgetastet, um eine 3D-Ist-Punktwolke des Objekts 18 zu generieren. Zudem wird in Schritt 2 ein 2D-Ist-Bild mit der 2D-Kamera 12 aufgenommen.
  • In Schritt S3 kann aus dem 3D-Soll-Modell eine 3D-Soll-Punktwolke generiert werden.
    Durch ein Alignment zwischen der 3D-Ist-Punktwolke und der 3D-Soll-Punktwolke kann in Schritt S4 die Pose des Objekts 18 relativ zu dem 3D-Soll-Modell bestimmt werden. Das Bestimmen erfolgt vorzugsweise durch bekannte Algorithmen im Bereich der Punktwolke-Registrierung, wobei Schritt S4 in zwei Teilschritte aufgeteilt werden kann, nämlich ein grobes Alignment und ein feines Alignment. Das grobe Alignment erfolgt vorzugsweise mit dem FPFH- oder PCA-Verfahren, während das feine Alignment vorzugswese mit dem ICP-Verfahren erfolgt.
  • Nachdem die Pose des Objekts 18 erkannt ist, wird in Schritt S5 das 3D-Soll-Modell entsprechend der Pose des Objekts 18 neu positioniert. Das heißt, dass das 3D-Soll-Modell derart verschoben und/oder gedreht wird, dass die Pose des 3D-Soll-Modells der Pose des Objekts entspricht.
  • Anschließend wird in Schritt S6 das neu positionierte 3D-Soll-Modell aus Sichtder 2D-Kamera 12 auf ein 2D-Soll-Bild projiziert.
  • Für die Kontrolle der Schweißnaht 20 sind vorzugsweise Daten wie zum Beispiel 3D-Koordinaten oder optische Eigenschaften der Schweißnaht in dem 3D-Soll-Modell hinterlegt. Die Recheneinheit 16 kann auf Basis der hinterlegten Merkmaldaten in dem 3D-Soll-Modell ermitteln, welche Pixel des projizierten 2D-Ist-Bilds der Schweißnaht 20 entsprechen und was für optische Eigenschaften sie aufweisen sollen.
  • In Schritt S7 wird die Schweißnaht 20 aus dem 2D-Ist-Bild detektiert, wobei die Detektion vorzugsweise mit einem bekannten Deep-Learning-Verfahren im Bereich der Bild-Segmentation basieren kann, vorzugsweise mit dem CNN-Verfahren.
  • Ein Soll-Ist-Abgleich zwischen der Schweißnaht aus dem 2D-Ist-Bild und der Schweißnaht aus dem 2D-Soll-Bild wird in Schritt S8 durchgeführt, um beurteilen zu können, ob die Qualität der Schweißnaht die gewünschte Qualität erreicht oder nicht. Bei einer Abweichung kann das entsprechende Personal durch z.B. ein Warnsignal informiert werden.
  • Alternativ oder zusätzlich wird die Abweichung zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild in Schritt S9 auf die 3D-Ist-Punktwolke oder ein aus der 3D-Punktwolke generiertes 3D-Modell des Objekts 18 projiziert. Die Projektion basiert auf einem Lochkameramodell mit eventueller Korrektur für Linsenfehler. Vorzugsweise wird die projizierte Abweichung auf dem 3D-Soll-Modell farblich visualisiert.
  • Es ist anzumerken, dass der in 2 dargestellte Ablauf nur beispielhaft zu verstehen ist. So können einzelne Verfahrensschritte, wie z. B. die Reihenfolge der Schritte S1 bis S3 geändert werden. Ferner kann auch Schritt S7 mit einer anderen Reihenfolge erfolgen.
  • 3 zeigt ein weiteres Ausführungsbeispiel eines Systems 100 zum Prüfen des Objekts 18, welches vorzugsweise ein Bauteil ist. Das System 100 umfasst eine Recheneinheit 116 und zwei 2D-Kameras 112 und 122. Im Vergleich zu dem in 1 gezeigten System 10 umfasst das System 100 keinen Tiefensensor.
  • Die Recheneinheit 116 steht mit jeder 2D-Kamera in Kommunikation, vorzugsweise via USB- oder Ethernet-Verbindungen, wobei die Recheneinheit 116 vorzugsweise ein Computer ist. In der Recheneinheit 116 ist vorzugsweise ein 3D-Soll-Modell des Objekts abgespeichert.
  • Die Pose jeder 2D-Kamera relativ zu der anderen 2D-Kamera ist bekannt, wobei jede 2D-Kamera vorzugsweise sechs Freiheitsgrade aufweist.
  • Die System 100 kontrolliert ein bestimmtes Merkmal des Objekts 18 wie zum Beispiel die Schweißnaht 20 nach dem in 4 gezeigten Flussdiagramm.
  • In Schritt S1' wird ein 2D-Bild durch jede 2D-Kamera 112 und 122 aufgenommen. Da im Vergleich zum in 1 gezeigten Ausführungsbeispiel kein Tiefensensor vorhanden ist, wird die Pose des Objekts relativ zu dem 3D-Soll-Modell in Schritt S2' auf Basis jedes aufgenommenen 2D-Bilds vorzugsweise mit einer Deep-Learning-Methode bestimmt. Da im 3 dargestellten Ausführungsbeispiel zwei 2D-Kameras vorhanden sind, kann die Pose des Objekts alternativ durch Triangulation bestimmt werden. Falls nur eine 2D-Kamera (Monokamera) vorhanden ist, kann die Pose des Objekts ebenfalls mit einer Deep-Learning-Methode ermittelt werden. Die Anzahl der 2D-Kameras ist beliebig erweiterbar.
  • Anschließend wird in Schritt S3' das 3D-Soll-Modell nach der bestimmten Pose des Objekts positioniert. Danach wird in Schritt S4` das neu positionierte 3D-Soll-Modell aus Sicht jeder 2D-Kamera jeweils in ein 2D-Soll-Bild projiziert. Analog zum in 2 gezeigten Schritt S6 kann die Recheneinheit 116 in Schritt S4' auf Basis der im 3D-Soll-Modell hinterlegten semantische Daten die Schweißnaht aus der 2D-Soll-Bild ermitteln.
  • Analog zum in 3 gezeigten Schritt S7 wird in Schritt S5' die Schweißnaht 20 aus dem 2D-Ist-Bild detektiert, wobei die Detektion vorzugsweise mit einem bekannten Deep-Learning-Verfahren im Bereich der Bild-Segmentation basiert, vorzugsweise mit dem CNN-Verfahren.
  • Ein Soll-Ist-Abgleich zwischen der detektierten Schweißnaht aus dem 2D-Ist-Bild und der Schweißnaht aus dem 2D-Soll-Bild wird in Schritt S6' durchgeführt, analog zum in 2 gezeigten Schritt S8.
  • Da kein Tiefensensor vorhanden ist und somit keine Punktwolke des Objekts generiert wird, wird alternativ oder zusätzlich die Abweichung zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild in Schritt S7' auf das 3D-Soll-Modell projiziert. Die Projektion erfolgt mit einem Lochkameramodell mit eventueller Korrektur für Linsenfehler sowie einem Korrelationsverfahren.
  • Es ist anzumerken, dass der in 4 dargestellte Ablauf ebenfalls nur beispielhaft zu verstehen ist. In anderen Ausführungsformen kann z.B. Schritt S5` mit einer anderen Reihenfolge erfolgen.
  • Es ist ferner anzumerken, dass die vorliegende Erfindung nicht auf die Qualitätskontrolle eines Bauteils oder Baugruppe beschränkt ist. Die Systeme und Verfahren nach der Erfindung können in weiteren Produktions- oder Logistikprozessen wie zum Beispiel der Wareneingangskontrolle oder der Zwischenmontageprüfung ebenfalls eingesetzt werden.

Claims (24)

  1. System (10) zum Prüfen eines Objekts (18), umfassend: - wenigstens einen Tiefensensor (14), welcher dafür eingerichtet ist, das Objekt (18) abzutasten, um eine 3D-Ist-Punktwolke des Objekts (18) zu generieren; - wenigstens eine 2D-Kamera (12), welche dafür eingerichtet ist, ein 2D-Ist-Bild des Objekts (18) aufzunehmen, wobei die Pose der 2D-Kamera (12) relativ zu dem Tiefensensor (14) bekannt ist; - eine Recheneinheit (16), welche dafür eingerichtet ist, mit dem Tiefensensor (14) und der 2D-Kamera (12) in Kommunikation zu stehen und die Pose des Objekts (18) relativ zu einem 3D-Soll-Modell des Objekts oder zu einem Referenzobjekt durch ein Alignment zwischen der 3D-Ist-Punktwolke und einer 3D-Soll-Punktwolke des Objekts zu bestimmen; wobei die 3D-Soll-Punktwolke aus dem 3D-Soll-Modell des Objekts oder durch eine Abtastung des Referenzobjekts mit einem Tiefensensor generiert ist, wobei die Recheneinheit (16) ferner dafür eingerichtet ist, das 3D-Soll-Modell oder die 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts (18) zu positionieren und aus Sicht der 2D-Kamera (12) auf ein 2D-Soll-Bild zu projizieren, wobei die Recheneinheit (16) ferner dafür eingerichtet ist, ein bestimmtes Merkmal (20) des Objekts (18) aus dem 2D-Ist-Bild des Objekts zu detektieren und einen Soll-Ist-Abgleich zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild durchzuführen.
  2. System (10) nach Anspruch 1, wobei das Objekt (18) ein Bauteil oder eine Baugruppe ist.
  3. System (10) nach Anspruch 1 oder Anspruch 2, wobei die Recheneinheit (16) ferner dafür eingerichtet ist, einen Unterschied des Merkmals (20) zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf die 3D-Ist-Punktwolke oder auf ein aus der 3D-Ist-Punktwolke generiertes 3D-Modell zu projizieren und vorzugsweise farblich darzustellen.
  4. System (10) nach einem der vorhergehenden Ansprüche, wobei die Pose des Tiefensensors (14) einstellbar ist, welcher sechs Freiheitsgrade besitzt.
  5. System (10) nach einem der vorhergehenden Ansprüche, wobei die Pose der 2D-Kamera (12) einstellbar ist, welche sechs Freiheitsgrade besitzt.
  6. System (10) nach einem der vorhergehenden Ansprüche, wobei die Detektion des bestimmten Merkmals (20) auf einer Deep-Learning-Methode basiert.
  7. System (100) zum Prüfen eines Objekts (18), umfassend: - wenigstens eine 2D-Kamera (112, 122), welche dafür eingerichtet ist, wenigstens ein 2D-Ist-Bild des Objekts (18) aufzunehmen; - eine Recheneinheit (116), welche dafür eingerichtet ist, mit der 2D-Kamera (112, 122) in Kommunikation zu stehen und die Pose des Objekts (18) relativ zu einem 3D-Soll-Modell des Objekts auf Basis des 2D-Ist-Bilds vorzugsweise mit einer Deep-Learning-Methode zu bestimmen; wobei die Recheneinheit (116) ferner dafür eingerichtet ist, das 3D-Soll-Modell des Objekts entsprechend der bestimmten Pose des Objekts zu positionieren und aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild zu projizieren, wobei die Recheneinheit (116) ferner dafür eingerichtet ist, ein bestimmtes Merkmal (20) des Objekts aus dem 2D-Ist-Bild des Objekts zu detektieren und einen Soll-Ist-Abgleich zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild durchzuführen.
  8. System (100) nach Anspruch 7, wobei das Objekt (18) ein Bauteil oder eine Baugruppe ist.
  9. System (100) nach Anspruch 7 oder Anspruch 8, wobei die Recheneinheit (116) ferner dafür eingerichtet ist, einen Unterschied des Merkmals zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf das 3D-Soll-Modell zu projizieren und vorzugsweise farblich darzustellen.
  10. System (100) nach einem der Ansprüche 7-9, wobei die Pose der 2D-Kamera (112) einstellbar ist, welche sechs Freiheitsgrade besitzt.
  11. System (100) nach einem der Ansprüche 7-10, wobei die Detektion des bestimmten Merkmals auf einer Deep-Learning-Methode basiert.
  12. Verfahren zum Prüfen eines Objekts (18), umfassend: - Abtasten des Objekts (18) mit mindestens einem Tiefensensor (14), um eine 3D-Ist-Punktwolke des Objekts zu generieren; - Aufnehmen mindestens eines 2D-Ist-Bilds des Objekts mit mindestens einer 2D-Kamera (12), wobei die Pose der 2D-Kamera relativ zu dem Tiefensensor (14) bekannt ist; - Generieren einer 3D-Soll-Punktwolke aus einem 3D-Soll-Modell des Objekts oder durch eine Abtastung eines Referenzobjekts mit einem Tiefensensor; - Bestimmen der Pose des Objekts relativ zu dem 3D-Soll-Modell oder zu dem Referenzobjekt durch ein Alignment zwischen der 3D-Ist-Punktwolke und der 3D-Soll-Punktwolke des Objekts; - Positionieren des 3D-Soll-Modells oder der 3D-Soll-Punktwolke entsprechend der bestimmten Pose des Objekts; - Projizieren des 3D-Soll-Modells oder der 3D-Soll-Punktwolke aus Sicht der 2D-Kamera (12) auf ein 2D-Soll-Bild; - Detektieren eines bestimmten Merkmals (20) des Objekts aus dem 2D-Ist-Bild des Objekts; - Durchführen eines Soll-Ist-Abgleichs zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild.
  13. Verfahren nach Anspruch 12, wobei das Objekt (18) ein Bauteil oder eine Baugruppe ist.
  14. Verfahren nach Anspruch 12 oder Anspruch 13, ferner umfassend: - Projizieren eines Unterschieds des Merkmals zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf die 3D-Ist-Punktwolke oder ein aus der 3D-Ist-Punktwolke generiertes 3D-Modell des Objekts.
  15. Verfahren nach Anspruch 14, ferner umfassend: - Farbliches Darstellen des Unterschieds auf der 3D-Ist-Punktwolke oder auf dem aus der 3D-Ist-Punktwolke generierten 3D-Modell.
  16. Verfahren nach einem der Ansprüche 12-15, wobei die Pose des Tiefensensors (14) einstellbar ist, welcher sechs Freiheitsgrade besitzt.
  17. Verfahren nach einem der Ansprüche 12-16, wobei die Pose der 2D-Kamera (12) einstellbar ist, welche sechs Freiheitsgrade besitzt.
  18. Verfahren nach einem der Ansprüche 12-17, wobei das Detektieren des bestimmten Merkmals (20) auf einer Deep-Learning-Methode basiert.
  19. Verfahren zum Prüfen eines Objekts (18), umfassend: - Aufnehmen mindestens eines 2D-Ist-Bilds des Objekts mit mindestens einer 2D-Kamera (112, 122); - Bestimmen der Pose des Objekts relativ zu einem 3D-Soll-Modell des Objekts auf Basis des 2D-Ist-Bilds vorzugsweise mit einer Deep-Learning-Methode; - Positionieren des 3D-Soll-Modells des Objekts entsprechend der bestimmten Pose des Objekts; - Projizieren des 3D-Soll-Modells aus Sicht der 2D-Kamera auf ein 2D-Soll-Bild (112, 122); - Detektieren eines bestimmten Merkmals (20) des Objekts aus dem 2D-Ist-Bild des Objekts (18); - Durchführen eines Soll-Ist-Abgleichs zwischen dem detektierten Merkmal aus dem 2D-Ist-Bild und einem entsprechenden Merkmal aus dem 2D-Soll-Bild.
  20. Verfahren nach Anspruch 19, wobei das Objekt (18) ein Bauteil oder eine Baugruppe ist.
  21. Verfahren nach Anspruch 19 oder Anspruch 20, ferner umfassend: - Projizieren eines Unterschieds des Merkmals zwischen dem 2D-Ist-Bild und dem 2D-Soll-Bild auf das 3D-Soll-Modell des Objekts.
  22. Verfahren nach Anspruch 21, ferner umfassend: - Farbliches Darstellen des Unterschieds auf dem 3D-Ist-Modell.
  23. Verfahren nach einem der Ansprüche 19-22, wobei die Pose der 2D-Kamera (112, 122) einstellbar ist, welche sechs Freiheitsgrade besitzt.
  24. Verfahren nach einem der Ansprüche 19-23, wobei das Detektieren des bestimmten Merkmals (20) auf einer Deep-Learning-Methode basiert.
DE102021128624.7A 2021-11-03 2021-11-03 Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe Ceased DE102021128624A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021128624.7A DE102021128624A1 (de) 2021-11-03 2021-11-03 Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021128624.7A DE102021128624A1 (de) 2021-11-03 2021-11-03 Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe

Publications (1)

Publication Number Publication Date
DE102021128624A1 true DE102021128624A1 (de) 2023-05-04

Family

ID=85983887

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021128624.7A Ceased DE102021128624A1 (de) 2021-11-03 2021-11-03 Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe

Country Status (1)

Country Link
DE (1) DE102021128624A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017006429T5 (de) 2016-12-20 2019-09-05 Symbol Technologies, Llc Verfahren, Systeme und Vorrichtungen zum Segmentieren von Objekten

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017006429T5 (de) 2016-12-20 2019-09-05 Symbol Technologies, Llc Verfahren, Systeme und Vorrichtungen zum Segmentieren von Objekten

Similar Documents

Publication Publication Date Title
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE69826753T2 (de) Optischer Profilsensor
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
DE102008041524B4 (de) Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen
WO2015091291A1 (de) Verfahren zur durchführung und kontrolle eines bearbeitungsschritts an einem werkstück
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102017116853A1 (de) System und Verfahren zur automatischen Auswahl von 3D-Ausrichtungsalgorithmen in einem Sehsystem
DE102019124810A1 (de) Bildverarbeitungsgerät und Bildverarbeitungsverfahren
DE102012223047B4 (de) Mehrteil-Korrespondierer (corresponder) für mehrere Kameras
DE19902401A1 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE102018214280A1 (de) Inspektionssystem und Verfahren zum Korrigieren eines Bildes für eine Inspektion
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
EP2031348A1 (de) Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102021128624A1 (de) Systeme und verfahren zum prüfen eines bauteils oder einer baugruppe
DE102019216321A1 (de) Bildverarbeitungsvorrichtung
DE112023000151T5 (de) Inspektionsunterstützungssystem, inspektionsunterstützungsverfahren und inspektionsunterstützungsprogramm
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE112021000595T5 (de) Bildverarbeitungssystem
AT522028B1 (de) Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102018219722B3 (de) Verfahren zum überprüfen einer magnetfeldquelle
DE102019220364A1 (de) Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final