AT522028A1 - Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts - Google Patents

Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts Download PDF

Info

Publication number
AT522028A1
AT522028A1 ATA50006/2019A AT500062019A AT522028A1 AT 522028 A1 AT522028 A1 AT 522028A1 AT 500062019 A AT500062019 A AT 500062019A AT 522028 A1 AT522028 A1 AT 522028A1
Authority
AT
Austria
Prior art keywords
laser
unit
camera
sensor unit
camera system
Prior art date
Application number
ATA50006/2019A
Other languages
English (en)
Other versions
AT522028B1 (de
Original Assignee
AGILOM GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AGILOM GmbH filed Critical AGILOM GmbH
Priority to ATA50006/2019A priority Critical patent/AT522028B1/de
Priority to DE102019135340.8A priority patent/DE102019135340A1/de
Publication of AT522028A1 publication Critical patent/AT522028A1/de
Application granted granted Critical
Publication of AT522028B1 publication Critical patent/AT522028B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine 3D-Sensoreinheit (1) zum Bestimmen von dreidimensionalen Koordinaten von Punkten (9) auf einer Oberfläche (10) eines Objekts (11), insbesondere eines technischen Bauteils, umfassend zumindest eine Lasereinheit (2) und zumindest ein Mehrfachkamerasystem (3). Die dreidimensionalen Koordinaten eines oder mehrerer Punkte (9) auf der Oberfläche (10) des Objekts (11) werden dabei mittels trigonometrischer Berechnungsverfahren bestimmt. Das Verfahren ist dadurch gekennzeichnet, dass die räumliche Lage einer durch die Lasereinheit (2) erzeugten Laserebene (7) mittels des Mehrfachkamerasystems (3) bestimmt wird und dass die dreidimensionalen Koordinaten der Punkte (9) auf der Oberfläche (10) des Objekts (11) mittels eines trigonometrischen Berechnungsverfahrens bestimmt werden. Das Berechnungsverfahren basiert dabei auf Messergebnissen einer Messmethode, ausgewählt aus der Gruppe umfassend Stereovision mittels des zumindest einen Mehrfachkamerasystems (3), Lasertriangulation mittels der Laserebene (7) und einer ersten Kamera (4) oder Lasertriangulation mittels der Laserebene (7) und einer zweiten Kamera (5).

Description

jekts.
Im Zuge der Automatisierung von unterschiedlichsten Fertigungsprozessen, kom-
men in modernen Anlagen Messsysteme zum Einsatz, welche es ermöglichen 3DAbbildungen von Bauteilen zu erzeugen, um beispielsweise für einen anstehenden Fertigungsschritt Informationen vorliegend zu haben, wie das Bauteil auf einer Zu-
führeinheit orientiert ist.
Vorteilhafterweise kommen 3D-Messysteme insbesondere beim sogenannten „Griff in die Kiste“, wie die roboterbasierte Vereinzelung chaotisch bereitgestellter Objekte bezeichnet wird, zum Einsatz. Der „Griff in die Kiste“ spielt dabei sowohl bei der Montage- als auch bei der Fertigungsautomation eine große Rolle und ein Roboter, bzw. eine Greifvorrichtung kann hierbei die typische Aufgabe des Transports eines Bauteils aus einem Lagerbereich zu einem Montage- und/oder Fertigungsbereich übernehmen. Als ein Beispiel hierfür kann das Be- oder Entladen
von Bearbeitungsmaschinen angeführt werden.
In hochautomatisierten Anwendungen reicht es dabei in der Praxis nicht aus, dass beim „Griff in die Kiste“ von einem Roboter immer die gleiche Bewegung ausgeführt wird, nachdem die zu greifenden Objekte oder Bauteile in der Regel unterschiedlich bzw. chaotisch orientiert sind. Vielmehr ist es notwendig, dass der Roboter, bzw. die Greifvorrichtung durch den Einsatz von 3D-Messystemen auf Än-
derungen, wie beispielsweise eine abweichende Objektlage reagieren kann.
N2018/28000-AT-00
Komplikationen möglichst hintanzuhalten.
Weiters lassen sich durch die dreidimensionale Abbildung von Bauteilen komplexe Geometrien bestimmen, die mit konventionellen taktilen oder Lasermessverfahren nicht zu erfassen sind. Die hierbei erfassten Punkte bzw. Punktwolken erlauben
beispielsweise in weiterer Folge einen Abgleich mit vorhandenen 3D-CAD Daten.
Vorteilhaft bei einem 3D-Messsystem ist auch, dass ein und dasselbe Messsystem für unterschiedliche Bauteile verwendet werden kann, ohne Anpassungen an
der Sensoreinrichtung per se vornehmen zu müssen.
Aus dem Stand der Technik gehen dabei unterschiedliche 3D Messverfahren hervor. Bei einem Lasertriangulationssystem, auch Lichtschnittverfahren genannt, wird eine Laserlinie auf das Objekt projiziert und eine 2D Kamera nimmt die Laserlinie auf. Der Abstand und Winkel zwischen Linienlaser und Kamera ist bekannt.
Aus diesen Informationen können 3D Punkte berechnet werden.
Beispielhaft für Lasertriangulationsverfahren können die DE 102015121673 A1 oder die US 2017299380 A1 genannt werden.
Für eine Aufnahme der gesamten Szene muss das Objekt oder das Lasertriangulationssystem in einer Achse linear bewegt werden. So wird das Objekt mit dem Laser „durchschnitten“. Ungenauigkeiten in dieser Bewegung haben direkten Ein-
fluss auf die erreichbare Genauigkeit.
Alternativ zu einer Linearbewegung, kann der Laser auch über das Objekt geschwenkt werden. Hier muss der Winkel zwischen Kamera und Laser genau erfasst und mit den Kamerabildern synchronisiert werden. Bereits kleinste Abwei-
chungen bei der Winkelbestimmung können zu großen Messfehlern führen. Weiters werden im Stand der Technik Stereokamerasysteme zur dreidimensional
en Bauteilvermessung gezeigt. Bei einem Stereokamerasystem, auch binokulares
N2018/28000-AT-00
somit einer oder mehrere 3D Punkte berechnet werden.
Haben Objekte keine Textur, können beispielsweise gleichmäßige oder chaotische Linien- bzw. Punktmuster mit Hilfe eines Lasers oder Projektors aktiv auf das Objekt projiziert werden. Hier ist es besonders wichtig, dass die korrespondierenden Punkte in den verschiedenen Kameras identifiziert werden, um eine möglichst
hohe Messgenauigkeit zu erreichen.
Aus dem Stand der Technik können hierzu als Beispiele die
DE 102016118758 A1, die DE 102016002398 A1, die EP 3258211 A1 oder die US 2017195654 A1 genannt werden. In der DE 102016002398 A1 wird zusätzlich ein Mehrfachkamerasystem gezeigt, in welchem mehr als zwei Kameras zum Ein-
satz kommen, um die Genauigkeit zu erhöhen.
Wird ein Punkt in einer der Kameras aus dem Stereokamerasystem falsch interpretiert, führt das zu großen Erfassungsfehlern. Abhilfe schaffen kann in diesem Fall beispielsweise ein Linienlaser. Wird hier zur Verbesserung der Messgenauigkeit ein zusätzlicher Multilinienlaser verwendet, ist das Problem einer falschen Identifikation wieder sehr groß, nachdem bei der Messung sichergestellt werden
muss, dass alle Kameras des Stereosystems dieselbe Linie betrachten.
Ein weiterer Nachteil bei diesem Verfahren ist, dass die zu erfassenden Punkte in beiden Kameras sichtbar sein müssen. Wird der Punkt z.B. in einer Kamera abge-
schattet ist keine Berechnung möglich.
Aufgabe der vorliegenden Erfindung war es, die Nachteile des Standes der Tech-
nik zu überwinden und ein Verfahren sowie eine geeignete Vorrichtung zur Durchführung dieses Verfahren zu schaffen, mit welchem die Maß- und Passgenauigkeit eines dreidimensionalen Messystems für technische Bauteile, zum Einsatz für Fer-
tigungsprozesse mit überdurchschnittlichen Anforderungen, verbessert wird.
N2018/28000-AT-00
chen gelöst.
Die Erfindung betrifft ein Verfahren zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts, insbesondere eines technischen Bauteils, mit einer 3D-Sensoreinheit umfassend zumindest eine Lasereinheit und zumindest ein Mehrfachkamerasystem, umfassend wenigstens eine erste Kamera und eine zweite Kamera. Die dreidimensionalen Koordinaten eines oder mehrerer Punkte auf der Oberfläche des Objekts werden mittels trigonometrischer Berechnungsverfahren bestimmt, wobei das Verfahren durch folgende Schritte gekennzeichnet ist:
Bestimmen der räumlichen Lage einer durch die Lasereinheit erzeugten Laserebene mittels des Mehrfachkamerasystems:;
Bestimmen der dreidimensionalen Koordinaten der Punkte auf der Oberfläche des Objekts mittels eines trigonometrischen Berechnungsverfahrens, wobei das Berechnungsverfahren auf Messergebnissen einer Messmethode basiert, die ausgewählt ist aus der Gruppe umfassend:
- Stereovision mittels des zumindest einen Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der ersten Kamera;
- Lasertriangulation mittels der Laserebene und der zweiten Kamera.
Vorteilhafterweise kann auf Basis der kalibrierten Laserachse der Lasereinheit die Bestimmung der Laserebene erfolgen. Zur vollständigen Bestimmung der Laserebene wird im Zuge des erfindungsgemäßen Verfahrens mindestens ein weiterer
Punkt der Laserebene mittels des Mehrfachkamerasystems bestimmt.
Um ein trigonometrisches Berechnungsverfahren auf Basis einer Messung durch ein Stereosystem durführen zu können, ist ein Mehrfachkamerasystem wie ein Stereokamerasystem vorgesehen. Sobald nun ein Punkt in der betrachteten Laserebene mit Hilfe des Stereokamerasystems ermittelt wurde, kann die Laserebene bestimmt werden. Mit Hilfe der Laserebene, kann zusätzlich zur Berechnung der Punkte über das Stereokamerasystem, jeder Punkt auf dem zu vermessenden Objekt über das Triangulationsprinzip bzw. eine Lasertriangulation berech-
net werden.
N2018/28000-AT-00
eine Abschattung nicht sichtbar sind.
Erfindungsgemäß kann somit jeder Punkt auf der Oberfläche des Objekts über drei unterschiedliche Wege berechnet werden:
- Stereovision mittels des Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der ersten Kamera des Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der zweiten Kamera des Mehr-
fachkamerasystems.
Über eine zusätzliche, optionale Bewertung der Laserqualität (z.B. Breite der Laserlinie, Intensität des Lasers, ...) kann entschieden werden, welches Verfahren die zuverlässigsten Daten liefert. Darauf basierend ist eine Klassifizierung von ein-
zelnen Messergebnissen denkbar.
Des Weiteren kann es zweckmäßig sein, dass die Laserebene über die Rotations-
achse der Lasereinheit als Referenzebene bestimmt wird.
Die Kalibrierung der Rotationsachse der Lasereinheit erfolgt, indem die Laserebenen mit 3D Punkten aus dem Stereokamerasystem selbst bestimmt wird. Anschließend wird der Laser um einen bestimmten bzw. bekannten Winkel verdreht. In Anschluss daran wird wieder die Laserebene aus den 3D Punkten bestimmt. Wenn in weiterer Folge mehrere Ebenen bestimmt sind, kann die Drehebene zuverlässig abgeleitet werden. Bei der Referenzebene handelt es sich somit vorteil-
hafterweise um die Laserdrehachse.
Ferner kann vorgesehen sein, dass die dreidimensionalen Koordinaten der Punkte auf der Oberfläche des Objekts mittels eines trigonometrischen Berechnungsverfahrens bestimmt werden, wobei das Berechnungsverfahren auf Messergebnissen einer Kombination von Messmethoden basiert, die ausgewählt sind aus der Gruppe umfassend
- Stereovision mittels des zumindest einen Mehrfachkamerasystems;
N2018/28000-AT-00
- Lasertriangulation mittels der Laserebene und der zweiten Kamera.
Um die Qualität von mit dem erfindungsgemäßen Verfahren bestimmten dreidimensionalen Koordinaten von Punkten zu erhöhen, ist es vorteilhaft, wenn die Koordinaten von Punkten mit unterschiedlichen Messmethoden bestimmt werden
und darauf basierend ein Vergleich der Messergebnisse erfolgt.
Wird mit den Berechnungen, basierend auf den Messergebnissen der unterschiedlichen Messverfahren, jeweils der gleiche Punkt bzw. die gleichen Koordinaten eines Punktes berechnet, so liegt eine hohe Zuverlässigkeit der Messung bzw. der Berechnung vor. Ist das nicht der Fall, kann beispielsweise ein abweichend berechneter Punkt durch eine unerwünschte Reflexion am Objekt oder in der Umgebung entstanden sein. Damit ist mit dem erfindungsgemäßen Verfahren auch eine sichere Erkennung von falschen Punkten, im Zuge einer Plausibilitätsprüfung,
möglich.
Zusätzlich kann überprüft werden, ob ein Punkt, welcher basierend auf Messungen des Stereosystems berechnet wurde, auf der Laserebene der kalibrierten Drehachse der Lasereinheit liegt. Ist das nicht der Fall, handelt es sich auch hier um einen Fehlerpunkt. Über eine nachgeschaltete Auswertung können somit Fehlerpunkte bereits im Vorfeld aussortiert werden und die Qualität der gemessenen
Punkte auf der Oberfläche eines Objekts kann weiterhin gesteigert werden.
Darüber hinaus kann vorgesehen sein, dass die Lasereinheit auf einer Laserschwenkeinheit angeordnet ist, welche dazu ausgebildet ist, die Lasereinheit um eine Rotationsachse zu verschwenken, wobei ein Rotationswinkel der Lasereinheit
mittels des zumindest einen Mehrfachkamerasystems bestimmt wird.
Der Rotationswinkel bzw. Rotationsvektor der Laserschwenkeinheit wird mit Hilfe einer Reihe von Profilschnitten ermittelt. Die Rotationsachse der Lasereinheit muss somit nur einmal ermittelt werden und wird mit den Kalibrierdaten abgespei-
chert. Lasereinheit und Mehrfachkamerasystem müssen somit vorteilhafterweise
N2018/28000-AT-00
Punkte mit der kalibrierten Drehachse korrelieren.
Vorteilhaft ist auch eine Ausbildung des Verfahrens, gemäß welcher vorgesehen sein kann, dass die Lasereinheit mittels der Laserschwenkeinheit um die Rotationsache über einen Arbeitsbereich geschwenkt wird, in welchem Arbeitsbereich zumindest das Objekt, insbesondere ein technisches Bauteil, teilweise oder voll-
ständig lagert.
Um den gesamten Arbeitsbereich mit der Lasereinheit abtasten bzw. beleuchten zu können ist die Lasereinheit vorteilhafterweise auf einer Laserschwenkeinheit angeordnet. Alternativ dazu ist es auch denkbar, dass ein Objekt auf einer Trans-
portstrecke unter der Sensoreinheit verfahren werden kann.
Gemäß einer Weiterbildung ist es möglich, dass die 3D-Sensoreinheit zumindest eine dritte Kamera umfasst, die durch eine Farbkamera gebildet ist und mittels
welcher Farbinformationen auf der Oberfläche des Objekts erfasst werden.
Vorteilhafterweise ist das Mehrfachkamerasystem mit optischen Filtern ausgestattet, welche auf die Wellenlänge des Lasers abgestimmt sind. Hierbei kann die Wellenlänge abhängig vom Material bzw. der Oberfläche des zu vermessenden Objekts ausgewählt sein. Um nun auch Farbinformationen auf der Oberfläche erfassen zu können, ist es vorteilhaft, wenn die 3D-Sensoreinheit eine zusätzliche
Farbkamera umfasst.
Weiters betrifft die Erfindung eine 3D-Sensoreinheit, insbesondere zur Ausführung eines Verfahrens zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts, umfassend zumindest eine Lasereinheit und zumindest ein Mehrfachkamerasystem, umfassend wenigstens eine erste Ka-
mera und eine zweite Kamera, dadurch gekennzeichnet, dass die Lasereinheit auf
N2018/28000-AT-00
sereinheit um eine Rotationsachse zu verschwenken.
Die Anordnung der Lasereinheit auf einer Laserschwenkeinheit bietet den Vorteil, dass die Lasereinheit über einen Arbeitsbereich verschwenkt werden kann und so-
mit die Flexibilität der erfindungsgemäßen 3D-Sensoreinheit erhöht werden kann.
Ferner kann es zweckmäßig sein, wenn ein Arbeitsbereich der 3D-Sensoreinheit
durch den Aufnahmebereich des Mehrfachkamerasystems bestimmt wird.
Die einzelnen Kameras des Mehrfachkamerasystems weisen hierbei jeweils einen Aufnahmebereich auf. Jener Bereich, in welchem sich die einzelnen Aufnahmebereiche der einzelnen Kameras überschneiden, definiert den Arbeitsbereich, in wel-
chem zuverlässige Messungen durchgeführt werden können.
Darüber hinaus kann vorgesehen sein, dass das Mehrfachkamerasystem als monochromes Mehrfachkamerasystem ausgebildet ist, wobei der Farbbereich durch
die Wellenlänge der Lasereinheit bestimmt wird.
Das Kamerasystem ist vorteilhafterweise mit optischen Filtern ausgestattet, welche auf die Wellenlänge des Lasers abgestimmt sind. Weiters kann die Wellenlänge des Lasers in Abhängigkeit vom Material bzw. der Oberfläche der zu vermessenden Bauteile, definiert werden. Somit können störende Umgebungsein-
flüsse weitgehend eliminiert werden.
Des Weiteren kann vorgesehen sein, dass die 3D-Senoreinheit zumindest eine dritte Kamera, die durch eine Farbkamera gebildet ist, umfasst, welche dazu aus-
gebildet ist, Farbinformationen auf dem zu erfassenden Objekt zu erfassen.
Um Farben auf der Oberfläche des zu erfassenden Objekts aufnehmen bzw. erfassen zu können, umfasst die erfindungsgemäße 3D-Sensoreinheit vorteilhafterweise eine zusätzliche Farbkamera. Somit können, neben Objektgeometrien auch Farbinformationen erfasst werden und das 3D-Modell eines Objekts mit Farben er-
gänzt werden.
N2018/28000-AT-00
eine Rotationsachse zu verschwenken.
Um die Flexibilität der erfindungsgemäßen 3D-Sensoreinheit weiter zu erhöhen, kann es vorgesehen sein, dass die Kameras schwenkbar an oder in der 3D-Sensoreinheit angeordnet sind. Mit einer schwenkbaren Anordnung kann der Arbeitsbereich angepasst bzw. erweitert werden oder die Erfassung von Objekten mit
komplexen Geometrien verbessert werden.
Entsprechend einer vorteilhaften Weiterbildung kann vorgesehen sein, dass die Laserschwenkeinheit zu dem Mehrfachkamerasystem in der Art positioniert ist, dass die Lasereinheit über den gesamten Aufnahmebereich des Mehrfachkame-
rasystems geschwenkt werden kann.
Gegenüber einer starren Anordnung eines Lasers, bietet die erfindungsgemäße Laserschwenkeinheit den Vorteil, dass der gesamte Arbeitsbereich mittels des Lasers abgetastet, bzw. beleuchtet werden kann. Somit können Objekte, welche im
Arbeitsbereich lagern, zuverlässig erfasst werden.
Insbesondere kann es vorteilhaft sein, wenn die zumindest eine Lasereinheit einen Linienlaser und/oder einen Multilinienlaser umfasst, welche dazu ausgebildet sind,
eine Linie und/oder ein Linienmuster auf ein Objekt zu projizieren.
Wird ein Multilinienlaser verwendet, können mit einem Punkt mehrere Laserebenen bestimmt werden. Um hierbei der Problematik der falschen Zuordnung des Laserstrahls in den beiden Kameras entgegen zu wirken, kann der Laserstrahl bzw. die Laserlinie identifiziert werden, indem zusätzlich die Rotationsachse berechnet wird. Ergibt das nicht die kalibrierte Achse, ist es sehr wahrscheinlich das die Laserlinie falsch identifiziert wurde. Hiermit kann das erfindungsgemäße Ver-
fahren sehr robust gegenüber Fehlerpunkten ausgestaltet werden.
N2018/28000-AT-00
Ferner kann vorgesehen sein, dass die 3D-Sensoreinheit eine Schwenk- und/oder Antriebsvorrichtung umfasst, welche dazu ausgebildet ist, die 3D-Sensoreinheit
entlang eines zu erfassenden Objektes zu verschwenken und/oder zu verfahren.
Hiermit kann die Flexibilität des Systems weiterhin erhöht werden, indem die 3DSensoreinheit auch zur Messung von großen Objekten, bzw. beweglichen Objekten eingesetzt werden kann und entlang eines Objektes geschenkt oder verfahren
werden kann.
Darüber hinaus kann vorgesehen sein, dass die 3D-Sensoreinheit zumindest eine Auswerteeinheit, eine Energieversorgungseinheit und/oder zumindest eine drahtlose Schnittstelle umfasst, wobei die zumindest eine drahtlose Schnittstelle dazu
ausgebildet ist, Daten zu empfangen und/oder zu übertragen.
Um die 3D-Sensoreinheit als autarkes bzw. autonomes System betreiben zu können, weist die 3D-Sensoreinheit vorteilhafterweise eine Auswerteeinheit, eine Energieversorgungseinheit und/oder zumindest eine drahtlose Schnittstelle auf. Mittels der Auswerteeinheit können somit direkt, ohne vorangegangene Datenübertragung, einzelne Messungen miteinander verglichen und die Qualität von Messpunkten bestimmt werden. Mittels der drahtlosen Schnittstelle können weiters Daten übertragen bzw. empfangen werden, ohne die 3D-Sensoreinheit mit Kabeln an eine externe Einheit anschließen zu müssen. Insgesamt besteht also der Vorteil, dass mittels eines autarken bzw. autonomen Systems der Einsatzbereich, bzw. Einsatzort der erfindungsgemäßen 3D-Sensoreinheit weiterhin um-
fangreicher ausgestaltet werden kann.
Zum besseren Verständnis der Erfindung wird diese anhand der nachfolgenden
Figuren näher erläutert. Es zeigen jeweils in stark vereinfachter, schematischer Darstellung:
Fig. 1 eine 3D-Sensoreinheit mit einer Lasereinheit und einem Mehrfachka-
merasystem;
N2018/28000-AT-00
Fig. 2 eine 3D-Sensoreinheit mit einer Lasereinheit und einem Mehrfachka-
merasystem in einer dreidimensionalen Ansicht;
Fig. 3 eine 3D-Sensoreinheit mit einer Farbkamera, einer Auswerteeinheit, ei-
ner Energieversorgungseinheit und einer drahtlosen Schnittstelle;
Fig. 4 eine 3D-Sensoreinheit mit einer Schwenk- und Antriebsvorrichtung;
Fig. 5 eine 3D-Sensoreinheit mit einem Multilinienlaser und einem Mehrfachkamerasystem;
Fig. 6 ein Ablaufdiagramm zum Bestimmen von dreidimensionalen Koordina-
ten von Punkten auf einer Oberfläche eines Objekts.
Einführend sei festgehalten, dass in den unterschiedlich beschriebenen Ausführungsformen gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen versehen werden, wobei die in der gesamten Beschreibung enthaltenen Offenbarungen sinngemäß auf gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen übertragen werden können. Auch sind die in der Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind diese Lage-
angaben bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen.
In Fig. 1 und Fig. 2 ist eine 3D-Sensoreinheit 1 mit einer Lasereinheit 2 und einem Mehrfachkamerasystem 3 gezeigt, wobei in Fig. 2 die 3D-Sensoreinheit 1 mit der Lasereinheit 2 und dem Mehrfachkamerasystem 3 in einer dreidimensionalen An-
sicht dargestellt ist.
Das Mehrfachkamerasystem 3 umfasst in dem gezeigten Ausführungsbeispiel eine erste Kamera 4 und eine zweite Kamera 5, um Messungen mittels Stereovision durchführen zu können. In einem nicht dargestellten Ausführungsbeispiel
kann das Mehrfachkamerasystem 3 auch mehr als zwei Kameras 4, 5 umfassen.
Initial wir eine Rotationsachse 6 der Lasereinheit 2, bzw. die Laserachse im Zuge einer Kalibrierung kalibriert und somit bestimmt. Zur vollständigen Bestimmung ei-
ner Laserebene 7 wird im Zuge des erfindungsgemäßen Verfahrens mindestens
N2018/28000-AT-00
ein weiterer Punkt 8 der Laserebene 7 mittels des Mehrfachkamerasystems 3 be-
stimmt.
Nachdem die Lage der Laserebene 7 bzw. die Laserebene 7 insgesamt bestimmt wurde, stehen nun mit der erfindungsgemäßen 3D-Sensoreinheit 1 unterschiedliche trigonometrische Messmethoden zur Bestimmung eines Punktes 9 auf einer
Oberfläche 10 eines Objekts 11 zur Verfügung.
Einerseits kann ein Punkt 9 auf der Oberfläche 10 des Objekts 11 über Stereovision ermittelt werden, wobei die dreidimensionalen Koordinaten des Punktes 9 mittels trigonometrischer Berechnungsverfahren berechnet werden können. Ähnlich wie beim menschlichen Sehen wird bei der Stereovision das Objekt 11 von zwei Kameras 4, 5 des erfindungsgemäßen Mehrfachkamerasystems 3 betrachtet. Die Kamerabilder der beiden Kameras 4, 5 werden verglichen, um identische Teile des Objekts 11 zu identifizieren. Anschließend können die Koordinaten, jener in beiden Kameras 4, 5 identifizierten Punkte 9 auf der Oberfläche 10 des Objekts
11, nach dem Triangulationsverfahren berechnet werden.
Andererseits können die Koordinaten des Punktes 9 auf der Oberfläche 10 des Objekts 11 basierend auf einer Lasertriangulation mittels der Laserebene 7 und der ersten Kamera 4 bzw. der zweiten Kamera 5 jeweils berechnet werden. Bei der Lasertriangulation wird ein Laserstrahl 12, welcher von der Lasereinheit 2 auf die Oberfläche 10 des Objekts 11 projiziert wird, von der Oberfläche 10 des Objekts 11 in Form eines Reflexionsstrahls 13, 14 reflektiert. Von einer Kamera 4, 5 wird die Reflexion an der Oberfläche 10 des Objekts 11 detektiert und die Position des Reflexionsstrahls 13, 14 auf dem Sensor 15, 16 der Kamera 4, 5 detektiert. Über die Winkelbeziehungen im entstandenen Dreieck zwischen Laserebene 7 und Reflexionsstrahl 13, 14, lassen sich die Koordinaten des Punktes 9 auf der Oberfläche 10 des Objekts 11 berechnen, jeweils mittels des Reflexionsstrahls 13 der ersten Kamera 4 und der Laserebene 7 und mittels des Reflexionsstrahls 14
der zweiten Kamera 5 und der Laserebene 7.
N2018/28000-AT-00
Um nun verifizieren zu können, ob ein Punkt 9 auf der Oberfläche 10 des Objekts 11, insbesondere des technischen Bauteils, richtig berechnet wurde, kann ein Vergleich der berechneten dreidimensionalen Koordinaten des Punktes 9, welche entweder auf Basis der Stereovision oder auf Basis der Lasertriangulationen berechnet wurden, angestellt werden, um zu verifizieren, ob der Punkt 9 richtig berechnet, respektive gemessen wurde. Stimmen die Koordinaten des Punktes 9, basierend auf allen durchgeführten Messungen überein, so kann das Ergebnis verifiziert
werden und es liegt eine zuverlässige Bestimmung des Punktes 9 vor.
Weiters ist in Fig. 1 ersichtlich, dass durch die Kameras 4, 5 des Mehrfachkamerasystems 3 ein Arbeitsbereich 17 bestimmt wird. Jede Kamera 4, 5 weist einen Aufnahmebereich 18, 19 auf, in welchem ein Bild bzw. Objekt 11 von der Kamera 4, 5 erfasst werden kann. In jenem Bereich, in welchem sich die Aufnahmebereiche 18, 19 zweier Kameras 4, 5 überschneiden, bzw. überlappen, kann ein Bild des Objekts 11 von beiden Kameras 4, 5 erfasst werden. In diesem Arbeitsbereich 17 kann somit von beiden Kameras 4, 5 ein Bild von dem Objekt 11 aufgenommen
werden.
Um nun den gesamten Arbeitsbereich 17 mittels eines von der Lasereinheit 2 ausgesendeten Laserstrahls 12 abtasten zu können, bzw. um die Laserebene 7, welche mittels der Lasereinheit 2 erzeugt wird, entlang des Arbeitsbereichs verfahren zu können, ist vorteilhafterweise eine Laserschwenkeinheit 20 vorgesehen, in welcher die Lasereinheit 2 gelagert ist, bzw. die Lasereinheit 2 von der Laserschwen-
keinheit 20 aufgenommen ist.
Ferner können die Kameras 4, 5 jeweils auf einer Kameraschwenkeinheit 21, 22 angeordnet sein, mittels welcher die Kameras 4, 5 um ihre Rotationsachse 23, 24 verschwenkt werden können. Hiermit kann der Aufnahmebereich 18, 19 der Kameras 4, 5 verstellt und somit beispielsweise der Arbeitsbereich 17 vergrößert o0-
der verschoben werden.
Fig. 3 zeigt ein Ausführungsbeispiel einer 3D-Sensoreinheit 1 mit einer weiteren
Kamera 25, welche als Farbkamera 26 ausgebildet ist, einer Auswerteeinheit 27,
N2018/28000-AT-00
einer Energieversorgungseinheit 28 und einer drahtlosen Schnittstelle 29. Nachdem die Kameras 4, 5 des Mehrfachkamerasystems 3 mit optischen Filtern ausgestattet sein können, welche auf die Wellenlänge des Lasers der Lasereinheit 2 abgestimmt sind, kann zur Aufnahme von Farbinformationen auf der Oberfläche 10 des zu vermessenden Objekts 11 eine zusätzliche Farbkamera 26 an oder innerhalb der 3D-Sensoreinheit 1 vorgesehen sein. Mit der Farbkamera 26 können somit auch neben Objektgeometrien, Farbinformationen auf der Oberfläche 10 des Objekts 11 aufgenommen werden und gemeinsam mit der Objektgeometrie zur Darstellung bzw. Abbildung des Objekts 11 herangezogen werden. Die Farbkamera 26 kann hierbei auch auf einer Kameraschwenkeinheit 30 angeordnet sein, um die Farbkamera 26 um eine Rotationsachse XX der Farbkamera 26 zu ver-
schwenken.
Weiters kann gemäß dem in Fig. 3 gezeigten Ausführungsbeispiel die erfindungsgemäße 3D-Sensoreinheit 1 als autonome Einheit betrieben werden. Hierzu kann die 3D-Sensoreinheit 1 eine Auswerteeinheit 27 umfassen, mittels welcher die berechneten Koordinaten eines Punktes 9, basierend auf unterschiedlichen Messmethoden, verglichen bzw. verifiziert werden. Alternativ bzw. zusätzlich dazu können die Koordinaten über die drahtlose Schnittstelle 29 übertragen und in einer externen Einheit verglichen bzw. zu einem Gesamtmodell des Objekts 11 zusammengesetzt werden. Bei der drahtlosen Schnittstelle 29 kann es sich um eine Schnittstelle gemäß einem der Funkstandards, WIFI, Bluetooth oder NFC bzw. einer
Kombination daraus handeln.
Zusätzlich ist in Fig. 3 schematisch die Energieversorgungseinheit 28 angedeutet. Hierbei kann es sich um eine Batterie oder einen Akkumulator handeln, mit der bzw. dem die 3D-Sensoreinheit 1 mit der notwendigen Energie versorgt wird. Mit den in Fig. 3 gezeigten drahtlosen Komponenten kann die Flexibilität der 3D-Sensoreinheit 1 in Hinblick auf einen Einsatzbereich bzw. Einsatzort gesteigert wer-
den.
Weiters ist in Fig. 4 eine 3D-Sensoreinheit 1 mit einer Schwenkvorrichtung 32 und
einer Antriebsvorrichtung 33 gezeigt. In der gezeigten alternativen Ausführungs-
N2018/28000-AT-00
form ist die 3D-Sensoreinheit 1 insgesamt verschwenkbar bzw. verfahrbar angeordnet. Hierbei kann die 3D-Sensoreinheit 1 in einer Aufnahmevorrichtung 34 gelagert bzw. angeordnet sein. Mittels der Schwenkvorrichtung 32 kann die gesamte 3D-Sensoreinheit 1 um eine Rotationsachse 35 verdreht bzw. geschwenkt werden, um den Arbeitsbereich 17 zu verändern bzw. zu variieren, um beispielsweise
Objekte 11 mit komplexer Geometrie zu vermessen.
Weiters kann die 3D-Sensoreinheit 1 entlang einer horizontalen oder vertikalen Achse mittels der Aufnahmevorrichtung 34 verfahrbar sein, um somit die Flexibilität der 3D-Sensoreinheit 1 in Hinblick auf komplexe Bauteilgeometrien oder unterschiedliche Objektgrößen zu erhöhen. Mittels der Antriebsvorrichtung 33 kann beispielsweise die 3D-Sensoreinheit 1 entlang eines Objektes 11 verfahren werden, um dieses über die gesamte Größe zu erfassen. Alternativ dazu kann auch ein Objekt 11 auf einer nicht gezeigten Förderbahn, wie einem Transportband unter
der 3D-Sensoreinheit 1 verfahren werden.
Fig. 5 zeigt eine alternative Ausführungsform einer 3D-Sensoreinheit 1 mit einem Multilinienlaser 36 und einem Mehrfachkamerasystem 3. Die Lasereinheit 2 ist hierbei als Multilinienlaser 36 ausgebildet, mittels welchem mehrere Laserebenen 7 gleichzeitig erzeugt werden können und somit mehrere Punkte 9 auf der Ober-
fläche 10 eines Objekts 11 gleichzeitig bestimmt werden können.
In Fig. 6 ist schließlich ein Ablaufdiagramm eines Verfahrens zum Bestimmen von dreidimensionalen Koordinaten von Punkten 9 auf der Oberfläche des Objekts abgebildet. Im ersten Schritt wird mittels der Kameras 4, 5 des Mehrfachkamerasystems 3 ein Bild einer Szene aufgenommen, in welchem eine Laserebene 7 erkannt wird. In Anschluss daran erfolgt eine Transformation der Laserebene 7 in das binokular-rektifizierte Bildkoordinatensystem. Danach werden die dreidimensionalen Koordinaten eines Punktes 9 auf der Oberfläche 10 eines Objekts 11, basierend auf einer Messung mittels Stereovision berechnet. Zusätzlich, nachdem die Laserebene 7 nun bekannt ist, wird der Punkt 9 einmal durch Lasertriangulation mittels der ersten Kamera 4 und der Laserebene 7 berechnet und einmal durch Lasertriangulation mittels der zweiten Kamera 5 und der Laserebene 7 berechnet. Somit
liegen in diesem Beispiel drei Berechnungen der dreidimensionalen Koordinaten
N2018/28000-AT-00
eines Punktes 9 vor, welche in einem abschließenden Schritt miteinander verglichen werden können. Stimmen die aufgrund der unterschiedlichen Messergebnisse berechneten dreidimensionalen Koordinaten des Punkts 9 überein, so wurde der Punkt 9 richtig gemessen. Ist das nicht der Fall, so kann es zur Ausgabe einer Fehlermeldung kommen, woraufhin das Verfahren zum Bestimmen der dreidimen-
sionalen Koordinaten des Punktes 9 erneut durchlaufen werden kann.
Die Ausführungsbeispiele zeigen mögliche Ausführungsvarianten, wobei an dieser Stelle bemerkt sei, dass die Erfindung nicht auf die speziell dargestellten Ausführungsvarianten derselben eingeschränkt ist, sondern vielmehr auch diverse Kombinationen der einzelnen Ausführungsvarianten untereinander möglich sind und diese Variationsmöglichkeit aufgrund der Lehre zum technischen Handeln durch gegenständliche Erfindung im Können des auf diesem technischen Gebiet tätigen
Fachmannes liegt.
Der Schutzbereich ist durch die Ansprüche bestimmt. Die Beschreibung und die Zeichnungen sind jedoch zur Auslegung der Ansprüche heranzuziehen. Einzelmerkmale oder Merkmalskombinationen aus den gezeigten und beschriebenen unterschiedlichen Ausführungsbeispielen können für sich eigenständige erfinderische Lösungen darstellen. Die den eigenständigen erfinderischen Lösungen zu-
grundeliegende Aufgabe kann der Beschreibung entnommen werden.
Der Ordnung halber sei abschließend darauf hingewiesen, dass zum besseren Verständnis des Aufbaus Elemente teilweise unmaßstäblich und/oder vergrößert
und/oder verkleinert dargestellt wurden.
N2018/28000-AT-00
15
16
17
18
19
20 21
22
23 24
17
Bezugszeichenliste
3D-Sensoreinheit Lasereinheit Mehrfachkamerasystem
erste Kamera
zweite Kamera Rotationsachse Lasereinheit Laserebene
Punkt Laserebene
Punkt Objektoberfläche Oberfläche
Objekt
Laserstrahl
Reflexionsstrahl erste Kamera Reflexionsstrahl zweite Kamera
Sensor erste Kamera
Sensor zweite Kamera Arbeitsbereich Aufnahmebereich erste Kamera
Aufnahmebereich zweite Kamera
Laserschwenkeinheit Kameraschwenkeinheit erste Kamera Kameraschwenkeinheit zweite Kamera
Rotationsachse erste Kamera Rotationsachse zweite Ka-
mMera
25 26 27 28 29 30
31 32 33 34 35
36
dritte Kamera
Farbkamera Auswerteeinheit Energieversorgungseinheit drahtlose Schnittstelle Kameraschwenkeinheit Farbkamera
Rotationsachse Farbkamera Schwenkvorrichtung Antriebsvorrichtung Aufnahmevorrichtung Rotationsachse 3D-Sensoreinheit
Multilinienlaser
N2018/28000-A T-00

Claims (15)

Patentansprüche
1. Verfahren zum Bestimmen von dreidimensionalen Koordinaten von Punkten (9) auf einer Oberfläche (10) eines Objekts (11), insbesondere eines technischen Bauteils, mit einer 3D-Sensoreinheit (1) umfassend
zumindest eine Lasereinheit (2) und
zumindest ein Mehrfachkamerasystem (3), umfassend wenigstens eine erste Kamera (4) und eine zweite Kamera (5),
wobei die dreidimensionalen Koordinaten eines oder mehrerer Punkte (9) auf der Oberfläche (10) des Objekts (11) mittels trigonometrischer Berechnungsverfahren bestimmt werden,
dadurch gekennzeichnet, dass
die räumliche Lage einer durch die Lasereinheit (2) erzeugten Laserebene (7) mittels des Mehrfachkamerasystems (3) bestimmt wird; und dass
die dreidimensionalen Koordinaten der Punkte (9) auf der Oberfläche (10) des Objekts (11) mittels eines trigonometrischen Berechnungsverfahrens bestimmt werden, wobei das Berechnungsverfahren auf Messergebnissen einer Messmethode basiert, die ausgewählt ist aus der Gruppe umfassend
- Stereovision mittels des zumindest einen Mehrfachkamerasystems (3);
- Lasertriangulation mittels der Laserebene (7) und der ersten Kamera (4);
- Lasertriangulation mittels der Laserebene (7) und der zweiten Kamera (5).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Laserebene (7) über die Rotationsachse (6) der Lasereinheit (2) als Referenzebene be-
stimmt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die dreidimensionalen Koordinaten der Punkte (9) auf der Oberfläche (10) des Objekts (11) mittels eines trigonometrischen Berechnungsverfahrens bestimmt werden, wobei das Berechnungsverfahren auf Messergebnissen einer Kombination von Messmethoden basiert, die ausgewählt sind aus der Gruppe umfassend
- Stereovision mittels des zumindest einen Mehrfachkamerasystems (3);
N2018/28000-AT-00
- Lasertriangulation mittels der Laserebene (7) und der ersten Kamera (4);
- Lasertriangulation mittels der Laserebene (7) und der zweiten Kamera (5).
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Lasereinheit (2) auf einer Laserschwenkeinheit (20) angeordnet ist, welche dazu ausgebildet ist, die Lasereinheit (2) um die Rotationsachse (6) zu verschwenken, wobei ein Rotationswinkel der Lasereinheit (2) mittels des
zumindest einen Mehrfachkamerasystems (3) bestimmt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Lasereinheit (2) mittels der Laserschwenkeinheit (20) um die Rotationsachse (6) über einen Arbeitsbereich (17) geschwenkt wird, in welchem Arbeitsbereich (17) zumindest das Objekt (11), insbesondere ein techni-
sches Bauteil, teilweise oder vollständig lagert.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die 3D-Sensoreinheit (1) zumindest eine dritte Kamera (25) umfasst, die durch eine Farbkamera (26) gebildet ist und mittels welcher Farbinfor-
mationen auf der Oberfläche (10) des Objekts (11) erfasst werden.
7. 3D-Sensoreinheit (1), insbesondere zur Ausführung des Verfahrens nach einem oder mehreren der vorhergehenden Ansprüche, umfassend zumindest eine Lasereinheit (2) und
zumindest ein Mehrfachkamerasystem (3), umfassend wenigstens eine erste Kamera (4) und eine zweite Kamera (5),
dadurch gekennzeichnet, dass die Lasereinheit (2) auf einer Laserschwenkeinheit (20) angeordnet ist, welche dazu ausgebildet ist, die Lasereinheit (2) um eine Ro-
tationsachse (6) zu verschwenken.
N2018/28000-AT-00
8. 3D-Sensoreinheit (1) nach Anspruch 7, dadurch gekennzeichnet, dass ein Arbeitsbereich (17) der 3D- Sensoreinheit (1) durch den Aufnahmebereich (18,
19) des Mehrfachkamerasystems (3) bestimmt wird.
9. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass das Mehrfachkamerasystem (3) als monochromes Mehrfachkamerasystem (3) ausgebildet ist, wobei der Farbbereich durch die Wellenlänge
der Lasereinheit (2) bestimmt wird.
10. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die 3D-Senoreinheit zumindest eine dritte Kamera (25), die durch eine Farbkamera (26) gebildet ist, umfasst, welche dazu ausgebildet ist,
Farbinformationen auf dem zu erfassenden Objekt (11) zu erfassen.
11. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass zumindest eine der Kameras (4, 5) des Mehrfachkamerasystems (3) und/oder die Farbkamera (26) auf einer Kameraschwenkeinheit (21, 22, 30) angeordnet ist, welche dazu ausgebildet ist, die Kamera (4, 5, 26) um eine Ro-
tationsachse (23, 24, 31) zu verschwenken.
12. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass die Laserschwenkeinheit (20) zu dem Mehrfachkamerasystem (3) in der Art positioniert ist, dass die Lasereinheit (2) über den gesamten Aufnah-
mebereich (18, 19) des Mehrfachkamerasystems (3) geschwenkt werden kann.
13. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass die zumindest eine Lasereinheit (2) einen Linienlaser und/oder einen Multilinienlaser (36) umfasst, welche dazu ausgebildet sind, eine Linie
und/oder eine Linienmuster auf ein Objekt (11) zu projizieren.
N2018/28000-AT-00
14. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 13, dadurch gekennzeichnet, dass die 3D-Sensoreinheit (1) eine Schwenk- (32) und/oder Antriebsvorrichtung (33) umfasst, welche dazu ausgebildet ist, die 3D-Sensoreinheit (1) entlang eines zu erfassenden Objektes (11) zu verschwenken und/oder zu ver-
fahren.
15. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet, dass die 3D- Sensoreinheit (1) zumindest eine Auswerteeinheit (27), eine Energieversorgungseinheit (28) und/oder zumindest eine drahtlose Schnittstelle (29) umfasst, wobei die zumindest eine drahtlose Schnittstelle (29)
dazu ausgebildet ist, Daten zu empfangen und/oder zu übertragen.
N2018/28000-AT-00
ATA50006/2019A 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts AT522028B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102019135340.8A DE102019135340A1 (de) 2019-01-07 2019-12-20 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Publications (2)

Publication Number Publication Date
AT522028A1 true AT522028A1 (de) 2020-07-15
AT522028B1 AT522028B1 (de) 2022-12-15

Family

ID=71104448

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Country Status (2)

Country Link
AT (1) AT522028B1 (de)
DE (1) DE102019135340A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113202456B (zh) * 2021-04-21 2023-10-31 中煤科工集团西安研究院有限公司 一种基于图像处理的煤矿井下开孔角度测量装置和方法
CN116698741A (zh) * 2023-04-10 2023-09-05 安徽省(水利部淮河水利委员会)水利科学研究院(安徽省水利工程质量检测中心站) 一种基于机器视觉全自动混凝土试件成型面识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777485A1 (de) * 2004-08-03 2007-04-25 Techno Dream 21 Co., Ltd. Verfahren und vorrichtung zur messung dreidimensionaler formen
US20090245616A1 (en) * 2008-03-26 2009-10-01 De La Ballina Freres Method and apparatus for visiometric in-line product inspection
CN107816942A (zh) * 2017-09-28 2018-03-20 中国东方电气集团有限公司 一种基于十字结构光视觉系统的平面二维尺寸测量方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605950B2 (en) 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
US10708573B2 (en) 2016-01-04 2020-07-07 Occipital, Inc. Apparatus and methods for three-dimensional sensing
DE102016002398B4 (de) 2016-02-26 2019-04-25 Gerd Häusler Optischer 3D-Sensor zur schnellen und dichten Formerfassung
EP3258211B1 (de) 2016-06-17 2023-12-13 Hexagon Technology Center GmbH Bestimmung von reflektionseigenschaften eines objektes in bezug auf eine bestimmte optische messung
DE102016118758A1 (de) 2016-10-04 2018-04-05 Sick Ag Optoelektronischer Sensor und Verfahren zur optischen Erfassung eines Überwachungsbereichs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777485A1 (de) * 2004-08-03 2007-04-25 Techno Dream 21 Co., Ltd. Verfahren und vorrichtung zur messung dreidimensionaler formen
US20090245616A1 (en) * 2008-03-26 2009-10-01 De La Ballina Freres Method and apparatus for visiometric in-line product inspection
CN107816942A (zh) * 2017-09-28 2018-03-20 中国东方电气集团有限公司 一种基于十字结构光视觉系统的平面二维尺寸测量方法

Also Published As

Publication number Publication date
AT522028B1 (de) 2022-12-15
DE102019135340A1 (de) 2020-07-09

Similar Documents

Publication Publication Date Title
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE112011101730B4 (de) System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
EP1681111B1 (de) Verfahren zum Betrieb einer Fertigungseinrichtung
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
WO2005090950A1 (de) Verfahren und system zur inspektion von oberflächen
WO2012019877A1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
EP1910999B1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102018127221B4 (de) Koordinatenmesssystem
EP3900330B1 (de) Aufbau und vermessung eines aufbaus zur kalibrierung einer kamera
AT522028B1 (de) Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
EP3044536A1 (de) Verfahren und vorrichtung zur vermessung von innengewinden eines werkstücks mit einem optischen sensor
EP3414597B1 (de) Verfahren und anordnung zur hochgenauen positionierung einer robotergeführten interaktionsvorrichtung mittels radar
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
EP2819109A1 (de) Vorrichtung umfassend einen optoelektronischen 3D-Sensor und Verfahren zum Erkennen von Objekten
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
DE102016007586A1 (de) Neuartige Vorrichtung/en zum automatischen Aufbringen oder Erzeugen und Überwachen einer auf einem Substrat aufgebrachten Struktur mit Ermittlung von geometrischen Abmessungen sowie ein entsprechendes Verfahren
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
DE102005043070B4 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken
DE102019220364A1 (de) Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten
DE102011084353B4 (de) Verfahren und Computerprogramm zum Einrichten eines Greifroboters, sowie Greifroboter