AT514745A2 - Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten - Google Patents

Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten Download PDF

Info

Publication number
AT514745A2
AT514745A2 ATA50908/2014A AT509082014A AT514745A2 AT 514745 A2 AT514745 A2 AT 514745A2 AT 509082014 A AT509082014 A AT 509082014A AT 514745 A2 AT514745 A2 AT 514745A2
Authority
AT
Austria
Prior art keywords
light
emitting units
camera
activated
emitting
Prior art date
Application number
ATA50908/2014A
Other languages
English (en)
Other versions
AT514745A3 (de
AT514745B1 (de
Inventor
Peter Dipl Ing Priller
Markus Dr Pichler
Achim Dipl Ing Berger
Original Assignee
Avl List Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avl List Gmbh filed Critical Avl List Gmbh
Priority to ATA50908/2014A priority Critical patent/AT514745B1/de
Publication of AT514745A2 publication Critical patent/AT514745A2/de
Priority to PCT/EP2015/079547 priority patent/WO2016096693A1/de
Priority to DE112015005608.4T priority patent/DE112015005608A5/de
Publication of AT514745A3 publication Critical patent/AT514745A3/de
Application granted granted Critical
Publication of AT514745B1 publication Critical patent/AT514745B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, wobei jeder Messpunkt eine individuell ansteuerbare Licht emittierende Einheit (Lh) aufweist. Eine Steuereinheit (9) ist vorgesehen, welche ausgebildet ist, um eine Abfolge an Leuchtmustern (Mn) mit einer ersten Anzahl a(n) an aktivierten Licht emittierenden Einheiten (Lh) und einer zweiten Anzahl b(n) an nicht aktivierten Licht emittierenden Einheiten (Lh) einzustellen. Die Vorrichtung weist zumindest eine Kamera (3,4) zur Aufnahme jedes Leuchtmusters (Mn) aus zumindest zwei unterschiedlichen Kamerapositionen (Kt) und eine Auswerteeinheit (6) auf, die ausgebildet ist, um Bildkoordinaten (u,v) von Licht emittierenden Einheiten (Lh) aus den Aufnahmen für jede Kameraposition (Kt) zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten (x,y,z) der Licht emittierenden Einheiten (Lh) zu berechnen.

Description

Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten.
Eine exakte räumliche Lokalisierung von Messpunkten ist beispielsweise bei der Parametrisierung von Sensoren erforderlich, die auf einem Prüfling, beispielsweise einem Verbrennungsmotor, Antriebsstrang, Fahrzeug etc., in einem Prüfstand angeordnet sind. In solchen Prüfständen werden in der Regel eine Fülle von Sensoren verbaut, um die für die aktuelle Prüfaufgabe notwendigen Daten erfassen zu können. Die Sensoren werden dazu an bestimmten Stellen des Prüflings angebracht und müssen vor einer Messung parametriert werden, um eine korrekte Messung sicherzustellen. Die Parametrierung umfasst dabei die Zuordnung der Sensorart zum Sensor, also die Zuordnung des Sensors zu dessen gemessenen physikalischen Größe, und die Bestimmung der Position des Sensors am Prüfling, also die Messstelle, z.B. Öldruck Zylinderkopf links, oder Abgastemperatur vor Katalysator. Weiters kann die Parametrierung auch die Zuordnung des Sensortyps umfassen, z.B. Drucksensor Typ xyz oder Temperatursensor Typ xyz, um es dem Messsystem zu ermöglichen, die entsprechenden Übertragungsfunktion des Sensors anzuwenden und damit aus dem Messwert auf den am Sensor anliegenden physikalischen Wert rückschließen zu können. Ebenso kann die Parametrierung die Zuordnung der Sensor-Seriennummer oder einer Sensor-Identifikation oder notwendiger Kalibrierdaten umfassen. Diese Daten sind meistens in der Prüfstandsumgebung, z.B. am Prüfstandsrechner oder im Automatisierungssystem, abgelegt. Die Parametrierung erfolgt dabei manuell, d.h. dass ein Prüfstandsingenieur die Parametrierung der verschiedenen Sensoren einzeln vornehmen muss, also die erforderliche Information zuordnen muss, was aufgrund der Vielzahl von Sensoren und der Fülle von zuzuordnender Information eine aufwendige und fehleranfällige Aufgabe ist
Aus der WO 2013/060556 A1 ist ein Verfahren zum Parametrisieren eines Sensors, der auf einem Prüfling in einem Prüfstand angebracht ist, bekannt, bei dem für die Zwecke der Parametrisierung die Position des Sensors im Raum automatisch ermittelt wird. Für die Positionsermittlung sind in der WO 2013/060556 A1 unter anderem Methoden der digitalen Bilderkennung offenbart, wobei die Sensoren mit geeigneten Bildmarken versehen sind, die über die Bilderkennung ausgewertet werden können.
In der Praxis verläuft eine solche Bilderkennung jedoch nicht immer fehlerfrei. Insbesondere in Prüfstandsumgebungen kann die enge räumliche Anordnung der Messpunkte und die teilweise stark reflektierenden Oberflächen (z.B. eines Motors am Prüfstand) zu Fehlmessungen führen.
Die WO 2005/055438 A2 offenbart ein System zur Verfolgung von Anlagegegenständen, die mit optische Lichtsignale aussendenden Markierungen versehen sind. Die von einer Überwachungskamera aufgenommenen Bilder werden ausgewertet, und es wird die Position eines Anlagegegenstandes anhand des codierten Lichtsignals, das von der Markierung ausgesendet wird, ermittelt. Dabei wird das Vorhandensein eines bestimmten Anlagegegenstandes im Kamerabereich ermittelt und der Gegenstand identifiziert. Für eine genaue Bestimmung der exakten räumlichen Position oder der räumlichen Ausrichtung dieses Anlagegegenstandes ist dieses System jedoch nicht geeignet. Auch für eine gleichzeitige Auswertung zahlreicher parallel ausgesandter Lichtsignale erscheint dieses System nicht gut geeignet zu sein, insbesondere wenn Störquellen, wie etwa reflektierende Oberflächen berücksichtig werden müssen.
Es ist ein Ziel der gegenständlichen Erfindung, die Lokalisierung einer Vielzahl von Messpunkten auch in einer engen Umgebung mit stark reflektierenden Objekten mittels einer Auswertung der von einer oder mehreren Kameras aufgenommenen Bilder zu verbessern.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren der eingangs genannten Art gelöst, welches die folgenden Schritte aufweist: Anordnen zumindest einer individuell ansteuerbaren lichtemittierenden Einheit an jedem Messpunkt; Ausführen einer Abfolge von Teilmessungen, jeweils umfassend: Einstellen eines Leuchtmusters mit einer Anzahl an aktivierten lichtemittierenden Einheiten und einer Anzahl an nicht aktivierten lichtemittierenden Einheiten, und Erstellen von Aufnahmen mit zumindest einer Kamera aus zumindest zwei unterschiedlichen Kamerapositionen für jedes Leuchtmuster, wobei jede lichtemittierende Einheit in der Abfolge der Teilmessungen zumindest ein Mal aktiviert wird; Ermitteln der Bildkoordinaten lichtemittierender Einheiten aus den Aufnahmen für jede Kameraposition; und Berechnen von Raumkoordinaten von lichtemittierenden Einheiten aus den ermittelten Bildkoordinaten.
Dank der Erfindung ist es möglich, die Anzahl der aufzunehmenden und zu verarbeitenden Bilder zu minimieren und es ist gleichzeitig sichergestellt, dass jeder Messpunkt auf mehreren Bildern aufscheinen kann, wodurch Bildfehler (z.B. Reflektionen) eliminiert werden können. Die lichtemittierenden Einheiten können dabei im sichtbaren oder im unsichtbaren (z.B. infraroten) Lichtspektrum emittieren.
In vorteilhafter Weise kann jede lichtemittierende Einheit in der Abfolge der m Teilmessungen mehr als ein Mal, vorzugsweise m/2 Mal, aktiviert werden. Dies erhöht die Erkennungsgenauigkeit.
In einer vorteilhaften Ausführungsform ist die Anzahl an aktivierten lichtemittierenden Einheiten bei jedem Leuchtmuster konstant, wobei vorzugsweise bei jedem Leuchtmuster die Anzahl an aktivierten lichtemittierenden Einheiten der Hälfte der Anzahl an lichtemittierenden Einheiten entspricht. Dies erlaubt die Anwendung von Fehlererkennungsalgorithmen und erhöht dadurch die Genauigkeit der Positionsbestimmung.
Ein Teil der lichtemittierenden Einheiten kann in einerweiteren vorteilhaften Ausführungsform als Referenzeinheiten mit bekannten Raumkoordinaten vorgesehen werden, wobei Kamerapositionen aus den Bildkoordinaten der Referenzeinheiten berechnet werden. Es ist daher nicht erforderlich, die Kamera an einer vorgegebenen Position exakt zu positionieren. Da die Kameraposition und deren Ausrichtung bei jeder Aufnahme ermittelt werden können, ist es auch nicht erforderlich, dass die Kamerapositionen bei den unterschiedlichen Teilmessungen übereinstimmen müssen. Daher sind geringe Anforderungen an die Positionierungsgenauigkeit der verwendeten Kameras gestellt. Es kann auch eine einfache Handkamera verwendet werden, die von einem Benutzer während der Messung von Hand geführt werden kann.
In einerweiteren vorteilhaften Ausführungsform kann aus einer Bildkoordinate einer lichtemittierenden Einheit für eine Kameraposition ein Sichtstrahl im Koordinatensystem der Kameraposition ermittelt werden. Durch Schneiden von Sichtstrahlen für eine lichtemittierende Einheit von zumindest zwei Kamerapositionen aus, können die Raumkoordinaten der lichtemittierenden Einheit einfach errechnet werden. Weiters erlaubt der Sichtstrahl das Erkennen von Fehlmessungen.
Um auch eine exakte Berechnung von lichtemittierenden Einheiten zu ermöglichen, die im Randbereich von Kameraaufnahmen liegen, kann in einer vorteilhaften Ausführungsform eine optische Bildverzerrung der Kameras ausgeglichen werden.
Indem in vorteilhafterWeise eine farbliche Kodierung von lichtemittierenden Einheiten ausgewertet wird, kann die Unterscheidbarkeit der lichtemittierenden Einheiten verbessert und dadurch die Anzahl an detektierbaren Leuchtpunkten erhöht werden. Farbliche Kodierung bedeutet hier entweder, dass eine lichtemittierende Einheit in verschiedenen Farben leuchten kann oder in verschiedenen Farben leuchtende lichtemittierende Einheiten zum Einsatz kommen.
In einer vorteilhaften Ausführungsform der Erfindung befinden sich die Messpunkte zumindest teilweise auf Sensoren, wobei vorzugsweise die Messpunkte den Positionen der Sensoren im Raum entsprechen. In einer Variante der Erfindung sind die Sensoren zumindest teilweise auf einem Prüfling in einem Prüfstand angeordnet. Dabei kann es sich um einen beliebigen Prüfstand der eingangs beschriebenen Art handeln. Dies erleichtert die Sensorparametrisierung vor Prüfläufen und ermöglicht eine Automatisierung der Parametrisierung.
In vorteilhafter Weise wird neben der Position auch die räumliche Ausrichtung der Sensoren berechnet. Zu diesem Zweck können beispielsweise mehrere lichtemittierende Einheiten, gegebenenfalls farblich kodiert, einem einzigen Sensor zugeordnet sein. Durch die Auswertung der relativen und absoluten Positionen dieser lichtemittierenden Einheiten kann die räumliche Ausrichtung errechnet werden.
Die erfindungsgemäßen Ziele werden weiters durch ein eingangs genannte erfindungsgemäße Vorrichtung erreicht, bei der jeder Messpunkt eine individuell ansteuerbare lichtemittierende Einheit aufweist, wobei eine Steuereinheit vorgesehen ist, welche ausgebildet ist, um eine Abfolge an Leuchtmustern mit einer ersten Anzahl an aktivierten lichtemittierenden Einheiten und einer zweiten Anzahl an nicht aktivierten lichtemittierenden Einheiten einzustellen, wobei die Vorrichtung zumindest eine Kamera zur Aufnahme jedes Leuchtmusters aus zumindest zwei unterschiedlichen Kamerapositionen aufweist, und wobei die Vorrichtung weiters eine Auswerteeinheit aufweist, die ausgebildet ist, um Bildkoordinaten von lichtemittierenden Einheiten aus den Aufnahmen für jede Kameraposition zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten der lichtemittierenden Einheiten zu berechnen.
In vorteilhafter Weise können die lichtemittierenden Einheiten zumindest teilweise LEDs aufweisen. Diese weisen ein definiertes, gut auswertbares und wählbares Farbspektrum auf und erleichtern dadurch die Erkennung.
In vorteilhafter Weise kann die Vorrichtung einen optischen und/oder elektronischen Lichtfilter für die Aufnahmen aufweisen, wodurch Störlichteinflüsse verringert werden.
In einerweiteren bevorzugten Ausführungsform können lichtemittierende Einheiten zumindest teilweise an einem Sensor auf einem Prüfling in einem Prüfstand angeordnet sein, wobei die Messpunkte den Positionen der Sensoren im Raum entsprechen. Dadurch kann die Vorrichtung bei der Parametrisierung von Prüfständen eingesetzt werden.
Bei einerweiteren vorteilhaften Ausgestaltung können an einem Sensor mehrere lichtemittierende Einheiten angeordnet sein. Einerseits kann dadurch der Sensor aus mehreren unterschiedlichen Richtungen erkannt werden, andererseits kann durch Auswertung der mehreren lichtemittierenden Einheiten die räumliche Ausrichtung des Sensors ermittelt werden.
In einerweiteren vorteilhaften Ausführungsform kann zumindest eine Kamera eine von Hand geführte Kamera sein. Die Verwendung der Vorrichtung lässt sich dadurch für den Benutzer besonders einfach gestalten, beispielsweise kann der Benutzer den Prüfstand zur Parametrisierung einfach von mehreren Seiten aus aufnehmen (etwa indem er mit der Handkamera um den Prüfstand herum geht und diesen aufnimmt), während die Steuereinheit die Leuchtmuster ablaufen lässt. Die Auswerteeinheit ermittelt dann für die Aufnahmen die jeweils zugeordnete Kameraposition (zum Beispiel unter Verwendung von Referenzeinheiten) und weist die Steuereinheit an, falls weitere Messungen erforderlich sind. Gegebenenfalls können auch Steueranweisungen und/oder Warnungen an den Benutzer ausgegeben werden. Zum Beispiel könnten dem Benutzer an einem Display der Kamera Steuersymbole, z.B. Richtungspfeile, angezeigt werden, in die er die Kamera bewegen, drehen und/oder schwenken soll. Die Steuereinheit kann dabei die Abfolge an Leuchtmustern so lange wiederholen, bis der Auswerteeinheit genügend Aufnahmen zur Verfügung stehen, um alle Positionen exakt zu ermitteln.
Die gegenständliche Erfindung wird nachfolgend unter Bezugnahme auf die Figuren 1 bis 3 näher erläutert, die beispielhaft, schematisch und nicht einschränkend vorteilhafte Ausgestaltungen der Erfindung zeigen. Dabei zeigt
Fig. 1 eine schematische Darstellung mehrerer im Raum angeordneter lichtemittierender Einheiten, die von zwei Kamerapositionen erfasst werden,
Fig. 2 eine schematische Darstellung einer Aufnahme von der ersten Kameraposition ^ aus, und
Fig. 3 eine schematische Darstellung einer Prüfstandsanordnung, deren Sensoren mithilfe der erfindungsgemäßen Vorrichtung für die Parametrisierung räumlich erfasst werden.
Fig. 1 zeigt eine Konfiguration, bei der eine Anzahl g=6 von lichtemittierenden Einheiten Lh (h=1, ..., g) an Messpunkten im Raum verteilt angeordnet sind, wobei deren Position mithilfe von zwei Kameras 3, 4 ermittelt wird. Die lichtemittierenden Einheiten Lh emittieren dabei entweder im sichtbaren oder im unsichtbaren Lichtspektrum. Auch Kombinationen, also Einheiten mit jeweils unterschiedlichem Spektrum, sind möglich. Die erste Kamera 3 ist an einer ersten Kameraposition K-i angeordnet und die zweite Kamera 4 ist an einer zweiten Kameraposition K2 angeordnet. Jedem Punkt im Raum sind Raumkoordinaten x,y,z eines raumfesten Koordinatensystems zugeordnet. Der Übersichtlichkeit halber sind in Fig. 1 nur die Raumkoordinaten xKi,yKi.zKi der ersten Kameraposition K1, die Raumkoordinaten Xi_i,yi_i,ZLi der ersten lichtemittierenden Einheit L-i und die Raumkoordinaten xL5,yL5, zL5 der fünften lichtemittierenden Einheit l_5 beispielhaft dargestellt. Auch die Ausrichtung der Kameras 3,4 und der lichtemittierenden Einheiten Lh können im gleichen Koordinatensystem eindeutig definiert werden. Ausrichtung der Kameras 3, 4 bedeutet hierbei im Wesentlichen die Aufnahmerichtung bzw. das erfasste Blickfeld der Kameras 3, 4.
Die lichtemittierenden Einheiten Lh können herkömmliche LEDs sein, die übereine gemeinsame Steuereinheit 5 (siehe Fig. 3) individuell ansteuerbar sind, so dass sie selektiv aktiviert und deaktiviert werden können, wodurch sich jeweils ein Leuchtmuster Mn ergibt. Jede einzelne lichtemittierende Einheit Lh kann also für sich genommen unabhängig von den anderen Einheiten aktiviert und deaktiviert werden. Aktivieren bedeutet hier, dass die lichtemittierende Einheit ein Lichtsignal aussendet, wohingegen Deaktivieren bedeutet, dass die lichtemittierende Einheit kein Lichtsignal aussendet. In Fig. 1 sind die lichtemittierende Einheiten L-i, L4 und L5 gerade aktiviert, und die lichtemittierende Einheiten L2, L3 und L6 sind deaktiviert.
In Fig. 2 ist eine Aufnahme der in Fig. 1 dargestellten Konfiguration aus der Sicht der an der Kameraposition K-i angeordneten Kamera 3 dargestellt. Jeder lichtemittierenden Einheit Lh kann in der Aufnahme eine Bildkoordinate u, v in der zweidimensionalen Bildebene der Kamera 3 zugeordnet werden, wobei in Fig. 2 aus Gründen der Übersichtlichkeit nur die Bildkoordinaten Um, vLi der ersten lichtemittierenden Einheit L-i dargestellt ist. Aufgrund bekannter Eigenschaften der Kamera 3, 4 ist die Position deren zweidimensionalen Bildebene im Raum bekannt. Gegebenenfalls können optische Bildverzerrungen, die von der Linsenoptik der Kamera hervorgerufen werden, korrigiert werden, um insbesondere im Randbereich der Aufnahme fehlerhafte Messergebnisse zu vermeiden. Entsprechende Korrekturfunktionen sind im Fachbereich bekannt.
Durch Auswertung der Aufnahme kann bei bekannter Kameraposition K-i für jede aktivierte lichtemittierende Einheit L-i, L4, L5 ein in Raumkoordinaten definierter Sichtstrahl errechnet werden, der ausgehend von der Kameraposition (bzw. der Position des Abbilds der lichtemittierenden Einheit auf der Bildebene der Kamera) durch die jeweilige lichtemittierende Einheit L-i, L4, L5 verläuft. Da die Auswertung auf Basis des von den lichtemittierende Einheiten Lh abgegebenen Lichtsignals erfolgt, werden die nicht aktivierten lichtemittierenden Einheiten L2, L3, Lg nicht berücksichtigt. In Fig. 1 sind die zwei Sichtstrahlen, die von den beiden Kamerapositionen Ki und K2 durch die lichtemittierende Einheit Li verlaufen, als Strich-Punkt-Linien dargestellt. Zur Ermittlung der exakten Position der lichtemittierenden Einheiten Lh werden für jedes Leuchtmuster die jeweiligen Schnittpunkte der Sichtstrahlen beispielsweise unter Verwendung von Triangulationsverfahren berechnet, wie dies weiter unten detaillierter beschrieben wird.
Zur Bestimmung der Position aller lichtemittierenden Einheiten Lh wird nun eine Abfolge an m unterschiedlichen Leuchtmustern Mn eingestellt, wobei jedes der m Leuchtmuster Mn von beiden Kamerapositionen Ki, K2 aus aufgenommen wird. Es ist bevorzugt, dass die Anzahl a(n) an aktivierten lichtemittierenden Einheiten und die Anzahl b(n) an nicht aktivierten lichtemittierenden Einheiten für jede Teilmessung n konstant sind, sodass bei jeder Teilmessung immer die gleiche Anzahl an lichtemittierenden Einheiten aktiviert ist. Bei einer geraden Anzahl an lichtemittierenden Einheiten kann vorzugsweise jeweils genau die Hälfte der lichtemittierende Einheiten aktiviert und die andere Hälfte deaktiviert sein, sodass gilt a(n)=b(n)=g/2 für alle n. Für jede lichtemittierende Einheit Lh ergibt sich für die Abfolge der m Teilmessungen eine Signalabfolge Ac aktivierter und deaktivierter Zustände. Die Anzahl an möglichen Signalabfolgen Acfür die lichtemittierenden Einheiten Lh (d.h. der Coderaum C) errechnet sich aus der Anzahl m der Teilmessungen und der (konstanten) Anzahl a der bei jeder Teilmessung aktivierten lichtemittierenden Einheiten gemäß der Formel für den Binomialkoeffizient:
Spezifischer ergibt sich bei m Messungen, bei denen jeweils genau die Hälfte (also m/2) der lichtemittierenden Einheiten eingeschalten sind (unter der Annahme, das m eine gerade Zahl ist), der Coderaum C gemäß der Formel:
Für die dargestellte beispielhaften Konfiguration, bei der die Anzahl an Teilmessungen m=6 ist, ergibt sich mit a=m/2=3 ein Coderaum C von 20 möglichen Signalabfolgen Ac. Auf die gleiche Weise ergibt sich für 16 Teilmessungen ein Coderaum C von 12870 möglichen Signalabfolgen Ac. Die Auswahl der Signalabfolgen, die für jede lichtemittierende Einheit Lh gewählt wird, kann jedoch nicht beliebig erfolgen, sondern es muss jede der lichtemittierenden Einheiten Lh im Zuge der m Teilmessungen mindestens ein Mal aktiviert werden, und vorzugsweise wird jede lichtemittierende Einheit mehr als ein Mal aktiviert. Bei einer geraden Anzahl g an lichtemittierenden Einheiten ist es bevorzugt, dass jede lichtemittierende Einheit genau bei der Hälfte der Teilmessungen bzw. der Leuchtmuster Mn aktiviert ist.
In Tabelle 1 sind die möglichen Signalabfolgen Acfür m=6 Teilmessungen und eine beispielhafte Auswahl von Signalabfolgen für sechs lichtemittierende Einheiten Lh dargestellt. Der Coderaum C für eine Signalabfolge Ac von sechs Teilmessungen umfasst 20 unterschiedliche Signalabfolgen Ac. Jeder lichtemittierenden Einheit ist eine bestimmte Signalabfolge zugeordnet, wobei die Auswahl so erfolgt, dass bei jeder Teilmessung die Hälfte der lichtemit- tierenden Einheiten Lh aktiviert, und die andere Hälfte der lichtemittierenden Einheiten Lh deaktiviert sind.
Tabelle 1
Für die einzelnen Leuchtmuster Mn ergibt sich gemäß der in Tabelle 1 getroffenen Auswahl die folgende Abfolge in binärer Darstellung:
Mi=111000 M2 =100110 M3= 010101 M4= 001110 M5=110001 M6= 001011
Das Leuchtmuster M2 entspricht dabei beispielsweise der in Fig. 1 und 2 dargestellten Situation und ist in Tabelle 1 hervorgehoben dargestellt.
Dementsprechend lassen sich die Signalabfolgen Ac für die lichtemittierenden Einheiten bis Lg wie folgt darstellen:
Signalabfolge von L-i = A3 = 110010 Signalabfolge von L2 = A6 = 101010 Signalabfolge von L3 = A9 = 100101 Signalabfolge von L4 = An =011100 Signalabfolge von L5 = A15 = 010101 Signalabfolge von L6 = A19 = 001011
Der Coderaum C bestimmt die maximale Anzahl an lichtemittierenden Einheiten, die mit einer bestimmten Anzahl m an Leuchtmustern Mn unterschieden werden können.
Auch wenn in dem obigen Beispiel sechs lichtemittierenden Einheiten Li bis L6 sechs unterschiedliche Leuchtmuster Mi bis M6 gegenübergestellt sind, ist es nicht erforderlich, dass die Anzahl der lichtemittierenden Einheiten mit der Anzahl der Leuchtmuster übereinstimmt. Es ist lediglich Voraussetzung, dass die Anzahl der lichtemittierenden Einheiten nicht größer ist als die Anzahl der möglichen Signalabfolgen. In dem obigen Beispiel können also maximal 20 unterschiedliche Messpunkte mit lichtemittierenden Einheiten (bzw. Sensoren oder Eie- mente, die mit diesen lichtemittierenden Einheiten gekennzeichnet sind) eindeutig voneinander unterschieden werden.
Zur Positionsbestimmung werden die lichtemittierenden Einheiten Lh nacheinander auf jedes Leuchtmuster Mn (mit n=1 bis m) eingestellt und für jedes Leuchtmuster wird aus mehreren Kamerapositionen Kt (mit t=1 bis s und s>1) zumindest eine Aufnahme erstellt. Dazu können entweder mehrere Kameras mit jeweils bekannten Raumkoordinaten fix installiert sein, es ist jedoch auch möglich, mit einer einzigen Kamera mehrere Aufnahmen aus unterschiedlichen Positionen Kt zu machen. Dabei ist es nicht zwingend erforderlich, dass die Kamerapositionen Kt bei allen Teilmessungen identisch sein müssen, solange die Raumkoordinaten jeder Kameraposition Kt für jede Aufnahme bekannt sind. Zu diesem Zweck können bestimmte lichtemittierende Einheiten Lh mit bekannten Raumkoordinaten vorgesehen sein, die als Referenzeinheiten dienen. Diese Referenzeinheiten können beispielsweise das Raumkoordinatensystem definieren, wobei im Prinzip 6 lichtemittierende Einheiten Lh, die beispielsweise auf den Seitenflächen eines Würfels angeordnet sein können, als Referenzeinheiten ausreichen, um die Raumkoordinaten der Kamera in jeder Kameraposition Kt aus der jeweiligen Aufnahme exakt zu ermitteln.
Es können auch mehr als 6 Referenzeinheiten vorgesehen sein, um sicherzustellen, dass eine Bestimmung der jeweiligen Kameraposition Ktvon allen Lagen aus möglich ist. Durch eine passende Anordnung von Referenzeinheiten kann beispielsweise eine Handkamera für die Positionsbestimmung verwendet werden, wobei ein Benutzer die Anordnung mit der Handkamera mit verändernder Position filmt, während die Leuchtmuster Mn nacheinander eingestellt werden. Sollten nach Durchlauf aller Leuchtmuster Mn die Aufnahmen der Kamera nicht ausreichen, um die Positionen aller lichtemittierender Einheiten genau zu bestimmen, kann dies vom System erkannt, und die Sequenz der Leuchtmuster wiederholt werden. Das System kann den Benutzer automatisch informieren, sobald die Messung abgeschlossen ist. Gegebenenfalls können dem Benutzer auch Anweisungen zur gezielten Veränderung der Kameraposition gegeben werden, um die Positionsermittlung abschließen zu können.
Die im obigen Beispiel dargelegte Anzahl an Leuchtmustern, lichtemittierenden Einheiten, Kameras und Kamerapositionen dient lediglich der Erläuterung und es wurden aus Gründen der Übersichtlichkeit in dem Beispiel eher kleine Werte gewählt. Es liegt im Können eines Durchschnittsfachmanns, die Lehren der gegenständlichen Beschreibung auf zahlreiche andere Ausführungsformen umzulegen.
In einem praxisnäheren Beispiel könnten zum Beispiel mehrere rund um einen Prüfstand an unterschiedlichen Kamerapositionen fix angeordnete Kameras für die Messung verwendet werden (die Auswahl der Anzahl an Kameras und der Positionen erfolgt gemäß den räumli chen Begebenheiten). Wenn von jeder Kamera 16 Bilder zur Auswertung aufgenommen werden, während 16 Leuchtmuster nacheinander eingestellt werden, ist dadurch jedem Sensor eine individuelle, dem jeweiligen Leuchtmuster entsprechende Codesequenz mit 16 bit zugeordnet, über die jeder Sensor eindeutig identifiziert werden kann. Wenn bei jedem Leuchtmuster die Hälfte der LEDs der lichtemittierenden Einheiten ein- und die andere Hälfte der LEDs ausgeschaltet ist, beträgt der gesamte Coderaum 12.870 unterschiedliche Codesequenzen bzw. Leuchtmuster, es ist also theoretisch möglich, mit diesem beispielhaften System 12.870 individuelle Sensoren eindeutig voneinanderzu unterscheiden.
In Fig. 3 ist ein praktisches Anwendungsbeispiel für die erfindungsgemäße Vorrichtung zur räumlichen Lokalisierung von Messpunkten dargestellt. Fig. 3 zeigt schematisch einen Prüfstand 1 mit einem Prüfling 2, wobei der Prüfling ein Verbrennungsmotor ist, dessen Abgas in einem Abgasstrang 7 mündet, der zu einem Katalysator 8 führt. Solche Prüfstandsanordnungen sind hinlänglich bekannt, weshalb hier nicht auf die näheren Details dazu eingegangen wird. Neben einem Verbrennungsmotor kommen natürlich auch noch andere Prüflinge 2, wie z.B. ein Antriebsstrang, ein Getriebe, ein Fahrzeug, etc., in Frage. Am Prüfling 2 sind, wie in einem Prüfstand 1 üblich, eine Reihe von Sensoren 10,11,12,13,14,15 verbaut. Die Sensoren 10,11,12,13,14,15 liefern ihre Messwerte, über ein Kabel oder kabellos, an ein Automatisierungssystem 5, das den Prüfstand 1, den Prüfling 2 und den Prüflauf überwacht und steuert, sowie das Prüflaufergebnis auswertet. Für den Einsatz der Sensoren 10,11,12,13,14,15 müssen diese vorab parametriert werden, damit die Messwerte der Sensoren 10,11,12,13,14,15 in korrekte physikalische Größen umgesetzt werden können. Dem Automatisierungssystem 5 muss somit zumindest bekannt sein, von wo am Prüfling ein Messwert herrührt und was der dort befindliche Sensor 10,11,12,13,14,15 misst. Das muss dem Automatisierungssystem 5 vor dem Start des Prüflaufes bekannt gegeben werden.
Zu diesem Zweck ist jeder Sensor 10,11,12,13,14,15 mit einem Messpunkt und einer zugeordneten lichtemittierenden Einheit Lh versehen, wobei jede lichtemittierende Einheit Lh im Wesentlichen aus einer Schalteinheit mit einer darauf angeordneten LED besteht, die von der Schalteinheit aktiviert und deaktiviert wird. Die LEDs können auf dem Gehäuse, in dem sich die Schalteinheit der lichtemittierenden Einheit befindet, erhaben angeordnet sein, damit sie von einem möglichst großen Bereich rund um den Prüfstand aus eingesehen werden können. Die Schalteinheiten erhalten entweder kabelgebunden oder kabellos Schaltanweisungen von einer Steuereinheit 9, die mit dem Automatisierungssystem 5 und einer Auswerteeinheit 6 in Verbindung steht. Zwei Kameras 3, 4 sind an bestimmten Kamerapositionen K-i, K2 so angeordnet, dass sie den gesamten Bereich des Prüfstands 1, in dem sich Sensoren 10,11,12,13,14,15 befinden, mit ihrem jeweiligen Bildbereich abdecken. Sollte dies nicht möglich sein, können entweder zusätzliche Kameras an weiteren Kamerapositionen Kt instal- liert werden. Andererseits können auch mobile Kameras verwendet werden, wie dies oben beschrieben ist.
Die Steuereinheit 9 steuert die Leuchtmuster Mn bzw. die jeweiligen Signalabfolgen Ac der einzelnen lichtemittierenden Einheiten Lh, und koordiniert die Leuchtmuster mit den Aufnahmen, die von den Kameras 3,4 aufgezeichnet werden. Die von den Kameras 3,4 aufgezeichneten Aufnahmen werden in der Auswerteeinheit 6 (die gegebenenfalls in die Steuereinheit integriert sein kann) ausgewertet, wobei jedem Messpunkt von der Auswerteeinheit 6 eine entsprechende Raumkoordinate zugeordnet wird.
Die Kameras 3, 4 können mit einem für die Lichtfrequenz der lichtemittierenden Einheiten Lh spezifischen Filter versehen sein, um Störlicht herauszufiltern. Sollten dennoch Fehlmessungen auftreten, zum Beispiel aufgrund von Spiegelungen an Oberflächen aus Metall, Glas oder Keramik, können diese von der Auswerteeinheit 6 erkannt und korrigiert bzw. verworfen werden. Dabei erkennt die Auswerteeinheit 6, wenn die Anzahl der ermittelten aktivierten lichtemittierenden Einheiten nicht mit dem jeweiligen Leuchtmuster Mn übereinstimmt, oder wenn ein für eine lichtemittierende Einheit für eine erste Kameraposition K-i ermittelter Sichtstrahl sich nicht mit den Sichtstrahlen schneiden, die für dieselbe lichtemittierende Einheit von einer anderen Kameraposition aus ermittelt wird. Sollte bei der Positionsbestimmung kein eindeutiges Ergebnis ermittelt werden können, kann die Steuereinheit 9 die Messsequenz wiederholen und/odereine Fehlermeldung ausgeben und/odervom Benutzer weitere Kamerapositionen fordern, bzw. eine Kameraposition selbsttätig verändern, sofern Mittel dazu vorgesehen sind.
Es ist vorteilhaft, wenn sich der Bildhintergrund während einer Messsequenz möglichst nicht ändert, weshalb es auch von Vorteil ist, wenn die Messsequenz möglichst schnell abgearbeitet wird, sodass sich nur geringe Änderungen, z.B. aufgrund einer sich während der Zeit ändernde Lichtsituation, ergeben.
In der in Fig. 3 dargestellten Ausführungsform ist jeder Sensor 10,11,12,13,14,15 mit genau einer lichtemittierenden Einheit Lh versehen, wobei die LED der lichtemittierenden Einheit den jeweiligen Messpunkt definiert. In alternativen Ausführungsformen kann es gewünscht sein, auch die räumliche Ausrichtung des Sensors messen zu können. Dazu könnten Sensoren, bei denen das erforderlich ist, mit mehreren lichtemittierenden Einheiten Lh versehen werden, aus deren Positionsverhältnis zueinander die räumliche Ausrichtung des Sensors ermittelt werden kann. So könnte beispielsweise ein einziges Bauelement mit mehreren LEDs versehen sein, die jeweils eine lichtemittierende Einheit darstellen, und die gegebenenfalls von einer gemeinsamen Schalteinheit betätigt werden. Das Bauelement könnte beispielsweise ein Würfel, Quader, Tetraeder oder eine andere definierte dreidimensionale
Form sein, auf deren Seitenflächen die LEDs angeordnet sind. Eine Seitenfläche könnte frei bleiben, um an dem entsprechenden Sensorgehäuse angebracht zu werden. Solche Bauelemente könnten auch für die weiter oben beschrieben Ermittlung der Kamerapositionen verwendet werden.
In einerweiteren alternativen Ausführungsform könnten auch LEDs mit unterschiedlicher Lichtfarbe als lichtemittierende Einheiten verwendet werden. Dies erlaubt es, mehrere unterschiedliche Gruppen an lichtemittierenden Einheiten anhand ihrer Lichtfarbe mithilfe von Kamerafiltern oder Softfiltern unabhängig von den Gruppen mit einer anderen Farbe auszuwerten. Diese Ausführungsform könnte beispielsweise auch verwendet werden, um bestimmten definierten Seitenflächen eines Bauelements zur leichteren Auswertung der räumlichen Ausrichtung der Sensoren jeweils einer bestimmten Farbe zuzuordnen.
Liste der Bezuaszeichen und Variablen:
Prüfstand (1)
Prüfling (2)
Kamera (3, 4)
Automatisierungssystem (5)
Auswerteeinheit (6)
Abgasstrang 7 Katalysator 8 Steuereinheit 9 Sensor (10,11,12,13, 14,15)
Licht emittierende Einheit (Lh)
Kamerapositionen (Kt)
Leuchtmusters (Mn)
Raumkoordinaten (x,y,z)
Bildkoordinaten (u,v)
Signalabfolge Ac n Ordinalzahl der Teilmessung m Anzahl der Teilmessungen h Ordinalzahl des Messpunkts/der Licht emittierenden Einheit g Anzahl an Messpunkten/Licht emittierenden Einheiten a(n) Anzahl an aktivierten Licht emittierenden Einheiten b(n) Anzahl an nicht aktivierten Licht emittierenden Einheiten t Ordinalzahl der Kameraposition s Anzahl an Kamerapositionen c Ordinalzahl der Signalabfolge C Coderaum

Claims (16)

  1. Patentansprüche 1. Verfahren zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, wobei das Verfahren durch die folgenden Schritte gekennzeichnet ist: - Anordnen zumindest einer individuell ansteuerbaren lichtemittierenden Einheit (Lh) an jedem Messpunkt; - Ausführen einer Abfolge von n = 1 bis m Teilmessungen, jeweils umfassend: o Einstellen eines Leuchtmusters (Mn) mit einer Anzahl a(n) an aktivierten lichtemittierenden Einheiten (Lh) und einer Anzahl b(n) an nicht aktivierten lichtemittierenden Einheiten (Lh), und o Erstellen von Aufnahmen mit zumindest einer Kamera (3, 4) aus zumindest zwei unterschiedlichen Kamerapositionen (Kt) für jedes Leuchtmuster (Mn), wobei jede lichtemittierende Einheit (Lh) in der Abfolge der Teilmessungen zumindest ein Mal aktiviert wird; Ermitteln der Bildkoordinaten (u, v) lichtemittierender Einheiten (Lh) aus den Aufnahmen für jede Kameraposition (Kt); und Berechnen von Raumkoordinaten (x,y,z) von lichtemittierenden Einheiten (Lh) aus den ermittelten Bildkoordinaten (u, v).
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jede lichtemittierende Einheit (Lh) in der Abfolge der m Teilmessungen mehr als ein Mal, vorzugsweise m/2 Mal, aktiviert wird.
  3. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Anzahl a(n) an aktivierten lichtemittierenden Einheiten (Lh) bei jedem Leuchtmuster (Mn) konstant ist, wobei vorzugsweise bei jedem Leuchtmuster (Mn) die Anzahl a(n) an aktivierten lichtemittierenden Einheiten (Lh) der Hälfte der Anzahl g an lichtemittierenden Einheiten (Lh) entspricht.
  4. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Teil der lichtemittierenden Einheiten (Lh) als Referenzeinheiten mit bekannten Raumkoordinaten vorgesehen werden, und dass Kamerapositionen (Kt) aus den Bildkoordinaten der Referenzeinheiten berechnet werden.
  5. 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass aus einer Bildkoordinate einer lichtemittierenden Einheit (Lh) für eine Kameraposition (Kt) ein Sichtstrahl im Koordinatensystem der Kameraposition ermittelt wird.
  6. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass eine optische Bildverzerrung der Kameras (3, 4) ausgeglichen wird.
  7. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass eine farbliche Kodierung von lichtemittierenden Einheiten (Lh) ausgewertet wird.
  8. 8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass sich die Messpunkte zumindest teilweise auf Sensoren (10, 11, 12, 13, 14, 15) befinden, wobei vorzugsweise die Messpunkte den Positionen der Sensoren im Raum entsprechen.
  9. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Sensoren (10, 11, 12, 13, 14, 15) zumindest teilweise auf einem Prüfling (2) in einem Prüfstand (1) angeordnet sind.
  10. 10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Position und die räumliche Ausrichtung der Sensoren (10, 11, 12, 13, 14, 15) berechnet werden.
  11. 11. Vorrichtung zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, dadurch gekennzeichnet, dass jeder Messpunkt eine individuell ansteuerbare lichtemittierende Einheit (Lh) aufweist, wobei eine Steuereinheit (9) vorgesehen ist, welche ausgebildet ist, um eine Abfolge an Leuchtmustern (Mn) mit einer ersten Anzahl a(n) an aktivierten lichtemittierenden Einheiten (Lh) und einer zweiten Anzahl b(n) an nicht aktivierten lichtemittierenden Einheiten (Lh) einzustellen, wobei die Vorrichtung zumindest eine Kamera (3,4) zur Aufnahme jedes Leuchtmusters (Mn) aus zumindest zwei unterschiedlichen Kamerapositionen (Kt) aufweist, und wobei die Vorrichtung weiters eine Auswerteeinheit (6) aufweist, die ausgebildet ist, um Bildkoordinaten (u,v) von lichtemittierenden Einheiten (Lh) aus den Aufnahmen für jede Kameraposition (Kt) zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten (x,y,z) der lichtemittierenden Einheiten (Lh) zu berechnen.
  12. 12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die lichtemittierenden Einheiten (Lh) zumindest teilweise LEDs aufweisen.
  13. 13. Vorrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die Vorrichtung einen optischen und/oder elektronischen Lichtfilter für die Aufnahmen aufweist.
  14. 14. Vorrichtung nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass lichtemittierende Einheiten (Lh) zumindest teilweise an einem Sensor (10,11,12,13,14,15) auf einem Prüfling (2) in einem Prüfstand (1) angeordnet sind, wobei die Messpunkte den Positionen der Sensoren (10,11,12,13,14,15) im Raum entsprechen.
  15. 15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass an einem Sensor (10,11,12,13,14,15) mehrere lichtemittierende Einheiten (Lh) angeordnet sind.
  16. 16. Vorrichtung nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass zumindest eine Kamera (3,4) eine von Hand geführte Kamera ist.
ATA50908/2014A 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten AT514745B1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten
PCT/EP2015/079547 WO2016096693A1 (de) 2014-12-15 2015-12-14 Verfahren und vorrichtung zur räumlichen lokalisierung einer anzahl an messpunkten
DE112015005608.4T DE112015005608A5 (de) 2014-12-15 2015-12-14 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Publications (3)

Publication Number Publication Date
AT514745A2 true AT514745A2 (de) 2015-03-15
AT514745A3 AT514745A3 (de) 2016-02-15
AT514745B1 AT514745B1 (de) 2023-03-15

Family

ID=52598885

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Country Status (3)

Country Link
AT (1) AT514745B1 (de)
DE (1) DE112015005608A5 (de)
WO (1) WO2016096693A1 (de)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU753931B2 (en) * 1998-04-03 2002-10-31 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
DE19928341C2 (de) * 1999-06-21 2002-06-20 Inb Vision Ag Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
ES2304938T3 (es) * 2000-09-11 2008-11-01 Leica Geosystems Ag Metodo para identificar puntos de medida en un sistema de medida optico.
US8625854B2 (en) * 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
AT510674B1 (de) * 2011-10-27 2014-05-15 Avl List Gmbh Verfahren und eine vorrichtung zum parametrieren eines sensors

Also Published As

Publication number Publication date
DE112015005608A5 (de) 2017-09-07
AT514745A3 (de) 2016-02-15
AT514745B1 (de) 2023-03-15
WO2016096693A1 (de) 2016-06-23

Similar Documents

Publication Publication Date Title
EP1701801B1 (de) Verfahren zum erkennen einer auf einem substrat aufzubringenden struktur mit mehreren kameras sowie eine vorrichtung hierfür
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE102015010225B4 (de) Bohrungsinspektionsvorrichtung
DE102013013791B4 (de) Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen
DE102011114674B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102009032771B4 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
DE102014118844A1 (de) Prüfvorrichtung
DE10143504A1 (de) Überwachungsverfahren und optoelektronischer Sensor
EP0923705B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen
DE102013111761B4 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102017116758A1 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
DE102015013551B4 (de) System und Verfahren zur Positions-und Lagebestimmung von Objekten
WO2019185079A1 (de) 3-d-objekt-erfassungssystem
DE102017122627A1 (de) Optisches Messsystem und Messverfahren
DE102008036710A1 (de) Messsystem und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
AT514745B1 (de) Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten
DE202015104751U1 (de) Vorrichtung zur Inspektion von auf einer Materialbahn angeordneten Erzeugnissen
DE102020132179A1 (de) Verfahren und Vorrrichtung zur photogrammetrischen Vermessung
DE102017205720A1 (de) Integrierter Kalibrierkörper
DE102019111499A1 (de) Messeinrichtung und Verfahren zum dreidimensionalen Vermessen von Objekten
DE102016205637A1 (de) Gelenkarm-koordinatenmessgerät mit einer 2d-kamera und verfahren zum erhalten von 3d-darstellungen
EP3077765B1 (de) Verfahren zum auslesen eines zweidimensionalen codes mittels einer kamera zur dreidimensionalen optischen vermessung von objekten
EP3762683B1 (de) Verfahren und vorrichtung zum ermitteln einer höhenprofilabbildung einer oberfläche eines objekts
DE102016011554A1 (de) Verfahren zur Darstellung von Fehlern an Werkstücken

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20231215