DE3919917C2 - - Google Patents

Info

Publication number
DE3919917C2
DE3919917C2 DE3919917A DE3919917A DE3919917C2 DE 3919917 C2 DE3919917 C2 DE 3919917C2 DE 3919917 A DE3919917 A DE 3919917A DE 3919917 A DE3919917 A DE 3919917A DE 3919917 C2 DE3919917 C2 DE 3919917C2
Authority
DE
Germany
Prior art keywords
light sources
matrix
optical sensor
sensitive component
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3919917A
Other languages
English (en)
Other versions
DE3919917A1 (de
Inventor
Torsten Dipl.-Ing. 6804 Ilvesheim De Olbrecht
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pepperl and Fuchs SE
Original Assignee
Pepperl and Fuchs SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pepperl and Fuchs SE filed Critical Pepperl and Fuchs SE
Priority to DE3919917A priority Critical patent/DE3919917A1/de
Publication of DE3919917A1 publication Critical patent/DE3919917A1/de
Application granted granted Critical
Publication of DE3919917C2 publication Critical patent/DE3919917C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Die Erfindung betrifft einen optischen Sensor zum Identifizieren eines Körpers gemäß dem Oberbegriff des Anspruchs 1.
Bildverarbeitende Systeme bestehen stets aus den Komponenten Bildaufnehmer- und Bildverarbeitungssystem, die aufgrund der hohen Komplexität meist örtlich voneinander getrennt werden müssen. Die wünschenswerte Eigenschaft, die Intelligenz in den eigentlichen Sensor zu implementieren, ist nur bedingt oder überhaupt nicht möglich.
Bildaufnehmersysteme betrachten stets die gesamte Szene, beschränken also ihren Informationsgehalt nicht auf das für die eigentliche Aufgabe notwendige Maß. Zur Extrahierung der gewünschten Information aus der großen Datenmenge müssen deshalb komplizierte und zeitaufwendige Algorithmen angewandt werden.
Bei der Positionierung von Aktoren (z. B. Roboterarm) auf ein Objekt sind oftmals verschiedene Zusatzinformationen notwendig. Beispielsweise muß bei einer Betrachtung der Szene von oben herab die Größe des Objekts, die Größe des Roboterarms und der Abstand zwischen Bildaufnehmer und Szene bekannt sein, um einen absoluten Positionierbetrag zu erhalten. Bei Veränderungen der örtlichen Gegebenheiten muß das System neu parametriert werden.
Kamerabildaufnehmersysteme sehen stets zweidimensional, das heißt, sie spannen eine x-y-Ebene ohne Tiefenwirkung (z-Ebene) auf. Für dreidimensionale Problemstellungen sind oft zwei Bildaufnehmer erforderlich. Die Informationen beider Aufnehmer muß in geeigneter Weise zusammengeführt werden, um einen räumlichen Eindruck des Objektes zu erhalten.
Des weiteren sind optische Taster und Reflexschranken bekannt. Mit optischen Tastern unter Zuhilfenahme von Lichtleitern oder mit Reflexschranken wäre es möglich eine x-y-Ebene aufzuspannen. Um eine hinreichende Auflösung zu erzielen sind allerdings sehr viele Einzelkomponenten notwendig, die in ihrer Anordnung unflexibel sind und viel Platz in Anspruch nehmen.
Ebenso sind positionsempfindliche Bauelemente (PSD) bekannt, deren sensitive Fläche eine Position zu identifizieren imstande ist, aufgrund eines empfangenen Beleuchtungssignals. Entsprechend dem Einfallswinkel des Beleuchtungssignals gibt die positionsempfindliche Diode ein entsprechendes elektrisches Signal ab, welches weiterverarbeitet werden kann.
Durch die DE-33 37 251 A1 ist ein optisches Abtastverfahren zur dreidimensionalen Vermessung von Objekten mit einer eindimensionalen Empfängerzeile bekannt geworden, welches auf der Triangulationsmethode beruht. Zur optischen Adressierung eines Meßpunktes werden der parallel zu sich selbst bewegbare Beleuchtungs- und Beobachtungsstrahl über je einen mechanischen Lichtablenker geführt, der ein Spiegelrad ist, welches so synchronisiert ist, daß die durch die Abtastung entstehende Verschiebung des auf dem Objekt erzeugten Lichtflecks relativ zum Empfänger kompensiert wird. Nachteilig in der Anordnung sind die bewegten Elemente, wie Spiegelrad und Linsen.
Aufgabe zur Erfindung ist es, einen optischen Sensor der eingangs genannten Gattung zu schaffen, der die notwendig anfallende Datenmenge auf das notwendigste Maß reduziert und die ausgewerteten Informationen ohne Umwege und externer Verarbeitung dem Aktor zur Verfügung stellt, wobei die Erfassung von Objekten im dreidimensionalen Raum möglich sein soll; ebenso soll der optische Sensor so kompakt ausgeführt sein, daß er in einem Aktor integriert werden kann.
Diese Aufgabe wird gelöst durch die Merkmale des Anspruchs 1. Weitere Ausgestaltungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
Der erfindungsgemäße optische Sensor arbeitet nach dem Triangulationsprinzip und wertet die diffuse Reflexion des Objektes aus. Dabei sollte die optische Rauhigkeit des Objekts größer als 2 Mikrometer sein. In vorteilhafter Weise reduziert der Sensor die anfallenden Datenmengen aufgrund seines Wirkungsprinzips auf das notwendige Maß an Datenmengen, wobei die Auswertung der Information, vorzugsweise mittels eines integrierten Mikroprozessors, ohne Umwege und ohne einer externen Verarbeitung im Sensor stattfindet und dem Aktor zur Verfügung steht. In vorteilhafter Weise kann der optische Sensor Objekte sowohl im Raum als auch zweidimensional in einer Ebene identifizieren.
Ein mit dem erfindungsgemäßen Sensor ausgestatteter Aktor besitzt in vorteilhafter Weise eine hohe Flexibilität, weil der Sensor leicht in einen Aktor zu integrieren ist. Da der Sensor einfach in seinem Aufbau ist, ist er auch gegenüber Umgebungseinflüssen, wie unterschiedliche Intensität des empfangenen Lichts, unempfindlich. Durch die beliebige Wählbarkeit der Anzahl der Lichtquellen kann ein praktisch beliebiges Auflösungsvermögen des Sensors erzielt werden.
Eine dreidimensionale Identifizierung eines Objektes kann auf mehrfache Weise erzielt werden. Entweder können sich die Lichtquellen in einer Matrix in mehreren Reihen, zum Beispiel kaskadenartig, parallel zueinander befinden, so daß schon die Lichtquellen eine Ebene aufspannen. Aufgrund der Wirkungsweise der PSD's und der Triangulations-Meßmethode kann dann ein Objekt im Raum eindeutig identifiziert und dessen Lage bestimmt werden.
Ebenso ist es möglich, nur mit einer einzigen Zeile von Lichtquellen zu arbeiten und in diesem Fall zur Bestimmung der Lage im Raum den Sensor in der dritten Raumrichtung zu verfahren.
Die Lichtquellen werden diskret nacheinander angesteuert - vorzugsweise durch einen Multiplexer - und senden vorteilhafterweise kurze Lichtblitze aus, welche nacheinander von den positionsempfindlichen Bauelementen empfangen und deren elektrische Signale von einer Auswerteelektronik ausgewertet werden.
Zwei Beispiele der Erfindung sind in der Zeichnung dargestellt, in der zeigen:
Fig. 1 ein Ausführungsbeispiel eines optischen Sensors mit geschnittenem Gehäuse,
Fig. 2 eine Draufsicht auf das Gehäuse von vorn zur Darstellung der Zeile von Lichtquellen und
Fig. 3 eine Prinzip-Darstellung des Sensors.
Die prinzipielle Wirkungsweise des Sensors ist anhand der Fig. 3 nachfolgend beschrieben. Eine beliebige - aber nicht unnötig große - Anzahl n von Lichtquellen 14 mit möglichst kleinem Strahldurchmesser und Divergenzwinkel (Beam) befinden sich in einer Reihe nebeneinander mit den gegebenen Basisweiten Bi und erzeugen die Sendestrahlen S₁ bis Sn. Sie stellen die ortsdiskrete x-Koordinatenachse des Systems dar (i = 1 . . . n). In dieser Anordnung befinden sich auf der linken und rechten Seite jeweils eine Empfangsoptik 16, 16′ und eine Positionsdiode 17, 17′ in einem bestimmten Winkel β bezüglich der x-Koordinatenachse.
Bei einem gegebenen Winkelbereich, Wmax, Wmin, spannen die Empfangsoptiken 16, 16′ mit den Sendestrahlen S₁- Sn eine optisch aktive Ebene auf, innerhalb derer sich das Objekt 15 befinden muß. Für die folgenden Betrachtungen soll nur die linke Empfangsanordnung, bestehend aus Empfangsoptik 16 und Positionsdiode 17, herangezogen werden; für die Empfangsoptik 16′ und die Positionsdiode 17′ gelten bis auf i = n . . . 1 die gleichen Aussagen.
Die Sendestrahlen S₁-Sn werden in zeitlicher Reihenfolge nacheinander erzeugt. Hierbei handelt es sich um kurze Lichtblitze, von links nach rechts laufend. Befindet sich ein Objekt 15 in der optisch aktiven Ebene bzw. im optisch aktiven Raum, so erzeugt jeder Sendestrahl S₁ . . . Sn einen diffusen Leuchtfleck auf dem Objekt. Dieser Leuchtfleck wiederum wird an einer bestimmten Position pi auf der Positionsdiode abgebildet. Anhand dieser Position kann die Entfernung Di des Punktes Pi bestimmt werden. Man erhält damit ein Entfernungsfeld der Form:
F = (D1, D2, . . . Dn).
Die kontinuierliche Distanz Di stellt die y-Koordinate dar, während die Basisweite Bi die entsprechende ortsdiskrete x-Koordinate repräsentiert. Diesem Entfernungsfeld F kann folgender Informationsgehalt entnommen werden:
A. Identifizierung des Objektes
Mittels Korrelation des gemessenen mit einem abgespeicherten Entfernungsfeld ist eine Identifizierung des Objekts möglich. Eigentlich wird hierbei die Kontur ermittelt und mit Referenzkonturen verglichen.
B. Orientierung
Nach erfolgter Identifizierung es - ebenfalls mittels Korrelation - möglich, die Orientierung (Verdrehung) bezüglich des x-y-Koordinatensystems zu definieren. Wertet man diese Informationen aus, so kann aufgrund der mittels des Sensors gewonnenen Informationen ein Winkel berechnet werden, um den sich ein mittels des Sensors gesteuerter Aktor zu drehen hätte, damit das Objekt gegriffen werden kann.
C. Positionsbestimmung
Mittels geeigneter Verfahren läßt sich ein Vektor mit Richtung und Betrag ermitteln, der dem Aktor die Information übermittelt, um ein Objekt zu ergreifen.
Deshalb ermittelt dieses Sensorprinzip gerade nur die Daten, die für die oben genannten Aufgaben notwendig sind. Zum Beispiel ergeben 32 Sendestrahlen mit einer Entfernungsauflösung von 8 Bit ein Entfernungsfels F mit 32 Byte.
Der Hauptstrahlungswinkel α der Sendestrahlen S₁-Sn in bezug zur Richtung der x-Koordinate ist vorgebbar und beträgt vorzugsweise 90 Grad. Die Abstände Bi der einzelnen Sendestrahlen S₁-Sn voneinander sind ebenfalls vorgebbar, müssen aber nicht konstant sein. Die dritte Raumkoordinate, hier die Z-Achse, kann auch durch Kaskadierung gewonnen werden.
In vorteilhafter Weise werden die analogen Signalströme der beiden positionsempfindlichen Dioden PSD's in je ein digitales Wort verwandelt, um im Mikroprozessorsystem weiterverarbeitet zu werden. Deshalb muß spätestens nach der Berechnung der Position p eines Punktes P eine diskrete Wandlung mittels eines Analog-Digital-Wandlers erfolgen.
Die folgenden Größen der geometrisch-optischen Anordnung sind vorgegeben:
Dmin = minimale Distanz der optisch aktiven Ebene
(= minimale y-Koordinate),
Dmax = maximale Distanz der optisch aktiven Ebene
(= maximale y-Koordinate),
Bmin = minimale Basisweite (= minimale x-Koordinate) entspricht hier dem linken Rand der aktiven Ebene,
Bmax = maximale Basisweite (= maximale x-Koordinate) entspricht hier dem rechten Rand der aktiven Ebene,
Dx = gewünschte Auflösung auf der diskreten x-Koordinatenachse.
Die Anzahl der notwendigen Sendestrahlen N läßt sich dann mit
berechnen. Man erhält somit die diskrete x-Koordinate in Form:
Bi = Bmin + (i-1) Dx
i = 1 . . . N (i = Laufindex der diskreten x-Koordinate)
Anhand dieser Größe läßt sich der notwendige Winkelbereich β der Empfangsoptik berechnen.
Des weiteren zeigen die Fig. 1 und 2 eine technische Ausführungsform des optischen Sensors. Innerhalb eines Gehäuses 11, welches als Greiferhand mit zwei seitlichen Gehäuseenden 10, 10′ ausgeführt ist, befindet sich ein Linsenblock 1, über dem als Gehäusewandung eine lichtdurchlässige Abdeckscheibe 5, vorzugsweise aus Mineralglas, angeordnet ist. Unterhalb des Linsenblocks 1 befindet sich eine Zeile 13 (Fig. 2) von Lichtquellen, die vorzugsweise LED's sind. Der Linsenblock 1 dient zur Fokussierung der von den LED's ausgesendeten Lichtstrahlen; Linsenblock 1 und LED-Zeile 13 bilden zusammen die Senderanordnung des Sensors.
Die Abdeckscheibe 5 an beiden Enden seitlich hochgezogen und geht in die Gehäusewandung der Gehäuseenden 10, 10′ über, wobei unterhalb dieser hochgezogenen Enden der Abdeckscheibe 5 je eine Empfangsoptik 3, 3′ angeordnet ist, unterhalb derselben sich je eine positionsempfindliche Diode 4, 4′ befinden. Die Dioden sind jeweils unter einem stumpfen Winkel β, bezogen auf die oben genannte X-Achse, zueinander geneigt angeordnet. Im unmittelbaren Bereich der Dioden 4, 4′ befindet sich je eine Empfangselektronik 6, 6′, die sich somit ebenfalls vorzugsweise in den Gehäuseenden 10, 10′ des Gehäuses 11 befinden.
Die LED's werden mittels einer Sendeelektronik 7 angesteuert, die einen Multiplexer beinhaltet, um die einzelnen Lichtquellen zeitlich nacheinander anzuregen. Des weiteren befindet sich innerhalb des Gehäuses 11 eine Auswerteelektronik 8, die u. a. einen Digital-Analog-Wandler beinhaltet und die die Ausgangssignale der positionsempfindlichen Dioden 4, 4′ bzw. der Empfangselektronik 6, 6′ weiterverarbeitet. Mit der Bezugsziffer 9 ist eine Steckverbindung gekennzeichnet, zum Übermitteln der Ausgangssignale zum (nicht gezeigten) Aktor.
Die maximalen Empfangswinkel der positionsempfindlichen Dioden spannen eine aktive Ebene 12 bzw. einen aktiven Raum auf, innerhalb der sich ein Objekt befinden muß, um identifiziert zu werden, wobei in der Ebene oder im Raum die absolute Lage des Objektes oder auch des Sensors selbst bestimmt werden kann.
Der erfindungsgemäße optische Sensor ist dazu geeignet, beispielsweise in Roboterarmen die Lage eines zu greifenden Objektes zu bestimmen, damit das­ selbe von den Greifern angesteuert und ergriffen werden kann. Ebenso kann der optische Sensor zum Identifizieren von Objekten in der zweidimensionalen Ebene dienen. Ebenso können damit Objekte dreidimensional identifiziert und Ober­ flächenstrukturen erfaßt werden. Ebenso können mit dem Sensor Rotationen eines Aktors vorgegeben werden.
Liste der Bezugszeichen:
1 Linsenblock
2 LED-Zeile diskrete LED's
3, 3′ Empfangsoptiken
4, 4′ positionsempfindliche Bauelemente, vorzugsweise PSD's
5 lichtdurchlässige Abdeckscheibe
6, 6′ Empfangselektroniken
7 Sendeelektronik
8 Auswerteelektronik mit Mikrocomputer-Einheit
9 Steckverbinder
10, 10′ Gehäuseenden
11 Gehäuse
12 aktive Ebene oder aktiver Raum
13 Linienzeile der einzelnen Linsen des Linsenblocks
14 Lichtquellen
15 Objekt
16, 16′ Empfangsoptiken
17, 17′ positionsempfindliche Bauelemente (PSD-Dioden)
S₁-Sn Sendestrahlen
Bi Abstand der diskreten Lichtquelle voneinander
pn-1-p₁ Orte des Empfangssignals auf der PSD-Diode
α Hauptstrahlungswinkel des gesendeten Lichtes zur X-Koordinate
β (stumpfer) Winkel der Optik und der PSD-Diode zur X-Koordinate

Claims (6)

1. Optischer, nach dem Triangulationsprinzip arbeitender Sensor für die Identifi­ zierung eines Körpers und/oder Bestimmung der Lage des Körpers oder Sensors im Raum bezüglich eines gegebenen Koordinatensystems, vorzugsweise zur Steuerung eines Aktors, mit einem Sendelichtstrahl, der zu sich selbst parallel verschoben den Körper sequentiell abtastet und mit wenigstens einem positions­ empfindlichen Bauelement (PSD=Position-Sensitive-Detector), dem eine Optik zugeordnet ist, die das vom Körper diffus zurückgestreute Licht auf das positions­ empfindliche Bauelement fokussiert und dessen Ortssignal ausgewertet wird, dadurch gekennzeichnet, daß der Sensor in Form einer Matrix in Reihe (13) nebeneinanderliegende diskrete Lichtquellen (1-2; 14) aufweist, deren Abstände (Bi) voneinander und Hauptstrahlungswinkel (α) ihrer Sendestrahlen (S₁-Sn) bezüglich der Ebene der Matrix vorgebbar sind, und daß seitlich der Matrix von Lichtquellen unter einem gegebenen Winkel (β) zwischen 90 und 180 Grad zur Ebene der Matrix wenigstens ein positionsempfindliches Bauelement (4, 4′; 17, 17′) angeordnet ist, das mit den Sendestrahlen der Lichtquellen einen optisch aktiven Raum (12) aufspannt und mit einer elektrischen Ansteuerelektronik mit einem Zeitmultiplexer zum diskret nacheinander erfolgenden Ansteuern der Lichtquellen und mit einer dem positionsempfindlichen Bauelement (4, 4′) nachgeschalteten elektrischen Aus­ werteeinrichtung (6, 6′, 8).
2. Optischer Sensor nach Anspruch 1 zur Identifizierung eines Körpers und Bestimmung seiner Lage nur in der Ebene, dadurch gekennzeichnet, daß die Matrix aus Lichtquellen (1-2) aus nur einer Reihe (13) von diskreten Lichtquellen besteht.
3. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, daß der Hauptstrahlungswinkel (α), unter dem die Sendestrahlen (S₁-Sn) der Lichtquellen (14) abgestrahlt werden, 90 Grad beträgt.
4. Optischer Sensor nach Anspruch 2, dadurch gekennzeichnet, daß zur Erzeugung einer Abtastung im Raum mittels einer zeilenförmigen Lichtquelle (1-2) die Reihe (13) der diskreten Lichtquellen (1-2) mitsamt dem positionsempfindlichen Bauelement (4, 4′) in Richtung der dritten Raumkoordinate beweglich ist.
5. Optischer Sensor nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß vorzugsweise an beiden Enden der Matrix von Lichtquellen (1-2; 14) wenigstens ein positionsempfindliches Bauelement (4, 4′; 17, 17′) angeordnet ist.
6. Optischer Sensor nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, daß derselbe die Form einer Greiferhand (10, 10′, 11) aufweist, wobei die Lichtquellen aus einem in einer Ebene liegenden Linsenblock (1) gebildet sind, unter dem sich eine entsprechende Anzahl von Lichtdioden (LED's) (2) befinden, wobei sich die Empfangsoptik (3, 3′) an die Enden des Linsenblockes anschließen und unter den Empfangsoptiken die positionsempfindlichen Dioden (4, 4′) zusammen mit je einer Empfangselektronik (6, 6′) angeordnet sind.
DE3919917A 1989-06-19 1989-06-19 Optischer sensor fuer die identifizierung eines koerpers Granted DE3919917A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE3919917A DE3919917A1 (de) 1989-06-19 1989-06-19 Optischer sensor fuer die identifizierung eines koerpers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE3919917A DE3919917A1 (de) 1989-06-19 1989-06-19 Optischer sensor fuer die identifizierung eines koerpers

Publications (2)

Publication Number Publication Date
DE3919917A1 DE3919917A1 (de) 1991-01-03
DE3919917C2 true DE3919917C2 (de) 1991-06-27

Family

ID=6383007

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3919917A Granted DE3919917A1 (de) 1989-06-19 1989-06-19 Optischer sensor fuer die identifizierung eines koerpers

Country Status (1)

Country Link
DE (1) DE3919917A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054596A1 (de) 2007-11-15 2009-05-20 Pepperl + Fuchs Gmbh Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4129702C2 (de) * 1991-03-25 1994-08-11 Heidelberger Druckmasch Ag Verfahren und Vorrichtung zur optischen Messung der Differenzentfernung zwischen zwei Objekten
DE19532767C2 (de) * 1995-09-05 2000-12-28 Fraunhofer Ges Forschung Triangulationsverfahren
DE19749435B4 (de) * 1997-11-09 2005-06-02 Mähner, Bernward Verfahren und Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten
DE10012138B4 (de) * 2000-03-13 2010-02-25 Sick Ag Verfahren und Vorrichtung zur Erfassung von Kantenbereichen von Objekten
EP1302742B1 (de) * 2001-10-16 2016-03-30 Datalogic IP Tech S.r.l. Optoelektronisches Rastersystem zur Messung der Form und/oder des Volumens von Körpern
EP1625350A1 (de) * 2003-03-18 2006-02-15 Alexander Thomas Hermary Doppelsichtprofil-scanner mit codiertem licht

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3337251A1 (de) * 1983-10-13 1985-04-25 Gerd Dipl.-Phys. Dr. 8520 Erlangen Häusler Optisches abtastverfahren zur dreidimensionalen vermessung von objekten

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054596A1 (de) 2007-11-15 2009-05-20 Pepperl + Fuchs Gmbh Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten
EP2065732A2 (de) 2007-11-15 2009-06-03 Pepperl + Fuchs GmbH Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten

Also Published As

Publication number Publication date
DE3919917A1 (de) 1991-01-03

Similar Documents

Publication Publication Date Title
EP0892280B1 (de) Verfahren zum Betrieb einer opto-elektronischen Sensoranordnung
AT412028B (de) Einrichtung zur aufnahme eines objektraumes
EP1321777B1 (de) Verfahren zur Aufnahme eines Objektraumes
EP0596330B1 (de) Anordnung zum messtechnischen Erfassen von Lastpendelungen bei Kranen
DE69119500T2 (de) System und Verfahren zur dreidimensionalen Positionserfassung
EP0212052B1 (de) Einrichtung zur Vermessung von im Fahrzeug eingebauten Rädern von Radsätzen
EP0388390B1 (de) Inkrementales Messsystem
DE69125986T2 (de) Verfahren und gerät zur messung des winkels eines werkstücks
EP1355128B1 (de) Automatische Ausrichtung eines Sensors
EP0388618B1 (de) System zur Bestimmung der Lage eines Objektes im Raum mit Hilfe eines videooptischen Sensors
DE102008039838A1 (de) Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und Vorrichtung zur Durchführung des Verfahrens
EP1239300A2 (de) Vorrichtung zur Bestimmung eines Abstandprofils
DE102016114995A1 (de) Vorrichtung und Verfahren zur Aufnahme von Entfernungsbildern
EP2865987B1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE3919917C2 (de)
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE4212404A1 (de) Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils
DE10026711B4 (de) Positionsüberwachungsvorrichtung und -verfahren
WO1990002313A1 (de) Optoelektronische messanordnung
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
AT412029B (de) Verfahren zur aufnahme eines objektraumes
DE10051415A1 (de) Optisches Trackingsystem und -verfahren
EP0979796A1 (de) Vorrichtung und Verfahren zur zweidimensionalen Bestimmung von Lastpendelungen und/oder Rotationen an einem Kran
DE102013007859B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee