DE10352274A1 - Optical sensor for printer paper position measurement, has two line cameras with separate optical paths and polynomial approximation data processing - Google Patents

Optical sensor for printer paper position measurement, has two line cameras with separate optical paths and polynomial approximation data processing Download PDF

Info

Publication number
DE10352274A1
DE10352274A1 DE10352274A DE10352274A DE10352274A1 DE 10352274 A1 DE10352274 A1 DE 10352274A1 DE 10352274 A DE10352274 A DE 10352274A DE 10352274 A DE10352274 A DE 10352274A DE 10352274 A1 DE10352274 A1 DE 10352274A1
Authority
DE
Germany
Prior art keywords
optical sensor
sensor according
line
optics
output signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10352274A
Other languages
German (de)
Other versions
DE10352274B4 (en
Inventor
Jürgen Schick
Jörg Droemer
Rolf Banschbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leuze Electronic GmbH and Co KG
Original Assignee
Leuze Electronic GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leuze Electronic GmbH and Co KG filed Critical Leuze Electronic GmbH and Co KG
Priority to DE10352274A priority Critical patent/DE10352274B4/en
Publication of DE10352274A1 publication Critical patent/DE10352274A1/en
Application granted granted Critical
Publication of DE10352274B4 publication Critical patent/DE10352274B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H23/00Registering, tensioning, smoothing or guiding webs
    • B65H23/02Registering, tensioning, smoothing or guiding webs transversely
    • B65H23/0204Sensing transverse register of web
    • B65H23/0216Sensing transverse register of web with an element utilising photoelectric effect
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2220/00Function indicators
    • B65H2220/09Function indicators indicating that several of an entity are present
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2553/00Sensing or detecting means
    • B65H2553/40Sensing or detecting means using optical, e.g. photographic, elements
    • B65H2553/41Photoelectric detectors
    • B65H2553/412Photoelectric detectors in barrier arrangements, i.e. emitter facing a receptor element
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2553/00Sensing or detecting means
    • B65H2553/40Sensing or detecting means using optical, e.g. photographic, elements
    • B65H2553/44Involving light guide, e.g. optical fibres

Abstract

An optical sensor (1) has two line cameras (5, 5) with optical (6, 6) axes (9, 9) viewing (10, 10) the object from different angles through lenses (6a, 6a, 6b, 6b), aperture (6c, 6c) and link mirrors (11), neon lamp illumination (4) and data processor to obtain the position of structures such as edges on the object using a polynomial approximation of the differentiated signal and pre-calibration objects.

Description

Die Erfindung betrifft einen optischen Sensor.The invention relates to an optical Sensor.

Derartige optische Sensoren werden zur Detektion von Objektstrukturen eingesetzt, wobei derartige Objektstrukturen insbesondere von Kanten von Objekten gebildet sein können.Such optical sensors are used for the detection of object structures, such object structures in particular can be formed by edges of objects.

Ein Beispiel hierfür ist die Detektion der Kantenlagen von in Druckmaschinen geförderten Papierbahnen. Für derartige Anwendungen werden typischerweise optische Sensoren eingesetzt, welche als Sensorelement einen Zeilensensor, wie zum Beispiel eine CCD-Zeile, aufweisen. Ein derartiger optischer Sensor ist beispielsweise aus der DE 198 50 270 A1 bekannt.An example of this is the detection of the edge positions of paper webs conveyed in printing machines. For such applications, optical sensors are typically used which have a line sensor, such as a CCD line, as the sensor element. Such an optical sensor is for example from the DE 198 50 270 A1 known.

Zur Detektion der Kantenlagen ist der optische Sensor in vorgegebenem Abstand oberhalb einer Transportebene montiert, in welcher die Papierbahn in der Druckmaschine gefördert wird, so dass mit dem Zeilensensor der Bereich der Kante der Papierbahn erfasst wird. Aus dem mit dem Zeilensensor erfassten Kontrastmuster wird die Lage der Papierbahn innerhalb der Transportebene ermittelt.For the detection of the edge positions the optical sensor at a specified distance above a transport level mounted in which the paper web is conveyed in the printing press, so that with the line sensor the area of the edge of the paper web is recorded. From the contrast pattern detected with the line sensor the position of the paper web within the transport plane is determined.

Bedingt durch die Transport- und Bearbeitungsprozesse in der Druckmaschine verläuft die Papierbahn nicht gleichförmig innerhalb der Transportebene. Insbesondere tritt ein Flattern der Papierbahn auf, das heißt die Papierbahn führt eine unkontrollierte Bewegung senkrecht zur Transportebene auf. Dadurch ändert sich der Abstand der Papierbahn zum optischen Sensor. Durch diese Abstandsänderung wird eine Veränderung der mit dem Zeilensensor ermittelten Kantenlage erhalten. Aufgrund dieses Paralaxenfehlers ist somit keine hinreichend genaue Kantenlagenbestimmung der Papierbahn gewährleistet.Due to the transport and Processing processes in the printing press, the paper web does not run uniformly within the transport level. In particular, the paper web flutters on, that is the Paper web leads an uncontrolled movement perpendicular to the transport plane. This changes the distance of the paper web to the optical sensor. Through this distance change will change the edge position determined with the line sensor. Because of this Paralax error is therefore not a sufficiently precise determination of the edge position guaranteed the paper web.

Der Erfindung liegt die Aufgabe zugrunde einen optischen Sensor der eingangs genannten Art bereitzustellen, mittels dessen eine möglichst genaue Bestimmung von Objektstrukturen durchführbar ist.The invention is based on the object to provide an optical sensor of the type mentioned at the outset, by means of which one if possible precise determination of object structures is feasible.

Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.To solve this task are the Features of claim 1 provided. Advantageous embodiments and appropriate further training the invention are described in the subclaims.

Der erfindungsgemäße optische Sensor dient zur Erfassung von Objektstrukturen. Hierzu weist der optische Sensor eine Kameraanordnung bestehend aus zwei Zeilenkameras sowie diesen vorgeordneten Optiken auf. Die optischen Achsen der Optiken sind in verschiedenen Winkeln verlaufend auf ein Objekt ausgerichtet, so dass von dem Objekt ausgehende Lichtstrahlen mittels der Optiken auf die jeweils zugeordnete Zeilenkamera abgebildet werden. Der erfindungsgemäße optische Sensor weist weiterhin eine Auswerteeinheit zur Ermittlung der räumlichen Lage von Objektstrukturen des Objekts anhand der Ausgangssignale der Zeilenkameras auf.The optical sensor according to the invention is used for Acquisition of object structures. For this purpose, the optical sensor a camera arrangement consisting of two line cameras and these upstream optics. The optical axes of the optics are aligned at different angles to an object, so that light rays emanating from the object by means of the optics are mapped to the assigned line scan camera. The optical according to the invention Sensor also has an evaluation unit for determining the spatial Position of object structures of the object based on the output signals the line scan cameras.

Ein wesentlicher Vorteil des erfindungsgemäßen optischen Sensors besteht darin, dass durch die Erfassung der räumlichen Lage von Objektstrukturen Paralaxenfehler aufgrund einer Abstandsänderung des zu erfassenden Objektes relativ zum optischen Sensor vermieden werden können. Damit können Objektstrukturen von Objekten mit einer hohen Genauigkeit erfasst werden.A major advantage of the optical according to the invention Sensor is that by capturing the spatial Position of object structures Paralax error due to a change in distance of the object to be detected is avoided relative to the optical sensor can be. So that can Object structures of objects recorded with high accuracy become.

Besonders vorteilhaft werden mit dem optischen Sensor als Objektstrukturen die Lagen von Kanten von Objekten erfasst. Insbesondere kann der optische Sensor dabei zur Ermittlung der Kantenlagen von Bögen und Bahnen, insbesondere von in Druckmaschinen geförderten Papierbögen und Papierbahnen eingesetzt werden. Da mit dem optischen Sensor die räumlichen Lagen der Kanten der Papierbögen und Papierbahnen erfasst werden, ist eine genaue Kantendetektion auch bei vorliegenden Störeinflüssen wie einem Flattern der Papierbögen oder Papierbahnen gewährleistet.Be particularly advantageous with the optical sensor as object structures the layers of edges of Objects. In particular, the optical sensor can Determination of the edge positions of arches and webs, especially those conveyed in printing machines sheets of paper and paper webs are used. As with the optical sensor the spatial Lay the edges of the sheets of paper and paper webs are detected is an exact edge detection also with existing interferences like a flutter of sheets of paper or paper webs guaranteed.

In einer besonders vorteilhaften Ausführungsform der Erfindung erfolgt die Ermittlung von Kantenlagen von Objekten oder allgemein von Objektstrukturen nicht unmittelbar anhand der in den Zeilenkameras generierten Ausgangssignale durch eine Schwellwertbewertung oder dergleichen.In a particularly advantageous embodiment the invention determines the edge positions of objects or generally of object structures not directly based on the Output signals generated in the line scan cameras by a threshold value evaluation or similar.

Anstelle dessen werden die Ausgangssignale der Zeilenkameras zunächst differenziert. Die lokalen Maxima und/oder Minima der differenzierten Ausgangssignale definieren Bereiche von signifikanten Änderungen der Pegel der Ausgangssignale und damit Objektstrukturmerkmale wie die Kanten von Objekten. Die Lagen der lokalen Maxima und/oder Minima der differenzierten Ausgangssignale werden in der Auswerteeinheit als Grobbereiche Δx definiert, innerhalb derer das zu erfassende Objektstrukturmerkmal, insbesondere eine Objektkante, liegt.Instead, the output signals the line scan cameras first differentiated. The local maxima and / or minima of the differentiated Output signals define areas of significant change the level of the output signals and thus object structure features such as the edges of objects. The locations of the local maxima and / or minima of the differentiated output signals are in the evaluation unit as Rough ranges Δx defines within which the object structure feature to be recorded, especially an object edge.

In einem zweiten Schritt der in der Auswerteeinheit durchgeführten Auswertung werden zur genauen Ermittlung der Lagen der Objektstrukturmerkmale die Verläufe der Ausgangssignale in den Grobbereichen durch Stützstellenfunktionen angenähert. Insbesondere werden die Verläufe der Ausgangssignale durch Polynome angenähert. Dabei kann durch eine hinreichend große Anzahl von Stützstellen eine genaue Approximation des Verlaufs eines Ausgangssignals erhalten werden. Die Bestimmung der Lage eines Objektstrukturmerkmals erfolgt dann durch eine analytische Auswertung des Verlaufs der Stützstellenfunktion. Insbesondere für den Fall, dass die Stützstellenfunktion von einem Polynom zur Approximation des Ausgangssignals bei der Detektion einer Objektkante gebildet ist, kann die Lage der Objektkante durch Ermittlung des oder eines Wendepunktes des Polynoms innerhalb des jeweiligen Grobbereiches Δx bestimmt werden.In a second step of the evaluation carried out in the evaluation unit, the course of the output signals in the rough areas are approximated by interpolation point functions for the precise determination of the positions of the object structure features. In particular, the courses of the output signals are approximated by polynomials. A precise approximation of the course of an output signal can be obtained by a sufficiently large number of support points. Determining the location of an object structure The characteristic is then carried out by an analytical evaluation of the course of the reference point function. In particular in the event that the interpolation point function is formed by a polynomial for approximating the output signal when an object edge is detected, the position of the object edge can be determined by determining the or an inflection point of the polynomial within the respective rough range Δx.

Mit diesem Verfahren kann eine äußerst genaue Bestimmung von Objektstrukturen, insbesondere der Kantenlagen von Objekten, durchgeführt werden. Besonders vorteilhaft ist hierbei, dass mit diesem Auswerteverfahren auch Objektstrukturen von transparenten oder bei teiltransparenten Objekten exakt bestimmt werden können.This procedure can be extremely accurate Determination of object structures, especially the edge positions of Objects become. It is particularly advantageous that using this evaluation method also object structures of transparent or partially transparent ones Objects can be determined exactly.

In einer weiteren vorteilhaften Ausführungsform wird mit dem optischen Sensor vor dessen Inbetriebnahme ein Einmessvorgang durchgeführt, wodurch die Messgenauigkeit des optischen Sensors signifikant erhöht wird. Bei diesem Einmessvorgang wird ein Punkteraster von Messpunkten mit bekannten Ortskoordinaten als Sollpositionen vorgegeben. Diese Messpunkte werden von dem optischen Sensor erfasst. Die dabei registrierten Messwerte werden mit den Sollpositionen verglichen. Der Vergleich erfolgt dabei derart, dass eine Korrekturfunktion definiert wird, welche die von den Sollpositionen aufgespannten Ortsvektoren mit den von den registrierten Messwerten gebildeten Ortsvektoren verknüpft. Diese Korrekturfuktion definiert über die Korrelation der Messwerte zu den Sollwerten die systematischen Abbildungsfehler bei der Objektdetektion infolge von Bauteiltoleranzen und dergleichen. Durch die Korrektur der aktuellen Messungen während des auf den Einmessvorgang folgenden Betriebs des optischen Sensors mittels der ermittelten Korrekturfunktion können die systematischen Abbildungsfehler des optischen Sensors weitgehend eliminiert werden, wodurch die Messgenauigkeit des optischen Sensors erheblich erhöht wird.In a further advantageous embodiment becomes a calibration process with the optical sensor before it is put into operation carried out, which significantly increases the measuring accuracy of the optical sensor. In this calibration process, a grid of points is used with known location coordinates as target positions. This Measuring points are recorded by the optical sensor. The registered ones Measured values are compared with the target positions. The comparison takes place in such a way that a correction function is defined, which includes the location vectors spanned by the target positions linked to the location vectors formed by the registered measured values. This Correction function defined via the correlation of the measured values to the target values the systematic Imaging errors in object detection due to component tolerances and the same. By correcting the current measurements during the operation of the optical sensor following the calibration process The systematic aberrations can be corrected using the determined correction function of the optical sensor are largely eliminated, which the Measurement accuracy of the optical sensor is significantly increased.

Die Erfindung wird im Nachstehenden anhand der Zeichnungen erläutert. Es zeigen:The invention is as follows explained using the drawings. Show it:

1: Ausführungsbeispiel eines optischen Sensors zur Erfassung der Kantenlagen von bahnförmigen Materialien. 1 : Embodiment of an optical sensor for detecting the edge positions of sheet-like materials.

2: Schematische Darstellung der Ausgangssignale und des Differentials der Ausgangssignale einer Zeilenkamera des optischen Sensors gemäß 1 bei der Detektion einer Kante eines nicht transparenten bahnförmigen Materials. 2 : Schematic representation of the output signals and the differential of the output signals of a line scan camera of the optical sensor according to 1 upon detection of an edge of a non-transparent sheet material.

3: Schematische Darstellung der Ausgangssignale und der Differentiale der Ausgangssignale einer Zeilenkamera des optischen Sensors gemäß 1 bei der Detektion einer Kante eines transparenten bahnförmigen Materials. 3 : Schematic representation of the output signals and the differentials of the output signals of a line camera of the optical sensor according to 1 upon detection of an edge of a transparent sheet material.

1 zeigt schematisch den Aufbau eines optischen Sensors 1 zur Erfassung von Objektstrukturen. Im vorliegenden Fall werden mit dem optischen Sensor 1 die Kantenlagen einer Materialbahn 2 erfasst. Die Materialbahn 2 kann insbesondere von einer nicht transparenten Papierbahn oder einer transparenten Bahn in Form einer Folie oder dergleichen gebildet sein. Die Materialbahn 2 wird in einer nicht gesondert dargestellten bahnverarbeitenden Maschine gefördert. Dabei verläuft die Materialbahn 2 in einer horizontalen Transportebene. Entsprechend dem in 1 dargestellten Koordinatensystem verläuft die Materialbahn 2 in einer x-y-Ebene. Die Förderrichtung der Materialbahn 2 verläuft in positiver x-Richtung. Der optische Sensor 1 weist eine Kameraanordnung und eine nicht gesondert dargestellte Auswerteeinheit auf, welche in einem Gehäuse 3 integriert sind. Das Gehäuse 3 des optischen Sensors 1 ist oberhalb der Materialbahn 2 angeordnet. Der optische Sensor 1 weist zudem eine Beleuchtungseinheit 4 auf, die unterhalb der Materialbahn 2 dem Gehäuse 3 des optischen Sensors 1 gegenüberliegend angeordnet ist. Die Beleuchtungseinheit 4 ist im vorliegenden Fall von einer Neonröhre gebildet. 1 shows schematically the structure of an optical sensor 1 for the detection of object structures. In the present case, the optical sensor 1 the edge layers of a material web 2 detected. The web of material 2 can in particular be formed by a non-transparent paper web or a transparent web in the form of a film or the like. The web of material 2 is funded in a web processing machine, not shown separately. The web of material runs in the process 2 in a horizontal transport plane. According to the in 1 Coordinate system shown runs the material web 2 in an xy plane. The conveying direction of the material web 2 runs in the positive x direction. The optical sensor 1 has a camera arrangement and an evaluation unit, not shown separately, which is located in a housing 3 are integrated. The housing 3 of the optical sensor 1 is above the material web 2 arranged. The optical sensor 1 also has a lighting unit 4 on that below the material web 2 the housing 3 of the optical sensor 1 is arranged opposite. The lighting unit 4 is formed by a neon tube in the present case.

Wie aus 1 ersichtlich verläuft die ebene Unterseite des Gehäuses 3 parallel zur Materialbahn 2. Die Längsachse der Beleuchtungseinheit 4 verläuft in horizontaler Richtung parallel zur Materialbahn 2.How out 1 you can see the flat bottom of the case 3 parallel to the material web 2 , The longitudinal axis of the lighting unit 4 runs in a horizontal direction parallel to the material web 2 ,

Die Kameraanordnung des optischen Sensors 1 weist zwei Zeilenkameras 5, 5' auf, wobei jeder Zeilenkamera 5, 5' eine Optik 6, 6' vorgeordnet ist. Die Zeilenkameras 5, 5' sind identisch ausgebildet und bestehen im vorliegenden Fall jeweils aus einer CCD-Zeile mit einer vorgegebenen Anzahl von CCD-Elementen. Alternativ können die Zeilenkameras 5, 5' als CMOS-Zeilen ausgebildet sein. Die CCD-Zeilen sitzen jeweils auf einer Leiterplatte 7, 7' auf, die an gegenüberliegenden Innenseiten des Gehäuses 3 fixiert sind. Die Leiterplatten 7, 7' mit den CCD-Zeilen sind an eine weitere nicht dargestellte Leiterplatte angeschlossen, auf welcher die Auswerteeinheit angeordnet ist. Im vorliegenden Fall besteht die Auswerteeinheit aus einer Rechnereinheit, insbesondere einem Microcontroller, sowie einer Analogschaltung zur Vorverarbeitung der in den CCD-Zeilen generierten Ausgangssignale.The camera arrangement of the optical sensor 1 has two line scan cameras 5 . 5 ' on, with each line scan camera 5 . 5 ' an optic 6 . 6 ' is upstream. The line scan cameras 5 . 5 ' are of identical design and in the present case each consist of a CCD line with a predetermined number of CCD elements. Alternatively, the line scan cameras 5 . 5 ' be designed as CMOS lines. The CCD lines each sit on a circuit board 7 . 7 ' on that on opposite inner sides of the case 3 are fixed. The circuit boards 7 . 7 ' the CCD lines are connected to a further circuit board, not shown, on which the evaluation unit is arranged. In the present case, the evaluation unit consists of a computer unit, in particular a microcontroller, and an analog circuit for preprocessing the output signals generated in the CCD lines.

Die Optiken 6, 6' sind ebenfalls identisch ausgebildet. Dabei ist jede Optik 6, 6' als abbildende Optik bestehend aus zwei Linsen 6a, 6b beziehungsweise 6a', 6b' und einer zwischen den Linsen 6a, 6b beziehungsweise 6a', 6b' angeordneten Lochblende 6e beziehungsweise 6c' ausgebildet.The optics 6 . 6 ' are also identical. Every look is there 6 . 6 ' as an imaging optic consisting of two lenses 6a . 6b respectively 6a ' . 6b ' and one between the lenses 6a . 6b respectively 6a ' . 6b ' arranged pinhole 6e respectively 6c ' educated.

Die Optiken 6, 6' sind jeweils in Bohrungen 8, 8' in der Gehäusewand an der Unterseite des Gehäuses 3 gelagert. Die Längsachsen der Bohrungen 8, 8' sind derart orientiert, dass die optischen Achsen 9, 9' der Optiken 6, 6' in spitzem Winkel auf die Materialbahn 2 zulaufen und sich in der Transportebene schneiden.The optics 6 . 6 ' are each in holes 8th . 8th' in the housing wall at the bottom of the housing 3 stored. The longitudinal axes of the holes 8th . 8th' are oriented in such a way that the optical axes 9 . 9 ' the optics 6 . 6 ' at an acute angle to the material web 2 run in and intersect in the transport plane.

Zur Detektion der Kanten der Materialbahn 2 wird diese mittels der Beleuchtungseinheit 4 von der Unterseite her beleuchtet. Je nach Kantenlage der Materialbahn 2 werden von der Beleuchtungseinheit 4 emittierte Lichtstrahlen 10, 10' an der Materialbahn 2 vorbei über die Optiken 6, 6' auf die jeweils zugeordneten Zeilenkameras 5, 5' geführt. Der restliche Teil der Lichtstrahlen 10, 10' trifft auf die Materialbahn 2. Je nach Materialbeschaffenheit der Materialbahn 2 durchdringt ein Teil der Lichtstahlen 10, 10' der Beleuchtungseinheit 4 die Materialbahn 2. Die von der Materialbahn 2 im Kantenbereich ausgehenden Lichtstrahlen 10, 10' werden ebenfalls über die Optiken 6, 6' auf die Zeilenkameras 5, 5' abgebildet.For the detection of the edges of the material web 2 is this by means of the lighting unit 4 illuminated from the bottom. Depending on the edge position of the material web 2 are from the lighting unit 4 emitted light rays 10 . 10 ' on the material web 2 over the optics 6 . 6 ' to the assigned line scan cameras 5 . 5 ' guided. The rest of the light rays 10 . 10 ' meets the material web 2 , Depending on the material properties of the material web 2 penetrates part of the light rays 10 . 10 ' the lighting unit 4 the material web 2 , The one from the material web 2 outgoing light rays in the edge area 10 . 10 ' are also about the optics 6 . 6 ' on the line scan cameras 5 . 5 ' displayed.

Wie aus 1 ersichtlich werden über die erste Optik 6 geführte Lichtstrahlen 10 direkt auf die zugeordnete Zeilenkamera 5 geführt. Über die zweite Optik 6' geführte Lichtstrahlen 10' werden über einen Umlenkspiegel 11 zu der zugeordneten Zeilenkamera 5' geführt. Der Umlenkspiegel 11 ist an einem Steg 12 im Innern des Gehäuses 3 fixiert.How out 1 can be seen from the first optics 6 guided light rays 10 directly to the assigned line scan camera 5 guided. About the second optic 6 ' guided light rays 10 ' are via a deflecting mirror 11 to the assigned line scan camera 5 ' guided. The deflecting mirror 11 is on a web 12 inside the housing 3 fixed.

Im oberen Diagramm von 2 sind die Ausgangssignale der die erste Zeilenkamera 5 bildenden CCD-Zeile für die einzelnen CCD-Elemente bei der Detektion des Kantenbereichs einer Papierbahn dargestellt. Für die zweite CCD-Zeile ergibt sich ein im Wesentlichen entsprechender Verlauf der Ausgangssignale.In the upper diagram of 2 are the output signals of the first line scan camera 5 forming CCD line for the individual CCD elements in the detection of the edge region of a paper web. For the second CCD line, there is an essentially corresponding course of the output signals.

Die CCD-Elemente der CCD-Zeile, die durch an der Materialbahn 2 vorbei geführte Lichtstrahlen 10, 10' der Beleuchtungseinheit 4 stark belichtet sind, generieren entsprechend hohe Amplituden der Ausgangssignale. Da die Papierbahn nicht transparent ist, werden auf diese auftreffende Lichtstrahlen 10, 10' der Beleuchtungseinheit 4 stark abgeschwächt. Dementsprechend werden für die CCD-Elemente, auf welche von der Papierbahn ausgehende Lichtstrahlen 10, 10' auftreffen, Ausgangssignale mit entsprechend geringen Amplituden erhalten. Damit wird bei der Detektion einer Kante der Papierbahn der in 2, oberes Diagramm, dargestellte S-förmige Verlauf der Ausgangssignale der CCD-Zeile erhalten.The CCD elements of the CCD line passing through on the web 2 rays of light passed by 10 . 10 ' the lighting unit 4 are strongly exposed, generate correspondingly high amplitudes of the output signals. Since the paper web is not transparent, light rays are incident on it 10 . 10 ' the lighting unit 4 greatly weakened. Accordingly, for the CCD elements onto which light rays emanating from the paper web 10 . 10 ' hit, receive output signals with correspondingly low amplitudes. Thus, when an edge of the paper web is detected, the in 2 , upper diagram, shown S-shaped course of the output signals of the CCD line.

In einem ersten Auswerteschritt werden vorzugsweise mittels der Analogschaltung der Auswerteeinheit die Ausgangssignale differenziert. Die so differenzierten Ausgangssignale bilden Flankensignale, deren Verlauf im unteren Diagramm der 2 dargestellt ist. Wie aus diesem Diagramm ersichtlich weist der Verlauf der Flankensignale einen Signalpeak auf. Der Bereich Δx der CCD-Elemente, innerhalb derer der Signalpeak auftrifft, gibt einen Grobbereich an, innerhalb dessen die Kantenlage der Papierbahn liegt.In a first evaluation step, the output signals are preferably differentiated using the analog circuit of the evaluation unit. The output signals differentiated in this way form edge signals, the course of which is shown in the lower diagram 2 is shown. As can be seen from this diagram, the course of the edge signals has a signal peak. The area Δx of the CCD elements within which the signal peak strikes indicates a rough area within which the edge position of the paper web lies.

Zur exakten Bestimmung der Kantenlage wird der Verlauf der Ausgangssignale innerhalb des Grobbereichs Δx mittels einer Stützstellenfunktion angenähert. Im vorliegenden Fall ist die Stützstellenfunktion von einem Polynom P gebildet, wobei der Verlauf des Polynoms P nach der Methode der kleinsten quadratischen Abweichungen des Polynoms P bezüglich der Ausgangssignale ermittelt wird. Der Verlauf des Polynoms P kann um so exakter an den Verlauf der Ausgangssignale angepasst werden, je größer die Anzahl der Stützstellen gewählt wird. Vorzugsweise entspricht die Zahl der Stützstellen der Zahl der CCD-Elemente im Grobbereich Δx.For exact determination of the edge position the course of the output signals within the rough range Δx by means of a base function approximated. In the present case, the support point function formed by a polynomial P, the course of the polynomial P according to the method of the smallest quadratic deviations of the polynomial P regarding the output signals is determined. The course of the polynomial P can all the more precisely adapted to the course of the output signals, the bigger the Number of support points chosen becomes. The number of support points preferably corresponds to the number of CCD elements in the rough range Δx.

Die Bestimmung der Kantenlage erfolgt anschließend analytisch anhand des Verlaufs der Stützstellenfunktion. Im vorliegenden Fall wird die Kantenlage nach der Wendepunktmethode bestimmt, das heißt der Wendepunkt des Polynoms P definiert die Lage x0 der Kante.The edge position is then determined analytically based on the course of the interpolation point function. In the present case, the edge position is determined using the inflection point method, that is to say the inflection point of the polynomial P defines the position x 0 of the edge.

Diese Auswertung wird in identischer Weise für die Ausgangssignale der zweiten CCD-Zeile durchgeführt. Anschließend wird in bekannter Weise aus den mit den CCD-Zeilen registrierten Kantenlagen bei bekannter räumlicher Anordnung der Zeilenkameras 5, 5' und der Optiken 6, 6' sowie der Transportebene der Papierbahn die räumliche Lage der Kante der Papierbahn in der Auswerteeinheit berechnet und als Ausgangsgröße vom optischen Sensor 1 ausgegeben.This evaluation is carried out in an identical manner for the output signals of the second CCD line. Then, in a known manner, the edge positions registered with the CCD lines become known with a known spatial arrangement of the line cameras 5 . 5 ' and the optics 6 . 6 ' and the transport plane of the paper web, the spatial position of the edge of the paper web is calculated in the evaluation unit and as an output variable from the optical sensor 1 output.

3 zeigt die Verläufe der Ausgangssignale einer CCD-Zeile und deren Differentiale für den Fall der Detektion einer transparenten oder teiltransparenten Materialbahn 2. Im Unterschied zur Detektion einer nicht transparenten Papierbahn werden die Lichtstrahlen 10, 10' bei Durchgang durch die transparente Materialbahn 2 weniger stark geschwächt. Eine starke Signalabschwächung der Ausgangssignale wird im Bereich der Kanten der Materialbahn 2 aufgrund von Lichtstreuungen an der Kante erhalten. 3 shows the courses of the output signals of a CCD line and their differentials for the case of the detection of a transparent or partially transparent material web 2 , In contrast to the detection of a non-transparent paper web, the light rays 10 . 10 ' when passing through the transparent material web 2 less weakened. A strong signal weakening of the output signals is in the area of the edges of the material web 2 obtained due to light scatter on the edge.

Dementsprechend wird im vorliegenden Fall kein S-förmiger Verlauf der Ausgangssignale der CCD-Zeile erhalten. Vielmehr weist der Verlauf der Ausgangssignale im Kantenbereich der Materialbahn 2 einen Peak auf.Accordingly, no S-shaped course of the output signals of the CCD line is obtained in the present case. Rather, the course of the output signals in the edge area of the material web 2 a peak.

Auch in diesem Fall werden zur Kantenlagenbestimmung der Materialbahn 2 die Ausgangssignale der CCD-Zeilen differenziert. Die entsprechenden differenzierten Ausgangssignale sind in 3 für eine der CCD-Zeilen dargestellt. Im vorliegenden Fall werden durch die Differenzierung des Ausgangssignals positive Flankensignale und negative Flankensignale gewonnen, die im zweiten und dritten Diagramm der 3 dargestellt sind. Der Signalpeak der positiven Flankensignale definiert im vorliegenden Fall den Grobbereich Δx, innerhalb dessen die Kante der Materialbahn 2 registriert wurde.In this case too, the material web is used to determine the edge position 2 the output signals of the CCD lines differentiated. The corresponding differentiated output signals are in 3 for one of the CCD lines. In the present case, by differentiating the output signal, positive edge signals and negative edge signals are obtained, which are shown in the second and third diagrams 3 are shown. In the present case, the signal peak of the positive edge signals defines the rough range Δx, within which the edge of the material web 2 was registered.

Analog zu dem Beispiel gemäß 2 wird auch in diesem Fall der Verlauf der Ausgangssignale innerhalb des Grobbereichs Δx durch ein Polynom P angenähert. Der Wendepunkt des Polynoms P definiert wiederum die Lage x0 der Kante der Materialbahn 2.Analogous to the example according to 2 In this case too, the course of the output signals within the rough range Δx is approximated by a polynomial P. The inflection point of the polynomial P in turn defines the position x 0 of the edge of the material web 2 ,

In weiterer Übereinstimmung mit dem Ausführungsbeispiel gemäß 2 wird auch in diesem Fall aus den mit den beiden CCD-Zeilen registrierten Kantenlagen die räumliche Lage der Kante der Materialbahn 2 berechnet.In further accordance with the embodiment according to 2 will also be in this case the edge positions registered with the two CCD lines indicate the spatial position of the edge of the material web 2 calculated.

Durch die Berechnung der räumlichen Lagen der Kanten in der x-z-Ebene von Materialbahnen 2 bei der Anordnung gemäß 1 können Paralaxenfehler bei der Kantendetektion vermieden werden. Dies bedeutet, dass eine fehlerfreie Lage der Kante der Materialbahn 2 in der x-y-Ebene auch dann gegeben ist, wenn sich die Materialbahn 2 beispielsweise durch Flattern in z-Richtung bewegt.By calculating the spatial positions of the edges in the xz plane of material webs 2 with the arrangement according to 1 paralax errors in edge detection can be avoided. This means that the edge of the web of material is faultless 2 is given in the xy plane even if the material web 2 for example, fluttered in the z direction.

Infolge von Bauteiltoleranzen und dergleichen liefern die optischen Komponenten des optischen Sensors 1 keine exakte Abbildung der Kantenposition der Materialbahn 2.Due to component tolerances and the like, the optical components of the optical sensor deliver 1 no exact representation of the edge position of the material web 2 ,

Um diese Ungenauigkeiten zu eliminieren, wird vor Inbetriebnahme ein Einmessvorgang durchgeführt, bei welchem Korrekturwerte in Form einer Korrekturfunktion ermittelt werden, welche zur Korrektur der nachfolgend ermittelten Messwerte für die Kantenpositionen verwendet wird.To eliminate these inaccuracies a calibration process is carried out before commissioning, at which correction values are determined in the form of a correction function which are used to correct the measured values determined below for the Edge positions is used.

Zur Durchführung des Einmessvorgangs werden an einem nicht dargestellten Verschiebetisch, auf welchem die Papierbahnen gefördert werden, mehrere Korrekturmesspunkte vorgegeben, die durch Vektoren (x, y) in der x-y-Ebene definiert sind. Die für die diese Korrekturmesspunkte erhaltenen Messwerte bilden weitere Vektoren (f, n) gleicher Dimensionen. Aus der Abweichung der Messwerte von den Sollwerten bildenden Korrekturmesspunkten wird die Korrekturfunktion als Maß für den Abbildungsfehler des optischen Sensors 1 abgeleitet.To carry out the measurement process, a number of correction measurement points are defined on a shift table, not shown, on which the paper webs are conveyed, which are defined by vectors (x, y) in the xy plane. The measured values obtained for these correction measurement points form further vectors (f, n) of the same dimensions. The correction function becomes a measure of the aberration of the optical sensor from the deviation of the measurement values from the correction measurement points forming the setpoint values 1 derived.

Die Ermittlung der Korrekturfunktion aus diesen Vektoren wird nachstehend anhand eines Beispiels erläutert, bei welchem acht Korrekturmesspunkte für die Durchführung des Einmessvorganges verwendet werden. Generell ist die Anzahl der Korrekturmesspunkte jedoch variabel.The determination of the correction function from these vectors is explained below using an example, at which eight correction measuring points for carrying out the Calibration process can be used. Generally the number of correction measuring points however variable.

Im vorliegenden Beispiel werden als Vektoren (x, y) folgende acht Korrekturmesspunkte am Verschiebetisch eingestellt und als Sollwerte vorgegeben:

Figure 00110001
In the present example, the following eight correction measurement points are set as vectors (x, y) on the sliding table and specified as setpoints:
Figure 00110001

Die Vermessung der Korrekturmesspunkte mit dem optischen Sensor 1 liefert als Messwerte den Vektor (f, n):

Figure 00110002
The measurement of the correction measuring points with the optical sensor 1 returns the vector (f, n) as measured values:
Figure 00110002

Die Korrekturmesswerte (x, y) werden mit den Messwerten (f, n) zur Festlegung der Korrekturfunktion gemäß folgendem Ansatz verknüpft:

Figure 00110003
The correction measurement values (x, y) are linked to the measurement values (f, n) to determine the correction function according to the following approach:
Figure 00110003

Der Ansatz ist derart gewählt, dass die Verknüpfung des Vektors a der Koeffizienten ai mit dem Vektor x und die Verknüpfung des Vektors b der Koeffizienten bi mit dem Vektor x über dieselbe Matrix A gemäß den folgenden Beziehungen erfolgt: x = A · a y = A · b The approach is chosen in such a way that the vector a of the coefficients a i is linked to the vector x and the vector b of the coefficients b i is linked to the vector x via the same matrix A in accordance with the following relationships: x = AA y = A · b

Dabei sind die Koeffizienten Aij der Matrix durch die Koordinaten der Vektoren (f, n) der Messwerte wie folgt definiert Ai,0 := 1 Ai,1 := ξi Ai,2 := ηi Ai,3 := ξi · ηi Ai,4 := (ξi)2 Ai,5 := (ηi)2 Ai,6 := (ξi)2 · ηi wobei i = 0, ... 7.The coefficients A ij of the matrix are defined by the coordinates of the vectors (f, n) of the measured values as follows A i, 0 : = 1 A i, 1 : = ξ i A i, 2 : = η i A i, 3 : = ξ i · Η i A i, 4 : = (ξ i ) 2 A i, 5 : = (η i ) 2 A i, 6 : = (ξ i ) 2 · Η i where i = 0, ... 7.

Die Koeffizienten ai des Vektors a und die Koeffizienten bi des Vektors b definieren die Korrekturfunktion und werden durch Lösen der folgenden Gleichungssysteme bestimmt a = A–1 · x b = A–1 · Ywobei zur Bestimmung der Koeffizienten die Korrekturmesswerte xi, yi in die Gleichungssysteme eingesetzt werden.The coefficients a i of the vector a and the coefficients b i of the vector b define the correction function and are determined by solving the following systems of equations a = A -1 · X b = A -1 · Y the correction measurement values x i , y i being used in the equation systems to determine the coefficients.

Während des auf den Einmessvorgang folgenden Betriebs des optischen Sensors 1 werden die mit diesem ermittelten räumlichen Kantenlagen f, n bei der Kantendetektion mittels der durch die Vektoren a, b definierten Korrekturfunktion korrigiert, wodurch als Ausgangsgrößen des optischen Sensors 1 folgende korrigierten Messwerte x, y ausgegeben werden.During the operation of the optical sensor following the calibration process 1 the spatial edge positions f, n determined with this are corrected during the edge detection by means of the correction function defined by the vectors a, b, as a result of the output variables of the optical sensor 1 the following corrected measured values x, y are output.

Figure 00130001
Figure 00130001

11
Optischer Sensoroptical sensor
22
Materialbahnweb
33
Gehäusecasing
44
Beleuchtungseinheitlighting unit
55
Zeilenkameraline camera
5'5 '
Zeilenkameraline camera
66
Optikoptics
6'6 '
Optikoptics
6a6a
Linselens
6a'6a '
Linselens
6b6b
Linselens
6b'6b '
Linselens
6c6c
Lochblendepinhole
6c'6c '
Lochblendepinhole
77
Leiterplattecircuit board
7'7 '
Leiterplattecircuit board
88th
Bohrungdrilling
8'8th'
Bohrungdrilling
99
Optische Achseoptical axis
9'9 '
Optische Achseoptical axis
1010
Lichtstrahlenlight rays
10'10 '
Lichtstrahlenlight rays
1111
Umlenkspiegeldeflecting
1212
Stegweb

Claims (19)

Optischer Sensor zur Erfassung von Objektstrukturen mit einer Kameraanordnung bestehend aus zwei Zeilenkameras (5, 5') sowie diesen vorgeordneten Optiken (6, 6'), wobei die optischen Achsen (9, 9') der Optiken (6, 6') in verschiedenen Winkeln verlaufend auf ein Objekt ausgerichtet sind, so dass von dem Objekt ausgehende Lichtstrahlen (10, 10') mittels der Optiken (6, 6') auf die jeweils zugeordnete Zeilenkamera (5, 5') abgebildet werden, und mit einer Auswerteeinheit zur Ermittlung der räumlichen Lage von Objektstrukturen des Objekts anhand der Ausgangssignale der Zeilenkameras (5, 5').Optical sensor for the detection of object structures with a camera arrangement consisting of two line cameras ( 5 . 5 ' ) and these upstream optics ( 6 . 6 ' ), the optical axes ( 9 . 9 ' ) of the optics ( 6 . 6 ' ) are aligned with an object at different angles, so that light rays emanating from the object ( 10 . 10 ' ) by means of the optics ( 6 . 6 ' ) to the assigned line scan camera ( 5 . 5 ' ) are mapped, and with an evaluation unit for determining the spatial position of object structures of the object on the basis of the output signals of the line scan cameras ( 5 . 5 ' ). Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass dieser eine Beleuchtungseinheit (4) zur Beleuchtung der zu erfassenden Objekte aufweist.Optical sensor according to claim 1, characterized in that it has a lighting unit ( 4 ) for illuminating the objects to be detected. Optischer Sensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Objektstrukturen von Kanten von Objekten gebildet sind.Optical sensor according to one of claims 1 or 2, characterized in that the object structures of edges are formed by objects. Optischer Sensor nach Anspruch 3, dadurch gekennzeichnet, dass die Objekte von in einer Transportebene geförderten bahn- oder bogenförmigen Materialien gebildet sind.Optical sensor according to claim 3, characterized in that the objects are made of sheet-like or sheet-like materials conveyed in a transport plane are formed. Optischer Sensor nach Anspruch 4, dadurch gekennzeichnet, dass die Objekte von Papierbögen oder Papierbahnen gebildet sind.Optical sensor according to claim 4, characterized in that the objects from sheets of paper or paper webs are formed. Optischer Sensor nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass der Schnittpunkt der optischen Achsen (9, 9') der Optiken (6, 6') in der Transportebene liegt.Optical sensor according to one of claims 4 or 5, characterized in that the intersection of the optical axes ( 9 . 9 ' ) the optics ( 6 . 6 ' ) lies in the transport level. Optischer Sensor nach einem der Ansprüche 4–6, dadurch gekennzeichnet, dass die Kameraanordnung oberhalb der Transportebene und die Beleuchtungseinheit (4) unterhalb der Transportebene angeordnet ist.Optical sensor according to one of claims 4-6, characterized in that the camera arrangement above the transport plane and the lighting unit ( 4 ) is arranged below the transport level. Optischer Sensor nach einem der Ansprüche 1–7, dadurch gekennzeichnet, dass die Kameraanordnung und die Auswerteeinheit in einem Gehäuse (3) integriert sind.Optical sensor according to one of claims 1-7, characterized in that the camera arrangement and the evaluation unit in a housing ( 3 ) are integrated. Optischer Sensor nach Anspruch 8, dadurch gekennzeichnet, dass die Optiken (6, 6') in Bohrungen (8, 8') in einer die Unterseite des Gehäuses (3) bildenden Gehäusewand integriert sind.Optical sensor according to claim 8, characterized in that the optics ( 6 . 6 ' ) in holes ( 8th . 8th' ) in the bottom of the case ( 3 ) forming the housing wall are integrated. Optischer Sensor nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die Zeilenkameras (5, 5') an gegenüberliegend angeordneten Innenseiten des Gehäuses (3) fixiert sind.Optical sensor according to one of claims 8 or 9, characterized in that the line cameras ( 5 . 5 ' ) on opposite sides of the housing ( 3 ) are fixed. Optischer Sensor nach Anspruch 10, dadurch gekennzeichnet, dass erste Lichtstrahlen (10) über eine erste Optik (6) direkt zur zugeordneten ersten Zeilenkamera (5) geführt sind, und dass zweite Lichtstrahlen (10') über eine zweite Optik (6') und einen im Innenraum des Gehäuses (3) fixierten Umlenkspiegel (11) zur zweiten Zeilenkamera (5') geführt sind.Optical sensor according to claim 10, characterized in that first light beams ( 10 ) via a first optic ( 6 ) directly to the assigned first line camera ( 5 ) and that second light rays ( 10 ' ) via a second optic ( 6 ' ) and one inside the case ( 3 ) fixed deflection mirror ( 11 ) to the second line scan camera ( 5 ' ) are performed. Optischer Sensor nach einem der Ansprüche 1–11, dadurch gekennzeichnet, dass die Optiken (6, 6') und die Zeilenkameras (5, 5') der Kameraanordnung jeweils identisch ausgebildet sind.Optical sensor according to one of claims 1-11, characterized in that the optics ( 6 . 6 ' ) and the line scan cameras ( 5 . 5 ' ) of the camera arrangement are each identical. Optischer Sensor nach Anspruch 12, dadurch gekennzeichnet, dass die Zeilenkameras (5, 5') jeweils von einer CCD-Zeile oder einer CMOS-Zeile gebildet sind.Optical sensor according to claim 12, characterized in that the line cameras ( 5 . 5 ' ) are each formed by a CCD line or a CMOS line. Optischer Sensor nach einem der Ansprüche 12 oder 13, dadurch gekennzeichnet, dass die Optiken (6, 6') jeweils von zwei Linsen (6a, 6a', 6b, 6b') sowie eine zwischen diesen angeordneten Lochblende (6c, 6c') gebildet sind.Optical sensor according to one of claims 12 or 13, characterized in that the optics ( 6 . 6 ' ) each of two lenses ( 6a . 6a ' . 6b . 6b ' ) and a perforated screen arranged between them ( 6c . 6c ' ) are formed. Optischer Sensor nach einem der Ansprüche 2–14, dadurch gekennzeichnet, dass die Beleuchtungseinheit (4) von einer Neonröhre gebildet ist.Optical sensor according to one of claims 2-14, characterized in that the lighting unit ( 4 ) is formed by a neon tube. Optischer Sensor nach einem der Ansprüche 3–15, dadurch gekennzeichnet, dass in der Auswerteeinheit aus den Ausgangssignalen jeder Zeilenkamera (5, 5') ein Kantenlagensignal ermittelt wird, und dass aus den Kantenlagensignalen die räumliche Lage der Kante eines Objekts berechnet wird.Optical sensor according to one of claims 3-15, characterized in that in the evaluation unit from the output signals of each line camera ( 5 . 5 ' ) an edge position signal is determined, and that the spatial position of the edge of an object is calculated from the edge position signals. Optischer Sensor nach Anspruch 16, dadurch gekennzeichnet, dass in der Auswerteeinheit jeweils das Differential der Ausgangssignale der Zeilenkameras (5, 5') gebildet wird, und dass aus jedem Differential ein Grobbereich (Δx) einer Kantenlage abgeleitet wird.Optical sensor according to claim 16, characterized in that in each case the differential of the output signals of the line scan cameras ( 5 . 5 ' ) and that a coarse area (Δx) of an edge position is derived from each differential. Optischer Sensor nach Anspruch 17, dadurch gekennzeichnet, dass innerhalb eines Grobbereiches (Δx) der Verlauf der Ausgangssignale durch eine Stützstellenfunktion angenähert wird, und dass aus der Stützstellenfunktion das Kantenlagensignal analytisch berechnet wird.Optical sensor according to claim 17, characterized in that the course of the output signals within a rough range (Δx) through a support function approximated and that from the base function the edge position signal is calculated analytically. Optischer Sensor nach einem der Ansprüche 1–18, dadurch gekennzeichnet, dass vor dessen Inbetriebnahme ein Einmessvorgang durchge führt wird, bei welchem Objekte in vorgegebenen Sollpositionen detektiert werden, wobei aus dem Vergleich der dabei registrierten Messwerte mit den Sollpositionen Korrekturwerte für die Erfassung der Objektstrukturen abgeleitet werden.Optical sensor according to one of claims 1-18, characterized marked that a calibration process prior to commissioning carried out which objects are detected in predetermined target positions from the comparison of the measured values registered with the target positions correction values for the acquisition of the object structures be derived.
DE10352274A 2002-11-11 2003-11-08 Method for detecting object structures by means of an optical sensor Expired - Fee Related DE10352274B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10352274A DE10352274B4 (en) 2002-11-11 2003-11-08 Method for detecting object structures by means of an optical sensor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10252699.0 2002-11-11
DE10252699 2002-11-11
DE10352274A DE10352274B4 (en) 2002-11-11 2003-11-08 Method for detecting object structures by means of an optical sensor

Publications (2)

Publication Number Publication Date
DE10352274A1 true DE10352274A1 (en) 2004-06-03
DE10352274B4 DE10352274B4 (en) 2009-02-26

Family

ID=32239994

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10352274A Expired - Fee Related DE10352274B4 (en) 2002-11-11 2003-11-08 Method for detecting object structures by means of an optical sensor

Country Status (1)

Country Link
DE (1) DE10352274B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025910A1 (en) * 2007-06-01 2008-12-04 Windmöller & Hölscher Kg Backlight
EP2093173A1 (en) * 2008-02-19 2009-08-26 Texmag GmbH Vertriebsgesellschaft Method and device for detecting orientation characteristics on a web of material
EP2762430A3 (en) * 2013-01-30 2015-08-19 Fife Corporation Sensor controller for interpreting natural interaction sensor for web handling

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4040225C2 (en) * 1990-12-15 1994-01-05 Leuze Electronic Gmbh & Co Diffuse sensors
DE4130119C2 (en) * 1991-09-11 1994-04-28 Leuze Electronic Gmbh & Co Optical distance measuring device
DE19850270B4 (en) * 1997-11-04 2006-10-26 Leuze Electronic Gmbh & Co Kg Optoelectronic device
CH693468A5 (en) * 1998-12-16 2003-08-15 Hera Rotterdam Bv Method and apparatus for detecting or determining the position of edges.
DE19944104A1 (en) * 1999-09-15 2001-03-22 Loedige Foerdertechnik Measuring equipment for inspection of workpiece reception rack, has line scan cameras with optical axis aligned along X and Y directions
DE10134305B4 (en) * 2000-07-18 2007-01-11 Leuze Electronic Gmbh & Co Kg Optoelectronic device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025910A1 (en) * 2007-06-01 2008-12-04 Windmöller & Hölscher Kg Backlight
DE102007025910B4 (en) * 2007-06-01 2013-08-29 Windmöller & Hölscher Kg Backlight
EP2093173A1 (en) * 2008-02-19 2009-08-26 Texmag GmbH Vertriebsgesellschaft Method and device for detecting orientation characteristics on a web of material
US8476611B2 (en) 2008-02-19 2013-07-02 Texmag Gmbh Vertriebsgesellschaft Systems and methods for the detection of orientation features on a material web
US8729513B2 (en) 2008-02-19 2014-05-20 Texmag Gmbh Vertriebsgesellschaft Systems and methods for the detection of orientation features on a material web
CN101556140B (en) * 2008-02-19 2015-05-06 得克斯玛格销售有限责任公司 Method and device for detecting orientation characteristics on a web of material
EP2762430A3 (en) * 2013-01-30 2015-08-19 Fife Corporation Sensor controller for interpreting natural interaction sensor for web handling
US9415963B2 (en) 2013-01-30 2016-08-16 Fife Corporation Sensor controller for interpreting natural interaction sensor for web handling
US10280025B2 (en) 2013-01-30 2019-05-07 Maxcess Americas, Inc. Sensor controller for interpreting natural interaction sensor for web handling

Also Published As

Publication number Publication date
DE10352274B4 (en) 2009-02-26

Similar Documents

Publication Publication Date Title
EP1618426B1 (en) Method and array for determining the focal position during imaging of a sample
EP1821120B1 (en) Opto-electronic device and method for its operation
DE102015119707B3 (en) Method for aligning a laser scanner and laser scanner arrangement
DE4211875A1 (en) Optical rangefinder with electronic correction for spot eccentricity - evaluates measurement error due to e.g. inclination of object surface in terms of spot displacement at second photodetector.
DE2354141A1 (en) METHOD OF INSPECTING A SURFACE AND DEVICE FOR CARRYING OUT THIS METHOD
DE102021118327B4 (en) Measuring camera for the two-dimensional measurement of objects
DE102011011065A1 (en) Method and device for the high-precision measurement of surfaces
EP0716287B1 (en) Device for measuring a position of webs or sheets
DE102011012611B4 (en) Method and device for non-contact measurement of an angle
DE4444079A1 (en) Method and device for carrying out this method for measuring the position of a web or sheet
DE19506467A1 (en) Device and method for measuring a position of an edge of webs or sheets
DE102019105622B4 (en) Collimator and method of testing a camera
DE19732668A1 (en) Light calibrating procedure for laser beam scanning device
DE4439307C2 (en) Observation optics for a 3D surface measuring device with high accuracy
DE102015006015A1 (en) Apparatus for measuring a imaging property of an optical system
DE10352274B4 (en) Method for detecting object structures by means of an optical sensor
DE3323836A1 (en) METHOD FOR DETERMINING A COORDINATE ON A SURFACE OF A SOLID BODY AND DEVICE FOR IMPLEMENTING SUCH A METHOD
DE10153581A1 (en) Determining effective contour of rotary machine tool in adjusting apparatus, by measuring maximum excursion of shadow boundary line from tool axis at certain points
EP3953077B1 (en) Measuring device for determining the bending angle
DE102017007590B4 (en) Method and device for detecting three-dimensional objects based on the light-section method
DE102008062458B4 (en) Measuring method for laser-based measurement of workpieces, assemblies and tools
EP1273878B1 (en) Procedure to detect an object using different resolutions
EP3575741A1 (en) Method for contact-free measurement of a workpiece edge
DE102015114575B4 (en) Device for image control
DE102019102783A1 (en) Alignment target and method for aligning a camera

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee