WO2011000870A1 - Bearbeitungsanlage - Google Patents

Bearbeitungsanlage Download PDF

Info

Publication number
WO2011000870A1
WO2011000870A1 PCT/EP2010/059284 EP2010059284W WO2011000870A1 WO 2011000870 A1 WO2011000870 A1 WO 2011000870A1 EP 2010059284 W EP2010059284 W EP 2010059284W WO 2011000870 A1 WO2011000870 A1 WO 2011000870A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
slide
illumination
image
edge image
Prior art date
Application number
PCT/EP2010/059284
Other languages
English (en)
French (fr)
Inventor
Hans Opower
Klaus Jünger
Original Assignee
Kleo Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kleo Ag filed Critical Kleo Ag
Priority to CN201080030124.4A priority Critical patent/CN102472986B/zh
Priority to JP2012516787A priority patent/JP2012531616A/ja
Publication of WO2011000870A1 publication Critical patent/WO2011000870A1/de
Priority to US13/332,467 priority patent/US8811665B2/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70691Handling of masks or workpieces
    • G03F7/70791Large workpieces, e.g. glass substrates for flat panel displays or solar panels
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F9/00Registration or positioning of originals, masks, frames, photographic sheets or textured or patterned surfaces, e.g. automatically

Definitions

  • the invention relates to a processing system for plate-shaped objects, in particular an exposure system for plate-shaped objects, with an exposure device and with a slide surface for receiving the object having slide, wherein the exposure device and the slide for exposing the object are movable relative to each other.
  • Such a processing system could be used, for example, for laser processing of plate-shaped objects.
  • the invention is therefore based on the object to improve a processing system of the generic type such that the position of the plate-shaped object relative to the slide can be determined exactly.
  • an edge detection device for detecting the position of the object on the slide, which comprises at least one edge illumination unit arranged in the slide under the slide surface, that the edge illumination unit has an illumination region in at least a part of an object edge region within which an illumination of an object edge located in the respective object edge region is effected by two-dimensionally emitted light from the sides of the slide; in the
  • At least one edge image detection unit is provided at a distance from the slide surface on a side of the object opposite to the slide, which images an edge section of one of the object edges on an image surface as an edge image, and with the at least one edge image detection unit the respective edge image can be detected in a positionally accurate relative to the slide is.
  • the advantage of the solution according to the invention is the fact that with this in a simple way there is the possibility of accurately detecting the position of the object edges on the slide and thus to align the structures generated on the object relative to the object edges exactly.
  • the precision of the detection of the object edges can be improved in particular by designing the optics of the at least one edge image detection unit as a telecentric objective.
  • Such a telecentric lens has the advantage that it only images beams onto the image surface which run parallel to the optical axis of such a lens, so that an exact shadow image of the respective object edge can thereby be imaged onto the image surface.
  • an optical axis of the telecentric objective deviates by a maximum of 5 ° from a perpendicular to the specimen carrier surface.
  • the edge image is imaged on the image surface by rays, all of which extend in a direction substantially perpendicular to the slide surface, so that even an oblique edge surface of an object edge always provides the same shadow image.
  • the image surface of the edge image acquisition unit could be, for example, an image surface in which an operator of the processing system can recognize the position of the object edge in the edge image directly with the eye or an optical system.
  • the image area is the image area of an image sensor, by means of which the edge image can be captured.
  • Such a sensor could be any type of optical sensor.
  • the image sensor is a camera image sensor, so that the position of the object edge can be detected thereon with the resolution of the camera image sensor.
  • the edge image acquisition unit could be designed such that it completely detects the assigned illumination area.
  • the optics of the at least one Edge image detection unit has a detection area, which has a smaller area extent than the respective illumination area.
  • the edge image detection unit are positioned fixed relative to the illumination area.
  • the detection area and the illumination areas are movable relative to one another. This makes it possible to detect in a simple manner, by means of relative movement of the detection area and the illumination area with the detection area, the entire illumination area, albeit successively.
  • the detection area is movable at least as far as until the object edge lies in the detection area.
  • a particularly favorable solution provides that the detection area is movable in the direction transverse to the respective object edge to be detected.
  • a favorable solution provides that the detection area is movable in the direction of the respective object edge to be detected.
  • a movement of the detection area could in principle be effected by optical deflection elements, but these in turn would have the disadvantage that fuzziness would thereby occur in the area of the detection of the object edges.
  • an advantageous solution provides that the at least one edge image detection unit and the slide can be moved relative to one another in at least one direction.
  • the at least one edge image detection unit and the slide can be moved transversely to one another in two mutually transverse directions.
  • the object carrier has an illumination area for illuminating this object edge for each object edge.
  • a lighting area created especially for this purpose is preferably provided for each object edge.
  • Another advantageous solution provides that several, for example two, object edges can be illuminated and observed in an illumination area, so that the number of illumination areas can thereby be reduced and the detection of the object edges can be faster.
  • the number of illumination areas may vary with respect to the number of object edges to be detected. For the determination of the position of the object relative to the slide it might be sufficient to detect two edges of the object, and in particular to detect the course of the two edges of the object relative to the slide.
  • the accuracy of the edge detection device can be significantly increased if the at least one edge image acquisition unit detects at least one edge section of the object with the respective edge image.
  • the respective edge image not only captures and holds one point of the object edge, but an entire edge portion, that is, a plurality of points along an object edge.
  • the at least one edge image acquisition unit acquires a profile of an edge section of the object with the respective edge image.
  • a particularly favorable solution provides that the stored course of the edge section is used to recognize this edge section after a new edition of the object and for the precise position detection of the object.
  • At least one light source that emits light in a planar manner is sufficient.
  • the emitted light has a wavelength which is in the red or near infrared spectral range so as not to cause photochemical processes in the photosensitive layer.
  • the illumination unit for illuminating the respective illumination area has a diffuser and at least one light source illuminating it.
  • Such a light source illuminated diffuser has the great advantage that thereby a very uniform intensity and in particular a diffuse radiation is available, which facilitates the detection of the object edge or the edge portion in the edge image, in particular automatically, as independent from the position of the object edge in the illumination region, the gradient between the part of the detection area not covered by the object and the covered part of the detection area is substantially the same, and in particular due to the diffuse radiation, the radiation detected by the edge image detection unit is substantially the same intensity independent of Location of the lighting area has.
  • a particularly simple way of integrating the illumination unit in the slide provides that the light sources and the diffuser are integrated in the slide.
  • an advantageous solution provides that the slide has a slide plate forming an object carrier surface and that the light from the illumination unit passes through the slide plate. This makes it possible to provide a continuous slide surface for the placement of the object, which is not influenced by the illumination unit, so that no inaccuracies with regard to the positioning of the object on the slide surface occur due to the illumination unit itself.
  • the slide plate acts as an optical diffuser, that is, in addition to receiving the object also represents the optical diffuser.
  • the light sources illuminating the diffuser are arranged in a base body carrying the slide plate, in particular being integrated in this base body, so that no additional attachments to the slide are required.
  • Fig. 1 is a schematic perspective overall view of a processing system according to the invention
  • FIG. 2 is a perspective view of an object to be processed in a processing installation according to the invention
  • FIG. 3 shows a plan view of a slide surface of a slide of a processing system according to the invention
  • 4 shows a schematic sectional view of an object edge with a lighting unit according to the invention and an edge image detection unit according to the invention in a first exemplary embodiment of the processing installation according to the invention
  • Fig. 5 is a representation similar to FIG. 4 an edge detection of
  • FIG. 6 shows a schematic illustration of an optical system of an edge image detection unit according to the invention
  • Fig. 7 is a schematic representation of an edge image in the
  • Fig. 8 is a schematic representation of the edge image in the
  • FIG. 9 shows a schematic representation of the edge image acquisition according to FIG.
  • Fig. 11 is a section through the slide at a second
  • FIG. 12 shows a schematic illustration of an optical system of an edge image detection unit according to the invention similar to FIG. 6 in a third embodiment according to the invention
  • Fig. 13 is a perspective view of an arrangement of a
  • Object 30 on a slide 20 'and determination of the positions of the object edges in a fourth embodiment; 14 is a fragmentary enlarged view of a plan view similar to Figure 3 on the fourth embodiment with dotted drawn object edges.
  • Fig. 15 is a section along line 15-15 in Fig. 14;
  • 17 is an illustration of the edge image of an edge portion of a
  • 18 is an illustration of an edge image while detecting an edge portion of a side edge and a
  • a first exemplary embodiment of an exposure system according to the invention shown in FIG. 1 comprises a machine frame designated as a whole by 10, which has two longitudinal guides 12, 14 arranged at a distance, on which a slide designated as a whole by 20 in a first direction, for example as X-axis. Designated direction, is movably guided.
  • the slide 20 has a slide surface 22 on which objects 30 can be placed which, for example, as shown in FIG. 2, comprise a substrate 32 which is coated on both sides with photosensitive layers 34i and 34 2 , in the photosensitive layers 34i and 34i 34 2 structures 36 can be produced by photochemical conversion of the respective photosensitive layer 34.
  • These structures 36 are, for example, a copper layer 38i and 38 2 on the substrate 32 covering structures, so then then, for example, subsequently in the context of an etching process, the copper layer 38i and 38 2 on the substrate 32 at the locations where they are not covered by the structures 36 is, can be removed, while the copper layer is then only in the areas where it is covered by the structures 36 remains.
  • the structures 36 in the photosensitive layer 34 are formed by an exposure device designated as a whole by 40 in FIG. 1, which is arranged on a bridge 42, which in turn sits on the machine frame 10, wherein a relative movement between the exposure device 40 and the object 30 in that at least the slide 20 in the X direction relative to the exposure device 40 is movable, so that the X direction represents a feed direction 44 during the exposure of the object 30 and optionally still the exposure device 40 in a Y-direction movable the bridge 42 is held
  • Such an exposure device is for example in the
  • the object 30, as shown in FIG. 2 comprises a substrate 32 coated on both sides with a photosensitive layer 34, it is necessary to turn the object 30 after exposure of one of the photosensitive layers, for example exposure of the photosensitive layer 34i, around the object opposite photosensitive layer, for example, the photosensitive layer 34 2 to expose.
  • the object edges 52, 54 and 56, 58 parallel to each other, but it may also deviations from an axis parallelism occur and there may be a deviation from an exactly rectilinear course of the object edges 52, 54 and 56, 58 occur.
  • object edge regions 62, 64, 66 are defined on the slide 20, within which, for conventional sizes of the objects 30, the object edges 52 , 54 and 56 thereof, and an edge detector 60 is provided.
  • the object edge region 66 is selected so that the same transverse to the advancing direction 44 object edge 56 is always in this, regardless of whether the photosensitive layer 34i or 34 2 to be exposed.
  • the object edge region 66 detects the object edge 56 of the object 30 running transversely to the feed direction 44 in both layers.
  • the object edge regions 62 and 64 are selected such that the object edges 52 and 54 extending parallel or obliquely to the advancing direction 44 lie in one position, the object edge 52 in the object edge region 62 and the object edge 54 in the object edge region 64 and in the one 180 ° turned position the object edge 54 in the object edge region 62 and the object edge 52 in the object edge region 64 is located.
  • the detection of the object edges 56 or 52 and 54 in the object edge regions 66 and 62 and 64 takes place optically on the one hand by illumination regions 76, 72 and 74 provided in the slide 20, which extend over at least part of the respective object edge regions.
  • the illumination region 76 is symmetrical with and intersects a central axis 78 of the slide 20 that is parallel to the advancing direction 44, while the illumination regions 72 and 74 also extend transversely to the central axis 78 but are spaced therefrom and also in the direction of the central axis 78 in FIG Distance from the illumination area 76 are arranged.
  • the distance of the illumination regions 72 and 74 from the illumination region 76 depends on the minimum extent of the possible objects 30 in the direction of the central axis 76 and is preferably slightly shorter than the minimum extent of the possible objects 30 in the direction of the central axis 78 starting from the object edge region 66.
  • the illumination areas 76, 72 and 74 are partially covered, so that in each case the object 30 with its object edge 56, the illumination area 76 and with its object edges 52 and 54 the illumination areas 72 and 74 intersect and consequently the object edge 56 is backlit by the illumination area 76 and the object edges 52 and 54 are backlit by the illumination areas 72 and 74 so that there is the possibility of the object edges lying in the illumination areas 76, 72 and 74 56 and 52 and 54, respectively, to receive an edge image from respective edge portions 86 and 82 and 84, respectively, that lie within the illumination areas 76 and 72 and 74, respectively.
  • the recording of edge images takes place, as shown in FIGS.
  • edge image detection units 92 and 94 shown in FIGS. 4 and 5 which, as shown in FIG. 1, for example at a bridge 96, which are seated on the machine frame 10 and are held in a direction transverse to the X-direction, preferably perpendicular to this extending direction Y, wherein the positions of the Kantenchan conductedsakuen 92 and 94 relative to the bridge 96 respectively by Wegmesssysteme 102 and 104 are detectable.
  • each of the edge image detection units 92, 94 includes an optic 110 with a telecentric lens 111, which forces through an aperture stop 112, that only parallel to an optical axis 114 rays from one in the respective illumination area, such as the illumination area 72 lying detection area 108 are imaged on an image surface 116 of an image sensor 118.
  • the image sensor 118 is designed, for example, as a sensor type, as used in cameras.
  • the edge image 120 appears on the image surface 116, showing the edge portion 82 in the case shown in FIG. 6, not only its position but also its course.
  • the edge image 120 of the edge section 84 shown in FIG. 8 can be generated with the edge image detection unit 94.
  • the position of not individual points of the respective edge section 82 or 84 but the position of the entire edge image of the edge section 82 or 84 in the Y direction is determined and determined by the determination the position of the edge portion 82 or 84 before turning the object 30 and after turning the object 30, the position of the object 30 before turning and after turning on the
  • the slide 20 is still provided with a reference mark 130 which can be approached by each of the edge image detection units 92 and 94 and also backlit Edges are described in the same way as described with respect to the edge portions 82 and 84, by which edge image detection units 92 and 94 are detectable.
  • the position of the edge section 86 can also be detected, for which purpose one of the edge image detection units 92 and 94 or both edge image detection units 92 and 94 is positioned above the illumination region 76 by means of Y-direction in order to control either the position of the entire edge section 86 or parts of the edge section 86 Edge portion 86 to capture in the X direction and edge images 120 to create this.
  • the evaluation of the position of the edge portions 82, 84 and 86 is preferably carried out by a controller 140 for the exposure device 40, which is capable of, the position and the course of the respective edge portion 82, 84, 86 in the respective directions X and Y from the edge images 120 to determine, and then due to this orientation Exposure of the one 34 2 of the photosensitive layers relative to the other 34i of the photosensitive layers to control exactly matched, so that then in both photosensitive layers 34i, 34 2 to be generated structures are positioned relative to each other exactly.
  • edge illumination units 150 are provided which have individual light sources 152 arranged side by side in one or more rows and, moreover, between the two a light source 152, a diffuser 154 is provided which scatters the light of the rows of light sources 152 so that on a respective illumination area, such as the illumination area 72, facing side of the diffuser 154 is a diffused and thus largely uniform in terms of brightness light, wherein a Radiation of the light takes place in each point of the respective illumination area 72 in all directions, of which only the beam directions directed perpendicular to the slide surface 22 are selected in order to produce the respective edge image 120.
  • the light sources 152 are formed of semiconductor diodes which are arranged in one or more rows offset from one another to illuminate the diffuser 154 as evenly as possible, as shown in Fig. 4, 5 or 9.
  • the light sources emit at a wavelength in the red or near infrared spectral range to avoid exposure of the photosensitive layers 34 which results in a photochemical conversion therein.
  • the edge detection device 60 thus comprises one or more edge illumination units 150, which are preferably integrated in the slide 20, and the edge image detection units 90 and 92, which are held on the machine frame 10.
  • the edge image acquisition units 92 and 94 and the edge illumination units 150 are movable relative to one another in order to be able to detect and evaluate the respective edge images of the object edges 52, 54, 56, 58.
  • the edge image detection units 92 and 94 are movably guided in the Y direction on the bridge 96 relative to the machine frame, while the edge illumination units 150 are movable with the slide 20 in the Y direction relative to the machine frame.
  • edge image detection units 94 and the edge illumination units 150 it is generally possible to obtain a relative movement of the edge image detection units 94 and the edge illumination units 150 to each other by moving either the edge image detection units 92, 94 or the edge illumination units 150 in two mutually transverse directions.
  • the movement of the edge image detection units 92 and 94 and the edge illumination units 150 relative to each other was controlled by the controller 140, which is the location of the edge illumination units 150 in the slide 20, so that the controller 140 is able to control the respective edge illumination units 150, the Illumination areas 76, 72 and 74 are assigned to be positioned so that they are detectable by the edge image detection units 92, 94, wherein an image of the respective illumination area 76, 72, 74 takes place on the respective image surface 116 of the image sensor 118.
  • the detection areas 108 have a smaller surface area than the illumination areas 76, 72, 74, it is necessary, under the control of the control unit 140, to always move the edge image detection units 92, 94 in such a way that in the edge image 120 generated in each case measuring edge portion 82, 84, 86 is approximately in the middle of the edge image.
  • the control 140 predetermined relative position of the edge image detection unit 92, 94 and the respective illumination area 76, 72, 74 on the slide 20, the position of the respective edge portion 82, 84, 86 in the respective edge image 120 can be evaluated exactly because at this one sharp light-dark contrast is present.
  • the position of the object 30 on the slide 20 prior to exposure of the respective photosensitive layer 34i or 34 2 can be determined exactly by the edge detection device 60 according to the invention and thus accurately correct the exposure of the respective photosensitive layer according to the position of the object edges 52, 54, 56 ,
  • the edge images 120 can store with the respective course of the edge portions 82, 84, 86 in the controller, so that after turning this edge portion 82, 84, 86 can be found again due to its course and with the Course of the detected before turning edge portion can be made to coincide, resulting in an increased precision in the determination of the position of the object 30 after turning with respect to the position of the object 30 before turning in each case relative to the slide 20 results.
  • the respective edge illumination unit 150 integrated into the slide 20, wherein the slide 20 a Base body 162 and resting on the base 162 slide plate 164, wherein the slide plate 164 is formed for example as a ceramic plate, which in turn forms the slide surface 22 on its side facing away from the base 162 side.
  • the edge illumination unit 150 is integrated, for example, in the base body 162 so that the diffuser 154 is formed by the slide plate 164, which in turn acts as an optical diffuser, and sits on the base 162 and from its side facing away from the slide surface 22 of the designed as light-emitting diodes
  • Light sources 152 is illuminated, wherein the light sources 152 are formed for example by two or more juxtaposed rows of light-emitting diodes.
  • the LEDs 152 are seated in a recess 166 of the base body 162, which passes through the base body 162 to its bottom 168, wherein, however, the recess 166 is closed by a cover plate 170 terminating with the bottom 168.
  • the optics 110 ' comprise a double-sided telecentric object 111', in which the aperture diaphragm 112 forces parallel beams both in the object space and in the image space to the optical axis 114, that is to say only these beams for imaging, so that in contrast to the first embodiment, there is an improved telecentric behavior.
  • the third embodiment operates in the same way as the preceding embodiments, so that with respect to the other features, reference is made in full to the preceding embodiments.
  • the object edge regions 62 and 64 and 66 are arranged so that they overlap within illumination regions 72 'and 74' Edge regions 82 and 86a of the object edges 52 and 56 can be detected by means of the illumination region 72 'and edge regions 84 and 86b of the object edges 54 and 56 can be detected by means of the illumination region 74'.
  • edge image detection units 92 and 94 which are movable at least in the Y direction, preferably also in the X direction, around the respective illumination regions 72 'and 74 'lying detection areas 108 for detecting the edge images 120 of edge portions 82 and 84 and 86 a and 86 b to draw.
  • an edge image of the edge portion can be as illustrated in FIGS. 16 and 17, are detected 82 and subsequently through the edge image 120 '2 an edge image of the edge portion 86a.
  • the detection area 108 is displaced to such an extent by the edge image acquisition unit 92 that, for example, it first detects only the edge section 82 but not the edge section 86a, and subsequently acquires the edge section 86a by moving in the X direction when the detection zone 108 in FIG Y-direction takes place.
  • the fourth embodiment operates in the same way as the preceding embodiments, so that with respect to the rest

Abstract

Um bei einer Bearbeitungsanlage für plattenförmige Objekte, mit einer Belichtungseinrichtung und mit einem eine Objektträgerfläche zur Aufnahme des Objekts aufweisenden Objektträger, wobei die Belichtungseinrichtung und der Objektträger relativ zueinander bewegbar sind, derart zu verbessern, dass die Position des plattenförmigen Objekts relativ zu dem Objektträger exakt bestimmt werden kann, wird vorgeschlagen, dass eine Kantenerfassungseinrichtung vorgesehen ist, welche mindestens eine Kantenbeleuchtungseinheit umfasst, dass die Kantenbeleuchtungseinheit in mindestens einem Teil eines Objektkantenbereichs einen Beleuchtungsbereich aufweist, innerhalb von welchem ein Anleuchten einer in dem jeweiligen Objektkantenbereich liegenden Objektkante von Seiten des Objektträgers mit flächenhaft abgestrahltem Licht erfolgt, und dass im Abstand von der Objektträgerfläche auf einer dem Objektträger gegenüberliegenden Seite des Objekts mindestens eine Kantenbilderfassungseinheit vorgesehen ist, welche einen in dem Beleuchtungsbereich liegenden Kantenabschnitt der Objektkanten auf eine Bildfläche als Kantenbild abbildet, und dass mit der mindestens eine Kantenbilderfassungseinheit das jeweilige Kantenbild positionsgenau relativ zum Objektträger erfassbar ist.

Description

BEARBEITUNGSANLAGE
Die Erfindung betrifft eine Bearbeitungsanlage für plattenförmige Objekte, insbesondere eine Belichtungsanlage für plattenförmige Objekte, mit einer Belichtungseinrichtung und mit einem eine Objektträgerfläche zur Aufnahme des Objekts aufweisenden Objektträger, wobei die Belichtungseinrichtung und der Objektträger zum Belichten des Objekts relativ zueinander bewegbar sind.
Derartige Bearbeitungsanlagen sind bekannt.
Eine derartige Bearbeitungsanlage könnte beispielsweise zur Laserbearbeitung von plattenförmigen Objekten eingesetzt werden.
Es ist aber auch denkbar, eine derartige Bearbeitungsanlage als Belichtungsanlage für plattenförmige Objekte, insbesondere für plattenförmige Objekte mit einer fotosensitiven Beschichtung einzusetzen, wobei Strukturen in der fotosensitiven Beschichtung durch Lithografie erzeugbar sind.
Bei derartigen Bearbeitungsanlagen besteht das Problem, dass dann, wenn die plattenförmigen Objekte auf dem Objektträger aufgelegt werden oder beidseitig bearbeitet, insbesondere belichtet, werden sollen, das Objekt auf dem Objektträger jeweils definiert zu positionieren ist.
Der Erfindung liegt daher die Aufgabe zugrunde, eine Bearbeitungsanlage der gattungsgemäßen Art derart zu verbessern, dass die Position des plattenförmigen Objekts relativ zu dem Objektträger exakt bestimmt werden kann.
Diese Aufgabe wird bei einer Bearbeitungsanlage der eingangs beschriebenen Art erfindungsgemäß dadurch gelöst, dass zum Erfassen der Lage des Objekts auf dem Objektträger eine Kantenerfassungseinrichtung vorgesehen ist, welche mindestens ein in dem Objektträger unter der Objektträgerfläche angeordnete Kantenbeleuchtungseinheit umfasst, dass die Kantenbeleuchtungseinheit in mindestens einem Teil eines Objektkantenbereichs einen Beleuchtungsbereich aufweist, innerhalb von welchem ein Anleuchten einer in dem jeweiligen Objektkantenbereich liegenden Objektkante von Seiten des Objektträgers mit flächenhaft abgestrahltem Licht erfolgt, und dass im
Abstand von der Objektträgerfläche auf einer dem Objektträger gegenüberliegenden Seite des Objekts mindestens eine Kantenbilderfassungseinheit vorgesehen ist, welche einen in dem Beleuchtungsbereich liegenden Kantenabschnitt einer der Objektkanten auf eine Bildfläche als Kantenbild abbildet, und dass mit der mindestens einen Kantenbilderfassungseinheit das jeweilige Kantenbild positionsgenau relativ zum Objektträger erfassbar ist.
Der Vorteil der erfindungsgemäßen Lösung ist darin zu sehen, dass mit dieser in einfacher Weise die Möglichkeit besteht, die Lage der Objektkanten auf dem Objektträger exakt zu erfassen und somit die auf dem Objekt erzeugten Strukturen relativ zu den Objektkanten exakt auszurichten.
Dies ist beispielsweise vorteilhaft, im Fall komplexer Strukturen, wobei die Struktur auf einer Oberfläche des Objekts zur Struktur auf der anderen Oberfläche des Objekts passen muss, um beispielsweise die Strukturen miteinander verknüpfen zu können.
Die Präzision der Erfassung der Objektkanten lässt sich insbesondere dadurch verbessern, dass die Optik der mindestens einen Kantenbilderfassungseinheit als telezentrisches Objektiv ausgebildet ist.
Ein derartiges telezentrisches Objektiv hat den Vorteil, dass dieses auf die Bildfläche lediglich Strahlen abbildet, die parallel zur optischen Achse eines derartigen Objektivs verlaufen, so dass dadurch ein exaktes Schattenbild der jeweiligen Objektkante auf die Bildfläche abgebildet werden kann. Um durch schräg verlaufende Kantenflächen fehlerhafte Kantenbilder zu vermeiden, ist vorzugsweise vorgesehen, dass eine optische Achse des tele- zentrischen Objektivs maximal um 5° von einer Senkrechten zur Objektträgerfläche abweicht.
Damit wird das Kantenbild auf der Bildfläche durch Strahlen abgebildet, die alle in im Wesentlichen in senkrechter Richtung zur Objektträgerfläche verlaufen, so dass auch eine schräge Kantenfläche einer Objektkante stets das gleiche Schattenbild liefert.
Die Bildfläche der Kantenbilderfassungseinheit könnte beispielsweise eine Bildfläche sein, in welcher eine Bedienungsperson der Bearbeitungsanlage unmittelbar mit dem Auge oder einer Optik die Lage der Objektkante in dem Kantenbild erkennen kann.
Eine besonders günstige Lösung sieht jedoch vor, dass die Bildfläche die Bildfläche eines Bildsensors ist, durch den sich das Kantenbild erfassen lässt.
Ein derartiger Sensor könnte jede Art von optischem Sensor sein.
Um eine exakte Bestimmung der Lage der Objektkante vornehmen zu können, ist es günstig, wenn der Bildsensor ein Kamerabildsensor ist, so dass mit der Auflösung des Kamerabildsensors die Lage der Objektkante auf diesem erfasst werden kann.
Grundsätzlich könnte die Kantenbilderfassungseinheit so ausgebildet sein, dass sie den zugeordneten Beleuchtungsbereich vollständig erfasst.
Eine derartige Ausbildung des Kantenerfassungsbereichs hätte allerdings eine entsprechend aufwändige Optik zur Folge.
Um die Kantenbilderfassungseinheit mit möglichst einfachen Mitteln aufbauen zu können, ist vorzugsweise vorgesehen, dass die Optik der mindestens einen Kantenbilderfassungseinheit einen Erfassungsbereich aufweist, welcher eine kleinere Flächenausdehnung aufweist als der jeweilige Beleuchtungsbereich.
Damit besteht die Möglichkeit, eine kostengünstige Optik zu verwenden.
Grundsätzlich kann dann, wenn die Lage der jeweiligen Objektkante
näherungsweise bestimmt ist und die Unscharfe der Positionierung der jeweiligen Objektkante innerhalb des Erfassungsbereichs liegt, die Kantenbilderfassungseinheit relativ zum Beleuchtungsbereich feststehend positioniert werden.
Um jedoch auch mit großen Unterschieden hinsichtlich der Lage der Objektkanten arbeiten zu können, so lange diese im jeweiligen Beleuchtungsbereich liegen, ist vorzugsweise vorgesehen, dass der Erfassungsbereich und die Beleuchtungsbereiche relativ zueinander bewegbar sind. Damit besteht die Möglichkeit, in einfacher Weise durch Relativbewegung von Erfassungsbereich und Beleuchtungsbereich mit dem Erfassungsbereich den ganzen Beleuchtungsbereich, allerdings sukzessive, zu erfassen.
Insbesondere ist hierbei vorgesehen, dass der Erfassungsbereich mindestens soweit bewegbar ist, bis die Objektkante in dem Erfassungsbereich liegt.
Eine besonders günstige Lösung sieht dabei vor, dass der Erfassungsbereich in Richtung quer zu der jeweiligen zu erfassenden Objektkante bewegbar ist.
Alternativ dazu sieht eine günstige Lösung vor, dass der Erfassungsbereich in Richtung der jeweiligen zu erfassenden Objektkante bewegbar ist.
Eine Bewegung des Erfassungsbereichs könnte grundsätzlich durch optische Umlenkelemente erfolgen, diese hätten jedoch wiederum den Nachteil, dass damit Unscharfen im Bereich der Erfassung der Objektkanten auftreten würden. Aus diesem Grund sieht eine vorteilhafte Lösung vor, dass die mindestens eine Kantenbilderfassungseinheit und der Objektträger in mindestens einer Richtung relativ zueinander bewegbar sind.
Um außerdem auch noch die Möglichkeit zu eröffnen, mit einer Kantenbilderfassungseinheit Objektkanten in mehreren Beleuchtungsbereichen zu erfassen, ist vorzugsweise vorgesehen, dass die mindestens eine Kantenbilderfassungseinheit und der Objektträger in zwei quer zueinander verlaufenden Richtungen quer zueinander bewegbar sind.
Hinsichtlich der vorgesehenen Beleuchtungsbereiche wurden im Zusammenhang mit der bisherigen Erläuterung der einzelnen Ausführungsbeispiele keine näheren Angaben gemacht.
So wäre bei einer Lösung denkbar, einen sehr großen Beleuchtungsbereich vorzusehen, in welchem mehrere Objektkanten erfassbar sind.
Um die Erfassung der Objektkanten möglichst einfach zu gestalten, ist vorzugsweise vorgesehen, dass der Objektträger für jede Objektkante einen Beleuchtungsbereich zum Anleuchten dieser Objektkante aufweist.
Damit ist vorzugsweise für jede Objektkante ein eigens für diese geschaffener Beleuchtungsbereich vorgesehen.
Alternativ dazu sieht eine andere vorteilhafte Lösung vor, dass in einem Beleuchtungsbereich mehrere, beispielsweise zwei, Objektkanten anleuchtbar und beobachtbar sind, so dass dadurch die Zahl der Beleuchtungsbereiche reduziert werden kann und die Erfassung der Objektkanten schneller erfolgen kann.
Die Zahl der Beleuchtungsbereiche kann dabei im Hinblick auf die Zahl der zu erfassenden Objektkanten variieren. Für die Ermittlung der Lage des Objekts relativ zum Objektträger könnte es ausreichend sein, zwei Objektkanten zu erfassen, und insbesondere den Verlauf der beiden Objektkanten relativ zu dem Objektträger zu erfassen.
Im Fall einer möglichst präzisen Erfassung der Lage des Objekts relativ zum Objektträger ist jedoch vorteilhafterweise vorgesehen, dass bei der erfindungsgemäßen Bearbeitungsanlage drei Objektkanten des Objekts erfasst werden.
Insbesondere wenn drei Objektkanten erfasst werden, würde es theoretisch ausreichen, im Bereich jeder Objektkante einen Punkt zu erfassen.
Die Genauigkeit der erfindungsgemäßen Kantenerfassungseinrichtung lässt sich jedoch noch erheblich steigern, wenn die mindestens eine Kantenbild- erfassungseinheit mit dem jeweiligen Kantenbild mindestens einen Kantenabschnitt des Objekts erfasst.
Das heißt, dass das jeweilige Kantenbild nicht lediglich einen Punkt der Objektkante erfasst und festhält, sondern einen gesamten Kantenabschnitt, das heißt eine Vielzahl von Punkten längs einer Objektkante.
Insbesondere ist es dabei günstig, wenn die mindestens eine Kantenbild- erfassungseinheit mit dem jeweiligen Kantenbild einen Verlauf eines Kantenabschnitts des Objekts erfasst.
Das heißt, dass sämtliche, längs des Kantenabschnitts liegenden Bildpunkte erfasst werden können, so dass die Möglichkeit besteht, diesen Kantenabschnitt aufgrund seines speziellen Verlaufs, das heißt beispielsweise aufgrund seines nicht geradlinigen Verlaufes, nachfolgend erneut zu erkennen und somit zur exakten Positionierung oder zur exakten Vermessung der Position des Objekts relativ zum Objektträger heranzuziehen. Ein derartiger Verlauf eines Kantenabschnitts ergibt somit nicht nur eine Information der Lage des Kantenabschnitts in einer Raumrichtung, sondern in zwei Raumrichtungen, das heißt in einer Ebene.
Insbesondere dann, wenn die Verläufe mehrerer Kantenabschnitte mehrerer Objektkanten erfasst werden, besteht somit die Möglichkeit, die Präzision der Erfassung der Lage des Objekts relativ zum Objektträger erheblich zu verbessern, da mit jedem Verlauf eines Kantenabschnitts eine zweidimensionale Erfassung des Verlaufs des Kantenabschnitts möglich ist.
Eine besonders günstige Lösung sieht vor, dass der gespeicherte Verlauf des Kantenabschnitts zur Wiedererkennung dieses Kantenabschnitts nach einer Neuauflage des Objekts und zur präzisen Lageerfassung des Objekts herangezogen wird.
Eine derartige Lösung hat den großen Vorteil, dass dann, wenn dasselbe Objekt erneut auf den Objektträger aufgelegt wird, sei es nach einem Wenden des Objekts oder nach einer zwischenzeitlichen Herausnahme und erneuten Einlegen desselben in der gleichen Orientierung, durch die Wiedererkennung des Kantenabschnitts die Position dieses Objekts relativ zum Objektträger noch exakter erfasst werden kann, so dass insbesondere bei einer erneuten Auflage dieselben Objekte auf dem Objektträger durch diese Wiedererkennung der Kantenabschnitte die relative Positionsgenauigkeit aufgrund des bei mehreren Kantenabschnitten erfassbaren zweidimensionalen Verlaufs derselben und somit überbestimmter Positionsinformation für das Objekt noch weiter verbessert werden kann.
Hinsichtlich der Ausbildung der Beleuchtungseinheit wurden bislang keine näheren Angaben gemacht.
Grundsätzlich reicht mindestens eine Lichtquelle aus, die flächenhaft Licht abstrahlt. Vorzugsweise hat das abgestrahlte Licht eine Wellenlänge, die im roten oder nahen infraroten Spektralbereich liegt, um keine fotochemischen Prozesse in der fotosensitiven Schicht auszulösen.
Eine vorteilhafte Lösung sieht vor, dass die Beleuchtungseinheit zur Ausleuchtung des jeweiligen Beleuchtungsbereichs einen Diffusor und mindestens eine diesen anleuchtende Lichtquelle aufweist.
Ein derartiger, von Lichtquellen angeleuchteter Diffusor hat den großen Vorteil, dass dadurch eine sehr gleichmäßige Intensität und insbesondere eine diffuse Abstrahlung zur Verfügung steht, die die Erkennung der Objektkante oder des Kantenabschnitts in dem Kantenbild, insbesondere auf automatische Art und Weise, erleichtert, da unabhängig von der Lage der Objektkante in dem Beleuchtungsbereich der Gradient zwischen dem nicht von dem Objekt abgedeckten Teil des Erfassungsbereichs und dem abgedeckten Teil des Erfassungsbereichs im Wesentlichen stets derselbe ist und insbesondere auch aufgrund der diffusen Abstrahlung die von der Kantenbilderfassungseinheit erfasste Strahlung im Wesentlichen dieselbe Intensität unabhängig vom Ort des Beleuchtungsbereichs hat.
Eine besonders einfache Art und Weise der Integration der Beleuchtungseinheit in den Objektträger sieht vor, dass die Lichtquellen und der Diffusor in dem Objektträger integriert sind.
Hinsichtlich der Ausbildung des Objektträgers wurden bislang keine näheren Angaben gemacht.
So sieht eine vorteilhafte Lösung vor, dass der Objektträger eine Objektträgerfläche bildende Objektträgerplatte aufweist und dass das Licht aus der Beleuchtungseinheit durch die Objektträgerplatte hindurchtritt. Damit besteht die Möglichkeit, für das Auflegen des Objekts eine durchgehende Objektträgerfläche zur Verfügung zu stellen, die durch die Beleuchtungseinheit nicht beeinflusst ist, so dass durch die Beleuchtungseinheit selbst keinerlei Ungenauigkeiten im Hinblick auf die Positionierung des Objekts auf der Objektträgerfläche auftreten.
Dabei könnte unter der Objektträgerplatte der Diffusor angeordnet sein.
Besonders günstig ist es jedoch, wenn die Objektträgerplatte als optischer Diffusor wirkt, das heißt zusätzlich zur Aufnahme des Objekts auch noch den optischen Diffusor darstellt.
Besonders günstig ist es hierbei, wenn die den Diffusor beleuchtenden Lichtquellen in einem die Objektträgerplatte tragenden Grundkörper angeordnet sind, insbesondere in diesem Grundkörper integriert sind, so dass damit keinerlei zusätzliche Anbauten an dem Objektträger erforderlich sind.
Weitere Merkmale und Vorteile der Erfindung sind Gegenstand der nachfolgenden Beschreibung sowie der zeichnerischen Darstellung eines Ausführungsbeispiels.
In der Zeichnung zeigen :
Fig. 1 eine schematische perspektivische Gesamtansicht einer erfindungsgemäßen Bearbeitungsanlage;
Fig. 2 eine perspektivische Darstellung eines in einer erfindungsgemäßen Bearbeitungsanlage zu bearbeitende Objekts;
Fig. 3 eine Draufsicht auf eine Objektträgerfläche eines Objektträgers einer erfindungsgemäßen Bearbeitungsanlage; Fig. 4 eine schematische Schnittansicht einer Objektkante mit einer erfindungsgemäßen Beleuchtungseinheit und einer erfindungsgemäßen Kantenbilderfassungseinheit bei einem ersten Ausführungsbeispiel der erfindungsgemäßen Bearbeitungsanlage;
Fig. 5 eine Darstellung ähnlich Fig. 4 einer Kantenerfassung der
gegenüberliegenden Objektkante;
Fig. 6 eine schematische Darstellung einer Optik einer erfindungsgemäßen Kantenbilderfassungseinheit;
Fig. 7 eine schematische Darstellung eines Kantenbildes bei der
Kantenbilderfassung gemäß Fig. 4;
Fig. 8 eine schematische Darstellung des Kantenbildes bei der
Kantenbilderfassung gemäß Fig. 5;
Fig. 9 eine schematische Darstellung der Kantenbilderfassung gemäß
Fig. 5 allerdings bei um 180° gewendetem Objekt;
Fig. 10 eine schematische Darstellung des Kantenbildes bei der
Kantenbilderfassung gemäß Fig. 9;
Fig. 11 einen Schnitt durch den Objektträger bei einem zweiten
erfindungsgemäßen Ausführungsbeispiel;
Fig. 12 eine schematische Darstellung einer Optik einer erfindungsgemäßen Kantenbilderfassungseinheit ähnlich Fig. 6 bei einem dritten erfindungsgemäßen Ausführungsbeispiel;
Fig. 13 eine perspektivische Darstellung einer Anordnung eines
Objekts 30 auf einem Objektträger 20' und Ermittlung der Lagen der Objektkanten bei einem vierten Ausführungsbeispiel; Fig. 14 eine ausschnittsweise vergrößerte Darstellung einer Draufsicht ähnlich Fig. 3 auf das vierte Ausführungsbeispiel mit gepunktet gezeichneten Objektkanten;
Fig. 15 einen Schnitt längs Linie 15-15 in Fig. 14;
Fig. 16 eine Darstellung eines Kantenbilds eines Kantenabschnitts
einer seitlichen Kante des Objekts ähnlich Fig. 7;
Fig. 17 eine Darstellung des Kantenbilds eines Kantenabschnitts einer
Querkante des Objekts und
Fig. 18 eine Darstellung eines Kantenbilds bei gleichzeitiger Erfassung eines Kantenabschnitts einer Seitenkante und eines
Kantenabschnitts einer Querkante.
Ein in Fig. 1 dargestelltes erstes Ausführungsbeispiel einer erfindungsgemäßen Belichtungsanlage umfasst ein als Ganzes mit 10 bezeichnetes Maschinengestell, welches zwei im Abstand voneinander angeordnete Längsführungen 12, 14 aufweist, an welchen ein als Ganzes mit 20 bezeichneter Objektträger in einer ersten Richtung, beispielsweise als X-Richtung bezeichnet, bewegbar geführt ist.
Der Objektträger 20 weist eine Objektträgerfläche 22 auf, auf welcher Objekte 30 auflegbar sind, die beispielsweise, wie in Fig. 2 dargestellt, ein Substrat 32 umfassen, das beiderseits mit fotosensitiven Schichten 34i und 342 beschichtet ist, wobei in den fotosensitiven Schichten 34i und 342 Strukturen 36 durch fotochemische Umwandlung der jeweiligen fotosensitiven Schicht 34 erzeugbar sind. Diese Strukturen 36 sind beispielsweise eine Kupferschicht 38i und 382 auf dem Substrat 32 abdeckende Strukturen, so dass dann beispielsweise nachfolgend im Rahmen eines Ätzvorgangs die Kupferschicht 38i und 382 auf dem Substrat 32 an den Stellen, an denen sie nicht durch die Strukturen 36 abgedeckt ist, abgetragen werden kann, während die Kupferschicht dann lediglich in den Bereichen, in denen sie durch die Strukturen 36 abgedeckt ist, bestehen bleibt.
Das Herstellen der Strukturen 36 in der fotosensitiven Schicht 34 erfolgt durch eine in Fig. 1 als Ganzes mit 40 bezeichnete Belichtungseinrichtung, die an einer Brücke 42 angeordnet ist, welche ihrerseits auf dem Maschinengestell 10 sitzt, wobei eine Relativbewegung zwischen der Belichtungseinrichtung 40 und dem Objekt 30 dadurch erfolgt, dass mindestens der Objektträger 20 in der X- Richtung relativ zur Belichtungseinrichtung 40 bewegbar ist, so dass die X- Richtung eine Vorschubrichtung 44 bei der Belichtung des Objekts 30 darstellt und gegebenenfalls noch die Belichtungseinrichtung 40 in einer Y-Richtung bewegbar an der Brücke 42 gehalten ist
Eine derartige Belichtungseinrichtung ist beispielsweise in der
WO 2008/071347 A beschrieben, auf weiche hinsichtlich deren Beschreibung vollinhaltlich Bezug genommen wird.
Umfasst das Objekt 30, wie in Fig. 2 dargestellt, ein doppelseitig mit einer fotosensitiven Schicht 34 beschichtetes Substrat 32, so ist es erforderlich, das Objekt 30 nach Belichtung einer der fotosensitiven Schichten, beispielsweise Belichtung der fotosensitiven Schicht 34i, zu wenden, um die gegenüberliegende fotosensitive Schicht, beispielsweise die fotosensitive Schicht 342, zu belichten.
In diesem Fall ist es jedoch erforderlich, sicherzustellen, dass die Strukturen 36i der fotosensitiven Schicht 34i und die in der fotosensitiven Schicht 342 belichteten Strukturen 36 exakt zusammenpassen, um einen Versatz zu vermeiden. Daher ist es erforderlich, die Lage des Substrats 30 auf dem Objektträger 20 exakt zu erfassen, um die Strukturen 36 in exakter Ausrichtung zu Objektkanten 52, 54 bzw. 56, 58 des Objekts 30 zu positionieren.
Üblicherweise verlaufen die Objektkanten 52, 54 bzw. 56, 58 parallel zueinander, es können jedoch aber auch Abweichungen von einer Achsenparallelität auftreten und es kann eine Abweichung von einem exakt geradlinigen Verlauf der Objektkanten 52, 54 bzw. 56, 58 auftreten.
Um die Objektkanten 52, 54, 56, 58 auf dem Objektträger 20 erfassen zu können, sind, wie in Fig. 3 dargestellt, auf dem Objektträger 20 Objektkantenbereiche 62, 64, 66 definiert, innerhalb welchen bei üblichen Größen der Objekte 30 die Objektkanten 52, 54 und 56 derselben liegen und es ist eine Kantenerfassungseinrichtung 60 vorgesehen.
Dabei ist der Objektkantenbereich 66 so gewählt, dass in diesem stets dieselbe quer zur Vorschubrichtung 44 verlaufende Objektkante 56 liegt, unabhängig davon, ob die fotosensitive Schicht 34i oder 342 belichtet werden soll.
Das heißt, dass der Objektkantenbereich 66 die quer zur Vorschubrichtung 44 verlaufende Objektkante 56 des Objekts 30 in beiden Lagen erfasst.
Die Objektkantenbereiche 62 und 64 sind so gewählt, dass in diesen die parallel oder schräg zur Vorschubrichtung 44 verlaufenden Objektkanten 52 bzw. 54 liegen, wobei in der einen Stellung die Objektkante 52 im Objektkantenbereich 62 und die Objektkante 54 im Objektkantenbereich 64 liegt und in der dazu um 180° gewendeten Stellung die Objektkante 54 im Objektkantenbereich 62 und die Objektkante 52 im Objektkantenbereich 64 liegt. Die Erfassung der Objektkanten 56 bzw. 52 und 54 in den Objektkantenbereichen 66 bzw. 62 und 64 erfolgt optisch und zwar einerseits durch im Objektträger 20 vorgesehene Beleuchtungsbereiche 76, 72 und 74, die sich zumindest über einen Teil der jeweiligen Objektkantenbereiche erstrecken.
Beispielsweise liegt der Beleuchtungsbereich 76 symmetrisch zu einer parallel zur Vorschubrichtung 44 verlaufenden Mittelachse 78 des Objektträgers 20 und schneidet diese, während die Beleuchtungsbereiche 72 und 74 sich ebenfalls quer zur Mittelachse 78 erstrecken, jedoch im Abstand von dieser verlaufen und außerdem in Richtung der Mittelachse 78 im Abstand von dem Beleuchtungsbereich 76 angeordnet sind.
Der Abstand der Beleuchtungsbereiche 72 und 74 vom Beleuchtungsbereich 76 hängt dabei von der minimalen Ausdehnung der möglichen Objekte 30 in Richtung der Mittelachse 76 ab und ist vorzugsweise geringfügig kürzer als die minimale Ausdehnung der möglichen Objekte 30 in Richtung der Mittelachse 78 ausgehend von dem Objektkantenbereich 66.
Durch das auf dem Objektträger 20 liegende Objekt 30, welches in Fig. 3 gepunktet dargestellt ist, werden die Beleuchtungsbereiche 76, 72 und 74 teilweise abgedeckt, so dass jeweils das Objekt 30 mit seiner Objektkante 56 den Beleuchtungsbereich 76 und mit seinen Objektkanten 52 und 54 die Beleuchtungsbereiche 72 und 74 schneidet und folglich die Objektkante 56 durch den Beleuchtungsbereich 76 hinterleuchtet wird und die Objektkanten 52 und 54 durch die Beleuchtungsbereiche 72 und 74 hinterleuchtet werden, so dass die Möglichkeit besteht, von den in den Beleuchtungsbereichen 76, 72 und 74 liegenden Objektkanten 56 bzw. 52 und 54 ein Kantenbild von jeweiligen Kantenabschnitte 86 bzw. 82 und 84 aufzunehmen, die innerhalb der Beleuchtungsbereiche 76 bzw. 72 und 74 liegen. Die Aufnahme von Kantenbildern erfolgt, wie in Fig. 4 und 5 exemplarisch anhand der Kantenabschnitte 82 und 84 dargestellt, durch in Fig. 4 und 5 dargestellte Kantenbilderfassungseinheiten 92 und 94, die, wie in Fig. 1 dargestellt, beispielsweise an einer Brücke 96, die auf dem Maschinengestell 10 sitzen und in einer quer zur X-Richtung, vorzugsweise senkrecht zu dieser verlaufenden Richtung Y verfahrbar gehalten sind, wobei die Positionen der Kantenbilderfassungseinheiten 92 und 94 relativ zur Brücke 96 jeweils durch Wegmesssysteme 102 und 104 erfassbar sind.
Wie in Fig. 6 dargestellt, umfasst jede der Kantenbilderfassungseinheiten 92, 94 eine Optik 110 mit einem telezentrischen Objektiv 111, welches durch eine Aperturblende 112 erzwingt, dass lediglich zu einer optischen Achse 114 parallele Strahlen von einem in dem dem jeweiligen Beleuchtungsbereich, beispielsweise dem Beleuchtungsbereich 72, liegenden Erfassungsbereich 108 auf eine Bildfläche 116 eines Bildsensors 118 abgebildet werden.
Der Bildsensor 118 ist dabei beispielsweise als Sensortyp ausgebildet, wie er in Kameras Verwendung findet.
Auf der Bildfläche 116 erscheint somit, wie in Fig. 7 dargestellt, das Kantenbild 120, welches im in Fig. 6 dargestellten Fall den Kantenabschnitt 82 zeigt, und zwar nicht nur die Lage desselben, sondern auch dessen Verlauf.
In gleicher Weise ist das in Fig. 8 dargestellte Kantenbild 120 des Kantenabschnitts 84 mit der Kantenbilderfassungseinheit 94 erzeugbar.
Die optische Achse 14 und somit die Strahlung, die von der als telezentrisches Objektiv arbeitenden Optik 110 auf die Bildfläche 116 abgebildet werden, verläuft senkrecht zu der Objektträgerfläche 22, so dass schräg zur Objektträgerfläche 22 verlaufende Kantenflächen 122 bzw. 124 keine Verfälschung ergeben, denn bei einem Wenden des Objekts 30 um 180° ergibt, wie ein Vergleich der Figuren 5 und 9 zeigt, der Kantenabschnitt 84 mit der Kantenfläche 124 dasselbe Kantenbild 120, allerdings um 180° gedreht, ohne dass die jeweils schräg zur Objektträgerfläche 22 verlaufende Kantenfläche 124 das erhältliche Kantenbild, das dabei allerdings um 180° gedreht ist, beeinflusst, wie in Fig. 10 dargestellt.
Bei der erfindungsgemäßen Lösung wird zur Auswertung und Bestimmung der Lage des Objekts 30 auf dem Objektträger 20 die Lage nicht einzelner Punkte des jeweiligen Kantenabschnitts 82 oder 84 sondern die Lage des gesamten Kantenbilds des Kantenabschnitts 82 oder 84 in der Y-Richtung bestimmt und durch die Bestimmung der Lage des Kantenabschnitts 82 oder 84 vor dem Wenden des Objekts 30 und nach dem Wenden des Objekts 30 lässt sich die Lage des Objekts 30 vor dem Wenden und nach dem Wenden auf dem
Objektträger 20 in Y-Richtung exakt bestimmen.
Um möglichst exakte Messungen der Lagen der Kantenabschnitte 82 und 84 in der Y-Richtung relativ zum Objektträger 20 vornehmen zu können, ist der Objektträger 20, noch mit einer Referenzmarkierung 130 versehen, die durch jede der Kantenbilderfassungseinheiten 92 und 94 anfahrbar ist und deren ebenfalls hinterleuchtete Kanten in gleicher Weise wir im Zusammenhang mit den Kantenabschnitten 82 und 84 beschrieben, durch die Kantenbilderfassungseinheiten 92 und 94 erfassbar sind.
In gleicher Weise ist auch die Lage des Kantenabschnitts 86 erfassbar, wobei hierzu eine der Kantenbilderfassungseinheiten 92 und 94 oder beide Kantenbilderfassungseinheiten 92 und 94 durch Verfahren in Y-Richtung über dem Beleuchtungsbereich 76 positioniert werden, um entweder die Lage des gesamten Kantenabschnitt 86 oder Teile des Kantenabschnitts 86 in X-Rich- tung zu erfassen und Kantenbilder 120 hierzu zu erstellen.
Die Auswertung der Lage der Kantenabschnitte 82, 84 und 86 erfolgt vorzugsweise durch in eine Steuerung 140 für die Belichtungseinrichtung 40, welche in der Lage ist, die Lage und den verlauf des jeweiligen Kantenabschnitts 82, 84, 86 in den jeweiligen Richtungen X und Y aus den Kantenbildern 120 zu bestimmen, und aufgrund dieser Lagebestimmung dann die Belichtung der einen 342 der fotosensitiven Schichten relativ zur anderen 34i der fotosensitiven Schichten exakt angepasst zu steuern, so dass dann auch die in beiden fotosensitiven Schichten 34i, 342 zu erzeugenden Strukturen relativ zueinander exakt positioniert sind.
Um in den jeweiligen Beleuchtungsbereichen 76, 72, 74 eine möglichst gleichmäßige Helligkeit zu erhalten, sind, wie in Fig. 4 und 5 exemplarisch dargestellt, Kantenbeleuchtungseinheiten 150 vorgesehen, welche einzelne in einer oder mehreren Reihen nebeneinander angeordnete Lichtquellen 152 aufweisen und außerdem ist zwischen den einzelnen Lichtquellen 152 ein Diffusor 154 vorgesehen, welcher das Licht der Reihen von Lichtquellen 152 so streut, dass auf einer dem jeweiligen Beleuchtungsbereich, beispielsweise dem Beleuchtungsbereich 72, zugewandten Seite des Diffusors 154 ein diffuses und somit hinsichtlich seiner Helligkeit weitgehend gleichmäßiges Licht vorliegt, wobei eine Abstrahlung des Lichts in jedem Punkt des jeweiligen Beleuchtungsbereichs 72 in alle Richtungen erfolgt, wovon lediglich die senkrecht zur Objektträgerfläche 22 gerichteten Strahlrichtungen ausgewählt werden, um das jeweilige Kantenbild 120 zu erzeugen.
Vorzugsweise sind dabei die Lichtquellen 152 aus Halbleiterdioden gebildet, die in einer oder mehrere Reihen versetzt zueinander angeordnet sind, um bereits den Diffusor 154 möglichst gleichmäßig anzuleuchten, wie in Fig. 4, 5 oder 9 dargestellt.
Die Lichtquellen strahlen beispielsweise bei einer Wellenlänge im roten oder nahen infraroten Spektralbereich, um eine Belichtung der fotosensitiven Schichten 34 zu vermeiden, die in diesen zu einer fotochemischen Umwandlung führt.
Die erfindungsgemäße Kantenerfassungseinrichtung 60 umfasst somit eine oder mehrere Kantenbeleuchtungseinheiten 150, die vorzugsweise im Objektträger 20 integriert sind sowie die Kantenbilderfassungseinheiten 90 und 92, die am Maschinengestell 10 gehalten sind. Zur Erzeugung der Kantenbilder 120 sind jedoch die Kantenbilderfassungs- einheiten 92 und 94 sowie die Kantenbeleuchtungseinheiten 150 relativ zueinander bewegbar, um die jeweiligen Kantenbilder der Objektkanten 52, 54, 56, 58 erfassen und auswerten zu können.
Im dargestellten Ausführungsbeispiel sind die Kantenbilderfassungseinheiten 92 und 94 in der Y-Richtung an der Brücke 96 relativ zum Maschinengestell bewegbar geführt, während die Kantenbeleuchtungseinheiten 150 mit dem Objektträger 20 in der Y-Richtung relativ zum Maschinengestell bewegbar sind.
Es ist jedoch aber generell möglich, auch in anderer Weise eine Relativbewegung der Kantenbilderfassungseinheiten 94 und der Kantenbeleuchtungseinheiten 150 zueinander zu erhalten, indem entweder die Kantenbilderfassungseinheiten 92, 94 oder die Kantenbeleuchtungseinheiten 150 in zwei quer zueinander verlaufenden Richtungen bewegbar sind.
Die Bewegung der Kantenbilderfassungseinheiten 92 und 94 und der Kantenbeleuchtungseinheiten 150 relativ zueinander erfolgten dabei gesteuert über die Steuerung 140, der die Lage der Kantenbeleuchtungseinheiten 150 im Objektträger 20 vorgegeben ist, so dass die Steuerung 140 in der Lage ist, die jeweiligen Kantenbeleuchtungseinheiten 150, die den Beleuchtungsbereichen 76, 72 und 74 zugeordnet sind, so zu positionieren, dass diese durch die Kantenbilderfassungseinheiten 92, 94 erfassbar sind, wobei eine Abbildung des jeweiligen Beleuchtungsbereichs 76, 72, 74 auf die jeweilige Bildfläche 116 des Bildsensors 118 erfolgt.
Dadurch dass die Erfassungsbereiche 108 eine kleinere Flächenausdehnung aufweisen, als die Beleuchtungsbereiche 76, 72, 74 ist es erforderlich, gesteuert durch die Steuerung 140 die Kantenbilderfassungseinheiten 92, 94 stets so zu bewegen, dass in dem jeweils erzeugten Kantenbild 120 der zu vermessende Kantenabschnitt 82, 84, 86 ungefähr mittig des Kantenbildes liegt.
Durch die der Steuerung 140 vorgegebene Relativposition der Kantenbild- erfassungseinheit 92, 94 und des jeweiligen Beleuchtungsbereichs 76, 72, 74 auf dem Objektträger 20 ist die Lage des jeweiligen Kantenabschnitts 82, 84, 86 in dem jeweiligen Kantenbild 120 exakt auswertbar, da an diesem ein scharfer hell-dunkel Kontrast vorliegt.
Somit lässt sich durch die erfindungsgemäße Kantenerfassungseinrichtung 60 die Lage des Objekts 30 auf dem Objektträger 20 vor einer Belichtung der jeweiligen fotosensitiven Schicht 34i oder 342 exakt bestimmen und somit die Belichtung der jeweiligen fotosensitiven Schicht entsprechend der Lage der Objektkanten 52, 54, 56 exakt korrigieren.
Um insbesondere die Präzision der Erfassung der Position des Objekts 30 relativ zum Objektträger 20 dann zu verbessern, wenn ein Wenden des Objekts 30 um 180° erfolgt, so dass die zuvor oben liegende Flachseite auf der Objektträgerfläche 22 liegt und die zuvor auf der Objektträgerfläche 22 liegende Flachseite der Belichtungseinrichtung 40 zugewandt ist, lassen sich die Kantenbilder 120 mit dem jeweiligen Verlauf der Kantenabschnitte 82, 84, 86 in der Steuerung speichern, so dass nach einem Wenden dieser Kantenabschnitt 82, 84, 86 aufgrund seines Verlaufs wieder aufgefunden werden kann und mit dem Verlauf des vor dem Wenden erfassten Kantenabschnitts zur Deckung gebracht werden kann, woraus sich noch eine erhöhte Präzision bei der Bestimmung der Lage des Objekts 30 nach dem Wenden in Bezug auf die Lage des Objekts 30 vor dem Wenden jeweils relativ zum Objektträger 20 ergibt.
Bei einem zweiten Ausführungsbeispiel einer erfindungsgemäßen Bearbeitungsanlage ist die jeweilige Kantenbeleuchtungseinheit 150, wie in Fig. 11 dargestellt, in den Objektträger 20 integriert, wobei der Objektträger 20 einen Grundkörper 162 und eine auf dem Grundkörper 162 aufliegende Objektträgerplatte 164 umfasst, wobei die Objektträgerplatte 164 beispielsweise als Keramikplatte ausgebildet ist, die ihrerseits die Objektträgerfläche 22 auf ihrer dem Grundkörper 162 abgewandten Seite bildet.
Die Kantenbeleuchtungseinheit 150 ist beispielsweise in den Grundkörper 162 so integriert, dass der Diffusor 154 durch die Objektträgerplatte 164 gebildet ist, welche somit ihrerseits als optischer Diffusor wirkt, und auf dem Grundkörper 162 sitzt und von seiner der Objektträgerfläche 22 abgewandten Seite von den als Leuchtdioden ausgebildeten Lichtquellen 152 angeleuchtet wird, wobei die Lichtquellen 152 beispielsweise durch zwei oder mehr nebeneinandersitzende Reihen von Leuchtdioden gebildet sind.
Die Leuchtdioden 152 sitzen dabei in einer Ausnehmung 166 des Grundkörpers 162, welche den Grundköper 162 bis zu seiner Unterseite 168 durchsetzt, wobei allerdings die Ausnehmung 166 durch eine mit der Unterseite 168 abschließende Deckplatte 170 verschlossen ist.
Im Übrigen wird hinsichtlich alle weiteren Merkmale des zweiten Ausführungsbeispiels vollinhaltlich auf die Ausführungen im ersten Ausführungsbeispiel Bezug genommen.
Bei einem dritten Ausführungsbeispiel, dargestellt in Fig. 12 umfasst die Optik 110' ein beidseitig telezentrisches Objekt 111', bei welchem die Aperturblende 112 sowohl im Objektraum als im Bildraum zur optischen Achse 114 parallele Strahlen erzwingt, das heißt nur diese Strahlen zur Abbildung heranzieht, so dass im Gegensatz zum ersten Ausführungsbeispiel ein verbesserter telezentrisches Verhalten vorliegt.
Im Übrigen arbeitet das dritte Ausführungsbeispiel in gleicher Weise wie die voranstehenden Ausführungsbeispiele, so dass bezüglich der übrigen Merkmale vollinhaltlich auf die voranstehenden Ausführungsbeispiele Bezug genommen wird. Bei einem vierten Ausführungsbeispiel einer erfindungsgemäßen Belichtungsanlage, dargestellt in den Fig. 13 bis 15 sind, wie beispielsweise in Fig. 14 vergrößert dargestellt, die Objektkantenbereiche 62 und 64 sowie 66 so angeordnet, dass sie innerhalb von Beleuchtungsbereichen 72' und 74' überlappen, so dass mittels des Beleuchtungsbereichs 72' Kantenabschnitte 82 und 86a der Objektkanten 52 und 56 erfassbar sind und mittels des Beleuchtungsbereichs 74' Kantenabschnitte 84 und 86b der Objektkanten 54 und 56 erfassbar sind.
Die Erfassung der Objektkanten 52, 54 und 56 erfolgt nun ebenfalls durch die Kantenbilderfassungseinheiten 92 und 94, welche zumindest in der Y-Rich- tung, vorzugsweise auch in der X-Richtung, bewegbar sind, um die jeweils innerhalb der Bleuchtungsbereiche 72' und 74' liegenden Erfassungsbereiche 108 zur Erfassung der Kantenbilder 120 von Kantenabschnitten 82 und 84 sowie 86a und 86b heranzuziehen.
Im einfachsten Fall kann, wie in Fig. 16 und 17 dargestellt, durch das Kantenbild 128'i ein Kantenbild des Kantenabschnitts 82 erfasst werden und nachfolgend durch das Kantenbild 120'2 ein Kantenbild des Kantenabschnitts 86a.
Hierzu wird der Erfassungsbereich 108 durch Verfahren der Kantenbild- erfassungseinheit 92 soweit verschoben wird, dass dieser beispielsweise zunächst nur den Kantenabschnitt 82 nicht jedoch den Kantenabschnitt 86a, erfasst und nachfolgend durch Verfahren in X-Richtung ein Erfassen des Kantenabschnitts 86a bei Verfahren des Erfassungsbereichs 108 in Y-Richtung erfolgt.
Es besteht aber auch, wie in Fig. 18 dargestellt, die Möglichkeit, mit nur einem Kantenbild 120" sowohl den Kantenabschnitt 82 als auch den Kantenabschnitt 86a gleichzeitig zu erfassen und somit die Lage des Objekts 30 mit seinen Kantenabschnitten 82 und 86a durch eine einmalige Positionierung eines Erfassungsbereichs 108 sowohl in X-Richtung als auch in Y-Richtung zu bestimmen, wobei eine derartige Bestimmung auch bei dem Kantenabschnitt 84 und dem Kantenabschnitt 86b erfolgt, um die Ausrichtung des Objekts 30 mit hoher Genauigkeit zu ermitteln.
Im Übrigen arbeitet das vierte Ausführungsbeispiel in gleicher Weise wie die voranstehenden Ausführungsbeispiele, so dass bezüglich der übrigen
Merkmale vollinhaltlich auf die voranstehenden Ausführungsbeispiele Bezug genommen wird.

Claims

PAT E N TA N S P R Ü C H E
1. Bearbeitungsanlage für plattenförmige Objekte (30), insbesondere eine Belichtungsanlage für plattenförmige Objekte (30), mit einer Belichtungseinrichtung (40) und mit einem eine Objektträgerfläche (22) zur Aufnahme des Objekts (30) aufweisenden Objektträger (20), wobei die Belichtungseinrichtung (40) und der Objektträger (20) zum Belichten des Objekts (30) relativ zueinander bewegbar sind,
d a d u r c h g e k e n n z e i c h n e t, dass zum Erfassen der Lage des Objekts (30) auf dem Objektträger (20) eine Kantenerfassungseinrichtung (60) vorgesehen ist, welche mindestens eine in dem
Objektträger (20) unter der Objektträgerfläche (22) angeordnete Kantenbeleuchtungseinheit (150) umfasst, dass die Kantenbeleuchtungseinheit (150) in mindestens einem Teil eines Objektkantenbereichs (62, 64, 66) einen Beleuchtungsbereich (70, 72, 74) aufweist, innerhalb von welchem ein Anleuchten einer in dem jeweiligen Objektkantenbereich (62, 64, 66) liegenden Objektkante (52, 54, 56) von Seiten des Objektträgers (20) mit flächenhaft abgestrahltem Licht erfolgt, und dass im Abstand von der Objektträgerfläche (22) auf einer dem Objektträger (20) gegenüberliegenden Seite des Objekts (30) mindestens eine Kantenbilderfassungseinheit (92, 94) vorgesehen ist, welche einen in dem Beleuchtungsbereich (70, 72, 74) liegenden Kantenabschnitt (82, 84, 86) der Objektkanten (52, 54, 56) auf eine Bildfläche (116) als Kantenbild (120) abbildet, und dass mit der mindestens eine Kantenbilderfassungseinheit (92, 94) das jeweilige Kantenbild (120) positionsgenau relativ zum Objektträger (20) erfassbar ist.
2. Bearbeitungsanlage nach Anspruch 1, dadurch gekennzeichnet, dass die Optik (110) der mindestens einen Kantenbilderfassungseinheit (92, 94) als telezentrisches Objektiv ausgebildet ist.
3. Bearbeitungsanlage nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die Bildfläche (116) die Bildfläche eines Bildsensors (118) ist.
4. Bearbeitungsanlage nach einem der voranstehenden Ansprüche,
dadurch gekennzeichnet, dass die Optik (110) der mindestens einen Kantenbilderfassungseinheit (92, 94) einen Erfassungsbereich (108) aufweist, welcher eine kleinere Flächenausdehnung aufweist als der jeweilige Beleuchtungsbereich (72, 74, 76) ist.
5. Bearbeitungsanlage nach Anspruch 4, dadurch gekennzeichnet, dass der Erfassungsbereich (108) und die Beleuchtungsbereiche (72, 74, 76) relativ zueinander bewegbar sind.
6. Bearbeitungsanlage nach Anspruch 5, dadurch gekennzeichnet, dass der Erfassungsbereich (108) in Richtung quer zu der jeweiligen zu erfassenden Objektkante (52, 54, 56) bewegbar ist.
7. Bearbeitungsanlage nach Anspruch 5 oder 6 dadurch gekennzeichnet, dass der Erfassungsbereich (108) in Richtung der jeweiligen zu erfassenden Objektkante (52, 54, 56) bewegbar ist.
8. Bearbeitungsanlage nach einem der voranstehenden Ansprüche,
dadurch gekennzeichnet, dass die mindestens eine Kantenbilderfassungseinheit (92, 94) und der Objektträger (20) in mindestens einer Richtung (Y) relativ zueinander bewegbar sind.
9. Bearbeitungsanlage nach Anspruch 8, dadurch gekennzeichnet, dass die mindestens eine Kantenbilderfassungseinheit (92, 94) und der Objektträger (20) in zwei quer zueinander verlaufenden Richtungen relativ zueinander bewegbar sind.
10. Bearbeitungsanlage nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Kantenbild- erfassungseinheit (92, 94) mit dem jeweiligen Kantenbild (120) mindestens einen Kantenabschnitt (82, 84, 86) des Objekts (30) erfasst.
11. Bearbeitungsanlage nach Anspruch 10, dadurch gekennzeichnet, dass die mindestens eine Kantenbilderfassungseinheit (92, 94) mit dem jeweiligen Kantenbild (120) einen Verlauf des jeweiligen Kantenabschnitts (82, 84, 86) des Objekts (30) erfasst.
12. Bearbeitungsanlage nach Anspruch 11, dadurch gekennzeichnet, dass der Verlauf des jeweiligen Kantenabschnitts (82, 84, 86) von einer Steuerung (140) gespeichert wird.
13. Bearbeitungsanlage nach Anspruch 12, dadurch gekennzeichnet, dass der gespeicherte Verlauf des Kantenabschnitts (82, 84, 86) zur Wiedererkennung dieses Kantenabschnitts (82, 84, 86) nach einer Neuauflage des Objekts (30) herangezogen wird.
14. Bearbeitungsanlage nach einem der voranstehenden Ansprüche,
dadurch gekennzeichnet, dass die Beleuchtungseinheit (150) zur Ausleuchtung des jeweiligen Beleuchtungsbereichs (70, 72, 74) einen Diffusor (154) und mindestens eine diesen anleuchtende Lichtquelle (152) aufweist, und dass insbesondere die Lichtquellen (152) und der Diffusor (154) in dem Objektträger (20) integriert sind
15. Bearbeitungsanlage nach einem der voranstehenden Ansprüche,
dadurch gekennzeichnet, dass der Objektträger (20) eine die Objektträgerfläche (22) bildende Objektträgerplatte (164) aufweist und dass das Licht aus der Beleuchtungseinheit (150) durch die Objektträgerplatte (164) hindurchtritt und dass insbesondere die Objektträgerplatte (164) als optischer Diffusor (154) wirkt.
PCT/EP2010/059284 2009-07-03 2010-06-30 Bearbeitungsanlage WO2011000870A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201080030124.4A CN102472986B (zh) 2009-07-03 2010-06-30 加工设备
JP2012516787A JP2012531616A (ja) 2009-07-03 2010-06-30 処理システム
US13/332,467 US8811665B2 (en) 2009-07-03 2011-12-21 Processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009032210.8 2009-07-03
DE200910032210 DE102009032210B4 (de) 2009-07-03 2009-07-03 Bearbeitungsanlage

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/332,467 Continuation US8811665B2 (en) 2009-07-03 2011-12-21 Processing system

Publications (1)

Publication Number Publication Date
WO2011000870A1 true WO2011000870A1 (de) 2011-01-06

Family

ID=42357232

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/059284 WO2011000870A1 (de) 2009-07-03 2010-06-30 Bearbeitungsanlage

Country Status (5)

Country Link
US (1) US8811665B2 (de)
JP (1) JP2012531616A (de)
CN (1) CN102472986B (de)
DE (1) DE102009032210B4 (de)
WO (1) WO2011000870A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173563A (ja) * 2011-02-22 2012-09-10 Tokyo Electron Ltd 局所露光装置
DE102016122353A1 (de) 2016-11-21 2018-05-24 Manz Ag Bearbeitungsanlage

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8263314B2 (en) * 2009-08-14 2012-09-11 E I Du Pont De Nemours And Company Method for preparing a composite printing form
JP5582267B1 (ja) * 2014-01-17 2014-09-03 株式会社東光高岳 連続走査型計測装置
EP3184500B1 (de) 2015-12-22 2024-02-07 Heraeus Electronics GmbH & Co. KG Herstellungsverfahren eines metall-keramik-substrates mit verbesserter flächen-nutzung
DE102017102320A1 (de) * 2017-02-07 2018-08-09 Manz Ag Bearbeitungsanlage
JP7298851B2 (ja) * 2018-04-24 2023-06-27 ディスコ ハイテック ヨーロッパ ゲーエムベーハー アライメント装置及びアライメント方法
US11263755B2 (en) * 2020-07-17 2022-03-01 Nanya Technology Corporation Alert device and alert method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6225012B1 (en) * 1994-02-22 2001-05-01 Nikon Corporation Method for positioning substrate
EP1653288A1 (de) * 2004-10-28 2006-05-03 ASML Netherlands B.V. Apparat und Verfahren zur optischen Positionsbewertung
JP2006294954A (ja) * 2005-04-13 2006-10-26 Nikon Corp 露光システム、露光方法及びマイクロデバイスの製造方法
US20070236695A1 (en) * 2006-04-11 2007-10-11 Fredrik Sjostrom Registration method and apparatus therefor
WO2008029609A1 (fr) * 2006-09-05 2008-03-13 Tokyo Electron Limited Procédé de positionnement de substrat, procédé de détection de position de substrat, et procédé de récupération de substrat

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2296201A1 (fr) 1974-12-26 1976-07-23 Personal Communications Inc Dispositif d'eclairement destine a former un reseau de sources lumineuses relativement petites
JPS569763A (en) 1979-07-06 1981-01-31 Canon Inc Beam recording device
US4393387A (en) 1979-09-14 1983-07-12 Canon Kabushiki Kaisha Beam recording apparatus effecting the recording by a plurality of beams
JPS56150826A (en) * 1980-04-25 1981-11-21 Hitachi Ltd Supporting mechanism of wafer
DE3118802A1 (de) 1980-05-14 1982-02-25 Canon K.K., Tokyo Druckuebertragungsgeraet
US4402571A (en) 1981-02-17 1983-09-06 Polaroid Corporation Method for producing a surface relief pattern
US4541712A (en) 1981-12-21 1985-09-17 Tre Semiconductor Equipment Corporation Laser pattern generating system
US4577926A (en) 1983-09-30 1986-03-25 International Business Machines Corporation Fiber optic writing head
US5091744A (en) 1984-02-13 1992-02-25 Canon Kabushiki Kaisha Illumination optical system
DE3624163C2 (de) 1985-07-24 2001-05-17 Ateq Corp Gerät zur Erzeugung eines Musters auf einem eine strahlungsempfindliche Schicht aufweisenden Werkstück
DE3529571A1 (de) 1985-08-17 1987-02-19 Telefunken Electronic Gmbh Verfahren zur periodischen ansteuerung von mehreren strahlungsaussendenden elementen und schaltungsanordnung zur durchfuehrung des verfahrens
US4869999A (en) 1986-08-08 1989-09-26 Hitachi, Ltd. Method of forming pattern and projection aligner for carrying out the same
JPH01221604A (ja) * 1988-03-01 1989-09-05 Hitachi Ltd Icチップ位置検出装置
US4947186A (en) 1988-09-22 1990-08-07 The Aerospace Corporation Apparatus and method for a UV laser image recorder
JP2567479B2 (ja) 1988-10-17 1996-12-25 富士写真フイルム株式会社 バーコードプリント装置
US5223693A (en) 1990-04-28 1993-06-29 Mitsubishi Denki Kabushiki Kaisha Optical machining apparatus
DE4022732A1 (de) 1990-07-17 1992-02-20 Micronic Laser Systems Ab Auf einem lichtempfindlich beschichteten substrat durch fokussierte laserstrahlung hergestellte struktur sowie verfahren und vorrichtung zu ihrer herstellung
US5208796A (en) 1991-01-03 1993-05-04 Xerox Corporation Method and apparatus for transverse image registration on photoreceptive belts
US5143577A (en) 1991-02-08 1992-09-01 Hoechst Celanese Corporation Smooth-wall polymeric channel and rib waveguides exhibiting low optical loss
US5229691A (en) 1991-02-25 1993-07-20 Panocorp Display Systems Electronic fluorescent display
US5121256A (en) 1991-03-14 1992-06-09 The Board Of Trustees Of The Leland Stanford Junior University Lithography system employing a solid immersion lens
US5418546A (en) 1991-08-20 1995-05-23 Mitsubishi Denki Kabushiki Kaisha Visual display system and exposure control apparatus
DK69492D0 (da) 1992-05-26 1992-05-26 Purup Prepress As Apparat til exponering af et medie, apparat til punktexponering af et medie, samt en indretning til fastholdelse af et medie
US5475416A (en) 1992-06-03 1995-12-12 Eastman Kodak Company Printing system for printing an image with lasers emitting diverging laser beams
US5339737B1 (en) 1992-07-20 1997-06-10 Presstek Inc Lithographic printing plates for use with laser-discharge imaging apparatus
JP3052587B2 (ja) 1992-07-28 2000-06-12 日本電気株式会社 露光装置
EP0587228B1 (de) 1992-09-07 1998-11-04 Koninklijke Philips Electronics N.V. Optische Komponente und optoelektronisches Element zur Erhöhung der Frequenz elektromagnetischer Strahlung
US5596339A (en) 1992-10-22 1997-01-21 University Of Washington Virtual retinal display with fiber optic point source
US5321718A (en) 1993-01-28 1994-06-14 Sdl, Inc. Frequency converted laser diode and lens system therefor
CN1119482A (zh) 1993-02-03 1996-03-27 尼托公司 图像投影的方法和设备
DE4313111C2 (de) 1993-04-22 1999-05-06 Roland Man Druckmasch Verfahren zur Herstellung einer druckenden Vorlage, insbesondere einer Druckform einer Druckmaschine
US5892611A (en) 1993-08-11 1999-04-06 Asahi Kogaku Kogyo Kabushiki Kaisha Laser drawing apparatus
US5534950A (en) 1993-10-04 1996-07-09 Laser Power Corporation High resolution image projection system and method employing lasers
EP0655707A1 (de) 1993-11-25 1995-05-31 Think Laboratory Co., Ltd. Belichtungsvorrichtung unter Verwendung von Halbleiterlasern
JP3757430B2 (ja) * 1994-02-22 2006-03-22 株式会社ニコン 基板の位置決め装置及び露光装置
US6624433B2 (en) 1994-02-22 2003-09-23 Nikon Corporation Method and apparatus for positioning substrate and the like
JP3590916B2 (ja) * 1995-12-28 2004-11-17 株式会社ニコン 位置決め方法
DE4413829A1 (de) 1994-04-20 1995-10-26 Deutsche Forsch Luft Raumfahrt Vorrichtung zur Erzeugung eines Bildes
JP3384880B2 (ja) 1994-08-05 2003-03-10 三菱電機株式会社 写真製版における焦点合わせ方法
US5674414A (en) 1994-11-11 1997-10-07 Carl-Zeiss Stiftung Method and apparatus of irradiating a surface of a workpiece with a plurality of beams
JPH08146326A (ja) * 1994-11-15 1996-06-07 Fuji Xerox Co Ltd 画像形成装置
US5513196A (en) 1995-02-14 1996-04-30 Deacon Research Optical source with mode reshaping
DE69519221T2 (de) 1995-02-22 2001-06-13 Barco Graphics Zwijnaarde Abtastgerät
US6274288B1 (en) 1995-06-12 2001-08-14 California Institute Of Technology Self-trapping and self-focusing of optical beams in photopolymers
DE19522936C2 (de) 1995-06-23 1999-01-07 Fraunhofer Ges Forschung Vorrichtung zum Strukturieren einer photolithographischen Schicht
DE19529656B4 (de) 1995-08-11 2007-01-04 Heidelberg Instruments Mikrotechnik Gmbh Verfahren zur Herstellung von Mikrostrukturen
JP3430756B2 (ja) 1995-12-14 2003-07-28 富士ゼロックス株式会社 光走査素子及び画像形成装置
DE19626176A1 (de) 1996-06-29 1998-01-08 Deutsche Forsch Luft Raumfahrt Lithographie-Belichtungseinrichtung und Lithographie-Verfahren
US5739913A (en) * 1996-08-02 1998-04-14 Mrs Technology, Inc. Non-contact edge detector
JP4048385B2 (ja) * 1996-08-19 2008-02-20 株式会社ニコン 光学式プリアライメント装置および該プリアライメント装置を備えた露光装置
JP3529571B2 (ja) 1996-12-24 2004-05-24 東京電力株式会社 水力機械の吸出し管
EP0945276B1 (de) 1997-03-26 2005-07-20 Toray Industries, Inc. Bilderzeugungsvorrichtung,-verfahren und druckvorrichtung
US6204875B1 (en) 1998-10-07 2001-03-20 Barco Graphics, Nv Method and apparatus for light modulation and exposure at high exposure levels with high resolution
JP3332872B2 (ja) 1998-10-27 2002-10-07 キヤノン株式会社 露光方法
ATE414933T1 (de) * 1999-02-17 2008-12-15 Kodak Graphic Comm Gmbh Flachbettdruckplattenherstellungssystem
US6731320B1 (en) 1999-03-19 2004-05-04 Applied Materials, Inc. Laser pattern generator
DE59915132D1 (de) 1999-05-19 2010-03-25 Deutsch Zentr Luft & Raumfahrt Lithographieverfahren
JP3743782B2 (ja) 1999-08-30 2006-02-08 独立行政法人産業技術総合研究所 微細パターン形成用材料及びそれを用いた微細パターン形成方法
US6368775B1 (en) 2000-01-27 2002-04-09 Sandia Corporation 3-D photo-patterning of refractive index structures in photosensitive thin film materials
KR20020087481A (ko) * 2000-04-07 2002-11-22 베리안 세미콘덕터 이큅먼트 어소시에이츠, 인크. 갈륨비소 웨이퍼용 웨이퍼 배향 센서
JP2002184665A (ja) * 2000-12-13 2002-06-28 Nikon Corp アライメント装置及びアライメント方法、露光装置
WO2002054837A2 (en) 2001-01-04 2002-07-11 Laser Imaging Systems Gmbh & Co. Kg Direct pattern writer
AU2002245395A1 (en) 2001-02-07 2002-08-19 University Of Rochester A system and method for high resolution optical imaging, data storage, lithography, and inspection
JP2002280287A (ja) * 2001-03-19 2002-09-27 Nikon Corp 位置検出方法、位置検出装置、露光方法、露光装置、及びデバイス製造方法
DK1421863T3 (da) 2001-08-07 2012-05-21 Japan Tobacco Inc Cigaret med dobbelt omslag og maskine og fremgangsmåde til at fremstille cigaretten
JP4320694B2 (ja) 2001-08-08 2009-08-26 株式会社オーク製作所 多重露光描画装置および多重露光式描画方法
US8119041B2 (en) 2001-09-05 2012-02-21 Fujifilm Corporation Non-resonant two-photon absorption induction method and process for emitting light thereby
US20040241340A1 (en) 2001-10-25 2004-12-02 Kenji Sato Method and device for marking identification code by laser beam
DE10160917A1 (de) 2001-12-07 2003-06-26 Kleo Halbleitertechnik Gmbh Lithografiebelichtungseinrichtung
IL164483A0 (en) 2002-04-10 2005-12-18 Fujinon Corp Exposure head, exposure apparatus, and applicationthereof
US7310463B2 (en) 2002-09-09 2007-12-18 Kyocera Corporation Optical structural body, its manufacturing method and optical element
JP2004354659A (ja) 2003-05-29 2004-12-16 Dainippon Screen Mfg Co Ltd パターン描画装置
DE10346201A1 (de) 2003-09-29 2005-04-28 Kleo Halbleitertechnik Gmbh Lithografiebelichtungseinrichtung
JP4508743B2 (ja) 2004-03-31 2010-07-21 日立ビアメカニクス株式会社 パターン露光方法およびパターン露光装置
DE102006008075A1 (de) * 2005-04-19 2006-10-26 Kleo Halbleitertechnik Gmbh & Co Kg Belichtungsanlage
US7126735B1 (en) 2005-05-20 2006-10-24 Konica Minolta Business Technologies, Inc. Optical scanning apparatus
JP4324606B2 (ja) * 2006-08-10 2009-09-02 株式会社オーク製作所 アライメント装置および露光装置
TWI623825B (zh) 2006-09-01 2018-05-11 Nikon Corp 曝光裝置及方法、以及元件製造方法
DE102006059818B4 (de) 2006-12-11 2017-09-14 Kleo Ag Belichtungsanlage
CN101329514B (zh) * 2008-07-29 2011-06-29 上海微电子装备有限公司 一种用于光刻设备的对准系统及对准方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6225012B1 (en) * 1994-02-22 2001-05-01 Nikon Corporation Method for positioning substrate
EP1653288A1 (de) * 2004-10-28 2006-05-03 ASML Netherlands B.V. Apparat und Verfahren zur optischen Positionsbewertung
JP2006294954A (ja) * 2005-04-13 2006-10-26 Nikon Corp 露光システム、露光方法及びマイクロデバイスの製造方法
US20070236695A1 (en) * 2006-04-11 2007-10-11 Fredrik Sjostrom Registration method and apparatus therefor
WO2008029609A1 (fr) * 2006-09-05 2008-03-13 Tokyo Electron Limited Procédé de positionnement de substrat, procédé de détection de position de substrat, et procédé de récupération de substrat

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173563A (ja) * 2011-02-22 2012-09-10 Tokyo Electron Ltd 局所露光装置
CN102681350A (zh) * 2011-02-22 2012-09-19 东京毅力科创株式会社 局部曝光装置
DE102016122353A1 (de) 2016-11-21 2018-05-24 Manz Ag Bearbeitungsanlage

Also Published As

Publication number Publication date
CN102472986A (zh) 2012-05-23
CN102472986B (zh) 2015-02-18
DE102009032210A1 (de) 2011-01-05
US20120163660A1 (en) 2012-06-28
JP2012531616A (ja) 2012-12-10
DE102009032210B4 (de) 2011-06-09
US8811665B2 (en) 2014-08-19

Similar Documents

Publication Publication Date Title
DE102009032210B4 (de) Bearbeitungsanlage
DE102010029319B4 (de) Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
DE102004029014B4 (de) Verfahren und System zur Inspektion eines Wafers
EP3076148B1 (de) Vorrichtung und verfahren zum messen von abbildungseigenschaften eines optischen abbildungssystems
EP2437027A2 (de) Vorrichtung und Verfahren zur dreidimensionalen optischen Abtastung einer Probe
DE3123703A1 (de) Optisches messsystem mit einer fotodetektoranordnung
DE102007011877A1 (de) Optisches Sensorsystem an einer Vorrichtung zur Behandlung von Flüssigkeiten
WO2016005571A1 (de) Positionsbestimmung eines objekts im strahlengang einer optischen vorrichtung
DE1919991A1 (de) Venfahren zur automatischen Ausrichtung von zwei aufeinander einzujustierenden Objekten
WO2007051567A1 (de) Messsystem zur vermessung von grenz- oder oberflächen von werkstücken
DE102008017645A1 (de) Vorrichtung zur mikrolithographischen Projektionsbelichtung sowie Vorrichtung zur Inspektion einer Oberfläche eines Substrats
WO2012013586A1 (de) Einrichtung und verfahren zur mikroskopischen bildaufnahme einer probenstruktur
DE102009044151A1 (de) Vorrichtung zur optischen Waferinspektion
DE102015102111A1 (de) Mehrkopf-Laseranlage mit Sensoreinheit
WO2014053573A1 (de) Verfahren und vorrichtung zur beleuchtung und messung eines objektes
DE102020204372A1 (de) Ultraschnelle abbildungsvorrichtung
DE102006036504A1 (de) Vorrichtung und Verfahren zur Messung des Höhenprofils eines strukturierten Substrats
DE102020124006B3 (de) Belichtungssteuerung bei photolithographischen direktbelichtungsverfahren zur leiterplatten- oder schaltkreisherstellung
EP2773928B1 (de) Sensor zur prüfung von wertdokumenten
EP0135673B1 (de) Verfahren und Vorrichtung zur Festlegung einer Koordinate auf einer Oberfläche eines Festkörpers
WO2016000764A1 (de) Chromatisch konfokale sensoranordnung
DE102017102320A1 (de) Bearbeitungsanlage
WO2002033348A1 (de) Optische vermessung eines objektes mit koordinatenmessgerät, kamera und beleuchtungsquellen
WO2004029691A1 (de) Verfahren und vorrichtung zum bestimmen eines abstands, autofokus-modul, mikroskop und verfahren zum autofokussieren eines mikroskops
EP2928280B1 (de) Messmarkensystem zur kalibrierung einer maschine

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080030124.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10727429

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10278/DELNP/2011

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2012516787

Country of ref document: JP

122 Ep: pct application non-entry in european phase

Ref document number: 10727429

Country of ref document: EP

Kind code of ref document: A1