WO2004039139A1 - Verfahren zur bestimmung der relativen räumlichen lage zwischen zwei kameras und kamera zum optischen erfassen von objekten - Google Patents

Verfahren zur bestimmung der relativen räumlichen lage zwischen zwei kameras und kamera zum optischen erfassen von objekten Download PDF

Info

Publication number
WO2004039139A1
WO2004039139A1 PCT/EP2003/011713 EP0311713W WO2004039139A1 WO 2004039139 A1 WO2004039139 A1 WO 2004039139A1 EP 0311713 W EP0311713 W EP 0311713W WO 2004039139 A1 WO2004039139 A1 WO 2004039139A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
sensor
cameras
flat
intermediate image
Prior art date
Application number
PCT/EP2003/011713
Other languages
English (en)
French (fr)
Inventor
Peter Müller
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to AU2003276147A priority Critical patent/AU2003276147A1/en
Publication of WO2004039139A1 publication Critical patent/WO2004039139A1/de

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0818Setup of monitoring devices prior to starting mounting operations; Teaching of monitoring devices for specific products; Compensation of drifts during operation, e.g. due to temperature shifts

Definitions

  • the invention relates to a method for determining the relative spatial position between a first camera, which has a flat first sensor and first optics, and a second camera, which has a second sensor and second optics.
  • the invention further relates to a camera for optically detecting objects, which can be used in particular as a first camera when carrying out the method for determining the relative spatial position between two cameras.
  • a method for determining the spatial relationship between a circuit board camera and a component camera in which so-called calibration parts are placed on a circuit board and the position of these calibration parts is recorded by means of the circuit board camera.
  • the calibration part is then picked up by the placement head, placed in the assumed target position in front of the component camera and measured there. The actual relative position between the two cameras can be deduced from the difference between the measured position and the target position of the calibration part.
  • a method is known from WO 1997/38567, in which, during the detection of a component by means of a first camera, this first camera also detects a marking located on a reference plate and at the same time a second camera detects another marking, which is also located located on the reference plate.
  • the image data obtained in this way likewise enable the relative spatial position between the first camera and the second camera to be determined.
  • a placement machine with a placement head and with a substrate camera and a component camera is known from US Pat. No. 5,084,959, in which the relative spatial position between the substrate camera and the component camera can also be determined.
  • the placement machine is set in such a way that the component camera, which is located next to a substrate, detects a specific part of the placement head and the substrate camera, which is located in a known position relative to the placement head, detects a specific placement position on the substrate , Since the relative position between the placement head and the substrate camera corresponds to the relative position between the placement position and the component camera in this position of the placement machine, the spatial relationship between the known relative position between the placement head and the substrate camera can be seen the substrate camera and the component camera can be determined.
  • the invention has for its object to provide a method for determining the relative spatial position between two cameras, in which the spatial relationship between the two cameras is immediate, i.e. can be determined without the use of reference objects.
  • the invention is also based on the object of providing a camera for optically detecting objects which can be used for the above-mentioned method for determining the relative spatial position between two cameras.
  • the device-related object is achieved by a method for determining the relative spatial position between a first camera, which has a flat first sensor and first optics, and a second camera, which has a second sensor and second optics, with the Features of independent claim 1.
  • the invention is based on the knowledge that the relative spatial arrangement between two cameras can be determined by illuminating the sensor of the first camera by means of additional lighting, so that due to the reversibility of the beam paths on the A real intermediate image of the first sensor is generated at a location where there is otherwise an object to be detected by the first camera. This intermediate image is recorded with the second camera, thus establishing the spatial relationship between the two cameras.
  • the method according to the invention has the advantage that no reference objects are required to calibrate the relative spatial position between the two cameras.
  • the real intermediate image of the first sensor serves as a measurement mark for the second camera, a mechanical suspension for a reference object is not necessary. This has the advantage that a large free space to the object level can be maintained with both cameras. It is pointed out that the first sensor can also be a quasi one-dimensional line sensor, provided that it is ensured that when the first sensor is illuminated, a clear intermediate image is generated which can be clearly detected by the second camera.
  • the two cameras are each moved along a movement path, the two movement paths running in planes lying parallel to one another.
  • the two movement paths can generally also run at an angle to one another.
  • the method can be used particularly advantageously if the two movement paths run parallel to one another, so that the distance between the two movement paths is constant.
  • the method is also suitable for a so-called two-dimensional calibration of the relative spatial position between two cameras.
  • both cameras can each be moved within a plane of movement, the two planes of movement being arranged parallel to one another and thus the distance between the two cameras being predetermined perpendicular to the planes of movement.
  • the object planes of the two cameras lie one above the other, so that the relative spatial position between the two cameras can be determined with a particularly high degree of accuracy.
  • the flat first sensor is illuminated by bright field lighting or dark field lighting.
  • suitable lighting can thus be used, so that structures in the intermediate image can be clearly assigned to the structures of the flat sensor. This ensures that not only a small section of the sensor surface of the first camera shown in the intermediate image can be seen for the second camera, but that the center of the flat first sensor can be clearly identified in the intermediate image.
  • switching between different types of lighting can ensure that the second camera reliably detects the intermediate image of the first sensor.
  • the use of illuminating light which is different with respect to the spectral distribution for the first sensor and for the objects to be detected by the first camera enables an independent selection of the wavelength of the sensor illumination.
  • the method according to claim 9 has the advantage that the spatial relationship between the two cameras can already be determined by taking a single image.
  • the method according to claim 10, in which the optical axes of the two cameras are aligned, has the advantage that the measurement result is not disturbed by any imaging errors of the two optics.
  • the superimposition of the two optical axes can also be carried out by an iterative process, the two
  • Cameras are moved in such a way that the associated optical axes are gradually covered. In this way, maximum accuracy can be achieved when determining the spatial relationship between the two cameras.
  • the second camera is moved past the first camera perpendicular to the alignment of the line sensor to record the intermediate image and sequentially one line of the intermediate image is recorded.
  • the image of the intermediate image is then put together line by line.
  • the two optical axes are automatically brought to coincide at least in one direction during the image acquisition.
  • a circuit board camera is used as the first camera and a component camera as the second camera.
  • the method for determining the spatial position between two cameras is therefore particularly suitable for spatial calibration of the cameras of pick and place placement machines in which the complete placement process of the components takes place sequentially. This means that a component is picked up by a placement head from a feed module, transported to a placement position and placed on the circuit board. The assembly of the next component only begins after the component has been put on.
  • the method is also suitable for determining the spatial position between two cameras for so-called collect and place placement machines which have a line or matrix placement head, so that, depending on the number of holding devices formed on the placement head, a plurality of components from one feed unit to the other can be transported to the printed circuit board and placed on it.
  • circuit board camera can of course also be used as the second camera and a component camera as the first camera.
  • the device-related tasks on which the invention is based are achieved by a camera for optically capturing objects with the features of independent claim 14.
  • the invention has the advantage that the previously explained method for determining the relative spatial position between two cameras is achieved by simple conversion a conventional camera is feasible.
  • the conversion of the camera according to the invention consists in that an illumination unit is provided in front of the camera sensor, which is actuated accordingly when the method for determining the relative spatial position between the camera according to the invention and another camera is carried out.
  • conventional light bulbs, light-emitting diodes, laser light sources or fluorescent light sources can be used as light sources for the lighting unit.
  • the development according to claim 15 has the advantage that a suitable high-contrast intermediate image can be generated by a suitable combination of the dark field illumination with the bright field illumination, which intermediate image can be clearly recorded by the second camera.
  • the development according to claim 16 represents a particularly simple and advantageous realization of the dark field illumination.
  • the development according to claim 17 represents a particularly simple and advantageous implementation of the bright field lighting.
  • the bright field illumination of the planar sensor is realized in that a beam splitter preferably arranged on the optical axis of the optics directs the light of the bright field illumination perpendicular to the sensor surface onto the planar sensor via a reflection on the beam splitter.
  • a further beam splitter is preferably provided on the optical axis of the optics, by means of which the objects to be detected by the camera can be illuminated under a bright field condition.
  • the use of two separate beam splitters for the sensor bright field illumination and the object bright field illumination has the advantage that the sensor illumination light and the object illumination light can be decoupled simply and effectively and therefore neither the generation of the intermediate image by bright field illumination of the object to be detected the detection of the object is still disturbed by the bright field illumination of the sensor.
  • the camera can also be constructed in such a way that the sensor illuminating light, which strikes the sensor under a bright field condition, transmits through the one beam splitter and the object illuminating light, which strikes the object to be detected , is transmitted through the other beam splitter.
  • the beam path between the object to be detected and the sensor runs via a reflection on the two beam splitters.
  • the bright field light source and the light source for the bright field illumination of the objects to be detected are arranged opposite one another, the beam splitter being located in the middle between the two light sources and the bright field illumination light for the sensor and the bright field illumination light for those to be detected Objects are each reflected on the beam splitter.
  • the use of a dichroic mirror and a light absorber according to claim 21 has the advantage that good optical decoupling is achieved between the bright field illumination light for the sensor and the bright field illumination light for the objects to be detected, provided that for the bright field illumination of the sensor and the bright field illumination of the objects to be detected different wavelengths are used.
  • FIG. 1 illustrates the determination of the relative spatial position between a circuit board camera and a component camera, the sensor of the circuit board camera being illuminated under a dark field condition.
  • FIG. 2 illustrates the determination of the relative spatial position between a circuit board camera and a component camera, the sensor of the circuit board camera being illuminated under a bright field condition.
  • FIG. 1 shows a printed circuit board camera 100 modified according to a first exemplary embodiment of the invention, the spatial position of which is determined relative to a conventional component camera 150.
  • the camera 100 has a sensor surface
  • the sensor surface 105 is preferably a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) camera.
  • the camera 100 also has a light source 120, which is provided for bright-field illumination of objects to be detected and which emits an illuminating light which is directed via a reflection at the beam splitter 115 parallel to the optical axis 117 to the objects to be detected (not shown) is.
  • a light absorber 125 is provided, which absorbs the light emitted by the light source 120, which is transmitted through the beam splitter 115, so that no light emitted by the light source 120 strikes the sensor surface 105 unintentionally.
  • the circuit board camera 100 also has light sources 130, which are provided for dark field illumination of the objects to be detected by the camera 100.
  • the circuit board camera 100 differs in that light sources 140 are additionally provided, which illuminate the sensor surface 105 at an oblique angle, ie under a dark field condition.
  • the dark field illumination of the sensor surface 105 can also be achieved with a plurality of light sources which are arranged around the optical axis 117 and which cannot be seen in the cross-sectional view shown in FIG. 1 are.
  • Illuminating the sensor surface 105 under a dark field condition has the effect that a real intermediate image 145 of the sensor surface 105 is generated in the object plane 146 of the camera 100, the structures of the sensor surface 105 that are oblique to the optical axis 117 preferably being recognizable in the intermediate image 145 , Depending on the angle of incidence between the dark field illuminating light striking the sensor surface 105 and the optical axis 117, which angle of incidence is preferably not greater than 45 °, the inclined structures of the sensor surface 105 appear more or less bright.
  • the intermediate image 145 is captured by the component camera 150, which is a conventional camera and has a sensor 155, a lens 160 and a beam splitter 165, which are arranged on the optical axis of the component camera 150, which is not explicitly shown.
  • the sensor 155 is preferably a CCD or a CMOS camera.
  • the component camera 150 further comprises a light source 170, which is provided for bright-field illumination of the objects to be captured by the camera 150, and light sources 180, which are provided for dark-field illumination of the objects to be captured by the camera 150.
  • the light source 170 and the light sources 180 of the component camera 150 are not important for determining the spatial position between the two cameras 100 and 150.
  • the determination of the relative spatial position between the two cameras 100 and 150 can then be carried out in two ways: a) If the sensor 155 is also a flat sensor, the intermediate image 145 can be recorded with a single image recording, the two cameras during the recording 100 and 150 are at rest relative to each other. During the recording, the intermediate image is imaged by a transmission through the beam splitter 165 and by an imaging by means of the optics 160 on the flat sensor 155, so that an image of the intermediate image 145 is formed on the surface of the sensor 155.
  • the spatial relationship of the two cameras 100 and 150 to one another can be determined from the exact position of this image on the flat sensor 155, at least parallel to the object plane 146.
  • the image of the intermediate image 145 is captured by the camera 150 in that the camera 150 is moved relative to the camera 100 perpendicular to the alignment of the line of the sensor 155.
  • the image of the intermediate image 145 is recorded line by line and combined in an evaluation unit, taking into account the respective positions of the camera 150 in which the individual line recordings were made. There is therefore a connection between the captured and composed image and the travel path of the camera 150, from which the spatial relationship between the two cameras 100 and 150 parallel to the object plane 146 can be determined.
  • FIG. 2 shows a printed circuit board camera 200 modified in accordance with a second exemplary embodiment of the invention, the spatial position of which is determined relative to a conventional component camera 250.
  • the printed circuit board camera 200 is modified in such a way that a sensor surface 205 of the camera 200 is illuminated under a bright field condition.
  • the sensor surface 205 is illuminated under a bright field condition by a light source 241, which emits light in the direction of the beam splitter 215. Part of the loan This is transmitted through the beam splitter 215 and plays no role in the bright field illumination of the sensor surface 205.
  • the other part of the light emitted by the light source 241 is reflected on the beam splitter 215 and, after passing through the imaging optics 210, strikes the sensor surface 205 parallel to the optical axis 217.
  • the sensor surface 205 illuminated under the bright field condition is incident on the lens 210
  • Intermediate image 245 generated in the object plane 246 is imaged, the corresponding beam path having a transmission through the beam splitter 215.
  • the intermediate image 245 is captured by the component camera 250, the position of the image of the intermediate image on the sensor 255 directly reflecting the relative spatial position between the two cameras 200 and 250.
  • the sensor 255 can also be a line sensor, in which case the camera 250 must be moved relative to the camera 200 in order to record an image of the intermediate image 245.
  • a light absorber 225 is provided on which the light emitted by the light source 220 and transmitted through the beam splitter 215 averaged light hits.
  • this is achieved in that the light source 220 and the light source 241 emit light with a different spectral distribution and that a dichroic mirror 224 is provided, the spectral reflection properties of which are selected such that the light source 220 emits and through light transmitted by the beam splitter 215 is almost completely reflected and that the light provided by the light source 241 for the bright field illumination of the sensor surface 205 is almost completely transmitted.
  • the invention provides a method for determining the relative spatial position between two cameras, wherein a sensor 105, 205 of a first camera 100, 200 is illuminated by dark field and / or bright field lighting, so that a real intermediate image is achieved due to the reversibility of the beam paths in the object plane 146, 246 145,245 of the camera sensor 105,205 is generated.
  • the second camera 150, 250 is arranged such that this intermediate image 145, 245 can be recorded with the second camera 150, 250 and the spatial relationship between the two cameras can thus be established.
  • the invention also provides a camera 100, 200 which can be used as the first camera when carrying out the method for determining the relative spatial position between two cameras.
  • the camera 100, 200 has a flat sensor 105, 205, which can be illuminated by means of an illumination unit in such a way that, after imaging via optics 110, 210, a real intermediate image 145, 245 of the flat sensor 105, 205 is generated in the object area of the camera.

Abstract

Die Erfindung schafft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, wobei ein Sensor 105,205 einer ersten Kamera 100,200 durch eine Dunkelfeld- und/oder einer Hellfeldbeleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge in der Objektebene 146,246 ein reelles Zwischenbild 145,245 des Kamerasensors 105,205 erzeugt wird. Erfindungsgemäß wird die zweite Kamera 150,250 derart angeordnet, dass dieses Zwischenbild 145,245 mit der zweiten Kamera 150,250 aufgenommen werden kann und so der räumliche Zusammenhang zwischen den beiden Kameras herstellbar ist. Die Erfindung schafft ferner eine Kamera 100,200, welche als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist. Die Kamera 100,200 weist einen flächigen Sensor 105,205 auf, welcher mittels einer Beleuchtungseinheit dahingehend beleuchtbar ist, dass nach einer Abbildung über eine Optik 110,210 in dem Objektbereich der Kamera ein reelles Zwischenbild 145,245 des flächigen Sensors 105,205 erzeugt wird.

Description

Beschreibung
Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras und Kamera zum optischen Erfassen von Ob- jekten
Die Erfindung betrifft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist. Die Erfindung betrifft ferner eine Kamera zum optischen Erfassen von Objekten, welche insbesondere als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kame- ras verwendbar ist.
Die automatische Bestückung von Substraten bzw. Leiterplatten mit Bauelementen erfolgt heutzutage üblicherweise mittels sog. Bestückautomaten. Dabei werden Bauelemente von einer Bauelementzuführeinrichtung mittels eines Bestückkopfes zu einer AufSetzposition auf einer Leiterplatte transportiert. Aufgrund der insbesondere in den letzten Jahren zunehmenden Miniaturisierung von Bauelementen beruht ein korrekter Bestückvorgang auf einer präzisen Lagevermessung sowohl von dem zu bestückenden Bauelement' als auch von der Leiterplatte, auf welcher das Bauelement aufgesetzt werden soll. Dazu werden typischerweise zwei Kamerasysteme verwendet, die jeweils die Lage von Leiterplatte bzw. Bauelement vermessen. Um die räumliche Beziehung zwischen der zu bestückenden Leiterplatte und einem aufzusetzenden Bauelement herzustellen, welche für einen präzisen Bestückvorgang genau bekannt sein muss, uss auch die relative räumliche Lage zwischen diesen beiden Kamerasystemen, d.h. zwischen einer ersten Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer zweiten Kamera, mittels welcher die Lage des aufzusetzenden Bauelements erfasst wird, genau bekannt sein. Aus diesem Grund ist ein Kalibrierverfahren, bei dem die räumliche Lage zwischen einer sog. Leiterplatten-Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer sog. Bauelemente-Kamera, mittels welcher die Position von aufzusetzenden Bauelementen erfasst wird, für eine präzise Bestückung von Leiterplatten mit Bauelementen unbedingt erforderlich.
Zur Bestimmung der räumlichen Beziehung zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera ist ein Ver- fahren bekannt, bei dem sog. Kalibrierteile auf einer Leiterplatte plaziert werden und die Position dieser Kalibrierteile mittels der Leiterplatten-Kamera erfasst wird. Anschließend wird das Kalibrierteil von dem Bestückkopf aufgenommen, in der angenommenen Soll-Position vor der Bauelemente-Kamera platziert und dort vermessen. Aus der Abweichung von gemessener Position und Soll-Position des Kalibrierteils kann auf die tatsächliche relative Lage zwischen den beiden Kameras zurückgeschlossen werden.
Aus der WO 1997/38567 ist ein Verfahren bekannt, bei dem während der Erfassung eines Bauelements mittels einer ersten Kamera diese erste Kamera ebenso eine auf einer Referenzplatte befindliche Markierung erfasst und zur gleichen Zeit eine zweite Kamera eine andere Markierung erfasst, welche sich e- benfalls auf der Referenzplatte befindet. Die dabei erhaltenen Bilddaten ermöglichen ebenfalls eine Bestimmung der relativen räumlichen Lage zwischen der ersten Kamera und der zweiten Kamera.
Aus der US 4 738 025 ist ein Verfahren bekannt, bei dem mittels einer Referenzplatte sowohl die relative räumliche Lage zwischen zwei Kameras kalibriert als auch das Auflösungsvermögen der beiden Kameras bestimmt wird.
Aus der US 4 980 971 ist ein Verfahren und eine Vorrichtung zum präzisen Positionieren von Halbleiterchips auf ein Substrat bekannt, wobei die relative Orientierung zwischen zwei Kameras dadurch bestimmt wird, dass zwischen den beiden Kameras eine Referenzplatte gebracht wird, wobei die Referenzplatte jeweils in der Fokusebene der beiden Kameras liegt.
Aus der US 5,084,959 ist ein Bestückautomat mit einem Bestückkopf sowie mit einer Substrat-Kamera und einer Bauelemente-Kamera bekannt, bei dem ebenfalls die relative räumliche Lage zwischen der Substrat-Kamera und der Bauelemente- Kamera bestimmt werden kann. Dazu wird der Bestückautomat so eingestellt, dass die Bauelemente-Kamera, welche sich neben einem Substrat befindet, einen bestimmten Teil des Bestückkopfes und die Substrat-Kamera, welche sich relativ zu dem Bestückkopf in einer bekannten Position befindet, eine bestimmte Bestückposition auf dem Substrat erfasst. Da in die- ser Stellung des Bestückautomaten die relative Lage zwischen dem Bestückkopf und der Substrat-Kamera der relativen Lage zwischen der Bestückposition und der Bauelemente-Kamera entspricht, kann aus der bekannten relativen Lage zwischen Bestückkopf und Substrat-Kamera die räumliche Beziehung zwi- sehen der Substrat-Kamera und der Bauelemente-Kamera ermittelt werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kame- ras zu schaffen, bei dem die räumliche Beziehung zwischen den beiden Kameras unmittelbar, d.h. ohne die Verwendung von Referenzobjekten bestimmt werden kann. Der Erfindung liegt ferner die Aufgabe zugrunde, eine Kamera zum optischen Erfassen von Objekten zu schaffen, welche für das oben genannte Ver- fahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist.
Die vorrichtungsbezogene Aufgabe wird gelöst durch ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist, mit den Merkmalen des unabhängigen Anspruchs 1. Der Erfindung liegt die Erkenntnis zugrunde, dass die relative räumliche Anordnung zwischen zwei Kameras dadurch bestimmt werden kann, dass der Sensor der ersten Kamera mittels einer zusätzlichen Be- leuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge an dem Ort, an dem sich sonst ein von der ersten Kamera zu erfassendes Objekt befindet, ein reelles Zwischenbild des ersten Sensors erzeugt wird. Dieses Zwischenbild wird mit der zweiten Kamera aufgenommen und so der räumliche Zusammenhang zwischen den beiden Kameras hergestellt. Das erfindungsgemäße Verfahren hat den Vorteil, dass zur Kalibrierung der relativen räumlichen Lage zwischen beiden Kameras keinerlei Referenzobjekte erforderlich sind. Da das reelle Zwischenbild des ersten Sensors als Messmarke für die zweite Kamera dient, ist eine mechanische Aufhängung für einen Referenzgegenstand nicht erforderlich. Dies hat den Vorteil, dass bei beiden Kameras ein großer Freiraum zur Objektebene eingehalten werden kann. Es wird darauf hingewiesen, dass der erste Sensor auch ein quasi eindimensionaler Zeilensensor sein kann, sofern sichergestellt ist, dass bei einer Beleuchtung des ersten Sensors ein deutliches Zwischenbild erzeugt wird, welches von der zweiten Kamera eindeutig erfasst werden kann.
Gemäß Anspruch 2 werden beide Kameras jeweils entlang einer Bewegungsstrecke verfahren, wobei die beiden Bewegungsstrecken in parallel zueinander liegenden Ebenen verlaufen. Demzufolge können die beiden Bewegungsstrecken im allgemeinen auch winklig zueinander verlaufen. Besonders vorteilhaft kann allerdings das Verfahren dann angewendet werden, wenn die beiden Bewegungsstrecken parallel zueinander verlaufen, so dass der Abstand zwischen beiden Bewegungsstrecken konstant ist.
Gemäß Anspruch 3 ist das Verfahren auch für eine sog. zweidi- mensionale Kalibrierung der relativen räumlichen Lage zwischen zwei Kameras geeignet. Gemäß Anspruch 4 können beide Kameras jeweils innerhalb einer Bewegungsebene verfahren werden, wobei die beiden Bewegungsebenen parallel zueinander angeordnet sind und damit der Ab- stand zwischen beiden Kameras senkrecht zu den Bewegungsebenen vorgegebenen ist.
Bei dem Verfahren gemäß Anspruch 5 liegen die Objektebenen der beiden Kameras übereinander, so dass die relative räumli- ehe Lage zwischen beiden Kameras mit einer besonders hohen Genauigkeit bestimmt werden kann.
Gemäß Anspruch 6 bzw. Anspruch 7 wird der flächige erste Sensor durch eine Hellfeldbeleuchtung bzw. eine Dunkelfeldbe- leuchtung beleuchtet. Damit kann abhängig von der optischen Beschaffenheit und der Struktur der Oberfläche des flächigen Sensors eine geeignete Beleuchtung verwendet werden, so dass Strukturen im Zwischenbild eindeutig den Strukturen des flächigen Sensors zugeordnet werden können. Damit wird erreicht, dass für die zweite Kamera nicht nur ein kleiner Ausschnitt der im Zwischenbild abgebildeten Sensorfläche der ersten Kamera zu sehen ist, sondern im Zwischenbild die Mitte des flächigen ersten Sensors eindeutig identifiziert werden kann. Insbesondere durch ein Umschalten zwischen verschiedenen Be- leuchtungsarten kann sichergestellt werden, dass die zweite Kamera das Zwischenbild des ersten Sensors zuverlässig erfasst.
Die Verwendung von hinsichtlich der spektralen Verteilung un- terschiedlichem Beleuchtungslicht für den ersten Sensor und für die von der ersten Kamera zu erfassenden Objekte gemäß Anspruch 8 ermöglicht eine unabhängige Wahl der Wellenlänge der Sensorbeleuchtung. Dies hat den Vorteil, dass die Sensorbeleuchtung so abgestimmt werden kann, dass die Sensorstruk- turen besonders deutlich hervortreten. Das Verfahren gemäß Anspruch 9 hat den Vorteil, dass die räumliche Beziehung zwischen beiden Kameras bereits mit der Aufnahme eines einzigen Bildes bestimmt werden kann.
Das Verfahren gemäß Anspruch 10, bei dem die optischen Achsen der beiden Kameras zur Deckung gebracht werden, hat den Vorteil, dass das Messergebnis nicht durch eventuell vorhandene Abbildungsfehler der beiden Optiken gestört wird. Das Über- einanderlegen der beiden optischen Achsen kann auch durch ein iteratives Verfahren durchgeführt werden, wobei die beiden
Kameras derart bewegt werden, dass die zugehörigen optischen Achsen schrittweise zur Deckung kommen. Somit kann eine maximale Genauigkeit bei der Bestimmung des räumlichen Zusammenhangs zwischen beiden Kameras erreicht werden.
Bei dem Verfahren gemäß Anspruch 11, bei dem als zweiter Sensor ein Zeilensensor verwendet wird, wird zur Erfassung des Zwischenbildes die zweite Kamera senkrecht zu der Ausrichtung des Zeilensensors an der ersten Kamera vorbei bewegt und se- quentiell jeweils eine Zeile des Zwischenbildes aufgenommen. Das Bild des Zwischenbildes wird dann Zeile für Zeile zusammengesetzt. Dabei werden die beiden optischen Achsen zumindest in einer Richtung während der Bildaufnahme automatisch zur Deckung gebracht .
Gemäß den Verfahren nach Anspruch 12 und Anspruch 13 wird als erste Kamera eine Leiterplatten-Kamera und als zweite Kamera eine Bauelemente-Kamera verwendet. Damit eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kame- ras insbesondere für eine räumliche Kalibrierung der Kameras von sog. Pick and Place Bestückautomaten, bei denen der komplette Bestückvorgang der Bauelemente sequentiell erfolgt. Dies bedeutet, dass ein Bauelement von einem Bestückkopf aus einem Zuführmodul abgeholt, zu einer Bestückposition trans- portiert und auf die Leiterplatte aufgesetzt wird. Erst nach dem Aufsetzen des Bauelements beginnt die Bestückung des nächsten Bauelements. Ebenso eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kameras für sog. Collect and Place Bestückautomaten, welche einen Zeilen- oder Matrixbestückkopf aufweisen, so dass je nach Anzahl der an dem Bestückkopf ausgebildeten Haltevorrichtungen eine Mehrzahl von Bauelementen von einer Zuführeinheit hin zu der zu bestückenden Leiterplatte transportiert und auf diese aufgesetzt werden können.
Es wird darauf hingewiesen, dass selbstverständlich auch als zweite Kamera eine Leiterplattenkamera und als erste Kamera eine Bauelementkamera verwendet werden kann.
Die der Erfindung zugrundeliegende vorrichtungsbezogene Auf- gäbe wird gelöst durch eine Kamera zum optischen Erfassen von Objekten mit den Merkmalen des unabhängigen Anspruchs 14. Die Erfindung hat den Vorteil, dass das zuvor erläuterte Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras durch den einfachen Umbau einer herkömmlichen Kamera durchführbar ist. Der Umbau der erfindungsgemäßen Kamera besteht darin, dass vor dem Kamerasensor eine Beleuchtungseinheit vorgesehen ist, welche bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen der erfindungsgemäßen Kamera und einer weiteren Kamera entsprechend angesteuert wird. Als Lichtquellen für die Beleuchtungseinheit können beispielsweise herkömmliche Glühlampen, Leuchtdioden, Laserlichtquellen oder Fluoreszenzlichtquellen eingesetzt werden.
Die Weiterbildung gemäß Anspruch 15 hat den Vorteil, dass durch eine geeignete Kombination der Dunkelfeldbeleuchtung mit der Hellfeldbeleuchtung ein kontrastreiches Zwischenbild erzeugbar ist, welches von der zweiten Kamera deutlich erfasst werden kann. Die Weiterbildung gemäß Anspruch 16 stellt eine besonders einfache und vorteilhafte Realisierung der Dunkelfeldbeleuchtung dar.
Die Weiterbildung gemäß Anspruch 17 stellt eine besonders einfache und vorteilhafte Realisierung der Hellfeldbeleuchtung dar.
Gemäß Anspruch 18 wird die Hellfeldbeleuchtung des flächigen Sensors dadurch realisiert, dass ein bevorzugt auf der optischen Achse der Optik angeordneter Strahlteiler über eine Reflexion an dem Strahlteiler das Licht der Hellfeldbeleuchtung senkrecht zu der Sensoroberfläche auf den flächigen Sensor lenkt.
Gemäß Anspruch 19 ist bevorzugt auf der optischen Achse der Optik ein weiterer Strahlteiler vorgesehen, mittels welchem die von der Kamera zu erfassenden Objekte unter einer Hellfeldbedingung beleuchtet werden können. Die Verwendung von zwei getrennten Strahlteilern für die Sensor-Hellfeldbeleuchtung und die Objekt-Hellfeldbeleuchtung hat den Vorteil, dass das Sensor-Beleuchtungslicht und das Objekt- Beleuchtungslicht einfach und effektiv entkoppelt werden können und somit weder die Erzeugung des Zwischenbildes durch eine Hellfeldbeleuchtung des zu erfassenden Objekts noch die Erfassung des Objekts durch die Hellfeldbeleuchtung des Sensors gestört wird.
Es wird darauf hingewiesen, dass die Kamera, auch derart auf- gebaut sein kann, dass das Sensor-Beleuchtungslicht, welches unter einer Hellfeldbedingung auf den Sensor trifft, durch den einen Strahlteiler transmittiert und das Objekt- Beleuchtungslicht, welches auf das zu erfassende Objekt trifft, durch den anderen Strahlteiler transmittiert wird. In diesem Fall verläuft der Strahlengang zwischen dem zu erfassenden Objekt und dem Sensor über eine Reflexion an den beiden Strahlteilern. Die Verwendung eines einzigen Strahlteilers sowohl für die Hellfeldbeleuchtung des Sensors als auch für die Hellfeldbeleuchtung der zu erfassenden Objekte gemäß Anspruch 20 hat den Vorteil, dass die Kamera in einer kompakten Bauform realisiert werden kann. In diesem Fall sind die Hellfeld- Lichtquelle und die Lichtquelle für die Hellfeldbeleuchtung der zu erfassenden Objekte einander gegenüberliegend angeordnet, wobei sich der Strahlteiler in der Mitte zwischen beiden Lichtquellen befindet und das Hellfeld-Beleuchtungslicht für den Sensor und das Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte jeweils an dem Strahlteiler reflektiert werden.
Die Verwendung eines dichroitischen Spiegels und eines Lichtabsorbers gemäß Anspruch 21 hat den Vorteil, dass eine gute optische Entkopplung zwischen dem Hellfeld-Beleuchtungslicht für den Sensor und dem Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte erreicht wird, sofern für die Hellfeldbe- leuchtung des Sensors und die Hellfeldbeleuchtung der zu erfassenden Objekte unterschiedliche Wellenlängen verwendet werden.
Weitere Vorteile und Merkmale der vorliegenden Erfindung er- geben sich aus der folgenden beispielhaften Beschreibung von zwei derzeit bevorzugten Ausführungsformen.
Figur 1 illustriert die Bestimmung der relativen räumlichen Lage zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera, wobei der Sensor der Leiterplatten-Kamera unter einer Dunkelfeldbedingung beleuchtet wird. Figur 2 illustriert die Bestimmung der relativen räumlichen Lage zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera, wobei der Sensor der Leiterplatten-Kamera unter einer Hellfeldbedingung beleuchtet wird. An dieser Stelle bleibt anzumerken, dass sich in der nachfolgenden Beschreibung der beiden Ausführungsbeispiele der Erfindung einander entsprechende Komponenten der beiden Kameras lediglich in ihrer ersten Ziffer unterscheiden.
Figur 1 zeigt eine gemäß einem ersten Ausführungsbeispiel der Erfindung modifizierte Leiterplatten-Kamera 100, deren räumliche Lage relativ zu einer herkömmlichen Bauelemente-Kamera 150 bestimmt wird. Die Kamera 100 weist eine Sensorfläche
105, ein Objektiv 110 sowie einen Strahlteiler 115 auf, welche auf einer optischen Achse 117 der Leiterplatten-Kamera 100 angeordnet sind. Die Sensorfläche 105 ist bevorzugt eine CCD- (Charge Coupled Device) oder eine CMOS- (Complementary Metal Oxide Semiconductor) Kamera. Die Kamera 100 weist ferner eine Lichtquelle 120 auf, welche für eine Hellfeldbeleuchtung von zu erfassenden Objekten vorgesehen ist und welche ein Beleuchtungslicht emittiert, welches über eine Reflexion an dem Strahlteiler 115 parallel zu der optischen Achse 117 auf die zu erfassenden Objekte (nicht dargestellt) gerichtet ist. Ferner ist ein Lichtabsorber 125 vorgesehen, welcher das von der Lichtquelle 120 emittierte Licht, welches durch den Strahlteiler 115 transmittiert wird, absorbiert, so dass kein von der Lichtquelle 120 emittiertes Licht ungewollt auf die Sensorfläche 105 trifft. Die Leiterplatten-Kamera 100 weist ferner Lichtquellen 130 auf, die für eine Dunkelfeldbeleuchtung der von der Kamera 100 zu erfassenden Objekte vorgesehen sind.
Gegenüber herkömmlichen Kameras unterscheidet sich die Leiterplatten-Kamera 100 dadurch, dass zusätzlich Lichtquellen 140 vorgesehen sind, welche die Sensorfläche 105 unter einem schrägen Winkel, d.h. unter einer Dunkelfeldbedingung beleuchten. Die Dunkelfeldbeleuchtung der Sensorfläche 105 kann auch mit mehreren Lichtquellen erreicht werden, die um die optische Achse 117 herum angeordnet sind und die in der in Figur 1 dargestellten Querschnittsansicht nicht zu erkennen sind. Die Beleuchtung der Sensorfläche 105 unter einer Dunkelfeldbedingung bewirkt, dass in der Objektebene 146 der Kamera 100 ein reelles Zwischenbild 145 der Sensorfläche 105 erzeugt wird, wobei in dem Zwischenbild 145 bevorzugt die Strukturen der Sensorfläche 105 zu erkennen sind, die schräg zur optischen Achse 117 stehen. Abhängig von dem Anstellwinkel zwischen dem auf die Sensorfläche 105 treffenden Dunkelfeld-Beleuchtungslicht und der optischen Achse 117, welcher Anstellwinkel bevorzugt nicht größer als 45° ist, erscheinen die schräg gestellten Strukturen der Sensorfläche 105 mehr oder weniger hell.
Das Zwischenbild 145 wird von der Bauelemente-Kamera 150 erfasst, welche eine herkömmliche Kamera ist und einen Sensor 155, ein Objektiv 160 sowie einen Strahlteiler 165 aufweist, die auf der nicht explizit dargestellten optischen Achse der Bauelemente-Kamera 150 angeordnet sind. Der Sensor 155 ist bevorzugt eine CCD- oder eine CMOS- Kamera. Die Bauelemente- Kamera 150 umfasst ferner eine Lichtquelle 170, die für eine Hellfeldbeleuchtung der von der Kamera 150 zu erfassenden Objekte vorgesehen ist, und Lichtquellen 180, die für eine Dunkelfeldbeleuchtung der von der Kamera 150 zu erfassenden Objekte vorgesehen sind. Die Lichtquelle 170 sowie die Lichtquellen 180 der Bauelemente-Kamera 150 sind genau so wie die Lichtquelle 120 sowie die Lichtquellen 130 der Leiterplatten- Kamera 100 für die Bestimmung der räumlichen Lage zwischen den beiden Kameras 100 und 150 nicht von Bedeutung.
Die Bestimmung der relativen räumlichen Lage zwischen den beiden Kameras 100 und 150 kann dann auf zwei Arten erfolgen: a) Falls der Sensor 155 ebenfalls ein flächiger Sensor ist, kann das Zwischenbild 145 mit einer einzigen Bildaufnahme erfasst werden, wobei während der Aufnahme die beiden Kameras 100 und 150 sich relativ zueinander in Ruhe befinden. Bei der Aufnahme wird das Zwischenbild durch eine Transmission durch den Strahlteiler 165 und durch eine Abbildung mittels der Optik 160 auf den flächigen Sensor 155 abgebildet, so dass auf der Oberfläche des Sensors 155 ein Bild des Zwischenbildes 145 entsteht. Aus der genauen Position dieses Bildes auf dem flächigen Sensor 155 kann zumindest parallel zu der Objektebene 146 die räumliche Beziehung der beiden Ka- meras 100 und 150 zueinander bestimmt werden. b) Falls der Sensor 155 ein Zeilensensor ist, wird das Bild des Zwischenbildes 145 von der Kamera 150 dadurch erfasst, dass die Kamera 150 relativ zu der Kamera 100 senkrecht zu der Ausrichtung der Zeile des Sensors 155 bewegt wird. Dabei wird das Bild des Zwischenbildes 145 Zeile für Zeile aufgenommen und in einer Auswerteeinheit zusammengesetzt, wobei die jeweiligen Positionen der Kamera 150 berücksichtigt werden, bei der die einzelnen Zeilenaufnahmen erfolgt sind. Somit besteht zwischen dem aufgenommenen und zusammengesetzten Bild und dem Verfahrweg der Kamera 150 ein Zusammenhang, aus dem die räumliche Beziehung zwischen beiden Kameras 100 und 150 parallel zu der Objektebene 146 bestimmt werden kann.
Figur 2 zeigt eine gemäß einem zweiten Ausführungsbeispiel der Erfindung modifizierte Leiterplatten-Kamera 200, deren räumliche Lage relativ zu einer herkömmlichen Bauelemente- Kamera 250 bestimmt wird. Die Leiterplatten-Kamera 200 ist dahingehend modifiziert, dass eine Sensorfläche 205 der Kamera 200 unter einer Hellfeldbedingung beleuchtet wird.
Um Wiederholungen zu vermeiden, werden im folgenden herkömmliche Komponenten der beiden Kameras 200 und 250, d.h. die beiden Objektive 210 und 260, die beiden Strahlteiler 215 und 245, die Lichtquellen 220 und 270 für eine Objekt-Hellfeld- beleuchtung sowie die Lichtquellen 230 und 280 für eine Objekt-Dunkelfeldbeleuchtung, nicht mehr erläutert. Diese Komponenten und deren Wirkungsweise wurden bereits anhand der Erläuterung des ersten Ausführungsbeispiels beschrieben.
Die Beleuchtung der Sensorfläche 205 unter einer Hellfeldbedingung erfolgt durch eine Lichtquelle 241, die Licht in Richtung des Strahlteilers 215 emittiert. Ein Teil des Lieh- tes wird durch den Strahlteiler 215 transmittiert und spielt für die Hellfeldbeleuchtung der Sensorfläche 205 keine Rolle. Der andere Teil des von der Lichtquelle 241 emittierten Lichtes wird an dem Strahlteiler 215 reflektiert und trifft nach einem Durchgang durch die Abbildungsoptik 210 parallel zu der optischen Achse 217 auf die Sensorfläche 205. Die unter der Hellfeldbedingung beleuchtete Sensorfläche 205 wird durch das Objektiv 210 auf ein in der Objektebene 246 erzeugtes Zwischenbild 245 abgebildet, wobei der entsprechende Strahlen- gang eine Transmission durch den Strahlteiler 215 aufweist. Das Zwischenbild 245 wird von der Bauelemente-Kamera 250 erfasst, wobei die Position des Bildes des Zwischenbildes auf dem Sensor 255 direkt die relative räumliche Lage zwischen beiden Kameras 200 und 250 widerspiegelt. Wie zuvor erläu- tert, kann auch der Sensor 255 auch ein Zeilensensor sein, wobei dann zur Aufnahme eines Bildes des Zwischenbildes 245 die Kamera 250 relativ zu der Kamera 200 bewegt werden muss.
Um zu verhindern, dass das von der Lichtquelle 220 emittier- tes Licht auf die Sensorfläche 205 trifft und somit den Kontrast des Zwischenbildes 245 nachteilig beeinflusst, ist ein Lichtabsorber 225 vorgesehen, auf welchen das von der Lichtquelle 220 emittierte und durch den Strahlteiler 215 trans- mittierte Licht trifft. Dies wird gemäß dem zweiten Ausfüh- rungsbeispiel dadurch erreicht, dass die Lichtquelle 220 und die Lichtquelle 241 Licht mit zueinander unterschiedlicher Spektralverteilung emittieren und dass ein dichroitischer Spiegel 224 vorgesehen ist, dessen spektrale Reflexionseigenschaften so gewählt sind, dass das von der Lichtquelle 220 emittierte und durch den Strahlteiler 215 transmittierte Licht nahezu vollständig reflektiert und dass das von der Lichtquelle 241 für die Hellfeldbeleuchtung der Sensorfläche 205 vorgesehene Licht nahezu vollständig transmittiert wird. Dies kann insbesondere dann erreicht werden, wenn der Wellen- längenunterschied zwischen dem Licht für die Sensor-Hellfeldbeleuchtung und dem Licht für die Objekt-Hellfeldbeleuchtung groß ist. Zusammenfassend schafft die Erfindung ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, wobei ein Sensor 105,205 einer ersten Kamera 100,200 durch eine Dunkelfeld- und/oder einer Hellfeldbeleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge in der Objektebene 146,246 ein reelles Zwischenbild 145,245 des Kamerasensors 105,205 erzeugt wird. Erfindungsgemäß wird die zweite Kamera 150,250 derart angeordnet, dass dieses Zwischenbild 145,245 mit der zweiten Kamera 150,250 aufgenommen werden kann und so der räumliche Zusammenhang zwischen den beiden Kameras herstellbar ist. Die Erfindung schafft ferner eine Kamera 100,200, welche als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der rela- tiven räumlichen Lage zwischen zwei Kameras verwendbar ist. Die Kamera 100,200 weist einen flächigen Sensor 105,205 auf, welcher mittels einer Beleuchtungseinheit dahingehend beleuchtbar ist, dass nach einer Abbildung über eine Optik 110,210 in dem Objektbereich der Kamera ein reelles Zwischen- bild 145,245 des flächigen Sensors 105,205 erzeugt wird.

Claims

Patentansprüche
1. Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera (100, 200) , welche einen flächi- gen ersten Sensor (105, 205) und eine erste Optik (110, 210) aufweist, und einer zweiten Kamera (150, 250), welche einen zweiten Sensor (155, 255) und eine zweite Optik (160, 260) aufweist, bei dem
• eine der beiden Kameras entlang einer Bewegungsstrecke verfahren wird und dabei derart positioniert wird,
- dass sich die erste Kamera (100, 200) in dem Erfassungsbereich der zweiten (150, 250) Kamera befindet und
- dass sich die zweite Kamera (150, 250) in dem Erfassungsbereich der ersten Kamera (100, 200) befindet, • der erste Sensor (105, 205) beleuchtet wird, so dass durch eine Abbildung über die erste Optik (110, 210) in dem Bereich zwischen den beiden Kameras ein reelles Zwischenbild (145, 245) des ersten Sensors (105, 205) erzeugt wird,
• das reelle Zwischenbild (145, 245) über die zweite Optik (160, 260) auf ein Bild des Zwischenbildes (145, 245) abgebildet wird,
• das Bild von dem zweiten Sensor (155, 255) erfasst wird, und
• abhängig von der Lage des Bildes auf dem zweiten Sensor (155, 255) die relative räumliche Lage zwischen den beiden
Kameras bestimmt wird.
2. Verfahren nach Anspruch 1, bei dem die beiden Kameras jeweils entlang einer Bewegungsstrecke verfahren werden, wobei die beiden Bewegungsstrecken in parallel zueinander liegenden Ebenen verlaufen.
3. Verfahren nach einem der Ansprüche 1 bis 2, bei dem eine der beiden Kameras innerhalb einer Bewegungsebene verfahren wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die beiden Kameras jeweils innerhalb einer Bewegungsebene verfahren werden, wobei die beiden Bewegungsebenen parallel zueinander angeordnet sind.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem das Zwischenbild (145, 245) scharf auf den zweiten Sensor (155, 255) abgebildet wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem der flächige erste Sensor (105, 205) durch eine Hellfeldbeleuchtung beleuchtet wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem der flächige erste Sensor (105, 205) durch eine Dunkelfeldbeleuchtung beleuchtet wird.
8. Verfahren nach einem der Ansprüche 1 bis 7, bei dem der flächige erste Sensor (105, 205) mit einem Licht beleuchtet wird, das eine im Vergleich zu sonstigem Beleuchtungslicht, welches für eine Beleuchtung von zu erfassenden Objekten verwendet wird, unterschiedliche spektrale Verteilung aufweist.
9. Verfahren nach einem der Ansprüche 1 bis 8, bei dem als zweiter Sensor (155, 255) ebenfalls ein flächiger Sensor verwendet wird.
10. Verfahren nach Anspruch 9, bei dem
• nach der Bestimmung der relativen räumlichen Lage zwi- sehen den beiden Kameras diese derart zueinander positioniert werden, dass die optischen Achsen der beiden Kameras zur Deckung kommen, und
• das durch die Beleuchtung des flächigen ersten Sensors (105, 205) entstehende Zwischenbild (145, 245) erneut von der zweiten Kamera (150, 250) erfasst wird.
11. Verfahren nach einem der Ansprüche 1 bis 8, bei dem als zweiter Sensor (155, 255) ein Zeilensensor verwendet wird.
12. Verfahren nach einem der Ansprüche 1 bis 11, bei dem als erste Kamera (100, 200) eine Leiterplatten-Kamera verwendet wird, mittels welcher die Positionierung von Leiterplatten überwacht wird, die in einem Bestückautomaten mit Bauelementen bestückt werden.
13. Verfahren nach einem der Ansprüche 1 bis 12, bei dem als zweite Kamera (150, 250) eine Bauelemente-Kamera verwendet wird, welche die Bauelemente erfasst, die mittels eines Bestückautomaten auf eine Leiterplatte aufgesetzt werden.
14. Kamera zum optischen Erfassen von Objekten, insbesondere verwendet als erste Kamera (100, 200) bei der Durchführung des Verfahrens nach einem der Ansprüche 1 bis 13, mit
• einem flächigen Sensor (105, 205),
• einer Beleuchtungseinheit, mittels welcher der flächige Sensor (105, 205) beleuchtbar ist, und
• einer Optik (110, 210), die den flächigen Sensor (105, 205) auf ein reelles Zwischenbild (145, 245) abbildet, welches im Objektbereich der Kamera (100, 200) liegt.
15. Kamera nach Anspruch 14, bei der die Beleuchtungseinheit derart ausgebildet ist, dass der flächige Sensor (105, 205) mit einer Dunkelfeldbeleuchtung und/oder mit einer Hellfeldbeleuchtung beleuchtbar ist.
16. Kamera nach einem der Ansprüche 14 bis 15, bei der die
Beleuchtungseinheit eine oder mehrere Dunkelfeld-Lichtquellen aufweist (140), mittels welchen der flächige Sensor (105) unter einem schrägen Winkel beleuchtbar ist.
17. Kamera nach einem der Ansprüche 14 bis 16, bei der die
Beleuchtungseinheit eine Hell eld-Lichtquelle (241) aufweist, mittels welcher der flächige Sensor (205) senkrecht zu seiner Oberfläche beleuchtbar ist.
18. Kamera nach Anspruch 17, bei der von der Hellfeld- Lichtquelle (241) emittiertes Beleuchtungslicht über eine Reflexion an einem Strahlteiler (215) auf den flächigen Sensor (205) trifft.
19. Kamera nach Anspruch 18, zusätzlich mit einem weiteren Strahlteiler, welcher für eine Hellfeldbeleuchtung eines von der Kamera zu erfassenden Objekts verwendbar ist.
20. Kamera nach Anspruch 18, bei welcher der Strahlteiler (215) zusätzlich für eine Hellfeldbeleuchtung eines von der Kamera zu erfassenden Objekts verwendbar ist.
21. Kamera nach Anspruch 20, bei der zusätzlich ein dichroi- tischer Spiegel (224) und ein Lichtabsorber (225) vorgesehen sind, wobei der dichroitische Spiegel (224) in dem Bereich zwischen dem Strahlteiler (215) und der Hellfeld-Lichtquelle (241) derart angeordnet ist, dass für die Hellfeldbeleuchtung von Objekten vorgesehenes Beleuchtungslicht, welches durch den Strahlteiler (215) transmittiert wird, auf den Lichtabsorber (225) gelenkt wird.
PCT/EP2003/011713 2002-10-24 2003-10-22 Verfahren zur bestimmung der relativen räumlichen lage zwischen zwei kameras und kamera zum optischen erfassen von objekten WO2004039139A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003276147A AU2003276147A1 (en) 2002-10-24 2003-10-22 Method for determining the relative spatial position between two cameras, and camera for optically detecting objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10249669A DE10249669B3 (de) 2002-10-24 2002-10-24 Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras und Kamera zum optischen Erfassen von Objekten
DE10249669.2 2002-10-24

Publications (1)

Publication Number Publication Date
WO2004039139A1 true WO2004039139A1 (de) 2004-05-06

Family

ID=32114856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/011713 WO2004039139A1 (de) 2002-10-24 2003-10-22 Verfahren zur bestimmung der relativen räumlichen lage zwischen zwei kameras und kamera zum optischen erfassen von objekten

Country Status (3)

Country Link
AU (1) AU2003276147A1 (de)
DE (1) DE10249669B3 (de)
WO (1) WO2004039139A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2928280A3 (de) * 2014-03-31 2016-03-16 Dr. Johannes Heidenhain GmbH Messmarkensystem zur Kalibrierung einer Maschine
US9774828B2 (en) 2014-02-14 2017-09-26 Asm Assembly Systems Gmbh & Co. Kg Optical measurement of a component having structural features present at opposite sides
CN112066876A (zh) * 2020-08-27 2020-12-11 武汉大学 一种利用手机快速测量物体尺寸方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004045742B3 (de) * 2004-09-21 2006-05-11 Siemens Ag Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, Vorrichtung zum Bestücken von Bauelementeträgern

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement
WO1997038567A1 (en) * 1996-03-27 1997-10-16 Philips Electronics N.V. Method of placing a component on a substrate and component placement machine for carrying out the method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4738025A (en) * 1986-12-23 1988-04-19 Northern Telecom Limited Automated apparatus and method for positioning multicontact component
JP2803221B2 (ja) * 1989-09-19 1998-09-24 松下電器産業株式会社 Ic実装装置及びその方法
JPH07162200A (ja) * 1993-12-04 1995-06-23 Tdk Corp 電子部品の装着方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement
WO1997038567A1 (en) * 1996-03-27 1997-10-16 Philips Electronics N.V. Method of placing a component on a substrate and component placement machine for carrying out the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774828B2 (en) 2014-02-14 2017-09-26 Asm Assembly Systems Gmbh & Co. Kg Optical measurement of a component having structural features present at opposite sides
EP2928280A3 (de) * 2014-03-31 2016-03-16 Dr. Johannes Heidenhain GmbH Messmarkensystem zur Kalibrierung einer Maschine
CN112066876A (zh) * 2020-08-27 2020-12-11 武汉大学 一种利用手机快速测量物体尺寸方法

Also Published As

Publication number Publication date
DE10249669B3 (de) 2004-06-24
AU2003276147A1 (en) 2004-05-13

Similar Documents

Publication Publication Date Title
DE102005061834B4 (de) Vorrichtung und Verfahren zum optischen Prüfen einer Oberfläche
DE3343145C2 (de)
DE102011117618B4 (de) Vorrichtung zur Abbildung der Innenfläche eines Hohlraumes in einem Werkstück
EP1532479A1 (de) Vorrichtung und verfahren zur inspektion eines objekts
DE102009044151B4 (de) Vorrichtung zur optischen Waferinspektion
DE102016011497B4 (de) Optische Untersuchungseinrichtung und optisches Untersuchungsverfahren mit sichtbarem und infrarotem Licht für Halbleiterbauteile
EP3410091B1 (de) Verfahren zum erfassen einer modulations-transferfunktion und einer zentrierung eines optischen systems
EP1123525B2 (de) Vorrichtung und verfahren zur optischen inspektion verdeckter lötverbindungen
DE10249669B3 (de) Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras und Kamera zum optischen Erfassen von Objekten
DE102007047935A1 (de) Vorrichtung und Verfahren zur Inspektion von Defekten am Randbereich eines Wafers und Verwendung der Vorrichtung in einer Inspektionseinrichtung für Wafer
DE102007022831A1 (de) Vorrichtung mit einem Feldspiegel zum optischen Prüfen einer Oberfläche
EP1456602B1 (de) Sensor zur visuellen positionserfassung ( bauelement, substrat ) mit einer modularen beleuchtungseinheit
DE10323139A1 (de) Verfahren und Vorrichtung zum Hochauflösenden Fehlerfinden und Klassifizieren
EP1373961B1 (de) Mikroskopobjektivanordnung
EP1443352A1 (de) Optischer Aufbau zum Aufsetzen auf ein Mikroskop für die Vermessung von periodischen Bewegungen einer Mikrostruktur
DE4214968C2 (de) Vorrichtung zur Bilderkennung
WO1995012809A1 (de) Anordnung zur beleuchtung und abbildung
EP1002453B1 (de) Verfahren und vorrichtung zur lageerkennung und/oder koplanaritätsprüfung und/oder teilungsprüfung von anschlüssen von bauelementen
DE102006027663A1 (de) Optisches Inspektionssystem zur Vermessung von elektronischen Bauelementen
DE102010000550A1 (de) Verfahren zum Fokussieren einer Objektebene und optische Anordnung
DE69920998T2 (de) System für die Ermittlung und Quantifizierung einer Ausrichtung von einem Objekt mit einer Kopplungsoptik und eine Bildaufnahmevorrichtung
DE102019133738A1 (de) Vorrichtung, Verfahren und Verwendung der Vorrichtung zur Justage, Montage und/oder Prüfung eines elektrooptischen Systems
DE102017113613B4 (de) Optisches System und optisches Gerät mit einem solchen optischen System
DE102010032469B4 (de) Verfahren und Vorrichtung zum Lesen von Codes auf Solarzellen-Wafern
DE102006000296B3 (de) Messvorrichtung und Messverfahren zur Positions- oder Koplanaritätsbestimmung von Objekten

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP