DE10249669B3 - Method for determining the relative spatial position between two cameras and camera for the optical detection of objects - Google Patents

Method for determining the relative spatial position between two cameras and camera for the optical detection of objects Download PDF

Info

Publication number
DE10249669B3
DE10249669B3 DE10249669A DE10249669A DE10249669B3 DE 10249669 B3 DE10249669 B3 DE 10249669B3 DE 10249669 A DE10249669 A DE 10249669A DE 10249669 A DE10249669 A DE 10249669A DE 10249669 B3 DE10249669 B3 DE 10249669B3
Authority
DE
Germany
Prior art keywords
camera
sensor
cameras
flat
bright field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10249669A
Other languages
German (de)
Inventor
Peter Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10249669A priority Critical patent/DE10249669B3/en
Priority to AU2003276147A priority patent/AU2003276147A1/en
Priority to PCT/EP2003/011713 priority patent/WO2004039139A1/en
Application granted granted Critical
Publication of DE10249669B3 publication Critical patent/DE10249669B3/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0812Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • H05K13/081Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
    • H05K13/0818Setup of monitoring devices prior to starting mounting operations; Teaching of monitoring devices for specific products; Compensation of drifts during operation, e.g. due to temperature shifts

Landscapes

  • Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Manufacturing & Machinery (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung schafft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, wobei ein Sensor 105, 205 einer ersten Kamera 100, 200 durch eine Dunkelfeld- und/oder eine Hellfeldbeleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge in der Objektebene 146, 246 ein reelles Zwischenbild 145, 245 des Kamerasensors 105, 205 erzeugt wird. Erfindungsgemäß wird die zweite Kamera 150, 250 derart angeordnet, dass dieses Zwischenbild 145, 245 mit der zweiten Kamera 150, 250 aufgenommen werden kann und so der räumliche Zusammenhang zwischen den beiden Kameras herstellbar ist. Die Erfindung schafft ferner eine Kamera 100, 200, welche als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist. Die Kamera 100, 200 weist einen flächigen Sensor 105, 205 auf, welcher mittels einer Beleuchtungseinheit dahingehend beleuchtbar ist, dass nach einer Abbildung über eine Optik 110, 210 in dem Objektbereich der Kamera ein reelles Zwischenbild 145, 245 des flächigen Sensors 105, 205 erzeugt wird.The invention provides a method for determining the relative spatial position between two cameras, wherein a sensor 105, 205 of a first camera 100, 200 is illuminated by dark field and / or bright field illumination, so that due to the reversibility of the beam paths in the object plane 146 , 246 a real intermediate image 145, 245 of the camera sensor 105, 205 is generated. According to the invention, the second camera 150, 250 is arranged such that this intermediate image 145, 245 can be recorded with the second camera 150, 250 and the spatial relationship between the two cameras can thus be established. The invention also provides a camera 100, 200 which can be used as the first camera when carrying out the method for determining the relative spatial position between two cameras. The camera 100, 200 has a flat sensor 105, 205, which can be illuminated by means of an illumination unit such that, after imaging via optics 110, 210, a real intermediate image 145, 245 of the flat sensor 105, 205 is generated in the object area of the camera becomes.

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist. Die Erfindung betrifft ferner eine Kamera zum optischen Erfassen von Objekten, welche insbesondere als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist.The invention relates to a method to determine the relative spatial Position between a first camera, which has a flat first sensor and has a first optics, and a second camera, which has a second sensor and a second optical system. The invention also relates to a camera for optically detecting objects which in particular as the first camera when carrying out the method for determination the relative spatial Location between two cameras can be used.

Die automatische Bestückung von Substraten bzw. Leiterplatten mit Bauelementen erfolgt heutzutage üblicherweise mittels sog. Bestückautomaten. Dabei werden Bauelemente von einer Bauelementzuführeinrichtung mittels eines Bestückkopfes zu einer Aufsetzposition auf einer Leiterplatte transportiert. Aufgrund der insbesondere in den letzten Jahren zunehmenden Miniaturisierung von Bauelementen beruht ein korrekter Bestückvorgang auf einer präzisen Lagevermessung sowohl von dem zu bestückenden Bauelement als auch von der Leiterplatte, auf welcher das Bauelement aufgesetzt werden soll. Dazu werden typischerweise zwei Kamerasysteme verwendet, die jeweils die Lage von Leiterplatte bzw. Bauelement vermessen. Um die räumliche Beziehung zwischen der zu bestückenden Leiterplatte und einem aufzusetzenden Bauelement herzustellen, welche für einen präzisen Bestückvorgang genau bekannt sein muss, muss auch die relative räumliche Lage zwischen diesen beiden Kamerasystemen, d.h. zwischen einer ersten Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer zweiten Kamera, mittels welcher die Lage des aufzusetzenden Bauelements erfasst wird, genau bekannt sein. Aus diesem Grund ist ein Kalibrierverfahren, bei dem die räumliche Lage zwischen einer sog. Leiterplatten-Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer sog. Bauelemente-Kamera, mittels welcher die Position von aufzusetzenden Bauelementen erfasst wird, für eine präzise Bestückung von Leiterplatten mit Bauelementen unbedingt erforderlich.The automatic assembly of Nowadays, substrates or printed circuit boards with components are usually made using so-called placement machines. there components from a component feed device by means of a assembly head transported to a mounting position on a circuit board. by virtue of the increasing miniaturization, especially in recent years of components, a correct placement process is based on a precise position measurement both of the to be populated Component as well as from the circuit board on which the component to be put on. Two camera systems are typically used for this, which each measure the position of the printed circuit board or component. To the spatial Relationship between the to be populated Manufacture circuit board and a component to be placed, which for one precise mounting operation The relative spatial position must also be known exactly between these two camera systems, i.e. between a first Camera, by means of which the position of a to be assembled Printed circuit board is detected, and a second camera, by means of which the position of the component to be placed is detected exactly his. For this reason, a calibration procedure in which the spatial Position between a so-called PCB camera, by means of which the position one to be populated Printed circuit board is detected, and a so-called component camera, by means of which the position of components to be placed is recorded for a precise assembly of printed circuit boards with components absolutely necessary.

Zur Bestimmung der räumlichen Beziehung zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera ist ein Verfahren bekannt, bei dem sog. Kalibrierteile auf einer Leiterplatte plaziert werden und die Position dieser Kalibrierteile mittels der Leiterplatten-Kamera erfasst wird. Anschließend wird das Kalibrierteil von dem Bestückkopf aufgenommen, in der angenommenen Soll-Position vor der Bauelemente-Kamera platziert und dort vermessen. Aus der Abweichung von gemessener Position und Soll-Position des Kalibrierteils kann auf die tatsächliche relative Lage zwischen den beiden Kameras zurückgeschlossen werden.To determine the spatial Relationship between a circuit board camera and a component camera a method is known in which so-called calibration parts on a PCB are placed and the position of these calibration parts is captured by means of the circuit board camera. Then that will Calibration part of the placement head recorded in the assumed target position in front of the component camera placed and measured there. From the deviation from measured The position and target position of the calibration part can be based on the actual relative position between the two cameras can be inferred.

Aus der WO 1997/38567 A1 ist ein Verfahren bekannt, bei dem während der Erfassung eines Bauelements mittels einer ersten Kamera diese erste Kamera ebenso eine auf einer Referenzplatte befindliche Markierung erfasst und zur gleichen Zeit eine zweite Kamera eine andere Markierung erfasst, welche sich ebenfalls auf der Referenzplatte befindet. Die dabei erhaltenen Bilddaten ermöglichen ebenfalls eine Bestimmung der relativen räumlichen Lage zwischen der ersten Kamera und der zweiten Kamera.From WO 1997/38567 A1 is a Process known in which during the detection of a component by means of a first camera first camera also a marking located on a reference plate captured and at the same time a second camera another mark recorded, which is also on the reference plate. The enable image data obtained in the process also a determination of the relative spatial position between the first camera and the second camera.

Aus der US 4 738 025 ist ein Verfahren bekannt, bei dem mittels einer Referenzplatte sowohl die relative räumliche Lage zwischen zwei Kameras kalibriert als auch das Auflösungsvermögen der beiden Kameras bestimmt wird.From the US 4,738,025 a method is known in which both the relative spatial position between two cameras is calibrated and the resolution of the two cameras is determined by means of a reference plate.

Aus der US 4 980 971 ist ein Verfahren und eine Vorrichtung zum präzisen Positionieren von Halbleiterchips auf ein Substrat bekannt, wobei die relative Orientierung zwischen zwei Kameras dadurch bestimmt wird, dass zwischen den beiden Kameras eine Referenzplatte gebracht wird, wobei die Referenzplatte jeweils in der Fokusebene der beiden Kameras liegt.From the US 4,980,971 A method and a device for the precise positioning of semiconductor chips on a substrate is known, the relative orientation between two cameras being determined by placing a reference plate between the two cameras, the reference plate being in the focal plane of the two cameras.

Aus der US 5,084,959 A ist ein Bestückautomat mit einem Bestückkopf sowie mit einer Substrat-Kamera und einer Bauelemente-Kamera bekannt, bei dem ebenfalls die relative räumliche Lage zwischen der Substrat-Kamera und der Bauelemente-Kamera bestimmt werden kann. Dazu wird der Bestückautomat so eingestellt, dass die Bauelemente-Kamera, welche sich neben einem Substrat befindet, einen bestimmten Teil des Bestückkopfes und die Substrat-Kamera, welche sich relativ zu dem Bestückkopf in einer bekannten Position befindet, eine bestimmte Bestückposition auf dem Substrat erfasst. Da in dieser Stellung des Bestückautomaten die relative Lage zwischen dem Bestückkopf und der Substrat-Kamera der relativen Lage zwischen der Bestückposition und der Bauelemente-Kamera entspricht, kann aus der bekannten relativen Lage zwischen Bestückkopf und Substrat-Kamera die räumliche Beziehung zwischen der Substrat-Kamera und der Bauelemente-Kamera ermittelt werden.From the US 5,084,959 A an automatic placement machine with a placement head and with a substrate camera and a component camera is known, in which the relative spatial position between the substrate camera and the component camera can also be determined. For this purpose, the placement machine is set in such a way that the component camera, which is located next to a substrate, detects a specific part of the placement head and the substrate camera, which is located in a known position relative to the placement head, detects a specific placement position on the substrate , Since in this position of the placement machine the relative position between the placement head and the substrate camera corresponds to the relative position between the placement position and the component camera, the spatial relationship between the substrate camera can be obtained from the known relative position between the placement head and the substrate camera and the component camera can be determined.

Aus der JP 07162200A ist ein Verfahren und eine Vorrichtung zur Montage von elektronischen Bauteilen mit einer ersten Kamera zur Erfassung der Bauteile und einer zweiten Kamera zur Erfassung von Markierungen auf einer Leiterplatte bekannt. Zur Kalibrierung der Kameras dient ein transparenter Träger mit einer Kalibriermarke, die in die gemeinsame Bildebene der beiden Kameras positioniert wird, wobei sich deren Gesichtsfelder überlappen.From the JP 07162200A A method and a device for assembling electronic components with a first camera for capturing the components and a second camera for capturing markings on a printed circuit board is known. A transparent support with a calibration mark is used to calibrate the cameras, which is positioned in the common image plane of the two cameras, their fields of view overlapping.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras zu schaffen, bei dem die räumliche Beziehung zwischen den beiden Kameras unmittelbar, d.h. ohne die Verwendung von Referenzobjekten bestimmt werden kann. Der Erfindung liegt fer ner die Aufgabe zugrunde, eine Kamera zum optischen Erfassen von Objekten zu schaffen, welche für das oben genannte Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist.The invention has for its object a method for determining the relative spatial Chen position between two cameras to create, in which the spatial relationship between the two cameras can be determined directly, ie without the use of reference objects. The invention is also based on the object of creating a camera for the optical detection of objects which can be used for the above-mentioned method for determining the relative spatial position between two cameras.

Die vorrichtungsbezogene Aufgabe wird gelöst durch ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist, mit den Merkmalen des unabhängigen Anspruchs 1. Der Erfindung liegt die Erkenntnis zugrunde, dass die relative räumliche Anordnung zwischen zwei Kameras dadurch bestimmt werden kann, dass der Sensor der ersten Kamera mittels einer zusätzlichen Beleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge an dem Ort, an dem sich sonst ein von der ersten Kamera zu erfassendes Objekt befindet, ein reelles Zwischenbild des ersten Sensors erzeugt wird. Dieses Zwischenbild wird mit der zweiten Kamera aufgenommen und so der räumliche Zusammenhang zwischen den beiden Kameras hergestellt. Das erfindungsgemäße Verfahren hat den Vorteil, dass zur Kalibrierung der relativen räumlichen Lage zwischen beiden Kameras keinerlei Referenzobjekte erforderlich sind. Da das reelle Zwischenbild des ersten Sensors als Messmarke für die zweite Kamera dient, ist eine mechanische Aufhängung für einen Referenzgegenstand nicht erforderlich. Dies hat den Vorteil, dass bei beiden Kameras ein großer Freiraum zur Objektebene eingehalten werden kann. Es wird darauf hingewiesen, dass der erste Sensor auch ein quasi eindimensionaler Zeilensensor sein kann, sofern sichergestellt ist, dass bei einer Beleuchtung des ersten Sensors ein deutliches Zwischenbild erzeugt wird, welches von der zweiten Kamera eindeutig erfasst werden kann.The device-related task will be solved by a method for determining the relative spatial Position between a first camera, which is a flat first Sensor and a first optics, and a second camera, which has a second sensor and a second lens, with the characteristics of the independent Claim 1. The invention is based on the knowledge that the relative spatial Arrangement between two cameras can be determined in that the sensor of the first camera is illuminated by additional lighting is so that due to the reversibility of the beam paths on the Place where an object to be captured by the first camera would otherwise be is located, a real intermediate image of the first sensor is generated. This intermediate image is taken with the second camera and so the spatial Connection established between the two cameras. The method according to the invention has the advantage that to calibrate the relative spatial No reference objects required between the two cameras are. Since the real intermediate image of the first sensor as a measuring mark for the second Camera is used is a mechanical suspension for a reference object not mandatory. This has the advantage of being one with both cameras greater Free space to the object level can be maintained. It will be on it noted that the first sensor is also a quasi one-dimensional Line sensor can be provided that it is ensured that at a Illumination of the first sensor produces a clear intermediate image which is clearly recorded by the second camera.

Gemäß Anspruch 2 werden beide Kameras jeweils entlang einer Bewegungsstrecke verfahren, wobei die beiden Bewegungsstrecken in parallel zueinander liegenden Ebenen verlaufen. Demzufolge können die beiden Bewegungsstrecken im allgemeinen auch winklig zueinander verlaufen. Besonders vorteilhaft kann allerdings das Verfahren dann angewendet werden, wenn die beiden Bewegungsstrecken parallel zueinander verlaufen, so dass der Abstand zwischen beiden Bewegungsstrecken konstant ist.According to claim 2, both cameras are each move along a movement path, the two movement paths run in parallel planes. As a result, the the two movement distances are generally also at an angle to one another run. However, the method can then be particularly advantageous be used when the two movement paths are parallel to each other run so that the distance between the two movement paths is constant.

Gemäß Anspruch 3 ist das Verfahren auch für eine sog. zweidimensionale Kalibrierung der relativen räumlichen Lage zwischen zwei Kameras geeignet.According to claim 3, the method also for a so-called two-dimensional calibration of the relative spatial Suitable between two cameras.

Gemäß Anspruch 4 können beide Kameras jeweils innerhalb einer Bewegungsebene verfahren werden, wobei die beiden Bewegungsebenen parallel zueinander angeordnet sind und damit der Abstand zwischen beiden Kameras senkrecht zu den Bewegungsebenen vorgegebenen ist.According to claim 4, both can Cameras are moved within a movement plane, the two planes of movement being arranged parallel to one another and therefore the distance between the two cameras is perpendicular to the movement planes is given.

Bei dem Verfahren gemäß Anspruch 5 liegen die Objektebenen der beiden Kameras übereinander, so dass die relative räumliche Lage zwischen beiden Kameras mit einer besonders hohen Genauigkeit bestimmt werden kann.In the method according to claim 5, the object planes of the two cameras lie one above the other, so that the relative spatial Position between the two cameras with particularly high accuracy can be determined.

Gemäß Anspruch 6 bzw. Anspruch 7 wird der flächige erste Sensor durch eine Hellfeldbeleuchtung bzw. eine Dunkelfeldbeleuchtung beleuchtet. Damit kann abhängig von der optischen Beschaffenheit und der Struktur der Oberfläche des flächigen Sensors eine geeignete Beleuchtung verwendet werden, so dass Strukturen im Zwischenbild eindeutig den Strukturen des flächigen Sensors zugeordnet werden können. Damit wird erreicht, dass für die zweite Kamera nicht nur ein kleiner Ausschnitt der im Zwischenbild abgebildeten Sensorfläche der ersten Kamera zu sehen ist, sondern im Zwischenbild die Mitte des flächigen ersten Sensors eindeutig identifiziert werden kann. Insbesondere durch ein Umschalten zwischen verschiedenen Beleuchtungsarten kann sichergestellt werden, dass die zweite Kamera das Zwischenbild des ersten Sensors zuverlässig erfasst.According to claim 6 or claim 7 is the flat first sensor by bright field lighting or dark field lighting illuminated. So that can be dependent on the optical nature and structure of the surface of the flat Appropriate lighting sensors are used so that structures clearly assigned to the structures of the flat sensor in the intermediate image can. This ensures that for the second camera is not just a small section of the one shown in the intermediate image sensor surface the first camera can be seen, but the middle in the intermediate image of the flat first sensor can be clearly identified. In particular by switching between different types of lighting ensure that the second camera is the intermediate image of the first sensor reliable detected.

Die Verwendung von hinsichtlich der spektralen Verteilung unterschiedlichem Beleuchtungslicht für den ersten Sensor und für die von der ersten Kamera zu erfassenden Objekte gemäß Anspruch 8 ermöglicht eine unabhängige Wahl der Wellenlänge der Sensorbeleuchtung. Dies hat den Vorteil, dass die Sensorbeleuchtung so abgestimmt werden kann, dass die Sensorstrukturen besonders deutlich hervortreten.The use of regarding spectral distribution of different illuminating light for the first Sensor and for the objects to be captured by the first camera according to claim 8 allows an independent Choice of the wavelength of the Sensor lighting. This has the advantage that the sensor lighting can be adjusted so that the sensor structures are particularly clear emerge.

Das Verfahren gemäß Anspruch 9 hat den Vorteil, dass die räumliche Beziehung zwischen beiden Kameras bereits mit der Aufnahme eines einzigen Bildes bestimmt werden kann.The method according to claim 9 has the advantage that the spatial Relationship between the two cameras already with the inclusion of one single image can be determined.

Das Verfahren gemäß Anspruch 10, bei dem die optischen Achsen der beiden Kameras zur Deckung gebracht werden, hat den Vorteil, dass das Messergebnis nicht durch eventuell vorhandene Abbildungsfehler der beiden Optiken gestört wird. Das Übereinanderlegen der beiden optischen Achsen kann auch durch ein iteratives Verfahren durchgeführt werden, wobei die beiden Kameras derart bewegt werden, dass die zugehörigen optischen Achsen schrittweise zur Deckung kommen. Somit kann eine maximale Genauigkeit bei der Bestimmung des räumlichen Zusammenhangs zwischen beiden Kameras erreicht werden.The method of claim 10, wherein the optical axes of the two cameras are made to coincide, has the advantage that the measurement result is not due to any existing Image error of the two optics is disturbed. The stacking the two optical axes can also be done by an iterative process carried out the two cameras are moved in such a way that the associated optical axes are gradually covered. Thus a maximum accuracy in determining the spatial relationship between both cameras can be reached.

Bei dem Verfahren gemäß Anspruch 11, bei dem als zweiter Sensor ein Zeilensensor verwendet wird, wird zur Erfassung des Zwischenbildes die zweite Kamera senkrecht zu der Ausrichtung des Zeilensensors an der ersten Kamera vorbei bewegt und sequentiell jeweils eine Zeile des Zwischenbildes aufgenommen. Das Bild des Zwischenbildes wird dann Zeile für Zeile zusammengesetzt. Dabei werden die beiden optischen Achsen zumindest in einer Richtung während der Bildaufnahme automatisch zur Deckung gebracht.In the method according to claim 11, in which a line sensor is used as the second sensor, the second camera is moved past the first camera perpendicular to the orientation of the line sensor to record the intermediate image and a line of the intermediate image is recorded sequentially. The image of the intermediate image is then put together line by line. The two optical axes are at least in one Direction automatically coincident during image acquisition.

Gemäß den Verfahren nach Anspruch 12 und Anspruch 13 wird als erste Kamera eine Leiterplatten-Kamera und als zweite Kamera eine Bauelemente-Kamera verwendet. Damit eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kameras insbesondere für eine räumliche Kalibrierung der Kameras von sog. Pick and Place Bestückautomaten, bei denen der komplette Bestückvorgang der Bauelemente sequentiell erfolgt. Dies bedeutet, dass ein Bauelement von einem Bestückkopf aus einem Zuführmodul abgeholt, zu einer Bestückposition transportiert und auf die Leiterplatte aufgesetzt wird. Erst nach dem Aufsetzen des Bauelements beginnt die Bestückung des nächsten Bauelements.According to the method of claim 12 and claim 13 is a circuit board camera as the first camera and uses a component camera as the second camera. So it is suitable the procedure for determining the spatial position between two Cameras especially for a spatial Calibration of cameras from pick and place placement machines, where the complete assembly process of the components takes place sequentially. This means that a component from a placement head from a feed module picked up to an assembly position transported and placed on the circuit board. Only after the placement of the component begins the assembly of the next component.

Ebenso eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kameras für sog. Collect and Place Bestückautomaten, welche einen Zeilen- oder Matrixbestückkopf aufweisen, so dass je nach Anzahl der an dem Bestückkopf ausgebildeten Haltevorrichtungen eine Mehrzahl von Bauelementen von einer Zuführeinheit hin zu der zu bestückenden Leiterplatte transportiert und auf diese aufgesetzt werden können.The procedure is also suitable to determine the spatial Location between two cameras for so-called collect and place placement machines, which a line or matrix placement head have, so that depending on the number of trained on the placement head Holders a plurality of components from a feed unit towards the one to be populated Printed circuit board can be transported and placed on it.

Es wird darauf hingewiesen, dass selbstverständlich auch als zweite Kamera eine Leiterplattenkamera und als erste Kamera eine Bauelementkamera verwendet werden kann.It should be noted that Of course also as a second camera, a circuit board camera and as the first camera a component camera can be used.

Die der Erfindung zugrundeliegende vorrichtungsbezogene Aufgabe wird gelöst durch eine Kamera zum optischen Erfassen von Objekten mit den Merkmalen des unabhängigen Anspruchs 14. Die Erfindung hat den Vorteil, dass das zuvor erläuterte Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras durch den einfachen Umbau einer herkömmlichen Kamera durchführbar ist. Der Umbau der erfindungsgemäßen Kamera besteht darin, dass vor dem Kamerasensor eine Beleuchtungseinheit vorgesehen ist, welche bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen der erfindungsgemäßen Kamera und einer weiteren Kamera entsprechend angesteuert wird. Als Lichtquellen für die Beleuchtungseinheit können beispielsweise herkömmliche Glühlampen, Leuchtdioden, Laserlichtquellen oder Fluoreszenzlichtquellen eingesetzt werden.The basis of the invention Device-related task is solved by an optical camera Detection of objects with the features of the independent claim 14. The invention has the advantage that the previously explained method to determine the relative spatial position between two cameras by simply converting a conventional one Camera is feasible. The conversion of the camera according to the invention consists of a lighting unit in front of the camera sensor is provided, which is in the implementation of the method for determination the relative spatial Location between the camera according to the invention and another camera is controlled accordingly. As light sources for the lighting unit can for example conventional ones Lightbulbs, Light-emitting diodes, laser light sources or fluorescent light sources are used become.

Die Weiterbildung gemäß Anspruch 15 hat den Vorteil, dass durch eine geeignete Kombination der Dunkelfeldbeleuchtung mit der Hellfeldbeleuchtung ein kontrastreiches Zwischenbild erzeugbar ist, welches von der zweiten Kamera deutlich erfasst werden kann.The training according to claim 15 has the advantage that through a suitable combination of dark field lighting a high-contrast intermediate image can be generated with the bright field lighting which is clearly captured by the second camera.

Die Weiterbildung gemäß Anspruch 16 stellt eine besonders einfache und vorteilhafte Realisierung der Dunkelfeldbeleuchtung dar.The training according to claim 16 represents a particularly simple and advantageous implementation of dark field lighting.

Die Weiterbildung gemäß Anspruch 17 stellt eine besonders einfache und vorteilhafte Realisierung der Hellfeldbeleuchtung dar.The training according to claim 17 represents a particularly simple and advantageous implementation the bright field lighting.

Gemäß Anspruch 18 wird die Hellfeldbeleuchtung des flächigen Sensors dadurch realisiert, dass ein bevorzugt auf der optischen Achse der Optik angeordneter Strahlteiler über eine Reflexion an dem Strahlteiler das Licht der Hellfeldbeleuchtung senkrecht zu der Sensoroberfläche auf den flächigen Sensor lenkt.According to claim 18, the bright field lighting of the flat Sensor realized in that a preferred on the optical Axis of the optics arranged beam splitter via a reflection on the beam splitter the light from the bright field illumination is perpendicular to the sensor surface the flat Sensor steers.

Gemäß Anspruch 19 ist bevorzugt auf der optischen Achse der Optik ein weiterer Strahlteiler vorgesehen, mittels welchem die von der Kamera zu erfassenden Objekte unter einer Hellfeldbedingung beleuchtet werden können. Die Verwendung von zwei getrennten Strahlteilern für die Sensor-Hellfeldbeleuchtung und die Objekt-Hellfeldbeleuchtung hat den Vorteil, dass das Sensor-Beleuchtungslicht und das Objekt-Beleuchtungslicht einfach und effektiv entkoppelt werden können und somit weder die Erzeugung des Zwischenbildes durch eine Hellfeldbeleuchtung des zu erfassenden Objekts noch die Erfassung des Objekts durch die Hellfeldbeleuchtung des Sensors gestört wird.According to claim 19 is preferred a further beam splitter is provided on the optical axis of the optics, by means of which the objects to be captured by the camera under a bright field condition can be illuminated. The use of two separate beam splitters for the sensor bright field lighting and the object bright field lighting has the advantage that the sensor illuminating light and the object illuminating light can be decoupled easily and effectively and therefore neither the generation of the intermediate image by bright field illumination of the one to be captured Object is still captured by the bright field illumination of the Sensor disturbed becomes.

Es wird darauf hingewiesen, dass die Kamera auch derart aufgebaut sein kann, dass das Sensor-Beleuchtungslicht, welches unter einer Hellfeldbedingung auf den Sensor trifft, durch den einen Strahlteiler transmittiert und das Objekt-Beleuchtungslicht, welches auf das zu erfassende Objekt trifft, durch den anderen Strahlteiler transmittiert wird. In diesem Fall verläuft der Strahlengang zwischen dem zu erfassenden Objekt und dem Sensor über eine Reflexion an den beiden Strahlteilern.It should be noted that the camera can also be constructed such that the sensor illuminating light, which hits the sensor under a bright field condition which transmits a beam splitter and the object illuminating light, which hits the object to be detected by the other beam splitter is transmitted. In this case, the beam path runs between the object to be detected and the sensor via a reflection on the two Beam splitters.

Die Verwendung eines einzigen Strahlteilers sowohl für die Hellfeldbeleuchtung des Sensors als auch für die Hellfeldbeleuchtung der zu erfassenden Objekte gemäß Anspruch 20 hat den Vorteil, dass die Kamera in einer kompakten Bauform realisiert werden kann. In diesem Fall sind die Hellfeld-Lichtquelle und die Lichtquelle für die Hellfeldbeleuchtung der zu erfassenden Objekte einander gegenüberliegend angeordnet, wobei sich der Strahlteiler in der Mitte zwischen beiden Lichtquellen befindet und das Hellfeld-Beleuchtungslicht für den Sensor und das Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte jeweils an dem Strahlteiler reflektiert werden.The use of a single beam splitter both for the Bright field illumination of the sensor as well as for the bright field illumination of the objects to be detected according to claim 20 has the advantage that the camera is implemented in a compact design can be. In this case, the bright field light source and the light source are for the bright field illumination the objects to be detected are arranged opposite one another, wherein the beam splitter is in the middle between the two light sources and the bright field illumination light for the sensor and the bright field illumination light for the objects to be detected are each reflected on the beam splitter.

Die Verwendung eines dichroitischen Spiegels und eines Lichtabsorbers gemäß Anspruch 21 hat den Vorteil, dass eine gute optische Entkopplung zwischen dem Hellfeld-Beleuchtungslicht für den Sensor und dem Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte erreicht wird, sofern für die Hellfeldbeleuchtung des Sensors und die Hellfeldbeleuchtung der zu erfassenden Objekte unterschiedliche Wellenlängen verwendet werden.The use of a dichroic Mirror and a light absorber according to claim 21 has the advantage that good optical decoupling between the bright field illuminating light for the sensor and the bright field illumination light for the objects to be detected is achieved, provided for the bright field illumination of the sensor and the bright field illumination of the objects to be detected uses different wavelengths become.

Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus der folgenden beispielhaften Beschreibung von zwei derzeit bevorzugten Ausführungsformen.Further advantages and features of the present invention will become apparent from the following exemplary description of two currently to come preferred embodiments.

1 illustriert die Bestimmung der relativen räumlichen Lage zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera, wobei der Sensor der Leiterplatten-Kamera unter einer Dunkelfeldbedingung beleuchtet wird. 1 illustrates the determination of the relative spatial position between a circuit board camera and a component camera, the sensor of the circuit board camera being illuminated under a dark field condition.

2 illustriert die Bestimmung der relativen räumlichen Lage zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera, wobei der Sensor der Leiterplatten-Kamera unter einer Hellfeldbedingung beleuchtet wird. 2 illustrates the determination of the relative spatial position between a circuit board camera and a component camera, the sensor of the circuit board camera being illuminated under a bright field condition.

An dieser Stelle bleibt anzumerken, dass sich in der nachfolgenden Beschreibung der beiden Ausführungsbeispiele der Erfindung einander entsprechende Komponenten der beiden Kameras lediglich in ihrer ersten Ziffer unterscheiden.At this point it should be noted that in the following description of the two exemplary embodiments components of the two cameras corresponding to the invention differ only in their first digit.

1 zeigt eine gemäß einem ersten Ausführungsbeispiel der Erfindung modifizierte Leiterplatten-Kamera 100, deren räumliche Lage relativ zu einer herkömmlichen Bauelemente-Kamera 150 bestimmt wird. Die Kamera 100 weist eine Sensorfläche 105, ein Objektiv 110 sowie einen Strahlteiler 115 auf, welche auf einer optischen Achse 117 der Leiterplatten-Kamera 100 angeordnet sind. Die Sensorfläche 105 ist bevorzugt eine CCD-(Charge Coupled Device) oder eine CMOS-(Complementary Metal Oxide Semiconductor) Kamera. Die Kamera 100 weist ferner eine Lichtquelle 120 auf, welche für eine Hellfeldbeleuchtung von zu erfassenden Objekten vorgesehen ist und welche ein Beleuchtungslicht emittiert, welches über eine Reflexion an dem Strahlteiler 115 parallel zu der optischen Achse 117 auf die zu erfassenden Objekte (nicht dargestellt) gerichtet ist. Ferner ist ein Lichtabsorber 125 vorgesehen, welcher das von der Lichtquelle 120 emittierte Licht, welches durch den Strahlteiler 115 transmittiert wird, absorbiert, so dass kein von der Lichtquelle 120 emittiertes Licht ungewollt auf die Sensorfläche 105 trifft. Die Leiterplatten-Kamera 100 weist ferner Lichtquellen 130 auf, die für eine Dunkelfeldbeleuchtung der von der Kamera 100 zu erfassenden Objekte vorgesehen sind. 1 shows a circuit board camera modified according to a first embodiment of the invention 100 whose spatial position relative to a conventional component camera 150 is determined. The camera 100 has a sensor surface 105 , a lens 110 as well as a beam splitter 115 on which on an optical axis 117 the PCB camera 100 are arranged. The sensor area 105 is preferably a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) camera. The camera 100 also has a light source 120 on, which is provided for bright field illumination of objects to be detected and which emits an illuminating light which is reflected by the beam splitter 115 parallel to the optical axis 117 is directed to the objects to be detected (not shown). There is also a light absorber 125 provided which of the light source 120 light emitted by the beam splitter 115 is transmitted, absorbed so that none of the light source 120 emitted light unintentionally on the sensor surface 105 meets. The circuit board camera 100 also has light sources 130 on that for dark field lighting from that of the camera 100 objects to be detected are provided.

Gegenüber herkömmlichen Kameras unterscheidet sich die Leiterplatten-Kamera 100 dadurch, dass zusätzlich Lichtquellen 140 vorgesehen sind, welche die Sensorfläche 105 unter einem schrägen Winkel, d.h. unter einer Dunkelfeldbedingung beleuchten. Die Dunkelfeldbeleuchtung der Sensorfläche 105 kann auch mit mehreren Lichtquellen erreicht werden, die um die optische Achse 117 herum angeordnet sind und die in der in 1 dargestellten Querschnittsansicht nicht zu erkennen sind. Die Beleuchtung der Sensorfläche 105 unter einer Dunkelfeldbedingung bewirkt, dass in der Objektebene 146 der Kamera 100 ein reelles Zwischenbild 145 der Sensorfläche 105 erzeugt wird, wobei in dem Zwischenbild 145 bevorzugt die Strukturen der Sensorfläche 105 zu erkennen sind, die schräg zur optischen Achse 117 stehen. Abhängig von dem Ansstellwinkel zwischen dem auf die Sensorfläche 105 treffenden Dunkelfeld-Beleuchtungslicht und der optischen Achse 117, welcher Anstellwinkel bevorzugt nicht größer als 45° ist, erscheinen die schräg gestellten Strukturen der Sensorfläche 105 mehr oder weniger hell.The PCB camera differs from conventional cameras 100 in that additional light sources 140 are provided which cover the sensor surface 105 illuminate at an oblique angle, ie under a dark field condition. The dark field illumination of the sensor surface 105 can also be achieved with multiple light sources around the optical axis 117 are arranged around and in the in 1 cross-sectional view shown are not recognizable. Illumination of the sensor surface 105 under a dark field condition causes in the object plane 146 the camera 100 a real intermediate picture 145 the sensor surface 105 is generated, in the intermediate image 145 prefers the structures of the sensor surface 105 can be seen which are oblique to the optical axis 117 stand. Depending on the angle of attack between that on the sensor surface 105 striking dark field illuminating light and the optical axis 117 Which angle of attack is preferably not greater than 45 °, the inclined structures of the sensor surface appear 105 more or less bright.

Das Zwischenbild 145 wird von der Bauelemente-Kamera 150 erfasst, welche eine herkömmliche Kamera ist und einen Sensor 155, ein Objektiv 160 sowie einen Strahlteiler 165 aufweist, die auf der nicht explizit dargestellten optischen Achse der Bauelemente-Kamera 150 angeordnet sind. Der Sensor 155 ist bevorzugt eine CCD- oder eine CMOS- Kamera. Die Bauelemente-Kamera 150 umfasst ferner eine Lichtquelle 170, die für eine Hellfeldbeleuchtung der von der Kamera 150 zu erfassenden Objekte vorgesehen ist, und Lichtquellen 180, die für eine Dunkelfeldbeleuchtung der von der Kamera 150 zu erfassenden Objekte vorgesehen sind. Die Lichtquelle 170 sowie die Lichtquellen 180 der Bauelemente-Kamera 150 sind genau so wie die Lichtquelle 120 sowie die Lichtquellen 130 der Leiterplatten-Kamera 100 für die Bestimmung der räumlichen Lage zwischen den beiden Kameras 100 und 150 nicht von Bedeutung.The intermediate picture 145 is from the component camera 150 detects which is a conventional camera and a sensor 155 , a lens 160 as well as a beam splitter 165 has that on the optical axis of the component camera, which is not explicitly shown 150 are arranged. The sensor 155 is preferably a CCD or a CMOS camera. The component camera 150 further includes a light source 170 that for a bright field illumination of the camera 150 objects to be detected is provided, and light sources 180 used for dark field lighting by the camera 150 objects to be detected are provided. The light source 170 as well as the light sources 180 the component camera 150 are just like the light source 120 as well as the light sources 130 the PCB camera 100 for determining the spatial position between the two cameras 100 and 150 not significant.

Die Bestimmung der relativen räumlichen Lage zwischen den beiden Kameras 100 und 150 kann dann auf zwei Arten erfolgen:

  • a) Falls der Sensor 155 ebenfalls ein flächiger Sensor ist, kann das Zwischenbild 145 mit einer einzigen Bildaufnahme erfasst werden, wobei während der Aufnahme die beiden Kameras 100 und 150 sich relativ zueinander in Ruhe befinden. Bei der Aufnahme wird das Zwischenbild durch eine Transmission durch den Strahlteiler 165 und durch eine Abbildung mittels der Optik 160 auf den flächigen Sensor 155 abgebildet, so dass auf der Oberfläche des Sensors 155 ein Bild des Zwischenbildes 145 entsteht. Aus der genauen Position dieses Bildes auf dem flächigen Sensor 155 kann zumindest parallel zu der Objektebene 146 die räumliche Beziehung der beiden Kameras 100 und 150 zueinander bestimmt werden.
  • b) Falls der Sensor 155 ein Zeilensensor ist, wird das Bild des Zwischenbildes 145 von der Kamera 150 dadurch erfasst, dass die Kamera 150 relativ zu der Kamera 100 senkrecht zu der Ausrichtung der Zeile des Sensors 155 bewegt wird. Dabei wird das Bild des Zwischenbildes 145 Zeile für Zeile aufgenommen und in einer Auswerteeinheit zusammengesetzt, wobei die jeweiligen Positionen der Kamera 150 berücksichtigt werden, bei der die einzelnen Zeilenaufnahmen erfolgt sind. Somit besteht zwischen dem aufgenommenen und zusammengesetzten Bild und dem Verfahrweg der Kamera 150 ein Zusammenhang, aus dem die räumliche Beziehung zwischen beiden Kameras 100 und 150 parallel zu der Objektebene 146 bestimmt werden kann.
Determining the relative spatial location between the two cameras 100 and 150 can then be done in two ways:
  • a) If the sensor 155 the intermediate image can also be a flat sensor 145 can be captured with a single image, the two cameras being captured 100 and 150 are at rest relative to each other. When the picture is taken, the intermediate image is transmitted through the beam splitter 165 and by imaging using optics 160 on the flat sensor 155 mapped so that on the surface of the sensor 155 an image of the intermediate image 145 arises. From the exact position of this image on the flat sensor 155 can be at least parallel to the object plane 146 the spatial relationship of the two cameras 100 and 150 to be determined to each other.
  • b) If the sensor 155 is a line sensor, the image of the intermediate image 145 from the camera 150 thereby captured by the camera 150 relative to the camera 100 perpendicular to the alignment of the row of the sensor 155 is moved. The image of the intermediate image 145 Recorded line by line and assembled in an evaluation unit, the respective positions of the camera 150 are taken into account in which the individual line recordings were made. There is thus between the captured and composed image and the path of the camera 150 a relationship from which the spatial relationship between the two cameras 100 and 150 parallel to the object plane 146 can be determined.

2 zeigt eine gemäß einem zweiten Ausführungsbeispiel der Erfindung modifizierte Leiterplatten-Kamera 200, deren räumliche Lage relativ zu einer herkömmlichen Bauelemente-Kamera 250 bestimmt wird. Die Leiterplatten-Kamera 200 ist dahingehend modifiziert, dass eine Sensorfläche 205 der Kamera 200 unter einer Hellfeldbedingung beleuchtet wird. 2 shows one according to a second off leadership example of the invention modified circuit board camera 200 whose spatial position relative to a conventional component camera 250 is determined. The circuit board camera 200 is modified in that a sensor surface 205 the camera 200 is illuminated under a bright field condition.

Um Wiederholungen zu vermeiden, werden im folgenden herkömmliche Komponenten der beiden Kameras 200 und 250, d.h. die beiden Objektive 210 und 260, die beiden Strahlteiler 215 und 245, die Lichtquellen 220 und 270 für eine Objekt-Hellfeldbeleuchtung sowie die Lichtquellen 230 und 280 für eine Objekt-Dunkelfeldbeleuchtung, nicht mehr erläutert. Diese Komponenten und deren Wirkungsweise wurden bereits anhand der Erläuterung des ersten Ausführungsbeispiels beschrieben.In order to avoid repetitions, the following are conventional components of the two cameras 200 and 250 , ie the two lenses 210 and 260 , the two beam splitters 215 and 245 , the light sources 220 and 270 for object bright field lighting and the light sources 230 and 280 for object dark field lighting, no longer explained. These components and their mode of operation have already been described with reference to the explanation of the first exemplary embodiment.

Die Beleuchtung der Sensorfläche 205 unter einer Hellfeldbedingung erfolgt durch eine Lichtquelle 241, die Licht in Richtung des Strahlteilers 215 emittiert. Ein Teil des Lich tes wird durch den Strahlteiler 215 transmittiert und spielt für die Hellfeldbeleuchtung der Sensorfläche 205 keine Rolle. Der andere Teil des von der Lichtquelle 241 emittierten Lichtes wird an dem Strahlteiler 215 reflektiert und trifft nach einem Durchgang durch die Abbildungsoptik 210 parallel zu der optischen Achse 217 auf die Sensorfläche 205. Die unter der Hellfeldbedingung beleuchtete Sensorfläche 205 wird durch das Objektiv 210 auf ein in der Objektebene 246 erzeugtes Zwischenbild 245 abgebildet, wobei der entsprechende Strahlengang eine Transmission durch den Strahlteiler 215 aufweist. Das Zwischenbild 245 wird von der Bauelemente-Kamera 250 erfasst, wobei die Position des Bildes des Zwischenbildes auf dem Sensor 255 direkt die relative räumliche Lage zwischen beiden Kameras 200 und 250 widerspiegelt. Wie zuvor erläutert, kann auch der Sensor 255 auch ein Zeilensensor sein, wobei dann zur Aufnahme eines Bildes des Zwischenbildes 245 die Kamera 250 relativ zu der Kamera 200 bewegt werden muss.Illumination of the sensor surface 205 under a bright field condition is done by a light source 241 who have light directed towards the beam splitter 215 emitted. Part of the light is through the beam splitter 215 transmits and plays for the bright field illumination of the sensor surface 205 not matter. The other part of that from the light source 241 emitted light is on the beam splitter 215 reflects and hits after a pass through the imaging optics 210 parallel to the optical axis 217 on the sensor surface 205 , The sensor surface illuminated under the bright field condition 205 is through the lens 210 on a in the object level 246 generated intermediate image 245 mapped, the corresponding beam path being a transmission through the beam splitter 215 having. The intermediate picture 245 is from the component camera 250 detected, the position of the image of the intermediate image on the sensor 255 directly the relative spatial position between the two cameras 200 and 250 reflects. As previously explained, the sensor can also 255 also be a line sensor, in which case then for taking an image of the intermediate image 245 the camera 250 relative to the camera 200 must be moved.

Um zu verhindern, dass das von der Lichtquelle 220 emittiertes Licht auf die Sensorfläche 205 trifft und somit den Kontrast des Zwischenbildes 245 nachteilig beeinflusst, ist ein Lichtabsorber 225 vorgesehen, auf welchen das von der Lichtquelle 220 emittierte und durch den Strahlteiler 215 transmittierte Licht trifft. Dies wird gemäß dem zweiten Ausführungsbeispiel dadurch erreicht, dass die Lichtquelle 220 und die Lichtquelle 241 Licht mit zueinander unterschiedlicher Spektralverteilung emittieren und dass ein dichroitischer Spiegel 224 vorgesehen ist, dessen spektrale Reflexionseigenschaften so gewählt sind, dass das von der Lichtquelle 220 emittierte und durch den Strahlteiler 215 transmittierte Licht nahezu vollständig reflektiert und dass das von der Lichtquelle 241 für die Hellfeldbeleuchtung der Sensorfläche 205 vorgesehene Licht nahezu vollständig transmittiert wird. Dies kann insbesondere dann erreicht werden, wenn der Wellenlängenunterschied zwischen dem Licht für die Sensor-Hellfeldbeleuchtung und dem Licht für die Objekt-Hellfeldbeleuchtung groß ist.To prevent that from the light source 220 emitted light on the sensor surface 205 meets and thus the contrast of the intermediate image 245 is a light absorber 225 provided on which the from the light source 220 emitted and through the beam splitter 215 transmitted light hits. According to the second exemplary embodiment, this is achieved in that the light source 220 and the light source 241 Emit light with different spectral distribution and that a dichroic mirror 224 is provided, the spectral reflection properties are selected so that that of the light source 220 emitted and through the beam splitter 215 transmitted light is almost completely reflected and that from the light source 241 for the bright field illumination of the sensor surface 205 provided light is transmitted almost completely. This can be achieved in particular if the wavelength difference between the light for the sensor bright field illumination and the light for the object bright field illumination is large.

Zusammenfassend schafft die Erfindung ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, wobei ein Sensor 105, 205 einer ersten Kamera 100, 200 durch eine Dunkelfeld- und/oder einer Hellfeldbeleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge in der Objektebene 146, 246 ein reelles Zwischenbild 145, 245 des Kamerasensors 105, 205 erzeugt wird. Erfindungsgemäß wird die zweite Kamera 150, 250 derart angeordnet, dass dieses Zwischenbild 145, 245 mit der zweiten Kamera 150, 250 aufgenommen werden kann und so der räumliche Zusammenhang zwischen den beiden Kameras herstellbar ist. Die Erfindung schafft ferner eine Kamera 100, 200, welche als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist. Die Kamera 100, 200 weist einen flächigen Sensor 105, 205 auf, welcher mittels einer Beleuchtungseinheit dahingehend beleuchtbar ist, dass nach einer Abbildung über eine Optik 110, 210 in dem Objektbereich der Kamera ein reelles Zwischenbild 145, 245 des flächigen Sensors 105, 205 erzeugt wird.In summary, the invention provides a method for determining the relative spatial position between two cameras, one sensor 105 . 205 a first camera 100 . 200 is illuminated by dark field and / or bright field lighting, so that due to the reversibility of the beam paths in the object plane 146 . 246 a real intermediate picture 145 . 245 of the camera sensor 105 . 205 is produced. According to the second camera 150 . 250 arranged so that this intermediate image 145 . 245 with the second camera 150 . 250 can be recorded and so the spatial relationship between the two cameras can be established. The invention also provides a camera 100 . 200 , which can be used as the first camera when carrying out the method for determining the relative spatial position between two cameras. The camera 100 . 200 has a flat sensor 105 . 205 on, which can be illuminated by means of a lighting unit in such a way that after imaging via optics 110 . 210 a real intermediate image in the object area of the camera 145 . 245 of the flat sensor 105 . 205 is produced.

Claims (21)

Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera (100, 200), welche einen flächigen ersten Sensor (105, 205) und eine erste Optik (110, 210) aufweist, und einer zweiten Kamera (150, 250), welche einen zweiten Sensor (155, 255) und eine zweite Optik (160, 260) aufweist, bei dem – eine der beiden Kameras entlang einer Bewegungsstrecke verfahren wird und dabei derart positioniert wird, – dass sich die erste Kamera (100, 200) in dem Erfassungsbereich der zweiten (150, 250) Kamera befindet und – dass sich die zweite Kamera (150, 250) in dem Erfassungsbereich der ersten Kamera (100, 200) befindet, – der erste Sensor (105, 205) beleuchtet wird, so dass durch eine Abbildung über die erste Optik (110, 210) in dem Bereich zwischen den beiden Kameras ein reelles Zwischenbild (145, 245) des ersten Sensors (105, 205) erzeugt wird, – das reelle Zwischenbild (145, 245) über die zweite Optik (160, 260) auf ein Bild des Zwischenbildes (145, 245) abgebildet wird, – das Bild von dem zweiten Sensor (155, 255) erfasst wird, und – abhängig von der Lage des Bildes auf dem zweiten Sensor (155, 255) die relative räumliche Lage zwischen den beiden Kameras bestimmt wird.Method for determining the relative spatial position between a first camera ( 100 . 200 ), which has a flat first sensor ( 105 . 205 ) and a first look ( 110 . 210 ) and a second camera ( 150 . 250 ), which has a second sensor ( 155 . 255 ) and a second optic ( 160 . 260 ), in which - one of the two cameras is moved along a movement path and is positioned in such a way that - the first camera ( 100 . 200 ) is in the detection range of the second (150, 250) camera and - that the second camera ( 150 . 250 ) in the detection area of the first camera ( 100 . 200 ) - the first sensor ( 105 . 205 ) is illuminated so that an image of the first optics ( 110 . 210 ) a real intermediate image in the area between the two cameras ( 145 . 245 ) of the first sensor ( 105 . 205 ) is generated, - the real intermediate image ( 145 . 245 ) about the second optics ( 160 . 260 ) on a picture of the intermediate picture ( 145 . 245 ) is imaged, - the image from the second sensor ( 155 . 255 ) is detected, and - depending on the position of the image on the second sensor ( 155 . 255 ) the relative spatial position between the two cameras is determined. Verfahren nach Anspruch 1, bei dem die beiden Kameras jeweils entlang einer Bewegungsstrecke verfahren werden, wobei die beiden Bewegungsstrecken in parallel zueinander liegenden Ebenen verlaufen.The method of claim 1, wherein the two cameras are each moved along a movement path, the both movement paths run in parallel planes. Verfahren nach einem der Ansprüche 1 bis 2, bei dem eine der beiden Kameras innerhalb einer Bewegungsebene verfahren wird.Method according to one of claims 1 to 2, wherein one of the the two cameras are moved within a movement plane. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die beiden Kameras jeweils innerhalb einer Bewegungsebene verfahren werden, wobei die beiden Bewegungsebenen parallel zueinander angeordnet sind.Method according to one of claims 1 to 3, wherein the two Cameras are moved within a movement plane, the two planes of movement being arranged parallel to one another are. Verfahren nach einem der Ansprüche 1 bis 4, bei dem das Zwischenbild (145, 245) scharf auf den zweiten Sensor (155, 255) abgebildet wird.Method according to one of Claims 1 to 4, in which the intermediate image ( 145 . 245 ) sharp on the second sensor ( 155 . 255 ) is mapped. Verfahren nach einem der Ansprüche 1 bis 5, bei dem der flächige erste Sensor (105, 205) durch eine Hellfeldbeleuchtung beleuchtet wird.Method according to one of Claims 1 to 5, in which the flat first sensor ( 105 . 205 ) is illuminated by bright field lighting. Verfahren nach einem der Ansprüche 1 bis 6, bei dem der flächige erste Sensor (105, 205) durch eine Dunkelfeldbeleuchtung beleuchtet wird.Method according to one of Claims 1 to 6, in which the flat first sensor ( 105 . 205 ) is illuminated by dark field lighting. Verfahren nach einem der Ansprüche 1 bis 7, bei dem der flächige erste Sensor (105, 205) mit einem Licht beleuchtet wird, das eine im Vergleich zu sonstigem Beleuchtungslicht, welches für eine Beleuchtung von zu erfassenden Objekten verwendet wird, unterschiedliche spektrale Verteilung aufweist.Method according to one of Claims 1 to 7, in which the flat first sensor ( 105 . 205 ) is illuminated with a light which has a different spectral distribution compared to other illuminating light which is used for illuminating objects to be detected. Verfahren nach einem der Ansprüche 1 bis 8, bei dem als zweiter Sensor (155, 255) ebenfalls ein flächiger Sensor verwendet wird.Method according to one of Claims 1 to 8, in which the second sensor ( 155 . 255 ) a flat sensor is also used. Verfahren nach Anspruch 9, bei dem – nach der Bestimmung der relativen räumlichen Lage zwischen den beiden Kameras diese derart zueinander positioniert werden, dass die optischen Achsen der beiden Kameras zur Deckung kommen, und – das durch die Beleuchtung des flächigen ersten Sensors (105, 205) entstehende Zwischenbild (145, 245) erneut von der zweiten Kamera (150, 250) erfasst wird.Method according to Claim 9, in which - after the determination of the relative spatial position between the two cameras, these are positioned relative to one another in such a way that the optical axes of the two cameras overlap, and - by the illumination of the flat first sensor ( 105 . 205 ) resulting intermediate image ( 145 . 245 ) again from the second camera ( 150 . 250 ) is recorded. Verfahren nach einem der Ansprüche 1 bis 8, bei dem als zweiter Sensor (155, 255) ein Zeilensensor verwendet wird.Method according to one of Claims 1 to 8, in which the second sensor ( 155 . 255 ) a line sensor is used. Verfahren nach einem der Ansprüche 1 bis 11, bei dem als erste Kamera (100, 200) eine Leiterplatten-Kamera verwendet wird, mittels welcher die Positionierung von Leiterplatten überwacht wird, die in einem Bestückautomaten mit Bauelementen bestückt werden.Method according to one of Claims 1 to 11, in which the first camera ( 100 . 200 ) A circuit board camera is used, by means of which the positioning of circuit boards is monitored, which are equipped with components in an automatic placement machine. Verfahren nach einem der Ansprüche 1 bis 12, bei dem als zweite Kamera (150, 250) eine Bauelemente-Kamera verwendet wird, welche die Bauelemente erfasst, die mittels eines Bestückautomaten auf eine Leiterplatte aufgesetzt werden.Method according to one of Claims 1 to 12, in which the second camera ( 150 . 250 ) a component camera is used, which detects the components that are placed on a circuit board by means of an automatic placement machine. Kamera zum optischen Erfassen von Objekten, verwendet als erste Kamera (100, 200) bei der Durchführung des Verfahrens nach einem der Ansprüche 1 bis 13, mit – einem flächigen Sensor (105, 205), – einer Beleuchtungseinheit, mittels welcher der flächige Sensor (105, 205) beleuchtbar ist, und – einer Optik (110, 210), die den flächigen Sensor (105, 205) auf ein reelles Zwischenbild (145, 245) abbildet, welches im Objektbereich der ersten Kamera (100, 200) liegt, so dass bei einer Erfassung des reellen Zwischenbildes (145, 245) von der zweiten Kamera die relative räumliche Lage zwischen der ersten Kamera (100, 200) und der zweiten Kamera (150, 250) bestimmbar ist.Camera for optical detection of objects, used as the first camera ( 100 . 200 ) when carrying out the method according to one of claims 1 to 13, with - a flat sensor ( 105 . 205 ), - a lighting unit, by means of which the flat sensor ( 105 . 205 ) can be illuminated, and - an optic ( 110 . 210 ), which the flat sensor ( 105 . 205 ) to a real intermediate image ( 145 . 245 ) which is in the object area of the first camera ( 100 . 200 ), so that when the real intermediate image is captured ( 145 . 245 ) the relative spatial position of the second camera between the first camera ( 100 . 200 ) and the second camera ( 150 . 250 ) can be determined. Kamera nach Anspruch 14, bei der die Beleuchtungseinheit derart ausgebildet ist, dass der flächige Sensor (105, 205) mit einer Dunkelfeldbeleuchtung und/oder mit einer Hellfeldbeleuchtung beleuchtbar ist.The camera according to claim 14, wherein the lighting unit is designed such that the flat sensor ( 105 . 205 ) can be illuminated with dark field lighting and / or with bright field lighting. Kamera nach einem der Ansprüche 14 bis 15, bei der die Beleuchtungseinheit eine oder mehrere Dunkelfeld-Lichtquellen aufweist (140), mittels welchen der flächige Sensor (105) unter einem schrägen Winkel beleuchtbar ist.Camera according to one of Claims 14 to 15, in which the illumination unit has one or more dark field light sources ( 140 ), by means of which the flat sensor ( 105 ) can be illuminated at an oblique angle. Kamera nach einem der Ansprüche 14 bis 16, bei der die Beleuchtungseinheit eine Hellfeld-Lichtquelle (241) aufweist, mittels welcher der flächige Sensor (205) senkrecht zu seiner Oberfläche beleuchtbar ist.Camera according to one of claims 14 to 16, in which the illumination unit is a bright field light source ( 241 ), by means of which the flat sensor ( 205 ) can be illuminated perpendicular to its surface. Kamera nach Anspruch 17, bei der von der Hellfeld-Lichtquelle (241) emittiertes Beleuchtungslicht über eine Reflexion an einem Strahlteiler (215) auf den flächigen Sensor (205) trifft.The camera of claim 17, wherein the bright field light source ( 241 ) emitted illuminating light via a reflection on a beam splitter ( 215 ) on the flat sensor ( 205 ) meets. Kamera nach Anspruch 18, zusätzlich mit einem weiteren Strahlteiler, welcher für eine Hellfeldbeleuchtung eines von der Kamera zu erfassenden Objekts verwendbar ist.Camera according to claim 18, additionally with a further beam splitter, which for bright field illumination of an object to be captured by the camera is usable. Kamera nach Anspruch 18, bei welcher der Strahlteiler (215) zusätzlich für eine Hellfeldbeleuchtung eines von der Kamera zu erfassenden Objekts verwendbar ist.The camera of claim 18, wherein the beam splitter ( 215 ) can also be used for bright field illumination of an object to be captured by the camera. Kamera nach Anspruch 20, bei der zusätzlich ein dichroitischer Spiegel (224) und ein Lichtabsorber (225) vorgesehen sind, wobei der dichroitische Spiegel (224) in dem Bereich zwischen dem Strahlteiler (215) und der Hellfeld-Lichtquelle (241) derart angeordnet ist, dass für die Hellfeldbeleuchtung von Objekten vorgesehenes Beleuchtungslicht, welches durch den Strahlteiler (215) transmittiert wird, auf den Lichtabsorber (225) gelenkt wird.Camera according to claim 20, in which a dichroic mirror ( 224 ) and a light absorber ( 225 ) are provided, the dichroic mirror ( 224 ) in the area between the beam splitter ( 215 ) and the bright field light source ( 241 ) so it is ordered that the illuminating light provided for the bright field illumination of objects, which is transmitted through the beam splitter ( 215 ) is transmitted to the light absorber ( 225 ) is steered.
DE10249669A 2002-10-24 2002-10-24 Method for determining the relative spatial position between two cameras and camera for the optical detection of objects Expired - Fee Related DE10249669B3 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10249669A DE10249669B3 (en) 2002-10-24 2002-10-24 Method for determining the relative spatial position between two cameras and camera for the optical detection of objects
AU2003276147A AU2003276147A1 (en) 2002-10-24 2003-10-22 Method for determining the relative spatial position between two cameras, and camera for optically detecting objects
PCT/EP2003/011713 WO2004039139A1 (en) 2002-10-24 2003-10-22 Method for determining the relative spatial position between two cameras, and camera for optically detecting objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10249669A DE10249669B3 (en) 2002-10-24 2002-10-24 Method for determining the relative spatial position between two cameras and camera for the optical detection of objects

Publications (1)

Publication Number Publication Date
DE10249669B3 true DE10249669B3 (en) 2004-06-24

Family

ID=32114856

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10249669A Expired - Fee Related DE10249669B3 (en) 2002-10-24 2002-10-24 Method for determining the relative spatial position between two cameras and camera for the optical detection of objects

Country Status (3)

Country Link
AU (1) AU2003276147A1 (en)
DE (1) DE10249669B3 (en)
WO (1) WO2004039139A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004045742B3 (en) * 2004-09-21 2006-05-11 Siemens Ag Method of determining the relative spatial position between two cameras based on detection of the position of a marking in the field of view of the second camera
EP2908614A1 (en) 2014-02-14 2015-08-19 ASM Assembly Systems GmbH & Co. KG Optical measuring of a component with structural features on opposing sides

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014104523A1 (en) * 2014-03-31 2015-10-01 Dr. Johannes Heidenhain Gmbh Measuring mark system for calibrating a machine
CN112066876B (en) * 2020-08-27 2021-07-02 武汉大学 Method for rapidly measuring object size by using mobile phone

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4738025A (en) * 1986-12-23 1988-04-19 Northern Telecom Limited Automated apparatus and method for positioning multicontact component
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement
US5084959A (en) * 1989-09-19 1992-02-04 Matsushita Electric Industrial Co., Ltd. Chip mounting apparatus
JPH07162200A (en) * 1993-12-04 1995-06-23 Tdk Corp Method and apparatus for mounting electronic part
WO1997038567A1 (en) * 1996-03-27 1997-10-16 Philips Electronics N.V. Method of placing a component on a substrate and component placement machine for carrying out the method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4738025A (en) * 1986-12-23 1988-04-19 Northern Telecom Limited Automated apparatus and method for positioning multicontact component
US5084959A (en) * 1989-09-19 1992-02-04 Matsushita Electric Industrial Co., Ltd. Chip mounting apparatus
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement
JPH07162200A (en) * 1993-12-04 1995-06-23 Tdk Corp Method and apparatus for mounting electronic part
WO1997038567A1 (en) * 1996-03-27 1997-10-16 Philips Electronics N.V. Method of placing a component on a substrate and component placement machine for carrying out the method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004045742B3 (en) * 2004-09-21 2006-05-11 Siemens Ag Method of determining the relative spatial position between two cameras based on detection of the position of a marking in the field of view of the second camera
EP2908614A1 (en) 2014-02-14 2015-08-19 ASM Assembly Systems GmbH & Co. KG Optical measuring of a component with structural features on opposing sides
DE102014101901A1 (en) 2014-02-14 2015-08-20 Asm Assembly Systems Gmbh & Co. Kg Optical measurement of a component with structural features present on opposite sides
US9774828B2 (en) 2014-02-14 2017-09-26 Asm Assembly Systems Gmbh & Co. Kg Optical measurement of a component having structural features present at opposite sides

Also Published As

Publication number Publication date
AU2003276147A1 (en) 2004-05-13
WO2004039139A1 (en) 2004-05-06

Similar Documents

Publication Publication Date Title
DE4342654C2 (en) Test device for testing printed circuit boards
EP2266380B1 (en) Optical detection device and method for detecting surfaces of components
DE102005061834B4 (en) Apparatus and method for optically examining a surface
DE3705749C2 (en) Method and device for aligning a light emitter within its package
EP3166312A1 (en) Device and method for adjusting and/or calibrating a multi-camera module and use of such a device
DE3123703A1 (en) OPTICAL MEASURING SYSTEM WITH A PHOTODETECTOR ARRANGEMENT
DE102005012127A1 (en) Photo detecting means and temperature distribution detecting means using the same
EP1123525B1 (en) Device and method for the optical inspection of concealed soldered connections
DE102009017695B3 (en) Method for inspecting solder joints on electrical and electronic components
DE102004056698B3 (en) Inspection device for a substrate having at least one printed layer
DE102004001029A1 (en) Camera module with a toothed lens barrel
DE10249669B3 (en) Method for determining the relative spatial position between two cameras and camera for the optical detection of objects
DE102005041998A1 (en) Method for adjusting an imaging element and measuring device adjusted according to such a method
DE10027196B4 (en) Video stereoscopic microscope
WO2001008461A1 (en) Inspection device for components
EP0463565A1 (en) Recticle display device
EP1456602B1 (en) Sensor for the visual position detection (component, substrate) comprising a modular lighting device
DE102016214990B4 (en) Optical system, surgical instrument, and method and apparatus for assembling an optical system
DE102015108389A1 (en) Lighting control when using optical measuring devices
DE4026956A1 (en) Video camera for work intensity image - has beam splitter between objective lens and image converter, and phototransmitter elements
WO2021116285A1 (en) Device, method, and use of the device for adjusting, assembling and/or testing an electro-optical system
DE102006027663A1 (en) Optical inspection system for measuring e.g. unpacked electronic components, has endoscope with optical inlet and optical outlet arranged such that electronic component that is found in coverage penetrates under diagonal angle
EP1675453A2 (en) Device for illuminating objects and sensor device
DE4214968A1 (en) DEVICE FOR DETECTING IMAGES
EP1808061B1 (en) Lighting array and optical measuring system for detecting objects

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee