DE10249669B3 - Method for determining the relative spatial position between two cameras and camera for the optical detection of objects - Google Patents
Method for determining the relative spatial position between two cameras and camera for the optical detection of objects Download PDFInfo
- Publication number
- DE10249669B3 DE10249669B3 DE10249669A DE10249669A DE10249669B3 DE 10249669 B3 DE10249669 B3 DE 10249669B3 DE 10249669 A DE10249669 A DE 10249669A DE 10249669 A DE10249669 A DE 10249669A DE 10249669 B3 DE10249669 B3 DE 10249669B3
- Authority
- DE
- Germany
- Prior art keywords
- camera
- sensor
- cameras
- flat
- bright field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K13/00—Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
- H05K13/08—Monitoring manufacture of assemblages
- H05K13/081—Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
- H05K13/0812—Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines the monitoring devices being integrated in the mounting machine, e.g. for monitoring components, leads, component placement
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K13/00—Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
- H05K13/08—Monitoring manufacture of assemblages
- H05K13/081—Integration of optical monitoring devices in assembly lines; Processes using optical monitoring devices specially adapted for controlling devices or machines in assembly lines
- H05K13/0818—Setup of monitoring devices prior to starting mounting operations; Teaching of monitoring devices for specific products; Compensation of drifts during operation, e.g. due to temperature shifts
Landscapes
- Engineering & Computer Science (AREA)
- Operations Research (AREA)
- Manufacturing & Machinery (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung schafft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras, wobei ein Sensor 105, 205 einer ersten Kamera 100, 200 durch eine Dunkelfeld- und/oder eine Hellfeldbeleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge in der Objektebene 146, 246 ein reelles Zwischenbild 145, 245 des Kamerasensors 105, 205 erzeugt wird. Erfindungsgemäß wird die zweite Kamera 150, 250 derart angeordnet, dass dieses Zwischenbild 145, 245 mit der zweiten Kamera 150, 250 aufgenommen werden kann und so der räumliche Zusammenhang zwischen den beiden Kameras herstellbar ist. Die Erfindung schafft ferner eine Kamera 100, 200, welche als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist. Die Kamera 100, 200 weist einen flächigen Sensor 105, 205 auf, welcher mittels einer Beleuchtungseinheit dahingehend beleuchtbar ist, dass nach einer Abbildung über eine Optik 110, 210 in dem Objektbereich der Kamera ein reelles Zwischenbild 145, 245 des flächigen Sensors 105, 205 erzeugt wird.The invention provides a method for determining the relative spatial position between two cameras, wherein a sensor 105, 205 of a first camera 100, 200 is illuminated by dark field and / or bright field illumination, so that due to the reversibility of the beam paths in the object plane 146 , 246 a real intermediate image 145, 245 of the camera sensor 105, 205 is generated. According to the invention, the second camera 150, 250 is arranged such that this intermediate image 145, 245 can be recorded with the second camera 150, 250 and the spatial relationship between the two cameras can thus be established. The invention also provides a camera 100, 200 which can be used as the first camera when carrying out the method for determining the relative spatial position between two cameras. The camera 100, 200 has a flat sensor 105, 205, which can be illuminated by means of an illumination unit such that, after imaging via optics 110, 210, a real intermediate image 145, 245 of the flat sensor 105, 205 is generated in the object area of the camera becomes.
Description
Die Erfindung betrifft ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist. Die Erfindung betrifft ferner eine Kamera zum optischen Erfassen von Objekten, welche insbesondere als erste Kamera bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist.The invention relates to a method to determine the relative spatial Position between a first camera, which has a flat first sensor and has a first optics, and a second camera, which has a second sensor and a second optical system. The invention also relates to a camera for optically detecting objects which in particular as the first camera when carrying out the method for determination the relative spatial Location between two cameras can be used.
Die automatische Bestückung von Substraten bzw. Leiterplatten mit Bauelementen erfolgt heutzutage üblicherweise mittels sog. Bestückautomaten. Dabei werden Bauelemente von einer Bauelementzuführeinrichtung mittels eines Bestückkopfes zu einer Aufsetzposition auf einer Leiterplatte transportiert. Aufgrund der insbesondere in den letzten Jahren zunehmenden Miniaturisierung von Bauelementen beruht ein korrekter Bestückvorgang auf einer präzisen Lagevermessung sowohl von dem zu bestückenden Bauelement als auch von der Leiterplatte, auf welcher das Bauelement aufgesetzt werden soll. Dazu werden typischerweise zwei Kamerasysteme verwendet, die jeweils die Lage von Leiterplatte bzw. Bauelement vermessen. Um die räumliche Beziehung zwischen der zu bestückenden Leiterplatte und einem aufzusetzenden Bauelement herzustellen, welche für einen präzisen Bestückvorgang genau bekannt sein muss, muss auch die relative räumliche Lage zwischen diesen beiden Kamerasystemen, d.h. zwischen einer ersten Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer zweiten Kamera, mittels welcher die Lage des aufzusetzenden Bauelements erfasst wird, genau bekannt sein. Aus diesem Grund ist ein Kalibrierverfahren, bei dem die räumliche Lage zwischen einer sog. Leiterplatten-Kamera, mittels welcher die Position einer zu bestückenden Leiterplatte erfasst wird, und einer sog. Bauelemente-Kamera, mittels welcher die Position von aufzusetzenden Bauelementen erfasst wird, für eine präzise Bestückung von Leiterplatten mit Bauelementen unbedingt erforderlich.The automatic assembly of Nowadays, substrates or printed circuit boards with components are usually made using so-called placement machines. there components from a component feed device by means of a assembly head transported to a mounting position on a circuit board. by virtue of the increasing miniaturization, especially in recent years of components, a correct placement process is based on a precise position measurement both of the to be populated Component as well as from the circuit board on which the component to be put on. Two camera systems are typically used for this, which each measure the position of the printed circuit board or component. To the spatial Relationship between the to be populated Manufacture circuit board and a component to be placed, which for one precise mounting operation The relative spatial position must also be known exactly between these two camera systems, i.e. between a first Camera, by means of which the position of a to be assembled Printed circuit board is detected, and a second camera, by means of which the position of the component to be placed is detected exactly his. For this reason, a calibration procedure in which the spatial Position between a so-called PCB camera, by means of which the position one to be populated Printed circuit board is detected, and a so-called component camera, by means of which the position of components to be placed is recorded for a precise assembly of printed circuit boards with components absolutely necessary.
Zur Bestimmung der räumlichen Beziehung zwischen einer Leiterplatten-Kamera und einer Bauelemente-Kamera ist ein Verfahren bekannt, bei dem sog. Kalibrierteile auf einer Leiterplatte plaziert werden und die Position dieser Kalibrierteile mittels der Leiterplatten-Kamera erfasst wird. Anschließend wird das Kalibrierteil von dem Bestückkopf aufgenommen, in der angenommenen Soll-Position vor der Bauelemente-Kamera platziert und dort vermessen. Aus der Abweichung von gemessener Position und Soll-Position des Kalibrierteils kann auf die tatsächliche relative Lage zwischen den beiden Kameras zurückgeschlossen werden.To determine the spatial Relationship between a circuit board camera and a component camera a method is known in which so-called calibration parts on a PCB are placed and the position of these calibration parts is captured by means of the circuit board camera. Then that will Calibration part of the placement head recorded in the assumed target position in front of the component camera placed and measured there. From the deviation from measured The position and target position of the calibration part can be based on the actual relative position between the two cameras can be inferred.
Aus der WO 1997/38567 A1 ist ein Verfahren bekannt, bei dem während der Erfassung eines Bauelements mittels einer ersten Kamera diese erste Kamera ebenso eine auf einer Referenzplatte befindliche Markierung erfasst und zur gleichen Zeit eine zweite Kamera eine andere Markierung erfasst, welche sich ebenfalls auf der Referenzplatte befindet. Die dabei erhaltenen Bilddaten ermöglichen ebenfalls eine Bestimmung der relativen räumlichen Lage zwischen der ersten Kamera und der zweiten Kamera.From WO 1997/38567 A1 is a Process known in which during the detection of a component by means of a first camera first camera also a marking located on a reference plate captured and at the same time a second camera another mark recorded, which is also on the reference plate. The enable image data obtained in the process also a determination of the relative spatial position between the first camera and the second camera.
Aus der
Aus der
Aus der
Aus der
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras zu schaffen, bei dem die räumliche Beziehung zwischen den beiden Kameras unmittelbar, d.h. ohne die Verwendung von Referenzobjekten bestimmt werden kann. Der Erfindung liegt fer ner die Aufgabe zugrunde, eine Kamera zum optischen Erfassen von Objekten zu schaffen, welche für das oben genannte Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras verwendbar ist.The invention has for its object a method for determining the relative spatial Chen position between two cameras to create, in which the spatial relationship between the two cameras can be determined directly, ie without the use of reference objects. The invention is also based on the object of creating a camera for the optical detection of objects which can be used for the above-mentioned method for determining the relative spatial position between two cameras.
Die vorrichtungsbezogene Aufgabe wird gelöst durch ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen einer ersten Kamera, welche einen flächigen ersten Sensor und eine erste Optik aufweist, und einer zweiten Kamera, welche einen zweiten Sensor und eine zweite Optik aufweist, mit den Merkmalen des unabhängigen Anspruchs 1. Der Erfindung liegt die Erkenntnis zugrunde, dass die relative räumliche Anordnung zwischen zwei Kameras dadurch bestimmt werden kann, dass der Sensor der ersten Kamera mittels einer zusätzlichen Beleuchtung beleuchtet wird, so dass aufgrund der Umkehrbarkeit der Strahlengänge an dem Ort, an dem sich sonst ein von der ersten Kamera zu erfassendes Objekt befindet, ein reelles Zwischenbild des ersten Sensors erzeugt wird. Dieses Zwischenbild wird mit der zweiten Kamera aufgenommen und so der räumliche Zusammenhang zwischen den beiden Kameras hergestellt. Das erfindungsgemäße Verfahren hat den Vorteil, dass zur Kalibrierung der relativen räumlichen Lage zwischen beiden Kameras keinerlei Referenzobjekte erforderlich sind. Da das reelle Zwischenbild des ersten Sensors als Messmarke für die zweite Kamera dient, ist eine mechanische Aufhängung für einen Referenzgegenstand nicht erforderlich. Dies hat den Vorteil, dass bei beiden Kameras ein großer Freiraum zur Objektebene eingehalten werden kann. Es wird darauf hingewiesen, dass der erste Sensor auch ein quasi eindimensionaler Zeilensensor sein kann, sofern sichergestellt ist, dass bei einer Beleuchtung des ersten Sensors ein deutliches Zwischenbild erzeugt wird, welches von der zweiten Kamera eindeutig erfasst werden kann.The device-related task will be solved by a method for determining the relative spatial Position between a first camera, which is a flat first Sensor and a first optics, and a second camera, which has a second sensor and a second lens, with the characteristics of the independent Claim 1. The invention is based on the knowledge that the relative spatial Arrangement between two cameras can be determined in that the sensor of the first camera is illuminated by additional lighting is so that due to the reversibility of the beam paths on the Place where an object to be captured by the first camera would otherwise be is located, a real intermediate image of the first sensor is generated. This intermediate image is taken with the second camera and so the spatial Connection established between the two cameras. The method according to the invention has the advantage that to calibrate the relative spatial No reference objects required between the two cameras are. Since the real intermediate image of the first sensor as a measuring mark for the second Camera is used is a mechanical suspension for a reference object not mandatory. This has the advantage of being one with both cameras greater Free space to the object level can be maintained. It will be on it noted that the first sensor is also a quasi one-dimensional Line sensor can be provided that it is ensured that at a Illumination of the first sensor produces a clear intermediate image which is clearly recorded by the second camera.
Gemäß Anspruch 2 werden beide Kameras jeweils entlang einer Bewegungsstrecke verfahren, wobei die beiden Bewegungsstrecken in parallel zueinander liegenden Ebenen verlaufen. Demzufolge können die beiden Bewegungsstrecken im allgemeinen auch winklig zueinander verlaufen. Besonders vorteilhaft kann allerdings das Verfahren dann angewendet werden, wenn die beiden Bewegungsstrecken parallel zueinander verlaufen, so dass der Abstand zwischen beiden Bewegungsstrecken konstant ist.According to claim 2, both cameras are each move along a movement path, the two movement paths run in parallel planes. As a result, the the two movement distances are generally also at an angle to one another run. However, the method can then be particularly advantageous be used when the two movement paths are parallel to each other run so that the distance between the two movement paths is constant.
Gemäß Anspruch 3 ist das Verfahren auch für eine sog. zweidimensionale Kalibrierung der relativen räumlichen Lage zwischen zwei Kameras geeignet.According to claim 3, the method also for a so-called two-dimensional calibration of the relative spatial Suitable between two cameras.
Gemäß Anspruch 4 können beide Kameras jeweils innerhalb einer Bewegungsebene verfahren werden, wobei die beiden Bewegungsebenen parallel zueinander angeordnet sind und damit der Abstand zwischen beiden Kameras senkrecht zu den Bewegungsebenen vorgegebenen ist.According to claim 4, both can Cameras are moved within a movement plane, the two planes of movement being arranged parallel to one another and therefore the distance between the two cameras is perpendicular to the movement planes is given.
Bei dem Verfahren gemäß Anspruch 5 liegen die Objektebenen der beiden Kameras übereinander, so dass die relative räumliche Lage zwischen beiden Kameras mit einer besonders hohen Genauigkeit bestimmt werden kann.In the method according to claim 5, the object planes of the two cameras lie one above the other, so that the relative spatial Position between the two cameras with particularly high accuracy can be determined.
Gemäß Anspruch 6 bzw. Anspruch 7 wird der flächige erste Sensor durch eine Hellfeldbeleuchtung bzw. eine Dunkelfeldbeleuchtung beleuchtet. Damit kann abhängig von der optischen Beschaffenheit und der Struktur der Oberfläche des flächigen Sensors eine geeignete Beleuchtung verwendet werden, so dass Strukturen im Zwischenbild eindeutig den Strukturen des flächigen Sensors zugeordnet werden können. Damit wird erreicht, dass für die zweite Kamera nicht nur ein kleiner Ausschnitt der im Zwischenbild abgebildeten Sensorfläche der ersten Kamera zu sehen ist, sondern im Zwischenbild die Mitte des flächigen ersten Sensors eindeutig identifiziert werden kann. Insbesondere durch ein Umschalten zwischen verschiedenen Beleuchtungsarten kann sichergestellt werden, dass die zweite Kamera das Zwischenbild des ersten Sensors zuverlässig erfasst.According to claim 6 or claim 7 is the flat first sensor by bright field lighting or dark field lighting illuminated. So that can be dependent on the optical nature and structure of the surface of the flat Appropriate lighting sensors are used so that structures clearly assigned to the structures of the flat sensor in the intermediate image can. This ensures that for the second camera is not just a small section of the one shown in the intermediate image sensor surface the first camera can be seen, but the middle in the intermediate image of the flat first sensor can be clearly identified. In particular by switching between different types of lighting ensure that the second camera is the intermediate image of the first sensor reliable detected.
Die Verwendung von hinsichtlich der spektralen Verteilung unterschiedlichem Beleuchtungslicht für den ersten Sensor und für die von der ersten Kamera zu erfassenden Objekte gemäß Anspruch 8 ermöglicht eine unabhängige Wahl der Wellenlänge der Sensorbeleuchtung. Dies hat den Vorteil, dass die Sensorbeleuchtung so abgestimmt werden kann, dass die Sensorstrukturen besonders deutlich hervortreten.The use of regarding spectral distribution of different illuminating light for the first Sensor and for the objects to be captured by the first camera according to claim 8 allows an independent Choice of the wavelength of the Sensor lighting. This has the advantage that the sensor lighting can be adjusted so that the sensor structures are particularly clear emerge.
Das Verfahren gemäß Anspruch 9 hat den Vorteil, dass die räumliche Beziehung zwischen beiden Kameras bereits mit der Aufnahme eines einzigen Bildes bestimmt werden kann.The method according to claim 9 has the advantage that the spatial Relationship between the two cameras already with the inclusion of one single image can be determined.
Das Verfahren gemäß Anspruch 10, bei dem die optischen Achsen der beiden Kameras zur Deckung gebracht werden, hat den Vorteil, dass das Messergebnis nicht durch eventuell vorhandene Abbildungsfehler der beiden Optiken gestört wird. Das Übereinanderlegen der beiden optischen Achsen kann auch durch ein iteratives Verfahren durchgeführt werden, wobei die beiden Kameras derart bewegt werden, dass die zugehörigen optischen Achsen schrittweise zur Deckung kommen. Somit kann eine maximale Genauigkeit bei der Bestimmung des räumlichen Zusammenhangs zwischen beiden Kameras erreicht werden.The method of claim 10, wherein the optical axes of the two cameras are made to coincide, has the advantage that the measurement result is not due to any existing Image error of the two optics is disturbed. The stacking the two optical axes can also be done by an iterative process carried out the two cameras are moved in such a way that the associated optical axes are gradually covered. Thus a maximum accuracy in determining the spatial relationship between both cameras can be reached.
Bei dem Verfahren gemäß Anspruch 11, bei dem als zweiter Sensor ein Zeilensensor verwendet wird, wird zur Erfassung des Zwischenbildes die zweite Kamera senkrecht zu der Ausrichtung des Zeilensensors an der ersten Kamera vorbei bewegt und sequentiell jeweils eine Zeile des Zwischenbildes aufgenommen. Das Bild des Zwischenbildes wird dann Zeile für Zeile zusammengesetzt. Dabei werden die beiden optischen Achsen zumindest in einer Richtung während der Bildaufnahme automatisch zur Deckung gebracht.In the method according to claim 11, in which a line sensor is used as the second sensor, the second camera is moved past the first camera perpendicular to the orientation of the line sensor to record the intermediate image and a line of the intermediate image is recorded sequentially. The image of the intermediate image is then put together line by line. The two optical axes are at least in one Direction automatically coincident during image acquisition.
Gemäß den Verfahren nach Anspruch 12 und Anspruch 13 wird als erste Kamera eine Leiterplatten-Kamera und als zweite Kamera eine Bauelemente-Kamera verwendet. Damit eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kameras insbesondere für eine räumliche Kalibrierung der Kameras von sog. Pick and Place Bestückautomaten, bei denen der komplette Bestückvorgang der Bauelemente sequentiell erfolgt. Dies bedeutet, dass ein Bauelement von einem Bestückkopf aus einem Zuführmodul abgeholt, zu einer Bestückposition transportiert und auf die Leiterplatte aufgesetzt wird. Erst nach dem Aufsetzen des Bauelements beginnt die Bestückung des nächsten Bauelements.According to the method of claim 12 and claim 13 is a circuit board camera as the first camera and uses a component camera as the second camera. So it is suitable the procedure for determining the spatial position between two Cameras especially for a spatial Calibration of cameras from pick and place placement machines, where the complete assembly process of the components takes place sequentially. This means that a component from a placement head from a feed module picked up to an assembly position transported and placed on the circuit board. Only after the placement of the component begins the assembly of the next component.
Ebenso eignet sich das Verfahren zur Bestimmung der räumlichen Lage zwischen zwei Kameras für sog. Collect and Place Bestückautomaten, welche einen Zeilen- oder Matrixbestückkopf aufweisen, so dass je nach Anzahl der an dem Bestückkopf ausgebildeten Haltevorrichtungen eine Mehrzahl von Bauelementen von einer Zuführeinheit hin zu der zu bestückenden Leiterplatte transportiert und auf diese aufgesetzt werden können.The procedure is also suitable to determine the spatial Location between two cameras for so-called collect and place placement machines, which a line or matrix placement head have, so that depending on the number of trained on the placement head Holders a plurality of components from a feed unit towards the one to be populated Printed circuit board can be transported and placed on it.
Es wird darauf hingewiesen, dass selbstverständlich auch als zweite Kamera eine Leiterplattenkamera und als erste Kamera eine Bauelementkamera verwendet werden kann.It should be noted that Of course also as a second camera, a circuit board camera and as the first camera a component camera can be used.
Die der Erfindung zugrundeliegende vorrichtungsbezogene Aufgabe wird gelöst durch eine Kamera zum optischen Erfassen von Objekten mit den Merkmalen des unabhängigen Anspruchs 14. Die Erfindung hat den Vorteil, dass das zuvor erläuterte Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei Kameras durch den einfachen Umbau einer herkömmlichen Kamera durchführbar ist. Der Umbau der erfindungsgemäßen Kamera besteht darin, dass vor dem Kamerasensor eine Beleuchtungseinheit vorgesehen ist, welche bei der Durchführung des Verfahrens zur Bestimmung der relativen räumlichen Lage zwischen der erfindungsgemäßen Kamera und einer weiteren Kamera entsprechend angesteuert wird. Als Lichtquellen für die Beleuchtungseinheit können beispielsweise herkömmliche Glühlampen, Leuchtdioden, Laserlichtquellen oder Fluoreszenzlichtquellen eingesetzt werden.The basis of the invention Device-related task is solved by an optical camera Detection of objects with the features of the independent claim 14. The invention has the advantage that the previously explained method to determine the relative spatial position between two cameras by simply converting a conventional one Camera is feasible. The conversion of the camera according to the invention consists of a lighting unit in front of the camera sensor is provided, which is in the implementation of the method for determination the relative spatial Location between the camera according to the invention and another camera is controlled accordingly. As light sources for the lighting unit can for example conventional ones Lightbulbs, Light-emitting diodes, laser light sources or fluorescent light sources are used become.
Die Weiterbildung gemäß Anspruch 15 hat den Vorteil, dass durch eine geeignete Kombination der Dunkelfeldbeleuchtung mit der Hellfeldbeleuchtung ein kontrastreiches Zwischenbild erzeugbar ist, welches von der zweiten Kamera deutlich erfasst werden kann.The training according to claim 15 has the advantage that through a suitable combination of dark field lighting a high-contrast intermediate image can be generated with the bright field lighting which is clearly captured by the second camera.
Die Weiterbildung gemäß Anspruch 16 stellt eine besonders einfache und vorteilhafte Realisierung der Dunkelfeldbeleuchtung dar.The training according to claim 16 represents a particularly simple and advantageous implementation of dark field lighting.
Die Weiterbildung gemäß Anspruch 17 stellt eine besonders einfache und vorteilhafte Realisierung der Hellfeldbeleuchtung dar.The training according to claim 17 represents a particularly simple and advantageous implementation the bright field lighting.
Gemäß Anspruch 18 wird die Hellfeldbeleuchtung des flächigen Sensors dadurch realisiert, dass ein bevorzugt auf der optischen Achse der Optik angeordneter Strahlteiler über eine Reflexion an dem Strahlteiler das Licht der Hellfeldbeleuchtung senkrecht zu der Sensoroberfläche auf den flächigen Sensor lenkt.According to claim 18, the bright field lighting of the flat Sensor realized in that a preferred on the optical Axis of the optics arranged beam splitter via a reflection on the beam splitter the light from the bright field illumination is perpendicular to the sensor surface the flat Sensor steers.
Gemäß Anspruch 19 ist bevorzugt auf der optischen Achse der Optik ein weiterer Strahlteiler vorgesehen, mittels welchem die von der Kamera zu erfassenden Objekte unter einer Hellfeldbedingung beleuchtet werden können. Die Verwendung von zwei getrennten Strahlteilern für die Sensor-Hellfeldbeleuchtung und die Objekt-Hellfeldbeleuchtung hat den Vorteil, dass das Sensor-Beleuchtungslicht und das Objekt-Beleuchtungslicht einfach und effektiv entkoppelt werden können und somit weder die Erzeugung des Zwischenbildes durch eine Hellfeldbeleuchtung des zu erfassenden Objekts noch die Erfassung des Objekts durch die Hellfeldbeleuchtung des Sensors gestört wird.According to claim 19 is preferred a further beam splitter is provided on the optical axis of the optics, by means of which the objects to be captured by the camera under a bright field condition can be illuminated. The use of two separate beam splitters for the sensor bright field lighting and the object bright field lighting has the advantage that the sensor illuminating light and the object illuminating light can be decoupled easily and effectively and therefore neither the generation of the intermediate image by bright field illumination of the one to be captured Object is still captured by the bright field illumination of the Sensor disturbed becomes.
Es wird darauf hingewiesen, dass die Kamera auch derart aufgebaut sein kann, dass das Sensor-Beleuchtungslicht, welches unter einer Hellfeldbedingung auf den Sensor trifft, durch den einen Strahlteiler transmittiert und das Objekt-Beleuchtungslicht, welches auf das zu erfassende Objekt trifft, durch den anderen Strahlteiler transmittiert wird. In diesem Fall verläuft der Strahlengang zwischen dem zu erfassenden Objekt und dem Sensor über eine Reflexion an den beiden Strahlteilern.It should be noted that the camera can also be constructed such that the sensor illuminating light, which hits the sensor under a bright field condition which transmits a beam splitter and the object illuminating light, which hits the object to be detected by the other beam splitter is transmitted. In this case, the beam path runs between the object to be detected and the sensor via a reflection on the two Beam splitters.
Die Verwendung eines einzigen Strahlteilers sowohl für die Hellfeldbeleuchtung des Sensors als auch für die Hellfeldbeleuchtung der zu erfassenden Objekte gemäß Anspruch 20 hat den Vorteil, dass die Kamera in einer kompakten Bauform realisiert werden kann. In diesem Fall sind die Hellfeld-Lichtquelle und die Lichtquelle für die Hellfeldbeleuchtung der zu erfassenden Objekte einander gegenüberliegend angeordnet, wobei sich der Strahlteiler in der Mitte zwischen beiden Lichtquellen befindet und das Hellfeld-Beleuchtungslicht für den Sensor und das Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte jeweils an dem Strahlteiler reflektiert werden.The use of a single beam splitter both for the Bright field illumination of the sensor as well as for the bright field illumination of the objects to be detected according to claim 20 has the advantage that the camera is implemented in a compact design can be. In this case, the bright field light source and the light source are for the bright field illumination the objects to be detected are arranged opposite one another, wherein the beam splitter is in the middle between the two light sources and the bright field illumination light for the sensor and the bright field illumination light for the objects to be detected are each reflected on the beam splitter.
Die Verwendung eines dichroitischen Spiegels und eines Lichtabsorbers gemäß Anspruch 21 hat den Vorteil, dass eine gute optische Entkopplung zwischen dem Hellfeld-Beleuchtungslicht für den Sensor und dem Hellfeld-Beleuchtungslicht für die zu erfassenden Objekte erreicht wird, sofern für die Hellfeldbeleuchtung des Sensors und die Hellfeldbeleuchtung der zu erfassenden Objekte unterschiedliche Wellenlängen verwendet werden.The use of a dichroic Mirror and a light absorber according to claim 21 has the advantage that good optical decoupling between the bright field illuminating light for the sensor and the bright field illumination light for the objects to be detected is achieved, provided for the bright field illumination of the sensor and the bright field illumination of the objects to be detected uses different wavelengths become.
Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus der folgenden beispielhaften Beschreibung von zwei derzeit bevorzugten Ausführungsformen.Further advantages and features of the present invention will become apparent from the following exemplary description of two currently to come preferred embodiments.
An dieser Stelle bleibt anzumerken, dass sich in der nachfolgenden Beschreibung der beiden Ausführungsbeispiele der Erfindung einander entsprechende Komponenten der beiden Kameras lediglich in ihrer ersten Ziffer unterscheiden.At this point it should be noted that in the following description of the two exemplary embodiments components of the two cameras corresponding to the invention differ only in their first digit.
Gegenüber herkömmlichen Kameras unterscheidet
sich die Leiterplatten-Kamera
Das Zwischenbild
Die Bestimmung der relativen räumlichen Lage
zwischen den beiden Kameras
- a) Falls der Sensor
155 ebenfalls ein flächiger Sensor ist, kann das Zwischenbild145 mit einer einzigen Bildaufnahme erfasst werden, wobei während der Aufnahme die beiden Kameras100 und150 sich relativ zueinander in Ruhe befinden. Bei der Aufnahme wird das Zwischenbild durch eine Transmission durch den Strahlteiler165 und durch eine Abbildung mittels der Optik160 auf den flächigen Sensor155 abgebildet, so dass auf der Oberfläche des Sensors155 ein Bild des Zwischenbildes145 entsteht. Aus der genauen Position dieses Bildes auf dem flächigen Sensor155 kann zumindest parallel zu der Objektebene146 die räumliche Beziehung der beiden Kameras100 und150 zueinander bestimmt werden. - b) Falls der Sensor
155 ein Zeilensensor ist, wird das Bild des Zwischenbildes145 von der Kamera150 dadurch erfasst, dass die Kamera150 relativ zu der Kamera100 senkrecht zu der Ausrichtung der Zeile des Sensors155 bewegt wird. Dabei wird das Bild des Zwischenbildes145 Zeile für Zeile aufgenommen und in einer Auswerteeinheit zusammengesetzt, wobei die jeweiligen Positionen der Kamera150 berücksichtigt werden, bei der die einzelnen Zeilenaufnahmen erfolgt sind. Somit besteht zwischen dem aufgenommenen und zusammengesetzten Bild und dem Verfahrweg der Kamera150 ein Zusammenhang, aus dem die räumliche Beziehung zwischen beiden Kameras100 und150 parallel zu der Objektebene146 bestimmt werden kann.
- a) If the sensor
155 the intermediate image can also be a flat sensor145 can be captured with a single image, the two cameras being captured100 and150 are at rest relative to each other. When the picture is taken, the intermediate image is transmitted through the beam splitter165 and by imaging using optics160 on the flat sensor155 mapped so that on the surface of the sensor155 an image of the intermediate image145 arises. From the exact position of this image on the flat sensor155 can be at least parallel to the object plane146 the spatial relationship of the two cameras100 and150 to be determined to each other. - b) If the sensor
155 is a line sensor, the image of the intermediate image145 from the camera150 thereby captured by the camera150 relative to the camera100 perpendicular to the alignment of the row of the sensor155 is moved. The image of the intermediate image145 Recorded line by line and assembled in an evaluation unit, the respective positions of the camera150 are taken into account in which the individual line recordings were made. There is thus between the captured and composed image and the path of the camera150 a relationship from which the spatial relationship between the two cameras100 and150 parallel to the object plane146 can be determined.
Um Wiederholungen zu vermeiden, werden im
folgenden herkömmliche
Komponenten der beiden Kameras
Die Beleuchtung der Sensorfläche
Um zu verhindern, dass das von der
Lichtquelle
Zusammenfassend schafft die Erfindung
ein Verfahren zur Bestimmung der relativen räumlichen Lage zwischen zwei
Kameras, wobei ein Sensor
Claims (21)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10249669A DE10249669B3 (en) | 2002-10-24 | 2002-10-24 | Method for determining the relative spatial position between two cameras and camera for the optical detection of objects |
AU2003276147A AU2003276147A1 (en) | 2002-10-24 | 2003-10-22 | Method for determining the relative spatial position between two cameras, and camera for optically detecting objects |
PCT/EP2003/011713 WO2004039139A1 (en) | 2002-10-24 | 2003-10-22 | Method for determining the relative spatial position between two cameras, and camera for optically detecting objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10249669A DE10249669B3 (en) | 2002-10-24 | 2002-10-24 | Method for determining the relative spatial position between two cameras and camera for the optical detection of objects |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10249669B3 true DE10249669B3 (en) | 2004-06-24 |
Family
ID=32114856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10249669A Expired - Fee Related DE10249669B3 (en) | 2002-10-24 | 2002-10-24 | Method for determining the relative spatial position between two cameras and camera for the optical detection of objects |
Country Status (3)
Country | Link |
---|---|
AU (1) | AU2003276147A1 (en) |
DE (1) | DE10249669B3 (en) |
WO (1) | WO2004039139A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004045742B3 (en) * | 2004-09-21 | 2006-05-11 | Siemens Ag | Method of determining the relative spatial position between two cameras based on detection of the position of a marking in the field of view of the second camera |
EP2908614A1 (en) | 2014-02-14 | 2015-08-19 | ASM Assembly Systems GmbH & Co. KG | Optical measuring of a component with structural features on opposing sides |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014104523A1 (en) * | 2014-03-31 | 2015-10-01 | Dr. Johannes Heidenhain Gmbh | Measuring mark system for calibrating a machine |
CN112066876B (en) * | 2020-08-27 | 2021-07-02 | 武汉大学 | Method for rapidly measuring object size by using mobile phone |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4738025A (en) * | 1986-12-23 | 1988-04-19 | Northern Telecom Limited | Automated apparatus and method for positioning multicontact component |
US4980971A (en) * | 1989-12-14 | 1991-01-01 | At&T Bell Laboratories | Method and apparatus for chip placement |
US5084959A (en) * | 1989-09-19 | 1992-02-04 | Matsushita Electric Industrial Co., Ltd. | Chip mounting apparatus |
JPH07162200A (en) * | 1993-12-04 | 1995-06-23 | Tdk Corp | Method and apparatus for mounting electronic part |
WO1997038567A1 (en) * | 1996-03-27 | 1997-10-16 | Philips Electronics N.V. | Method of placing a component on a substrate and component placement machine for carrying out the method |
-
2002
- 2002-10-24 DE DE10249669A patent/DE10249669B3/en not_active Expired - Fee Related
-
2003
- 2003-10-22 WO PCT/EP2003/011713 patent/WO2004039139A1/en not_active Application Discontinuation
- 2003-10-22 AU AU2003276147A patent/AU2003276147A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4738025A (en) * | 1986-12-23 | 1988-04-19 | Northern Telecom Limited | Automated apparatus and method for positioning multicontact component |
US5084959A (en) * | 1989-09-19 | 1992-02-04 | Matsushita Electric Industrial Co., Ltd. | Chip mounting apparatus |
US4980971A (en) * | 1989-12-14 | 1991-01-01 | At&T Bell Laboratories | Method and apparatus for chip placement |
JPH07162200A (en) * | 1993-12-04 | 1995-06-23 | Tdk Corp | Method and apparatus for mounting electronic part |
WO1997038567A1 (en) * | 1996-03-27 | 1997-10-16 | Philips Electronics N.V. | Method of placing a component on a substrate and component placement machine for carrying out the method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004045742B3 (en) * | 2004-09-21 | 2006-05-11 | Siemens Ag | Method of determining the relative spatial position between two cameras based on detection of the position of a marking in the field of view of the second camera |
EP2908614A1 (en) | 2014-02-14 | 2015-08-19 | ASM Assembly Systems GmbH & Co. KG | Optical measuring of a component with structural features on opposing sides |
DE102014101901A1 (en) | 2014-02-14 | 2015-08-20 | Asm Assembly Systems Gmbh & Co. Kg | Optical measurement of a component with structural features present on opposite sides |
US9774828B2 (en) | 2014-02-14 | 2017-09-26 | Asm Assembly Systems Gmbh & Co. Kg | Optical measurement of a component having structural features present at opposite sides |
Also Published As
Publication number | Publication date |
---|---|
AU2003276147A1 (en) | 2004-05-13 |
WO2004039139A1 (en) | 2004-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4342654C2 (en) | Test device for testing printed circuit boards | |
EP2266380B1 (en) | Optical detection device and method for detecting surfaces of components | |
DE102005061834B4 (en) | Apparatus and method for optically examining a surface | |
DE3705749C2 (en) | Method and device for aligning a light emitter within its package | |
EP3166312A1 (en) | Device and method for adjusting and/or calibrating a multi-camera module and use of such a device | |
DE3123703A1 (en) | OPTICAL MEASURING SYSTEM WITH A PHOTODETECTOR ARRANGEMENT | |
DE102005012127A1 (en) | Photo detecting means and temperature distribution detecting means using the same | |
EP1123525B1 (en) | Device and method for the optical inspection of concealed soldered connections | |
DE102009017695B3 (en) | Method for inspecting solder joints on electrical and electronic components | |
DE102004056698B3 (en) | Inspection device for a substrate having at least one printed layer | |
DE102004001029A1 (en) | Camera module with a toothed lens barrel | |
DE10249669B3 (en) | Method for determining the relative spatial position between two cameras and camera for the optical detection of objects | |
DE102005041998A1 (en) | Method for adjusting an imaging element and measuring device adjusted according to such a method | |
DE10027196B4 (en) | Video stereoscopic microscope | |
WO2001008461A1 (en) | Inspection device for components | |
EP0463565A1 (en) | Recticle display device | |
EP1456602B1 (en) | Sensor for the visual position detection (component, substrate) comprising a modular lighting device | |
DE102016214990B4 (en) | Optical system, surgical instrument, and method and apparatus for assembling an optical system | |
DE102015108389A1 (en) | Lighting control when using optical measuring devices | |
DE4026956A1 (en) | Video camera for work intensity image - has beam splitter between objective lens and image converter, and phototransmitter elements | |
WO2021116285A1 (en) | Device, method, and use of the device for adjusting, assembling and/or testing an electro-optical system | |
DE102006027663A1 (en) | Optical inspection system for measuring e.g. unpacked electronic components, has endoscope with optical inlet and optical outlet arranged such that electronic component that is found in coverage penetrates under diagonal angle | |
EP1675453A2 (en) | Device for illuminating objects and sensor device | |
DE4214968A1 (en) | DEVICE FOR DETECTING IMAGES | |
EP1808061B1 (en) | Lighting array and optical measuring system for detecting objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of the examined application without publication of unexamined application | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |