WO2023072889A1 - Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors - Google Patents

Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors Download PDF

Info

Publication number
WO2023072889A1
WO2023072889A1 PCT/EP2022/079694 EP2022079694W WO2023072889A1 WO 2023072889 A1 WO2023072889 A1 WO 2023072889A1 EP 2022079694 W EP2022079694 W EP 2022079694W WO 2023072889 A1 WO2023072889 A1 WO 2023072889A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical
image
optical element
optical axis
camera module
Prior art date
Application number
PCT/EP2022/079694
Other languages
English (en)
French (fr)
Inventor
Stefan Krey
Original Assignee
Trioptics Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trioptics Gmbh filed Critical Trioptics Gmbh
Priority to CN202280071823.6A priority Critical patent/CN118402230A/zh
Priority to EP22809079.1A priority patent/EP4424009A1/de
Publication of WO2023072889A1 publication Critical patent/WO2023072889A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Definitions

  • the present approach relates to a device for checking an adjustment state of an image sensor and a method for checking an adjustment state of an image sensor.
  • Active alignment is implemented as part of a production process. After completion of the manufacturing process, it is necessary to check the quality of the alignment of the camera system.
  • the alignment can be negatively influenced, for example by manufacturing steps such as the uneven hardening of the adhesive with which the optics and the sensor are fixed to one another, but also by mechanical influences or temperature effects.
  • completed camera modules are checked with simple test image structures and it is determined whether they meet the defined sharpness criteria.
  • a check of an adjustment state of the image sensor of a camera in relation to the associated optics can advantageously be improved.
  • the degree of mechanical tilting or sensor misalignment, which can lead to a drop in sharpness, can be determined quantitatively.
  • a device for checking an adjustment state of an image sensor of a camera module having the following features: a first optical device with a first optical element that can be illuminated by a first light source and can be moved along a first optical axis, a second optical device with a second optical element that can be illuminated by a second light source and can be moved along a second optical axis, the second optical device being arranged at a distance (e.g.
  • the camera module to be tested can be arranged in a region of the intersection, and an evaluation device that is designed to read in position information that represents a position of the first and second optical element detected at a specific point in time, and to read in an image signal that represents one of the Image sensor represents image information captured at the specific point in time, the evaluation device being designed to assign image information to each detected position using the image signal and additionally or alternatively to the position information in order to determine the adjustment state of the camera module.
  • the device presented here can be used to check the image sensor of a camera in relation to the associated optics, for example at the end of the camera manufacturing process.
  • An important measurement parameter when checking the camera alignment after installation can be the degree of tilting between an image plane of the optics and a sensor plane, which affects the sharpness and contrast distribution in the image field.
  • the camera module to be checked which can consist of optics and a sensor, for example, can be illuminated by means of the optics devices, for example with collimated light. The illumination can take place both in the axial position, parallel to the optical axis of the specimen, and in one or more off-axis positions.
  • focusable optical devices can be used with the device presented here, which can also be referred to as collimators.
  • One optics device is sufficient for purely axial focusing. If you want to determine the tilt of the image plane in one direction, an additional off-axis optical device is required. At least one further, off-axis optical device is required, which must not be arranged along a line with the on-axis optical device and the first off-axis optical device, in order to determine the tilting of the image plane of the optical system to be tested in two directions. Additional off-axis optical devices can be added to increase the number of measurement positions and to obtain additional information about the curvature of the image plane.
  • Determining the spatial position of the image plane of the test object represents an advantageous application of the invention.
  • a first and a second optical device in the further course of this description.
  • the optical elements can each be designed as a reticle that can be moved along the optical axis of the relevant optical device, so that it is possible to carry out a focusing run.
  • ⁇ ZK f
  • f k is the focal length of the optics of the camera system to be tested
  • f 0E is the focal length of the optical element
  • the z-position which can be determined by the position of the reticle in the optical device, and, for example, a respective value of the image contrast, for example as a modulation transfer function (MTF value) of the projected individual image.
  • MTF value modulation transfer function
  • the device includes the evaluation device, which is designed to use the image signal and additionally or alternatively the position signal to assign image information, for example an MTF value, to each detected position information of the optical elements in order to determine the adjustment state of the camera module.
  • image information for example an MTF value
  • the device can include an image capture circuit, which can be designed to control or read out the image sensor depending on the position of the optical elements, and which can be designed to provide the image signal.
  • the image capture circuit which can also be referred to as a frame grabber, can be an electronic circuit for digitizing analog image signals or also for reading out digital image data.
  • the frame grabbing circuit can be designed additionally or alternatively in order to connect the camera module to a wide variety of systems.
  • the device can thus be designed, for example, in such a way that the image information captured by the image sensor using the frame grabber, can be processed.
  • the image capture circuit can be designed, for example, to provide the image signal to the evaluation device via an interface.
  • the image capture circuit can be connected or can be connected to a control device for controlling the optical devices in a manner capable of transmitting signals.
  • the image capture circuit (frame grabber) is used for electronic further processing or forwarding of the image information captured by the sensor.
  • the device can comprise a control device for controlling the first optical element and the second optical element.
  • the control device can be designed to provide the position information.
  • all optical devices more precisely their motor controls or their movement drives, can be electronically connected in parallel to the control unit.
  • Each optics device can in turn have a position encoder, for example, by means of which the exact position of the respective optics element can be determined.
  • a movement of the individual optical elements can be optimally matched to the other optical elements by the control device.
  • the control device can be designed to provide the respective positions using the position information. A synchronization of position and image information can advantageously be optimized as a result.
  • the device can be designed to arrange the first and the second optical element at the specific point in time in such a way that the intermediate images of the optical elements are in the same plane (intermediate image plane). These intermediate images are mapped into the image plane of the optical system to be tested.
  • the first optical element of the first optical device can be moved from a first starting position to a first end position.
  • the second optical element of the second optical device can be moved from a second starting position to a second end position.
  • the intermediate images of the optical elements move from a first, common, apparent object plane to a second, common, apparent object plane.
  • the first, apparent object plane correlates with the first and second starting position and the second, apparent object plane with the first and second end position.
  • the device can have a third optical device with a third optical element that can be illuminated by a third light source and can be moved along a third optical axis.
  • the third optical device can be arranged at a distance (e.g.
  • the optical elements can be illuminated both at the axial position of the first optical device, parallel to the optical axis of the test object, and also at several off-axis positions.
  • the three optical elements are not arranged in one plane, so that the image points projected in the camera module span an image plane whose angular position can be determined.
  • a contrast (MTF) value for a fixed spatial frequency can be determined at each of the three field positions at each z-position of the optical elements.
  • the result of the measurement can be the focus curve, a representation of image contrast as a function of z-position. From the position of the maxima of the three curves along the z-direction, the degree of tilting of the image plane relative to the sensor plane can advantageously be inferred, and defocusing can also be optimally determined. For camera systems that are not yet permanently installed together, a best focus position can now be determined with the help of an active alignment between the optics and the sensor.
  • optical elements whose optical axes are not in one plane is particularly advantageous for determining the tilting of the image plane of a camera module.
  • Other optical elements can be used to make the determination more precise and to obtain information about the curvature of the field of view of the test object.
  • the method can be carried out using a variant of the device presented above, in order to check the adjustment status of the image sensor of a camera in relation to the associated optics.
  • a check can be useful, for example, at the end of the camera manufacturing process.
  • After completion of the manufacturing process it is necessary to check the quality of the alignment of the camera system.
  • the alignment can be negatively influenced, for example, by manufacturing steps such as the uneven hardening of the adhesive with which the optics and the sensor are fixed to one another, but also by mechanical influences or temperature effects.
  • the method presented here can advantageously be carried out.
  • each position of the optical elements can be directly assigned the corresponding image signal with high accuracy, i.e. with the lowest possible time offset (latency) and temporal inaccuracy, or that the image information and the associated position of the optical elements can be recorded almost simultaneously. This is necessary in order to be able to determine the position of the highest image contrast with the greatest possible accuracy (in the pm range).
  • the method can have a step of outputting a position trigger signal in order to determine the point in time for detecting the position of the first and additionally or alternatively second optical element, wherein the position information can be provided in response to the position trigger signal.
  • the illuminated optical elements of the optical devices can be moved continuously from a starting position to an end position.
  • images of the optical elements that follow one another in time can be recorded by the test object by means of the image sensor.
  • the individual pieces of image information which can also be referred to as frames, can be processed, for example, by an image capture circuit or a frame grabber. This image capture circuit can, for example, output the position trigger signal as soon as an image has been completely recorded became.
  • the position trigger signal can be output at the beginning of the image acquisition.
  • the image signal which represents the image information
  • the position trigger signal can, for example, be output to a control device for controlling the optical elements.
  • the position of the optical elements that exists at this point in time can be made available to the evaluation device using the position information.
  • the image information can thus advantageously be evaluated as a function of the position of the optical elements.
  • direct synchronization between the frame grabber and the control device can improve the measurement process in such a way that, on the one hand, a continuous focusing run can be run at high speed and, on the other hand, that there is no indirect link between the image position and the encoder position via time stamps, which necessarily have a temporal linear process would require.
  • a position-controlled triggering of the image recording also enables non-linear (accelerated) movement profiles.
  • the method can have a step of outputting an image trigger signal in order to determine the point in time for capturing the image information, it being possible for the image signal to be provided in response to the image trigger signal.
  • the optical elements can be moved continuously from a starting position to an end position.
  • the image trigger signal can be output.
  • the image trigger signal can be output, for example, when non-equidistant position marks are reached, for example at the positions 0 mm, 0.1 mm, 0.2 mm, 0.5 mm, 1.0 mm, 2.0 mm and 5.0 mm.
  • the image trigger signal can be output to the image capture circuit.
  • the position signal can be provided to the evaluation device.
  • the image capture circuit can control the start of an image acquisition process.
  • the respective image information can then be read out and made available to the evaluation device using the image signal.
  • Any piece of image information can be assigned to the predefined position of the optical elements by means of the evaluation device.
  • the image information can be buffered and transmitted at the end of the focusing run and assigned to the positions. This step can also advantageously be used to carry out an evaluation of the image information as a function of the optical element encoder position.
  • the method can include a step of storing the image information and additionally or alternatively the position of the first and second optical element.
  • the respective position of the first and second optical element is stored after it has been detected at a predefined point in time as a reaction to a position trigger signal.
  • the image information is also stored approximately at the same time as the position trigger signal is output.
  • the image information is stored after it has been captured at a defined point in time as a reaction to an image trigger signal.
  • the respective position of the first and second optical element is also stored approximately at the same time as the image trigger signal is output.
  • the first optical element can be moved at a first speed and the second and/or each additional optical element can be moved at a second speed that differs from the first speed.
  • the control device for controlling the optical elements can be designed in such a way that the intermediate images of the optical elements of all optical devices are advantageously located in the same object plane at the same time.
  • the first optical axis of the first optical device essentially corresponds to an optical axis of the camera module to be tested and the second and/or further optical device(s) are/is arranged at a radial distance from the first optical device.
  • the traversing speed of a so-called master optics device for example the optics device corresponding to the optical axis of the camera module
  • each individual optical device can have its own position encoder, which can be used, for example, in what is known as closed-loop control for position and speed control.
  • the signals from the individual optical devices can be transmitted electronically in parallel to the control device. Since the relationship between the positions of the optical elements and apparent object planes (intermediate image planes) is non-linear, it is also advantageous to run a corresponding speed profile in order to achieve a uniform measurement point distribution in the image space.
  • the first and the second speed can have a value greater than 0 m/s at any point in time.
  • the time course of the first and second and / or other speeds can be mathematically determined by a be describable as a nonlinear function.
  • a continuous focusing run can be run at high speed, with an indirect link between image information and the position of the optical elements via time stamps being able to be dispensed with, which would necessarily require a temporally linear movement process.
  • the method can have a step of providing a movement signal, in which case the movement signal can represent a specification of the positions to be approached by the optical elements, in particular in which the specification can be stored as a position table.
  • the movement signal can represent a specification of the positions to be approached by the optical elements, in particular in which the specification can be stored as a position table.
  • one or more sets of optical element z positions can be stored in the control unit.
  • the individual z positions can correspond to different object planes into which the images of the optical elements are apparently projected for the camera module. These apparent object planes are also referred to as intermediate image planes.
  • the speed profiles of the first optics element and the second optics element can advantageously be matched to one another in such a way that all images of the optics elements are always located at the same time in the previously defined object planes.
  • the set of positions can be transferred in the form of a position table and the positions can continue to be equidistant or not equidistant. A trajectory along which the optical elements of
  • This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.
  • a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and/or controlling the steps of the method according to one of the embodiments described above, is also advantageous used, especially when the program product or program is run on a computer or device.
  • 1 shows a schematic representation of an exemplary embodiment of a measurement of a tilting between an image plane of an optical unit and a sensor plane
  • 2 shows a schematic representation of an exemplary embodiment of a device
  • 3A shows a schematic representation of an exemplary embodiment of a device in plan view
  • 3B shows a schematic cross-sectional illustration of an embodiment of a device in side view
  • FIG. 4 shows a schematic representation of an exemplary embodiment of a device
  • FIG. 5 shows a schematic representation of an exemplary embodiment of a device
  • Fig. 6 is a flow chart of an embodiment of a method for testing a
  • FIG. 7 shows a flow chart of an embodiment of a method for checking an adjustment state of an image sensor of a camera module
  • Fig. 8 is a flow chart of an embodiment of a method for testing a
  • Figure 1 shows a schematic representation of an exemplary embodiment of a measurement of a tilt between an image plane 100 of an optics unit 105 and a sensor plane 110.
  • An important measurement parameter when checking a camera alignment is the degree of tilt between the image plane 100 of the optics or the optics unit 105 and the sensor plane 110.
  • the camera module 115 to be tested consisting of an optical unit 105 and an image sensor 120, can be illuminated with collimated light.
  • the sensor or the optics of the test object can be moved relative to one another, with an MTF value 130 for a fixed spatial frequency being able to be determined at each z-position 125 by way of example at each of the three field positions.
  • the focusing curve 135 with the contrast values as Z-position function is shown on the lower left side of the figure. From the position of the maxima of the three curves along the z-direction, the degree of tilting of the image plane 100 relative to the sensor plane 110 can be deduced and a defocusing can also be determined. The illustration shows this in two dimensions; this evaluation can also take place in three dimensions. For camera systems that are not yet permanently installed together, the best focus position can be determined with the help of an active alignment between the optics and the sensor. After completion of the manufacturing process, it is necessary to check the quality of the alignment of the camera system.
  • the alignment can be negatively influenced, for example, by manufacturing steps such as the uneven hardening of the adhesive with which the optics and the sensor are fixed to one another, but also by mechanical influences or temperature effects.
  • completed camera modules are checked with simple test image setups and it is determined whether they meet the defined sharpness criteria.
  • this method does not provide a quantitative indication of the degree of mechanical tilt or sensor misalignment that led to the observed drop in sharpness. This makes it difficult to systematically optimize the manufacturing process.
  • FIG. 2 shows a schematic representation of an exemplary embodiment of a device 200.
  • Device 200 is designed to check an adjustment state of an image sensor 120 of a camera module 115.
  • the device 200 comprises a first optical device 205 with a first optical element 220 that can be illuminated by a first light source 210 and can be moved along a first optical axis 215.
  • the first optical axis 215 in the illustration shown here corresponds to an optical axis 225 of the figure below of the first optical device 205 arranged camera module 115.
  • the device 200 further comprises a second optical device 235 with a second optical element 250 that can be illuminated by a second light source 240 and can be moved along a second optical axis 245.
  • the second optical device 235 is, for example, radial (here specifically by a rotated at an angle with respect to the first optical axis 225) at a distance from the first optics device 205 and the first optical axis 215 has a point of intersection 260 with the second optical axis 245, the camera module 115 to be checked being arranged in a region of the point of intersection 260.
  • further optics devices can be added accordingly.
  • device 200 has an evaluation device 270 which is designed to read in a position signal 275 .
  • the position signal 275 represents a position of the first and the second optical element 220, 250 detected at a specific point in time and in this exemplary embodiment can be provided by a control device 280 for controlling the optical elements 220, 250 to the evaluation device 270.
  • the evaluation device 270 is also designed to to read in an image signal 285 that represents image information captured by the image sensor 120 at the specific point in time.
  • the evaluation device 270 is designed in this exemplary embodiment to use the image signal 285 and the position signal 275 to assign image information to each detected position in order to determine the adjustment state of the camera module. In another embodiment, only the position signal or the image signal can be used.
  • FIG. 3A shows a schematic representation of an exemplary embodiment of a device 200 in plan view.
  • This includes an on-axis optics device 205 and a plurality of off-axis optics devices 235, 300, which are radially spaced from the on-axis optics device 205 at different angles.
  • the device 200 shown here corresponds to or is similar to the device described in the preceding FIG. Congruent to the first optics device 205 and the second optics device 235, the third optics device 300 has a third optics element 315 that can be illuminated by a third light source 305 and can be moved along a third optical axis 310.
  • the third optics device 300 is arranged at a radial distance from the first and second optics devices 205, 235 and the third optical axis 310 has a point of intersection 260 with the first and second optical axes 215, 245
  • Camera module 115 can be arranged.
  • further optical devices can also be arranged spatially radially around the entry opening of the camera module to be checked. This situation is illustrated in the plan view in FIG. 3A.
  • Figure 3B shows a schematic representation of an embodiment of a first optics device 205.
  • the first optics device 205 shown here corresponds to or is similar to the first optics device described in the previous Figures 2 and 3A and has a housing 330 in which the first light source 210 is arranged.
  • the first light source 210 is designed to emit a light beam 335 that can be collimated by a projection objective 340 .
  • the first optical element 220 which can be moved along the first optical axis 215, is arranged between the first light source 210 and the projection lens 340, the first optical axis 215 corresponding to the optical axis 225 of the camera module 115 to be checked.
  • the first optical element 220 can be controlled by means of a motorized drive and a position encoder 345 merely by way of example.
  • the light beam 335 can be modified in such a way that different apparent object distances can be set for the image sensor 120 of the camera module 115 illuminated in this way and, for example, different contrast (MTF) values for these object distances can be evaluated can.
  • the optics 340 generate a virtual intermediate image of the optics element 220, which in turn is imaged as an object by the optics of the system 115 to be tested onto its sensor 120.
  • FIG. 4 shows a schematic representation of an embodiment of a device 200.
  • the device 200 shown here corresponds to or is similar to the device described in the preceding FIGS.
  • the image capture circuit 400 which can also be referred to as a frame grabber, is designed in this exemplary embodiment to read out the image sensor 120 depending on the position of the optical elements 220, 250, 315 and to provide the image signal 285 to the evaluation device 270.
  • the frame grabber 400 is additionally designed to output a position trigger signal 405 to the control device 280 .
  • the control device 280 is designed in this exemplary embodiment to determine the point in time for detecting the position of the optical elements 220, 250, 315 in response to the position trigger signal 405 and to store the respective position by means of a memory unit 407, which can also be referred to as an optical element position memory. save.
  • the positions of the optical elements 220, 250, 315 can then be provided using the position signal 275.
  • the device 200 in this exemplary embodiment is designed to process the image information captured by the test object with the aid of the image capture circuit 400, the image capture circuit 400 being connected to the control device 280 in a manner capable of signal transmission only by way of example.
  • all optical devices 205, 235, 300, more precisely their motor controls are electronically connected in parallel to the control device 280.
  • the control device 280 is designed to store the positions of the optical elements 220, 250, 315 at the point in time determined by the position trigger signal 405, which is only an example, and which can be the beginning or the end of an image acquisition. In this case, the optical elements 220 , 250 , 315 are continuously moved from a starting position 410 to an end position 415 .
  • a position of the corresponding intermediate image also correlates with each position of the optical elements.
  • the optical elements are arranged along their respective optical axes in such a way that all intermediate images lie in a common, apparent object plane.
  • the intermediate images also move from a starting position 410 to an end position 415.
  • the first object plane 410 which corresponds to a starting position of the intermediate images of the optical elements 220, 250, 315, and the second object plane 415, the corresponds to an end position of the intermediate images of the optical elements 220, 250, 315.
  • the intermediate images of the optical elements along a variable A plurality of object levels can be moved.
  • a distance l 2 between the starting position and the end position of the second optical element 250 is greater than a distance between the starting position and the end position of the first optical element 220.
  • the speed profiles of the first Optic device 205, the second optic device 235 and the third optic device 300 and also other optic devices can be matched to one another in such a way that all intermediate images of all optic elements 220, 250, 315 can always be arranged simultaneously in the previously defined object planes 410, 415.
  • the control of the optical devices 205, 235, 300 is therefore designed in such a way that the intermediate images of the optical elements of all optical devices 205, 235, 300 are located in the same object plane 410, 415 at the same time, with the consequence that the optical elements of the off-axis optical devices 235 , 300 are moved at a different speed than the optics elements of the axial optics device 205.
  • the traversing speed of one of the first optics devices 205 is set as a guide value only as an example, to which the speeds of the other optics devices 235, 300 are correspondingly adapted in terms of control technology.
  • Each of the optical devices 205, 235, 300 includes, for example, its own position encoder, which can be used in a closed-loop control for the position and speed control.
  • the signals from the individual optics devices 205, 235, 300, ie the signal from the on-axis optics device 205 and the signals from the various off-axis optics devices 235, 300, can be transmitted electronically in parallel to the control device 280.
  • the control device 280 is therefore designed, purely by way of example, to provide a first movement signal 420, a second movement signal 422 and a third movement signal 425 to the optics devices 205, 235, 300, with the movement signals 420, 422, 425 being a specification for the movement of the optics elements 220 , 250, 315 positions that can be approached.
  • a specification for the positions that can be approached by the optical elements 220, 250, 315 is stored as a position table 430 in the control device 280, merely by way of example.
  • Figure 5 shows a schematic representation of an embodiment of a device 200.
  • the device 200 shown here corresponds to or is similar to the device described in the preceding Figures 2, 3 and 4, 5, with the difference that in this embodiment the control device 280 is designed to to output an image trigger signal 500 .
  • the image trigger signal 500 can be provided to the image capture circuit 400 in order to determine the point in time for capturing the image information. Accordingly, the image trigger signal 500 can be triggered in this exemplary embodiment as soon as the optical elements 220, 250, 315 have reached a predefined position.
  • the predefined positions to be approached can be stored in a position table 430 .
  • the image capture circuit 400 is designed to control the image sensor 120 in response to the image trigger signal 500 and to start an image recording process.
  • the image signal 285 can be provided.
  • the image signal 285 can only be provided indirectly to the evaluation device 270 in this exemplary embodiment, since an image output device 505 is connected upstream of this only by way of example.
  • the position signal 275 can only be provided indirectly by the control device 280 to the evaluation device 270 using a position output device 510 .
  • FIG. 6 shows a flow chart of an exemplary embodiment of a method 600 for checking an adjustment state of an image sensor of a camera module.
  • the method 600 shown here can be carried out using a device as described in the preceding FIGS. 2, 3, 4 and 5.
  • the method 600 includes a step 605 of moving a first optical element, which can be illuminated by a first light source, along a first optical axis of a first optical device.
  • the first optical axis essentially corresponds to an optical axis of the camera module to be checked.
  • a second optical element that can be illuminated by a second light source is also moved along a second optical axis of a second optical device.
  • the second optics device is arranged at a radial distance from the first optics device and the first optical axis has an intersection with the second optical axis inside the camera module.
  • the first optics element is moved at a first speed and the second optics element is moved at a second speed that differs from the first speed, merely by way of example.
  • both the first and the second speed have a value greater than 0 m/s at any point in time, and the time profile of the first and second speed can only be described mathematically by way of example using a non-linear function. Other optics can be added to this scheme.
  • the method 600 also includes a step 610 of reading in.
  • position information is read in, which represents a position of the first and of the second optical element detected at a specific point in time.
  • an image signal is read in which represents image information recorded by the image sensor at the specific point in time.
  • the step 610 of reading in is followed by a step 615 of assignment the positions to the image information using the image signal and the position information to determine the adjustment state of the camera module.
  • the aim of the method 600 described here is that the corresponding image signal is directly assigned to each position with high accuracy, i.e. with the lowest possible time offset (latency) and temporal inaccuracy, or that the image information and the associated positions of the optical devices are recorded quasi-simultaneously become. This is necessary in order to determine the position of the highest image contrast with the greatest possible accuracy (in the pm range).
  • a continuous focusing run can be carried out at high speed and there is no indirect linking between the image and the encoder position via a time stamp, which would necessarily require a temporally linear traversing process.
  • FIG. 7 shows a flow chart of an exemplary embodiment of a method 600 for checking an adjustment state of an image sensor of a camera module.
  • the method 600 presented here corresponds to or is similar to the method described in the preceding FIG. 6, with the difference that it has additional steps.
  • step 605 of moving is followed by step 700 of outputting a position trigger signal.
  • the position trigger signal is only output as an example in order to determine the point in time for detecting the positions of the first and second optical elements (and for example) further optical elements.
  • the method 600 in this exemplary embodiment includes a step 705 of storing the image information and the positions of the first and second optical elements and all other optical elements.
  • optical elements in focusable collimators are moved continuously, ie not in steps, from a starting position to an end position.
  • the test object records sequential images of the reticle and, for example, the individual image information (frames) is processed by a frame grabber.
  • the frame grabber releases a trigger signal as soon as an image has been completely recorded.
  • the signal can also be output at the beginning of the image recording. This is followed by storing the image information and storing the optics element encoder position information in response to the trigger signal.
  • FIG. 8 shows a flow chart of an exemplary embodiment of a method 600 for checking an adjustment state of an image sensor of a camera module.
  • the method 600 presented here corresponds to or is similar to the method described in the preceding FIGS. 6 and 7, with the difference that it has alternative and additional steps.
  • the method 600 includes a step 800 of providing a motion signal.
  • the movement signal represents a specification for positions to be approached by the optical elements in step 605 of moving.
  • this specification is stored as a position table with non-equidistant position marks.
  • an image trigger signal is triggered in order to determine the point in time for capturing the image information
  • the image signal is provided in response to the image trigger signal.
  • the optical elements in the focusable collimators move continuously from a starting position to an end position.
  • a trigger signal is triggered as soon as the encoder has reached a predefined position.
  • These trigger signals are only passed on to the frame grabber as an example, which then starts the image acquisition process.
  • the image information is read out and stored, assigned to the initially predefined position.
  • the image information can be temporarily stored and transmitted at the end of the focusing run and assigned to the positions.
  • the image information for example the contrast values, is evaluated as a function of the optical element encoder position.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung (200) zum Prüfen eines Justierzustands eines Bildsensors (120) eines Kameramoduls (115), wobei die Vorrichtung (200) folgende Merkmale aufweist: eine erste Optikeinrichtung (205) mit einem von einer ersten Lichtquelle (210) beleuchtbaren, entlang einer ersten optischen Achse (215) verfahrbaren ersten Optikelement (220), eine zweite Optikeinrichtung (235) mit einem von einer zweiten Lichtquelle (240) beleuchtbaren, entlang einer zweiten optischen Achse (245) verfahrbaren zweiten Optikelement (250), wobei die zweite Optikeinrichtung (235) beabstandet von der ersten Optikeinrichtung (205) angeordnet ist und die erste optische Achse einen Schnittpunkt (260) mit der zweiten optischen Achse (245) aufweist, wobei in einem Bereich des Schnittpunkts (260) das zu prüfende Kameramodul (115) anordenbar ist, und eine Auswerteeinrichtung (270), die ausgebildet ist, um ein Positionsinformation (275) einzulesen, die eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten Optikelements (220,250) repräsentiert, und ein Bildsignal (285) einzulesen, das eine von dem Bildsensor (120) zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert, wobei die Auswerteeinrichtung (270) ausgebildet ist, um unter Verwendung des Bildsignals (285) und/oder des Positionssignals (275) jeder erfassten Position eine Bildinformation zuzuordnen, um den Justierzustand des Kameramoduls (115) zu bestimmen.

Description

Vorrichtung zum Prüfen eines Justierzustands eines Bildsensors und Verfahren zum Prüfen eines Justierzustands eines Bildsensors
Der vorliegende Ansatz bezieht sich auf eine Vorrichtung zum Prüfen eines Justierzustands eines Bildsensors und ein Verfahren zum Prüfen eines Justierzustands eines Bildsensors.
Aus dem Stand der Technik sind diverse Ansätze zum aktiven Ausrichten von Kameramodulen bekannt. Dabei wird das aktive Ausrichten (Active Alignment) im Rahmen eines Produktionsprozesses umgesetzt. Nach Abschluss des Fertigungsprozesses ist es erforderlich, die Qualität der Ausrichtung des Kamerasystems zu überprüfen. Die Ausrichtung kann, beispielsweise durch Fertigungsschritte, wie das ungleichmäßige Aushärten des Klebers, mit welchem die Optik und der Sensor miteinander fixiert werden, negativ beeinflusst werden, aber auch durch mechanische Einwirkungen oder Temperatureffekte. In vielen Fällen werden fertiggestellte Kameramodule mit einfachen Testbild- Aufbauten geprüft und es wird festgestellt, ob sie die festgelegten Schärfekriterien erfüllen.
Offenbarung der Erfindung
Vor diesem Hintergrund wird mit dem vorliegenden Ansatz eine Vorrichtung zum Prüfen eines Justierzustands eines Bildsensors und ein Verfahren zum Prüfen eines Justierzustands eines Bildsensors gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
Mit der hier vorgestellten Vorrichtung und dem vorgestellten Verfahren kann vorteilhafterweise eine Überprüfung eines Justierzustandes des Bildsensors einer Kamera in Bezug auf die zughörige Optik verbessert werden. Dabei kann der Grad einer mechanischen Verkippung oder Sensorfehllage, die zu einem Schärfeabfall führen kann, quantitativ bestimmt werden.
Es wird eine Vorrichtung zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls vorgestellt, wobei die Vorrichtung folgende Merkmale aufweist: eine erste Optikeinrichtung mit einem von einer ersten Lichtquelle beleuchtbaren, entlang einer ersten optischen Achse verfahrbaren ersten Optikelement, eine zweite Optikeinrichtung mit einem von einer zweiten Lichtquelle beleuchtbaren, entlang einer zweiten optischen Achse verfahrbaren zweiten Optikelement, wobei die zweite Optikeinrichtung (beispielsweise radial) beabstandet von der ersten Optikeinrichtung angeordnet ist und die erste optische Achse einen Schnittpunkt mit der zweiten optischen Achse aufweist, wobei in einem Bereich des Schnittpunkts das zu prüfende Kameramodul anordenbar ist, und eine Auswerteeinrichtung, die ausgebildet ist, um eine Positionsinformation einzulesen, das eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten Optikelements repräsentiert, und ein Bildsignal einzulesen, das eine von dem Bildsensor zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert, wobei die Auswerteeinrichtung ausgebildet ist, um unter Verwendung des Bildsignals und zusätzlich oder alternativ der Positionsinformation jeder erfassten Position eine Bildinformation zuzuordnen, um den Justierzustand des Kameramoduls zu bestimmen.
Beispielsweise kann die hier vorgestellte Vorrichtung eingesetzt werden, um den Bildsensor einer Kamera in Bezug auf die zughörige Optik beispielsweise am Ende des Herstellungsprozesses der Kamera zu überprüfen. Ein wichtiger Messparameter bei der Überprüfung der Kameraausrichtung im Anschluss an die Montage, kann der Grad an Verkippung zwischen einer Bildebene der Optik und einer Sensorebene sein, der sich auf die Schärfe- bzw. Kontrastverteilung im Bildfeld auswirkt. Dabei kann das zu prüfenden Kameramodul, das beispielsweise aus Optik und Sensor bestehen kann, mittels der Optikeinrichtungen zum Beispiel mit kollimiertem Licht beleuchtet werden. Die Beleuchtung kann sowohl an der axialen Position, parallel zur optischen Achse des Prüflings, als auch an einer oder mehreren außeraxialen Positionen erfolgen. Um vorteilhafterweise bei einem fertig montierten Kamerasystem eine quantitative Aussage über den Grad der mechanischen Sensorverkippung oder Defokussierung zu bekommen, sind mit der hier vorgestellten Vorrichtung fokussierbare Optikeinrichtungen verwendbar, die auch als Kollimatoren bezeichnet werden können. Für die rein axiale Fokussierung genügt bereits eine Optikeinrichtung. Möchte man die Verkippung der Bildebene in eine Richtung bestimmen, ist zusätzlich eine außeraxiale Optikeinrichtung erforderlich. Es ist mindestens eine weitere, außeraxiale Optikeinrichtung erforderlich, welche nicht entlang einer Linie mit der axialen Optikeinrichtung und der ersten außeraxialen Optikeinrichtung angeordnet sein darf, um die Verkippung der Bildebene des zu prüfenden, optischen Systems in zwei Richtungen zu bestimmen. Zur Erhöhung der Anzahl an Messpositionen sowie zu einer zusätzlichen Aussage über die Wölbung der Bildebene, können weitere, außeraxiale Optikeinrichtungen hinzugefügt werden. Die Bestimmung der räumlichen Lage der Bildebene des Prüflings, stellt eine vorteilhafte Anwendung der Erfindung dar. Zur verbesserten Lesbarkeit soll im weiteren Verlauf dieser Beschreibung von einer ersten und einer zweiten Optikeinrichtung gesprochen werden. Durch Verfahren bzw. Bewegen der Optikelemente innerhalb der Optikeinrichtungen kann ein Testobjekt in verschiedenen, scheinbaren Objektabständen abgebildet werden. Hierzu können zum Beispiel die Optikelemente als jeweils eine entlang der optischen Achse der betreffenden Optikeinrichtung verfahrbare Strichplatte (Reticle) ausgebildet sein, sodass es möglich ist, einen Fokussierungslauf durchzuführen.
Dabei kann näherungsweise folgende Beziehung zwischen der Bewegung Az0E des Optikelements innerhalb der Optikeinrichtung und der z-Position des Messpunktes in der Bildebene des zu prüfenden Kamerasystems AzK berücksichtigt werden:
ÄZK = f|<2 / foE2 x AZQE wobei fk die Brennweite der Optik des zu prüfenden Kamerasystems und f0E die Brennweite des Optikelements ist.
Es ist dabei wichtig, einen eindeutigen Bezug zwischen der z-Position, welche durch die Position der Strichplatte in der Optikeinrichtung festgelegt werden kann, und beispielsweise einem jeweiligen Wert des Bildkontrastes beispielsweise als Modulationsübertragungsfunktion (MTF-Wert) des projizierten Einzelbildes zu haben. Dieser Bezug kann vorteilhafterweise mit der hier vorgestellten Vorrichtung auf eine schnelle und hochgenaue Art und Weise sichergestellt werden. Die Vorrichtung ist dabei so ausgelegt, dass die vom Prüfling erfassten Bildinformationen, das heißt zum Beispiel der durch den MTF-Wert beschreibbare Vergleich zwischen dem Detailkontrast an Kanten eines Objektes und dem Detailkontrast einer bildlichen Darstellung desselben Objekts, verarbeitet werden. Hierfür umfasst die Vorrichtung die Auswerteeinrichtung, die ausgebildet ist, um unter Verwendung des Bildsignals und zusätzlich oder alternativ des Positionssignals jeder erfassten Positionsinformation der Optikelemente eine Bildinformation, beispielsweise einen MTF-Wert, zuzuordnen, um den Justierzustand des Kameramoduls zu bestimmen. Dadurch kann vorteilhafterweise eine Synchronisation der aufgenommenen Bildinformation zur Position der Optikelemente in den Optikeinrichtungen erreicht werden.
Gemäß einer Ausführungsform kann die Vorrichtung eine Bildfangschaltung umfassen, die ausgebildet sein kann, um den Bildsensor in Abhängigkeit von der Position der Optikelemente anzusteuern oder auszulesen, und die ausgebildet sein kann, um das Bildsignal bereitzustellen. Beispielsweise kann es sich bei der Bildfangschaltung, die auch als Framegrabber bezeichnet werden kann, um eine elektronische Schaltung zum Digitalisieren analoger Bildsignale oder auch zum Auslesen digitaler Bilddaten handeln. Dabei kann die Bildfangschaltung zusätzlich oder alternativ ausgebildet sein, um das Kameramodul an unterschiedlichste Systeme anzuschließen. Die Vorrichtung kann also beispielsweise so ausgelegt sein, dass die vom Bildsensor erfassten Bildinformationen mithilfe der Bildfangschaltung, verarbeitet werden können. Dabei kann die Bildfangschaltung zum Beispiel ausgebildet sein, um das Bildsignal über eine Schnittstelle an die Auswerteeinrichtung bereitzustellen. Zusätzlich oder alternativ kann die Bildfangschaltung zum Beispiel signalübertragungsfähig mit einer Steuereinrichtung zum Steuern der Optikeinrichtungen verbunden oder verbindbar sein. Anders gesagt dient die Bildfangschaltung (Framegrabber) zur elektronischen Weiterverarbeitung bzw. Weitergabe der vom Sensor erfassten Bildinformationen.
Gemäß einer weiteren Ausführungsform kann die Vorrichtung eine Steuereinrichtung zum Steuern des ersten Optikelements und des zweiten Optikelements umfassen. Dabei kann die Steuereinrichtung ausgebildet sein, um die Positionsinformation bereitzustellen. Beispielsweise können sämtliche Optikeinrichtungen, genauer gesagt deren Motorsteuerungen bzw. deren Bewegungsantriebe, parallel mit der Steuereinheit elektronisch verbunden sein. Jede Optikeinrichtung kann ihrerseits zum Beispiel einen Positionsencoder aufweisen, mittels dem die exakte Position des jeweiligen Optikelements bestimmbar sein kann. Vorteilhafterweise kann ein Bewegen der einzelnen Optikelemente durch die Steuereinrichtung optimal auf die anderen Optikelemente abgestimmt werden. Zusätzlich kann die Steuereinrichtung ausgebildet sein, um die jeweiligen Positionen unter Verwendung der Positionsinformation bereitzustellen. Vorteilhafterweise kann dadurch eine Synchronisation von Position und Bildinformation optimiert werden.
Gemäß einer weiteren Ausführungsform kann die Vorrichtung ausgebildet sein, um das erste und das zweite Optikelement zu dem bestimmten Zeitpunkt derart anzuordnen, dass sich die Zwischenbilder der Optikelemente in einer gleichen Ebene (Zwischenbildebene) befinden. Diese Zwischenbilder werden in die Bildebene des zu prüfenden, optischen Systems abgebildet. Beispielsweise kann das erste Optikelement der ersten Optikeinrichtung von einer ersten Startposition zu einer ersten Endposition verfahrbar sein. Entsprechend kann das zweite Optikelement der zweiten Optikeinrichtung von einer zweiten Startposition zu einer zweiten Endposition verfahrbar sein. Die Zwischenbilder der Optikelemente bewegen sich dabei von einer ersten, gemeinsamen, scheinbaren Objektebene in eine zweite, gemeinsame, scheinbare Objektebene. Dabei korreliert die erste, scheinbare Objektebene mit der ersten und zweiten Startposition und die zweite, scheinbare Objektebene mit der ersten und zweiten Endposition. Dabei können zwischen der ersten Objektebene und der zweiten Objektebene eine variable Anzahl von vordefinierten weiteren Objektebenen durchlaufbar sein. Dieser Zusammenhang gilt natürlich auch für sämtliche denkbaren Ebenen entlang der Trajektorie der Optikelemente. Dabei können die Geschwindigkeitsprofile des ersten Optikelements und des zweiten Optikelements so aufeinander abgestimmt werden, dass die Zwischenbilder sämtlicher Optikelemente immer zeitgleich in den vorab definierten Objektebenen angeordnet sein können. Damit kann vorteilhafterweise eine Trajektorie vorgegeben werden, entlang welcher die Optikelemente verfahren bzw. bewegt werden können. Gemäß einer weiteren Ausführungsform kann die Vorrichtung eine dritte Optikeinrichtung mit einem von einer dritten Lichtquelle beleuchtbaren, entlang einer dritten optischen Achse verfahrbaren dritten Optikelement aufweisen. Dabei kann die dritte Optikeinrichtung (beispielsweise radial) beabstandet von der ersten und zweiten Optikeinrichtung angeordnet sein und die dritte optische Achse kann einen Schnittpunkt mit der ersten und zweiten optischen Achse aufweisen, wobei in einem Bereich des Schnittpunkts das zu prüfende Kameramodul anordenbar sein kann. Beispielsweise kann die Beleuchtung der Optikelemente sowohl an der axialen Position der ersten Optikeinrichtung, parallel zur optischen Achse des Prüflings, als auch an mehreren außeraxialen Positionen erfolgen. Idealerweise sind die drei Optikelemente nicht in einer Ebene angeordnet, so dass die im Kameramodul projizierten Bildpunkte eine Bildebene aufspannen, deren Winkellage bestimmt werden kann. Dabei kann an jeder z-Position der Optikelemente ein Kontrast(MTF-)wert für eine feste Raumfrequenz an jeder der drei Feldpositionen ermittelt werden. Das Ergebnis der Messung kann die Fokussierkurve sein, eine Darstellung des Bildkontrastes als Funktion der z-Position. Aus der Lage der Maxima der drei Kurven entlang der z-Richtung kann vorteilhafterweise auf den Grad an Verkippung der Bildebene zur Sensorebene geschlossen und auch eine Defokussierung kann optimal ermittelt werden. Bei noch nicht fest miteinander verbauten Kamerasystemen, kann nun mithilfe einer aktiven Ausrichtung zwischen Optik und Sensor eine Best-Focus-Position ermittelt werden.
Die Verwendung von drei Optikelementen, die mit ihren optischen Achsen nicht in einer Ebene liegen, ist besonders vorteilhaft, um die Verkippung der Bildebene eines Kameramoduls zu ermitteln. Weitere Optikelemente können genutzt werden, um die Bestimmung zu präzisieren und um Aussagen zur Bildfeldwölbung des Prüflings zu erhalten.
Zudem wird ein Verfahren zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls (beispielsweise unter Verwendung einer Variante einer hier vorgestellten Vorrichtung) vorgestellt, wobei das Verfahren folgende Schritte umfasst:
Bewegen eines von einer ersten Lichtquelle beleuchtbaren ersten Optikelements entlang einer ersten optischen Achse einer ersten Optikeinrichtung, wobei die erste optische Achse im Wesentlichen einer optischen Achse des zu prüfenden Kameramoduls entspricht, und Bewegen eines von einer zweiten Lichtquelle beleuchtbaren zweiten Optikelements entlang einer zweiten optischen Achse einer zweiten Optikeinrichtung, wobei die zweite Optikeinrichtung (beispielsweise radial) beabstandet von der ersten Optikeinrichtung angeordnet ist und die erste optische Achse einen Schnittpunkt mit der zweiten optischen Achse innerhalb einer Eintrittspupille des Kameramoduls aufweist, Einlesen einer Positionsinformation, das eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten und des dritten und/oder jedes weiteren Optikelements repräsentiert, und Einlesen eines Bildsignals, das eine von dem Bildsensor zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert, und
Zuordnen der Position zu der Bildinformation unter Verwendung des Bildsignals und zusätzlich oder alternativ der Positionsinformation, um den Justierzustand des Kameramoduls zu bestimmen.
Beispielsweise kann das Verfahren unter Verwendung einer Variante der zuvor vorgestellten Vorrichtung durchgeführt werden, um den Justierzustand des Bildsensors einer Kamera in Bezug auf die zughörige Optik zu überprüfen. Eine derartige Überprüfung kann beispielsweise am Ende des Herstellungsprozesses der Kamera sinnvoll sein. Nach Abschluss des Fertigungsprozesses ist es erforderlich, die Qualität der Ausrichtung des Kamerasystems zu überprüfen. Die Ausrichtung kann, beispielsweise durch Fertigungsschritte, wie das ungleichmäßige Aushärten des Klebstoffs, mit welchem die Optik und der Sensor miteinander fixiert werden, negativ beeinflusst werden, aber auch durch mechanische Einwirkungen oder Temperatureffekte. Um bei einem fertig montierten Kamerasystem eine quantitative Aussage über das Ausmaß der Sensorverkippung oder Defokussierung des Bildsensors zu bekommen, kann vorteilhafterweise das hier vorgestellte Verfahren durchgeführt werden. Das Ziel des hier beschriebenen Verfahrens besteht allgemein darin, dass jeder Position der Optikelemente das entsprechende Bildsignal mit hoher Genauigkeit, das heißt mit geringstmöglichem zeitlichem Versatz (Latenz) und zeitlicher Ungenauigkeit, direkt zugeordnet werden kann, beziehungsweise dass die Bildinformation und die dazugehörige Position der Optikelemente quasi gleichzeitig erfasst werden können. Dies ist notwendig, um die Position des höchsten Bildkontrastes mit größtmöglicher Genauigkeit (im pm Bereich) ermitteln zu können.
Gemäß einer Ausführungsform kann das Verfahren einen Schritt des Ausgebens eines Positionstriggersignals aufweisen, um den Zeitpunkt zum Erfassen der Position des ersten und zusätzlich oder alternativ zweiten Optikelement zu bestimmen, wobei die Positionsinformation ansprechend auf das Positionstriggersignal bereitgestellt werden kann. Beispielsweise können die beleuchteten Optikelemente der Optikeinrichtungen kontinuierlich von einer Startposition hin zu einer Endposition verfahren werden. Gleichzeitig können mittels des Bildsensors zeitlich aufeinander folgende Bilder der Optikelemente durch den Prüfling aufgenommen werden. Die einzelnen Bildinformationen, die auch als Frames bezeichnet werden können, können zum Beispiel durch eine Bildfangschaltung beziehungsweise einen Framegrabber verarbeitet werden. Diese Bildfangschaltung kann beispielsweise das Positionstriggersignal ausgeben, sobald ein Bild vollständig aufgenommen wurde. Alternativ kann das Positionstriggersignal zu Beginn der Bildaufnahme ausgegeben werden. Gleichzeitig mit dem Positionstriggersignal kann das Bildsignal, das die Bildinformation repräsentiert, beispielsweise an eine Auswerteeinrichtung bereitgestellt werden. Das Positionstriggersignal kann zum Beispiel an eine Steuereinrichtung zum Steuern der Optikelemente ausgegeben werden. Ansprechend auf das Positionstriggersignal kann die zu diesem Zeitpunkt bestehende Position der Optikelemente unter Verwendung der Positionsinformation an die Auswerteeinrichtung bereitgestellt werden. Somit kann vorteilhafterweise die Bildinformation als Funktion der Position der Optikelemente ausgewertet werden. Anders ausgedrückt kann durch eine direkte Synchronisation zwischen Framegrabber und Steuerungseinrichtung der Messprozess dahin gehend verbessert werden, dass zum einen ein kontinuierlicher Fokussierungslauf mit hoher Geschwindigkeit gefahren werden kann und zum anderen, dass keine indirekte Verknüpfung zwischen Bildposition und Encoderposition über Zeitstempel erfolgt, die notwendigerweise einen zeitlich linearen Verfahrprozess voraussetzen würde. Eine positionsgesteuerte Triggerung der Bildaufnahme ermöglicht auch nichtlineare (beschleunigte) Bewegungsprofile.
Gemäß einer weiteren Ausführungsform kann das Verfahren einen Schritt des Ausgebens eines Bildtriggersignals aufweisen, um den Zeitpunkt zum Erfassen der Bildinformation zu bestimmen, wobei das Bildsignal ansprechend auf das Bildtriggersignal bereitgestellt werden kann. Beispielsweise können die Optikelemente kontinuierlich von einer Startposition hin zu einer Endposition verfahren werden. Sobald ein Optikelement beziehungsweise ein Encoder der entsprechenden Optikeinrichtung eine vordefinierte Position erreicht hat, kann das Bildtriggersignal ausgegeben werden. Das Bildtriggersignal kann beispielsweise bei Erreichen von nicht äquidistanten Positionsmarken ausgegeben werden, beispielsweise an den Positionen 0 mm, 0.1 mm, 0.2 mm, 0.5 mm, 1.0 mm, 2.0 mm und 5.0 mm. An jeweils diesen oder anderen vordefinierten Positionen kann zum Beispiel das Bildtriggersignal an die Bildfangschaltung ausgegeben werden. Gleichzeitig kann das Positionssignal an die Auswerteeinrichtung bereitgestellt werden. Ansprechend auf das Bildtriggersignal kann die Bildfangschaltung den Start eines Bildaufnahmeprozesses ansteuern. Anschließend kann die jeweilige Bildinformation ausgelesen und unter Verwendung des Bildsignals an die Auswerteeinrichtung bereitgestellt werden. Mittels der Auswerteeinrichtung kann jede Bildinformation zu der vordefinierten Position der Optikelemente zugeordnet werden. Alternativ können beispielsweise die Bildinformationen zwischengespeichert werden und am Ende des Fokussierungslaufs übertragen und den Positionen zugeordnet werden. Auch durch diesen Schritt kann vorteilhafterweise eine Auswertung der Bildinformation als Funktion der Optikelement-Encoderposition durchgeführt werden. Gemäß einer weiteren Ausführungsform kann das Verfahren einen Schritt des Speicherns der Bildinformation und zusätzlich oder alternativ der Position des ersten und zweiten Optikelements umfassen. In einer ersten Variante erfolgt das Speichern der jeweiligen Position des ersten und zweiten Optikelementes, nachdem diese zu einem vordefinierten Zeitpunkt als Reaktion auf ein Positionstriggersignal erfasst wurde. Näherungsweise zeitgleich zur Ausgabe des Positionstriggersignals wird in dieser Variante die Bildinformation ebenfalls gespeichert. In einer zweiten Variante erfolgt das Speichern der Bildinformation, nachdem diese zu einem definierten Zeitpunkt als Reaktion auf ein Bildtriggersignal erfasst wurde. Näherungsweise zeitgleich zur Ausgabe des Bildtriggersignals wird in dieser Variante die jeweilige Position des ersten und zweiten Optikelementes ebenfalls gespeichert.
Gemäß einer weiteren Ausführungsform kann das erste Optikelement mit einer ersten Geschwindigkeit bewegt werden und das zweite und/oder jedes weitere Optikelement mit einer sich von der ersten Geschwindigkeit unterscheidenden zweiten Geschwindigkeit. Beispielsweise kann die Steuereinrichtung zum Steuern der Optikelemente so ausgebildet sein, dass die Zwischenbilder der Optikelemente aller Optikeinrichtungen sich vorteilhafterweise zur gleichen Zeit in derselben Objektebene befinden. Dabei entspricht die erste optische Achse der ersten Optikeinrichtung im Wesentlichen einer optischen Achse des zu prüfenden Kameramoduls und die zweite und/oder weiteren Optikeinrichtung(en) sind/ist radial beabstandet von der ersten Optikeinrichtung angeordnet. Als Konsequenz bedeutet das, dass zum Beispiel das zweite Optikelement der zweiten Optikeinrichtung mit einer anderen Geschwindigkeit verfahren werden sollte als das erste Optikelement. Hierbei kann zum Beispiel die Verfahrgeschwindigkeit einer sogenannten Master- Optikeinrichtung, zum Beispiel die der optischen Achse des Kameramoduls entsprechende Optikeinrichtung, als Richtwert festgelegt werden, an welchen die Geschwindigkeiten der übrigen Optikeinrichtungen steuerungstechnisch entsprechend angepasst werden können. Dabei kann jede einzelne Optikeinrichtung einen eigenen Positionsencoder umfassen, der beispielsweise in einer sogenannten closed-loop-Regelung für die Positions- und Geschwindigkeitsregelung genutzt werden kann. Dabei können die Signale der einzelnen Optikeinrichtungen parallel an die Steuereinrichtung elektronisch übergeben werden. Da der Zusammenhang zwischen den Positionen der Optikelemente und scheinbarer Objektebenen (Zwischenbildebenen) nichtlinear ist, ist es weiterhin vorteilhaft, ein entsprechendes Geschwindigkeitsprofil zu fahren, um zu einer gleichmäßigen Messpunkteverteilung im Bildraum zu gelangen.
Gemäß einer weiteren Ausführungsform können die erste und die zweite Geschwindigkeit zu jedem Zeitpunkt einen Wert von größer 0 m/s aufweisen. Zusätzlich oder alternativ kann der zeitliche Verlauf der ersten und zweiten und/oder weiteren Geschwindigkeiten mathematisch durch eine nichtlineare Funktion beschreibbar sein. Dabei kann vorteilhafterweise ein kontinuierlicher Fokussierungslauf mit hoher Geschwindigkeit gefahren werden, wobei auf eine indirekte Verknüpfung zwischen Bildinformation und Position der Optikelemente über Zeitstempel verzichtet werden kann, die notwendigerweise einen zeitlich linearen Verfahrprozess voraussetzen würde.
Gemäß einer weiteren Ausführungsform kann das Verfahren einen Schritt des Bereitstellens eines Bewegungssignals aufweisen, wobei das Bewegungssignal eine Vorgabe der von den Optikelementen anzufahrenden Positionen repräsentieren kann, insbesondere wobei die Vorgabe als Positionstabelle hinterlegt sein kann. Beispielsweise können ein oder mehrere Sätze an Optikelement- z-Positionen in der Steuereinheit hinterlegt werden. Die einzelnen z-Positionen können unterschiedlichen Objektebenen entsprechen, in die die Bilder der Optikelemente scheinbar für das Kameramodul projiziert werden. Diese scheinbaren Objektebenen werden auch als Zwischenbildebenen bezeichnet. Dabei können vorteilhafterweise die Geschwindigkeitsprofile des ersten Optikelements sowie des zweiten Optikelements so aufeinander abgestimmt werden, dass sämtliche Bilder der Optikelemente sich immer zeitgleich in den vorab definierten Objektebenen befinden. Dabei kann beispielsweise die Übergabe des Satzes an Positionen in Form einer Positionstabelle erfolgen und die Positionen können weiterhin äquidistant beziehungsweise nicht äquidistant sein. Damit kann vorteilhafterweise eine Trajektorie vorgegeben werden, entlang welcher die Optikelemente der Optikeinrichtungen verfahren werden.
Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels einer Messung einer Verkippung zwischen einer Bildebene einer Optikeinheit und einer Sensorebene; Fig. 2 eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung;
Fig. 3A eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung in der Draufsicht;
Fig. 3B eine schematische Querschnittsdarstellung eines Ausführungsbeispiels einer Vorrichtung in der Seitenansicht;
Fig. 4 eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung;
Fig. 5 eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung;
Fig. 6 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Prüfen eines
Justierzustands eines Bildsensors eines Kameramoduls;
Fig. 7 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls; und
Fig. 8 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Prüfen eines
Justierzustands eines Bildsensors eines Kameramoduls.
In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung, werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Messung einer Verkippung zwischen einer Bildebene 100 einer Optikeinheit 105 und einer Sensorebene 110. Ein wichtiger Messparameter bei der Überprüfung einer Kameraausrichtung ist der Grad an Verkippung zwischen der Bildebene 100 der Optik beziehungsweise der Optikeinheit 105 und der Sensorebene 110. Bei der hier dargestellten Messung ist das zu prüfenden Kameramodul 115, bestehend aus Optikeinheit 105 und Bildsensor 120, mit kollimiertem Licht beleuchtbar. Der Sensor, beziehungsweise die Optik des Prüflings, sind relativ zueinander verfahrbar, wobei an jeder z-Position 125 ein MTF-Wert 130 für eine feste Raumfrequenz exemplarisch an jeder der drei Feldpositionen ermittelbar ist. Das Ergebnis der Messung, die Fokussierkurve 135 mit den Kontrastwerten als Funktion der z-Position, ist auf der linken, unteren Seite der Abbildung dargestellt. Aus der Lage der Maxima der drei Kurven entlang der z-Richtung ist auf den Grad an Verkippung der Bildebene 100 zur Sensorebene 110 schließbar und auch eine Defokussierung ermittelbar. Die Darstellung zeigt dies in zwei Dimensionen, sinngemäß kann diese Auswertung auch in drei Dimensionen stattfinden. Bei noch nicht fest miteinander verbauten Kamerasystemen ist mithilfe einer aktiven Ausrichtung zwischen Optik und Sensor eine beste Fokusposition ermittelbar. Nach Abschluss des Fertigungsprozesses ist es erforderlich, die Qualität der Ausrichtung des Kamerasystems zu überprüfen. Die Ausrichtung kann, beispielsweise durch Fertigungsschritte, wie das ungleichmäßige Aushärten des Klebstoffs, mit welchem die Optik und der Sensor miteinander fixiert werden, negativ beeinflusst werden, aber auch durch mechanische Einwirkungen oder Temperatureffekte. In vielen Fällen werden fertiggestellte Kameramodule mit einfachen Testbild-Aufbauten geprüft und es wird festgestellt, ob sie die festgelegten Schärfekriterien erfüllen. Diese Methode bietet jedoch keinen quantitativen Hinweis auf den Grad der mechanischen Verkippung oder Sensorfehllage, die zu einem beobachteten Schärfeabfall geführt hat. Eine systematische Optimierung des Fertigungsprozesses wird dadurch erschwert.
Figur 2 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung 200. Die Vorrichtung 200 ist ausgebildet, um einen Justierzustands eines Bildsensors 120 eines Kameramoduls 115 zu prüfen. Hierfür umfasst die Vorrichtung 200 eine erste Optikeinrichtung 205 mit einem von einer ersten Lichtquelle 210 beleuchtbaren, entlang einer ersten optischen Achse 215 verfahrbaren ersten Optikelement 220. Dabei entspricht die erste optische Achse 215 in der hier gezeigten Darstellung einer optischen Achse 225 des in der Abbildung unterhalb der ersten Optikeinrichtung 205 angeordneten Kameramoduls 115. Die Vorrichtung 200 umfasst weiterhin eine zweite Optikeinrichtung 235 mit einem von einer zweiten Lichtquelle 240 beleuchtbaren, entlang einer zweiten optischen Achse 245 verfahrbaren zweiten Optikelement 250. Dabei ist die zweite Optikeinrichtung 235 beispielsweise radial (hier speziell um einen Winkel verdreht gegenüber der ersten optischen Achse 225) beabstandet von der ersten Optikeinrichtung 205 angeordnet und die erste optische Achse 215 weist einen Schnittpunkt 260 mit der zweiten optischen Achse 245 auf, wobei das zu prüfende Kameramodul 115 in einem Bereich des Schnittpunkts 260 angeordnet ist. In der praktischen Ausführung können noch weitere Optikeinrichtungen sinngemäß hinzugefügt werden.
Zudem weist die Vorrichtung 200 eine Auswerteeinrichtung 270 auf, die ausgebildet ist, um ein Positionssignal 275 einzulesen. Das Positionssignal 275 repräsentiert eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten Optikelements 220, 250 und ist in diesem Ausführungsbeispiel von einer Steuereinrichtung 280 zum Steuern der Optikelemente 220, 250 an die Auswerteeinrichtung 270 bereitstellbar. Die Auswerteeinrichtung 270 ist weiterhin ausgebildet, um ein Bildsignal 285 einzulesen, das eine von dem Bildsensor 120 zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert. Dabei ist die Auswerteeinrichtung 270 in diesem Ausführungsbeispiel ausgebildet, um unter Verwendung des Bildsignals 285 und des Positionssignals 275 jeder erfassten Position eine Bildinformation zuzuordnen, um den Justierzustand des Kameramoduls zu bestimmen. In einem anderen Ausführungsbeispiel kann auch nur das Positionssignal oder das Bildsignal verwendet werden.
Figur 3A zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung 200 in der Draufsicht. Diese beinhaltet eine axiale Optikeinrichtung 205 sowie mehrere, außeraxiale Optikeinrichtungen 235,300, welche radial, unter verschiedenen Winkeln, von der axialen Optikeinrichtung 205 beabstandet sind. Die hier dargestellte Vorrichtung 200 entspricht oder ähnelt der in der vorangegangenen Figur 2 beschriebenen Vorrichtung, mit dem Unterschied, dass die hier dargestellte Vorrichtung 200 neben der ersten Optikeinrichtung 205 und der zweiten Optikeinrichtung 235 eine dritte Optikeinrichtung 300 aufweist. Kongruent zu der ersten Optikeinrichtung 205 und der zweiten Optikeinrichtung 235 weist die dritte Optikeinrichtung 300 ein von einer dritten Lichtquelle 305 beleuchtbares, entlang einer dritten optischen Achse 310 verfahrbares drittes Optikelement 315 auf. Dabei ist die dritte Optikeinrichtung 300 radial beabstandet von der ersten und zweiten Optikeinrichtung 205, 235 angeordnet und die dritte optische Achse 310 weist einen Schnittpunkt 260 mit der ersten und zweiten optischen Achse 215, 245 auf, wobei in einem Bereich des Schnittpunkts 260 das zu prüfende Kameramodul 115 anordenbar ist. Im gleichen Sinne können auch noch weitere Optikeinrichtungen räumlich radial um die Eintrittsöffnung des zu prüfenden Kameramoduls angeordnet sein. Dieser Sachverhalt ist in der Draufsicht in FIG 3A verdeutlicht.
Figur 3B zeigt eine schematische Darstellung eines Ausführungsbeispiels einer ersten Optikeinrichtung 205. Die hier dargestellte erste Optikeinrichtung 205 entspricht oder ähnelt der in den vorangegangenen Figuren 2 und 3A beschriebenen ersten Optikeinrichtung und weist ein Gehäuse 330 auf, in dem die erste Lichtquelle 210 angeordnet ist. Die erste Lichtquelle 210 ist ausgebildet, um einen Lichtstrahl 335 auszugeben, der von einem Projektionsobjektiv 340 kollimierbar ist. Zwischen der ersten Lichtquelle 210 und dem Projektionsobjektiv 340 ist in diesem Ausführungsbeispiel das erste Optikelement 220 angeordnet, welches entlang der ersten optischen Achse 215 verfahrbar ist, wobei die erste optische Achse 215 der optischen Achse 225 des zu prüfenden Kameramoduls 115 entspricht. Dabei ist das erste Optikelement 220 lediglich beispielhaft mittels eines motorischen Antriebs und eines Positionsencoders 345 steuerbar. Entsprechend der Position des ersten Optikelements 220 ist der Lichtstrahl 335 derart abänderbar, das unterschiedliche scheinbare Objektabstände für den so beleuchteten Bildsensor 120 des Kameramoduls 115 einstellbar sind und beispielhaft verschiedene Kontrast(MTF-)werte für diese Objektabstände ausgewertet werden können. Mit anderen Worten erzeugt die Optik 340 ein virtuelles Zwischenbild des Optikelementes 220, welches seinerseits als Objekt von der Optik des zu prüfenden Systems 115 auf dessen Sensor 120 abgebildet wird.
Figur 4 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung 200. Die hier dargestellte Vorrichtung 200 entspricht oder ähnelt der in den vorangegangenen Figuren 2 und 3 beschriebenen Vorrichtung, mit dem Unterschied, dass die Vorrichtung 200 in diesem Ausführungsbeispiel eine Bildfangschaltung 400 umfasst. Die Bildfangschaltung 400, die auch als Framegrabber bezeichnet werden kann, ist in diesem Ausführungsbeispiel ausgebildet, um den Bildsensor 120 in Abhängigkeit von der Position der Optikelemente 220, 250, 315 auszulesen und das Bildsignal 285 an die Auswerteeinrichtung 270 bereitzustellen. Lediglich beispielhaft ist die Bildfangschaltung 400 zusätzlich ausgebildet, um ein Positionstriggersignal 405 an die Steuereinrichtung 280 auszugeben. Dabei ist die Steuereinrichtung 280 in diesem Ausführungsbeispiel ausgebildet, um ansprechend auf das Positionstriggersignal 405 den Zeitpunkt zum Erfassen der Position der Optikelemente 220, 250, 315 zu bestimmen und die jeweilige Position mittels einer Speichereinheit 407, die auch als Optikelement-Positionsspeicher bezeichnet werden kann, zu speichern. Die Positionen der Optikelemente 220, 250, 315 sind dann unter Verwendung des Positionssignal 275 bereitstellbar.
Mit anderen Worten ist die Vorrichtung 200 in diesem Ausführungsbeispiel ausgebildet, um die vom Prüfling erfassten Bildinformationen mithilfe der Bildfangschaltung 400 zu verarbeiten, wobei die Bildfangschaltung 400 lediglich beispielhaft mit der Steuereinrichtung 280 signalübertragungsfähig verbunden ist. Dabei sind in diesem Ausführungsbeispiel sämtliche Optikeinrichtungen 205, 235, 300, genauer gesagt deren Motorsteuerungen, parallel mit der Steuereinrichtung 280 elektronisch verbunden. Die Steuereinrichtung 280 ist in diesem Ausführungsbeispiel ausgebildet, um die Positionen der Optikelemente 220, 250, 315 zu dem lediglich beispielhaft durch das Positionstriggersignal 405 bestimmten Zeitpunkt, bei dem es sich um den Beginn oder das Ende einer Bildaufnahme handeln kann, zu speichern. Dabei werden die Optikelemente 220, 250, 315 kontinuierlich von einer Startposition 410 zur einer Endposition 415 verfahren. Mit jeder Position der Optikelemente korreliert auch eine Position des entsprechenden Zwischenbildes. Dabei sind die Optikelemente so entlang ihrer respektiven, optischen Achsen angeordnet, dass alle Zwischenbilder in einer gemeinsamen, scheinbaren Objektebene liegen. Somit bewegen sich die Zwischenbilder ebenfalls von einer Startposition 410 hin zu einer Endposition 415. Zur Übersichtlichkeit der hier dargestellten Abbildung sind ausschließlich die erste Objektebene 410, die einer Startposition der Zwischenbilder der Optikelemente 220, 250, 315 entspricht, und die zweite Objektebene 415, die einer Endposition der Zwischenbilder der Optikelemente 220, 250, 315 entspricht, abgebildet. In anderen Ausführungsbeispielen können die Zwischenbilder der Optikelemente entlang einer variablen Mehrzahl von Objektebenen verfahrbar sein. Hierfür sind in diesem Ausführungsbeispiel mehrere Sätze an Positionen der Optikelemente in der Steuereinrichtung hinterlegt. Die einzelnen Positionen entsprechen unterschiedlichen Objektebenen 410, 415, in welchen die Zwischenbilder der Optikelemente 220, 250, 315, die auch als Reticle bezeichnet werden können, anordenbar sind. Durch die radiale Beabstandung der Optikeinrichtungen 205, 235, 300 zueinander ist ein Abstand l2 zwischen der Startposition und der Endposition des zweiten Optikelements 250 größer als ein Abstand zwischen der Startposition und der Endposition des ersten Optikelements 220. Um diese auszugleichen sind die Geschwindigkeitsprofile der ersten Optikeinrichtung 205, der zweiten Optikeinrichtung 235 und der dritten Optikeinrichtung 300 und auch von weiteren Optikeinrichtungen so aufeinander abstimmbar, dass sämtliche Zwischenbilder aller Optikelemente 220, 250, 315 immer zeitgleich in den vorab definierten Objektebenen 410, 415 anordenbar sind. Die Steuerung der Optikeinrichtungen 205, 235, 300 ist also so ausgelegt, dass die Zwischenbilder der Optikelemente aller Optikeinrichtungen 205, 235, 300 sich zur gleichen Zeit in derselben Objektebene 410, 415 befinden, was als Konsequenz hat, dass die Optikelemente der außeraxialen Optikeinrichtungen 235, 300 mit einer anderen Geschwindigkeit verfahren werden als das Optikelemente der axialen Optikeinrichtung 205. Hierbei ist lediglich beispielhaft die Verfahrgeschwindigkeit eines der ersten Optikeinrichtungen 205 als Richtwert festgelegt, an welchen die Geschwindigkeiten der übrigen Optikeinrichtungen 235, 300 steuerungstechnisch entsprechend angepasst sind. Dabei umfasst jede einzelne der Optikeinrichtungen 205, 235, 300 beispielhaft einen eigenen Positionsencoder, der in einer geschlossenen (closed-loop) Regelung für die Positions- und Geschwindigkeitsregelung nutzbar ist. Dabei sind die Signale der einzelnen Optikeinrichtungen 205, 235, 300, das heißt das Signal der axialen Optikeinrichtung 205 sowie die Signale der verschiedenen außeraxialen Optikeinrichtungen 235, 300, parallel an die Steuereinrichtung 280 elektronisch übergebbar. Da der Zusammenhang zwischen Optikelement-Position und scheinbarer Objektebene nichtlinear ist, ist ein entsprechendes Geschwindigkeitsprofil fahrbar, um zu einer gleichmäßigen Messpunkteverteilung im Objektraum zu gelangen. Lediglich beispielhaft ist daher die Steuereinrichtung 280 ausgebildet, um ein erstes Bewegungssignal 420, ein zweites Bewegungssignal 422 und ein drittes Bewegungssignal 425 an die Optikeinrichtungen 205, 235, 300 bereitzustellen, wobei die Bewegungssignale 420, 422, 425 eine Vorgabe für die von den Optikelementen 220, 250, 315 anfahrbaren Positionen repräsentiert. Hierzu ist lediglich beispielhaft eine Vorgabe für die von den Optikelementen 220, 250, 315 anfahrbaren Positionen als Positionstabelle 430 in der Steuereinrichtung 280 hinterlegt.
Figur 5 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung 200. Die hier dargestellte Vorrichtung 200 entspricht oder ähnelt der in den vorangegangenen Figuren 2, 3 und 4, 5 beschriebenen Vorrichtung, mit dem Unterschied, dass in diesem Ausführungsbeispiel die Steuereinrichtung 280 ausgebildet ist, um ein Bildtriggersignal 500 auszugeben. Lediglich beispielhaft ist das Bildtriggersignal 500 an die Bildfangschaltung 400 bereitstellbar, um den Zeitpunkt zum Erfassen der Bildinformation zu bestimmen. Entsprechend ist das Bildtriggersignal 500 in diesem Ausführungsbeispiel auslösbar, sobald die Optikelemente 220, 250, 315 eine vordefinierte Position erreicht haben. Die vordefinierten, anzufahrenden Positionen können dabei in einer Positionstabelle 430 hinterlegt sein. Die Bildfangschaltung 400 ist in diesem Ausführungsbeispiel ausgebildet, um ansprechend auf das Bildtriggersignal 500 den Bildsensor 120 anzusteuern und einen Bildaufnahmeprozess zu starten. Nach dem Erfassen der Bildinformationen ist das Bildsignal 285 bereitstellbar. Dabei ist das Bildsignal 285 in diesem Ausführungsbeispiel nur mittelbar an die Auswerteeinrichtung 270 bereitstellbar, da dieser lediglich beispielhaft eine Bildausgabeeinrichtung 505 vorgeschaltet ist. Gleichermaßen ist das Positionssignal 275 in diesem Ausführungsbeispiel nur mittelbar unter Verwendung einer Positionsausgabeeinrichtung 510 von der Steuereinrichtung 280 an die Auswerteeinrichtung 270 bereitstellbar.
Figur 6 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 600 zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls. Das hier dargestellte Verfahren 600 ist unter Verwendung einer Vorrichtung, wie sie in den vorangegangenen Figuren 2, 3, 4 und 5, beschrieben wurde, durchführbar. Das Verfahren 600 umfasst einen Schritt 605 des Bewegens eines von einer ersten Lichtquelle beleuchtbaren ersten Optikelements entlang einer ersten optischen Achse einer ersten Optikeinrichtung. Dabei entspricht die erste optische Achse im Wesentlichen einer optischen Achse des zu prüfenden Kameramoduls. Im Schritt 605 des Bewegens wird zudem ein von einer zweiten Lichtquelle beleuchtbares zweites Optikelement entlang einer zweiten optischen Achse einer zweiten Optikeinrichtung bewegt. Dabei ist die zweite Optikeinrichtung radial beabstandet von der ersten Optikeinrichtung angeordnet und die erste optische Achse weist einen Schnittpunkt mit der zweiten optischen Achse innerhalb des Kameramoduls auf. Dabei wird lediglich beispielhaft das erste Optikelement mit einer ersten Geschwindigkeit bewegt und das zweite Optikelement mit einer sich von der ersten Geschwindigkeit unterscheidenden zweiten Geschwindigkeit. In diesem Ausführungsbeispiel weisen dabei sowohl die erste als auch die zweite Geschwindigkeit zu jedem Zeitpunkt einen Wert von größer 0 m/s auf und der zeitliche Verlauf der ersten und zweiten Geschwindigkeit ist lediglich beispielhaft mathematisch durch eine nichtlineare Funktion beschreibbar. Weitere Optikeinrichtungen können diesem Schema hinzugefügt werden.
Weiterhin umfasst das Verfahren 600 einen Schritt 610 des Einlesens. In diesem Schritt 610 wird eine Positionsinformation eingelesen, die eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten Optikelements repräsentiert. Zusätzlich wird im Schritt 610 des Einlesens ein Bildsignal eingelesen, das eine von dem Bildsensor zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert. Auf den Schritt 610 des Einlesens folgt ein Schritt 615 des Zuordnens der Positionen zu der Bildinformation unter Verwendung des Bildsignals und des Positionsinformationen, um den Justierzustand des Kameramoduls zu bestimmen.
Das Ziel des hier beschriebenen Verfahrens 600 besteht darin, dass jeder Position das entsprechende Bildsignal mit hoher Genauigkeit, das heißt mit geringstmöglichem zeitlichem Versatz (Latenz) und zeitlicher Ungenauigkeit, direkt zugeordnet wird, beziehungsweise dass die Bildinformation und die dazugehörigen Positionen der Optikeinrichtungen quasi gleichzeitig erfasst werden. Dies ist notwendig, um die Position des höchsten Bildkontrastes mit größtmöglicher Genauigkeit (im pm Bereich) zu ermitteln. Mit dem Verfahren 600 der direkten Synchronisation zwischen Framegrabber und Optikeinrichtung-Steuerung ist zum einen ein kontinuierlicher Fokussierlauf mit hoher Geschwindigkeit fahrbar und zum anderen erfolgt keine indirekte Verknüpfung zwischen Bild und Encoderposition über Zeitstempel, die notwendigerweise einen zeitlich linearen Verfahrprozess voraussetzen würde.
Figur 7 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 600 zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls. Das hier vorgestellte Verfahren 600 entspricht oder ähnelt dem in der vorangegangenen Figur 6 beschriebenen Verfahren, mit dem Unterschied, dass es zusätzliche Schritte aufweist. So folgt in diesem Ausführungsbeispiel auf den Schritt 605 des Bewegens ein Schritt 700 des Ausgebens eines Positionstriggersignals. Das Positionstriggersignal wird lediglich beispielhaft ausgegeben, um den Zeitpunkt zum Erfassen der Positionen des ersten und zweiten Optikelements (und beispielsweise) weiteren Optikelementen zu bestimmen. Zudem umfasst das Verfahren 600 in diesem Ausführungsbeispiel einen Schritt 705 des Speicherns der Bildinformation und der Positionen des ersten und zweiten Optikelements sowie aller weiteren Optikelemente. Erst anschließend werden in diesem Ausführungsbeispiel die Positionsinformationen ansprechend auf das Positionstriggersignal bereitgestellt, gemeinsam mit dem Bildsignal eingelesen und je eine Position wird je einer Bildinformation zugeordnet. Anders ausgedrückt werden in diesem Ausführungsbeispiel des Verfahrens 600 Optikelemente in fokussierbaren Kollimatoren von einer Startposition hin zu einer Endposition kontinuierlich, das heißt nicht schrittweise, verfahren. Währenddessen erfolgt eine Aufnahme von zeitlich aufeinander folgenden Bildern der Reticle durch den Prüfling und lediglich beispielhaft eine Verarbeitung der einzelnen Bildinformationen (Frames) durch einen Framegrabber. Der Framegrabber löst ein Triggersignals aus, sobald ein Bild vollständig aufgenommen wurde. In einem anderen Ausführungsbeispiel kann das Signal auch zu Beginn der Bildaufnahme ausgegeben werden. Es folgt ein Speichern der Bildinformation und ein Speichern der Optikelement-Encoderpositionsinformationen als Reaktion auf das Triggersignal. Anschließend erfolgt eine Auswertung der Bildinformation, zum Beispiel der Kontrastwerte, als Funktion der Optikelement- Encoderposition. Figur 8 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 600 zum Prüfen eines Justierzustands eines Bildsensors eines Kameramoduls. Das hier vorgestellte Verfahren 600 entspricht oder ähnelt dem in den vorangegangenen Figuren 6 und 7 beschriebenen Verfahren, mit dem Unterschied, dass es alternative und zusätzliche Schritte aufweist. Lediglich beispielhaft umfasst das Verfahren 600 einen Schritt 800 des Bereitstellens eines Bewegungssignals. Dabei repräsentiert das Bewegungssignal eine Vorgabe für von den Optikelementen im Schritt 605 des Bewegens anzufahrenden Positionen. In diesem Ausführungsbeispiel ist diese Vorgabe als Positionstabelle mit nicht äquidistanten Positionsmarken hinterlegt. In einem Schritt 805 wird dann lediglich beispielhaft bei Erreichen der Positionen 0 mm, 0.1 mm, 0.2 mm, 0.5 mm, 1.0 mm, 2.0 mm und 5.0 mm jeweils ein Bildtriggersignal ausgelöst, um den Zeitpunkt zum Erfassen der Bildinformation zu bestimmen, wobei das Bildsignal ansprechend auf das Bildtriggersignal bereitgestellt wird. Mit anderen Worten erfolgt in diesem Ausführungsbeispiel ein kontinuierliches Verfahren der Optikelemente in den fokussierbaren Kollimatoren von einer Startposition hin zu einer Endposition. Dabei wird ein Triggersignal ausgelöst, sobald der Encoder eine vordefinierte Position erreicht hat. Diese Triggersignale werden lediglich beispielhaft an den Framegrabber weitergegeben, der daraufhin den Bildaufnahmeprozesses startet. Anschließend folgt ein Auslesen und Speichern der Bildinformation, zugeordnet zu der anfangs vordefinierten Position. In einem anderen Ausführungsbeispiel können die Bildinformationen zwischengespeichert werden und am Ende des Fokussierlaufs übertragen und den Positionen zugeordnet werden. In diesem Ausführungsbeispiel erfolgt eine Auswertung der Bildinformation, zum Beispiel der Kontrastwerte, als Funktion der Optikelement-Encoderposition.

Claims

Patentansprüche
1. Vorrichtung (200) zum Prüfen eines Justierzustands eines Bildsensors (120) eines Kameramoduls (115), wobei die Vorrichtung (200) folgende Merkmale aufweist: eine erste Optikeinrichtung (205) mit einem von einer ersten Lichtquelle (210) beleuchtbaren, entlang einer ersten optischen Achse (215) verfahrbaren ersten Optikelement (220); eine zweite Optikeinrichtung (235) mit einem von einer zweiten Lichtquelle (240) beleuchtbaren, entlang einer zweiten optischen Achse (245) verfahrbaren zweiten Optikelement (250), wobei die zweite Optikeinrichtung (235) beabstandet von der ersten Optikeinrichtung (205) angeordnet ist und die erste optische Achse (215) einen Schnittpunkt (260) mit der zweiten optischen Achse (245) aufweist, wobei in einem Bereich des Schnittpunkts (260) das zu prüfende Kameramodul (115) anordenbar ist; und eine Auswerteeinrichtung (270), die ausgebildet ist, um eine Positionsinformation (275) einzulesen, die eine zu einem bestimmten Zeitpunkt erfasste Position des ersten und des zweiten Optikelements (220, 250) repräsentiert, und ein Bildsignal (285) einzulesen, das eine von dem Bildsensor (120) zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert, wobei die Auswerteeinrichtung (270) ausgebildet ist, um unter Verwendung des Bildsignals (285) und/oder der Positionsinformation (275) jeder erfassten Position eine Bildinformation zuzuordnen, um den Justierzustand des Kameramoduls (115) zu bestimmen.
2. Vorrichtung (200) gemäß Anspruch 1, mit einer Bildfangschaltung (400), die ausgebildet ist, um den Bildsensor (120) in Abhängigkeit von der Position der Optikelemente (220, 250) anzusteuern oder auszulesen, und die ausgebildet ist, um das Bildsignal (285) bereitzustellen.
3. Vorrichtung (200) gemäß einem der vorangegangenen Ansprüche, mit einer Steuereinrichtung (280) zum Steuern des ersten Optikelements (220) und des zweiten Optikelements (250), wobei die Steuereinrichtung (280) ausgebildet ist, um die Positionsinformationen (275) der Optikeinrichtungen (205, 235) bereitzustellen. Vorrichtung (200) gemäß einem der vorangegangenen Ansprüche, wobei die Vorrichtung (200) ausgebildet ist, um das erste (220) und das zweite (250) Optikelement zu dem bestimmten Zeitpunkt derart anzuordnen, dass sich die Zwischenbilder der Optikelemente (220, 250) in einer gleichen Objektebene (410, 415) befinden. Vorrichtung (200) gemäß einem der vorangegangenen Ansprüche, mit einer dritten Optikeinrichtung (300) mit einem von einer dritten Lichtquelle (305) beleuchtbaren, entlang einer dritten optischen Achse (310) verfahrbaren dritten Optikelement (315), wobei die dritte Optikeinrichtung (300) beabstandet von der ersten und zweiten Optikeinrichtung (205, 235) angeordnet ist und die dritte optische Achse (310) einen Schnittpunkt (260) mit der ersten und zweiten optischen Achse (245) aufweist, wobei in einem Bereich des Schnittpunkts (260) das zu prüfende Kameramodul (115) anordenbar ist. Verfahren (600) zum Prüfen eines Justierzustands eines Bildsensors (120) eines Kameramoduls (115), wobei das Verfahren (600) folgende Schritte (605, 610, 615) umfasst:
Bewegen (605) eines von einer ersten Lichtquelle (210) beleuchtbaren ersten Optikelements (220) entlang einer ersten optischen Achse (215) einer ersten Optikeinrichtung (205), wobei die erste optische Achse (215) im Wesentlichen einer optischen Achse (225) des zu prüfenden Kameramoduls (115) entspricht, und Bewegen eines von einer zweiten Lichtquelle (240) beleuchtbaren zweiten Optikelements (250) entlang einer zweiten optischen Achse (245) einer zweiten Optikeinrichtung (235), wobei die zweite Optikeinrichtung (235) beabstandet von der ersten Optikeinrichtung (205) angeordnet ist und die erste optische Achse (215) einen Schnittpunkt (260) mit der zweiten optischen Achse (245) innerhalb des Kameramoduls (115) aufweist;
Einlesen (610) einer Positionsinformation (275), das eine zu einem bestimmten Zeitpunkt erfasste Position des ersten Optikelements (220) und des zweiten Optikelements (250) repräsentiert, und Einlesen eines Bildsignals (285), das eine von dem Bildsensor (120) zu dem bestimmten Zeitpunkt erfasste Bildinformation repräsentiert; und
Zuordnen (615) der Position zu der Bildinformation unter Verwendung des Bildsignals (285) und/oder der Positionsinformation (275), um den Justierzustand des Kameramoduls (115) zu bestimmen. Verfahren (600) gemäß Anspruch 6, mit einem Schritt (700) des Ausgebens eines Positionstriggersignals (405), um den Zeitpunkt zum Erfassen der Position des ersten und/oder zweiten Optikelements (220, 250) zu bestimmen, wobei die Positionsinformation (275) ansprechend auf das Positionstriggersignal (405) bereitgestellt wird. Verfahren (600) gemäß Anspruch 6 oder 7, mit einem Schritt (805) des Ausgebens eines Bildtriggersignals (500), um den Zeitpunkt zum Erfassen der Bildinformation zu bestimmen, wobei das Bildsignal (285) ansprechend auf das Bildtriggersignal (500) bereitgestellt wird. Verfahren (600) gemäß einem der Ansprüche 6 bis 8, mit einem Schritt (705) des Speicherns der Bildinformation und/oder der Position des ersten und zweiten Optikelements (220, 250), wobei der Schritt (705) des Speicherns vor dem Schritt (610) des Einlesens durchgeführt wird. Verfahren (600) gemäß einem der Ansprüche 6 bis 9, wobei das erste Optikelement (220) mit einer ersten Geschwindigkeit bewegt wird und das zweite Optikelement (250) mit einer sich von der ersten Geschwindigkeit unterscheidenden zweiten Geschwindigkeit. Verfahren (600) gemäß Anspruch 10, wobei die erste und die zweite Geschwindigkeit zu jedem Zeitpunkt einen Wert von größer 0 m/s aufweisen und/oder wobei der zeitliche Verlauf der ersten und zweiten Geschwindigkeiten mathematisch durch eine nichtlineare Funktion beschreibbar ist. Verfahren (600) gemäß einem der Ansprüche 6 bis 11, mit einem Schritt (800) des Bereitstellens eines Bewegungssignals (420), wobei das Bewegungssignal (420) eine Vorgabe für von den Optikelementen (220, 250) anzufahrenden Positionen repräsentiert, insbesondere wobei die Vorgabe als Positionstabelle (430) hinterlegt ist. Computerprogramm, das dazu eingerichtet ist, die Schritte (605, 610, 615) des Verfahrens (600) gemäß einem der vorangegangenen Ansprüche 6 bis 12 auszuführen und/oder anzusteuern. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.
PCT/EP2022/079694 2021-10-29 2022-10-25 Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors WO2023072889A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280071823.6A CN118402230A (zh) 2021-10-29 2022-10-25 用于测试影像传感器的调整状态的装置及方法
EP22809079.1A EP4424009A1 (de) 2021-10-29 2022-10-25 Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021128335.3 2021-10-29
DE102021128335.3A DE102021128335A1 (de) 2021-10-29 2021-10-29 Vorrichtung zum Prüfen eines Justierzustands eines Bildsensors und Verfahren zum Prüfen eines Justierzustands eines Bildsensors

Publications (1)

Publication Number Publication Date
WO2023072889A1 true WO2023072889A1 (de) 2023-05-04

Family

ID=84360641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/079694 WO2023072889A1 (de) 2021-10-29 2022-10-25 Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors

Country Status (5)

Country Link
EP (1) EP4424009A1 (de)
CN (1) CN118402230A (de)
DE (1) DE102021128335A1 (de)
TW (1) TW202317961A (de)
WO (1) WO2023072889A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012016337A1 (de) * 2012-08-20 2014-02-20 Jos. Schneider Optische Werke Gmbh Verfahren zum Bestimmen einer optischen Qualität eines Fotomoduls
US20210181058A1 (en) * 2017-06-02 2021-06-17 Trioptics Gmbh Apparatus for detecting a modulation transfer function and centering of an optical system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012016337A1 (de) * 2012-08-20 2014-02-20 Jos. Schneider Optische Werke Gmbh Verfahren zum Bestimmen einer optischen Qualität eines Fotomoduls
US20210181058A1 (en) * 2017-06-02 2021-06-17 Trioptics Gmbh Apparatus for detecting a modulation transfer function and centering of an optical system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BRÄUNIGER K ET AL: "Automated assembly of camera modules using active alignment with up to six degrees of freedom", PROCEEDINGS OF SPIE, IEEE, US, vol. 8992, 8 March 2014 (2014-03-08), pages 89920F - 89920F, XP060036061, ISBN: 978-1-62841-730-2, DOI: 10.1117/12.2041754 *
TRIOPTICS GMBH: "CamTest ColMot Optical target projectors", 31 January 2021 (2021-01-31), XP093020328, Retrieved from the Internet <URL:https://trioptics.com/wp-content/uploads/2021/01/CamTest_ColMot2.0_6.0_Optical_Target_Projectors_DS.pdf> [retrieved on 20230202] *

Also Published As

Publication number Publication date
DE102021128335A1 (de) 2023-05-04
EP4424009A1 (de) 2024-09-04
TW202317961A (zh) 2023-05-01
CN118402230A (zh) 2024-07-26

Similar Documents

Publication Publication Date Title
DE102017217320B4 (de) Linsensystem variabler brennweite und fokuskontrolle
DE69218627T2 (de) Stanzpressensystem mit ccd-kamerasystem für ein automatisches dreiaxiales ausrichtungssystem für matrizen
EP0947802B1 (de) Messanordnung zur Erfassung von Dimensionen von Prüflingen, vorzugsweise von Hohlkörpern, insbesondere von Bohrungen in Werkstücken, sowie Verfahren zur Messung solcher Dimensionen
DE102017207179A1 (de) Bildgebungssystem mit variabler Brennweite
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
EP0637167A1 (de) Messkamera
EP3410091B1 (de) Verfahren zum erfassen einer modulations-transferfunktion und einer zentrierung eines optischen systems
DE102010032800A1 (de) Verfahren und Vorrichtung zum Kalibrieren einer Laserbearbeitungsmaschine
DE102016102579A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Vielzahl von Raumkoordinaten an einem Gegenstand
DE102014107044B4 (de) Verbesserte Autofokusverfahren für ein Koordinatenmessgerät sowie Koordinatenmessgerät
DE102005036529A1 (de) Verfahren zur lagegetreuen Abbildung eines Objektes
DE102011116734B4 (de) Verfahren zum Ermitteln eines fokussierten Bildabstands eines optischen Sensors eines Koordinatenmessgeräts
EP3303990B1 (de) Beleuchtungssteuerung beim einsatz von optischen messgeräten
WO2023072889A1 (de) Vorrichtung zum prüfen eines justierzustands eines bildsensors und verfahren zum prüfen eines justierzustands eines bildsensors
DE102009012248A1 (de) Autofokusverfahren und Abbildungsvorrichtung zur Durchführung des Verfahrens
DE102007063318B3 (de) Verfahren zum Justieren einer Profilbearbeitungsmaschine
DE102022204539A1 (de) Verfahren zum Justieren einer Kamera
DE102008031412A1 (de) Vorrichtung und Verfahren zur Beobachtung mehrerer auf einer Linie angeordneter Messpunkte auf einer zu vermessenden Objektoberfläche
DE102014001151A1 (de) Messung der Positionen von Krümmungsmittelpunkten optischer Flächen eines mehrlinsigen optischen Systems
DE102019133738A1 (de) Vorrichtung, Verfahren und Verwendung der Vorrichtung zur Justage, Montage und/oder Prüfung eines elektrooptischen Systems
WO2017067903A1 (de) Verfahren zum ermitteln eines fokussierten bildabstands eines optischen sensors eines koordinatenmessgeräts
DE102017201529A1 (de) Verfahren und Vorrichtung zur Erfassung der Ist-Position eines Bauteils
EP3647851B1 (de) Mikroskopie-vorrichtung zur erstellung dreidimensionaler abbilder
DE102004001441B4 (de) Verfahren und Vorrichtung zur Justierung der beiden Objektive in einer 4Pi-Anordnung
EP3500886B1 (de) Wechselsystem für ein mikroskop

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22809079

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024522521

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2022809079

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022809079

Country of ref document: EP

Effective date: 20240529