WO2007054332A1 - Kamerachip, kamera und verfahren zur bildaufnahme - Google Patents
Kamerachip, kamera und verfahren zur bildaufnahme Download PDFInfo
- Publication number
- WO2007054332A1 WO2007054332A1 PCT/EP2006/010790 EP2006010790W WO2007054332A1 WO 2007054332 A1 WO2007054332 A1 WO 2007054332A1 EP 2006010790 W EP2006010790 W EP 2006010790W WO 2007054332 A1 WO2007054332 A1 WO 2007054332A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- test object
- camera chip
- lines
- chip
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 121
- 238000012360 testing method Methods 0.000 claims description 121
- 238000005286 illumination Methods 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000005305 interferometry Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 22
- 230000002123 temporal effect Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000010363 phase shift Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000004556 laser interferometry Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
Definitions
- the invention relates to a camera chip for image recording according to the preamble of claim 1, an electronic camera according to the preamble of claim 10, a method for optical shape detection according to the preamble of claim 11, a method for receiving a number of images according to the preamble of claim 13, a method for Recording a number of images with a plurality of cameras according to the preamble of claim 26 and a method for capturing a number of images according to the preamble of claim 33.
- the location of the test object point hereinafter referred to as the shape
- texture black and white
- three equations are usually required, based on the 3D shape detection, these are three camera images with the local brightness of the test object, the three camera images being recorded with three different lighting situations. This is not necessary in the case of the 2D methods since only the sum of all influences, that is to say of shape, texture and ambient light, is reproduced together in an image.
- the number of unknowns is reduced to two unknowns, as long as all ambient light can be shaded. Then only two images with two different lighting situations are necessary to capture the 3D shape of the test object.
- One such method is that of spatial phase shifting. It is limited in its application to interferometry and fringe projection.
- the different lighting situations are realized by an interference pattern, or a striped pattern having areas of different illuminance levels.
- three different lighting situations can automatically be detected at three adjacent pixels, from which the three unknowns can then be calculated.
- the method is not applicable to the shape from shading method, in particular not for the photometric stereo and the photometric deflectometry (see WO2004051186, DE102005013614), not even for Laufzeitverfah- ren, since here an object from different directions is illuminated at different times and Thus, no simultaneous recording of multiple lighting situations is possible.
- the exposure time of a camera is reduced to a minimum or selected a flash lighting.
- the cameras are equipped with a so-called electronic shutter for controlling the exposure time. All pixels of the camera chip are simultaneously photosensitized for a predetermined time. Typical exposure times range from a few milliseconds down to a few tens of microseconds. After the exposure takes place the Selection process of the camera chip. The exposure can be done much faster than the reading, which usually takes some tens of milliseconds. An image acquisition period is thus composed of exposure and readout of the camera chip.
- the duration of the image acquisition period is determined by the readout time, which takes much longer than the exposure.
- the long picture recording period reduces the frame rate, ie the number of pictures that can be taken per second.
- the refresh rate is also determined by the readout time.
- the exception is specially designed and expensive high-speed cameras, which can take, for example, a few thousand images per second.
- the optical 3D methods have a decisive disadvantage. Instead of an exposure time of a few tens of microseconds, a recording time of 80 ms already falls for a series of, for example, four images (for example 20 ms per image acquisition), more than a thousand times the 2D process.
- the object of the invention is therefore to provide an optical 3D sensor that allows a much shorter recording time.
- This sensor is called a "single-shot 3D sensor”.
- the object of the invention is also to provide a camera and method for optical shape detection, which requires only a very short exposure time.
- a camera chip, a camera and methods are provided, which are generally used for optical 3D Method are suitable and allow to record multiple images within a very short time.
- Figure 1a is a schematic diagram of a camera chip with a
- Figure 1 b shows an example of the time course of shutter signals
- Figure 2a to d a schematic diagram of photometric deflectometry with four shutters and four illuminations
- Figure 2e is a schematic diagram of the photometric stereo with four shutters and four lights
- Figure 3a to d a schematic diagram of the strip projection method with four shutters and four lights;
- Figure 3e is a schematic diagram of interferometry with four
- Figure 4a is a schematic representation of a partial area of a modified camera chip
- Figure 4b shows an exemplary time course of shutter signals
- Figure 5 shows an embodiment of a camera chip C
- Figure 6 is a diagram illustrating the timing of shutter and illumination signals
- Figure 7 shows a modified embodiment of a camera chip C
- FIGS. 8a to 8d show a schematic diagram of the photometric deflectometry during a linear movement of the test object with four illuminations and four camera overhead lines;
- Figure 8e is a schematic diagram of photometric de- spectrometry during a rotational movement of the
- Test object with four illuminations and four camera lines
- Figure 9a Upper Diagram: the time course of four active camera headlines as a function of the location on the test object surface; lower diagram: corresponding active illuminations;
- FIG. 9b shows a schematic illustration of a memory area for storing selected camera chip areas
- Figure 10a is a modified schematic representation for storing read out camera chip areas in a memory area
- Figure 10b is a modified diagram to illustrate the temporal and spatial sequence of the activation of camera headlines when recording different images, bottom diagram: corresponding active lights;
- Figure 10c is a schematic representation for storing read out camera chip areas in a memory area
- Figure 11a is a schematic diagram of the photometric stereo in a linear movement of the test object
- Figure 11b is a schematic diagram of the photometric stereo in a rotational movement of the test object
- Figure 12a to d a schematic diagram of the strip projection method in a linear motion
- Figure 12e is a schematic diagram of the fringe projection method during a rotational movement of the test object
- Figure 13a is a schematic diagram of the interferometric test for a linear movement of the test object
- Figure 13b is a schematic diagram of the interferometric test during a rotational movement of the test object
- FIG. 14a shows a schematic diagram of the white-light interferometric method during a linear movement of the test object
- FIG. 14b shows a schematic diagram of the white-light interferometric method during a rotational movement of the test object
- Figure 15 shows an arrangement of two cameras vertically above a plane in which a test object is arranged
- Figure 16a to d a modified schematic diagram of the photometric deflectometry during a rotary movement of the test object with four lights and a row
- Figure 16e is a schematic diagram of the photometric deflectometry in a high-speed line scan camera. New camera chip
- a specially executed camera chip C is used during image acquisition, for example in CCD or CMOS technology, by an electronic camera K.
- FIG. 1a shows a schematic section of a camera chip C with a plurality of pixels P.
- Individual pixels P are combined to form pixel groups P1, P2, P3 and P4.
- These pixel groups P1 to P4 are controlled via different electronic shutter signals S1, S2, S3, S4, that is to say connected in a photosensitive manner.
- each pixel group P1 to Pn is assigned exactly one shutter S1 to Sn.
- Individual pixels P are arranged at a distance ⁇ x and ⁇ y to each other. This distance is preferably chosen to be small in order to achieve a blanket arrangement of the pixels P, so that the yield of the camera's footprint is large.
- the readout process determines the image period, ie the sum of exposure time and readout time, and thus the image refresh rate, ie the number of recorded images per second, multiple images can be recorded in this way within a very short time, without waiting for a comparatively lengthy readout process after each exposure process must become.
- Figure 1b shows a time course of the various shutter signals, t indicating the time axis.
- the shutter signals are represented as rectangular pulses over a specific time interval .DELTA.t.
- the light sources referred to as lights are to be synchronized with the shutter signals, such.
- the shutter S1 is activated for 20 microseconds, then the shutter S2, S3 and S4 for every 20 microseconds. After only 80 microseconds are then in four adjacent pixels before four at different times and with different lighting situations recorded images, which are obtained according to a known 3D method, ie, for example, shape from shading, and then can be read from the camera chip.
- Photometric deflectometry is a method of 3D optical measurement. It is a combination of photometric amplification and deflectometry. The process is suitable for reflective, glossy and matt surfaces. For this purpose, a suitably shaped scattering body, for. B. a hemisphere, illuminated from different directions. This scattered body in turn illuminates the test object. One camera image is taken for each illumination direction. The evaluation of the different images is similar to the photometric stereo method. The process is described in detail in WO2004051186.
- FIG. 2a to 2d a side view of the structure is shown in each case.
- a camera K is aligned through an opening in the scattering body S perpendicular to the test object G.
- the field of view of the camera K aligned with the test object G is indicated by two lines L1 and L2.
- the circles designated B1 to B4 represent the illuminations.
- the illuminations B1 and B2 are, as can not be seen in the side view, offset in the image plane. The bright illumination is always active.
- FIG. 2a to 2d In the lower part of Figures 2a to 2d is a plan view of the structure can be seen in each case.
- the camera K is not shown in this view to allow the view of the subject G to be inspected.
- the bright circle is the currently active light.
- On the test object G is a pixel pattern section A of Camera chips C have been projected to illustrate the synchronization of the individual lights B1 to B4 with the camera chip C.
- the bright checks represent individual pixels P of a pixel group Pn, which are activated by a shutter Sn, that is, are switched to be light-sensitive. Also visible is the lower edge of the scattering body S.
- Figure 2e shows an application for photometric stereo. As can be seen from this figure, no scattering body is used in this method, and the illuminations B1 to B4 are arranged at a greater distance from the test object. Otherwise, reference is made to the description of the preceding figures. Again, the bright lights are shown as circles. For the sake of simplicity, only the active illumination B1 of the first cycle is shown, the other illuminations are connected in the same way.
- Figures 3a to 3d show the application to the fringe projection method with four different lighting situations produced by a fringe projector which has a stripe projection. projected on the test object G projected.
- a side view of the structure is shown.
- a camera K is aligned perpendicular to a test object G, and the field of view of the camera K is indicated by the lines L1 and L2.
- the strip projector is indicated.
- the projection field of the strip projector is indicated by the lines L3 and L4.
- the strip projector is arranged at an angle not equal to 90 ° with respect to the test object G.
- FIG. 3 a shows a strip pattern in the phase position 0 °, which is projected onto a test object G.
- the pixel group P1 and the shutter S1 are active. With a phase shift of 90 °, the pixel group P2 is switched photosensitive via the shutter S2, as shown in Figure 3b. For phase shifts of 180 ° and 270 °, the same applies to the pixel groups P3 and P4, as shown in Figures 3c and 3d. Each pixel group thus absorbs a different lighting situation due to the shift of the stripe pattern.
- Figure 3e shows the application of the method to laser interferometry.
- the arrangement comprises a laser L, a beam splitter T (semitransparent mirror), a fixed mirror P, a test object G and a camera K, as well as two lenses 11 and 12.
- the beam emitted by the laser L of a certain wavelength on the one hand by the Beam splitter T on the surface of the test object G and on the other hand on the mirror P deflected. From the surface of the test object G, the beam is reflected and hits the beam splitter again. The incident on the mirror P beam is also reflected back to the beam splitter. In the beam splitter, the two beams meet again and overlap.
- the camera K is oriented so that the overlay Gert light hits them.
- the light travels to the test object G and the fixed mirror P, results in a difference of the light paths of O 1 1, 2, 3, 4, ... times the wavelength of the laser, in the superposition ( Interference) in the beam splitter brightness (constructive interference) and at a difference of 0.5, 1.5, 2.5, ... times the wavelength of the laser darkness (destructive interference). From the distribution of brightness and darkness (Intfernfernzstsammlung) one can conclude on the shape of the test object G.
- a shift in the x-direction denotes a horizontal shift and a shift in the y-direction a vertical shift with respect to the image plane.
- Figure 4a shows a schematic section of a camera chip C with four pixel groups P1 to P4.
- gray areas are visible, these are for illustrative purposes only and have no technical effect.
- One pixel P of each pixel group Pn is located in such a gray-shaded area.
- the pixels P1 to P4 are also provided in the gray area on the top left.
- bottom left and bottom right are provided pixels P1 to P4.
- a first pixel group comprises all pixels P1 of all gray areas, a second pixel group all pixels P2 of all gray areas and so on. All pixels P of a pixel group P1 to P4 are simultaneously driven via a shutter S1 to S4.
- the location of the four different pixel groups P1 through P4 varies slightly from pixel group to pixel group.
- pixel group P2 is spaced by one pixel pitch ⁇ x in the x direction from pixel group P1. postponed.
- the pixel group P3 is shifted by one pixel pitch ⁇ y in the y direction and pixel group P4 by one pixel pitch ⁇ x in x and by one pixel pitch ⁇ y in the y direction relative to the pixel group P1.
- the reference point is the midpoint M of adjacent pixels P, that is to say pixels of a gray-shaded area.
- another reference point can be selected, for.
- values at reference points for example at the reference point M, are calculated, as well as for all further pixel groups P2 to P4.
- the interpolation is also possible for a different number of pixel groups. For reasons of time, this calculation can advantageously be carried out on a camera hardware designed for this purpose, alternatively on a connected computer.
- Figure 4b shows the time course of four shutters S1 to S4.
- the shutter signals which switch the individual pixel groups Pn photosensitive, are shown as rectangular pulses over a certain time interval .DELTA.t.
- the time axis is marked with t.
- ⁇ t 2 microseconds
- this process is repeated ten times until a total exposure time of 20 microseconds has been reached.
- the temporal offset of the exposures of successive pixel groups is only 2 microseconds.
- the choice of times and the number of repetitions is lied an example and can be varied almost arbitrarily.
- sinusoidal or differently modulated shutter signals can also be used.
- the advantage of lower exposure times is that the test object has moved less far between the exposure of the individual pixel groups Pn. Although the total exposure time of each pixel group Pn is the same, the local smear between the pixel groups Pn by the moving subject G is lower.
- FIG. 5 shows a schematic section of a camera chip C with a configuration of the simplest case, namely the use of only two pixel groups P1 and P2. In each case one pixel P of a pixel group P1 is in turn adjacent to a pixel P of the other pixel group P2, as indicated in FIG. 5 again by the gray-shaded regions.
- the connecting lines make it clear that each pixel group P1 and P2 is driven by two different shutters S1 and S2. Due to the similarity to camera chips in interlaced mode (interlaced), such an interlace mode camera chip could be modified by small changes according to the invention.
- the difference to the interlaced mode is that there even and odd lines are exposed with a time difference, which corresponds to the refresh rate or half thereof.
- a time difference which corresponds to the refresh rate or half thereof.
- the shutter which, for example, drives the odd lines only becomes active when the recorded image of the even lines has been read out.
- the shutter which activates the even lines becomes active only when the image of the odd lines has been read out.
- the camera chip C must therefore be modified so that the shutter time is not the full image period is, so waiting for exposure and readout, but only the exposure time, and immediately after the exposure of the even or odd lines, the corresponding other shutter switches the other lines photosensitive.
- the time difference is thus only the duration of the shutter time, which can easily be a factor of a thousand shorter than the entire image period with exposure and readout.
- FIG. 6 shows an exemplary profile of the shutter signals S1 and S2, which switch the pixel groups P1 and P2 photosensitive, and the corresponding activation of the illuminations B1 and B2 over the time t.
- the shutter signals and the active lights are shown as rectangular pulses.
- the scale of the time axis t does not correspond to the scale of the other timeline images.
- the illumination B1 is activated for a short time just before the end of the shutter time of the pixel group P1. As soon as the exposure of the pixel group P2 begins, the illumination B1 is deactivated and illumination B2 is also activated for a short time.
- the time in which the illuminations are activated can preferably be much shorter than corresponds to the image period, ie the sum of illumination time and readout time, for example from a few tens of microseconds to a few milliseconds.
- the different lighting situations B1 and B2 are taken directly one after the other.
- the pixel group P1 takes the test object G under the lighting situation B1 and the pixel group P2 takes the test object G under the lighting situation B2 on.
- the camera chip C can be read out.
- a larger number of pixel groups P1 to Pn may also be formed in a new camera chip design.
- Figure 7 shows a section of a camera chip C with 3 x 3 pixel groups P1 to P9. Again, adjacent pixels P of different pixel groups P1 to P9 are grayed out. The leads of the shutter S1 to S9 was not drawn for reasons of clarity.
- each line of the camera chip C is assigned exactly one shutter signal and the connection layout of the camera chip C is simple.
- Such an arrangement for 2 x 1 pixel groups P1 and P2 is shown in FIG. For 3 x 1, 4 x 1 etc. pixel groups, the arrangement should be extended accordingly.
- Another alternative is a rectangular arrangement of the pixel groups Pn, for example 2 ⁇ 3, 3 ⁇ 4 or other aspect ratios. Also conceivable is the arrangement of eight pixel groups P1 to P8 in a 3 x 3 grid, wherein a grid point, for example, the middle, remains unused, there could then be arranged, for example, a reference point to which the surrounding pixels P individual pixel groups P1 to P8 are interpolated. In general, further asymmetric arrangements are conceivable.
- the object to be tested is first illuminated with a first illumination B1 of a total of n illuminations, the entire camera chip C is exposed using the shutter S1 and only a portion of the camera chip C read, in particular a certain number of lines Z1 to Zn or columns of the camera chip C or parts thereof.
- a certain number of lines Z1 to Zn or columns of the camera chip C or parts thereof are spoken, and the same applies accordingly to columns and parts of rows or columns.
- One or more lines are read, preferably as many as images with different illumination are to be included or a multiple thereof.
- one or more illuminations may be dark and / or one or more illuminations may be identical.
- Figures 8a to 8d show in the upper part a side view of a structure for the photometric deflectometry.
- the same parts are provided with the same reference numerals, so that reference is made to the previous figures.
- the bright circles represent the activated illuminations
- the dark circles represent the inactive illuminations.
- the test object G with a feature X which moves synchronously with the test object G in the direction of the arrow 1.
- the four areas L5 to L8 mark the field of view of the camera K on the test object G, in each case one area L5 to L8 stands for a row Z1 to Z4 of the camera chip C.
- FIG. 8a shows a plan view of the structure.
- the camera K is not shown, only a pixel grid section A of the camera chip C has been partially projected onto the test object G in order to illustrate how the camera chip C is synchronized with the illuminations B1 to B4.
- the illumination B1 is activated and the lines Z1 to Z4 are exposed and read out.
- An exemplarily selected feature X of the test object G is at this time of the movement in the region of the line Z4.
- a change to a second illumination B2 takes place, and again a subarea of the camera chip C is read out, preferably the same area which has recorded the preceding illumination situation with B1.
- the test object G and with it the characteristic X have moved in the meantime by a distance.
- the feature X is now, for example, in the region of the line Z3, as shown in Figure 8b.
- test object G is in motion in relation to the camera, so that gradually the surface of the object or parts thereof are swept over.
- This movement can be carried out in different forms, for example a straight-line movement with constant speed and direction.
- a rotation around the symmetry axis at a constant rotational speed is recommended.
- test object G Another variant, not shown here, is a movement of the test object G, in which, in addition to a rotation, a simultaneous feed of the test object G along the axis of rotation se takes place.
- a point on the surface of the test object G thus describes a helical path.
- the lines of the camera chip C must be aligned so that they are perpendicular to this helix.
- Advantage of this movement is that even long cylindrical components can be completely detected within several revolutions. It is also possible to arrange several individual test pieces next to one another and thus to test them continuously.
- FIGS. 8a to 8d show an example of the construction for the photometric deflectometry method, but here, in contrast to FIGS. 8a to 8d, a test object G rotating in the direction of the arrow 1 is depicted.
- the cones L5 to L8 indicate the field of view of the camera, or the recording locations of the individual lines Z1 to Z4 of the camera chip C on the test object G.
- the test object G moves from recording to recording by a certain distance or a certain angle of rotation on.
- the speed, rotational speed, the recording time and / or readout time point are advantageously chosen such that the test object G moves from camera to camera K by a pixel pitch or an integral multiple thereof.
- This can be achieved, for example, by an encoder coupled to the movement, in particular a rotary encoder, which specifies the recording time or readout time accordingly so that tolerances of the motor have no negative effects.
- the location of the test object G 1, which is detected by lines Z1 to Z4 (vertical axis), is shown as a function of time (right axis).
- FIG. 9a shows which lights B1 to B4 are active. The lights are activated one after the other, the lines Z1 to Z4 are simultaneously switched to be light-sensitive. After each exposure process, lines Z1 to Z4 are read out.
- Lines Z1 to Zn gradually take over different locations with respect to the test object G over time.
- the read-out image areas here those of the lines Z1 to Z4, are transmitted to a computing unit R and stored there in a memory.
- the filing takes place according to a specific pattern.
- Figure 9b shows a schematic representation of such a memory pattern, which is arranged in a highly abstracted storage area.
- the individual boxes Z1 to Z4 represent the measured values which the lines Z1 to Z4 of the camera chip C have picked up from the respective surface section of the test object G with a specific lighting situation.
- the sequence of measured value storage depends on the lighting. First, therefore, the lines Z1 to Z4 are illuminated with B1 and stored in memory, then the lines Z1 to Z4 are illuminated with the illumination B2 and one line down staggered in memory arranged. This process is repeated for all four lights. Thereafter, the storage process starts again after the first storage. In each case, a gray-backed storage area results in an image that was taken with the illumination B1, B2, B3 or B4.
- the recorded surface of the test object G in this case runs in the direction of the arrow O.
- the respective illumination B1 to B4 is indicated under each column, with which the test object surface was illuminated.
- the lines Z1 to Z4 are stored in the memory such that the same feature X of the surface of the test object G is arranged in a horizontal row. This results in so-called corresponding lines that correspond to the same location of the test object surface with different lighting situations.
- An example of corresponding lines for illumination B1 to B4 is indicated by K in the figure.
- the line Z4 under illumination B1 represents the same area of the test object G, for example the feature X, as Z3 under illumination B2, Z2 under B3 and Z1 under B4.
- the lines of the camera are stored linearly in the memory, one after the other, one after the other, and corresponding lines are assigned on the basis of their distance in the memory. All of these different arrangements in memory are considered equivalent to the mapped memory arrangement as long as corresponding memory areas can be specified. This also applies to the following figures, which represent the memory.
- the offset may be a multiple of the pixel pitch, for example, twice. In this case, eight lines should be read out.
- the arrangement in the memory of the arithmetic unit is then preferably selected as shown in Figure 10a.
- Figure 10a There is also shown a schematic representation of a memory pattern.
- the individual boxes Z1 to Z8 represent the information which the lines Z1 to Z8 of the camera chip C have picked up from the respective surface detail of the test object G with a specific lighting situation.
- the recorded surface of the test object G extends in the direction of the arrow O.
- the readout times achieved with this method are typically lower by a factor of 100 to 1000 than during readout of the entire matrix camera chip in that only partial areas of the matrix camera chip are read out.
- Figure 10b shows the location on the surface of the test object G (vertical axis) detected by two lines Z1 and Z2 of the camera chip C, as a function of time (right axis).
- the lower part of Figure 10b shows rectangle pulses, the lights B1 and B2, which are activated alternately.
- the test object moves, as can be seen in the upper part of Figure 10b, to a line spacing of the camera chip C on, the lines Z1 and Z2 are switched re-exposed and the second illumination B2 activated.
- Figure 10c shows the corresponding memory pattern in a highly schematic memory when two lines Z1 and Z2 are used. Again, the information of the surface of the test object G is shown in boxes Z1 and Z2. The outer surface of the test object G again moves in the direction of the arrow O. A corresponding line K makes it clear that in a horizontal row identical surface areas of the test object G, which were recorded with different illuminations B1 and B2, are arranged next to one another.
- FIGS. 11a to 14b show an application of the method for photometric sches stereo and a linear movement of the test object G. This moves in the direction of arrow 1.
- the photometric deflectometry here dispenses with the scattering body, and the lights B1 to B4 are arranged at a greater distance to the test object G.
- the field of view of the camera K is indicated by the areas L5 to L8, which represent individual lines of the camera chip C.
- the same parts are provided with the same reference numerals, so that reference is made to the preceding figures.
- Figure 11b shows the method applied to the photometric stereo in combination with a rotation of the test object G. This rotates about the rotation axis 3 in the direction of arrow 1.
- FIG. 12a a side view of the structure can be seen.
- the field of view of the camera K is characterized by the areas L5 to L8, while the individual areas represent the fields of view of the lines Z1 to Z4 of the camera chip C.
- a strip projector SP illuminates a region of the test object G with a stripe pattern Lines L3 and L4 marked.
- the strip projector preferably lights up with a sinusoidal modulation of the irradiance as a function of the location G.
- the test object G preferably moves linearly and uniformly in the direction of the arrow 1.
- FIG. 12a is a plan view of the structure to see. In this case, the test object G, which is reproduced on this projected fringe pattern and a projection of the field of view of the lines Z1 to Z4 of the camera chip C.
- FIG. 12a shows how a feature X is first in the region of the line Z4, then in the region of the line Z3 according to FIG. 12b, then in the region of the line Z2 and in the region of the line Z1 as in FIGS. 12c and 12d - is.
- the fringe pattern may be varied from time to time in phase and fringe spacing (this corresponds to the different illuminations B1 to Bn), but this is advantageously not necessary. Even the movement of the test object ensures that a feature X comes to lie at different times in different areas of the stripe pattern (in different phase positions of the stripe pattern).
- the characteristic X is recorded in line Z4 with the phase position 0 ° (B1), in Z3 with the phase position 90 ° (B2), in Z2 with 180 ° (B3) and Z1 with 270 ° (B4).
- the movement automatically generates a suitable phase shift, which always has to be laboriously generated in other methods.
- the particular advantage of the method according to the invention is therefore that an extremely simple and inexpensive projector with a static, unchangeable stripe pattern and high stripe contrast can be used.
- the temporal succession of the n illuminations is replaced by the spatial juxtaposition of n illuminations.
- Each phase of the illumination for example 0 °, 90 °, 180 °, 270 °, which occur spatially next to one another, corresponds to illumination Bn.
- These projectors can each project a single pattern and are activated one after the other.
- n lines with a respective spacing of more than one pixel can also be read out.
- Another advantage of the method according to the invention is that an extremely short time between the image recording in different phase angles and an impairment of the measurement can be suppressed by vibration. As a result, since the image recording duration is very short, the oscillation of the arrangement does not have a negative effect on the image recording, so that no vibration stabilization of the measurement setup is necessary.
- 12e shows the method according to the invention for use in fringe projection and a rotational movement of the test object G in the direction of the arrow 1 about the rotation axis 3.
- 13a shows the method according to the invention applied to the per se known method of interferometric testing, which is particularly suitable for optically smooth surfaces, since very fine structures can be detected whose roughness is smaller than the wavelengths of visible light, ie less than approximately 0, 5 ⁇ m.
- a temporally coherent light source such as a laser L
- the field of view of a camera K is aligned with the test object G.
- the areas L5 to L8 represent the reception areas of the lines Z1 to Z4 of the camera chip C.
- a feature X is located in the area of the line Z4.
- the test object moves in the direction of arrow 1.
- the beam emitted by the laser L of a specific wavelength is deflected on the one hand by a beam splitter T on the surface of the test object G and on the other hand on a mirror P.
- the beam is reflected on the surface of the test object G and impinges again on the beam splitter T.
- the beam incident on the mirror P is likewise reflected back to the beam splitter T.
- the two beams meet again and overlap.
- the camera K is oriented so that the superimposed light hits it. Due to the different lengths of travel, the light travels to the test object G and the fixed mirror P, results in a difference of the light paths of 0, 1, 2, 3, 4, ... times the wavelength of the laser, in the superposition ( Interference) in the beam splitter T brightness (constructive interference) and at a difference of 0.5, 1.5, 2.5, ... times the wavelength of the laser darkness (destructive interference). From the distribution of brightness and darkness (Intere- fernzstsammlung) one can close on the 3D shape of the test object G.
- FIG. 13a shows a plan view of the test object G as well as projections of the lines Z1 to Z4 of the camera chip C and of the generated interference pattern. Also recognizable is the feature X of the test article surface, which is here in a region of the line Z1.
- a Michelson interferometer As an interferometer type, as described above, a Michelson interferometer is exemplified, but other types such as Mach-Zehnder and many others are possible as well.
- the mechanism in the formation of the interference fringes is completely different than in the fringe projection, the method according to the invention can be transmitted almost 1: 1 from fringe projection to interferometry.
- the fringe period for example, by tilting the mirror P or the plane of the test object G
- it can be achieved that phase-shifted intensity values are detected in the n lines, for n 4 in the line Z4 0 °, Z3 90 °, Z2 180 ° and Z1 270 °.
- a static interferometer can be used without means for phase shifting.
- the temporal succession of the n illuminations is replaced by the spatial juxtaposition of n illuminations.
- Each phase of the illumination for example 0 °, 90 °, 180 °, 270 °, which occur spatially next to each other, corresponds to a lighting Bn.
- the sensitivity to vibration of the measuring apparatus or the interferometer is significantly reduced. Because the image If it happens so quickly, vibrations that can be triggered by the effects of the environment do not have any negative effects on image acquisition.
- different stripe spacings can be realized, for example by one or more further light sources with different wavelengths (multi-wavelength interferometry). These light sources can be switched in a short time interval, in particular if they are semiconductor lasers.
- Figure 13b shows an application for the rotational movement of a test object G in the direction of arrow 1 about a rotation axis 3 and the detection of substantially rotationally symmetric test objects G, which were not or only very difficult to access for an interferometric test.
- the same parts are provided with the same reference numerals, so that reference is made to the preceding figures.
- FIG. 14 a shows the method according to the invention for the known method of white-light interferometry, which is suitable for optically smooth but also optically rough surfaces, that is to say surfaces whose roughness is greater than approximately 0.5 ⁇ m.
- a light source LQ In the upper part of Figure 14a, a light source LQ, a camera K, a beam splitter T and a mirror P is shown.
- the field of view of the camera K is aligned with the test object G, which moves in the direction of arrow 1.
- the light source LQ may include, for example, LEDs, incandescent lamps or the like.
- To the interference Apparently contribute several wavelengths.
- Maximum brightness results when both light paths, ie from the beam splitter T to the mirror P and back, and from the steel divider T to the test object G and back, are the same length. In general, it is necessary to move either the mirror P or the test object G in very many small steps (for example, always by a quarter wavelength), in order to adjust both light paths. The brightness variations are then detected by the camera K.
- the stripe period is advantageously also chosen so that, for example, four lines Z1 to Z4 correspond to one stripe period, other numbers are possible. Since the stripe contrast in white light interferometry increases or decreases from one stripe to the next, it makes sense to record more than one stripe and, for example, read out 100 ⁇ 4 lines. The maximum of the stripe contrast indicates the height at which a feature is above the movement plane. Advantages of the method according to the invention are also here that no device for phase shifting is required and the structure can therefore be realized simply and inexpensively and influences of vibrations are suppressed by the rapid image acquisition.
- Figure 14b shows a construction in side view and in plan view, in which a rotationally symmetric test object G rotates in the direction of arrow 1 about a rotation axis 3.
- a matrix camera instead of a matrix camera, it is also possible to use a special camera K whose camera chip C comprises only a few lines.
- cameras and chips are of interest, for example, include two, three, four to about 100 lines. Such cameras represent the transition between line scan cameras and matrix cameras.
- the test object can move from recording to recording by the line spacing, the inventive method is then carried out as described.
- the test object is only moved by one pixel distance from recording to recording.
- n illuminations B1 to Bn are controlled such that a first illumination B1 occurs simultaneously with the exposure of the camera K1 with the shutter S1, the illumination B2 for exposure of the camera K2 with the shutters S2 to for lighting Bn the camera Kn with the shutter Sn.
- the lighting is activated shorter than it corresponds to the shutter time.
- disparity usually the measurement signal is obtained, namely the spatial depth.
- the disparity is minimized as much as possible and kept constant. This is achieved by placing the cameras as close together as possible.
- Figure 15 describes a setup with two cameras K1 and K2.
- the two cameras are aligned with their optical axis parallel to each other.
- the test object G is in a Plane positioned perpendicular to the optical axes of the cameras K1 and K2. It is particularly advantageous if the test object G is essentially flat and is always guided in this plane by means of a mechanical device, for example.
- the disparity is then in all areas of the images only a constant offset by a certain number of pixel distances.
- the distance of the cameras is adjusted exactly so that the disparity is an integer multiple of the pixel spacing. This makes it possible to obtain corresponding pixels without interpolation.
- the distance can be chosen freely or the orientation of the camera axes can be determined freely. In this case, however, an interpolation is necessary in order to obtain corresponding pixels, ie pixels which take up the same location of the test object surface G.
- the cameras can be arranged in a row or flat. For example, four cameras can be mounted in a square 2 x 2 arrangement, which minimizes the distances.
- the special case for a zero disparity can be achieved if two cameras are aligned with the test object G in exactly the same way over a beam splitter. Procedure for one camera and several turns
- test object G rotates, for example, when the lateral surface of a rotationally symmetric test object is to be detected, a further alternative is possible:
- the test object G is scanned during the rotational movement with a line Z1 of a camera chip C, while a first Lighting B1 is active.
- Figures 16a to 16d show an application of the method according to the invention with the photometric Deflektometrie example with four lights B1 to B4.
- the same parts are given the same reference numbers, so that reference is made to the previous figures.
- FIG. 16a to 16d a side view of the structure of the photometric deflectometry is shown.
- the area L9 in the upper part of the figures 16a to 16d denotes the field of view of the line Z1 directed to the test object G.
- the test object G rotates in the direction of the arrow 1 about the axis of rotation 3.
- the bright circle indicates the active illumination.
- FIGS. 16a to 16d shows a plan view of the structure without the camera K.
- a surface section of the test object G can be seen, to which a schematic is shown Line Z1 of the camera chip C of the camera K is projected so that the synchronization between the lights B1 to B4 and the line Z1 can be displayed.
- the illumination B2 is activated instead of the illumination B1.
- the next illumination B3 and after another revolution the illumination B4 is changed, as shown in Figures 16c and 16d.
- the desired number of lighting situations can vary. It is important that with each revolution the individual lines are recorded exactly congruent with the previous revolutions. This can be achieved, for example, by means of a rotary encoder.
- a line scan camera but in particular a high-speed line scan camera, is used for the method according to the invention.
- a line scan camera but in particular a high-speed line scan camera
- Such a per se known high-sensitivity line scan camera pursues a feature X of the test object G over several lines by charge transfer and thus achieves a summation effect in the exposure.
- This technique is known as TDI technology (Time Delay Integration).
- Figure 16e shows the method according to the invention together with such a camera.
- a line pattern of the camera chip C of the camera K is projected onto the test object G.
- the accumulation of cargo from right to left is indicated by a growing gray color.
- a particular advantage of this embodiment of the invention is that the usually small amount of light in line camera applications can typically be increased up to a factor of 100 and at the same time reduces the exposure time and a faster movement of the test object is made possible. This achieves a drastic reduction of the detection or test time and of the acquisition or test costs.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Immunology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pathology (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Die Erfindung betrifft einen Kamerachip (C) zur Bildaufnahme. Er zeichnet sich dadurch aus, dass Pixelgruppen (P1 , P2, ...) mit Hilfe von Shuttersignalen (S1 , S2, ...) zu verschiedenen Zeiten belichtbar sind.
Description
Kamerachip. Kamera und Verfahren zur Bildaufnahme
Beschreibung
Die Erfindung betrifft einen Kamerachip zur Bildaufnahme gemäß Oberbegriff des Anspruchs 1, eine elektronische Kamera gemäß Oberbegriff des Anspruchs 10, ein Verfahren zur optischen Formerfassung gemäß Oberbegriff des Anspruchs 11 , ein Verfahren zur Aufnahme einer Anzahl von Bildern gemäß Oberbegriff des Anspruchs 13, ein Verfahren zur Aufnahme einer Anzahl von Bildern mit mehreren Kameras gemäß Oberbegriff des Anspruchs 26 sowie ein Verfahren zur Aufnahme einer Anzahl von Bildern gemäß Oberbegriff des Anspruchs 33.
Problemstellung
Heute gibt es bereits eine Vielzahl von Messprinzipien, mit denen auf optischem Weg die dreidimensionale Form von Gegenständen er- fasst werden kann. Zu nennen sind die Prinzipien der Triangulation (Laserlichtschnittverfahren, Streifenprojektion, Stereoverfahren, Pho- togrammetrie, Shape from Shading), interferometrische Verfahren (Laserinterferometrie, Weißlichtinterferometrie, holografische Verfahren) und Laufzeitverfahren (hochfrequente Modulation der Lichtquel- Ie). All diesen Verfahren ist gemeinsam, dass mehrere Kamerabilder aufgenommen werden müssen, um daraus ein einziges 3D-BiId zu erzeugen. Bei den meisten dieser Verfahren können diese Bilder nicht gleichzeitig aufgenommen werden, sondern müssen nacheinander aufgenommen werden. Im Gegensatz dazu werden gewöhnli- che fotografische 2D-Aufnahmen mit nur einem Bild erfasst. Dies
trifft insbesondere auch auf die Bilderfassung in der industriellen Bildverarbeitung zu.
Die prinzipielle Schwierigkeit liegt darin, dass bei Einsatz von optischen 3D-Sensoren von Natur aus mehrere Kameraaufnahmen er- forderlich sind. Dies liegt daran, dass jeder 3D-Sensor drei Unbekannte für jeden Punkt des zu vermessenden Gegenstandes zu bestimmen hat:
Den Ort des Prüfgegenstandspunktes, im Folgenden als Form bezeichnet,
- die lokale Reflektivität des Prüfgegenstands, die im Folgenden als Textur bezeichnet wird (Schwarz/Weiß), und
die lokale Helligkeit des Umgebungslichtes an jedem Punkt.
Zur Bestimmung von drei Unbekannten sind in der Regel auch drei Gleichungen nötig, bezogen auf die 3D-Formerfassung sind das drei Kamerabilder mit der lokalen Helligkeit des Prüfgegenstands, wobei die drei Kamerabilder mit drei verschiedenen Beleuchtungssituationen aufgenommen werden. Bei den 2D-Verfahren ist dies nicht nötig, da hier immer nur die Summe aller Einflüsse, also von Form, Textur und Umgebungslicht gemeinsam in einem Bild wiedergege- ben wird.
Die Anzahl der Unbekannten reduziert sich auf zwei Unbekannte, sofern sämtliches Umgebungslicht abgeschattet werden kann. Dann sind nur zwei Bilder mit zwei verschiedenen Beleuchtungssituationen notwendig, um die 3D-Gestalt des Prüfgegenstandes zu erfassen.
Es gibt Ansätze, auch bei 3D-Verfahren alle notwendigen Informationen mit einem einzigen Kamerabild zu gewinnen. Ein solches Verfahren ist das des räumlichen Phasenschiebens. Es ist in seiner Anwendung beschränkt auf die Interferometrie und die Streifenprojekti- on. Bei diesen Verfahren werden die unterschiedlichen Beleuchtungssituationen durch ein Interferenzmuster, beziehungsweise ein Streifenmuster realisiert, die Bereiche unterschiedlicher Beleuchtungsstärken aufweisen. An drei benachbarten Bildpunkten können also automatisch drei unterschiedliche Beleuchtungssituationen er- fasst werden, hieraus können die drei Unbekannten dann berechnet werden. Das Verfahren ist allerdings nicht anwendbar für die Shape from Shading Verfahren, insbesondere nicht für das photometrische Stereo und die photometrische Deflektometrie (siehe WO2004051186, DE102005013614), auch nicht für Laufzeitverfah- ren, da hier ein Gegenstand aus unterschiedlichen Richtungen zu unterschiedlichen Zeiten beleuchtet wird und somit keine gleichzeitige Aufnahme mehrer Beleuchtungssituationen möglich ist.
Für viele Anwendungen, insbesondere für Anwendungen in der industriellen Bildverarbeitung, ist es aber wichtig, dass alle Bildinfor- mationen gleichzeitig oder nahezu gleichzeitig aufgenommen werden. Nur so können auch Prüfgegenstände in Bewegung ohne Be- wegungsunschärfe vermessen und geprüft werden. Hierzu wird die Belichtungszeit einer Kamera auf ein Minimum reduziert oder eine Blitzbeleuchtung gewählt. Die Kameras sind mit einem so genannten elektronischen Shutter zur Steuerung der Belichtungszeit ausgerüstet. Alle Bildpunkte (Pixel) des Kamerachips werden gleichzeitig für eine vorgegebene Zeit fotoempfindlich geschaltet. Typische Belichtungszeiten reichen von einigen Millisekunden bis hinunter zu einigen Zig Mikrosekunden. Im Anschluss an die Belichtung erfolgt der
Ausleseprozess des Kamerachips. Die Belichtung kann dabei weit schneller erfolgen als das Auslesen , welches üblicherweise einige Zig Millisekunden dauert. Eine Bildaufnahmeperiode setzt sich also zusammen aus Belichtung und Auslesen des Kamerachips. Die Dauer der Bildaufnahmeperiode wird dabei bestimmt durch die Auslesezeit, die wesentlich länger dauert als die Belichtung. Durch die lange Bildaufnahmeperiode reduziert sich die Bildwiederholfrequenz, d.h. die Anzahl der Bilder, die pro Sekunde aufgenommen werden können. Die Bildwiederholfrequenz wird also ebenfalls durch die Auslesezeit bestimmt. Die Ausnahme bilden speziell ausgelegte und teure Hochgeschwindigkeitskameras, die beispielsweise einige Tausend Bilder pro Sekunde aufnehmen können. Damit weisen die optischen 3D-Verfahren einen entscheidenden Nachteil auf. Anstatt einer Belichtungszeit von wenigen Zig Mikrosekunden fällt bereits für eine Serie von beispielsweise vier Bildern (beispielsweise jeweils 20 ms pro Bildaufnahme) eine Aufnahmezeit von 80 ms an, mehr als das Tausendfache gegenüber den 2D-Verfahren.
Aufgabe der Erfindung ist es daher, einen optischen 3D-Sensor zu schaffen, der eine wesentlich kürzere Aufnahmezeit erlaubt. Dieser Sensor wird als "Single Shot 3D-Sensor" bezeichnet.
Aufgabe der Erfindung ist es außerdem, eine Kamera und Verfahren zur optischen Formerfassung zu schaffen, die/das nur einer sehr kurzen Belichtungszeit bedarf.
Lösung
Zur Lösung der genannten Aufgaben werden ein Kamerachip, eine Kamera und Verfahren geschaffen, die allgemein für optische 3D-
Verfahren geeignet sind und es ermöglichen, innerhalb kürzester Zeit mehrere Bilder aufzunehmen .
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Es zeigen:
Abbildung 1a eine Prinzipskizze eines Kamerachips mit einer
Anzahl von Pixelgruppen;
Abbildung 1 b ein beispielhafter zeitlicher Verlauf von Shutter- signalen;
Abbildung 2a bis d eine Prinzipskizze der photometrischen Deflek- tometrie mit vier Shuttern und vier Beleuchtungen;
Abbildung 2e eine Prinzipskizze des photometrischen Stereo mit vier Shuttern und vier Beleuchtungen;
Abbildung 3a bis d eine Prinzipskizze des Streifenprojektionsver- fahrens mit vier Shuttern und vier Beleuchtungen;
Abbildung 3e eine Prinzipskizze der Interferometrie mit vier
Shuttern und vier Beleuchtungen;
Abbildung 4a eine schematische Darstellung eines Teilbe- reichs eines abgewandelten Kamerachips;
Abbildung 4b ein beispielhafter zeitlicher Verlauf von Shutter- signalen;
Abbildung 5 ein Ausführungsbeispiel eines Kamerachips C;
Abbildung 6 ein Diagramm zur Darstellung der zeitlichen Steuerung von Shutter- und Beleuchtungssignalen;
Abbildung 7 ein abgewandeltes Ausführungsbeispiel eines Kamerachips C;
Abbildung 8a bis d eine Prinzipskizze der photometrischen Deflek- tometrie bei einer linearen Bewegung des Prüfgegenstands mit vier Beleuchtungen und vier Kamerachipzeilen;
Abbildung 8e eine Prinzipskizze der photometrischen De- flektrometrie bei einer Drehbewegung des
Prüfgegenstands mit vier Beleuchtungen und vier Kamerachipzeilen;
Abbildung 9a oberes Diagramm: den zeitlichen Verlauf von vier aktiven Kamerachipzeilen als Funktion des Orts auf der Prüfgegenstandsoberfläche; unteres Diagramm: korrespondierende aktive Beleuchtungen;
Abbildung 9b eine schematische Darstellung eines Speicherbereichs zur Speicherung ausgelesener Kamerachipbereiche;
Abbildung 10a eine abgewandelte schematische Darstellung zur Speicherung ausgelesener Kamerachipbereiche in einem Speicherbereich;
Abbildung 10b ein abgewandeltes Diagramm zur Verdeutlichung des zeitlichen und räumlichen Ablaufs der Aktivierung von Kamerachipzeilen bei der Aufnahme unterschiedlicher Bilder, unteres Diagramm: korrespondierende aktive Beleuchtungen;
Abbildung 10c eine schematische Darstellung zur Speicherung ausgelesener Kamerachipbereiche in einem Speicherbereich;
Abbildung 11a eine Prinzipskizze des photometrischen Stereo bei einer linearen Bewegung des Prüfgegenstands;
Abbildung 11b eine Prinzipskizze des photometrischen Stereo bei einer Drehbewegung des Prüfgegenstands;
Abbildung 12a bis d eine Prinzipskizze des Streifenprojektionsverfahrens bei einer linearen Bewegung;
Abbildung 12e eine Prinzipskizze des Streifenprojektionsverfahrens bei einer Drehbewegung des Prüfgegenstands;
Abbildung 13a eine Prinzipskizze der interferometrischen Prüfung bei einer linearen Bewegung des Prüfgegenstands;
Abbildung 13b eine Prinzipskizze der interferometrischen Prüfung bei einer Drehbewegung des Prüfgegenstands;
Abbildung 14a eine Prinzipskizze des Weißlichtinterfero- metrieverfahrens bei einer linearen Bewegung des Prüfgegenstands;
Abbildung 14b eine Prinzipskizze des Weißlichtinterfero- metrieverfahrens bei einer Drehbewegung des Prüfgegenstands;
Abbildung 15 eine Anordnung zweier Kameras senkrecht ü- ber einer Ebene, in der ein Prüfgegenstand angeordnet ist;
Abbildung 16a bis d eine abgewandelte Prinzipskizze der photometrischen Deflektometrie bei einer Drehbewegung des Prüfgegenstands mit vier Beleuchtungen und einer Zeile, und
Abbildung 16e eine Prinzipskizze der photometrischen Deflektometrie bei einer hoch lichtempfindlichen Zeilenkamera.
Neuartiger Kamerachip
Erfindungsgemäß kommt ein speziell ausgeführter Kamerachip C bei der Bildaufnahme, beispielsweise in CCD- oder CMOS-Technologie, einer elektronischen Kamera K zum Einsatz.
Abbildung 1a zeigt einen schematischen Ausschnitt eines Kamerachips C mit mehreren Pixeln P. Einzelne Pixel P sind dabei zu Pixelgruppen P1 , P2, P3 und P4 zusammengefasst. Diese Pixelgruppen P1 bis P4 werden über verschiedene elektronische Shuttersignale S1 , S2, S3, S4 angesteuert, also lichtempfindlich geschaltet. Dabei ist jeder Pixelgruppe P1 bis Pn genau ein Shutter S1 bis Sn zugeordnet. Einzelne Pixel P sind in einem Abstand Δx bzw. Δy zueinander angeordnet. Dieser Abstand wird vorzugsweise klein gewählt, um eine flächendeckende Anordnung der Pixel P zu erreichen, sodass die Ausbeute der Kamerachipfläche groß ist.
In den folgenden Abbildungen werden nur einige Pixel P bzw. Pixelgruppen P1 bis Pn des Kamerachips C dargestellt. Das jeweilige Muster ist allerdings sowohl in horizontaler Richtung als auch senkrecht dazu fortgesetzt zu denken, bis die gewünschte Pixelanzahl P, beispielsweise zwei Megapixel, erreicht ist. Diesen Pixeln sind Shut- ter Sn zugeordnet. Unter einem elektronischen Shutter versteht man eine Belichtungssteuerung, die ein Pixel P für eine bestimmte Zeit lichtempfindlich schalten bzw. unempfindlich schalten kann. Auf diese Weise können benachbarte Pixel P verschiedener Pixelgruppen P1 bis Pn in sehr schneller zeitlicher Folge mit unterschiedlichen BiI- dem belichtet werden. Erst, wenn alle Pixelgruppen P1 bis Pn nacheinander belichtet worden sind, wird der Kamerachip C ausgelesen. Es liegen beim Auslesen also so viele Bilder in Teilbereichen des
Kamerachips C vor, wie Pixelgruppen von Shuttern nacheinander belichtbar geschaltet wurden. Da der Ausleseprozess die Bildperiode, also die Summe aus Belichtungszeit und Auslesezeit, und damit die Bildwiederholfrequenz, also die Anzahl aufgenommener Bilder pro Sekunde bestimmt, können auf diese Weise innerhalb kürzester Zeit mehrere Bilder aufgenommen werden, ohne dass nach jedem Belichtungsprozess ein vergleichsweise langwieriger Ausleseprozess abgewartet werden muss.
Abbildung 1b zeigt einen zeitlichen Verlauf der verschiedenen Shut- tersignale, t deutet dabei die Zeitachse an. Die Shuttersignale sind als Rechteckimpulse über ein bestimmtes Zeitintervall Δt dargestellt. Die als Beleuchtungen bezeichneten Lichtquellen sind mit den Shuttersignalen zu synchronisieren, so z. B. Beleuchtung B1 mit Shutter S1 , Beleuchtung B2 mit Shutter S2 usw. Beispielsweise wird der Shutter S1 für 20 Mikrosekunden aktiv geschaltet, danach der Shutter S2, S3 und S4 für jeweils 20 Mikrosekunden. Nach nur 80 Mikrosekunden liegen dann in jeweils vier benachbarten Pixeln vier zu unterschiedlichen Zeitpunkten und mit unterschiedlichen Beleuchtungssituationen aufgenommene Bilder vor, die entsprechend einem bekannten 3D-Verfahren, also beispielsweise Shape from Shading, gewonnen werden und dann aus dem Kamerachip ausgelesen werden können. Insbesondere ist auch das Verfahren des photometrischen Stereo und der photometrischen Deflektometrie mit vier Beleuchtungen vorteilhaft möglich (siehe WO2004051186, DE102005013614). Theoretisch sind zwei Beleuchtungen ausreichend, um ein 3D-BiId zu erzeugen. Vier Beleuchtungen werden jedoch bevorzugt eingesetzt, da hier die Aufnahmen unempfindlicher gegen Störungen, z.B. Abweichungen in der Anordnung der Beleuchtungen oder Helligkeitstoleranzen sind.
Die Abbildungen 2a bis 2d zeigen eine Anwendung für die photometrische Deflektometrie mit vier Beleuchtungen B1 bis B4. Die Photo- metrische Deflektometrie ist ein Verfahren der optischen 3D- Vermessung. Es stellt eine Kombination des photometrischen Ste- reoverfahrens und der Deflektometrie dar. Das Verfahren ist für spiegelnde, glänzende und matte Oberflächen geeignet. Hierzu wird ein geeignet geformter Streukörper, z. B. eine Halbkugel, aus verschiedenen Richtungen beleuchtet. Dieser Streukörper wiederum beleuchtet den Prüfgegenstand. Für jede Beleuchtungsrichtung wird jeweils ein Kamerabild aufgenommen. Die Auswertung der verschiedenen Bilder gestaltet sich ähnlich wie beim photometrischen Stereoverfahren. Das Verfahren wird in WO2004051186 detailliert beschrieben.
Im oberen Teil der Abbildungen 2a bis 2d ist jeweils eine Seitenansicht des Aufbaus dargestellt. Eine Kamera K ist dabei durch eine Öffnung in dem Streukörper S senkrecht auf den Prüfgegenstand G ausgerichtet. Das auf den Prüfgegenstand G ausgerichtete Blickfeld der Kamera K wird dabei durch zwei Linien L1 und L2 angedeutet. Die mit B1 bis B4 bezeichneten Kreise stellen dabei die Beleuchtungen dar. Die Beleuchtungen B1 und B2 sind, wie in der Seitenansicht nicht erkennbar ist, in die Bildebene hinein versetzt angeordnet. Die hell dargestellte Beleuchtung ist jeweils aktiv.
Im unteren Teil der Abbildungen 2a bis 2d ist jeweils eine Draufsicht des Aufbaus zu sehen. Die Kamera K ist in dieser Ansicht nicht dargestellt, um die Sicht auf den Prüfgegenstand G zu ermöglichen. Der hell dargestellte Kreis ist jeweils die momentan aktive Beleuchtung. Auf den Prüfgegenstand G ist ein Pixelmusterausschnitt A eines
Kamerachips C projiziert worden, um die Synchronisierung der einzelnen Beleuchtungen B1 bis B4 mit dem Kamerachip C zu verdeutlichen. Die hellen Karos stellen einzelne Pixel P einer Pixelgruppe Pn dar, die durch einen Shutter Sn aktiviert, das heißt lichtempfindlich geschaltet sind. Ebenfalls ersichtlich ist der untere Rand des Streukörpers S.
Wie aus dem unteren Teil der Abbildung 2a ersichtlich ist, sind zunächst die Beleuchtung B1 , die Pixelgruppe P1 und der Shutter S1 aktiv. Nach einer vorgegebenen Belichtungszeit wechselt die Beleuchtung zu B2, das heißt Beleuchtung B1 wird abgeschaltet und B2 eingeschaltet. Entsprechend sind Pixelgruppe P2 und Shutter S2 aktiv, wie in Abbildung 2b dargestellt ist. Die Abbildungen 2c und 2d zeigen, wie sich der Zyklus mit Beleuchtung B3 und B4 entspre- chend fortsetzt.
Abbildung 2e zeigt eine Anwendung für das photometrische Stereo. Wie aus dieser Abbildung ersichtlich ist, kommt bei diesem Verfahren kein Streukörper zum Einsatz, auch sind die Beleuchtungen B1 bis B4 in einem größeren Abstand zum Prüfgegenstand angeordnet. Ansonsten wird auf die Beschreibung der vorhergehenden Figuren verwiesen. Wiederum sind die hellen, als Kreise dargestellten Beleuchtungen aktiviert. Aus Gründen der Einfachheit ist nur die aktive Beleuchtung B1 des ersten Zyklus gezeigt, die anderen Beleuchtun- gen schließen sich analog dazu an.
Die Abbildungen 3a bis 3d zeigen die Anwendung auf das Verfahren der Streifenprojektion mit vier verschiedenen Beleuchtungssituationen, die durch einen Streifenprojektor erzeugt werden, der ein Strei-
fenmuster auf den Prüfgegenstand G projiziert. Im oberen Teil der Abbildungen ist wiederum eine Seitenansicht des Aufbaus dargestellt. Dabei ist eine Kamera K senkrecht auf einen Prüfgegenstand G ausgerichtet, und das Blickfeld der Kamera K ist durch die Linien L1 und L2 angedeutet. Links neben der Kamera K ist der Streifenprojektor angedeutet. Das Projektionsfeld des Streifenprojektors ist dabei durch die Linien L3 und L4 angedeutet. Der Streifenprojektor ist unter einem Winkel ungleich 90° gegenüber dem Prüfgegenstand G angeordnet.
Im unteren Teil der Abbildungen 3a bis 3d ist jeweils eine Draufsicht auf den Aufbau dargestellt. Die Kamera K sowie der Streifenprojektor sind hier nicht wiedergegeben, lediglich das Sichtfeld der Kamera in Form eines Pixelmusterausschnitts A eines Kamerachips C sowie das vom Streifenprojektor erzeugte Streifenmuster sind teilweise auf den Prüfgegenstand G projiziert worden, um die Synchronisierung der Beleuchtungssituationen Bn mit dem Kamerachip C zu verdeutlichen. Der Pixelausschnitt A des Kamerachips C weist einzelne Pixel P auf. Die hellen Karos stellen die Pixel P einer Pixelgruppe Pn dar, die durch einen Shutter Sn aktiviert, das heißt lichtempfindlich geschaltet sind.
Die hier gezeigten sinusförmigen Streifenmuster (andere Formen sind möglich) entstehen aus einem Ursprungsmuster durch Phasen- verschieben um 0°, 90°, 180° und 270°. Wie durch den Pfeil 1 angedeutet, wandert das Muster bei einer Phasenverschiebung um einen bestimmten Winkel nach links, das heißt die hellen Streifen verschieben sich.
In Abbildung 3a ist ein Streifenmuster in der Phasenlage 0° dargestellt, das auf einen Prüfgegenstand G projiziert wird. Die Pixelgruppe P1 und der Shutter S1 sind dabei aktiv. Bei einer Phasenverschiebung um 90° wird die Pixelgruppe P2 über den Shutter S2 lichtempfindlich geschaltet, wie in Abbildung 3b dargestellt ist. Für Phasenverschiebungen um 180°und 270° gilt Entsprechendes für die Pixelgruppen P3 und P4, wie in den Abbildungen 3c und 3d gezeigt wird. Jede Pixelgruppe nimmt also durch die Verschiebung des Streifenmusters eine andere Beleuchtungssituation auf.
Es sind auch Streifenmuster mit anderer Streifenperiode denkbar, hierfür sind dann eine größere Anzahl von Pixelgruppen sinnvoll.
Weitere Anwendungen beispielsweise auf die Verfahren der Interfe- rometrie, Weißlichtinterferometrie und andere Verfahren der optischen Formerfassung sind denkbar.
Abbildung 3e zeigt die Anwendung des Verfahrens auf die Laserin- terferometrie. Die Anordnung weist einen Laser L, einen Strahlteiler T (halbdurchlässiger Spiegel), einen feststehenden Spiegel P, einen Prüfgegenstand G und eine Kamera K auf, außerdem zwei Linsen 11 und 12. Der vom Laser L ausgesandte Strahl einer bestimmten Wellenlänge, wird einerseits durch den Strahlteiler T auf die Oberfläche des Prüfgegenstands G und andererseits auf den Spiegel P abge- lenkt. Von der Oberfläche des Prüfgegenstands G wird der Strahl reflektiert und trifft wieder auf den Strahlteiler. Der auf den Spiegel P auftreffende Strahl wird ebenfalls zurück zum Strahlteiler reflektiert. Im Strahlteiler treffen die beiden Strahlen wieder aufeinander und überlagern sich. Die Kamera K ist so ausgerichtet, dass das überla-
gerte Licht auf sie trifft. Durch die unterschiedlich langen Wege, die das Licht zum Prüfgegenstand G und zum feststehenden Spiegel P zurücklegt, ergibt sich bei einem Unterschied der Lichtwege von O1 1 , 2, 3, 4, ... mal die Wellenlänge des Lasers, bei der Überlagerung (Interferenz) im Strahlteiler Helligkeit (konstruktive Interferenz) und bei einem Unterschied von 0.5, 1.5, 2.5, ...mal die Wellenlänge des Lasers Dunkelheit (destruktive Interferenz). Aus der Verteilung von Helligkeit und Dunkelheit (Interefernzstreifen) kann man auf die Form des Prüfgegenstands G schließen.
Im Folgenden bezeichnet eine Verschiebung in x-Richtung eine horizontale Verschiebung und eine Verschiebung in y-Richtung eine vertikale Verschiebung bezogen auf die Bildebene.
Abbildung 4a zeigt einen schematischen Ausschnitt eines Kamerachips C mit vier Pixelgruppen P1 bis P4. In der Abbildung sind grau hinterlegte Bereiche erkennbar, diese dienen lediglich der Veranschaulichung und haben keinen technischen Effekt. Je ein Pixel P jeder Pixelgruppe Pn befindet sich in einem solchen grau hinterleg- ten Bereich. In dem grauen Bereich links oben befinden sich die Pixel P1 bis P4. Auch im grauen Bereich rechts oben, links unten und rechts unten sind Pixel P1 bis P4 vorgesehen. Eine erste Pixelgruppe umfasst alle Pixel P1 aller grauen Bereiche, eine zweite Pixelgruppe alle Pixel P2 aller grauen Bereiche und so weiter. Alle Pixel P einer Pixelgruppe P1 bis P4 werden gleichzeitig über einen Shutter S1 bis S4 angesteuert. Wie aus Abbildung 4a ersichtlich ist, variiert der Ort der vier verschiedenen Pixelgruppen P1 bis P4 leicht von Pixelgruppe zu Pixelgruppe. Beispielsweise ist Pixelgruppe P2 um einen Pixelabstand Δx in x-Richtung gegenüber Pixelgruppe P1 ver-
schoben. Entsprechend sind die Pixelgruppe P3 um einen Pixelabstand Δy in y-Richtung und Pixelgruppe P4 um einen Pixelabstand Δx in x sowie um einen Pixelabstand Δy in y-Richtung gegenüber der Pixelgruppe P1 verschoben. Wünschenswert ist es allerdings, alle vier von den Pixelgruppen P1 bis P4 erfassten Bilder in einem gemeinsamen Pixelraster anzugeben. Als Bezugspunkt bietet sich der Mittelpunkt M von benachbarten Pixeln P, also von Pixeln eines grau hinterlegten Bereichs, an.
Alternativ kann auch ein anderer Bezugspunkt gewählt werden, z. B. der Ort der Pixel P aus der Gruppe P1 oder P2 etc. Durch Interpolation von den auch als Grauwerte bezeichneten Messwerten der Pixel P aus Pixelgruppe P1 werden Werte an Bezugspunkten, beispielsweise am Bezugspunkt M, errechnet, genauso für alle weiteren Pi- xelgruppen P2 bis P4. Die Interpolation ist auch für eine andere Anzahl von Pixelgruppen möglich. Aus Zeitgründen kann diese Berechnung vorteilhaft auf einer hierfür ausgelegten Hardware der Kamera ausgeführt werden, alternativ auf einem angeschlossenen Rechner.
Alternativ ist es auch möglich, andere Zeitmuster vorzugeben . Ab- bildung 4b zeigt den zeitlichen Verlauf von vier Shuttern S1 bis S4. Die Shuttersignale, welche die einzelnen Pixelgruppen Pn lichtempfindlich schalten, sind als Rechteckimpulse über ein bestimmtes Zeitintervall Δt dargestellt. Die Zeitachse ist mit t gekennzeichnet. Beispielsweise werden zunächst die Pixelgruppen P1 bis P4 nachein- ander für Δt = 2 Mikrosekunden belichtet und dieser Vorgang zehnmal wiederholt, bis eine Gesamtbelichtungszeit von 20 Mikrosekunden erreicht ist. Damit liegt der zeitliche Versatz der Belichtungen von aufeinander folgenden Pixelgruppen bei nur 2 Mikrosekunden. Die Wahl der Zeiten und die Anzahl der Wiederholungen stellt ledig-
lieh ein Beispiel dar und kann fast beliebig variiert werden. Beispielsweise sind auch sinusförmige oder anders modulierte Shutter- signale einsetztbar. Der Vorteil von geringeren Belichtungszeiten ist, dass sich der Prüfgegenstand weniger weit fort bewegt hat zwischen der Belichtung der einzelnen Pixelgruppen Pn. Die Gesamtbelichtungszeit jeder Pixelgruppe Pn ist zwar die gleiche, die örtliche Verschmierung zwischen den Pixelgruppen Pn durch den bewegten Prüfgegenstand G ist jedoch geringer.
Alternativ kann auch eine kleinere oder größere Zahl von Pixelgrup- pen gewählt werden. Abbildung 5 zeigt einen schematischen Ausschnitt eines Kamerachips C mit einer Ausgestaltung des einfachsten Falls, nämlich die Verwendung von nur zwei Pixelgruppen P1 und P2. Jeweils ein Pixel P einer Pixelgruppe P1 ist wiederum benachbart mit einem Pixel P der anderen Pixelgruppe P2, wie in Ab- bildung 5 wiederum durch die grauhinterlegten Bereiche angedeutet ist. Die Verbindungslinien verdeutlichen, dass jede Pixelgruppe P1 und P2 durch zwei verschiedene Shutter S1 und S2 angesteuert wird. Durch die Ähnlichkeit zu Kamerachips im Interlaced-Modus (Zeilensprung) könnte ein solcher Interlaced-Modus Kamerachip durch geringe Änderungen erfindungsgemäß modifiziert werden. Der Unterschied zum Interlaced-Modus besteht darin, dass dort gerade und ungerade Zeilen mit einem Zeitunterschied belichtet werden, welcher der Bildwiederholfrequenz oder der Hälfte hiervon entspricht. Das heißt, dass derjenige Shutter, der beispielsweise die ungeraden Zeilen ansteuert, erst dann aktiv wird, wenn das aufgenommene Bild der geraden Zeilen ausgelesen ist. Umgekehrt wird derjenige Shutter, der die geraden Zeilen ansteuert erst dann aktiv, wenn das Bild der ungeraden Zeilen ausgelesen wurde. Der Kamerachip C muss also dahingehend modifiziert werden, dass die Shutterzeit nicht die
volle Bildperiode beträgt, also Belichten und Auslesen abwartet, sondern nur die Belichtungszeit, und gleich nach der Belichtung der geraden oder ungeraden Zeilen, der entsprechend andere Shutter die jeweils anderen Zeilen lichtempfindlich schaltet. Erfindungsge- maß beträgt der Zeitunterschied also nur die Dauer der Shutterzeit, was leicht einen Faktor Tausend kürzer sein kann als die gesamte Bildperiode mit Belichten und Auslesen.
Alternativ kann auch ein bestehender Interlaced-Kamerachip C verwendet werden in Kombination mit einer speziellen zeitlichen Steue- rung der Beleuchtung. Abbildung 6 zeigt einen beispielhaften Verlauf der Shuttersignale S1 und S2, die die Pixelgruppen P1 und P2 lichtempfindlich schalten, und der korrespondierenden Aktivierung der Beleuchtungen B1 und B2 über der Zeit t. Die Shuttersignale sowie die aktiven Beleuchtungen sind als Rechteckimpulse dargestellt. Der Maßstab der Zeitachse t entspricht nicht dem Maßstab der anderen mit Zeitachse versehenen Abbildungen. Die Beleuchtung B1 wird beispielsweise kurz vor Ende der Shutterzeit der Pixelgruppe P1 für eine kurze Zeit aktiviert. Sobald die Belichtung der Pixelgruppe P2 beginnt, wird die Beleuchtung B1 deaktiviert und Beleuchtung B2 ebenfalls für eine kurze Zeit aktiviert. Die Zeit, in der die Beleuchtungen aktiviert sind, kann vorzugsweise sehr viel kürzer sein als es der Bildperiode, also der Summe von Beleuchtungszeit und Auslesezeit, entspricht, beispielsweise von einigen Zig Mikrosekunden bis zu einigen Millisekunden. Ausschlaggebend hierbei ist, dass die unter- schiedlichen Beleuchtungssituationen B1 und B2 direkt nacheinander aufgenommen werden. Dabei nimmt die Pixelgruppe P1 den Prüfgegenstand G unter Beleuchtungssituation B1 und die Pixelgruppe P2 den Prüfgegenstand G unter Beleuchtungssituation B2
auf. Nachdem beide Pixelgruppen P1 und P2 hintereinander belichtet wurden, kann der Kamerachip C ausgelesen werden.
Alternativ kann bei einem neuen Kamerachipdesign wie oben bereits erwähnt auch eine größere Zahl von Pixelgruppen P1 bis Pn gebildet werden. Es bietet sich besonders die Anzahl 2 x 2 = 4 wie in Abbildung 1a dargestellt, 3 x 3 = 9, 4 x 4 = 16 usw. an, da jeweils benachbarte Pixel P in einer quadratischen Fläche zusammengefasst werden können und in x-Richtung und y-Richtung jeweils gleiche In- terpolationsabstände entstehen, was aus Symmetriegründen die Be- rechnung der Bezugspunkte vereinfacht.
Abbildung 7 zeigt einen Ausschnitt eines Kamerachips C mit 3 x 3 Pixelgruppen P1 bis P9. Wiederum sind benachbarte Pixel P unterschiedlicher Pixelgruppen P1 bis P9 grau hinterlegt. Die Zuleitungen der Shutter S1 bis S9 wurde aus Gründen der Übersichtlichkeit nicht gezeichnet.
Alternativ kann es für eine einfachere Herstellung des Kamerachips C auch sinnvoll sein, Pixelgruppen mit eigenem Shuttersignal nicht quadratisch anzuordnen, sondern in Gruppen von 2 x 1 , 3 x 1 , 4 x 1 , usw. Pixeln, also zeilenweise. Der Vorteil dabei liegt darin, dass je- der Zeile des Kamerachips C genau ein Shuttersignal zugeordnet wird und das Verbindungslayout des Kamerachips C sich einfach gestaltet. Eine solche Anordnung für 2 x 1 Pixelgruppen P1 und P2 ist in Abbildung 5 dargestellt. Für 3 x 1 , 4 x 1 usw. Pixelgruppen ist die Anordnung entsprechend zu erweitern.
Eine weitere Alternative besteht in einer rechteckigen Anordnung der Pixelgruppen Pn, beispielsweise 2 x 3, 3 x 4 oder andere Seitenverhältnisse. Denkbar ist auch die Anordnung von acht Pixelgruppen P1
bis P8 in einem 3 x 3 Raster, wobei ein Rasterpunkt, beispielsweise der mittlere, ungenutzt bleibt, dort könnte dann beispielsweise ein Bezugspunkt angeordnet sein, an den die umliegenden Pixel P einzelner Pixelgruppen P1 bis P8 interpoliert werden. Ganz allgemein sind weitere, auch asymmetrische Anordnungen denkbar.
Die genannten Lösungsvarianten gehen mehrheitlich davon aus, dass ein neuartiges Kamerachipdesign erstellt bzw. ein bestehendes Design modifiziert wird. Einzige Ausnahme bildet die Verwendung eines Interlaced-Kamerachips C, bei dem gerade und ungerade Zei- len schon zu unterschiedlichen Zeitpunkten belichtet werden. Die Beleuchtungsaktivierung muss dann nur noch entsprechend ange- passt werden, wie in Abbildung 6 dargestellt ist.
Im Folgenden sollen weitere Lösungsvarianten vorgestellt werden, die keine Veränderungen im Kamerachipdesign nötig machen.
Verfahren für Matrixkamera oder Zeilenkamera mit mehreren Zeilen
Mit einem üblichen flächigen Matrix-Kamerachip, der mit nur einem Shutter S1 zusammenwirkt, sollen mehrere Kamerabilder (Anzahl n) in sehr dichter zeitlicher Abfolge aufgenommen werden, sprich sehr viel schneller als einige Zig Millisekunden. Dies scheint zunächst ein Widerspruch in sich zu sein, da solch kurze Bildperioden, beziehungsweise die daraus resultierenden großen Bildwiederholfrequenzen bei einem herkömmlichen Benutzungsverfahren eines Matrix- Kamerachips nicht erreicht werden können.
Erfindungsgemäß wird der zu prüfende Gegenstand zunächst mit einer ersten Beleuchtung B1 von insgesamt n Beleuchtungen erhellt, der gesamte Kamerachip C mit Hilfe des Shutters S1 belichtet und
lediglich ein Teilbereich des Kamerachips C ausgelesen, insbesondere eine bestimmte Anzahl von Zeilen Z1 bis Zn oder Spalten des Kamerachips C oder Teile hiervon. Im Weiteren wird nur noch von Zeilen gesprochen, gleiches gilt entsprechend immer auch für Spal- ten und Teile von Zeilen oder Spalten. Es werden eine oder mehrere Zeilen ausgelesen, vorzugsweise so viele wie Bilder mit unterschiedlicher Beleuchtung aufzunehmen sind oder ein Vielfaches davon. Als Sonderfall können eine oder auch mehrere Beleuchtungen dunkel sein und/oder können ein oder mehrere Beleuchtungen identisch sein.
Die Abbildungen 8a bis 8d zeigen im oberen Teil eine Seitenansicht eines Aufbaus für die photometrischen Deflektometrie. Gleiche Teile sind mit gleichen Bezugsziffern versehen, sodass insofern auf die vorherigen Abbildungen verwiesen wird. Wiederum stellen die hellen Kreise die aktivierten Beleuchtungen, die dunklen Kreise die inaktiven Beleuchtungen dar. Auch erkennbar ist der Prüfgegenstand G mit einem Merkmal X, das sich synchron mit dem Prüfgegenstand G in Richtung des Pfeils 1 bewegt . Die vier Bereiche L5 bis L8 kenn- zeichnen das Blickfeld der Kamera K auf den Prüfgegenstand G, dabei steht jeweils ein Bereich L5 bis L8 für eine Zeile Z1 bis Z4 des Kamerachips C.
Der untere Teil der Abbildungen 8a bis 8d zeigt eine Draufsicht auf den Aufbau. Die Kamera K ist nicht dargestellt, lediglich ein Pixelrasterausschnitt A des Kamerachips C ist teilweise auf den Prüfgegenstand G projiziert worden, um zu verdeutlichen, wie der Kamerachip C mit den Beleuchtungen B1 bis B4 synchronisiert ist.
Als erstes wird, wie in Abbildung 8a dargestellt, die Beleuchtung B1 aktiviert und die Zeilen Z1 bis Z4 werden belichtet und ausgelesen. Ein beispielhaft gewähltes Merkmal X des Prüfgegenstandes G befindet sich zu diesem Zeitpunkt der Bewegung im Bereich der Zeile Z4. Danach findet ein Wechsel zu einer zweiten Beleuchtung B2 statt, und es wird wieder ein Teilbereich des Kamerachips C ausgelesen, vorzugsweise derselbe Bereich, der die vorhergehende Beleuchtungssituation mit B1 aufgenommen hat. Der Prüfgegenstand G und mit ihm das Merkmal X, haben sich in der Zwischenzeit um einen Abstand weiterbewegt. Das Merkmal X befindet sich nun beispielsweise im Bereich der Zeile Z3, wie in Abbildung 8b dargestellt ist.
Dieser Ablauf wiederholt sich, wie in den Abbildungen 8c bis 8d dar- gestellt, bis eine Anzahl von n Beleuchtungen erreicht ist. Danach schließt sich die nächste Serie von n Beleuchtungen und Ausleseprozessen an, bis eine gewünschte Anzahl von Wiederholungen erreicht ist. Dabei befindet sich der Prüfgegenstand G in Bewegung in Bezug auf die Kamera, sodass nach und nach die Oberfläche des Gegenstandes oder Teile hiervon überstrichen werden. Diese Bewegung kann in unterschiedlicher Form ausgeführt werden, beispielsweise einer geradlinigen Bewegung mit konstanter Geschwindigkeit und Richtung. Für rotationssymmetrische Gegenstände, deren Mantelfläche geprüft werden soll, bietet sich eine Rotation um die Sym- metrieachse mit konstanter Drehgeschwindigkeit an.
Eine weitere, hier nicht dargestellte Variante, ist eine Bewegung des Prüfgegenstands G, bei der zusätzlich zu einer Rotation ein gleichzeitiger Vorschub des Prüfgegenstands G entlang der Rotationsach-
se stattfindet. Ein Punkt auf der Oberfläche des Prüfgegenstands G beschreibt also eine schraubenlinienförmige Bahn. Die Zeilen des Kamerachips C müssen dabei derart ausgerichtet sein, dass sie senkrecht zu dieser Schraubenlinie stehen. Vorteil dieser Bewegung ist, dass auch lange zylindrische Bauteile innerhalb mehrerer Umdrehungen vollständig erfasst werden können. Es können auch mehrere einzelne Prüflinge aneinander gereiht werden und so kontinuierlich geprüft werden.
Abbildung 8e zeigt beispielhaft den Aufbau für das Photometrische Deflektometrieverfahren, jedoch ist hier im Gegensatz zu den Abbildungen 8a bis 8d ein in Richtung des Pfeils 1 rotierender Prüfgegenstand G abgebildet. Wiederum deuten die Kegel L5 bis L8 das Blickfeld der Kamera an, bzw. die Aufnahmeorte der einzelnen Zei- len Z1 bis Z4 des Kamerachips C auf dem Prüfgegenstand G.
Der Prüfgegenstand G bewegt sich von Aufnahme zu Aufnahme um eine bestimmte Strecke oder einen bestimmten Drehwinkel weiter. Die Geschwindigkeit, Drehgeschwindigkeit, der Aufnahmezeitpunkt und/oder Auslesezeitpunkt werden vorteilhaft so gewählt, dass sich der Prüfgegenstand G gegenüber der Kamera K von Aufnahme zu Aufnahme um einen Pixelabstand oder ein ganzzahliges Vielfaches hiervon weiterbewegt. Dies kann beispielsweise durch einen mit der Bewegung gekoppelten Geber, insbesondere einen Drehgeber, er- reicht werden, der den Aufnahmezeitpunkt bzw. Auslesezeitpunkt entsprechend vorgibt, sodass Toleranzen des Motors keine negativen Auswirkungen haben.
Im oberen Teil der Abbildung 9a ist der Ort des Prüfgegenstandes G1 der von den Zeilen Z1 bis Z4 erfasst wird (Hochachse), als Funktion der Zeit dargestellt (Rechtsachse).
Im unteren Teil der Abbildung 9a ist dargestellt, welche Beleuchtung B1 bis B4 jeweils aktiv ist. Die Beleuchtungen werden nacheinander aktiviert, die Zeilen Z1 bis Z4 sind dabei gleichzeitig lichtempfindlich geschaltet. Nach jedem Belichtungsvorgang, werden die Zeilen Z1 bis Z4 ausgelesen.
Die Zeilen Z1 bis Zn nehmen nach und nach im Verlauf der Zeit verschiedene Orte bezüglich des Prüfgegenstandes G auf. Die Zahl der Zeilen und die Zahl der Beleuchtungen wurde beispielhaft zu n=4 gewählt. Ebenso sind andere Anzahlen n möglich.
Die ausgelesenen Bildbereiche, hier die der Zeilen Z1 bis Z4, werden an eine Recheneinheit R übertragen und dort in einem Speicher abgelegt. Dabei erfolgt die Ablage nach einem bestimmten Muster.
Abbildung 9b zeigt eine schematische Darstellung eines solchen Speichermusters, das in einem stark abstrahiert dargestellten Speicherbereich angeordnet ist. Die einzelnen Kästchen Z1 bis Z4 stellen dabei die Messwerte dar, die die Zeilen Z1 bis Z4 des Kamerachips C von dem jeweiligen Oberflächenausschnitt des Prüfgegenstandes G mit einer bestimmten Beleuchtungssituation aufgenommen haben. Die Reihenfolge der Messwertspeicherung richtet sich nach den Beleuchtungen. Zunächst werden also die Zeilen Z1 bis Z4 mit B1 beleuchtet und im Speicher abgelegt, danach werden die Zeilen Z1 bis Z4 mit der Beleuchtung B2 belichtet und um eine Zeile nach unten
versetzt im Speicher angeordnet. Dieser Vorgang wiederholt sich für alle vier Beleuchtungen. Danach beginnt der Speichervorgang von neuem im Anschluss an die erste Speicherung. Dabei ergibt jeweils ein grau unterlegter Speicherbereich ein Bild, das mit der Beleuch- tung B1 , B2, B3 bzw. B4 aufgenommen wurde. Die aufgenommene Oberfläche des Prüfgegenstands G verläuft dabei in Richtung des Pfeils O. In der Abbildung ist unter jeder Spalte die jeweilige Beleuchtung B1 bis B4 angegeben, mit der die Prüfgegenstandsober- fläche beleuchtet wurde. Die Zeilen Z1 bis Z4 sind im Speicher der- art abgelegt, dass das gleiche Merkmal X der Oberfläche des Prüfgegenstands G in einer horizontalen Reihe angeordnet ist. Dabei ergeben sich sogenannte korrespondierende Zeilen, die dem gleichen Ort der Prüfgegenstandsoberfläche mit unterschiedlichen Beleuchtungssituationen entsprechen. Ein Beispiel für korrespondie- rende Zeilen bei Beleuchtung B1 bis B4 ist durch K in der Abbildung gekennzeichnet. Korrespondierend bedeutet für dieses Beispiel, dass die Zeile Z4 unter Beleuchtung B1 denselben Bereich des Prüfgegenstandes G, beispielsweise das Merkmal X, darstellt, wie Z3 unter Beleuchtung B2, Z2 unter B3 sowie Z1 unter B4. Es liegen also pixelgleiche Daten, d.h. Daten der gleichen Oberflächenbereiche für jede Beleuchtung B1 bis B4 vor. Dies ist ein besonderer Vorteil, denn somit ist keine Interpolation von Zwischenwerten notwendig. Dies bedeutet einen geringen Berechnungs- und Zeitaufwand. Darüber hinaus können Fehler, die sich sonst bei einer Interpolation einstellen, vermieden werden. Solche Fehler treten insbesondere bei scharfen Helligkeitsübergängen im Bild auf, Bereichen die oft von größtem Interesse sind.
Die Zeilen, welche mit unterschiedlichen Beleuchtungen aufgenommen wurden, sind in Abb. 9b horizontal nebeneinander angeordnet gezeichnet. Diese zweidimensionale Darstellung dient der Übersicht, so können korrespondierende Zeilen am besten verständlich darge- stellt werden. Selbstverständlich können diese Speicherbereiche im Speichermedium auch in abgewandelter Form angeordnet sein. Beispielsweise kann die Anordnung der Zeilen im Speicher auch linear gedacht werden. Im einfachsten Fall werden die Zeilen der Kamera Aufnahme für Aufnahme direkt hintereinander linear im Speicher abgelegt und korrespondierende Zeilen anhand Ihres Abstandes im Speicher zugeordnet. All diese verschiedenen Anordnungen im Speicher sind als äquivalent zur abgebildeten Speicheranordnung zu sehen, solange korrespondierende Speicherbereiche angegeben werden können. Dies gilt auch für nachfolgende Abbildungen, wel- che den Speicher darstellen.
Alternativ zu Abbildung 9a und 9b kann der Versatz ein Vielfaches des Pixelabstandes betragen, beispielsweise das Doppelte. In diesem Fall sind dann jeweils acht Zeilen auszulesen. Die Anordnung im Speicher der Recheneinheit wird dann vorzugsweise wie in Abbil- düng 10a gewählt. Dort ist ebenfalls eine schematische Darstellung eines Speichermusters dargestellt. Wiederum stellen die einzelnen Kästchen Z1 bis Z8 die Information dar, die die Zeilen Z1 bis Z8 des Kamerachips C von dem jeweiligen Oberflächenausschnitt des Prüfgegenstandes G mit einer bestimmten Beleuchtungssituation aufge- nommen haben. Die aufgenommene Oberfläche des Prüfgegenstands G verläuft in Richtung des Pfeils O.
Die Auslesezeiten, die bei diesem Verfahren erreicht werden, liegen typisch um einen Faktor 100 bis 1000 niedriger als beim Auslesen
des gesamten Matrixkamerachips dadurch, dass nur Teilbereiche des Matrixkamerachips ausgelesen werden. Der Faktor 100 ergibt sich für den Fall, dass anstelle von 400 Zeilen insgesamt nur 4 ausgelesen werden, der Faktor 1000, wenn anstelle von 2000 Zeilen nur 2 ausgelesen werden. Aus diesem Grund ist die Variante für n=2 äußerst interessant.
Der obere Teil der Abbildung 10b zeigt den Ort auf der Oberfläche des Prüfgegenstandes G (Hochachse), den zwei Zeilen Z1 und Z2 des Kamerachips C erfassen, als Funktion der Zeit (Rechtsachse).
Der untere Teil der Abbildung 10b zeigt als Rechteckimpulse dargestellt, die Beleuchtungen B1 und B2, die abwechselnd aktiviert werden. Der Prüfgegenstand bewegt sich, wie im oberen Teil der Abbildung 10b ersichtlich ist, um einen Zeilenabstand des Kamerachips C weiter, die Zeilen Z1 und Z2 werden wieder belichtbar geschaltet und die zweite Beleuchtung B2 aktiviert.
Abbildung 10c zeigt das entsprechende Speichermuster in einem stark schematisierten Speicher, wenn zwei Zeilen Z1 und Z2 ver- wendet werden. Wiederum sind die Informationen, der Oberfläche des Prüfgegenstands G in Kästchen Z1 und Z2 dargestellt. Die O- berfläche des Prüfgegenstands G bewegt sich wiederum in Richtung des Pfeils O. Eine korrespondierende Zeile K verdeutlicht, dass in einer horizontalen Reihe jeweils gleiche Oberflächenbereiche des Prüfgegenstands G, die mit unterschiedlichen Beleuchtungen B1 und B2 aufgenommen wurden, nebeneinander angeordnet sind.
Weitere Anwendungsbeispiele werden in Abb. 11a bis 14b gezeigt. Abbildung 11a zeigt eine Anwendung des Verfahrens für photometri-
sches Stereo und eine lineare Bewegung des Prüfgegenstands G. Dieser bewegt sich in Richtung des Pfeils 1. Gegenüber der photometrischen Deflektometrie entfällt hier der Streukörper, und die Beleuchtungen B1 bis B4 sind in einem größeren Abstand zum Prüfge- genstand G angeordnet. Im oberen Teil der Abbildung 11a ist das Sichtfeld der Kamera K durch die Bereiche L5 bis L8 gekennzeichnet, die einzelne Zeilen des Kamerachips C repräsentieren. Gleiche Teile sind mit gleichen Bezugsziffern versehen, sodass insofern auf die vorangehenden Abbildungen verwiesen wird.
Abbildung 11b zeigt das Verfahren angewendet auf das photometrische Stereo in Kombination mit einer Drehbewegung des Prüfgegenstands G. Dieser rotiert um die Drehachse 3 in Richtung des Pfeils 1.
In Abbildung 12a wird das erfindungsgemäße Verfahren angewandt auf das an sich bekannte Verfahren der Streifenprojektion und eine lineare Bewegung des Prüfgegenstands G.
Im oberen Bereich der Abbildung 12a ist eine Seitenansicht des Aufbaus zu sehen. Das Sichtfeld der Kamera K ist durch die Bereiche L5 bis L8 gekennzeichnet, dabei stellen die einzelnen Bereiche die Sichtfelder der Zeilen Z1 bis Z4 des Kamerachips C dar. Ein Streifenprojektor SP leuchtet einen Bereich des Prüfgegenstandes G mit einem Streifenmuster aus, dieser Bereich ist durch die Linien L3 und L4 gekennzeichnet. Vorzugsweise leuchtet der Streifenprojektor mit einer sinusförmigen Modulation der Bestrahlungsstärke in Abhängigkeit des Ortes auf G. Der Prüfgegenstand G bewegt sich vorzugsweise linear und gleichförmig in Richtung des Pfeils 1.
Im unteren Teil der Abbildung 12a ist eine Draufsicht auf den Aufbau zu sehen. Dabei sind der Prüfgegenstand G, das auf diesen projizierte Streifenmuster sowie eine Projektion des Sichtfeldes der Zeilen Z1 bis Z4 des Kamerachips C wiedergegeben.
In der Abbildung 12a ist dargestellt, wie sich ein Merkmal X zunächst im Bereich der Zeile Z4 befindet, danach im Bereich der Zeile Z3 gemäß Abbildung 12b, danach im Bereich der Zeile Z2 und im Bereich der Zeile Z1 wie in den Abbildungen 12c und 12d darge- stellt ist.
Im Fall der Streifenprojektion kann das Streifenmuster von Zeitabschnitt zu Zeitabschnitt in der Phasenlage und im Streifenabstand variiert werden (das entspricht den unterschiedlichen Beleuchtungen B1 bis Bn), dies ist aber vorteilhaft nicht notwendig. Bereits die Bewegung des Prüfgegenstandes sorgt dafür, dass ein Merkmal X zu unterschiedlichen Zeitpunkten in unterschiedlichen Bereichen des Streifenmusters (in unterschiedlichen Phasenlagen des Streifenmusters) zu liegen kommt. Vorteilhaft wird der Streifenabstand so ge- wählt, dass nach n Bewegungsschritten genau eine Streifenperiode, also ein heller und ein dunkler Streifen, überstrichen wird. Im vorliegenden Beispiel ist n=4. Damit wird das Merkmal X in Zeile Z4 mit der Phasenlage 0° (B1), in Z3 mit der Phasenlage 90° (B2), in Z2 mit 180° (B3) und Z1 mit 270° (B4) aufgenommen. Die Bewegung er- zeugt also automatisch ein geeignetes Phasenschieben, das bei anderen Verfahren immer erst aufwändig erzeugt werden muss.
Der besondere Vorteil des erfindungsgemäßen Verfahrens liegt also darin, dass ein äußerst einfacher und kostengünstiger Projektor mit
einem statischen, unveränderlichen Streifenmuster und hohem Streifenkontrast verwendet werden kann. In diesem Fall ist das zeitliche Nacheinander der n Beleuchtungen ersetzt durch das räumliche Nebeneinander von n Beleuchtungen. Jede Phasenlage der Beleuch- tung, beispielsweise 0°, 90°, 180°, 270°, welche räumlich nebeneinander vorkommen, entspricht einer Beleuchtung Bn. Unter Umständen können ein oder mehrere weitere solcher Projektoren mit abweichendem Streifenabstand zum Einsatz kommen, um die Mehrdeutigkeit zwischen verschiedenen Streifen zu beseitigen. Diese Mehrdeu- tigkeit entsteht dadurch, dass das Streifenmuster sinusförmig ist, dabei wiederholen sich dunkle und helle Streifen periodisch. Auch diese Projektoren können jeweils ein einziges Muster projizieren und werden nacheinander aktiviert. Beträgt die Streifenperiode mehr als n benachbarte Zeilen, so lassen sich auch n Zeilen mit einem jewei- ligen Abstand von mehr als einem Pixel auslesen. Ein weiterer Vorteil des erfindungsgemäßen Verfahrens liegt darin, dass zwischen der Bildaufnahme in verschiedenen Phasenlagen eine äußerst geringe Zeit liegt und eine Beeinträchtigung der Messung durch Vibration unterdrückt werden kann. Dadurch also, dass die Bildaufnahme- dauer sehr kurz ist, wirkt sich das Schwingen der Anordnung nicht negativ auf die Bildaufnahme aus, es ist also auch keine Schwingungsstabilisierung des Messaufbaus notwendig.
Abbildung 12e zeigt das erfindungsgemäße Verfahren für die An- wendung in der Streifenprojektion und eine Drehbewegung des Prüfgegenstandes G in Richtung des Pfeils 1 um die Rotationsachse 3. Gleiche Teile sind mit gleichen Bezugsziffern versehen, sodass insofern auf die vorhergehenden Abbildungen verwiesen wird.
Abbildung 13a zeigt das erfindungsgemäße Verfahren angewandt auf das an sich bekannte Verfahren der interferometrischen Prüfung, das sich insbesondere für optisch glatte Oberflächen eignet, da sehr feine Strukturen erfasst werden können, deren Rauhigkeit kleiner als die Wellenlängen sichtbaren Lichts, also kleiner als ca. 0,5 μm ist.
Im oberen Teil der Abbildung 13a ist eine zeitlich kohärente Lichtquelle, beispielsweise ein Laser L erkennbar, der als Lichtquelle dient. Das Blickfeld einer Kamera K ist auf den Prüfgegenstand G ausgerichtet. Die Bereiche L5 bis L8 repräsentieren die Aufnahmebereiche der Zeilen Z1 bis Z4 des Kamerachips C. Ein Merkmal X befindet sich im Bereich der Zeile Z4. Der Prüfgegenstand bewegt sich in Richtung des Pfeils 1. Der vom Laser L ausgesandte Strahl einer bestimmten Wellenlänge, wird einerseits durch einen Strahltei- ler T auf die Oberfläche des Prüfgegenstands G und andererseits auf einen Spiegel P abgelenkt. Auf der Oberfläche des Prüfgegenstands G wird der Strahl reflektiert und trifft wieder auf den Strahlteiler T. Der auf den Spiegel P auftreffende Strahl wird ebenfalls zurück zum Strahlteiler T reflektiert. Im Strahlteiler T treffen die beiden Strahlen wieder aufeinander und überlagern sich. Die Kamera K ist so ausgerichtet, dass das überlagerte Licht auf sie trifft. Durch die unterschiedlich langen Wege, die das Licht zum Prüfgegenstand G und zum feststehenden Spiegel P zurücklegt, ergibt sich bei einem Unterschied der Lichtwege von 0, 1, 2, 3, 4, ... mal die Wellenlänge des Lasers, bei der Überlagerung (Interferenz) im Strahlteiler T Helligkeit (konstruktive Interferenz) und bei einem Unterschied von 0.5, 1.5, 2.5, ...mal die Wellenlänge des Lasers Dunkelheit (destruktive Interferenz). Aus der Verteilung von Helligkeit und Dunkelheit (Intere-
fernzstreifen) kann man auf die 3D-Gestalt des Prüfgegenstands G schließen.
Im unteren Teil der Abbildung 13a sind eine Draufsicht auf den Prüf- gegenstand G sowie Projektionen der Zeilen Z1 bis Z4 des Kamerachips C und des erzeugten Interferenzmusters zu sehen. Auch erkennbar ist das Merkmal X der Prüfgegenstandsoberfläche, das sich hier in einem Bereich der Zeile Z1 befindet.
Als Interferometertyp ist hier, wie oben beschrieben, beispielhaft ein Michelson-Interferometer gezeigt, ebenso sind aber andere Typen wie Mach-Zehnder und viele andere möglich. Obwohl der Mechanismus bei der Entstehung der Interferenzstreifen ein völlig anderer ist als bei der Streifenprojektion, lässt sich das erfindungsgemäße Verfahren nahezu 1 :1 von der Streifenprojektion auf die Interfero- metrie übertragen. Auch hier kann durch eine geeignete Wahl der Streifenperiode (z. B. durch Verkippen des Spiegels P oder der Ebene des Prüfgegenstands G) passend zum Abstand von n Zeilen erreicht werden, dass in den n Zeilen phasengeschobene Intensitäts- werte erfasst werden, für n=4 in der Zeile Z4 0°, Z3 90°, Z2 180° und Z1 270°. Auch hier ergibt sich eine deutliche Vereinfachung und Kostensenkung, da ein statisches Interferometer ohne Einrichtung zum Phasenschieben benutzt werden kann. In diesem Fall ist das zeitliche Nacheinander der n Beleuchtungen ersetzt durch das räumliche Nebeneinander von n Beleuchtungen. Jede Phasenlage der Beleuchtung, beispielsweise 0°, 90°, 180°, 270°, welche räumlich nebeneinander vorkommen, entspricht einer Beleuchtung Bn. Auch die Empfindlichkeit gegenüber Vibrationen der Messapparatur bzw. des Interferometers wird deutlich gesenkt. Dadurch, dass die Bildauf-
nähme so schnell erfolgt, haben Schwingungen, die durch die Einflüsse der Umgebung ausgelöst werden können, keine negativen Auswirkungen auf die Bildaufnahme.
Alternativ können unterschiedliche Streifenabstände realisiert werden, beispielsweise durch eine oder mehrere weitere Lichtquellen mit unterschiedlicher Wellenlänge (Mehrwellenlängen-Interferome- trie). Diese Lichtquellen können in kurzem zeitlichen Abstand geschaltet werden, insbesondere wenn es sich um Halbleiterlaser han- delt.
Abbildung 13b zeigt eine Anwendung für die Drehbewegung eines Prüfgegenstands G in Richtung des Pfeils 1 um eine Rotationsachse 3 und die Erfassung von im Wesentlichen rotationssymmetrischen Prüfgegenständen G, die bisher für eine interferometrische Prüfung nicht oder nur sehr schwer zugänglich waren. Gleiche Teile sind mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangehenden Abbildungen verwiesen wird.
Abbildung 14a zeigt das erfindungsgemäße Verfahren für das an sich bekannte Verfahren der Weißlichtinterferometrie, welches für optisch glatte aber auch für optisch raue Oberflächen, das heißt Oberflächen, deren Rauhigkeit größer als ca. 0.5 μm ist, geeignet ist.
Im oberen Teil der Abbildung 14a ist eine Lichtquelle LQ, eine Kamera K, ein Strahlteiler T sowie ein Spiegel P dargestellt. Das Sichtfeld der Kamera K ist auf den Prüfgegenstand G ausgerichtet, der sich in Richtung des Pfeils 1 bewegt. Die Lichtquelle LQ kann beispielsweise LED's, Glühlampen oder ähnliches umfassen. Zur Interferenzer-
scheinung tragen mehrere Wellenlängen bei. Maximale Helligkeit ergibt sich, wenn beide Lichtwege, also vom Strahlteiler T zum Spiegel P und zurück, und vom Stahlteiler T zum Prüfgegenstand G und zurück, gleich lang sind. In der Regel ist es nötig, entweder den Spiegel P oder den Prüfgegenstand G in sehr vielen kleinen Schritten zu verschieben (beispielsweise immer um eine Viertel Wellenlänge), um beide Lichtwege abzugleichen. Die Helligkeitsvariationen werden dann von der Kamera K erfasst.
Bei diesem Verfahren wird die Streifenperiode vorteilhaft ebenfalls so gewählt, dass beispielsweise vier Zeilen Z1 bis Z4 einer Streifenperiode entsprechen, andere Anzahlen sind möglich. Da der Streifenkontrast bei der Weißlichtinterferometrie von einem Streifen zum nächsten zu oder abnimmt, ist es hier sinnvoll, mehr als einen Strei- fen aufzunehmen und beispielsweise 100 x 4 Zeilen auszulesen. Das Maximum des Streifenkontrastes zeigt an, in welcher Höhe sich ein Merkmal über der Bewegungsebene befindet. Vorteile des erfindungsgemäßen Verfahrens sind auch hier, dass keine Einrichtung zum Phasenschieben benötigt wird und der Aufbau deshalb einfach und kostengünstig realisiert werden kann sowie Einflüsse von Vibrationen unterdrückt werden, durch die schnelle Bildaufnahme.
Auch hier ist das zeitliche Nacheinander der n Beleuchtungen ersetzt durch das räumliche Nebeneinander von n Beleuchtungen. Jede Phasenlage der Beleuchtung, welche räumlich nebeneinander vorkommen, entspricht einer Beleuchtung. Zudem ist die Weißlichtinterferometrie praktikabel für die Vermessung der Mantelfläche von im Wesentlichen rotationssymmetrischen Teilen. Abbildung 14b stellt einen Aufbau in Seitenansicht und in Draufsicht dar, bei dem sich ein
rotationssymmetrischer Prüfgegenstand G in Richtung des Pfeils 1 um eine Rotationsachse 3 dreht.
Alternativ kann anstelle einer Matrixkamera auch eine spezielle Ka- mera K eingesetzt werden, deren Kamerachip C nur einige wenige Zeilen umfasst. Insbesondere sind Kameras und Chips von Interesse, die beispielsweise zwei, drei, vier bis zu etwa 100 Zeilen umfassen. Solche Kameras stellen den Übergang zwischen Zeilenkameras und Matrixkameras dar.
Solche Kameras mit n=3 Zeilen sind als Farbkameras verfügbar. Dabei ist jede Zeile mit einem eigenen Farbfilter versehen. Noch besser geeignet für das erfindungsgemäße Verfahren sind Schwarz- Weiß-Kameras mit drei Zeilen, die ebenfalls verfügbar sind. Bei sol- chen Kameras kann die Besonderheit darin bestehen, dass der Abstand benachbarter Zeilen ein Mehrfaches des Pixelabstandes innerhalb einer Zeile beträgt, beispielsweise das Achtfache. Der Prüfgegenstand kann sich von Aufnahme zu Aufnahme um den Zeilenabstand weiterbewegen, das erfindungsgemäße Verfahren ist dann wie beschrieben durchzuführen. Vorteilhaft wird der Prüfgegenstand aber nur um einen Pixelabstand von Aufnahme zu Aufnahme weiterbewegt. Für diesen Fall werden vorteilhaft n=3 Beleuchtungen für 8 Aufnahmen aktiv geschaltet, bevor zur nächsten Beleuchtung gewechselt wird. Dieses Vorgehen ist äquivalent dazu, dass bei einem Chip mit einem Zeilenabstand welcher dem Pixelabstand entspricht, 8n=24 Zeilen ausgelesen werden. Die Anordnung der Bilder im Speicher kann dann vorteilhaft entsprechend Abbildung 10a und 24 Zeilen vorgenommen werden. Alternativ ist es auch möglich, nur n=2
der drei Kamerazeilen zu nutzen. Dann entspricht die Anordnung im Speicher vorteilhaft Abbildung 10a und 16 Zeilen.
Es sind weitere Kameras mit einer höheren Zahl von Zeilen verfüg- bar, die beispielsweise 96 oder 100 Zeilen umfassen. Solche Kameras werden häufig nach dem TDI-Verfahren (Time Delay Integration) genutzt. Manche dieser Kameras können aber auch als Matrixkameras (area mode) genutzt werden. Diese speziellen Kameras können vorteilhaft für das erfindungsgemäße Verfahren genutzt werden, ins- besondere, wenn sie als Matrixkamera betrieben werden. In der Regel ist hier der Zeilenabstand gleich oder ähnlich dem Pixelabstand, wie es bei anderen Flächenkameras üblich ist.
Verfahren für mehrere Matrixkameras
Darüber hinaus sind weitere Varianten denkbar, bei denen Standard- Matrixkameras mit jeweils nur einem Shutter S zum Einsatz kommen und dennoch eine enge zeitliche Abfolge von Bildern erreicht wird. Hierzu wird eine Stereoanordnung von n Kameras K1 bis Kn so mo- difiziert, dass sie diesen Zweck erfüllen kann. Die Kamerachips C der Kameras Kn werden dabei nicht wie allgemein üblich gleichzeitig belichtet, sondern mit geringfügigem zeitlichem Versatz. Dieser zeitliche Versatz ist erfindungsgemäß sehr viel kürzer, als es der Bildwiederholfrequenz entspricht. Dieser Versatz beträgt vorzugsweise die Belichtungsdauer eines Kamerachips C. Die n Beleuchtungen B1 bis Bn sind so gesteuert, dass eine erste Beleuchtung B1 gleichzeitig zur Belichtung der Kamera K1 mit dem Shutter S1 erfolgt, die Beleuchtung B2 zur Belichtung der Kamera K2 mit dem Shutter S2 bis zur Beleuchtung Bn der Kamera Kn mit dem Shutter Sn. Alternativ ist
es möglich, dass die Beleuchtung kürzer aktiviert ist als es der Shut- terzeit entspricht. Auch hier ist n=2 eine besonders interessante Variante.
Direkt nach der Belichtung des Kamerachips C einer Kamera Kn durch eine Beleuchtung Bn wird der Kamerachip C einer nächsten Kamera Kn mit einer nächsten Beleuchtung Bn belichtet. Dieser Vorgang wiederholt sich. Erst nach der Belichtung eines Kamerachips C der Kamera Kn, wird ein Teil des Kamerachips C ausgele- sen. Korrespondierende Zeilen, also Zeilen der verschiedenen Kamerachips C, die unter verschiedenen Beleuchtungssituationen aufgenommen wurden, werden dabei unter Berücksichtigung einer Disparität der Kameras Kn in einem Speicher entsprechend angeordnet.
Zunächst scheint dieser Ansatz abwegig, denn bei einer Stereoanordnung besteht -in der Regel beabsichtigt- ein Versatz der Bilder von Kamera K1 bis Kn. Aus diesem Versatz, der so genannten Disparität, wird üblicherweise das Messsignal gewonnen, nämlich die räumliche Tiefe. Jede Variation der Disparität bedeutet einen Hö- henunterschied des zu vermessenden Gegenstandes und wird möglichst genau festgestellt. Für das erfindungsgemäße Verfahren ist das Gegenteil der Fall, hier wird die Disparität so gut wie möglich minimiert und konstant gehalten. Man erreicht dies dadurch, dass die Kameras mit möglichst geringem Abstand voneinander platziert wer- den.
Abbildung 15 beschreibt einen Aufbau mit zwei Kameras K1 und K2. Vorzugsweise werden die beiden Kameras mit ihrer optischen Achse parallel zueinander ausgerichtet. Der Prüfgegenstand G ist in einer
Ebene senkrecht zu den optischen Achsen der Kameras K1 und K2 positioniert. Besonders vorteilhaft ist es, wenn der Prüfgegenstand G im Wesentlichen eben ist und durch eine -beispielsweise mechanische - Einrichtung immer in dieser Ebene geführt wird.
Die Disparität ist dann in allen Bereichen der Bilder lediglich ein konstanter Versatz um eine gewisse Anzahl von Pixelabständen. Vorzugsweise wird der Abstand der Kameras genau so justiert, dass die Disparität ein ganzzahliges Vielfaches des Pixelabstandes beträgt. Somit gelingt es, korrespondierende Pixel ohne Interpolation zu gewinnen. Alternativ kann der Abstand frei gewählt werden oder auch die Ausrichtung der Kameraachsen frei bestimmt werden. In diesem Fall ist dann aber eine Interpolation notwendig, um korrespondierende Pixel, also Pixel die den gleichen Ort der Prüfgegenstandsober- fläche G aufnehmen, zu gewinnen.
Wenn mehr als zwei Kameras verwendet werden, können diese in einer Reihe angeordnet werden oder auch flächig. Beispielsweise lassen sich vier Kameras in einer quadratischen 2 x 2 Anordnung anbringen, was die Abstände minimiert. Der Sonderfall für eine Dis- parität Null kann erreicht werden, wenn zwei Kameras über einen Strahlteiler genau gleich auf den Prüfgegenstand G ausgerichtet werden.
Verfahren für eine Kamera und mehrere Umdrehungen
Allen diesen Lösungsvarianten ist gemeinsam, dass eine Folge von Bildern mit geringstem zeitlichem Abstand aufgenommen werden kann, insbesondere dann, wenn sich der zu prüfende Gegenstand in Bewegung befindet. Für den besonderen Fall, dass der Prüfgegenstand G rotiert, beispielsweise wenn die Mantelfläche eines rotationssymmetrischen Prüfgegenstandes erfasst werden soll, ist eine weitere Alternative möglich: Hierbei wird der Prüfgegenstand G während der Drehbewegung mit einer Zeile Z1 eines Kamerachips C abgetas- tet, während eine erste Beleuchtung B1 aktiv ist.
Die Abbildungen 16a bis 16d zeigen eine Anwendung des erfindungsgemäßen Verfahrens mit der photometrischen Deflektometrie beispielhaft mit vier Beleuchtungen B1 bis B4. Gleiche Teile sind mit gleichen Bezugsziffern versehen, sodass insofern auf die vorherge- henden Abbildungen verwiesen wird.
Im oberen Teil der Abbildungen 16a bis 16d ist eine Seitenansicht des Aufbaus der photometrischen Deflektometrie dargestellt. Der Bereich L9 im oberen Teil der Abbildungen 16a bis 16d bezeichnet das auf den Prüfgegenstand G gerichtete Blickfeld der Zeile Z1. Der Prüfgegenstand G rotiert in Richtung des Pfeils 1 um die Rotationsachse 3. Weiterhin befindet sich ein Merkmal X auf dem rotierenden Prüfgegenstand G. Der helle Kreis kennzeichnet jeweils die aktive Beleuchtung.
Der untere Teil der Abbildungen 16a bis 16d stellt eine Draufsicht des Aufbaus, ohne die Kamera K dar. Es ist ein Oberflächenausschnitt des Prüfgegenstands G erkennbar, auf den schematisch eine
Zeile Z1 des Kamerachips C der Kamera K projiziert ist, sodass die Synchronisierung zwischen den Beleuchtungen B1 bis B4 und der Zeile Z1 darstellbar ist.
Andere Verfahren wie beispielsweise das photometrische Stereo, die Streifenprojektion und interferometrische Verfahren sind ebenfalls möglich. Wie in Abbildung 16b gezeigt ist, wird nach einer vollen Umdrehung anstelle der Beleuchtung B1 , die Beleuchtung B2 aktiviert. Nach einer weiteren Umdrehung wird zur nächsten Beleuchtung B3 und nach einer weiteren Umdrehung zu Beleuchtung B4 gewechselt, wie in den Abbildungen 16c und 16d dargestellt ist. Die gewünschte Anzahl von Beleuchtungssituationen kann variieren. Wichtig hierbei ist, dass bei jeder Umdrehung die einzelnen Zeilen genau deckungsgleich zu den vorhergehenden Umdrehungen er- fasst werden. Dies kann beispielsweise durch einen Drehgeber er- reicht werden.
Besonders vorteilhaft ist es, wenn für das erfindungsgemäße Verfahren eine Zeilenkamera, insbesondere aber eine hoch lichtempfindliche Zeilenkamera verwendet wird. Eine solche an sich bekannte hochempfindliche Zeilenkamera verfolgt eine Merkmal X des Prüfgegenstandes G über mehrere Zeilen hinweg durch Ladungsverschiebung und erreicht damit eine Summationswirkung in der Belichtung. Diese Technik ist als TDI-Technologie (Time Delay Integration) bekannt.
Abbildung 16e zeigt das erfindungsgemäße Verfahren zusammen mit einer solchen Kamera. Im unteren Teil der Abbildung 16e ist ein Zeilenmuster des Kamerachips C der Kamera K auf den Prüfgegenstand G projiziert. Die Ansammlung der Ladung von rechts nach links
ist durch eine wachsende Graufärbung angedeutet. Ein besonderer Vorteil dieser Ausgestaltung der Erfindung liegt darin, dass die meist geringe Lichtmenge bei Zeilenkameraanwendungen typisch bis zu einem Faktor 100 erhöht werden kann und gleichzeitig die Belichtungszeit reduziert und eine schnellere Bewegung des Prüfgegenstandes ermöglicht wird. Damit werden eine drastische Reduzierung der Erfassungs- bzw. Prüfzeit und der Erfassungs- bzw. Prüfkosten erzielt.
Claims
1. Kamerachip (C) zur Bildaufnahme, dadurch gekennzeichnet, dass Pixelgruppen (P1 , P2, ...) mit Hilfe von Shuttersignalen (S1 , S2, ...) zu verschiedenen Zeiten belichtbar sind.
2. Kamerachip (C) nach Anspruch 1 dadurch gekennzeichnet, dass Pixelgruppen (P1 , P2, ...) in kurzer zeitlicher Abfolge verglichen mit der Bildwiederholfrequenz belichtbar sind.
3. Kamerachip (C) nach einem der vorangehenden Ansprüche, gekennzeichnet durch vier Pixelgruppen (P1 , P2, P3 und P4), die mit Hilfe von vier Shuttersignalen (S1 , S2, S3 und S4) zu verschiedenen Zeitpunkten belichtbar sind.
4. Kamerachip (C) nach Anspruch 1 oder 2, gekennzeichnet durch zwei Pixelgruppen (P1 und P2), die mit Hilfe von zwei Shuttersignalen (S 1 und S2) zu verschiedenen Zeitpunkten belichtbar sind.
5. Kamerachip (C) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Kamerachip (C) im Interlaced- Modus betreibbar ist.
6. Kamerachip (C) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Pixel der Pixelgruppen (P1 , P2, ...) jeweils in Form eines Rechtecks oder Quadrats anordenbar sind.
7. Kamerachip (C) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Anzahl der Pixelgruppen (P1 bis Pn) das Quadrat einer natürlichen Zahl ist, z. B. 4, 9, 16 usw.
8. Kamerachip (C) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass dieser nur einige wenige Zeilen, vorzugsweise zwei bis vier Zeilen, umfasst.
9. Kamerachip (C) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es sich um einen Schwarz-Weiß- Chip handelt.
10. Elektronische Kamera (K) mit mindestens einem Kamerachip (C) nach einem der vorangehenden Ansprüche.
11. Verfahren zur optischen Formerfassung mit Hilfe eines Kamerachips (C) nach einem der Ansprüche 1 bis 9 sowie mit Hilfe einer Kamera (K) gemäß Anspruch 10, welcher eine bestimmte Anzahl Bilder in kurzer zeitlicher Abfolge verglichen zur Bildwiederholfrequenz aufnimmt.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass aus Messwerten benachbarter Pixel P einzelner Pixelgruppen (P1 , P2, ...), die Werte an gemeinsamen Bezugspunkten durch In- terpolation berechnet werden.
13. Verfahren zur Aufnahme einer Anzahl von Bildern eines Gegenstandes (G) in kurzer zeitlicher Folge mit mindestens einer Kamera (K) unter Verwendung von n unterschiedlichen Beleuchtungen, dadurch gekennzeichnet, dass die Beleuchtungen (B1 bis Bn) zeit- lieh nacheinander und/oder räumlich nebeneinander betrieben wer- den und dass für jede aktivierte Beleuchtung (B1 bis Bn) jeweils eine Anzahl von n Zeilen (Z1 bis Zn) eines Kamerachips (C) oder ein Vielfaches davon vorzugsweise gleichzeitig ausgelesen wird.
14. Verfahren nach einem der vorangehenden Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die Messwerte der Zeilen (Z 1 bis Zn) an eine Recheneinheit (R) übertragen werden, und dort in einem Speicher so aneinandergereiht werden, dass Aufnahmen vom gleichen Ort des Prüfgegenstands (G) jeder Beleuchtungssituation (B1 bis Bn) in korrespondierenden Speicherbereichen angeordnet sind.
15. Verfahren nach einem der vorangehenden Ansprüche 11 bis
14, dadurch gekennzeichnet, dass es sich bei der Kamera (K) um eine Matrixkamera handelt, deren Kamerachip (C) jeweils nur teilweise ausgelesen wird.
16. Verfahren nach einem der vorangehenden Ansprüche 11 bis
15, dadurch gekennzeichnet, dass es sich um eine Kamera (K) handelt, deren Kamerachip (C) nur wenige Zeilen, vorzugsweise ca. 100 Zeilen, oder vorzugsweise 2 bis 4 Zeilen, umfasst.
17. Verfahren nach einem der vorangehenden Ansprüche 11 bis 14, dadurch gekennzeichnet, dass es sich um eine gewöhnliche
Zeilenkamera handelt.
18. Verfahren nach einem der vorangehenden Ansprüche 11 bis 17, dadurch gekennzeichnet, dass sich der Prüfgegenstand (G) gegenüber der Kamera (K) bewegt.
19, Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass sich der Prüfgegenstand (G) geradlinig bewegt.
20, Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass der Prüfgegenstand (G) eine Rotationsbewegung durchführt.
21. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass der Prüfgegenstand (G) eine Schraubenbewegung durchführt.
22. Verfahren nach einem der vorangehenden Ansprüche 18 bis
21 , dadurch gekennzeichnet, dass die Geschwindigkeit der Bewegung und/oder der Zeitpunkt der Ausleseprozesse so gewählt ist, dass sich der Prüfgegenstand (G) zwischen zwei Ausleseprozessen um einen Pixelabstand oder ein Vielfaches davon weiterbewegt.
23. Verfahren nach einem der vorangehenden Ansprüche 11 bis
22, dadurch gekennzeichnet, dass die ausgelesenen Zeilen (Z 1 bis Zn) in einer Recheneinheit (R) nach den zugehörigen aktiven Be- leuchtungen(B1 bis Bn) getrennt werden.
24. Verfahren nach einem der vorangehenden Ansprüche 11 bis
23, dadurch gekennzeichnet, dass korrespondierende Bereiche des Gegenstandes (G) unter den Beleuchtungen (B1 bis Bn) angegeben werden können.
25. Verfahren nach einem der vorangehenden Ansprüche 11 bis
24, dadurch gekennzeichnet, dass keine Interpolation von Bilddaten notwendig ist.
26. Verfahren zur Aufnahme einer Anzahl von Bildern eines Gegenstandes (G) in kurzer zeitlicher Abfolge mit mehreren Kameras (K1 bis Kn) unter Verwendung von n unterschiedlichen Beleuchtungen (B1 bis Bn), dadurch gekennzeichnet, dass die Beleuchtungen (B 1 bis Bn) nacheinander aktiviert werden und jeweils die Kamera (K1 bis Kn) mit einem Shutter (S1 bis Sn) synchron zur Beleuchtung belichtet wird, wobei der Kamerachip (C) der jeweils nächsten Kamera (Kn) direkt nach der Belichtung des Kamerachips (C) der vorherigen Kamera (Kn), belichtet wird.
27, Verfahren nach Anspruch 26, dadurch gekennzeichnet, dass die Disparität der Kameras minimal gehalten wird.
28. Verfahren nach Anspruch 26 oder 27, dadurch gekennzeichnet, dass die Disparität konstant gehalten wird.
29. Verfahren nach einem der vorangehenden Ansprüche 26 bis
28, dadurch gekennzeichnet, dass die Disparität der Kameras (K1 bis Kn) ein ganzzahliges Vielfaches eines Pixelabstandes beträgt.
30. Verfahren nach einem der vorangehenden Ansprüche 26 bis
29, dadurch gekennzeichnet, dass die Disparität der Kameras (K1 bis Kn) Null ist.
31. Verfahren nach einem der vorangehenden Ansprüche 26 bis
30, dadurch gekennzeichnet, dass der Prüfgegenstand (G) in einer Ebene näherungsweise senkrecht zur optische Achse einer der Kameras (K1 bis Kn) geführt wird.
32. Verfahren nach einem der vorangehenden Ansprüche 26 bis
31 , dadurch gekennzeichnet, dass die optischen Achsen mehrerer Kameras näherungsweise parallel zueinander sind.
33. Verfahren zur Aufnahme einer Anzahl von Bildern eines Prüfgegenstandes (G) in Drehbewegung mit einer Kamera (K) unter Verwendung von n unterschiedlicher Beleuchtungen (B1 bis Bn), dadurch gekennzeichnet, dass jeweils für mindestens eine volle Umdrehung des rotierenden Prüfgegenstandes (G)1 die Beleuchtung (B1 bis Bn) aktiviert ist.
34. Verfahren nach Anspruch 33, dadurch gekennzeichnet, dass eine hoch lichtempfindliche Zeilenkamera verwendet wird.
35. Verfahren nach einem der Ansprüche 11 bis 34, dadurch gekennzeichnet, dass es in Verbindung mit dem Verfahren der photometrischen Deflektometrie angewandt wird.
36. Verfahren nach einem der Ansprüche 11 bis 34, dadurch gekennzeichnet, dass es in Verbindung mit dem photometrischen Stereoverfahren angewandt wird.
37. Verfahren nach einem der Ansprüche 11 bis 34, dadurch ge- kennzeichnet, dass es in Verbindung mit dem Verfahren der Streifenprojektion angewandt wird.
38. Verfahren nach einem der Ansprüche 11 bis 34, dadurch gekennzeichnet, dass es in Verbindung mit dem Verfahren der Interfe- rometrie angewandt wird.
39. Verfahren nach einem der Ansprüche 11 bis 34, dadurch gekennzeichnet, dass es in Verbindung mit dem Verfahren der Weiß- lichtinterferometrie angewandt wird.
40. Verfahren nach einem der Ansprüche 11 bis 34, dadurch gekennzeichnet, dass es in Verbindung mit einem Stereoverfahren angewandt wird.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06818463.9A EP1949673B1 (de) | 2005-11-10 | 2006-11-10 | Verfahren zur bildaufnahme |
US12/084,712 US8125563B2 (en) | 2005-11-10 | 2006-11-10 | Camera chip, camera and method for image recording |
CN2006800417367A CN101305601B (zh) | 2005-11-10 | 2006-11-10 | 用于摄录图像的摄像机芯片、摄像机和方法 |
US13/367,942 US8830386B2 (en) | 2005-11-10 | 2012-02-07 | Camera chip, camera and method for image recording |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005054465.7 | 2005-11-10 | ||
DE102005054465 | 2005-11-10 | ||
DE102006033391 | 2006-07-13 | ||
DE102006033391.8 | 2006-07-13 | ||
DE102006041932.4 | 2006-09-07 | ||
DE102006041932 | 2006-09-07 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US12/084,712 A-371-Of-International US8125563B2 (en) | 2005-11-10 | 2006-11-10 | Camera chip, camera and method for image recording |
US13/367,942 Division US8830386B2 (en) | 2005-11-10 | 2012-02-07 | Camera chip, camera and method for image recording |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2007054332A1 true WO2007054332A1 (de) | 2007-05-18 |
Family
ID=37814524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2006/010790 WO2007054332A1 (de) | 2005-11-10 | 2006-11-10 | Kamerachip, kamera und verfahren zur bildaufnahme |
Country Status (4)
Country | Link |
---|---|
US (2) | US8125563B2 (de) |
EP (1) | EP1949673B1 (de) |
CN (1) | CN101305601B (de) |
WO (1) | WO2007054332A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011117894A1 (de) | 2011-11-04 | 2013-05-08 | OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG | Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen |
CN104754323A (zh) * | 2013-12-31 | 2015-07-01 | 苏州智华汽车电子有限公司 | 摄像头光轴检测设备的标定方法 |
DE102015111120A1 (de) * | 2015-07-09 | 2017-01-12 | Chromasens Gmbh | Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera |
EP3298348A1 (de) * | 2015-05-22 | 2018-03-28 | SAC Sirius Advanced Cybernetics GmbH | Vorrichtung und verfahren zur optischen erfassung von innenwandungen |
DE102020109945A1 (de) | 2020-04-09 | 2021-10-14 | Isra Vision Ag | Verfahren und Inspektionseinrichtung zur optischen Inspektion einer Oberfläche |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2960059B1 (fr) * | 2010-05-11 | 2012-12-28 | Visuol Technologies | Installation de controle de la qualite d'une surface d'un objet |
JP5822463B2 (ja) * | 2010-12-28 | 2015-11-24 | キヤノン株式会社 | 三次元計測装置、三次元計測方法、およびプログラム |
DE102014226729A1 (de) | 2014-12-19 | 2016-06-23 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren zur optischen Formerfassung und/oder Formprüfung eines Gegenstands und Beleuchtungseinrichtung |
DE102015109431A1 (de) | 2015-06-12 | 2016-12-15 | Witrins S.R.O. | Inspektionssystem und Verfahren zur Fehleranalyse von Drahtverbindungen |
CN106162000B (zh) * | 2016-07-08 | 2019-03-15 | 上海芯仑光电科技有限公司 | 像素采集电路、图像传感器及图像采集系统 |
CN106791747A (zh) * | 2017-01-25 | 2017-05-31 | 触景无限科技(北京)有限公司 | 台灯互动展示的分时处理方法、装置以及台灯 |
US10469775B2 (en) * | 2017-03-31 | 2019-11-05 | Semiconductor Components Industries, Llc | High dynamic range storage gate pixel circuitry |
GB201710705D0 (en) * | 2017-07-04 | 2017-08-16 | Optoscale As | Structured-Light Illumination |
US10402988B2 (en) * | 2017-11-30 | 2019-09-03 | Guangdong Virtual Reality Technology Co., Ltd. | Image processing apparatuses and methods |
DE102017221649A1 (de) | 2017-12-01 | 2019-06-06 | Volkswagen Aktiengesellschaft | Prüfverfahren zur Detektion von Oberflächenfehlern auf matten und glänzenden Flächen und zugehörige Vorrichtung sowie Prüfanordnung zwischen Vorrichtung und Bauteil |
DE102017129737A1 (de) * | 2017-12-13 | 2019-06-13 | Hauni Maschinenbau Gmbh | Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie |
DE102018008154B4 (de) | 2018-10-16 | 2023-03-16 | I-Mation Gmbh | Verfahren und Vorrichtung zur optischen Erfassung der Form eines Gegenstandes |
CN111650208B (zh) * | 2020-06-01 | 2021-08-27 | 东华大学 | 一种巡游式机织面料疵点在线检测器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0898163A1 (de) * | 1997-08-22 | 1999-02-24 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. | Verfahren und Vorrichtung zur automatischen Prüfung bewegter Oberflächen |
EP1030173A1 (de) * | 1999-02-18 | 2000-08-23 | Spectra-Physics VisionTech Oy | Vorrichtung und Verfahren zur Oberflächenqualitätsprüfung |
US6452632B1 (en) * | 1997-01-31 | 2002-09-17 | Kabushiki Kaisha Toshiba | Solid state image sensor and video system using the same |
WO2004051186A1 (de) * | 2002-11-29 | 2004-06-17 | OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG | Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung |
US20040183940A1 (en) * | 2003-03-19 | 2004-09-23 | Ramesh Raskar | Non-photorealistic camera |
US20040183925A1 (en) * | 2003-03-19 | 2004-09-23 | Ramesh Raskar | Stylized imaging using variable controlled illumination |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7129590B2 (en) | 2003-05-14 | 2006-10-31 | Intel Corporation | Stencil and method for depositing material onto a substrate |
CN1573450A (zh) * | 2003-06-10 | 2005-02-02 | 株式会社日立显示器 | 液晶显示装置及其驱动方法 |
US7446812B2 (en) * | 2004-01-13 | 2008-11-04 | Micron Technology, Inc. | Wide dynamic range operations for imaging |
JP4088313B2 (ja) * | 2004-01-23 | 2008-05-21 | オリンパス株式会社 | 画像処理システム、院内処理システム |
EP1832107B1 (de) * | 2005-02-18 | 2010-08-11 | Nokia Corporation | Tragbares, elektronisches gerät zur bildaufnahme |
-
2006
- 2006-11-10 US US12/084,712 patent/US8125563B2/en not_active Expired - Fee Related
- 2006-11-10 EP EP06818463.9A patent/EP1949673B1/de active Active
- 2006-11-10 WO PCT/EP2006/010790 patent/WO2007054332A1/de active Application Filing
- 2006-11-10 CN CN2006800417367A patent/CN101305601B/zh active Active
-
2012
- 2012-02-07 US US13/367,942 patent/US8830386B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6452632B1 (en) * | 1997-01-31 | 2002-09-17 | Kabushiki Kaisha Toshiba | Solid state image sensor and video system using the same |
EP0898163A1 (de) * | 1997-08-22 | 1999-02-24 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. | Verfahren und Vorrichtung zur automatischen Prüfung bewegter Oberflächen |
EP1030173A1 (de) * | 1999-02-18 | 2000-08-23 | Spectra-Physics VisionTech Oy | Vorrichtung und Verfahren zur Oberflächenqualitätsprüfung |
WO2004051186A1 (de) * | 2002-11-29 | 2004-06-17 | OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG | Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung |
US20040183940A1 (en) * | 2003-03-19 | 2004-09-23 | Ramesh Raskar | Non-photorealistic camera |
US20040183925A1 (en) * | 2003-03-19 | 2004-09-23 | Ramesh Raskar | Stylized imaging using variable controlled illumination |
Non-Patent Citations (3)
Title |
---|
NAYAR S K ET AL: "Adaptive dynamic range imaging: optical control of pixel exposures over space and time", PROCEEDINGS OF THE EIGHT IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. (ICCV). NICE, FRANCE, OCT. 13 - 16, 2003, INTERNATIONAL CONFERENCE ON COMPUTER VISION, LOS ALAMITOS, CA : IEEE COMP. SOC, US, vol. VOL. 2 OF 2. CONF. 9, 13 October 2003 (2003-10-13), pages 1 - 8, XP010662526, ISBN: 0-7695-1950-4 * |
SMITH ET AL: "Dynamic photometric stereo-a new technique for moving surface analysis", IMAGE AND VISION COMPUTING, GUILDFORD, GB, vol. 23, no. 9, 1 September 2005 (2005-09-01), pages 841 - 852, XP005006117, ISSN: 0262-8856 * |
WOODHAM R J ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "DETERMINING SURFACE CURVATURE WITH PHOTOMETRIC STEREO", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION. SCOTTSDALE, MAY 15 - 19, 1989, WASHINGTON, IEEE COMP. SOC. PRESS, US, vol. VOL. 1, 15 May 1989 (1989-05-15), pages 36 - 42, XP000047432, ISBN: 0-8186-1938-4 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011117894A1 (de) | 2011-11-04 | 2013-05-08 | OBE OHNMACHT & BAUMGäRTNER GMBH & CO. KG | Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen |
EP2589926A1 (de) | 2011-11-04 | 2013-05-08 | OBE Ohnmacht & Baumgärtner GmbH & Co. KG | Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen |
CN104754323A (zh) * | 2013-12-31 | 2015-07-01 | 苏州智华汽车电子有限公司 | 摄像头光轴检测设备的标定方法 |
CN104754323B (zh) * | 2013-12-31 | 2017-06-20 | 苏州智华汽车电子有限公司 | 摄像头光轴检测设备的标定方法 |
EP3298348A1 (de) * | 2015-05-22 | 2018-03-28 | SAC Sirius Advanced Cybernetics GmbH | Vorrichtung und verfahren zur optischen erfassung von innenwandungen |
DE102015111120A1 (de) * | 2015-07-09 | 2017-01-12 | Chromasens Gmbh | Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera |
WO2017005871A1 (de) | 2015-07-09 | 2017-01-12 | Chromasenes Gmbh | Verfahren und vorrichtung zum abtasten von oberflächen mit einer stereokamera |
DE102020109945A1 (de) | 2020-04-09 | 2021-10-14 | Isra Vision Ag | Verfahren und Inspektionseinrichtung zur optischen Inspektion einer Oberfläche |
Also Published As
Publication number | Publication date |
---|---|
US8830386B2 (en) | 2014-09-09 |
CN101305601A (zh) | 2008-11-12 |
CN101305601B (zh) | 2011-03-30 |
US20120133741A1 (en) | 2012-05-31 |
EP1949673A1 (de) | 2008-07-30 |
US8125563B2 (en) | 2012-02-28 |
EP1949673B1 (de) | 2015-08-26 |
US20090128685A1 (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1949673B1 (de) | Verfahren zur bildaufnahme | |
EP1971820B1 (de) | Erstellung eines abstandsbildes | |
EP3278302B1 (de) | Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems | |
DE3328753C2 (de) | Verfahren und Vorrichtung zur Abbildung einer Szene | |
DE102006001634B3 (de) | Erstellung eines Abstandsbildes | |
DE19983341B4 (de) | Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren | |
DE3829925C2 (de) | Vorrichtung zur optischen Vermessung von Zähnen in der Mundhöhle | |
EP3033588B1 (de) | Verfahren und vorrichtung zum berührungslosen vermessen von oberflächenkonturen | |
DE102009009372A1 (de) | Monitoring von kippbaren Spiegeln | |
DE4007502A1 (de) | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen | |
DE19714221A1 (de) | Konfokales Mikroskop mit einem motorischen Scanningtisch | |
DE10020893A1 (de) | Verfahren zur optischen Formerfassung von Gegenständen | |
WO2014000738A2 (de) | Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung | |
DE4226683A1 (de) | Optischer bewegungsaufnehmer | |
EP2589926B1 (de) | Vorrichtung und Verfahren zur optischen Formerfassung von bewegten Gegenständen | |
DE102012206472B4 (de) | Projektionssystem mit statischen mustererzeugungselementen und mehreren optischen kanälen zur optischen 3d-vermessung | |
DE69915655T2 (de) | Apparat zur abbildung und zur inspektion der oberfläche von dreidimensionalen objekten | |
DE19919584A1 (de) | Verfahren und Anordnung zur 3D-Aufnahme | |
DE102006031833A1 (de) | Verfahren zum Erzeugen von Bildinformationen | |
WO2021204521A1 (de) | Verfahren und inspektionseinrichtung zur optischen inspektion einer oberfläche | |
DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme | |
WO2016177820A1 (de) | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen | |
DE10256725B3 (de) | Sensor, Vorrichtung und Verfahren zur Geschwindigkeitsmessung | |
DE3934423C1 (en) | Camera photographing topography of test piece surface - produces Moire image using CCD sensors recording phase shift between object grating and camera reference grating | |
DE102014223747A1 (de) | Vorrichtung und Verfahren zur Vermessung eines Höhenprofils einer Oberfläche unter Verwendungeiner länglichen Blende |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 200680041736.7 Country of ref document: CN |
|
DPE1 | Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101) | ||
121 | Ep: the epo has been informed by wipo that ep was designated in this application | ||
WWE | Wipo information: entry into national phase |
Ref document number: 2006818463 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12084712 Country of ref document: US |
|
WWP | Wipo information: published in national office |
Ref document number: 2006818463 Country of ref document: EP |