EP2198458A1 - Bildsensor mit bildkompensation durch pixelanordnung - Google Patents

Bildsensor mit bildkompensation durch pixelanordnung

Info

Publication number
EP2198458A1
EP2198458A1 EP08802567A EP08802567A EP2198458A1 EP 2198458 A1 EP2198458 A1 EP 2198458A1 EP 08802567 A EP08802567 A EP 08802567A EP 08802567 A EP08802567 A EP 08802567A EP 2198458 A1 EP2198458 A1 EP 2198458A1
Authority
EP
European Patent Office
Prior art keywords
image sensor
array
sensor according
microlens
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP08802567A
Other languages
English (en)
French (fr)
Inventor
Jacques DUPARRÉ
Frank Wippermann
Andreas BRÄUER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP2198458A1 publication Critical patent/EP2198458A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays

Definitions

  • the invention relates to an image sensor having a plurality of image sensor units in a substantially array-like arrangement.
  • Image sensors are used wherever an image of an object is to be made available for viewing or further processing by means of a data processing system. In essence, an imaging optics, an image sensor with associated electronics and a data processing system are used here.
  • aberrations For example, spherical aberration, coma, astigmatism, field curvature, distortion errors, defocusing, and longitudinal or transverse chromatic aberration are examples.
  • spe- The main lens design such as aspherical lenses or a combination of different lens shapes and also different materials, attempts to compensate for the artifacts.
  • the aberrations can only be corrected to some extent, with different aberrations in the correction acting in opposite directions, ie the correction of one aberration will result in the deterioration of another aberration.
  • Another approach to correct the aberrations is to subsequently correct or even remove digital aberrations of the images ("remapping"), the aberrations that result only in a distortion of the image, but not in fuzziness.
  • the disadvantage of this solution is that memory is needed to calculate the transformations from the uncorrected image to the corrected image and, in particular, computation time. Furthermore, it is necessary to interpolate between the actual pixels of the image sensor, i. either a finer scan is needed or resolution is lost.
  • the aim of the invention is to provide an image sensor or a camera system which makes it possible to make some aberration corrections with the aid of the image sensor, so that mutually limiting aberration corrections in the objective system can be avoided. Furthermore, with the image sensor only low requirements for memory and computing time of an electronics or downstream data processing system should be necessary.
  • the image sensor with a multiplicity of image sensor units has an array-like structure. This reflects the current standards of displays and printers.
  • the array has a coordinate system consisting of nodes and connecting lines, wherein the photosensitive surfaces of the image sensor units are respectively arranged on the nodes.
  • the coordinate system is not part of the array, but is used for orientation purposes. lent a crystal lattice.
  • the connecting lines here are vertical or horizontal in the sense that they run from top to bottom or left to right. It is by no means meant that the vertical or horizontal connecting lines are necessarily straight or parallel to each other. Therefore, it makes sense to speak of a net with connecting lines and nodes instead of a grid, in order to exclude a linguistic misconception.
  • the array-like arrangement has a center region and an edge region, wherein the center region and the edge region are connected to one another along at least one connecting line. This determines that the center area and the border area are not disjoint sets, but merge smoothly. Characterized in that the distance between two adjacent nodes, ie, the locations at which the photosensitive surfaces of the image sensor units are arranged, along the at least one connecting line, which connects the center and the edge area with each other, in the center region and the edge region is different, different aberrations be corrected by the geometry of the image sensor or the image sensor units arranged thereon, so that in particular in the correction of oppositely behaving aberrations not exclusively by any reiv standing. Lens system must be corrected.
  • the center region is the region of the image sensor which is pierced by the optical axis of an associated lens.
  • Prior art image sensors are constructed as an equidistant array of image sensor units.
  • Optical defects usually occur at an increasing distance from the optical axis of a lens arrangement and become stronger towards the edges of the image sensor.
  • a fixed distance between all individual image sensor units with each other only ensures that the aberrations are also visible on the recorded image.
  • correction terms can be taken into account at the edge region, so that the image still has the aberration, but the photosensitive surfaces are arranged so that the images taken with the image sensor units in an equidistant pixel display aberration free are.
  • there is a better imaging of beam paths which either do not run through the center of the lens or incident at large angles and are imaged on the image sensor.
  • the distance between a second connecting line, which is parallel at least in one place to the first connecting line (along which the distance between two light-sensitive surfaces changes from the center to the edge region), also changes from the center to the edge region to the first connecting line, a variation in distance not only along one dimension, but also in the second dimension of Image sensor again.
  • the distance of respectively two adjacent nodes of the array-like arrangement of the image sensor units changes from the center region to the edge region in order to compensate the geometric distortion, wherein the correction can be made independently or dependent on a lens system.
  • the distortion is divided into a positive distortion, ie a pincushion distortion, and a negative distortion, ie a barrel distortion. Since the geometric distortion causes only a change of the magnification with the angle of incidence, ie a dot image offset relative to the ideal case, but no enlargement of the focus, ie the point spread image function and thus a reduction of the resolution, this is particularly suitable, on image sensor level by a shift the corresponding assigned detector pixels to be corrected.
  • the distortion is the deviation of the real principal ray position in the image sensor plane from the position of the ideal, or paraxially approached, principal ray. This results in a variable magnification over the image field and thus to the distortion of the overall picture. While the ideal, or paraxially approximated image field coordinate y p is directly proportional to the tangent of the angle of incidence ⁇ , the real image field coordinate y deviates therefrom. The deviation from the tangent is the distortion and is typically approx. ⁇ A 3 or a complicated curve. As a measure of the distortion, (y- y p ) / y p is used here: If the real image field coordinate is greater than the ideal image field coordinate, the distortion is pillow-shaped, otherwise barrel-shaped.
  • the position of the real principal ray is compared with the ideal principal ray and the photosensitive area is compared with the distance of the two rays outward (in a pincushion distortion) or inward (in a barrel distortion) shifted the position of the real main beam.
  • a development of an image sensor according to the invention is to form the array-like arrangement in the form of a rectilinear grid.
  • the change of the distance from the center to the edge area is made only in one dimension of the array.
  • an image sensor which is formed very narrow but oblong be formed in the length dimension, normal in the first dimension, since in this the distortion remains small.
  • connection as a parameterized curve, but can no longer be represented as a straight line.
  • the array-like arrangement can be represented as a curvilinear grid, ie from a large number of parameterized curves.
  • the distance between two adjacent photosensitive surfaces changes from the center to the edge region along a multiplicity of connecting lines in both array dimensions.
  • the curvilinear lattice forms a two-dimensional extension of the rectilinear lattice.
  • An advantageous arrangement is when the edge region of the image sensor completely surrounds the center region of the image sensor.
  • the advantage here is that, starting from the center region, further image sensor units are arranged in each direction, and thus an image sensor region encloses the optical axis.
  • the compensation of the aberration advantageously of the geometric distortion, can take place from the center region of the image sensor in all directions of the image sensor plane.
  • a further advantageous development is when the plurality of image sensor units is arranged on a substrate. This has advantages in particular in the production, since an application of common patterning techniques is possible. It is furthermore advantageous if the image sensor units are optoelectronic and / or digital units.
  • the light-sensitive Liehe surface of an image sensor unit is arranged in each case in the center of this image sensor unit. In this way, not only the distances of the photosensitive centers of the image sensor units to each other but also the distances of the image sensor units from each other are shifted. Alternatively, only the photosensitive areas can change their spacing, which results in them not being exclusively located in the center of an image sensor unit. Also, both alternatives can be realized within an image sensor. Furthermore, it is advantageous if the photosensitive surface is a photodiode or a detector pixel, in particular a CMOS, or a CCD or organic photodiodes.
  • Another particularly advantageous arrangement is when at least one image sensor unit has a microlens and / or the plurality of image sensor units is covered by a microlens grid. Furthermore, with the help of microlenses further aberrations can be compensated, which are otherwise corrected within an upstream imaging optics, if they have variable geometrical properties over the field of view of the optics as separately and variably adjustable tangential and sagittal radii of curvature.
  • a further advantageous development of the image sensor provides that the microlens and the microlens grid are designed to increase the fill factor. Thereby, a light beam incident on an image sensor unit can be better concentrated on the photosensitive surface of an image sensor unit, resulting in an improvement of the signal-to-noise ratio.
  • the microlenses of a plurality of image sensor units or the radii of curvature of the microlenses in the two main axes of the array astigmatism or field curvature can be corrected using the microlenses or the astigmatism and field curvature of the microlenses are corrected ,
  • This also allows the shifting of corrections from an imaging optic to the image sensor, which in turn opens up degrees of freedom in the design of the imaging optics.
  • the microlenses can be used to focus better on the photosensitive surfaces (which are offset in line with the main beam angle), so that a better image is possible with the aid of the adapted microlens shape.
  • an image sensor unit can advantageously have a color filter and / or the plurality of image sensor units. Soröen be connected to a color filter grid. For color image mostly 3 primary colors are used, so for example red, green and blue, or magenta, cyan and yellow, the color pixels z. B. are arranged in a Bayer pattern. Color filters, like the microlenses, are offset at the respective position of the array for adaptation to the main beam of the optics.
  • the color filters can be offset relative to the microlenses relative to the photosensitive surfaces, on the one hand to compensate for the resulting from the main beam angle lateral displacement of the focus on the photodiode, or compensate for distortion but also a better assignment of the individual color spectra on the photosensitive surface in the case allow chromatic transverse aberrations.
  • the offset of the color filters and associated pixels corresponds to the offset of the different colors imaged by transverse chromatic aberrations.
  • the camera system according to the invention is characterized in that the image sensor is in planned and permanent connection with an upstream imaging optics.
  • the image sensor is arranged in the image plane of the optics.
  • the size of the image sensor units or their photosensitive surfaces is variable and therefore suitable for at least some of the image sensor units. units in an image sensor are different. This makes it possible to additionally exploit the space obtained by distortion to the edge of the image sensor, whereby a greater photosensitivity is achieved with a larger area of the photodiodes. In this way, the edge drop of the brightness can be compensated, thereby improving the relative illuminance.
  • the lateral color aberration can be corrected on the image sensor side by arranging the color filters on the detector pixels adapted to the lateral color aberration of the optics, so that the transverse color aberration of the optics can be compensated.
  • the color filters can be arranged differently from the standard Bayer pattern or from the conventional demodulation of the Bayer pattern or demosaicing and a known lateral chromatic aberration can be eliminated by means of image processing algorithms.
  • different, possibly further apart, detector pixels of different colors can be charged to a color pixel.
  • the image sensor may be formed on a curved surface, so that a curvature of the image field can be corrected.
  • the image sensor units and / or the photosensitive surfaces have or are provided with organic photodiodes, since these are particularly favorable on a curved base can be produced.
  • the distortion of the optics can be increased or released in the optical design to better correct other aberrations.
  • properties such as e.g. The resolution can be significantly improved, even if they are not easy to correct by a shift of the pixels.
  • This approach is particularly advantageous in Waferleveloptics, where it makes sense because of the large numbers to match an image sensor on only a single lens design, since the lens and image sensor are simultaneously designed in cooperating companies or in the same company as components for only this one camera system , Such cameras can be used, for example, as mobile phone cameras.
  • optics and image sensor can be optimally designed as an overall system, whereby the problem of distortion correction is transferred from the optics to the image sensor (ie that distortion of the optics may be increased to allow the optics other degrees of freedom, such as resolution enhancement or resolution homogeneity). Also, a cheaper production of the camera system can be made possible.
  • elliptical, chirped microlenses can be used on the image sensor, with which a focus angle adjusted to the angle of incidence can be used. is possible in the pixels.
  • the microlenses can be designed with parameters that are changed monotonously radially over the array, such as tangential and sagittal curvature radius.
  • the image sensors can be arranged offset at the same time according to the main beam angle and according to the distortion of the upstream imaging optics with respect to a regular lens array.
  • the geometry of the individual microlenses of a fill-factor-increasing microlens system can therefore be adapted to the main beam angle of the bundle to be focused by the respective lens.
  • a correction of astigmatism and field curvature of the microlenses can be achieved by adaptation (extension) of the radii of curvature in the two main axes of elliptical lenses, whereby an optimal focus on the corresponding to the main beam angle and distortion in place staggered photodiodes is possible.
  • the microlens shape can thus be adapted to the main beam angle as well as the offset of pixels and microlenses according to the distortion. It is also possible to rotate the elliptical lenses in accordance with the image field coordinate such that the long of the two main axes runs in the direction of the main beam.
  • Both the radii of curvature and the radii of curvature and the orientation of the lens at a constant photoresist thickness in the reflow process can be adjusted via the axis size and the axial ratio as well as the orientation of the lens base. As a result, a larger image-side main beam angle can be accepted overall, which provides further degrees of freedom for the objective lens. design opened.
  • a camera system or an image sensor according to the invention in a camera and / or a portable telecommunication device and / or a scanner and / or an image recognition device and / or a monitoring sensor and / or a terrestrial and / or star sensor and / or a satellite sensor and / or a spacecraft and / or a sensor arrangement for use.
  • the use in the monitoring of industrial plants or individual parts thereof is advisable because the sensor or the camera system can provide accurate images without high computational effort.
  • the use in micro robots offers itself due to the small size of the sensor.
  • the sensor can be used in a (micro-) endoscope.
  • the image sensor or the camera system is produced such that the distortion of a planned or already manufactured optics is determined in a first step and then an image sensor is produced, in which the geometric distortion of the optics by arranging the photosensitive surfaces or the image sensor units, at least partially, is compensated.
  • the distortion of the optics no longer has to be kept low, for example, a better resolution achieved without increasing the complexity of the optics.
  • FIGS. Ia and Ib Image sensor and beam path according to the prior art
  • FIGS. 2a and 2b show a schematic representation of an inventive image sensor with an array for correcting an aberration, in particular a geometric distortion
  • FIG. 2c is a cross-sectional view showing the offset of a pixel according to the invention.
  • FIG. 5 shows the right upper quadrant of a regular array of round microlenses
  • Fig. 8 beam path and spot distribution for a spherical lens under normal and oblique incidence of light (above) and for an elliptical lens under oblique incidence (below).
  • a diffraction-limited focus in the paraxial image plane can be achieved;
  • Fig. 9 is a diagram showing the geometry of an elliptical lens
  • FIG. 10 shows the measured intensity distribution in the paraxial image plane for vertical and oblique incidence of light for a spherical and an elliptical lens. Circles mark the diameter of the Airy disk.
  • FIG. 1a shows a plan view of an image sensor 1 which has a multiplicity of image sensor units, wherein a few image sensor units 2, 2 ', 2 "are designated by way of example, the image sensor units being arranged in the form of an array, the array being nodes (FIG. 11, II 1 , 11 ") and in the X direction along the connecting line 12 and in the Y direction along the connecting line 13 is aligned.
  • the network thus represents a coordinate system within the sensor Technique is the distances between two adjacent photosensitive surfaces, both along the connecting lines in the X direction and along the connecting lines in the Y direction is identical .
  • the distances 40 and 41 are the same, ie in particular that the horizontal connecting lines 12 to each other and verti kalen connecting lines 13 are parallel to each other.
  • the image sensor 1 shown here has a center region 5 in the middle and an edge region 6 at the edge, which encloses the center region.
  • the photosensitive surface of an image sensor unit is formed by a photodiode or a detector pixel.
  • FIG. 1b shows a view of the image sensor 1 in the XZ plane.
  • a point F make light beams 15, 15 ', 15 "and 15' ⁇ 'on different image sensor units 2, 2, 2', 2", 2 1 1 1, which are all arranged along the connecting line 12th
  • the distances 40 each two adjacent Pixels 20 located at the center of an image sensor unit 2 are the same along the connecting line.
  • the distance between the photosensitive surface 20 of the image sensor unit 2 and the point F corresponds to the image width of an optic associated with the image sensor.
  • the distance between two adjacent pixels 20 is the same, different angle segments are covered between two adjacent pixels 20. However, this is irrelevant for the image, since the image - apart from a possible enlargement or reduction - correctly reproduces the object to be imaged.
  • the marked main beams 15, 15 ', 15 "and 15''' are ideal main beams, ie the picture is distortion-free.
  • the distances between two photosensitive surfaces are not as shown in FIGS. 2a and 2b, continuously changing along a connecting line, but that the distance in the center region is equidistant and is equidistant in the edge region, that the distances in the center region and in the edge region, however, are different.
  • the shape of the image sensor units shown here is rectangular or square, but may also be round or polygonal.
  • FIG. 2c schematically shows how a single pixel is offset in order to enable a correction of a geometric distortion already at the image sensor level. Shown is an ideal main beam 15 'and the associated real main beam 16'. The pixel 20 of the image sensor unit 2 'is in the focus of the ideal main beam. The pixel 20 is now shifted by the distance V (in reality, the pixel is of course not shifted). but arranged at the relevant point), where V is the correction term of the geometric distortion and can be determined from theoretical calculations or measurements of a lens system. The image sensor unit 2 'is shifted to the position 216', although an offset of the pixel 20 itself is also sufficient. The correction term is dependent on the type of geometric distortion and the distance from the optical axis 15 of the associated optical lens system.
  • FIG. 2 d shows a view of a section of the image sensor 1 'from FIG. 2 a in the XZ plane.
  • a main beam 15 starting from the point F in the center of the image sensor 1 'and is perpendicular to this.
  • the photosensitive areas 20 are located in the center of the image sensor units 2. It can be clearly seen that the distances 400, 401, 402, 403 and 404 increase with increasing X-direction.
  • the image sensor units 2, 2 ', 2 can be assigned to the center region 5 and the image sensor units 2'" and 2 "" to the edge region 6. Each pixel is thereby, as described in Fig.
  • the associated ideal principal ray is predefined by an equidistant array arrangement, but the actual principal rays are used to arrange the individual pixels, resulting in a non-equidistant arrangement of the pixels.
  • the distortion or the course of the distortion of the lens to be used is already built into the image sensor itself.
  • the object points shown offset from the objective relative to the paraxial case are also imaged onto correspondingly offset receiver pixels.
  • the association between object points and pixels thus coincides exactly and a distortion-free or poor digital image is generated by simple data extraction and arrangement of the image pixel values.
  • each individual image sensor unit 2 has a unit of filling factor increasing microlens, color filters (eg in Bayer arrangement, ie adjacent detector pixels have different color filters (red, green blue)) and detector pixels.
  • the pincushion arrangement of the image sensor units corrects the distortion of the lens used for imaging by approximately 10% distortion.
  • the percentage refers to the deviation of an ideal or paraxial pixel from the real image field point normalized by the coordinate of the ideal or paraxial pixel.
  • FIG. 4 shows two adjacent image sensor units 2 and 2 'of an image sensor according to the invention.
  • the image sensor units each have a microlens 30 or 30 ', which, in combination with all other image sensor units, as shown in FIG. 3, can be formed as a raster and thus likewise image the different distances between the image sensor units, so that gives a recorded micro lens structure.
  • the color filters 31 and 31 ' which may also be formed as a grid or as a raster.
  • a fill factor increase can be achieved so that the fill factor of the photosensitive surface within an image sensor unit can be on the order of 50%, but nevertheless almost all light which falls on an image sensor unit.
  • the light-sensitive detector unit 20 or 20 in the recess' is arranged in each case.
  • the pinhole array with the pinholes 32, 32 ' may be formed so that the distances between adjacent photosensitive surfaces 20 and 20' changes from the center to the edge region, but the distances 50 between two adjacent image sensor units remain the same.
  • the geometry of the individual microlenses 30, 30 'of the fill factor-increasing microlens array is adapted to the main beam angle of the bundle to be focused by a respective optics; this is done by a variation of the radii of curvature of the microlenses along a connecting line, or the radii of curvature of a single microlens in the two major axes X and Y to each other, the two radii of curvature within a microlens over the array along a connecting line can vary and the microlenses of non-rotationally symmetric nature.
  • an astigmatism or a field curvature can be corrected by appropriate adaptation of the radii of curvature in the two principal axes to form elliptical microlenses.
  • an optimal focus on the corresponding to the main beam angle from the center of a Image sensor unit offset photodiodes 20 can be realized. It is not the offset of the photodiodes but the adaptation of the microlens shape to the main beam angle crucial.
  • the mounting of elliptically chirped microlenses in which the radii of curvature and the radii of curvature are set exclusively on the axis size and the axial ratio and the orientation of the microlens basis, makes sense. In this way, a larger image-side main beam angle may possibly be accepted. This opens up further degrees of freedom for the lens design since further aberrations at the image sensor level are corrected with the help of the microlenses.
  • the image sensor units or the photosensitive surfaces of the image sensor units can become larger toward the outside, or have a low fill factor only in the edge area. Whether a pillow or barrel distortion of a lens is present is determined by the position of an aperture stop in the overall structure of an optic.
  • the aperture diaphragm is advantageously to be arranged so that it is located between the relevant lens, which may be the lens of greatest refractive power or the main optical plane and the image sensor, so that a pincushion distortion is formed to have a reduced fill factor only in the edge region of the image sensor ,
  • the size of the photodiodes within the image sensor units can also be adjusted via the array in order to increase the fill factor as far as possible. Also, the size of the microlenses can be adjusted accordingly.
  • the photosensitive surfaces it is important that the photosensitive surfaces, so the photodiodes change their distance from each other to compensate for a geometric distortion. Whether the photodiodes are located respectively in the center or outside the center of an image sensor unit is equivalent when compensating a geometric distortion.
  • the space gained thereby can be used to enlarge the active light-sensitive photodiode area, which leads to a reduction of the natural vignetting in the edge area.
  • FIG. 5 shows an image sensor I 1 with a distortion correction, which is formed in conjunction with an imaging optical unit 100.
  • the optics shown here requires no corrections for the geometric distortion, since this is already fully integrated in the image sensor 1 '.
  • the lens 1000 is the lens, which has the greatest refractive power within the optics 100 and thus significantly defines the position of the main plane of the optics.
  • an aperture stop 101 is attached, so that a barrel-shaped distortion occurs.
  • color information can be recorded, and by means of a microlens grid also an astigmatism or a field curvature can already be corrected - at least in part - at the image sensor level.
  • degrees of freedom in the design of the lenses 1000 and 1001 are released, which can be addressed with other aberrations, such as coma or spherical aberration.
  • the information from the image sensor 1 ' is sent via a data connection 150 to a data processing system 200 forwarded, in which without large memory or computational time a distortion-free object image can be made available to the viewer. Since the image sensor 1 'is tuned to the optics 100, the image sensor must be pre-aligned according to the main beam path of the optics.
  • Another way to form the image sensor is to mount the image sensor on a curved surface.
  • a field curvature can be corrected, since now all photosensitive surfaces have a constant distance to the center of the lens with the greatest refractive power. Even a constant distance to the center of a complicated lens system is possible, but more complicated in its calculation.
  • the arrangement of the image sensor on a curved surface is easily realized.
  • the substrate of the image sensor, on which the photosensitive units are applied can have a corresponding curvature.
  • the photodiodes may have variable sizes in order to Drawing exploited space to the edge in addition to exploit.
  • a lateral color aberration can be corrected on the image sensor side by arranging the color filters on the detector pixels adapted to the color cross filter of the optics or by offsetting the color pixel signals.
  • the image sensor may for example also be designed curved.
  • the image sensor can be, for example, an image sensor produced on a wafer scale, for example for mobile telephone cameras.
  • optics and image sensor can be designed together.
  • elliptically chirped microlenses for focusing which is adapted to the angle of use, into the pixels.
  • the radii of curvature of the microlenses can vary in the direction of the two main axes of the ellipses.
  • a rotation of the elliptical lenses according to the image field coordinate is possible.
  • Chirped arrays of refractive microlenses can also be used according to an advantageous embodiment.
  • chirped microlens arrays are constructed of similar but not identical lenses. The detachment from the rigid geometry of regular arrays enables optical systems with optimized optical parameters for applications such as e.g. the Guidepoints, a Wide Area Network, a Wide Area Network, a Wide Area Network, a Wide Area Network, a Wide Area Network, or the like.
  • Regular microlens arrays are used in a variety of applications - in sensor technology, for beam shaping, for digital photography (fill factor increase), and in the field of motion control optical telecommunications, just to name a few. They can be fully described by the number of lenses, the geometry of the repetitive unit cell, and the distances to the nearest neighbors-the pitch. In many cases, the individual cells of the array are used in different ways, but this can not be taken into account when designing an rMLA. The geometry of the array found in the optical design therefore represents only a compromise solution.
  • chirped microlens arrays e.g. are shown in Fig. 7, from individually adapted to their task cells, which are defined by means of parametric description.
  • the number of parameters required depends on the specific geometry of the lenses.
  • the cell definition can be obtained by analytical functions, numerical optimization methods or a combination of both.
  • the functions depend on the position of each cell in the array.
  • a preferred application of chirped microlens arrays is the channel-wise optimization of the optical function of a repeating array of changing boundary conditions.
  • CCD or CMOS imagers are usually planar, the upstream imaging optics are typically non-telecentric, ie, the main beam angle increases toward the edge of the field.
  • An incident angle-dependent offset between lenses and receptors typically causes each pixel to emit light with another (edge-to-edge) light. Beam angle of the upstream optics can record.
  • each microlens transmits a very small aperture angle, more preferably less than 1 °, so that efficient aberration correction through the individual adjustment of the lenses is possible.
  • photoresist melting reflow
  • the resulting cylinders are melted. By acting on surface tensions, this leads to the desired lens shape.
  • the dominant lens aberrations astigmatism and field curvature can be efficiently corrected by using anamorphic lenses.
  • Anamorphic lenses such as elliptical lenses that can be produced by reflow, have different surface curvatures and thus focal lengths in different sections.
  • rMLA regular microlens arrays
  • rMLA regular microlens arrays
  • Modified (chirped) cMLA can thus optimize the optical image.
  • the cMLA is defined by analytically derivable equations and designed by adapting appropriate parameters.
  • the geometry and position of the elliptical lenses can be fully described by means of five parameters (center coordinates in the x and y directions, sagittal and tangential radii of curvature, orientation angles), as shown in FIG. Consequently, five functions are required to describe the entire array, which can be derived completely analytically. This allows all lens parameters to be calculated extremely quickly.
  • a spherical lens produces a diffraction-limited spot at a vertical incidence. Under oblique incidence, the focus in the paraxial image plane due to astigmatism and field curvature is heavily washed out. For an elliptical lens results under vertical Incident an expanded spot as a result of the different radii of curvature in tangential and sagittal section. Under the design angle, here 32 °, incident light in turn generates a diffraction-limited spot in the paraxial image plane.
  • the cMLA with channel-wise aberration correction thus make it possible to improve the coupling of light through the microlenses into the photodiodes, even under a large main beam angle of the preceding imaging optics, and thus reduce so-called "shading".

Abstract

Bildsensor (1) mit einer Vielzahl von Bildsensoreinheiten (2) in einer im Wesentlichen arrayartigen Anordnung, wobei die lichtempfindlichen Flächen (20) der Bildsensoreinheiten zueinander beabstandete Knotenpunkte und diese zusammen mit den die Knotenpunkte verbindenden horizontalen und vertikalen Verbindungslinien ein zweidimensionales Netz aufspannen, und die arrayartige Anordnung einen Zentrumsbereich (5) und einen Randbereich (6) aufweist, wobei der Zentrumsbereich und der Randbereich entlang mindestens einer Verbindungslinie miteinander verbunden sind, wobei der Abstand jeweils zweier benachbarter Knotenpunkte (20) der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie im Zentrumsbereich und im Randbereich verschieden ist. Weiterhin wird ein Kamerasystem mit einem erfindungsgemäßen Bildsensor und einer zusätzlich angeordneten Optik offenbart.

Description

BILDSENSOR MIT BILDKOMPENSATION DURCH PIXELANORDNUNG
Die Erfindung behandelt einen Bildsensor mit einer Vielzahl von Bildsensoreinheiten in einer im Wesentlichen arrayartigen Anordnung.
Bildsensoren kommen überall dort zum Einsatz, wo ein Bild eines Objekts zur Betrachtung oder Weiterverarbeitung mittels einer Datenverarbeitungsanlage zur Verfügung gestellt werden soll. Im Wesentlichen werden hierbei eine abbildende Optik, ein Bildsensor mit dazugehöriger Elektronik und eine Datenverarbeitungsanlage verwendet.
Optiken zur Bilderzeugung besitzen naturgemäß verschiedene Bildfehler, so genannte Aberrationen. Hier sind beispielsweise die sphärische Aberration, Koma, Astigmatismus, Bildfeldwölbung, Verzeichnungsfehler, Defokussierung und Farblängs- oder -querfehler zu nennen. Für gewöhnlich wird hier versucht durch spe- zielles Linsendesign, wie beispielsweise asphärische Linsen oder eine Kombination von verschiedenen Linsenformen und auch verschiedener Materialien, versucht, die Bildfehler auszugleichen. Allerdings können mit Hilfe des Linsendesigns die Aberrationen nur zu einem gewissen Maß korrigiert werden, wobei sich bei der Korrektur verschiedene Aberrationen gegenläufig verhalten, d.h. die Korrektur einer Aberration führt zur Verschlechterung einer anderen Aberration. Von daher muss bereits beim Linsendesign entschieden werden, welche Qualitäten das Kamerasystem als Ganzes erfüllen soll, bzw. auf welche Bildeigenschaften besonderer Wert gelegt wird. Dies führt im Allgemeinen zur Definition einer Gütefunktion, welche dann als Maß bei der Linsenoptimierung genutzt wird. Die Herstellung von Linsen mit aufwendiger Aberrationskorrektur ist zudem oftmals sehr teuer, da die komplizierte Oberflächengeometrie schwierig und in langwierigen Arbeitsschritten herzustellen ist, bzw. bei vielen Linsen auch exotische Materialien eingesetzt werden müssen.
Ein weiterer Ansatz zur Korrektur der Aberrationen besteht darin, durch digitale Nachbearbeitung der Bilder ( "Remapping" ) , die Aberrationen, welche nur in einer Verzerrung des Bildes, nicht aber in Unscharfe resultieren, nachträglich zu korrigieren oder gar zu entfernen. Der Nachteil an dieser Lösung ist, dass zur Berechnung der Transformationen vom unkorrigier- ten Bild zum korrigierten Bild Speicher und insbesondere Rechenzeit benötigt wird. Des Weiteren muss zwischen den eigentlichen Pixeln des Bildsensors interpoliert werden, d.h. es wird entweder eine feinere Abtastung benötigt oder Auflösung eingebüßt.
Eine weitere Möglichkeit Aberrationen teilweise zu korrigieren liegt darin, den Bildsensor rotationssym- metrisch auszubilden. Der Nachteil hierbei ist es jedoch, dass sich mit herkömmlichen Displays oder Druckern die so aufgenommenen Bilder nicht direkt wiedergeben lassen, da dort die Bildpixel in einer nahezu rechteckigen Anordnung befindlich sind. Somit ist auch hier eine elektronische Umverteilung der Bildinformationen nötig, was zu den im vorgenannten Absatz erwähnten Nachteilen führt.
Ziel der Erfindung ist es, einen Bildsensor bzw. ein Kamerasystem zu schaffen, welcher/welches es ermöglicht, einige Aberrationskorrekturen mit Hilfe des Bildsensors vorzunehmen, so dass sich gegenseitig einschränkende Aberrationskorrekturen im Objektivsystem vermieden werden können. Des Weiteren sollen mit dem Bildsensor nur geringe Anforderungen an Speicher und Rechenzeit einer Elektronik oder nachgeschalteten Datenverarbeitungsanlage von Nöten sein.
Die Aufgabe wird mit einem Bildsensor mit den Merkmalen des Anspruchs 1, ein Kamerasystem mit den Merkmalen des Anspruchs 25 und ein Verfahren mit den Merkmalen des Anspruchs 30 gelöst. Die weiteren abhängigen Ansprüche zeigen vorteilhafte Weiterbildungen auf .
Der Bildsensor mit einer Vielzahl von Bildsensorein- heiten ist arrayartig aufgebaut. Dadurch wird den heutigen Standards von Displays und Druckern Rechnung getragen. Das Array weist dabei ein Koordinatensystem bestehend aus Knotenpunkten und Verbindungslinien auf, wobei die lichtempfindlichen Flächen der Bildsensoreinheiten jeweils auf den Knotenpunkten angeordnet sind. Das Koordinatensystem ist kein Bestandteil des Arrays, sondern dient zur Orientierung ahn- lieh einem Kristallgitter. Die Verbindungslinien sind hierbei vertikal bzw. horizontal in dem Sinne, dass sie von oben nach unten bzw. links nach rechts verlaufen. Es ist damit keinesfalls gemeint, dass die vertikalen bzw. horizontalen Verbindungslinien zwangsläufig gerade sind oder parallel zueinander verlaufen. Von daher ist es sinnvoll, von einem Netz mit Verbindungslinien und Knotenpunkten anstatt von einem Gitter zu sprechen, um eine sprachliche Miss- deutung auszuschließen.
Die arrayartige Anordnung weist einen Zentrumsbereich und einen Randbereich auf, wobei der Zentrumsbereich und der Randbereich entlang mindestens einer Verbindungslinie miteinander verbunden sind. Dadurch ist festgelegt, dass der Zentrumsbereich und der Randbereich keine disjunkten Mengen sind, sondern fließend ineinander übergehen. Dadurch, dass der Abstand jeweils zweier benachbarter Knotenpunkte, also die Orte an welchen die lichtempfindlichen Flächen der Bildsensoreinheiten angeordnet sind, entlang der mindestens einen Verbindungslinie, welche den Zentrums- und den Randbereich miteinander verbindet, im Zentrumsbereich und im Randbereich verschieden ist, können verschiedene Aberrationen durch die Geometrie des Bildsensors bzw. der auf ihm angeordneten Bildsensoreinheiten korrigiert werden, so dass insbesondere bei der Korrektur sich gegenläufig verhaltende Aberrationen nicht ausschließlich durch ein etwaiges Objektivbzw. Linsensystem korrigiert werden müssen. Man erreicht durch die Schaffung zusätzlicher geeigneter Freiheitsgrade in dem Bildsensor mehr Freiheitsgrade bei der Optimierung des Linsensystems. Dadurch ergeben sich bessere Lösungsmöglichkeiten, die Korrekturen der verschiedenen Aberrationen auf ein Objektivsystem, einen Bildsensor und eine Datenverarbeitungs- anläge zu verteilen. So ergibt sich beispielsweise der Vorteil, dass bei einer nachträglichen Bildbearbeitung weniger Zeit und Speicher alloziiert werden muss, da der Bildsensor zum einen arrayartig angeordnet ist, eine elektronische Umverteilung der Bildinformationen von den einzelnen Bildsensoreinheiten jedoch nicht notwendig ist, da diese bereits fest vorgeformt auf Bildsensorebene erfolgt. Als Zentrumsbereich wird der Bereich des Bildsensors bezeichnet, welcher durch die optische Achse einer zugeordneten Linse durchstoßen wird.
Bildsensoren nach dem Stand der Technik sind als ä- quidistantes Array von Bildsensoreinheiten aufgebaut. Optische Fehler treten zumeist in zunehmender Entfernung von der optischen Achse einer Linsenanordnung auf und werden zu den Rändern des Bildsensors hin stärker. Ein fester Abstand zwischen allen einzelnen Bildsensoreinheiten untereinander sorgt lediglich dafür, dass die Abbildungsfehler auch auf dem aufgenommenen Bild sichtbar sind. Mittels einer unterschiedlichen Beabstandung zweier lichtempfindlichen Flächen im Zentrums- und im Randbereich können Korrekturterme am Randbereich berücksichtigt werden, so dass das Bild zwar weiterhin den Abbildungsfehler aufweist, die lichtempfindlichen Flächen jedoch so angeordnet sind, dass die mit den Bildsensoreinheiten gemachten Aufnahmen in einer äquidistanten Bildpunktdarstellung abbildungsfehlerfrei sind. Somit kommt es zu einer besseren Abbildung von Strahlengängen, welche entweder nicht durch die Mitte der Linse laufen oder unter großen Winkeln einfallen und auf dem Bildsensor abgebildet werden.
Wenn sich zudem der Abstand einer zweiten Verbindungslinie, welche zumindest an einem Ort parallel zur ersten Verbindungslinie ist (entlang welcher sich der Abstand zweier lichtempfindlichen Flächen vom Zentrums- zum Randbereich hin ändert) , zur ersten Verbindungslinie ebenfalls vom Zentrums- zum Randbereich hin ändert, findet eine Abstandsvariation nicht nur entlang einer Dimension, sondern auch in der zweiten Dimension des Bildsensors wieder.
Dadurch, dass die äquidistante Anordnung der lichtempfindlichen Flächen der Bildsensoreinheiten beim erfindungsgemäßen Bildsensor aufgelöst wird und somit ein nicht-äquidistantes Netz bildet, bietet sich eine Vielzahl von Möglichkeiten die Qualität von Bildern durch die oben genannten Vorteile zu verbessern und kann zur Vermeidung von Aberrationen verwendet werden. (Die ökonomische Realisierbarkeit sollte bereits mit den zur Verfügung stehenden Strukturierungstech- niken nach einer kurzen Einführungsphase keine große Rolle mehr spielen. )
Weitere Vorteile sind in den untergeordneten Ansprüchen beschrieben.
Dadurch, dass sich der Abstand zweier benachbarter Knotenpunkte entlang der mindestens einen Verbindungslinie vom Zentrumsbereich zum Randbereich hin stetig ändert, wird die zunehmende Wichtigkeit der Korrekturterme berücksichtigt, welche zumeist durch quadratische, kubische oder auch höhere Potenzen der abbildungsbeschreibenden Winkel beschrieben werden, Gültigkeit getragen. Da zwischen dem Zentrumsbereich und dem Randbereich eine Vielzahl von Bildsensoreinheiten entlang der einen Verbindungslinie liegen können, ist es vorteilhaft, wenn sich der Abstand zweier lichtempfindlicher Flächen zum Abstand zweier lichtempfindlichen Flächen im Randbereich hin stetig an- dert, da so eine kontinuierliche Korrektur von Aberrationen zum Randbereich hin vorgenommen werden kann.
Besonders vorteilhaft ist es, wenn der Abstand jeweils zweier benachbarter Knotenpunkte der arrayarti- gen Anordnung der Bildsensoreinheiten sich vom Zentrumsbereich zum Randbereich hin zum Ausgleich der geometrischen Verzeichnung ändert, wobei die Korrektur von einem Linsensystem unabhängig oder abhängig vorgenommen werden kann. Die Verzeichnung wird in eine positive Verzeichnung, d.h. eine kissenförmige Verzeichnung, und eine negative Verzeichnung, d.h. eine tonnenförmige Verzeichnung, unterteilt. Da die geometrische Verzeichnung nur eine Änderung der Vergrößerung mit dem Einfallswinkel, also einen Punktbildversatz relativ zum idealen Fall, aber keine Vergrößerung des Fokus, d.h. der Punktbildverwaschungsfunk- tion und damit eine Verringerung der Auflösung bewirkt, ist diese besonders geeignet, auf Bildsensorebene durch eine Verschiebung der entsprechend zugeordneten Detektorpixel korrigiert zu werden. Die Verzeichnung ist die Abweichung der realen Hauptstrahl- Position in der Bildsensorebene von der Position des idealen, bzw. paraxial genäherten Hauptstrahles. Dies resultiert in einer veränderlichen Vergrößerung über das Bildfeld und damit zur Verzerrung des Gesamtbildes. Während die ideale, bzw. paraxial genäherte Bildfeldkoordinate yp direkt zum Tangens des Einfallswinkels Θ proportional ist, ist die reale Bildfeldkoordinate y davon abweichend. Die Abweichung vom Tangens ist die Verzeichnung und geht typischerweise ca. mit ΘA3 oder einer komplizierten Kurve. Als Maß der Verzeichnung wird hierbei (y- yp) /yp verwendet : Ist die reale Bildfeldkoordinate größer als die ideale Bildfeldkoordinate ist die Verzeichnung kissenförmig, sonst tonnenförmig . Bei einer kissen- förmigen Verzeichnung wird der Abstand der lichtempfindlichen Flächen als Funktion des radialen Abstandes des betrachteten Detektorpixels vom Zentrum des Bildsensors, also diagonal stärker als horizontal o- der vertikal vom Zentrumsbereich zum Randbereich hin größer, bei einer tonnenförmigen Verzeichnung kleiner.
Bei der Herstellung des Bildsensors mit einer eingebauten Verzeichnungskorrektur wird dementsprechend die Position des realen Hauptstrahls mit dem idealen Hauptstrahl verglichen, und die lichtempfindliche Fläche um den Abstand der beiden Strahlen nach außen (bei einer kissenförmigen Verzeichnung) oder nach innen (bei einer tonnenförmigen Verzeichnung) an die Position des realen Hauptstrahls verschoben.
Eine Weiterbildung eines erfindungsgemäßen Bildsensors ist es, die arrayartige Anordnung in Form eines rectilinearen Gitters auszubilden. Somit wird die Änderung des Abstands vom Zentrum zum Randbereich hin nur in einer Dimension des Arrays vorgenommen. Dies bedeutet, dass der Abstand der lichtempfindlichen Flächen zueinander in der ersten Dimension des Bildsensors konstant bleibt, in der zweiten Dimension sich vom Zentrums- zum Randbereich hin ändert, vorzugsweise entlang einer Vielzahl von Verbindungslinien in der zweiten Dimension. So kann ein Bildsensor, welcher sehr schmal aber länglich ausgebildet ist, in der Längendimension ausgebildet sein, in der ersten Dimension normal, da in dieser die Verzeichnung klein bleibt .
Eine weitere vorteilhafte Weiterbildung ist es, wenn die Korrektur in beiden Dimensionen des Arrays vorgenommen wird. In diesem Falle sind die Verbindungsli- nien als parametrisierte Kurve, jedoch nicht mehr als Gerade darstellbar. Sollten sich die Abstände vom Zentrums- zum Randbereich hin entlang einer Vielzahl von Verbindungslinien ändern (und eben auch der Abstand der Verbindungslinien als Funktion der radialen Koordinate) , so ist die arrayartige Anordnung als curvilineares Gitter darstellbar, d.h., aus einer Vielzahl von parametrisierten Kurven. Auf diese Weise kann eine Aberration in zwei Dimensionen ausgeglichen werden. Vorzugsweise verändert sich der Abstand zweier benachbarter lichtempfindlichen Flächen vom Zentrums- zum Randbereich hin entlang einer Vielzahl von Verbindungslinien in beiden Arraydimensionen. Somit bildet das curvilineare Gitter eine zweidimensionale Erweiterung des rectilinearen Gitters.
Eine vorteilhafte Anordnung ist es, wenn der Randbereich des Bildsensors den Zentrumsbereich des Bildsensors vollständig umschließt. Der Vorteil hierbei ist es, dass vom Zentrumsbereich ausgehend in jede Richtung weitere Bildsensoreinheiten angeordnet sind, und so ein Bildsensorbereich die optische Achse umschließt. Dadurch kann der Ausgleich der Aberration, vorteilhafterweise der geometrischen Verzeichnung, vom Zentrumsbereich des Bildsensors in alle Richtungen der Bildsensorebene hin erfolgen.
Eine weitere vorteilhafte Weiterbildung ist es, wenn die Vielzahl von Bildsensoreinheiten auf einem Substrat angeordnet ist. Dies hat insbesondere bei der Herstellung Vorteile, da eine Anwendung von geläufigen Strukturierungstechniken möglich ist. Es ist weiterhin vorteilhaft, wenn die Bildsensoreinheiten optoelektronische und/oder digitale Einheiten sind.
Besonders vorteilhaft ist es, wenn die lichtempfind- liehe Fläche einer Bildsensoreinheit jeweils im Zentrum dieser Bildsensoreinheit angeordnet ist. Auf diese Weise verschieben sich nicht nur die Abstände der lichtempfindlichen Zentren der Bildsensoreinheiten zueinander, sondern auch die Abstände der Bildsensoreinheiten zueinander. Alternativ hierzu können ausschließlich die lichtempfindlichen Flächen ihren Abstand ändern, was dazu führt, dass diese nicht ausschließlich im Zentrum einer Bildsensoreinheit zu finden sind. Auch können beide Alternativen innerhalb eines Bildsensors verwirklicht werden. Weiterhin ist es vorteilhaft, wenn die lichtempfindliche Fläche eine Photodiode oder ein Detektorpixel ist, insbesondere ein CMOS, oder ein CCD oder organische Photodioden sind.
Eine weitere besonders vorteilhafte Anordnung ist es, wenn mindestens eine Bildsensoreinheit eine Mikrolin- se aufweist und/oder die Vielzahl von Bildsensoreinheiten durch ein Mikrolinsenraster überdeckt ist. Weiterhin können mit Hilfe der Mikrolinsen weitere Aberrationen ausgeglichen werden, welche sonst innerhalb einer vorgeschalteten abbildenden Optik korrigiert werden, wenn diese über das Bildfeld der Optik variable geometrische Eigenschaften wie getrennt voneinander und variabel einstellbare tangentiale und sagittale Krümmungsradien haben.
Eine weitere vorteilhafte Weiterbildung des Bildsensors sieht vor, dass die Mikrolinse und das Mikrolinsenraster zur Füllfaktorerhöhung ausgebildet sind. Dadurch kann ein auf eine Bildsensoreinheit auftreffendes Lichtbündel besser auf die lichtempfindliche Fläche einer Bildsensoreinheit, konzentriert werden, was zu einer Verbesserung des Signal-Rausch- Verhältnisses führt. Vorteilhafterweise kann durch eine Anpassung der Krümmungsradien bzw. der Krümmungsradienverhältnisse der Mikrolinsen mehrerer Bildsensoreinheiten bzw. der Krümmungsradienverhältnisse der Mikrolinsen in den zwei Hauptachsen des Arrays ein Astigmatismus bzw. eine Bildfeldwölbung mit Hilfe der Mikrolinsen korrigiert werden bzw. der Astigmatismus und die Bildfeldwölbung der Mikrolinsen werden korrigiert. Dies ermöglicht auch die Verschiebung von Korrekturen von einer abbildenden Optik zum Bildsensor hin, was wiederum Freiheitsgrade beim Design der abbildenden Optik eröffnet. Auf diese Weise kann durch die Mikrolinsen eine verbesserte Fokussierung auf die (entsprechend dem Hauptstrahlwinkel an der Stelle versetzten) lichtempfindlichen Flächen stattfinden, so dass mit Hilfe der angepassten Mikrolinsenform ein besseres Bild möglich ist.
Um bei einem schiefen Einfall des Lichtbündels auf eine Mikrolinse eine möglichst kleine Beugungsscheibe im Fokus zu erhalten, werden vorteilhafterweise elliptisch gechirpte, d.h. über das Array Mikrolinsen mit variabel einstellbaren Parametern verwendet, welche in ihrer Orientierung, Größe in beiden Hauptachsen und ihren Krümmungsradien entlang der Hauptachsen einer Mikrolinse vom Einfallwinkel des Hauptstrahls der vorgeschalteten abbildenden Optik abhängen. Somit werden im Gegensatz zu kreisrunden Mikrolinsen ein bei der Fokussierung durch das Mikrolinsenarray unter großem Einfallswinkel entstehender Astigmatismus und eine Bildfeldwölbung reduziert.
Zum Korrigieren einer chromatischen Aberration kann vorteilhafterweise eine Bildsensoreinheit einen Farbfilter aufweisen und/oder die Vielzahl von Bildsen- soreinheiten mit einem Farbfilterraster verbunden sein. Zur Farbbildaufnahme werden zumeist 3 Grundfarben verwendet, also beispielsweise rot, grün und blau, oder magenta, cyan und gelb, wobei die Farbpixel z. B. in einem Bayer-Pattern angeordnet sind. Farbfilter sind -wie die Mikrolinsen- zur Anpassung an den Hauptstrahl der Optik an der jeweiligen Stelle des Arrays versetzt.
Weiterhin können die Farbfilter analog zu den Mikrolinsen zu den lichtempfindlichen Flächen relativ versetzt werden, um einerseits den aus dem Hauptstrahlwinkel resultierenden lateralen Versatz des Fokus auf der Photodiode auszugleichen, oder eine Verzeichnung auszugleichen aber auch eine bessere Zuordnung der einzelnen Farbspektren auf die lichtempfindliche Fläche im Falle chromatischer Queraberrationen zu ermöglichen. Der Versatz der Farbfilter und zugeordneten Pixel entspricht dabei dem Versatz der verschiedenen abgebildeten Farben durch chromatische Queraberrationen.
Das erfindungsgemäße Kamerasystem zeichnet sich dadurch aus, dass der Bildsensor mit einer vorgeschalteten abbildenden Optik in geplanter und permanenter Verbindung steht. Da aufgrund der verschiedenen Korrekturen Freiheitsgrade im Objektivdesign geschaffen werden, macht insbesondere eine gute Abstimmung zwischen der Optik und dem Bildsensor einen Qualitätssprung möglich. Der Bildsensor ist in der Bildebene der Optik angeordnet.
In einer vorteilhaften Ausgestaltung des Bildsensors bzw. des Kamerasystems ist die Größe der Bildsensoreinheiten bzw. deren lichtempfindlicher Flächen variabel und daher für zumindest einige der Bildsensor- einheiten in einem Bildsensor unterschiedlich. Hierdurch ist es möglich, den durch Verzeichnung gewonnenen Platz zum Rande des Bildsensors hin zusätzlich auszunützen, wodurch eine größere Lichtempfindlichkeit mit größerer Fläche der Photodioden erreicht wird. Hierdurch lässt sich der Randabfall der Helligkeit kompensieren und dadurch die relative Beleuchtungsstärke verbessern.
In einer weiteren vorteilhaften Ausgestaltung kann der Farbquerfehler bildsensorseitig korrigiert werden, indem die Farbfilter auf den Detektorpixeln an den Farbquerfehler der Optik angepasst angeordnet werden, so dass der Farbquerfehler der Optik kompensiert werden kann. Zur Korrektur des Farbquerfehlers ist es weiter möglich, die Farbpixelsignale zu verrechnen. Hierbei können die Farbfilter ausgehend vom normalen Bayer-Pattern oder vom konventionellen Demo- saicing vom Bayer-Pattern bzw. Demosaicing abweichend angeordnet werden und ein bekannter Farbquerfehler mittels Bildaufbereitungsalgorithmen herausgerechnet werden. Dabei können unterschiedliche, unter Umständen weiter voneinander entfernte Detektorpixel verschiedener Farben zu einem Farbbildpunkt verrechnet werden. Auch hier ist es möglich, für die Optik einen erhöhten Farbquerfehler zuzulassen oder auch den Farbquerfehler künstlich zu erhöhen, um dadurch Freiheitsgrade zur Korrektur anderer Abberationen zu eröffnen.
In einer weiteren Ausführungsform kann der Bildsensor auf einer gekrümmten Fläche ausgebildet sein, so dass eine Wölbung des Bildfeldes korrigierbar ist. Hierbei ist es besonders bevorzugt, wenn die Bildsensoreinheiten und/oder die lichtempfindlichen Flächen organische Photodioden aufweisen oder sind, da diese be- sonders günstig auf einer gekrümmten Basis herstellbar sind.
Die Verzeichnung der Optik kann im Optikdesign erhöht oder freigelassen werden, um andere Abberationen besser korrigieren zu können. Durch eine Entspannung der Anforderung an die Verzeichnung bereits während der Planung des optischen Designs und die Korrektur dieser Verzeichnung über die Auslegung des Bildsensors können Eigenschaften wie z.B. die Auflösung deutlich verbessert werden, auch wenn sie nicht einfach durch eine Verschiebung der Pixel zu korrigieren sind. Besonders vorteilhaft ist dieses Vorgehen bei Waferle- veloptics, wo es wegen der großen Stückzahlen Sinn macht, einen Bildsensor auf nur ein einziges Objektivdesign abzustimmen, da Objektiv und Bildsensor gleichzeitig in kooperierenden Firmen oder in der gleichen Firma als Komponenten für nur dieses eine Kamerasystem ausgelegt werden. Solche Kameras können beispielsweise als Mobiltelefonkameras zur Anwendung kommen. In diesem Fall muss nicht die Verzeichnung eines bereits existierenden Objektivs gemessen und aus diesem ein Linsendesign per Simulation bestimmt werden, sondern Optik und Bildsensor können als Gesamtsystem optimal ausgelegt werden, wobei das Problem der Verzeichnungskorrektur aus der Optik in den Bildsensor verlegt wird (das bedeutet, dass eine Verzeichnung der Optik erhöht zugelassen werden kann, um der Optik andere Freiheitsgrade zu schaffen, wie beispielsweise für die Verbesserung der Auflösung oder der Auflösungshomogenität) . Auch kann eine billigere Herstellung des Kamerasystems ermöglicht werden.
Im Kamerasystem können auf dem Bildsensor elliptische, gechirpte Mikrolinsen zur Anwendung kommen, mit welchen eine an den Einfallswinkel angepasste Fokus- sierung in die Pixel möglich ist. Die Mikrolinsen können hierbei mit sich radial über das Array monoton veränderten Parametern, wie beispielsweise tangentialem und sagittalem Krümmungsradius ausgelegt werden. Die Bildsensoren können gleichzeitig entsprechend dem Hauptstrahlwinkel und entsprechend der Verzeichnung der vorgeschalteten abbildenden Optik gegenüber einem regulären Linsenarray versetzt angeordnet sein. Die Geometrie der einzelnen Mikrolinsen eines Füllfaktor erhöhenden Mikrolinsensystems (Krümmungsradien, Krümmungsradienverhältnisse in den zwei Hauptachsen über das Array variierender nicht-rotationssymmetrischer Mikrolinsen) kann also an den Hauptstrahlwinkel des durch die jeweilige Linse zu fokussierenden Bündels angepasst sein.
Eine Korrektur von Astigmatismus und Bildfeldwölbung der Mikrolinsen kann durch Anpassung (Verlängerung) der Krümmungsradien in den zwei Hauptachsen elliptischer Linsen erzielt werden, womit eine optimale Fo- kussierung auf die entsprechend dem Hauptstrahlwinkel und Verzeichnung an der Stelle versetzten Photodioden möglich ist. Die Mikrolinsenform kann also an den Hauptstrahlwinkel wie auch den Versatz von Pixeln und Mikrolinsen entsprechend der Verzeichnung angepasst werden. Auch eine Drehung der elliptischen Linsen entsprechend der Bildfeldkoordinate so, dass die lange der zwei Hauptachsen in Richtung des Hauptstrahls verläuft, ist möglich. Sowohl die Krümmungsradien als auch die Krümmungsradienverhältnisse und die Orientierung der Linse bei konstanter Photolackdicke im Reflowprozess können über die Achsengröße und das Achsenverhältnis sowie die Orientierung der Linsenbasis angepasst werden. Hierdurch kann insgesamt ein größerer bildseitiger Hauptstrahlwinkel akzeptiert werden, was weitere Freiheitsgrade für das Objektiv- design eröffnet.
Besonders vorteilhaft kommt ein Kamerasystem oder ein erfindungsgemäßer Bildsensor in einer Kamera und/oder einem tragbaren Telekommunikationsgerät und/oder einem Scanner und/oder einem Bilderkennungsgerät und/oder einem Überwachungssensor und/oder einem Erd- und/oder Sternsensor und/oder einem Satellitensensor und/oder einem Raumfahrtgerät und/oder eine Sensoranordnung zur Anwendung. Insbesondere der Einsatz in der Überwachung von Industrieanlagen oder einzelnen Teilen hiervon bietet sich an, da der Sensor bzw. das Kamerasystem ohne hohen Rechenaufwand exakte Bilder liefern kann. Auch der Einsatz in Mikrorobotern bietet sich aufgrund der geringen Größe des Sensors an. Weiterhin kann der Sensor in einem (Mikro- ) Endoskop verwendet werden. Auch der Einsatz im Bereich des menschlichen Auges als Sehhilfe kann mittels intelligenter Verschaltung mit Nervenzellen sinnvoll sein. Aufgrund der erhöhten Abbildungsqualitäten ist der erfindungsgemäße Bildsensor bzw. das erfindungsgemäße Kamerasystem in allen Bereichen geeignet, in welchen über Datenverarbeitungsanlagen auf Bilder höchster Qualität zugegriffen werden möchte und die Bilder in Echtzeit zur Verfügung stehen sollen.
Vorteilhafterweise wird der Bildsensor bzw. das Kamerasystem derart hergestellt, dass in einem ersten Schritt die Verzeichnung einer geplanten oder bereits hergestellten Optik ermittelt wird und daraufhin ein Bildsensor hergestellt wird, bei welchem die geometrische Verzeichnung der Optik durch Anordnung der lichtempfindlichen flächen bzw. der Bildsensoreinheiten, wenigstens teilweise, ausgeglichen wird. Dadurch dass nun die Verzeichnung der Optik nicht mehr gering gehalten werden muss, kann z.B. eine bessere Auflö- sung erzielt werden, ohne die Komplexität der Optik zu erhöhen. So können auch mit einem Bildsensor nachträglich "normale" Objektive mit geometrischer Verzeichnung korrigiert werden. Weitere Aberrationen können ebenso korrigiert werden.
Weitere Vorteile sind in den weiteren untergeordneten und nebengeordneten Ansprüchen beschrieben.
Im Folgenden soll die Erfindung anhand einer Vielzahl von Figuren genauer beschrieben werden. Es zeigen:
Fign. Ia und Ib Bildsensor und Strahlengang nach dem Stand der Technik;
Fign. 2a und 2b schematische Darstellung eines erfindungsgemäßen Bildsensors mit Array zum Korrigieren einer Aberration, insbesondere einer geometrischen Verzeichnung;
Fig. 2c Queransicht mit Darstellung des erfindungs- gemäßen Versatzes eines Pixels;
Fig. 2d Queransicht auf einen Sensor zur Korrektur einer kissenförmigen geometrischen Verzeichnung;
Fig. 3 Bildsensor mit kissenförmiger Verzeichnung;
Fig. 4 Anordnung zweier Bildsensoreinheiten mit dazugehörigen Mikrolinsen, Pinholearray und Farbfilterraster;
Fig. 5 erfindungsgemäßes Kamerasystem; Fig. 6 den rechten oberen Quadranten eines regulären Arrays runder Mikrolinsen;
Fig. 7 den rechten oberen Quadranten eines ge- chirpten Arrays anamorphotischer bzw. elliptischer Mikrolinsen;
Fig. 8 Strahlengang und Spotverteilung für eine sphärische Linse unter senkrechtem und schrägen Lichteinfall (oben) und für eine elliptische Linse unter schrägen Einfall (unten) . Mit einer an die Einfallsrichtung angepassten elliptischen Linse kann ein beugungsbegrenzter Fokus in der paraxialen Bildebene erzielt werden;
Fig. 9 ein Schema, das die Geometrie einer elliptischen Linse zeigt;
Fig. 10 die gemessene Intensitätsverteilung in der paraxialen Bildebene für senkrechten und schrägen Lichteinfall für eine sphärische und eine elliptische Linse. Kreise markieren den Durchmesser der Airyscheibe.
In den Fign. Ia und Ib ist der Aufbau eines Bildsensor gemäß dem Stand der Technik dargestellt. In der Fig. Ia ist eine Aufsicht auf einen Bildsensor 1 gezeigt, welche eine Vielzahl von Bildsensoreinheiten aufweist, wobei exemplarisch wenige Bildsensoreinheiten 2, 2', 2" bezeichnet sind. Die Bildsensoreinheiten sind dabei in Form eines Arrays angeordnet, wobei das Array Knotenpunkte (exemplarisch 11, II1, 11") aufweist und in X-Richtung entlang der Verbindungslinie 12 und in Y-Richtung entlang der Verbindungslinie 13 ausgerichtet ist. So sind die Bildsensoreinheiten 2, 2' , 2" derart angeordnet, dass die lichtempfindlichen Flächen im Zentrum einer Bildsensoreinheit angeordnet sind und das Zentrum der Bildsensoreinheit auf einem der Knotenpunkte 11 liegt. Das Netz stellt also ein Koordinatensystem innerhalb des Sensors dar. Im Stand der Technik sind die Abstände zwischen zwei benachbarten lichtempfindlichen Flächen, sowohl entlang der Verbindungslinien in X-Richtung als auch entlang der Verbindungslinien in Y-Richtung identisch ist. Dies bedeutet, dass beispielsweise entlang der Verbindungslinie 12 der Abstand 40 zwischen den lichtempfindlichen Flächen der Bildsensoreinheiten 2 und 2 ' und den links daneben liegenden weiteren Sensoreinheiten identisch ist. Ebenso sind die Abstände 41 zwischen den lichtempfindlichen Flächen der Bildsensoreinheiten entlang der Verbindungslinie 13. Hierbei sind auch die Abstände 40 und 41 gleich. D.h. insbesondere, dass die horizontalen Verbindungslinien 12 zueinander und die vertikalen Verbindungslinien 13 zueinander parallel liegen.
Der hier dargestellte Bildsensor 1 weist in der Mitte einen Zentrumsbereich 5 und am Rand einen Randbereich 6 auf, welcher den Zentrumsbereich umschließt.
Die lichtempfindliche Fläche einer Bildsensoreinheit wird durch eine Fotodiode oder ein Detektorpixel gebildet.
In der Fig. Ib ist eine Sicht des Bildsensors 1 in der XZ-Ebene gezeigt. Von einem Punkt F ausgehend treffen Lichtstrahlen 15, 15', 15" und 15 ' ' auf verschiedene Bildsensoreinheiten 2 bzw. 2, 2', 2", 21 1 1, welche alle entlang der Verbindungslinie 12 angeordnet sind. Die Abstände 40 jeweils zweier benachbarter Pixel 20, welche im Zentrum einer Bildsensoreinheit 2 liegen, sind in der entlang der Verbindungslinie gleich. Die Entfernung zwischen der lichtempfindlichen Fläche 20 der Bildsensoreinheit 2 und dem Punkt F entspricht der Bildweite einer Optik, welche dem Bildsensor zugeordnet ist. Obwohl der Abstand zwischen zwei benachbarten Pixel 20 gleich ist, werden zwischen zwei benachbarten Pixel 20 unterschiedliche Winkelsegmente abgedeckt. Dies ist für die Abbildung jedoch unerheblich, da das Bild -abgesehen von einer möglichen Vergrößerung oder Verkleinerung- das abzubildenden Objekt korrekt wiedergibt. Die eingezeichneten Hauptstrahlen 15, 15', 15" und 15 ' ' ' sind dabei ideale Hauptstrahlen, d.h. die Abbildung ist verzeichnungsfrei .
In den Fign. 2a, 2b sind die Verbindungslinien 12,13 und -punkte zweier erfindungsgemäßer Bildsensoren 1',I1 1 schematisch gezeigt. Beide sind in der Beabstandung ihrer Knotenpunkte, an welchen die lichtempfindlichen Flächen der Bildsensoreinheiten liegen, im Zentrumsbereich 5 und im Randbereich 6 verschieden. Dabei verändern sich die Abstände zweier benachbarter lichtempfindlicher Flächen vom Zentrum zum Randbereich hin, wobei der Abstand zwischen zwei Pixel 20 um einen Korrekturterm ergänzt wird, welcher genau dem Abstand zwischen idealem und realem Haupt- strahl entspricht, d.h. der Pixel ist am Ort des realen Hauptstrahls aufgebracht. Werden die aufgenommenen Bilddaten nun mit einem äquidistanten Array dargestellt, wie es bei Monitoren oder Druckern für gewöhnlich der Fall ist, dann weist das Bild keine Verzeichnung auf .
Im Falle einer positiven Verzeichnung entsteht so eine kissenförmige Anordnung des Arrays des Bildsensors I1, da die Abstände zwischen zwei lichtempfindlichen Flächen im Zentrum kleiner sind als die Abstände zweier lichtempfindlicher Flächen im Randbereich. Diese ist in Fig. 2a dargestellt. In Fig. 2b ist ein Bildsensor I1 1 mit einer tonnenförmige Verzeichnung gezeigt, bei welcher die Abstände zweier benachbarter lichtempfindlicher Flächen im Zentrumsbereich größer sind als die Abstände zweier lichtempfindlicher Flächen im Randbereich entlang derselben Verbindungslinie .
Es ist auch denkbar, dass die Abstände zweier lichtempfindlicher Flächen sich nicht, wie in den Fign. 2a und 2b angedeutet, entlang einer Verbindungslinie kontinuierlich ändern, sondern dass der Abstand im Zentrumsbereich äquidistant ist und im Randbereich äquidistant ist, dass die Abstände im Zentrumsbereich und im Randbereich jedoch verschieden sind. Hierdurch könnten insbesondere Effekte, welche ausschließlich am Rand eines Bildsensors in Erscheinung treten, ausgeglichen werden, ohne die komplexe stetige Entwicklung des Abstands zweier lichtempfindlicher Flächen ganz berücksichtigen zu müssen. Die hier dargestellte Form der Bildsensoreinheiten ist rechteckig oder quadratisch, kann jedoch auch rund oder polygon ausfallen.
In Fig. 2c ist schematisch aufgezeichnet wie ein einzelner Pixel versetzt wird, um eine Korrektur einer geometrischen Verzeichnung bereits auf Bildsensorebene zu ermöglichen. Eingezeichnet ist ein idealer Hauptstrahl 15' und der dazugehörende reale Hauptstrahl 16'. Der Pixel 20 der Bildsensoreinheit 2' befindet sich im Fokus des idealen Hauptstrahls. Der Pixel 20 wird nun um den Abstand V verschoben (in Wirklichkeit wird der Pixel natürlich nicht verscho- ben, sondern gleich an der betreffenden Stelle angeordnet) , wobei V der Korrekturterm der geometrischen Verzeichnung ist und aus theoretischen Berechnungen oder Vermessungen eines Linsensystems ermittelt werden kann. Die Bildsensoreinheit 2' wird an die Stelle 216' verschoben, obgleich ein Versatz des Pixels 20 selbst ebenfalls ausreicht. Der Korrekturterm ist dabei abhängig von der Art der geometrischen Verzeichnung und dem Abstand von der optischen Achse 15 des zugehörigen optischen Linsensystems.
In Fig. 2d ist eine Ansicht eines Ausschnitts des Bildsensors 1' aus der Fig. 2a in der XZ-Ebene gezeigt. Dabei ist ein Hauptstrahl 15 vom Punkt F ausgehend in der Mitte des Bildsensors 1' und trifft senkrecht auf diesen auf. in der hier dargestellten Ausführung sitzen die lichtempfindlichen Flächen 20 in der Mitte der Bildsensoreinheiten 2. Es ist deutlich zu sehen, dass die Abstände 400, 401, 402, 403 und 404 mit zunehmender X-Richtung zunehmen. Dabei können die Bildsensoreinheiten 2, 2', 2" dem Zentrumsbereich 5 und die Bildsensoreinheiten 2 ' ' ' und 2"" dem Randbereich 6 zugeordnet werden. Jeder Pixel wird dabei, wie in Fig. 2c beschrieben, von der Position des zugehörigen idealen Hauptstrahles abweichend an der Stelle des zugehörigen realen Hauptstrahles angeordnet. Der zugehörige ideale Hauptstrahl ist dabei durch eine äquidistante Arrayanordnung vorgegeben. Zur Anordnung der einzelnen Pixel werden jedoch die realen Hauptstrahlen verwendet, so dass sich eine nicht-äquidistante Anordnung der Pixel ergibt.
Durch die hardwaremäßige Anordnung der lichtempfindlichen Flächen des Bildsensors ist die Verzeichnung bzw. der Gang der Verzeichnung des einzusetzenden Objektivs bereits in den Bildsensor selbst eingebaut. Dadurch werden die vom Objektiv gegenüber dem paraxi- alen Fall versetzt abgebildeten Objektpunkte auch auf dementsprechend versetzte Empfängerpixel abgebildet. Die Zuordnung zwischen Objektpunkten und Bildpunkten stimmt somit exakt überein und durch einfache Datenauslese und Anordnung der Bildpixelwerte wird ein verzeichnungsfreies bzw. -armes digitales Bild erzeugt .
In der Fig. 3 ist ein Bildsensor I1 gezeigt, wobei jede einzelne Bildsensoreinheit 2 eine Einheit aus füllfaktorerhöhender Mikrolinse, Farbfilter (z.B. in Bayer-Anordnung, d.h. benachbarte Detektorpixel besitzen unterschiedliche Farbfilter (rot, grün blau)) und Detektorpixel aufweist. Die kissenförmige Anordnung der Bildsensoreinheiten zur Korrektur der Verzeichnung des zur Bildgebung verwendeten Objektivs eine etwa 10%ige Verzeichnung korrigiert. Die Prozentangabe bezieht sich hierbei auf die Abweichung eines idealen, bzw. paraxialen Bildpunktes vom realen Bildfeldpunkt normiert durch die Koordinate des idealen, bzw. paraxialen Bildpunktes.
In Fig. 4 sind zwei nebeneinander liegende Bildsensoreinheiten 2 und 2 ' eines erfindungsgemäßen Bildsensors dargestellt. Die Bildsensoreinheiten weisen dabei jeweils eine Mikrolinse 30 bzw. 30' auf, wobei diese in Kombination mit allen anderen Bildsensoreinheiten, wie in Fig. 3 gezeigt, als ein Raster ausgebildet sein können und somit die unterschiedlichen Abstände der Bildsensoreinheiten untereinander ebenfalls abbilden, so dass sich eine verzeichnete Mikro- linsenstruktur ergibt. Gleiches gilt für die Farbfilter 31 bzw. 31', welche ebenfalls als Raster oder als verzeichnendes Raster ausgebildet sein können. Mit Hilfe der Mikrolinsen 30, 30' bzw. Mikrolinsenar- rays kann eine Füllfaktorerhöhung erreicht werden, so dass der Füllfaktor der lichtempfindlichen Fläche innerhalb einer Bildsensoreinheit in der Größenordnung um 50% liegen kann, trotzdem aber nahezu alles Licht, was auf eine Bildsensoreinheit fällt, durch die Konzentration auf die Photodiode in ein elektrisches Signal gewandelt werden kann. Des Weiteren befinden sich an den Bildsensoreinheiten 2 bzw. 21 jeweils Pinholes 32 bzw. 32', in deren Ausnehmung die lichtempfindliche Detektoreinheit 20 bzw. 20' angeordnet ist. Dabei kann das Pinholearray mit den Pinholen 32, 32' so ausgebildet sein, dass die Abstände nebeneinander liegender lichtempfindlichen Flächen 20 bzw. 20' sich vom Zentrum zum Randbereich hin ändert, die Abstände 50 zwischen zwei benachbarten Bildsensoreinheiten jedoch gleich bleiben.
Die Geometrie der einzelnen Mikrolinsen 30, 30' des Füllfaktor erhöhenden Mikrolinsenarrays wird an den Hauptstrahlwinkel des durch eine jeweilige Optik zu fokussierenden Bündels angepasst; dies geschieht durch eine Variation der Krümmungsradien der Mikrolinsen entlang einer Verbindungslinie, bzw. dem Krümmungsradienverhältnis einer einzelnen Mikrolinse in den zwei Hauptachsen X und Y zueinander, wobei die beiden Krümmungsradien innerhalb einer Mikrolinse ü- ber das Array entlang einer Verbindungslinie hinweg variieren können und die Mikrolinsen von nichtrotati- onssymmetrischer Natur sein können. Durch die Mikrolinsen können beispielsweise ein Astigmatismus oder eine Bildfeldwölbung durch entsprechende Anpassung der Krümmungsradien in den zwei Hauptachsen unter Ausbildung elliptischer Mikrolinsen korrigiert werden. Damit kann eine optimale Fokussierung auf die entsprechend dem Hauptstrahlwinkel vom Zentrum einer Bildsensoreinheit versetzten Fotodioden 20 realisiert werden. Dabei ist nicht der Versatz der Fotodioden sondern die Anpassung der Mikrolinsenform an den Hauptstrahlwinkel entscheidend. Auch das Anbringen von elliptisch gechirpten Mikrolinsen, bei denen die Krümmungsradien und das Krümmungsradienverhältnis ausschließlich über die Achsengröße und das Achsenverhältnis und die Orientierung der Mikrolinsenbasis eingestellt werden, ist sinnvoll. Auf diese Weise kann unter Umständen ein größerer bildseitiger Haupt- Strahlwinkel akzeptiert werden. Dies öffnet weitere Freiheitsgrade für das Objektivdesign, da weitere A- berrationen auf Bildsensorebene mit Hilfe der Mikrolinsen korrigiert werden.
Bei einer kissenförmigen Verzeichnung, wie in Fig. 3 dargestellt, können die Bildsensoreinheiten bzw. die lichtempfindlichen Flächen der Bildsensoreinheiten nach außen hin größer werden, bzw. nur im Randbereich einen geringen Füllfaktor aufweisen. Ob eine kissen- oder tonnenförmige Verzeichnung eines Objektivs vorliegt wird durch die Position einer Aperturblende im Gesamtaufbau einer Optik festgelegt. Dabei ist die Aperturblende vorteilhafterweise so anzuordnen, dass sie sich zwischen der maßgeblichen Linse, welche beispielsweise die Linse größter Brechkraft sein kann bzw. der optischen Hauptebene und dem Bildsensor befindet, damit eine kissenförmige Verzeichnung entsteht, um einen reduzierten Füllfaktor nur im Randbereich des Bildsensors aufzuweisen. Die Größe der Fotodioden innerhalb der Bildsensoreinheiten kann über das Array auch angepasst werden, um den Füllfaktor möglichst zu vergrößern. Auch kann die Größe der Mikrolinsen entsprechend angepasst werden.
Bei dem erfindungsgemäßen Bildsensor bzw. bei der er- findungsgemäßen Kamera ist es wichtig, dass die lichtempfindlichen Flächen, also die Fotodioden, ihren Abstand zueinander zum Ausgleich einer geometrischen Verzeichnung hin ändern. Ob dabei die Fotodioden jeweils im Zentrum oder außerhalb des Zentrums einer Bildsensoreinheit liegen, ist beim Ausgleich einer geometrischen Verzeichnung gleichwertig. Bei der Änderung des Abstands der Bildsensoreinheiten zueinander kann der hierdurch gewonnene Platz zur Vergrößerung der aktiven lichtsensitiven Fotodiodenfläche genutzt werden, was zu einer Verringerung der natürlichen Vignettierung im Randbereich führt.
In der Fig. 5 ist ein Bildsensor I1 mit einer Verzeichnungskorrektur abgebildet, welcher in Verbindung mit einer abbildenden Optik 100 ausgebildet wird. Die hier gezeigte Optik bedarf keiner Korrekturen für die geometrische Verzeichnung, da diese bereits vollständig im Bildsensor 1' integriert ist. Die Linse 1000 ist dabei die Linse, welche innerhalb der Optik 100 die größte Brechkraft besitzt und somit maßgeblich die Position der Hauptebene der Optik definiert. Vor der Optik 101 ist einer Apperturblende 101 angebracht, so dass eine tonnenförmige Verzeichnung auftritt.
Durch vorhandene Farbfilterraster können Farbinformationen aufgenommen werden, durch ein Mikrolinsenras- ter auch ein Astigmatismus oder eine Bildfeldwölbung - zumindest in Teilen - bereits auf Bildsensorebene korrigiert werden. Somit werden Freiheitsgrade beim Design der Linsen 1000 und 1001 frei, welche sich mit anderen Aberrationen, wie beispielsweise dem Coma oder der sphärischen Aberration zuwenden können. Die Informationen des Bildsensors 1 ' werden über eine Datenverbindung 150 an eine Datenverarbeitungsanlage 200 weitergeleitet, in welcher ohne großen Speicheroder Rechenzeitaufwand ein verzeichnungsfreies Objektbild dem Betrachter zur Verfügung gestellt werden kann. Da der Bildsensor 1' auf die Optik 100 abgestimmt ist, muss der Bildsensor entsprechend dem Hauptstrahlengang der Optik vorausgerichtet werden. Werden zur Anpassung an den Gang des Hauptstrahlwinkels auch entsprechend versetzte und auch ihrer Form zur optimalen Fokussierung angepasste füllfaktorerhöhenden Mikrolinsen (wie bspw. in Fig. 4 beschrieben) im Bildsensor eingesetzt, so sind auch diese an den Gang des Hauptstrahlwinkels der verwendeten Optik anzupassen. Somit ist die Zentrierung von Objektiv und Bildsensor kritisch, da davon nicht nur die Anordnung des Bildsensors mit dem Bildkreis des abzubildenden Objektivs beeinflusst ist, sondern auch die Parameter des Bildsensόrs bzw. der Mikrolinsen zur Füllfaktorerhöhung eine radiale Abhängigkeit aufweisen können.
Eine weitere Möglichkeit den Bildsensor auszubilden, besteht darin den Bildsensor auf einer gekrümmten Fläche anzubringen. Auf diese Weise kann eine Bildfeldwölbung korrigiert werden, da nun sämtliche lichtempfindlichen Flächen eine konstante Entfernung zum Mittelpunkt der Linse mit größter Brechkraft aufweisen. Auch eine konstante Entfernung zum Mittelpunkt eines komplizierten Linsensystems ist möglich, jedoch komplizierter in seiner Berechnung. Die Anordnung des Bildsensors auf einer gekrümmten Fläche ist jedoch problemlos realisierbar. Ebenso kann das Substrat des Bildsensors, auf welchem die lichtempfindlichen Einheiten aufgebracht sind, eine dementspre- chende Krümmung aufweisen.
In weiteren Ausgestaltungen können beispielsweise die Photodioden variable Größen haben, um den durch Ver- Zeichnung gewonnenen Platz zum Rande hin zusätzlich auszunutzen. Ein Farbquerfehler kann beispielsweise bildsensorseitig durch entsprechend an den Farbquer- filter der Optik angepasste Arrangierung der Farbfilter auf den Detektorpixeln oder durch Verrechnung der Farbpixelsignale korrigiert werden. Der Bildsensor kann beispielsweise auch gekrümmt ausgestaltet sein.
Der Bildsensor kann beispielsweise ein im Wafer- maßstab hergestellter Bildsensor, beispielsweise für Mobiltelefonkameras sein. In der Herstellung eines erfindungsgemäßen Kameramoduls können Optik und Bildsensor gemeinsam ausgelegt werden. Es können auch beispielsweise elliptisch gechirpte Mikrolinsen zur an den Einsatzwinkel angepassten Fokussierung in die Pixel zur Anwendung kommen. Hierzu können beispielsweise die Krümmungsradien der Mikrolinsen in Richtung der beiden Hauptachsen der Ellipsen variieren. Auch beispielsweise eine Drehung der elliptischen Linsen entsprechend der Bildfeldkoordinate ist möglich.
Auch gechirpte Arrays refraktiver Mikrolinsen können gemäß einer vorteilhaften Ausführungsform eingesetzt werden. Im Gegensatz zu klassischen Mikrolinsenarrays aus identischen Linsen mit konstantem Abstand zueinander sind gechirpte Mikrolinsenarrays aus ähnlichen, jedoch nicht identischen Linsen aufgebaut. Die Loslösung von der starren Geometrie regulärer Arrays ermöglicht optische Systeme mit optimierten optischen Parametern für Anwendungen wie z.B. die Füllfaktorerhöhung in der digitalen Bildaufnahme.
Reguläre Mikrolinsenarrays (rMLA) , wie sie in Fig. 6 gezeigt sind, werden vielfältig eingesetzt - in der Sensorik, zur Strahlformung, für die digitale Photographie (Füllfaktorerhöhung) und in der optischen Telekommunikation, um nur einiges zu nennen. Sie können durch die Anzahl der Linsen, die Geometrie der sich stets wiederholenden Einheitszelle und die Abstände zu den direkten Nachbarn - dem Pitch - vollständig beschrieben werden. In vielen Fällen werden die einzelnen Zellen des Arrays in unterschiedlicher Weise genutzt, was jedoch bei der Auslegung eines rMLA nicht berücksichtigt werden kann. Die im optischen Design gefundene Geometrie des Arrays stellt daher nur eine Kompromisslösung dar.
Im Gegensatz zu Mikrolinsenarrays aus identischen Linsen mit konstantem Abstand bestehen gechirpte Mikrolinsenarrays (cMLA) , wie sie z.B. in Fig. 7 gezeigt sind, aus individuell an ihre Aufgabe ange- passten Zellen, die mittels parametrischer Beschreibung definiert sind. Die Zahl der erforderlichen Parameter hängt hierbei von der konkreten Geometrie der Linsen ab. Die Zelldefinition kann durch analytische Funktionen, numerische Optimierungsverfahren oder einer Kombination aus beiden gewonnen werden. Bei allen gechirpten Arrays hängen die Funktionen von der Position der jeweiligen Zelle im Array ab.
Eine bevorzugte Anwendung gechirpter Mikrolinsenarrays ist die kanalweise Optimierung der optischen Funktion einer sich wiederholenden Anordnung an sich ändernde Randbedingungen.
CCD- oder CMOS-Bildwandler sind normalerweise planar, die vorgeschaltete abbildende Optik ist typischerweise nicht telezentrisch, d.h. der Hauptstrahlwinkel wächst zum Bildfeldrand hin. Ein einfallswinkelabhängiger Versatz zwischen Linsen und Rezeptoren sorgt typischerweise dabei dafür, dass jeder Pixel Licht mit einem anderen (zum Rand hin wachsenden) Haupt- Strahlwinkel der vorgeschalteten Optik aufnehmen kann.
Da die Einzellinsen nun aus Richtungen abbilden müssen, die nicht mehr auf der optischen Achse liegen, treten Aberrationen 3. Ordnung wie Astigmatismus, Bildfeldkrümmung und Koma auf, die die Abbildungsqualität der Mikrolinsen in die Photodioden verschlechtern und damit einhergehend Menge des in die Photodioden übertragenen Lichtes reduzieren (-> Reduktion der Quanteneffizenz bzw. einfach der Helligkeit) (Figur 8). Vorteilhafterweise überträgt jede Mikrolinse einen sehr kleinen Öffnungswinkel von besonders bevorzugt weniger als 1°, so dass eine effiziente Aberrationskorrektur durch die individuelle Anpassung der Linsen möglich ist. Zur Herstellung refraktiver MLA eignet sich vorteilhaft das Photolack-Schmelzen (Reflow) , durch das Linsen mit extrem glatten Oberflächen entstehen. Hierbei werden nach der Entwicklung des durch eine Maske bestrahlten Photolacks die entstandenen Zylinder aufgeschmolzen. Durch das Wirken von Oberflächenspannungen führt dies zur gewünschten Linsenform.
Die im Objektiv dominanten Bildfehler Astigmatismus und Bildfeldkrümmung können effizient durch Nutzung anamorphotischer Linsen korrigiert werden. Anamor- photen, wie z.B. durch Reflow herstellbare elliptische Linsen, verfügen in unterschiedlichen Schnittverläufen über unterschiedliche Oberflächenkrümmungen und damit Brennweiten. Durch Anpassung der Brennweiten in tangentialem und sagittalem Schnitt entsprechend modifizierter Gullstrandcher Gleichungen, wie sie in J. Duparre, F. Wippermann, P. Dannberg, A. Reimann „Chirped arrays of refractive ellipsoidal microlenses for aberration correction under oblique incidence", Optics Express, Vol. 13, Nr. 26, S. 10539-10551, 2005 gezeigt sind, können für jeden Winkel individuell die Schnittweitendifferenzen aus Astigmatismus und Bildfeldwölbung kompensiert und letztlich ein beugungsbegrenzter Fokus für den speziellen Feldwinkel des betrachteten Kanals erreicht werden (Figur 8) .
Im Gegensatz zu regulären Mikrolinsenarrays (rMLA) , die aus identischen Linsen in einem festen geometrischen Raster bestehen, führt die individuelle Anpassung der Linsen damit zu einer Arrayanordnung aus ähnlichen, aber nicht identischen Zellen. Abgewandelte (gechirpte) cMLA können damit die optische Abbildung optimieren.
Das cMLA wird durch analytisch ableitbare Gleichungen definiert und durch Anpassung entsprechender Parameter ausgelegt. Geometrie und Position der elliptischen Linsen können anhand von fünf Parametern (Mittelpunktskoordinaten in x- und y-Richtung, Krümmungsradien in sagittaler und tangentialer Richtung, Orientierungswinkel) vollständig beschrieben werden, wie es in Figur 9 gezeigt ist. Folglich sind zur Beschreibung des gesamten Arrays fünf Funktionen erforderlich, die komplett analytisch abgeleitet werden können. So lassen sich sämtliche Linsenparameter extrem schnell berechnen.
Die aberrationskorrigierende Wirkung der anamorphoti- schen Linsen ist in Figur 10 zu erkennen: Eine sphärische Linse erzeugt unter senkrechter Inzidenz einen beugungsbegrenzten Spot. Unter schrägem Einfall wird der Fokus in der paraxialen Bildebene infolge Astigmatismus und Bildfeldwölbung stark verwaschen. Bei einer elliptischen Linse resultiert unter senkrechtem Einfall ein aufgeweiteter Spot als Folge der unterschiedlichen Krümmungsradien in tangentialem und sa- gittalem Schnitt. Unter dem Designwinkel, hier 32°, einfallendes Licht erzeugt wiederum einen beugungsbe- grenzten Spot in der paraxialen Bildebene. Die cMLA mit kanalweiser Aberrationskorrektur ermöglichen damit die Verbesserung der Einkopplung von Licht durch die Mikrolinsen in die Photodioden, auch unter grossem Hauptstrahlwinkel der vorgeschalteten abbildenden Optik und verringern dadurch das sogenannte „sha- ding" .

Claims

Patentansprüche
1. Bildsensor (1) mit einer Vielzahl von Bildsensoreinheiten (2) in einer im Wesentlichen array- artigen Anordnung, wobei die Zentren der lichtempfindlichen Flächen (20) der Bildsensoreinheiten zueinander beabstandete Knotenpunkte sind und diese zusammen mit den die Knotenpunkte verbindenden horizontalen (12) und vertikalen (13) Verbindungslinien ein zweidimensionales Netz aufspannen, und die arrayartige Anordnung einen Zentrumsbereich (5) und einen Randbereich (6) aufweist, wobei der Zentrumsbereich (5) und der Randbereich (6) entlang mindestens einer Verbindungslinie (12,13) miteinander verbunden sind, d a d u r c h g e k e n n z e i c h n e t , dass der Abstand jeweils zweier benachbarter Knotenpunkte (20,20',2O1 1) der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie im Zentrumsbereich und im Randbereich verschieden ist und/oder das sich der Abstand zu einer zweiten Verbindungslinie sich vom Zentrumsbereich zum Randbereich hin ändert, so dass das Netz ein nicht-äquidistantes Gitter bildet.
2. Bildsensor nach Anspruch 1, dadurch gekennzeichnet, dass sich der Abstand jeweils zweier benachbarter Knotenpunkte (20,20',2O1') der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie vom Zentrumsbereichs zum Randbereichs hin stetig ändert.
3. Bildsensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass sich der Abstand jeweils zweier benachbarter Knotenpunkte (20,20',2O1 1) der arrayartigen Anordnung entlang der mindestens einen Verbindungslinie vom Zentrumsbereich zum Randbereich hin zum Ausgleich einer geometrischen Verzeichnung ändert .
4. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verbindungslinien (12,13) der arrayartigen Anordnung ein rectilineares Gitter bilden.
5. Bildsensor nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mindestens eine Verbindungslinie (12,13) der arrayartigen Anordnung durch eine parametrisierte Kurve darstellbar ist.
6. Bildsensor nach Anspruch 5, dadurch gekennzeichnet, dass die Verbindungslinien (12,13) der arrayartigen Anordnung ein curvilineares Gitter (I1 , 1' ) bilden.
7. Bildsensor nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass sich die Abstände benachbarter Knotenpunkte (20,20',2O1') der arrayartigen Anordnung vom Zentrumsbereich zum Randbereich hin radialsymmetrisch und/oder im Wesentlichen als Funktion des Abstandes zum Ar- raymittelpunkt ändert.
8. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Randbereich (6) den Zentrumsbereich (5) umschließt.
9. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vielzahl von Bildsensoreinheiten (2) auf einem Substrat angeordnet ist .
10. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildsensoreinheiten (2) optoelektronische und/oder digitale Einheiten sind.
11. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jeweils die lichtempfindliche Fläche (20) im Zentrum einer Bildsensoreinheit (2) angeordnet ist.
12. Bildsensor nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass jeweils der Abstand zweier benachbarter Bildsensoreinheiten (2,2') unverändert ist und ausschließlich die lichtempfindlichen Flächen (20,2O1) benachbarten Bildsensoreinheiten der Abstand entlang mindestens einer Verbindungslinie (12,13) verschieden ist.
13. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lichtempfindliche Fläche (20) eine Photodiode oder ein Detektorpixel ist, vorzugsweise ein CMOS, ein CCD oder eine organische Photodiode ist .
14. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lichtempfindliche Fläche (20) rechteckig oder quadratisch oder hexagonal oder rund ist .
15. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Bildsensoreinheit (2) eine Mikrolinse (30) aufweist und/oder die Vielzahl von Bildsensoreinheiten (2) durch ein Mikrolinsenraster überdeckt ist.
16. Bildsensor nach Anspruch 15, dadurch gekennzeichnet, dass die Mikrolinse (30) oder das Mik- rolinsenraster zur Füllfaktorerhöhung ausgebildet sind.
17. Bildsensor nach einem der Ansprüche 15 oder 16, dadurch gekennzeichnet, dass die Mikrolinsen (30,3O1) zur Anpassung an den Gang des Hauptstrahlwinkels einer abbildenden Optik relativ zu den lichtempfindlichen Flächen (2,2') versetzt sind.
18. Bildsensor nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass mindestens die eine Mikrolinse (30,30') eine elliptische Mikrolinse ist mit unterschiedlichen Krümmungsradien in den zwei Hauptachsen der elliptischen Mikrolinse, wobei die Mikrolinse derart angeordnet ist, dass die lange Hauptachse in Richtung der Projektion eines auf Mikrolinse auftreffenden Hauptstrahls einer abbildenden Optik verläuft.
19. Bildsensor nach Anspruch 18, dadurch gekennzeichnet, dass die mindestens eine elliptische Mikrolinse eine elliptische gechirpte Mikrolinse ist und zur optimalen Fokussierung ihre Parameter über das Array so ändert, dass sie an die an ihrer jeweiligen Position herrschenden Verhältnisse hinsichtlich ihrer änderbaren Parameter optimal angepasst ist.
20. Bildsensor nach einem der Ansprüche 15 bis 19, dadurch gekennzeichnet, dass die mindestens eine Mikrolinse (30,3O1) in ihrer Größe über das Array variabel zur Füllfaktorerhöhung an den jeweiligen Abstand der lichtempfindlichen Flächen angepasst ist .
21. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die lichtemp- findlichen Flächen zumindest einiger der Bildsensoreinheiten unterschiedliche Größen haben, wobei vorzugsweise die Größe der Flächen in Richtung vom Zentrumsbereich zum Randbereich zunehmen.
22. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mindestens eine Bildsensoreinheit zur Farbbildaufnahme einen Farbfilter, vorzugsweise mit drei Grundfarben, aufweist und/oder die Vielzahl von Bildsensoreinheiten durch ein Farbfilterraster überdeckt ist.
23. Bildsensor nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Farbfilter so angeordnet sind, dass ein Farbquerfehler der Mik- rolinsen korrigierbar ist und/oder dass die Farbfilter abweichend von einem Bayer- Pattern und/oder einem konventionellen Demosaicing angeordnet sind und ein bekannter Farbquerfehler mittels eines Bildaufbereitungsalgorithmusses herausrechenbar ist .
24. Bildsensor nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildsensor auf einer gekrümmten Fläche ausgebildet ist, so dass eine Bildfeldwölbung korrigierbar ist, wobei vorzugsweise die Bildsensoreinheiten und/oder die lichtempfindlichen Flächen organische Photodioden aufweisen oder sind.
25. Kamerasystem mit einem Bildsensor (I1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine abbildende Optik (100) mit mindestens einer Linse (1000, 1001) vorhan- den ist, in deren Bildebene der Bildsensor angeordnet ist.
26. Kamerasystem nach Anspruch 25, dadurch gekennzeichnet, dass sich die Abstände jeweils zweier Knotenpunkte (2,2',21 1J entlang mindestens einer Verbindungslinie (12,13) der arrayartigen Anordnung der Bildsensoreinheiten zum Ausgleich einer geometrischen Verzeichnung, vorzugsweise zum Ausgleich einer kissenförmigen geometrischen Verzeichnung, der Optik (100) ändern.
27. Kamerasystem nach einem der Ansprüche 25 bis 26, dadurch gekennzeichnet, dass eine Aperturblende zwischen dem Bildsensor (1',I1 1) und der abbildenden Optik (100) , vorzugsweise zwischen dem Bildsensor und einer Hauptebene der Optik, vorhanden ist.
28. Kamerasystem nach einem der Ansprüche 25 bis 27, dadurch gekennzeichnet, dass das Kamerasystem auf einem Wafer hergestellt ist.
29. Kamerasystem nach einem der Ansprüche 25 bis 28 zur Verwendung in einer Kamera und/oder einem tragbaren Telekommunikationsgerät und/oder einem Scanner und/oder einem Bilderkennungsgerät und/oder einem Überwachungssensor und/oder einem Erd- und/oder Sternsensor und/oder einem Satellitensensor und/oder einem Raumfahrtgerät und/oder medizinischen oder robotischen Sensoranordnung .
30. Verfahren zur Herstellung eines Bildsensors nach einem der Ansprüche 1 bis 24 oder eines Kamerasystems nach den Ansprüchen 25 bis 29 zur Korrektur der Verzeichnung einer einzusetzenden Optik, welches folgende Schritte umfasst: a) Ermitteln der Verzeichnung einer geplanten oder bereits hergestellten abbildenden Optik (100) ; b) Herstellung eines Bildsensors bei welchem die geometrische Verzeichnung der abbildenden Optik (100) wenigstens teilweise durch Anordnung der lichtempfindlichen Flächen (20) der Bildsensoreinheiten (2) ausgeglichen wird.
31. Verfahren nach Anspruch 30, dadurch gekennzeichnet, dass bei der Auslegung der abbildenden Optik (100) der Ausgleich der geometrischen Verzeichnung durch den Bildsensor (1',I1') berücksichtigt wird.
32. Verfahren nach einem der Ansprüche 30 oder 31, dadurch gekennzeichnet, dass der Bildsensor (1',I1 1) mit einer abbildenden Optik (100) zu einer funktionellen Einheit verbunden wird, wobei die Optik überdurchschnittliche Korrekturen zum Ausgleich einer chromatischen Aberration und/oder eines Astigmatismus und/oder eines Coma und/oder einer sphärischen Aberration und/oder einer Bildfeldwölbung aufweist und die geometrische Verzeichnung durch den Bildsensor korrigiert wird.
33. Verfahren nach einem der Ansprüche 30 bis 32, dadurch gekennzeichnet, dass es bei der Herstellung und Planung einer abbildenden Optik und/oder einem Bildsensor angewendet wird, wobei dieses vorzugsweise in Kameras, welche im Wafer- maßstab hergestellt werden, eingesetzt wird.
34. Verfahren nach einem der Ansprüche 30 bis 33, dadurch gekennzeichnet, dass die abbildende Op- tik und der Bildsensor gemeinsam ausgelegt und/oder geplant werden.
EP08802567A 2007-09-24 2008-09-24 Bildsensor mit bildkompensation durch pixelanordnung Withdrawn EP2198458A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007045525A DE102007045525A1 (de) 2007-09-24 2007-09-24 Bildsensor
PCT/EP2008/008090 WO2009040110A1 (de) 2007-09-24 2008-09-24 Bildsensor mit bildkompensation durch pixelanordnung

Publications (1)

Publication Number Publication Date
EP2198458A1 true EP2198458A1 (de) 2010-06-23

Family

ID=40348088

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08802567A Withdrawn EP2198458A1 (de) 2007-09-24 2008-09-24 Bildsensor mit bildkompensation durch pixelanordnung

Country Status (6)

Country Link
US (1) US20100277627A1 (de)
EP (1) EP2198458A1 (de)
JP (1) JP5342557B2 (de)
KR (1) KR101486617B1 (de)
DE (1) DE102007045525A1 (de)
WO (1) WO2009040110A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010031535A1 (de) 2010-07-19 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
JP6209308B2 (ja) * 2011-04-26 2017-10-04 ソニー株式会社 撮像装置および電子機器
JP6480919B2 (ja) * 2013-05-21 2019-03-13 クラレト,ホルヘ ヴィセンテ ブラスコ プレノプティックセンサとその製造方法およびプレノプティックセンサを有する配置
CA2819956C (en) * 2013-07-02 2022-07-12 Guy Martin High accuracy camera modelling and calibration method
DE102015104208A1 (de) * 2015-03-20 2016-09-22 Osram Opto Semiconductors Gmbh Sensorvorrichtung
CN106161920A (zh) * 2015-04-22 2016-11-23 北京智谷睿拓技术服务有限公司 图像采集控制方法和装置
CN105245765A (zh) * 2015-07-20 2016-01-13 联想(北京)有限公司 图像传感阵列及其排布方法、图像采集部件、电子设备
US10299880B2 (en) * 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US11467100B2 (en) * 2017-08-08 2022-10-11 General Electric Company Imaging element for a borescope
KR102183003B1 (ko) * 2018-08-01 2020-11-27 (주)엘디스 광통신 광원용 광파장 감시기
JP7377082B2 (ja) * 2019-11-29 2023-11-09 株式会社ジャパンディスプレイ 検出装置及び検出装置の製造方法
WO2023102421A1 (en) * 2021-11-30 2023-06-08 Georgia State University Research Foundation, Inc. Flexible and miniaturized compact optical sensor

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01119178A (ja) * 1987-10-30 1989-05-11 Nikon Corp 撮像装置
US6201574B1 (en) * 1991-05-13 2001-03-13 Interactive Pictures Corporation Motionless camera orientation system distortion correcting sensing element
JPH05207383A (ja) * 1992-01-29 1993-08-13 Toshiba Corp 固体撮像装置
EP0786814A1 (de) * 1996-01-26 1997-07-30 Hewlett-Packard Company Photodetektor-Matrix mit Kompensation von Abbildungsfehlern und ungleichmässiger Beleuchtung
JP3461275B2 (ja) * 1997-12-25 2003-10-27 キヤノン株式会社 光電変換装置及びこれを用いたカメラ
JP2000036587A (ja) * 1998-07-21 2000-02-02 Sony Corp 固体撮像素子
US6563101B1 (en) * 2000-01-19 2003-05-13 Barclay J. Tullis Non-rectilinear sensor arrays for tracking an image
JP2004221657A (ja) 2003-01-09 2004-08-05 Fuji Photo Film Co Ltd 撮像装置
JP4656393B2 (ja) * 2005-02-23 2011-03-23 横河電機株式会社 光源装置
KR100710208B1 (ko) * 2005-09-22 2007-04-20 동부일렉트로닉스 주식회사 씨모스 이미지 센서 및 그 제조방법
JP2007194500A (ja) * 2006-01-20 2007-08-02 Fujifilm Corp 固体撮像素子およびその製造方法
DE102006004802B4 (de) * 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JACQUES DUPARRÉ ET AL: "Chirped arrays of refractive ellipsoidal microlenses for aberration correction under oblique incidence", OPTICS EXPRESS, vol. 13, no. 26, 1 January 2005 (2005-01-01), pages 10539, XP055071710, ISSN: 1094-4087, DOI: 10.1364/OPEX.13.010539 *

Also Published As

Publication number Publication date
US20100277627A1 (en) 2010-11-04
KR101486617B1 (ko) 2015-02-04
DE102007045525A8 (de) 2009-07-23
JP5342557B2 (ja) 2013-11-13
WO2009040110A1 (de) 2009-04-02
KR20100059896A (ko) 2010-06-04
JP2010541197A (ja) 2010-12-24
DE102007045525A1 (de) 2009-04-02

Similar Documents

Publication Publication Date Title
WO2009040110A1 (de) Bildsensor mit bildkompensation durch pixelanordnung
EP2428034B1 (de) Vorrichtung zur optischen abbildung
DE102012005152B4 (de) Bildaufnahmevorrichtung und bildaufnahmeoptik
EP2507662B1 (de) Vorrichtung zur optischen abbildung
EP2100190B1 (de) Projektionsbelichtungsanlage für die mikrolithographie
EP2837961B1 (de) Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abbildungssystem
DE102012100726B4 (de) Bildlesevorrichtung
EP3610637B1 (de) Vorrichtungen zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtungen und verfahren zum bereitstellen derselben
DE102014118383B4 (de) Objektiv für eine Foto- oder Filmkamera und Verfahren zum gezielten Dämpfen bestimmter Raumfrequenzbereiche der Modulations-Transfer-Funktion eines derartigen Objektivs
EP1979769A1 (de) Bilderfassungssystem und verfahren zur herstellung mindestens eines bilderfassungssystems
EP2596642A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen eines bildes
DE102008021341A1 (de) Anamorphotisches Abbildungsobjektiv
EP2122403B1 (de) Anastigmatisches anamorphotisches objektiv
DE102019112231B4 (de) Optiksystem und Abbildungsgerät mit demselben
DE102020201794B4 (de) Anamorphotisches objektivlinsensystem, kamerasystem und verfahren zum ausbilden von anamorphotischen linseneinheiten mit unterschiedlichen brennweiten
DE102013200059B4 (de) Vorrichtung zur Aufnahme eines von einer Hauptlinse einer plenoptischen Kamera erzeugten Zwischenbilds und plenoptische Kamera
WO2022063806A1 (de) Verfahren zur erstellung einer bildaufzeichnung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100423

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

RIN1 Information on inventor provided before grant (corrected)

Inventor name: BRAEUER, ANDREAS

Inventor name: WIPPERMANN, FRANK

Inventor name: DUPARRE, JACQUES

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20130725

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170401