WO2022188923A1 - Mehrkanaloptik zur synchronen aufnahme von abbildungen - Google Patents

Mehrkanaloptik zur synchronen aufnahme von abbildungen Download PDF

Info

Publication number
WO2022188923A1
WO2022188923A1 PCT/DE2022/100174 DE2022100174W WO2022188923A1 WO 2022188923 A1 WO2022188923 A1 WO 2022188923A1 DE 2022100174 W DE2022100174 W DE 2022100174W WO 2022188923 A1 WO2022188923 A1 WO 2022188923A1
Authority
WO
WIPO (PCT)
Prior art keywords
optics
image
imaging
diffuser
area
Prior art date
Application number
PCT/DE2022/100174
Other languages
English (en)
French (fr)
Inventor
René HEINE
Arnd Raphael BRANDES
Original Assignee
Cubert GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cubert GmbH filed Critical Cubert GmbH
Publication of WO2022188923A1 publication Critical patent/WO2022188923A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/02Diffusing elements; Afocal elements
    • G02B5/0205Diffusing elements; Afocal elements characterised by the diffusing properties
    • G02B5/0236Diffusing elements; Afocal elements characterised by the diffusing properties the diffusion taking place within the volume of the element
    • G02B5/0242Diffusing elements; Afocal elements characterised by the diffusing properties the diffusion taking place within the volume of the element by means of dispersed particles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0224Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using polarising or depolarising elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/12Beam splitting or combining systems operating by refraction only
    • G02B27/123The splitting element being a lens or a system of lenses, including arrays and surfaces with refractive power
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/02Diffusing elements; Afocal elements
    • G02B5/0273Diffusing elements; Afocal elements characterized by the use
    • G02B5/0278Diffusing elements; Afocal elements characterized by the use used in transmission
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0043Inhomogeneous or irregular arrays, e.g. varying shape, size, height

Definitions

  • the invention relates to multi-channel optics, in particular a camera with such a multi-channel optic for synchronous recording of a plurality of images of a motif, and a method for calibrating such a camera.
  • Cameras for synchronous recording of a plurality of images have been known for a long time. Examples are stereo cameras, plenoptic cameras or spectral cameras that can record several images in different channels, e.g. wavelength channels, at the same time. Such cameras can also be referred to as "multi-channel cameras” because they simultaneously (synchronously) record a subject in the form of two or more image channels. These cameras are equipped with multi-channel optics, e.g. with a matrix of micro lenses. These multi-channel optics can be directly integrated into the camera, which is the most common embodiment, or they can be detachably coupled to the camera.
  • a plurality of lenses or other imaging elements simultaneously images a motif on different areas of an imaging medium.
  • a light field camera uses a large number of lenses, e.g. 3, 19 or 90,000, on a lens matrix in order to display a corresponding number of images on an image sensor.
  • Modern multi-channel spectral cameras generally use a lens matrix with a large number of micro-lenses in order to image a subject multiple times on an image sensor, with a filter element ensuring that each of these images is imaged in a different spectral range.
  • a multi-channel optics according to the invention is used for the synchronous (simultaneous) display of a plurality of images of a motif. It comprises a flat optical diffuser with a predetermined image area, an imaging system and an imaging area and is designed to image the image area of the diffuser multiple times in the imaging area by means of the imaging system.
  • a camera according to the invention is used for the synchronous (simultaneous) recording of a plurality of images of a motif and could also be referred to as a “multi-channel camera”. It comprises multi-channel optics according to the invention and, in addition, a flat recording unit, eg a flat image sensor in the imaging area.
  • multi-channel optics can also have a recording unit in the imaging area, in which case such a structure can then also be referred to as a “camera”.
  • the word “image sensor” is used for better understanding, which can also mean an arrangement of a plurality of image sensors of the same type or of different types. Areal image sensors are basically known to the person skilled in the art.
  • the image sensor can be film material, it is particularly preferably a digital pixel detector that allows image points (“pixels”) to be recorded electronically.
  • Preferred pixel detectors are CCD (charge-coupled device) sensors or CMOS (complementary metal-oxide-semiconductor) sensors. ).
  • Sensors based on silicon are particularly preferred, but also InGaAs sensors and sensors based on lead oxide or graphene, in particular also for wavelength ranges outside the visible range.
  • a recording unit does not necessarily have to be arranged in the imaging area, although the invention basically aims at multi-channel recording.
  • another diffuser can also be arranged in the image area, the image area of which can then be recorded by a separate camera, for example.
  • multi-channel optics can be used to turn a normal smartphone or conventional camera into a spectral camera or HDR camera.
  • a depicting or recording element it is not even necessary for a depicting or recording element to be arranged in the imaging area.
  • the imaging area could also be viewed simply as an optical plane, which can be recorded with suitable optics, real images being able to be displayed there by the imaging system, but basically also virtual images as an alternative.
  • the imaging system comprises a plurality of imaging elements, in particular a flat lens matrix with a large number of individual lenses or lens systems, a matrix of pinhole diaphragms, a mirror matrix or a bundle of light guides.
  • the imaging elements are preferably arranged in such a way that they generate a large number of images of the image area arranged in a grid pattern in the imaging area, e.g. on the image sensor, at the time of recording.
  • the imaging system may consist of or include (along with other elements) a lens array or multi-lens array.
  • An optical diffuser per se, for example a diffusing screen, is known in the prior art and is an optical component which serves to scatter light diffusely, in particular with by means of diffuse reflection, but particularly preferably by means of diffuse refraction of light. Even if diffusors are regularly used in light measurement technology to give a detector increased sensitivity for a large solid angle range, diffusors have not been used in the imaging part of a camera or multi-channel optics to date. Radiation from a diffuser generally follows Lambert's law.
  • the imaging system in the present invention forms an image area of the diffuser in the imaging area (e.g. on the image sensor ) away.
  • this image is preferably sharp, it can also be different.
  • multi-channel optics one behind the other (cascaded), whereby the images of a preceding multi-channel optic can be reproduced multiple times by a subsequent multi-channel optic (so that e.g. four images of the first multi-channel optic become sixteen images after the second multi-channel optic).
  • a preferred optical system has the advantage that several different examinations can be carried out on a motif at the same time, e.g. a spectral examination together with an examination of the polarization.
  • the diffuser of a subsequent multi-channel optics is preferably arranged in the imaging area of the preceding multi-channel optics.
  • a method according to the invention serves to calibrate a multi-channel optical system (in particular a camera) according to the invention.
  • This calibration affects recording errors that are caused by a different dispersion of media, eg filter elements, between the diffuser and the imaging area (eg the image sensor).
  • the imaging area eg the image sensor.
  • an area is defined for each image calibrated in this way, in particular the entire image.
  • the following steps are carried out for each of these areas of an image: - determination of a field distribution of values of image points (e.g. the pixels) of the relevant area of the imaging area (e.g. the image sensor), this field distribution being in particular a color field,
  • the affected area of the imaging area e.g. the image sensor
  • the image the captured image or the image data
  • a calibration matrix is preferably calculated for the modification, which is simply applied to the images or the pixels of an image sensor. If several multi-channel optics are connected in series in the form of an optical system according to the invention, the calibration matrices of the individual multi-channel optics can be combined to form a resulting calibration matrix, in particular by means of matrix multiplication.
  • This calibration is then preferably used for further image recordings, since the diffuser does not change and the beam paths in the camera always remain the same, regardless of the subject.
  • a color field as the field distribution and a central wavelength as the central value.
  • a brightness field or a polarization field can also be determined as the field distribution and instead of the central wavelength, a “central polarization” or “central brightness” can be determined as the central value.
  • the spectral sensitivity of a region of a filter element reflects which color (wavelength) is present in which pixel of the imaging region behind the filter element. In the ideal case, this is light with a single (central) wavelength, in the real case a wavelength distribution with a central wavelength.
  • This spectral sensitivity is also referred to here as a "color field” because it includes a field (area) in which different colors prevail depending on the filter element. At ideal Filter elements, this color field is mostly linearly variable (linear variable filter) or constant and stepped (mosaic filter).
  • An area of the imaging area eg of the image sensor), which is used to record an image, should have a clearly defined (linearly varying/step-constant) progression of the color field.
  • the color field is determined for that area of the filter element through which the light falls to record an image.
  • the method can of course also be used for the simultaneous modification of several images.
  • the color field can be determined by a direct measurement. For this purpose, an image of the image area that has been recorded by the camera in a spectral range is recorded and/or provided.
  • the color field can also be determined by calculating the behavior of the filter when irradiated with a wavelength with different angles of incidence, taking into account the imaging properties of the camera optics assigned to this area of the imaging area (eg the image sensor).
  • a polarization field or a brightness field can also be determined in a corresponding manner if one considers the polarization or the brightness instead of the wavelength.
  • the light to different pixels of the image will pass through the filter at different angles of incidence.
  • the light travels through the filter element to different image points of the imaging area (e.g. pixels of the image sensor) at different distances.
  • this can result in a shift in the filter properties. If z is the central wavelength of the filter for light at angle a, then a central wavelength z ⁇ Dz can result for light which passes through the filter at angle b.
  • This central wavelength is now determined for at least two image points (e.g. pixels), preferably for all image points for a predetermined region of interest (ROI) of the predetermined area of an imaging area (e.g. image sensors).
  • image points e.g. pixels
  • ROI region of interest
  • imaging area e.g. image sensors
  • two pixels are preferably located in the area that is intended for imaging.
  • a "central polarization” can be determined with information on polarization and a "central brightness” with information on brightness.
  • a vignetting of the images is preferably also considered, which can lead to a brightness profile in the images.
  • a modification function can be determined for all picture elements ("support function"). If the progression is not linear, it is preferable to determine central wavelengths for more than two pixels and to determine a modification function from them. A very precise result can be obtained by looking at the central wavelengths of all pixels in the area.
  • the modifier function has the advantage that The central wavelengths do not have to be determined for all pixels, but these can also be specified by the modification function.
  • a modification function can be determined in this way from the central polarization or the central brightness.
  • the area of the imaging area (e.g. of the image sensor) and/or corresponding images are modified, e.g. calibrated.
  • a supplementary data record is generated for the images or for controlling the image recording. Modification and data record creation are mostly synonymous, since in digitized systems a modification can be based on a data record that is read in and used to modify image sensors or data.
  • the modification can be an adaptation, in particular a calibration. However, it can also include the addition of image information to an image, e.g. the addition of supplementary spectral information or information on the radiation characteristics of an object.
  • This additional information can, for example, be present directly in image data or as an additional data set, i.e. "outside" an image but connected to it. It is basically irrelevant for a modification of an image or an image sensor whether this (e.g. as calibration) takes place directly during the recording or whether the recorded raw data (or possibly the reconstructed data) are modified.
  • data for modifying the image or the image sensor can also be present in the form of a supplementary data set.
  • the image taken should represent a uniform motif, since each pixel of the image looks the same in terms of focus. This can be achieved very easily by uniformly illuminating the image area of the diffuser.
  • the absorption spectrum or the dispersion of the diffuser is preferably taken into account or compensated for in a calibration.
  • the absorption function of internal optics and/or the quantum efficiency of the sensor are preferably calibrated or compensated as a function of location (particularly with pixel accuracy).
  • any input optics which is chosen by an end user, would have to calibrate the technical data of this input optics are provided, eg the transmission curve of a lens.
  • the optical system as a whole (with or without input optics) is radiance calibrated.
  • the imaging system comprises a lens matrix with a plurality of individual lenses or lens systems next to one another, which are preferably arranged and designed in such a way that they have a large number of arranged in a grid Generate images in different areas in the imaging area (e.g. on an image sensor).
  • a preferred lens matrix preferably comprises a multiplicity of lenses which are arranged in a grid pattern relative to one another, that is to say in a regular arrangement, in particular on a carrier.
  • the lenses are preferably arranged in regular rows and columns or offset from one another.
  • a rectangular or square table or a hexagonal arrangement is particularly preferred.
  • the lenses can be spherical lenses or cylindrical lenses, for example, but aspheric lenses or lenses with a free form are also preferred in some applications. Of course, as already mentioned, several of these lenses can be arranged in a row for each channel.
  • a preferred embodiment of the multi-channel optics in particular of the camera, includes a location-dependent transmitting filter device between the diffuser and the imaging area (e.g. the image sensor), e.g. a location-dependent reflecting, diffractive or absorbing filter device, which is designed to produce different images of the image area with regard to their brightness and/or to filter the light wavelength and/or the polarization of the light differently.
  • This filter device therefore lets through different brightnesses and/or wavelengths and/or polarizations on different channels.
  • the filter device comprises a number of filter elements, in particular a linearly variable filter element or a mosaic filter element, preferably a filter element from the group:
  • combinations are preferred, e.g., an HDR spectral camera. This can be done in particular by splitting the image using a beam splitter and using different filters in the separate beam paths.
  • the camera is therefore preferably a polarization camera, an HDR camera or a spectral camera, in particular for multispectral or hyperspectral recording of images.
  • Preferred filter elements are gray graduated filters or neutral density filters with regard to brightness or polarizers in a mosaic arrangement or structured polarizers with regard to polarization.
  • a filter element that transmits different parts (spectral parts or polarization parts or brightness parts) of incident light at different positions on the surface of the filter element and does not transmit other parts is referred to here as a “location-sensitive filter element”, whereby it is also referred to as “location-dependent total Filter element” could be called. It is used to filter the images generated by the imaging system in the imaging area (e.g. on the image sensor) according to different brightness, polarization or spectral ranges.
  • the filter device can consist of or comprise a single filter element, but it can also comprise several filter elements and, if necessary, additional elements, e.g. support elements, moving elements or spacers. There are several options for arranging the filter elements of the filter device.
  • a filter element can, for example, be positioned directly in front of the imaging system (eg a lens matrix) or between the imaging system and the imaging area (e.g. an image sensor). It is also preferred that components of the imaging system are designed as filter elements, in particular the lens matrix.
  • the substrate of a lens matrix can be configured as a filter element.
  • a filter element can also preferably be arranged directly in front of the imaging area or between an aperture mask and the imaging system or between the imaging system and an object-side aperture or directly in front of such an aperture, with the latter being a particularly preferred position.
  • the filter element comprises a mosaic filter, which offers advantages in particular when used together with zoom optics.
  • the mosaic of the mosaic filter is arranged such that large intervals are on the inside while smaller intervals are on the outside.
  • a colored mosaic in particular a colored glass mosaic, is applied, in particular vapor-deposited, to one side of a substrate, preferably glass.
  • the filter element (a mosaic filter or another filter) is applied to the front side of a substrate and the lens matrix (e.g. embossed) on the back side of the substrate.
  • a mosaic filter preferably transmits a different wavelength for each individual lens.
  • the filter element comprises a linearly variable filter with filter lines (“gradient filter”), which is preferably rotated at an angle between 1° and 45° with regard to the alignment of the filter lines with respect to the imaging system.
  • gradient filter linearly variable filter with filter lines
  • a preferred multi-channel optics in particular a camera, comprises a transition optics, preferably a field lens or a field lens system, between the diffuser and the imaging system and/or between the imaging system and the imaging area (e.g. an image sensor), which is designed to the image area of the diffuser through the imaging system in the imaging area (e.g. on the image sensor), i.e. to create a "transition".
  • the distance between diffuser and imaging system is preferably adjustable.
  • the transition optics are preferably designed to be optically adjustable. The purpose of this is that the sharpness of the image of the diffuser on the image sensor can be adjusted.
  • the transition optics comprises a zoom optics, which is preferably designed for zooming a part or all images.
  • a preferred multi-channel optics in particular a camera, has a coupling unit in front of the diffuser, which is designed to attach an input optics in front of the diffuser.
  • the coupling unit could also be referred to as a "lens holder” or “mount”.
  • the entrance optics is preferably a lens, but can also be any other imaging optics, depending on the application, provided that they alone (or together with an adjustment optics described below) can image a real image on the image area of the diffuser.
  • the coupling unit is designed in such a way that an input optic from a previously known group of input optics can be attached in such a way that it forms an image of a motif on the diffuser, particularly in the case that the input optics have different focal lengths or apertures or brightnesses operate.
  • coupling units are known. They are designed in such a way that a lens can be selected from a group of lenses, e.g.
  • the multi-channel optics in particular the camera, preferably includes adjustment optics between the input optics and the diffuser, which adapts the image of the input optics on the diffuser to the image area of the diffuser, in particular with regard to the sharpness of the image.
  • adjustment optics In the case of the lenses of a conventional camera, such an adjustment optic would not be absolutely necessary, since these can project a real image onto the diffuser.
  • Such an adjustment optic is advantageous for input optics which, however, produce a virtual image, e.g. the image of the eyepiece of a microscope or the image of a Galilean telescope.
  • the coupling unit is preferably designed in such a way that it can move a plurality of input optics alternately in front of the diffuser, in particular in the form of a turret or slider.
  • the multi-channel optics in particular the camera, is preferably designed in such a way that the input optics have at least one element from the group of lenses, endoscopes, telescopes, Microscopes, cylindrical lenses, prisms, gratings, line spectrometers, spectroscope components and light guide fiber bundles. It preferably comprises a group of input optics, in particular in a spectrally sensitive arrangement or a polarization-sensitive arrangement.
  • the diffuser comprises at least one element from the group of holographic scattering elements, image intensifiers, photomultipliers, wavelength-changing media, nonlinear media, quantum dots, liquid crystals, potassium hydrogen phosphate element, beta barium borate element and fluorescent layers.
  • the diffuser preferably comprises a movable or liquid arrangement of scattering elements. If a scattering center moves even slightly, its influence on the images becomes blurred without the image quality deteriorating noticeably.
  • a preferred multi-channel optics in particular a camera, includes a deflection optics, e.g. a mirror, light guide or a prism.
  • preferred multi-channel optics in particular a camera, comprise beam-splitting optics, e.g. a beam splitter.
  • a beam splitter is preferably arranged between the diffuser and the imaging optics in such a way that the image area of the diffuser can be imaged twice or more by means of at least two bundles of rays. Double with two beams and otherwise preferred according to the number of beams. It should be noted that this does not affect the number of images produced by the imaging system, since this can generate a large number of images from a single bundle of rays.
  • the multi-channel optics can be designed as optics for an omnidirectional camera.
  • a first number of images preferably takes place using a first beam of rays and a first part of the imaging system on a first area of the imaging area (e.g. the image sensor) and a second number of images using a second beam of rays and a second part of the imaging system on a second area of the imaging area (e.g. the image sensor). It is preferred that the second number of images preferred with respect to their Size and/or a filter element acting on these images differ from the first images.
  • the imaging system additionally comprises a lens matrix and at least one further lens, which is arranged in the plane of the lens matrix or offset from the plane of the lens matrix (preferably in front of the lens matrix) and is designed to be in the second area of the imaging area (e.g. of the image sensor; an area other than the first area) to generate a second image of the image area on the imaging area (e.g. the image sensor).
  • the further lens is preferably designed differently than the other lenses. In particular, it has a focal line and/or it has a different focal length or a different size than the other lenses.
  • the imaging system is designed in such a way that it reduces differences in representations that have been recorded from different viewing angles.
  • differences can be, for example, differences, distortions and/or shifts and/or vignetting. This improves the quality of the images, especially for small designs of the multi-channel optics (or camera), since these differences have a particularly strong effect on the image area due to the different viewing angles of the imaging elements.
  • imaging elements are preferably arranged in an increasingly squinting manner with increasing distance from the center of the imaging system and/or from the main optical axis of the multi-channel optics (or camera). This means that they are not all looking at one point in the image area, but that imaging elements increasingly squint inward as the distance increases.
  • This technique is known in the prior art and can be implemented, for example, by dividing the imaging area into predetermined imaging regions and placing an imaging element (e.g. a microlens) in the path (or "channel") between the image area of the diffuser and the imaging region , that the image area in the mapping region is mapped as a map. Due to the different viewing angles, the imaging system is therefore smaller than the imaging area.
  • imaging elements increase in spacing have an increasing angle of inclination from the center of the imaging system and/or from the main optical axis of the multi-channel optics (or camera) in order to compensate for the astigmatism and/or a coma due to the viewing angle.
  • the imaging system has an aperture that is designed in such a way that each imaging unit of the imaging system (which images the image area of the diffuser on the imaging area (e.g. the image sensor), in particular a microlens of the imaging system) has an aperture of the aperture assigned.
  • the apertures of the diaphragm are preferably arranged in such a way that they are out of place with respect to the center of an imaging unit, specifically the further away the imaging unit is from the center of the imaging system (from the main optical axis of the entire system).
  • Inward displacement (as the distance between the imaging unit and the center of the imaging system increases, closer to the center of the imaging system) can offer advantages with regard to the light intensity of the image, since the aperture would then lie well in the beam path.
  • An outward displacement (further away from the center of the imaging system as the distance between the imaging unit and the center of the imaging system increases) can offer advantages with regard to homogeneous vignetting.
  • the apertures can have a transmission course at the edge. However, any shapes and transmission profiles are also conceivable.
  • Conventional measures for improving optics can also advantageously be used, preferably an anti-reflection coating, an absorbing coating and/or a beam trap on the housing.
  • Crossed polarizers are also preferred for reflection suppression.
  • the multi-channel optics includes an aperture mask between the imaging system (e.g. a lens matrix) and the imaging area (e.g. image sensor), with apertures on the aperture mask corresponding to the imaging units (e.g. lenses) of the imaging system being positioned and the aperture mask being positioned in this way that light of the images of the individual imaging units passes through apertures of the aperture mask.
  • the aperture mask therefore has the same pattern as the imaging system, with apertures being present there instead of the imaging units.
  • the aperture mask improves the images as it filters out stray light.
  • a transition optics eg a zoom optics, is preferably positioned between the aperture mask and the imaging area (eg image sensor).
  • the aperture mask is preferably designed in such a way that it can fulfill the function of the aforementioned screen.
  • Lenses used for the invention are, in particular, spherical lenses, cylindrical lenses, holographic lenses or Fresnel lenses or lens systems (e.g. lenses) made up of several such lenses.
  • FIG. 1 shows a preferred camera in perspective.
  • FIG. 2 shows a camera according to a further preferred embodiment of the invention in a side view.
  • FIG. 3 outlines the depiction of a motif.
  • Figure 4 shows a preferred squinting camera.
  • FIG. 5 shows a camera with deflection optics and a beam splitter.
  • FIG. 6 shows an example of the central wavelength and the modification function.
  • Figure 7 shows a preferred optical system.
  • FIG. 1 schematically shows a preferred embodiment of a camera 1 according to the invention (multi-channel optics 1) for recording a plurality of images in a perspective view.
  • the camera 1 comprises a flat image sensor 3, a filter element 4 as a filter device 4, a diffuser as a diffuser 6 and a flat lens matrix 2 made up of uniform individual lenses 2a as the imaging system 2.
  • the imaging elements 2a of the imaging system 2 are arranged in such a way that from an image area B of the diffuser 6 they generate a large number of images a (see, for example, Figure 3) arranged in a grid on the image sensor 3, which is used here as the recording unit 3 to represent the Figure area 3 stands).
  • the image area B of the diffuser 6 shows the image of a motif M which is projected onto the diffuser 6 with an optical system (not shown here for the sake of clarity). becomes.
  • only one of the lenses 2a of the lens matrix 2 is provided with a reference symbol.
  • an aperture mask 5 is arranged between the image sensor 3 and the lens matrix 2 .
  • Each aperture 5a of the aperture mask 5 is assigned to an individual lens 2a and is arranged exactly behind it.
  • a filter element 4 is arranged between the aperture mask 5 and the image sensor 3 in order to obtain the spectral information. In other embodiments, this filter element 4 can also be arranged in front of the lens matrix 2 . In the case shown here, the filter element 4 is a linearly variable filter that is slightly rotated relative to the image sensor 3 . Each image A thus has its center point in a different wavelength range of the filter element 4. Each image A on the image sensor 3 thus supplies different spectral information.
  • FIG. 2 schematically shows a side view of a camera 1 according to a further preferred embodiment with a transition optics 7 between the lens matrix 2 and the diffuser 6.
  • the camera 1 is shown without an aperture mask 5 in this example.
  • the image sensor 3 has an upstream filter element 4.
  • the transition optics 7 can be, for example, zoom optics or, as shown here, a field lens.
  • a motif M is formed on the diffuser 6 by means of an input optics 9 (e.g. a lens), which is held on the camera 1 by means of a coupling unit 8 .
  • the coupling unit 8 can be designed in such a way that lenses can be changed easily, as is the case with conventional cameras. So that an image of the input optics 9, e.g.
  • an adjustment optics 10 e.g. a simple lens, is arranged in the area of the coupling unit 8, with which the image on the diffuser 6 can be focused.
  • the coupling unit 8 can also be designed in such a way that focusing takes place simply by changing the distance without further optics.
  • FIG. 3 sketches the imaging of a motif M.
  • the motif M is imaged on the diffuser 6 by means of input optics 9 .
  • the image can be sharp, blurred or different, eg a diffraction pattern.
  • the area of this image on the diffuser 6, the image area B, is now imaged multiple times on the image sensor 3 by means of the imaging system 2.
  • a grid of many individual images A is created, all of which show the image in the image area B of the diffuser 6 and thus the motif M.
  • FIG. 4 shows a preferred cross-eyed camera 1, which can compensate for these distortions.
  • the imaging system 2 comprises three rows of imaging elements 2a (lenses 2a) one above the other.
  • the middle imaging element 2a images the image area B of the diffuser 6 normally on the image sensor.
  • the upper and the lower imaging element 2a would image the image area B somewhat offset at an angle due to the more oblique viewing angle onto the diffuser 6 .
  • the imaging system 2 includes a diaphragm 13 with apertures 13a.
  • This diaphragm 13 is designed in such a way that each of the upper and lower imaging units 2a is assigned an aperture 13a, which is each arranged decentrally with respect to the center axis (here the center) of the imaging element 2a.
  • these apertures 13a should be arranged more decentrally as the distance from the center of the imaging system 2 or from the main optical axis HA of the camera 1 increases, specifically at a greater distance than the central axis of the respective imaging element 2a.
  • Crosstalk between the images A is prevented by means of an aperture mask 5 .
  • the apertures 5a of the aperture mask 5 here follow the course of the indicated light paths.
  • Figure 5 shows a camera with deflection optics 11, here a mirror, and a beam splitter 12.
  • the beams from the image area B of the diffuser 6 are divided by means of the beam splitter 12 and the beams directed upwards by the mirror are reflected in the original direction steered.
  • the imaging system 2 here includes different imaging elements 2a, namely a large lens 2a, which can produce a large image A on the image sensor 3, and a row of small lenses 2a, which produce a plurality of small images A on the image sensor 3.
  • the Images A are each on different areas of the image sensor 3.
  • several different sensors can also be used as the image sensor 3, e.g. one sensor for the large image A and another sensor for the smaller images A.
  • the imaging elements 2a do not have to be as shown here lie in one plane.
  • FIG. 6 shows an example of the central wavelength Z (left) and the modification function, F (right).
  • a light beam with a broad spectrum which passes through a filter element 6 (see e.g. Figure 1)
  • a narrow spectrum with a central wavelength Z results after the passage.
  • Central wavelength Z derived calibration values in a diagram which combines the coordinates x and y with a wavelength l (e.g. the central wavelength Z)
  • an image would look accordingly.
  • FIG. 7 shows an example of an optical system 14 according to the invention consisting of a series connection of two multi-channel optics 1.
  • Each of the multi-channel optics 1 generates a number of images A, so that the total number of images A increases after each stage. If, for example, each multi-channel optics 1 generates four images A, then there are four images A of a motif M after the first stage, and sixteen images A after the second stage.
  • the first multi-channel optics 1 (right) has, for example, a spectral filter element 4, the second (left) a polarization filter element 4. Of course, any other filter elements 4 can also be used.
  • the first multi-channel optics 1 thus shows a motif in four different spectral ranges and the second multi-channel optics 1 each of these spectral ranges in four different polarization ranges.
  • the diffuser 6 of the second multi-channel optics 1 is arranged in the imaging area 3 of the first multi-channel optics 1 and the second multi-channel optics 1 has an image sensor 3 in the imaging area 3 .
  • the use of the indefinite article, such as “a” or “an”, does not rule out the possibility that the characteristics in question can also be present more than once. So “a” can also be read as “at least one”.
  • Terms such as “unit” or “device” do not exclude that the elements in question can consist of several cooperating components, which are not necessarily housed in a common housing, although the case of a comprehensive housing is preferred.
  • the element of the lens can consist of a single lens or a system of lenses or an objective without requiring precise differentiation.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Dispersion Chemistry (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft eine Mehrkanaloptik (1) zur synchronen Darstellung einer Mehrzahl von Abbildungen (A) eines Motivs (M) umfassend einen flächigen optischen Diffusor (6) mit einem vorbestimmten Bildbereich (B), ein Abbildungssystem (2) und einen Abbildungsbereich (3), welche dazu ausgelegt ist, den Bildbereich (B) des Diffusors (6) mittels des Abbildungssystems (2) mehrfach im Abbildungsbereich (3) abzubilden. Des Weiteren umfasst die Erfindung ein optisches System aus mehreren Mehrkanaloptiken, eine Kamera und ein Kalibrationsverfahren.

Description

Mehrkanaloptik zur synchronen Aufnahme von Abbildungen
Die Erfindung betrifft eine Mehrkanaloptik, insbesondere eine Kamera mit einer solchen Mehrkanaloptik zur synchronen Aufnahme einer Mehrzahl von Abbildungen eines Motivs sowie ein Verfahren zur Kalibrierung einer solchen Kamera.
Kameras zur synchronen Aufnahme einer Mehrzahl von Bildern sind seit langer Zeit bekannt. Beispiele sind Stereokameras, Plenoptische Kameras oder Spektralkameras, die mehrere Bilder in unterschiedlichen Kanälen, z.B. Wellenlängenkanälen, gleich zeitig aufnehmen können. Solche Kameras können auch als „Mehrkanal-Kameras“ bezeichnet werden, da sie ein Motiv in Form von zwei oder mehr Bildkanälen gleichzeitig (synchron) aufnehmen. Diese Kameras sind mit einer Mehrkanaloptik, z.B. mit einer Matrix aus Mikrolinsen, ausgestattet. Diese Mehrkanaloptik kann in der Kamera direkt integriert sein, was die häufigste Ausführungsform ist, oder sie kann mit der Kamera abnehmbar gekoppelt sein.
Auch wenn eine Vielzahl von unterschiedlichen Kameratypen für verschiedenste Aufgaben existieren, ist der grundsätzliche Aufbau von Mehrkanal-Kameras oftmals der gleiche. Eine Mehrzahl von Linsen oder anderen Abbildungselementen (z.B. Lochblen den) bildet ein Motiv gleichzeitig auf unterschiedlichen Bereichen eines Bildmediums ab. Früher war dieses Bildmedium ein Film, heute ist es zumeist ein digital arbeitender Bildsensor. Beispielsweise bilden bei einer Stereokamera zwei nebeneinanderliegende Linsen ein Motiv auf zwei Bereichen eines Films ab, so dass zwei Bilder mit einem leichten Parallaxenunterschied entstehen. Eine Lichtfeldkamera verwendet eine Viel zahl von Linsen, z.B. 3, 19 oder 90.000, auf einer Linsenmatrix, um eine entsprechen de Anzahl von Bildern auf einem Bildsensor abzubilden. Moderne Mehrkanal-Spektral kameras verwenden in der Regel eine Linsenmatrix mit einer Vielzahl von Mikrolinsen, um ein Motiv vielfach auf einem Bildsensor abzubilden, wobei ein Filterelement dafür sorgt, dass jedes dieser Bilder in einem anderen Spektralbereich abgebildet wird.
Nachteil dieser Kameras bzw. der bekannten Mehrkanaloptiken ist, dass es bis heute nicht möglich ist, diese mit nahezu beliebigen Objektiven zu verwenden. Zwar ist es z.B. bei Stereokameras möglich, zwei identische Objektive zu verwenden, jedoch ist es nicht möglich, beide Bilder mit demselben Objektiv aufzunehmen. Es sollte hierzu beachtet werden, dass ein Objektiv mit einer normalen Bauform (also mit einer begrenzten Größe) in der Regel Licht mit vergleichsweise hohen Austrittswikein in Richtung des Bildsensors und einer davor liegenden Mehrkanaloptik austreten lässt. Dadurch werden von der Linsenmatrix einer Mehrkanal-Kamera nicht mehr identische Bilder auf dem Bildsensor (oder allgemein einer Bildebene) abgebildet, sondern es ergeben sich mit zunehmenden Abstand von der optischen Achse Bildfehler, die zum Teil gravierend sein können.
Es war eine Aufgabe der Erfindung, die Nachteile des Standes der Technik zu überwinden und eine Mehrkanaloptik, insbesondere eine Kamera zur Verfügung zu stellen, die mit unterschiedlichsten Objektiven betrieben werden kann, wobei Fehler der unterschiedlichen Abbildungen minimiert werden sollen.
Diese Aufgabe wird durch eine Mehrkanaloptik bzw. eine Kamera gemäß der Ansprüche gelöst, wobei die Kamera zudem auf eine besondere Weise kalibriert werden kann.
Eine erfindungsgemäße Mehrkanaloptik dient zur synchronen (gleichzeitigen) Darstellung einer Mehrzahl von Abbildungen eines Motivs. Sie umfasst einen flächigen optischen Diffusor mit einem vorbestimmten Bildbereich, ein Abbildungssystem und einen Abbildungsbereich und ist dazu ausgelegt, den Bildbereich des Diffusors mittels des Abbildungssystems mehrfach im Abbildungsbereich abzubilden.
Eine erfindungsgemäße Kamera dient zur synchronen (gleichzeitigen) Aufnahme einer Mehrzahl von Abbildungen eines Motivs und könnte auch als „Mehrkanal-Kamera“ bezeichnet werden. Sie umfasst eine erfindungsgemäße Mehrkanaloptik und zusätzlich eine flächige Aufnahmeeinheit, z.B. einen flächigen Bildsensor im Abbildungsbereich. Selbstverständlich kann auch eine Mehrkanaloptik eine Aufnahmeeinheit im Abbil dungsbereich aufweisen, wobei ein solcher Aufbau dann auch als „Kamera“ bezeichnet werden kann. Im Folgenden wird an Stelle des Wortes „Aufnahmeeinheit“ zum besseren Verständnis von „Bildsensor“ gesprochen, wobei damit auch eine Anordnung mehrerer gleichartiger oder unterschiedlicher Bildsensoren gemeint sein kann. Flächige Bildsensoren sind dem Fachmann im Grunde bekannt. Auch wenn der Bild sensor durchaus ein Filmmaterial sein kann, handelt es sich hierbei besonders bevor zugt um einen digitalen Pixeldetektor, welcher eine elektronische Aufnahme von Bild punkten („Pixeln“) erlauben. Bevorzugte Pixeldetektoren sind CCD-Sensoren (CCD: „charge-coupled device“; dt. „ladungsgekoppeltes Bauteil“) oder CMOS-Sensoren (CMOS: „Complementary metal-oxide-semiconductor“; dt. „sich ergänzender Metall- Oxid-Halbleiter“). Besonders bevorzugt sind auf Silizium basierende Sensoren, aber auch InGaAs-Sensoren sowie auf Bleioxid oder Graphen basierte Sensoren, insbesondere auch für Wellenlängenbereiche außerhalb des sichtbaren Bereichs.
Im Abbildungsbereich muss jedoch nicht zwingend eine Aufnahmeeinheit angeordnet sein, obwohl die Erfindung im Grunde eine Mehrkanal-Aufnahme zum Ziel hat. Gemäß einer alternativen Ausführungsform kann im Bildbereich auch ein weiterer Diffusor an geordnet sein, dessen Bildbereich dann z.B. von einer separaten Kamera aufgenom men werden kann. Beispielsweise kann eine solche Mehrkanaloptik dazu dienen, ein normales Smartphone oder eine herkömmliche Kamera zu einer Spektralkamera oder HDR-Kamera zu machen. Es ist jedoch noch nicht einmal notwendig, dass im Abbil dungsbereich unbedingt ein darstellendes oder aufnehmendes Element angeordnet ist. Der Abbildungsbereich könnte auch einfach als optische Ebene angesehen werden, welche mit einer passenden Optik aufgenommen werden kann, wobei dort durch das Abbildungssystem reelle Bilder durch das Abbildungssystem dargestellt werden können, aber im Grunde auch alternativ virtuelle Bilder.
Das Abbildungssystem umfasst in der Regel eine Mehrzahl von Abbildungselementen, insbesondere eine flächige Linsenmatrix mit einer Vielzahl von Einzellinsen oder Linsensystemen, eine Matrix aus Lochblenden, eine Spiegelmatrix oder ein Bündel aus Lichtleitern. Die Abbildungselemente sind bevorzugt so angeordnet, dass sie zu einem Aufnahmezeitpunkt eine Vielzahl von rasterförmig angeordneten Abbildungen des Bildbereichs im Abbildungsbereich, z.B. auf dem Bildsensor, erzeugen. Beispielsweise kann das Abbildungssystem aus einer Linsenmatrix oder Mehrlinsenmatrix bestehen oder diese (zusammen mit anderen Elementen) umfassen.
Ein optischer Diffusor an sich, z.B. eine Streuscheibe, ist im Stand der Technik bekannt und ist ein optisches Bauteil, das dazu dient, Licht diffus zu streuen, insbesondere mit- tels diffuser Reflexion, besonders bevorzugt aber mittels diffuser Brechung von Licht. Auch wenn in der Lichtmesstechnik Diffusoren regelmäßig eingesetzt werden, um einem Detektor eine erhöhte Empfindlichkeit für einen großen Raumwinkelbereich zu geben, werden Diffusoren im abbildenden Teil einer Kamera bzw. einer Mehrkanaloptik bisher nicht verwendet. Die Abstrahlung eines Diffusors folgt in der Regel dem Lambertschen Gesetz.
Im Unterschied zu einer als Beispiel betrachteten herkömmlichen Kamera, bei der das Abbildungssystem darauf ausgelegt ist, ein Motiv scharf auf der Aufnahmeeinheit, z.B. dem Bildsensor, abzubilden, bildet das Abbildungssystem bei der vorliegenden Erfin dung einen Bildbereich des Diffusors im Abbildungsbereich (z.B. auf dem Bildsensor) ab. Diese Abbildung ist zwar bevorzugt scharf, kann jedoch auch anders sein. Je nach Anwendung ist z.B. bevorzugt, gezielt ein unscharfes Bild des Bildbereichs darzustellen, bzw. aufzunehmen oder ein Beugungsmuster des Bildbereichs des Diffusors im Abbildungsbereich (z.B. auf dem Bildsensor) abzubilden.
Es ist durchaus möglich, mehrere Mehrkanaloptiken hintereinander (kaskadiert) anzu ordnen, wobei die Abbildungen einer vorangehenden Mehrkanaloptik von einer nach folgenden Mehrkanaloptik wieder mehrfach abgebildet werden kann (so dass z.B. aus vier Bildern der ersten Mehrkanaloptik sechzehn Bilder nach der zweiten Mehrkanal optik werden). Ein solches bevorzugtes optisches System hat den Vorteil, dass gleich zeitig mehrere unterschiedliche Untersuchungen an einem Motiv durchgeführt werden können, z.B. eine spektrale Untersuchung zusammen mit einer Untersuchung der Polarisation. Bevorzugt ist dabei der Diffusor einer nachfolgenden Mehrkanaloptik im Abbildungsbereich der vorangehenden Mehrkanaloptik angeordnet.
Ein erfindungsgemäßes Verfahren dient zur Kalibrierung einer erfindungsgemäßen Mehrkanaloptik (insbesondere einer Kamera). Diese Kalibrierung betrifft Fehler der Aufnahme, die durch eine unterschiedliche Dispersion von Medien, z.B. Filterelemen ten, zwischen dem Diffusor und dem Abbildungsbereich (z.B. dem Bildsensor) hervor gerufen werden. Für eine Anzahl der Abbildungen im Abbildungsbereich (z.B. auf dem Bildsensor), insbesondere für alle Abbildungen, wird für jede dermaßen kalibrierte Abbildung jeweils ein Bereich definiert, insbesondere die gesamte Abbildung. Für jeweils diesen Bereich einer Abbildung werden die folgenden Schritte durchgeführt: - Ermittlung einer Feldverteilung von Werten von Bildpunkten (z.B. der Pixel) des betreffenden Bereichs des Abbildungsbereichs (z.B. des Bildsensors), wobei diese Feldverteilung insbesondere ein Farbfeld ist,
- Ermittlung eines Zentralwerts der Helligkeit und/oder der Polarisation und/oder der Wellenlänge des einfallenden Lichts für mindestens zwei dieser Bildpunkte basierend auf der Feldverteilung, insbesondere eine Zentralwellenlänge (bei dem bevorzugten Farbfeld),
- Modifikation des betreffenden Bereichs des Abbildungsbereichs (z.B. des Bildsensors) und/oder der Abbildung (das aufgenommene Bild bzw. die Bilddaten) basierend auf dem Zentralwert.
Bevorzugt wird zur Modifikation eine Kalibrationsmatrix berechnet, die einfach auf die Abbildungen bzw, die Pixel eines Bildsensors angewandt wird. Werden mehrere Mehr kanaloptiken in Form eines erfindungsgemäßen optischen Systems in Reihe geschal tet, können die Kalibrationsmatrizen der einzelnen Mehrkanaloptiken, insbesondere mittels Matrixmultiplikation, zu einer resultierenden Kalibrationsmatrix vereinigt werden.
Diese Kalibration wird dann bevorzugt für weitere Bildaufnahmen verwendet, da sich der Diffusor nicht ändert und damit die Strahlverläufe in der Kamera unabhängig vom Motiv stets die gleichen bleiben.
Im Folgenden wird das Verfahren anhand eines Farbfeldes als Feldverteilung und einer Zentralwellenlänge als Zentralwert genauer beschrieben. Es kann jedoch an Stelle des Farbfeldes auch entsprechend ein Helligkeitsfeld oder ein Polarisationsfeld als Feldver teilung ermittelt werden und an Stelle der Zentralwellenlänge eine „Zentralpolarisation“ bzw. eine „Zentralhelligkeit“ als Zentralwert.
Die spektrale Sensitivität eines Bereichs eines Filterelements gibt wieder, welche Farbe (Wellenlänge) in welchem Bildpunkt des Abbildungsbereichs hinter dem Filterelement vorliegt. Im idealen Falle ist dies Licht mit einer einzigen (Zentral-)Wellenlänge, im Realfall eine Wellenlängenverteilung mit einer Zentralwellenlänge. Diese spektrale Sensitivität wird hier auch als „Farbfeld“ bezeichnet, da sie ein Feld (Bereich) umfasst, in dem abhängig vom Filterelement unterschiedliche Farben vorherrschen. Bei idealen Filterelementen verläuft dieses Farbfeld zumeist linear veränderlich (linearvaribaler Filter) oder konstant und stufig (Mosaikfilter). Ein Bereich des Abbildungsbereichs (z.B. des Bildsensors), welcher zur Aufnahme einer Bildes dient, sollte einen klar definierten (linear variierenden / stufig-konstanten) Verlauf des Farbfeldes aufweisen. In der Realität kommt es bei vielen Filterelementen jedoch auf die Strecke an, die das Licht bei Propagation durch das Filterelement in diesem zurücklegt. In einem Bereich eines Mosaikfilters mit einem winkelabhängigen Filterverhalten, welcher nur für eine einzige Zentralwellenlänge ausgestaltet ist, wird bei einem geraden Einfall eine andere Zentralwellenlänge gemessen wie bei einem schrägen Einfall. Auch wenn sich diese Unterschiede in der Praxis auf einige nm beschränken, führen sie dennoch zu systematischen Messfehlern und beeinflussen eine Auswertung von Spektralbildern negativ. Außerdem lässt sich dieser Effekt vorteilhaft zur Verbesserung der spektralen Auflösung nutzen, wie im Folgenden beschrieben werden wird. Ähnliche Effekte können bei Polarisationsfiltern mit der Polarisation des Lichts bzw. bei Helligkeitsfiltern mit der Helligkeit des Lichts auftreten.
Wohlgemerkt betrifft die hier erläuterte Betrachtung in erster Linie Effekte, die durch unterschiedliche Lichtwege im Filter hervorgerufen werden. Die geschilderten Abwei chungen können auch durch Inhomogenitäten im Filterelement oder Wellenlängen abweichungen in Bildern durch linearvariable Filterelemente hervorgerufen werden.
Entsprechendes gilt für die Polarisation und die Helligkeit.
Die Ermittlung des Farbfeldes erfolgt für denjenigen Bereich des Filterelements, durch den das Licht zur Aufnahme einer Abbildung fällt. Das Verfahren kann selbstverständ lich auch zur gleichzeitigen Modifikation mehrerer Abbildungen dienen. Die Ermittlung des Farbfeldes kann durch eine direkte Messung erfolgen. Dazu erfolgt eine Aufnahme und/oder Bereitstellung von einer Abbildung des Bildbereichs, welches von der Kamera in einem Spektralbereich aufgenommen worden ist. Alternativ oder zusätzlich kann die Ermittlung des Farbfeldes auch durch eine Berechnung des Verhaltens des Filters bei Einstrahlung einer Wellenlänge mit unterschiedlichen Einfallswinkeln unter Berücksich tigung der Abbildungseigenschaften der diesem Bereich des Abbildungsbereichs (z.B. des Bildsensors) zugeordneten Optik der Kamera erfolgen. Auf entsprechende Weise kann auch ein Polarisationsfeld bzw. ein Helligkeitsfeld ermittelt werden, wenn man an Stelle der Wellenlänge die Polarisation bzw. die Helligkeit betrachtet.
Somit, ist zu beachten, dass bei der Aufnahme einer Abbildung mit einem Bereich des Abbildungsbereichs (z.B. des Bildsensors) das Licht zu unterschiedlichen Bildpunkten der Abbildung mit unterschiedlichen Einfallswinkeln durch den Filter verläuft. Dadurch, und ggf. auch durch Inhomogenitäten der Dicke des Filters über den betreffenden Bereich durchläuft das Licht zu verschiedenen Bildpunkten des Abbildungsbereichs (z.B. Pixeln des Bildsensors) unterschiedliche Strecken durch das Filterelement. Je nach Art des Filterelements kann sich daraus eine Verschiebung der Filtereigenschaft ergeben. Ist z die zentrale Wellenlänge des Filters für Licht unter dem Winkel a, so kann sich für Licht, welches unter dem Winkel b durch den Filter tritt, eine zentrale Wellenlänge z ± Dz ergeben.
Diese Zentralwellenlänge wird nun für mindestens zwei Bildpunkte (z.B. Pixel), bevor zugt für alle Bildpunkte für eine vorbestimmte Interessensregion (engl.: "Region of Interest", ROI) des vorbestimmten Bereichs eines Abbildungsbereichs (z.B. Bildsen sors) bestimmt. Hierzu ist jedoch zu beachten, das (mindestens) zwei Bildpunkte bevorzugt in demjenigen Bereich liegen, der für eine Abbildung bestimmt ist.
Entsprechend kann auf diese Weise mit Informationen zur Polarisation eine „Zentral polarisation“ und mit Informationen zur Helligkeit eine „Zentralhelligkeit“ ermittelt wer den. Im Hinblick auf die Helligkeit wird bevorzugt zusätzlich eine Vignettierung der Ab bildungen betrachtet, was zu einem Helligkeitsverlauf in den Abbildungen führen kann.
Betrachtet man pro "Bild" die Zentralwellenlängen von zwei Bildpunkten (Pixeln), so lässt sich bei der Annahme eines linearen Verlaufs der Zentralwellenlänge über die Bildpunkte eine Modifikationsfunktion für alle Bildpunkte ermitteln („Stützfunktion“). Sollte der Verlauf nicht linear sein, ist es bevorzugt für mehr als zwei Bildpunkte Zentralwellenlängen zu bestimmen und daraus eine Modifikationsfunktion zu ermitteln. Ein sehr genaues Ergebnis erhält man, wenn man die Zentralwellenlängen aller Bildpunkte des Bereichs betrachtet. Die Modifikationsfunktion hat den Vorteil, dass nicht für alle Bildpunkte die Zentralwellenlängen ermittelt werden müssen, sondern diese auch durch die Modifikationsfunktion vorgegeben werden können.
Entsprechend kann auf diese Weise aus der Zentralpolarisation bzw. der Zentralhelligkeit eine Modifikationsfunktion ermittelt werden.
Mit der Modifikationsfunktion wird nun der Bereich des Abbildungsbereichs (z.B. des Bildsensors) und/oder entsprechende Abbildungen modifiziert, z.B. kalibriert. Alternativ oder zusätzlich wird ein ergänzender Datensatz zu den Abbildungen oder zur Steuerung der Bildaufnahme erzeugt. Modifikation und Datensatzerzeugung sind dabei zumeist gleichbedeutend, da in digitalisierten Systemen eine Modifikation auf einem Datensatz beruhen kann, der eingelesen und zur Modifikation von Bildsensoren oder Daten verwendet wird.
Die Modifikation kann eine Adaption sein, insbesondere eine Kalibration. Sie kann aber auch eine Hinzufügung von Bildinformationen zu einem Bild umfassen, z.B. die Hinzu fügung von ergänzenden Spektralinformationen oder Informationen zur Abstrahlcharak teristik eines Objekts. Diese ergänzenden Informationen können z.B. in Bilddaten direkt vorliegen oder als ein zusätzlicher Datensatz, also „außerhalb“ einer Abbildung aber mit dieser Verbunden. Es ist für eine Modifikation einer Abbildung oder eines Bildsensors im Grunde unerheblich, ob diese (z.B. als Kalibrierung) direkt bei der Aufnahme erfolgt oder die aufgenommenen Rohdaten (oder ggf. die rekonstruierten Daten) modifiziert werden. Somit können auch Daten zur Modifikation der Abbildung oder des Bildsensors in Form eines ergänzenden Datensatzes vorliegen.
Für eine Kalibration sollte das aufgenommene Bild ein uniformes Motiv darstellen, da mit jeder Bildpunkt der Abbildung schwerpunktsmäßig dasselbe sieht. Dies kann sehr einfach durch uniforme Ausleuchtung des Bildbereichs des Diffusors erreicht werden.
Bevorzugt wird das Absorptionsspektrum bzw. die Dispersion des Diffusors bei einer Kalibration berücksichtigt bzw. kompensiert. Zudem werden bevorzugt die Absoptions- funktion einer internen Optik und/oder die Quanteneffizienz des Sensors orstabhängig (insbesondere pixelgenau) kalibriert, bzw. kompensiert. Bei einer beliebigen Eingangs optik, welche von einem Endbenutzer gewählt wird, müssten für eine Kalibrierung die technischen Daten dieser Eingangsoptik bereitgestellt werden, z.B. die Trasmissions- kurve eines Objektivs. Alternativ ist bevorzugt, dass das optische System als ganzes (mit oder ohne Eingangsoptik) radianzkalibriert wird.
Im Folgenden werden bevorzugte Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass eine bevorzugte Kamera auch analog zu der entspre chenden Beschreibung des Verfahrens ausgestaltet sein kann und insbesondere auch einzelne Merkmale verschiedener Ausführungsbeispiele miteinander kombiniert werden können.
Gemäß einer bevorzugten Mehrkanaloptik (z.B. einer Kamera, insbesondere einem Mehrkanal-Kamerasystem bzw. einem Multilinsen-Kamerasystem) umfasst das Abbildungssystem eine Linsenmatrix mit einer Mehrzahl von nebeneinanderliegenden Einzellinsen oder Linsensystemen, welche bevorzugt so angeordnet und gestaltet sind, dass sie eine Vielzahl von rasterförmig angeordneten Abbildungen in unterschiedlichen Bereichen im Abbildungsbereich (z.B. auf einem Bildsensor) erzeugen. Eine bevorzug te Linsenmatrix umfasst dazu bevorzugt eine Vielzahl von Linsen die rasterförmig zueinander angeordnet sind, also in einer regelmäßigen Anordnung, insbesondere auf einem Träger. Die Linsen sind bevorzugt in regelmäßigen Zeilen und Spalten oder ver setzt zueinander angeordnet. Besonders bevorzugt ist eine rechteckige bzw. quadra tische oder eine hexagonale Anordnung. Die Linsen können beispielsweise sphärische Linsen oder zylindrische Linsen sein, aber auch asphärische Linsen bzw. Linsen mit einer Freiform sind in einigen Anwendungsfällen bevorzugt. Selbstverständlich können, wie bereits erwähnt wurde, pro Kanal mehrere dieser Linsen in Reihe angeordnet sein.
Eine bevorzugte Ausführungsform der Mehrkanaloptik, insbesondere der Kamera, um fasst zwischen Diffusor und Abbildungsbereich (z.B. dem Bildsensor) eine ortsabhän gig transmittierende Filtervorrichtung, z.B. eine ortsabhängig reflektierende, beugende oder absorbierende Filtervorrichtung, die dazu ausgelegt ist, unterschiedliche Abbil dungen des Bildbereichs bezüglich ihrer Helligkeit und/oder der Lichtwellenlänge und/oder der Polarisation des Lichts unterschiedlich zu filtern. Diese Filtervorrichtung lässt also auf verschiedenen Kanälen verschiedene Helligkeiten und/oder Wellenlängen und/oder Polarisationen durch. Die Filtervorrichtung umfasst eine Anzahl von Filterelementen, insbesondere ein linearvariables Filterelement oder ein Mosaikfilterelement, bevorzugt ein Filterelement der Gruppe:
- Helligkeitsfilterelement, welches an unterschiedlichen Stellen verschiedene Helligkeiten filtert,
- Polarisationsfilterelement, welches an unterschiedlichen Stellen verschiedene Polarisationen durchlässt,
- spektrales Filterelement, welches an unterschiedlichen Stellen verschiedene Lichtwellenlängen durchlässt.
Insbesondere sind Kombinationen bevorzugt z.B. eine HDR-Spektralkamera. Dies kann insbesondere mittels Aufspaltung des Bildes mittels eines Strahlteilers und Verwendung unterschiedlicher Filter in den getrennten Strahlengängen geschehen.
Die Kamera ist also bevorzugt eine Polarisationskamera, eine HDR-Kamera oder eine Spektralkamera, insbesondere zur multispektralen oder hyperspektralen Aufnahme von Bildern. Bevorzugte Filterelemente sind im Hinblick auf die Helligkeit Grauverlaufsfilter oder Neutraldichtefilter bzw. im Hinblick auf die Polarisation Polarisatoren in Mosaik- Anordnung oder strukturierte Polarisatoren.
Ein Filterelement, welches an unterschiedlichen Positionen der Fläche des Filterele ments unterschiedliche Anteile (Spektralanteile bzw. Polarisationsanteile bzw. Hellig keitsanteile) von auftreffendem Licht transmittiert und andere Anteile nicht transmittiert, wird hier als „ortssensitives Filterelement“ bezeichnet, wobei es auch als „ortsabhängi ges Filterelement“ bezeichnet werden könnte. Es dient dazu, die durch das Abbildungs system erzeugten Abbildungen im Abbildungsbereich (z.B. auf dem Bildsensor) nach unterschiedlichen Helligkeits-, Polarisations- bzw. Spektralbereichen zu filtern.
Die Filtervorrichtung kann aus einem einzigen Filterelement bestehen bzw. dieses umfassen, sie kann aber auch mehrere Filterelemente umfassen und ggf. zusätzliche Elemente, z.B. Stützelemente, Bewegungselemente oder Abstandshalter. Für die Anordnung von Filterelementen der Filtervorrichtung gibt es mehrere Möglichkeiten.
Ein Filterelement kann beispielsweise direkt vor dem Abbildungssystem (z.B. einer Linsenmatrix) positioniert sein oder zwischen Abbildungssystem und Abbildungsbereich (z.B. einem Bildsensor). Es ist auch bevorzugt, dass Komponenten des Abbildungs systems als Filterelement ausgestaltet sind, insbesondere die Linsenmatrix. Beispiels weise kann das Substrat einer Linsenmatrix als Filterelement ausgestaltet sein. Ein Filterelement kann aber auch bevorzugt direkt vor dem Abbildungsbereich angeordnet sein oder zwischen einer Aperturmaske und dem Abbildungssystem oder Zwischen Abbildungssystem und einer objektseitigen Blende oder direkt vor einer solchen Blende wobei letzteres eine besonders bevorzugte Position ist.
Gemäß einer bevorzugten Ausführungsform umfasst das Filterelement einen Mosaik- Filter, welcher insbesondere in Verwendung zusammen mit einer Zoomoptik Vorteile bietet. Bevorzugt ist das Mosaik des Mosaik-Filters so angeordnet, dass große Intervalle innen sind, währen kleinere Intervalle außen sind. Bei einer bevorzugten Form des Mosaik-Filters ist ein Farbmosaik, insbesondere ein Farbglasmosaik, auf einer Seite eines Substrats, bevorzugt Glas, aufgebracht, insbesondere aufgedampft. Gemäß einer vorteilhaften Ausführungsform ist auf der Vorderseite eines Substrats das Filterelement (ein Mosaik-Filter oder ein anderer Filter) aufgebracht und auf der Rückseite des Substrats die Linsenmatrix (z.B. aufgeprägt). Bevorzugt transmittiert ein Mosaik-Filter für jede Einzellinse eine andere Wellenlänge.
Gemäß einer bevorzugten Ausführungsform umfasst das Filterelement einen linearvari ablen Filter mit Filterlinien („Verlaufsfilter“), welcher bevorzugt im Hinblick auf die Aus richtung der Filterlinien bezüglich des Abbildungssystems in einem Winkel zwischen 1° und 45° verdreht ist.
Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, umfasst eine Übergangs- Optik, bevorzugt eine Feldlinse oder ein Feldlinsensystem, zwischen dem Diffusor und dem Abbildungssystem und/oder zwischen dem Abbildungssystem und dem Abbil dungsbereich (z.B. einem Bildsensor), welche dazu ausgelegt ist, den Bildbereich des Diffusors durch das Abbildungssystem hindurch im Abbildungsbereich (z.B. auf dem Bildsensor) abzubilden, also einen „Übergang“ zu schaffen. Der Abstand zwischen Diffusor und Abbildungssystem ist bevorzugt justierbar. Alternativ oder ergänzend ist die Übergangs-Optik bevorzugt optisch verstellbar ausgelegt. Dies hat den Sinn, dass die Schärfe der Abbildung des Diffusors auf dem Bildsensor eingestellt werden kann. Gemäß einer bevorzugten Ausführungsform umfasst die Übergangs-Optik eine Zoom optik, welche bevorzugt zum Zoom eines Teils oder aller Abbildungen ausgelegt ist.
Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, weist eine Kopplungsein heit vor dem Diffusor auf, die dazu ausgelegt ist, vor dem Diffusor eine Eingangsoptik anzubringen. Man könnte die Kopplungseinheit auch als „Objektivhalter“ oder „Mount“ bezeichnen. Die Eingangsoptik ist dabei bevorzugt ein Objektiv, kann aber je nach Anwendung auch eine beliebige andere abbildende Optik sein, sofern sie alleine (oder zusammen mit einer nachfolgend beschriebenen Anpassungsoptik) ein reeles Bild auf dem Bildbereich des Diffusors abbilden kann. Die Kopplungseinheit ist dabei so be schaffen, dass eine Eingangsoptik aus einer vorbekannten Gruppe von Eingangsopti ken so angebracht werden kann, dass sie auf den Diffusor ein Bild eines Motivs abbil det, insbesondere in dem Fall, dass die Eingangsoptik mit verschiedenen Brennweiten oder Aperturen oder Helligkeiten operieren. Bei herkömmlichen Kameras sind Kopp lungseinheiten bekannt. Sie sind so beschaffen, dass aus einer Gruppe von Objekti ven, z.B. Teleobjektiv, Weitwinkelobjektiv, normales Objektiv, ein Objektiv ausgewählt und mit der Kamera durch eine Steck- oder Drehbewegung gekoppelt werden kann.
Wie vorangehend bereits angedeutet wurde, umfasst die Mehrkanaloptik, insbeson dere die Kamera, bevorzugt eine Anpassungsoptik zwischen Eingangsoptik und Diffusor, welche die Abbildung der Eingangsoptik auf dem Diffusor an den Bildbereich des Diffusors anpasst, insbesondere bezüglich der Schärfe der Abbildung. Im Falle von Objektiven einer herkömmlichen Kamera wäre solche eine Anpassungsoptik nicht unbedingt notwendig, da diese ein reeles Bild auf den Diffusor abbilden können. Für Eingangsoptiken, die jedoch ein virtuelles Bild erzeugen, z.B. das Bild des Okulars eines Mikroskops oder das Bild eines Galileischen Fernrohrs, ist eine solche Anpassungsoptik vorteilhaft.
Bevorzugt ist die Kopplungseinheit so gestaltet, dass sie mehrere Eingangsoptiken wechselweise vor den Diffusor bewegen kann, insbesondere in Form eines Revolvers oder Schiebers.
Bevorzugt ist die Mehrkanaloptik, insbesondere die Kamera, dazu ausgelegt, dass die Eingangsoptik mindestens ein Element der Gruppe Objektive, Endoskope, Teleskope, Mikroskope, Zylinderlinsen, Prismen, Gitter, Linienspektrometer, Spektroskopkompo nente und Lichtleiter-Faserbündel umfasst. Bevorzugt umfasst sie eine Gruppe von Eingangsoptiken, insbesondere in einer spektral-sensitiven Anordnung oder einer polarisations-sensitiven Anordnung.
Bei einer bevorzugten Mehrkanaloptik, insbesondere einer Kamera, umfasst der Diffusor mindestens ein Element der Gruppe holographische Streuelemente, Bildverstärker, Photoelektronenvervielfacher, wellenlängenverändernde Medien, nicht lineare Medien, Quantenpunkte, Flüssigkristalle, Kaliumhydrogenphosphat-Element, Beta-Bariumborat-Element und Fluoreszenzschichten.
Um den Einfluss lokaler Streuzentren auf eine Abbildung zu kompensieren umfasst der Diffusor bevorzugt eine bewegliche oder flüssige Anordnung von streuenden Elementen. Wenn sich ein Streuzentrum auch nur leicht bewegt, verschwimmt dessen Einfluss auf den Abbildungen ohne dass die Bildqualität merklich abnimmt.
Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, umfasst eine Umlenk- Optik, z.B. einen Spiegel, Lichtleiter oder ein Prisma. Alternativ oder ergänzend umfasst eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, eine strahlteilende Optik, z.B. einen Strahlteiler. Bevorzugt ist dabei ein Strahlteiler zwischen dem Diffusor und der Abbildungsoptik auf eine Weise angeordnet, dass der Bildbereich des Diffusors mittels mindestens zweier Strahlenbündel zwei- oder mehr fach abgebildet werden kann. Doppelt bei zwei Strahlenbündeln und ansonsten bevor zugt entsprechend der Anzahl der Strahlenbündel. Wohlgemerkt betrifft dies nicht die Anzahl der Abbildungen durch das Abbildungssystem, da dieses aus einem einzigen Strahlenbündel eine Vielzahl von Abbildungen erzeugen kann. Beispielsweise kann die Mehrkanaloptik als Optik für eine omnidirektionale Kamera ausgestaltet sein.
Bevorzugt erfolgt eine erste Anzahl von Abbildungen mittels eines ersten Strahlenbün dels und eines ersten Teils des Abbildungssystems auf einem ersten Bereich des Abbildungsbereichs (z.B. des Bildsensors) und eine zweite Anzahl von Abbildungen mittels eines zweiten Strahlenbündels und eines zweiten Teils des Abbildungssystems auf einem zweiten Bereich des Abbildungsbereichs (z.B. des Bildsensors). Dabei ist bevorzugt, dass sich die zweite Anzahl von Abbildungen bevorzugt bezüglich ihrer Größe und/oder eines auf diese Abbildungen wirkenden Filterelements von den ersten Abbildungen unterscheiden.
Bevorzugt umfasst das Abbildungssystem dazu zusätzlich eine Linsenmatrix und min destens eine weitere Linse, die in der Ebene der Linsenmatrix oder abgesetzt von der Ebene der Linsenmatrix angeordnet ist (bevorzugt vor der Linsenmatrix) und dazu aus gestaltet ist, in dem zweiten Bereich des Abbildungsbereichs (z.B. des Bildsensors; ei nem anderen Bereich als dem ersten Bereich) eine zweite Abbildung des Bildbereichs auf dem Abbildungsbereich (z.B. dem Bildsensor) zu erzeugen. Die weitere Linse ist bevorzugt anders gestaltet als die anderen Linsen. Insbesondere weist sie eine Brennlinie auf und/oder sie hat eine andere Brennweite oder eine andere Größe als die anderen Linsen.
Bei einer bevorzugten Mehrkanaloptik, insbesondere einer Kamera, ist das Abbildungs system so gestaltet, dass es Unterschiede von Darstellungen vermindert, die unter unterschiedlichen Blickwinkeln aufgenommen worden sind. Solche Unterschiede können z.B. unterschiedliche, Verzerrungen und/oder Verschiebungen und/oder Vignettierungen sein. Dies verbessert die Qualität der Abbildungen besonders für kleine Bauformen der Mehrkanaloptik (bzw. Kamera), da sich diese Unterschiede aufgrund der unterschiedlichen Blickwinkel der Abbildungselemente auf den Bildbereich sich besonders stark auswirken.
Um dies zu erreichen, sind bevorzugt Abbildungselemente mit zunehmendem Abstand vom Zentrum des Abbildungssystems und/oder von der optischen Hauptachse der Mehrkanaloptik (bzw. Kamera) zunehmend schielend angeordnet. Dies bedeutet, dass sie nicht alle auf einen Punkt des Bildbereichs schauen, sondern dass Abbildungsele mente mit zunehmendem Abstand zunehmend nach innen schielen. Diese Technik ist im Stand der Technik bekannt und kann beispielsweise dadurch realisiert werden, dass der Abbildungsbereich in vorbestimmte Abbildungsregionen unterteilt wird, und in dem Weg (oder „Kanal“) zwischen Bildbereich des Diffusors und Abbildungsregion ein Abbildungselement (z.B. eine Mikrolinse) so angeordnet wird, dass der Bildbereich in der Abbildungsregion als Abbildung abgebildet wird. Aufgrund der unterschiedlichen Blickwinkel ist damit das Abbildungssystem kleiner als der Abbildungsbereich. Diesbezüglich ist bevorzugt, dass Abbildungselemente mit zunehmendem Abstand vom Zentrum des Abbildungssystems und/oder von der optischen Hauptachse der Mehrkanaloptik (bzw. Kamera) einen zunehmenden Neigungswinkel aufweisen, um den Astigmatismus und/oder eine Koma durch den Blickwinkel auszugleichen.
Alternativ oder ergänzend ist bevorzugt, dass das Abbildungssystem eine Blende auf weist, die so gestaltet ist, dass jeder Abbildungseinheit des Abbildungssystems (welche den Bildbereich des Diffusors auf dem Abbildungsbereich (z.B. dem Bildsensor) abbildet, insbesondere einer Mikrolinse des Abbildungssystems) eine Apertur der Blende zugeordnet ist. Die Aperturen der Blende sind dabei bevorzugt so angeordnet, dass sie bezüglich des Zentrums einer Abbildungseinheit deplaziert ist und zwar je mehr desto weiter die Abbildungseinheit vom Zentrum des Abbildungssystems (von der optischen Hauptachse des gesamten Systems) entfernt ist. Dabei kann eine Deplazie- rung nach innen (mit zunehmendem Abstand der Abbildungseinheit vom Zentrum des Abbildungssystems zunehmend näher zum Zentrum des Abbildungssystems hin) im Hinblick auf die Lichtstärke der Abbildung Vorteile bieten, da die Apertur dann gut im Strahlengang liegen würde. Eine Deplazierung nach außen (mit zunehmendem Ab stand der Abbildungseinheit vom Zentrum des Abbildungssystems zunehmend weiter vom Zentrum des Abbildungssystems weg) kann im Hinblick auf eine homogene Vig- nettierung Vorteile bieten. Die Aperturen können eine Transmissionsverlauf am Rand aufweisen. Es sind aber auch beliebige Formen und Transmissionsverläufe denkbar.
Es können auch vorteilhafter Weise übliche Maßnahmen zu Verbesserungen von Optiken angewandt werden Vorzugsweise eine Anti-Reflex-Beschichtung, eine absorbierende Beschichtung und/oder eine Strahlfalle des Gehäuses. Auch sind gekreuzte Polarisatoren zur Reflexionsunterdrückung bevorzugt.
Gemäß einer bevorzugten Ausführungsform umfasst die Mehrkanaloptik (bzw. Kamera) eine Aperturmaske zwischen Abbildungssystem (z.B. einer Linsenmatrix) und Abbildungsbereich (z.B. Bildsensor), wobei Aperturen auf der Aperturmaske entsprechend den Abbildungseinheiten (z.B. Linsen) des Abbildungssystems positioniert sind und die Aperturmaske so positioniert ist, dass Licht der Abbildungen der einzelnen Abbildungseinheiten durch Aperturen der Aperturmaske tritt. Die Aperturmaske weist also das gleiche Muster wie das Abbildungssystem auf, wobei statt der Abbildungseinheiten dort Aperturen vorliegen. Die Aperturmaske verbessert die Abbildungen, da sie Streulicht herausfiltert. Eine Übergangs-Optik, z.B. eine Zoomoptik, ist bevorzugt zwischen Aperturmaske und Abbildungsbereich (z.B. Bildsensor) positioniert. Die Aperturmaske ist bevorzugt so gestaltet, dass sie die Funktion der vorgenannten Blende erfüllen kann.
Für die Erfindung verwendete Linsen sind insbesondere sphärische Linsen, Zylinderlinsen, holographische Linsen oder Fresnellinsen oder Linsensysteme (z.B. Objektive) aus mehreren solcher Linsen.
Beispiele für bevorzugte Ausführungsformen der erfindungsgemäßen Vorrichtung sind in den Abbildungen schematisch dargestellt. Es wird dabei aus Gründen der besseren Verständlichkeit hier oftmals direkt der Fall dargestellt, dass die Mehrkanaloptik mit einem Bildsensor ausgestaltet ist und damit die Funktion einer Kamera hat.
Figur 1 zeigt perspektivisch eine bevorzugte Kamera.
Figur 2 zeigt in Seitenansicht eine Kamera gemäß einer weiteren bevorzugten Ausführungsform der Erfindung.
Figur 3 skizziert die Abbildung eines Motivs.
Figur 4 zeigt eine bevorzugte schielende Kamera.
Figur 5 zeigt eine Kamera mit einer Umlenk-Optik und einem Strahlteiler.
Figur 6 zeigt ein Beispiel zur Zentralwellenlänge und zur Modifikationsfunktion.
Figur 7 zeigt ein bevorzugtes optisches System.
Figur 1 zeigt schematisch eine bevorzugte Ausführungsform einer erfindungsgemäßen Kamera 1 (Mehrkanaloptik 1) zur Aufnahme einer Mehrzahl von Bildern in einer perspektivischen Darstellung. Die Kamera 1 umfasst einen flächigen Bildsensor 3, ein Filterelement 4 als Filtervorrichtung 4, eine Streuscheibe als Diffusor 6 und eine flächige Linsenmatrix 2 aus gleichförmigen Einzellinsen 2a als Abbildungssystem 2.
Die Abbildungselemente 2a des Abbildungssystems 2 (die Linsen 2a) sind so angeordnet, dass sie von einem Bildbereich B des Diffusors 6 eine Vielzahl von rasterförmig angeordneten Abbildungen a (s. z.B. Figur 3) auf dem Bildsensor 3 erzeugt, der hier als Aufnahmeeinheit 3 stellvertretend für den Abbildungsbereich 3 steht). Der Bildbereich B des Diffusors 6 zeigt das Bild eines Motivs M, welches mit einer (der Übersicht halber hier nicht dargestellten Optik) auf den Diffusor 6 projeziert wird. Der Übersicht halber ist nur eine der Linsen 2a der Linsenmatrix 2 mit einem Referenzzeichen versehen.
Zur Verbesserung der Qualität der Abbildungen A ist eine Aperturmaske 5 zwischen Bildsensor 3 und Linsenmatrix 2 angeordnet. Jede Apertur 5a der Aperturmaske 5, ist einer Einzellinse 2a zugeordnet und genau hinter dieser angeordnet. Zum Erhalt der spektralen Informationen ist ein Filterelement 4 zwischen Aperturmaske 5 und Bild sensor 3 angeordnet. Dieses Filterelement 4 kann in anderen Ausführungen auch vor der Linsenmatrix 2 angeordnet sein. In dem hier dargestellten Fall handelt es sich bei dem Filterelement 4 um einen linearvariablen Filter, der gegenüber dem Bildsensor 3 etwas verdreht ist. Jede Abbildung A hat damit ihren Mittelpunkt bei einem anderen Längenwellenbereich des Filterelements 4. Somit liefert jede Abbildung A auf dem Bildsensor 3 eine andere spektrale Information.
Figur 2 zeigt schematisch eine Seitenansicht einer Kamera 1 gemäß einer weiteren bevorzugten Ausführungsform mit einer Übergangs-Optik 7 zwischen der Linsenmatrix 2 und dem Diffusor 6. Die Kamera 1 ist in diesem Beispiel ohne eine Aperturmaske 5 dargestellt. Der Bildsensor 3 hat ein vorgelagertes Filterelement 4. Die Übergangs- Optik 7 kann beispielsweise eine Zoomoptik oder wie hier dargestellt eine Feldlinse sein. In diesem Beispiel wird ein Motiv M auf dem Diffusor 6 mittels einer Eingangs optik 9 (z.B. einem Objektiv) ab gebildet, welches mittels einer Kopplungseinheit 8 an der Kamera 1 gehalten wird. Die Kopplungseinheit 8 kann so ausgestaltet sein, dass ein einfaches Wechseln von Objektiven wie bei herkömmlichen Kameras möglich ist. Damit ein Bild der Eingangsoptik 9, z.B. einer einfachen Linse, stets scharf auf dem Diffusor 6 abgebildet wird ist im Bereich der Kopplungseinheit 8 eine Anpassungsoptik 10, z.B. einer einfachen Linse, angeordnet, mit der das Bild auf dem Diffusor 6 scharf gestellt werden kann. Die Kopplungseinheit 8 kann aber auch so gestaltet sein, dass ein Scharfstellen ohne weitere Optiken einfach über eine Abstandsänderung erfolgt.
Figur 3 skizziert die Abbildung eines Motivs M. Das Motiv M wird, wie vorangehend be reits beschrieben wurde, mittels einer Eingangsoptik 9 auf dem Diffusor 6 abgebildet. Je nach Anwendung kann die Abbildung scharf, unscharf oder auch anders sein, z.B. ein Beugungsmuster. Der Bereich dieses Bildes auf dem Diffusor 6, der Bildbereich B, wird nun mittels des Abbildungssystems 2 vielfach auf dem Bildsensor 3 abgebildet. In diesem Beispiel entsteht ein Raster von vielen einzelnen Abbildungen A, die alle das Bild im Bildbereich B des Diffusors 6 und damit das Motiv M zeigen.
Wenn sich der Diffusor 6 sehr nahe an dem Abbildungssystem 2 befindet, können perspektivische Abweichungen (Verzerrungen) der Abbildungen Aauftreten, so dass sie sich voneinander unterscheiden. Es wäre wünschenswert, wenn die Perspektive aller Abbildungen A identisch wäre.
Figur 4 zeigt eine bevorzugte schielende Kamera 1 , welche diese Verzerrungen kom pensieren kann. Das Abbildungssystem 2 umfasst in dieser Seitenansicht drei Reihen von Abbildungselementen 2a (Linsen 2a) übereinander. Das mittlere Abbildungsele ment 2a bildet den Bildbereich B des Diffusors 6 normal auf dem Bildsensor ab. Das obere und das untere Abbildungselement 2a würden den Bildbereich B durch den schieferen Blickwinkel auf den Diffusor 6 etwas schräg versetzt abbilden. Dies ist mit den „Kanälen“ angedeutet, die den Bereich der Lichtwege vom Bildbereich B zu den Abbildungen A skizzieren sollen. Für eine homogene Vignettierung umfasst das Abbildungssystem 2 hier eine Blende 13 mit Aperturen 13a. Diese Blende 13 ist so gestaltet, dass jeder der oberen und der unteren Abbildungseinheiten 2a jeweils eine Apertur 13a zugeordnet ist, welche jeweils dezentral zur Mittelachse (hier der Mitte) des Abbildungselements 2a angeordnet sind. Diese Aperturen 13a sollten in diesem Beispiel mit zunehmendem Abstand vom Zentrum des Abbildungssystems 2 bzw. von der optischen Hauptachse HA der Kamera 1 zunehmend dezentraler angeordnet sein, und zwar jeweils in einem größeren Abstand als die Mittelachse des jeweiligen Abbildungselements 2a. Mittels einer Aperturmaske 5 werden Übersprecher zwischen den Abbildungen A verhindert. Die Aperturen 5a der Aperturmaske 5 folgen hier dem Verlauf der angedeuteten Lichtwege.
Figur 5 zeigt eine Kamera mit einer Umlenk-Optik 11, hier einem Spiegel, und einem Strahlteiler 12. Die Strahlen vom Bildbereich B des Diffusors 6 werden mittels des Strahlteilers 12 geteilt und die hier nach oben gelenkte Strahlen durch den Spiegel wider in die ursprüngliche Richtung gelenkt. Das Abbildungssystem 2 umfasst hier unterschiedliche Abbildungselemente 2a, nämlich eine große Linse 2a, die eine große Abbildung A auf dem Bildsensor 3 erzeugen kann, und eine Reihe kleiner Linsen 2a, die eine Mehrzahl kleiner Abbildungen Aauf dem Bildsensor 3 erzeugen. Die Abbildungen A liegen jeweils auf unterschiedlichen Bereichen des Bildsensors 3. Selbstverständlich können auch mehrere unterschiedliche Sensoren als Bildsensor 3 verwendet werden, z.B. ein Sensor für die große Abbildung A und ein anderer Sensor für die kleineren Abbildungen A. Die Abbildungselemente 2a müssen dabei nicht wie hier dargestellt in einer Ebene liegen.
Figur 6 zeigt ein Beispiel zur Zentralwellenlänge Z (links) und zur Modifikationsfunktion, F (rechts). Für einen Lichtstrahl mit einem breiten Spektrum, der durch ein Filterele ment 6 tritt (s. z.B. Figur 1) ergibt sich nach dem Durchtritt ein schmales Spektrum mit einer Zentralwellenlänge Z. Trägt man für ein Pixelfeld mit den Koordinaten x und y alle Zentralwellenlängen Z oder von diesen Zentralwellenlängen Z abgeleitete Kalibrations werte in ein Schaubild ein, welches die Koordinaten x und y mit einer Wellenlänge l vereinigt (z.B. die Zentralwellenlänge Z), dann erhält man beispielsweise eine Verteilung, wie rechts dargestellt. Dies wäre eine beispielhafte Darstellung der Werte einer Modifikationsfunktion F. Bezüglich einer Kalibration von Helligkeitswerten oder Polarisationswerten sähe eine Abbildung entsprechend aus.
Figur 7 zeigt ein Beispiel für ein erfindungsgemäßes optisches System 14 aus einer Reihenschaltung von zwei Mehrkanaloptiken 1. Jede der Mehrkanaloptiken 1 erzeugt eine Anzahl von Abbildungen A, so dass die Gesamtanzahl von Abbildungen A nach jeder Stufe zunimmt. Wenn beispielsweise jede Mehrkanaloptik 1 vier Abbildungen A erzeugt, dann existieren von einem Motiv M nach der ersten Stufe vier Abbildungen A, und nach der zweiten Stufe sechzehn Abbildungen A. Die erste Mehrkanaloptik 1 (rechts) weist z.B. ein spektrales Filterelement 4 auf, die zweite (links) ein Polarisa tions-Filterelement 4. Selbstverständlich können auch beliebige andere Filterelemente 4 verwendet werden. Die erste Mehrkanaloptik 1 zeigt somit ein Motiv in vier unter schiedlichen Spektralbereichen und die zweite Mehrkanaloptik 1 jeden dieser Spektral bereiche in vier unterschiedlichen Polarisationsbereichen. Der Diffusor 6 der zweiten Mehrkanaloptik 1 ist im Abbildungsbereich 3 der ersten Mehrkanaloptik 1 angeordnet und die zweite Mehrkanaloptik 1 weist einen Bildsensor 3 im Abbildungsbereich 3 auf.
Abschließend wird angemerkt, dass die Verwendung der unbestimmten Artikel, wie z.B. „ein“ oder „eine“, nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. So kann „ein“ auch als „mindestens ein“ gelesen werden. Begriffe wie „Einheit“ oder „Vorrichtung“ schließen nicht aus, dass die betreffenden Elemente aus mehreren zusammenwirkenden Komponenten bestehen können, die nicht unbedingt in einem gemeinsamen Gehäuse untergebracht sind, auch wenn der Fall eines umfassenden Gehäuses bevorzugt ist. Im Bereich der Optik kann insbeson dere das Element der Linse aus einer einzelnen Linse oder einem System von Linsen oder einem Objektiv bestehen ohne dass dies einer genauen Differenzierung bedarf.
Bezeugszeichenliste
1 Mehrkanaloptik / Kamera
2 Abbildungssystem / Linsenmatrix
2a Abbildungseinheit / Linse
3 Bildsensor / Abbildungsbereich / Aufnahmeeinheit
4 Filtervorrichtung / Filterelement
5 Aperturmaske
5a Apertur
6 Diffusor
7 Übergangs-Optik
8 Kopplungseinheit
9 Eingangsoptik
10 Anpassungsoptik
11 Umlenk-Optik
12 strahlteilende Optik / Strahlteiler
13 Blende
13a Apertur
14 Optisches System
A Abbildung
B Bildbereich
F Modifikationsfunktion
HA optische Hauptachse
Z Zentralwellenlänge
M Motiv

Claims

Ansprüche
1. Mehrkanaloptik (1) zur synchronen Darstellung einer Mehrzahl von Abbildungen (A) eines Motivs (M) umfassend einen flächigen optischen Diffusor (6) mit einem vorbestimmten Bildbereich (B), ein Abbildungssystem (2) und einen Abbildungsbereich (3), welche dazu ausgelegt ist, den Bildbereich (B) des Diffusors (6) mittels des Abbildungssystems (2) mehrfach im Abbildungsbereich (3) abzubilden.
2. Mehrkanaloptik nach Anspruch 1, dadurch gekennzeichnet, dass sie ein Linsensystem mit einer Mehrzahl von nebeneinander liegenden Einzellinsen oder Linsensystemen umfasst, welche bevorzugt so angeordnet und gestaltet sind, dass sie eine Vielzahl von rasterförmig angeordneten Abbildungen in unterschiedlichen Bereichen im Abbildungsbereich (3) erzeugen.
3. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie zwischen Diffusor (6) und Abbildungsbereich (3) eine ortsabhängig transmittierende Filtervorrichtung (4) umfasst, die dazu ausgelegt ist, unterschiedliche Abbildungen (A) des Bildbereichs (B) bezüglich ihrer Helligkeit und/oder der Lichtwellenlänge und/oder der Polarisation des Lichts unterschiedlich zu filtern, wobei die Filtervorrichtung (4) eine Anzahl von Filterelementen (4) umfasst, bevorzugt
- ein Helligkeitsfilterelement, welches an unterschiedlichen Stellen verschiedene Helligkeiten filtert, und/oder
- ein Polarisationsfilterelement, welches an unterschiedlichen Stellen verschiedene Polarisationen durchlässt, und/oder
- ein spektrales Filterelement (4), welches an unterschiedlichen Stellen verschiedene Lichtwellenlängen durchlässt, wobei ein Filterelement (4) insbesondere ein linearvariables Filterelement oder ein Mosaikfilterelement ist, wobei die Kamera (1) bevorzugt eine Polarisationskamera, eine HDR-Kamera oder eine Spektralkamera, insbesondere zur multispektralen oder hyperspektralen Aufnahme von Bildern, oder eine Kombination dieser Kameras ist.
4. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Übergangs-Optik (7), bevorzugt eine Feldlinse oder ein Feldlinsensystem, zwischen dem Diffusor (6) und dem Abbildungssystem (2) umfasst, welche dazu ausgelegt ist, den Bildbereich (B) durch das Abbildungssystem (2) hindurch im Abbildungsbereich (3) abzubilden, wobei der Abstand zwischen Diffusor (6) und Abbildungssystem (2) bevorzugt verstellbar ist und die Übergangs-Optik (7) bevorzugt optisch verstellbar ausgelegt ist, so dass die Schärfe der Abbildung des Diffusors (6) auf den Abbildungsbereich (3) eingestellt werden kann.
5. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Kopplungseinheit (8) vor dem Diffusor (6) aufweist, die dazu ausgelegt ist, vor dem Diffusor (6) eine Eingangsoptik (9) anzubringen, wobei die Kopplungseinheit (8) so beschaffen ist, dass eine Eingangsoptik (9) aus einer vorbekannten Gruppe von Eingangsoptiken (9) so angebracht werden kann, dass sie auf den Diffusor (6) ein Bild eines Motivs (M) abbildet, insbesondere in dem Fall, dass die Eingangsoptik (9) mit verschiedenen Brennweiten oder Aperturen oder Helligkeiten operieren, wobei die Kamera (1) bevorzugt eine Anpassungsoptik (10) zwischen Eingangsoptik (9) und Diffusor (6) umfasst, welche die Abbildung der Eingangsoptik (9) auf dem Diffusor (6) an den Bildbereich (B) des Diffusors (6) anpasst, insbesondere bezüglich der Schärfe der Abbildung, bevorzugt wobei die Kopplungseinheit (8) mehrere Eingangsoptiken (9) wechselweise vor den Diffusor (6) bewegen kann.
6. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Eingangsoptik (9) mindestens ein Element der Gruppe Objektive, Endoskope, Teleskope, Mikroskope, Zylinderlinsen, Prismen, Gitter, Linienspektro meter, Spektroskopkomponente und Lichtleiter-Faserbündel umfasst, oder eine Gruppe von Eingangsoptiken (9), insbesondere in einer spektral-sensitiven Anordnung oder einer polarisations-sensitiven Anordnung.
7. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Diffusor (6) mindestens ein Element der Gruppe holographische Streu elemente, Bildverstärker, Photoelektronenvervielfacher, wellenlängenverändernde Medien, nicht-lineare Medien, Quantenpunkte, Flüssigkristalle, Kaliumhydrogenphos- phat-Element, Beta-Bariumborat-Element und Fluoreszenzschichten umfasst, wobei der Diffusor (6) bevorzugt eine bewegliche oder flüssige Anordnung von streuenden Elementen umfasst.
8. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Umlenk-Optik (11) und/oder eine strahlteilende Optik (12) umfasst, wobei bevorzugt ein Strahlteiler (12) zwischen dem Diffusor (6) und der Abbildungsoptik (2) so angeordnet ist, dass der Bildbereich (B) des Diffusors (6) mittels mindestens zweier Strahlenbündel mehrfach abgebildet werden kann und eine erste Anzahl von Abbildungen (A) mittels eines ersten Strahlenbündels und eines ersten Teils des Abbildungssystems (2) auf einen ersten Abbildungsbereich (3) erfolgt und eine zweite Anzahl von Abbildungen (A) mittels eines zweiten Strahlenbündels und eines zweiten Teils des Abbildungssystems (2) auf einen zweiten Abbildungsbereich (3) erfolgt, wobei sich die zweite Anzahl von Abbildungen (A) bevorzugt bezüglich ihrer Größe und/oder eines auf diese Abbildungen (A) wirkenden Filterelements (4) von den ersten Abbildungen (A) unterscheiden.
9. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Abbildungselemente (2a) des Abbildungssystems (2) mit zunehmendem Abstand vom Zentrum des Abbildungssystems (2) und/oder von der optischen Hauptachse (HA) der Mehrkanaloptik (1) zunehmend schielend angeordnet sind, insbesondere nach innen auf den Bildbereich (B) schielend, bevorzugt wobei Abbildungselemente (2a) mit zunehmendem Abstand vom Zentrum des Abbildungs systems (2) und/oder von der optischen Hauptachse (HA) einen zunehmenden Neigungswinkel aufweisen, wobei das Abbildungssystem (2) bevorzugt zusätzlich eine Blende (13) aufweist, die so gestaltet ist, dass jeder Abbildungseinheit (2a) eine Apertur (13a) der Blende (13) zugeordnet ist, wobei diese Aperturen (13a) mit zunehmendem Abstand vom Zentrum des Abbildungssystems (2) und/oder von der optischen Hauptachse (HA) der Kamera (1) zunehmend dezentral zur Mittelachse des Abbildungselements (2a) angeordnet sind.
10. Optisches System (14) umfassend eine Reihenschaltung aus einer Mehrzahl von Mehrkanaloptiken (1) nach einem der vorangehenden Ansprüche, bevorzugt wobei die Abbildungen (A) einer vorangehenden Mehrkanaloptik (1) von einer nachfolgenden Mehrkanaloptik (1) bevorzugt wieder mehrfach abgebildet werden, und wobei besonders bevorzugt der Diffusor (6) einer nachfolgenden Mehrkanaloptik (1) im Abbildungsbereich (3) der vorangehenden Mehrkanaloptik (1) angeordnet ist.
11. Kamera (1) zur synchronen Aufnahme einer Mehrzahl von Abbildungen (A) eines Motivs (M) umfassend eine Mehrkanaloptik nach einem der Ansprüche 1 bis 9 oder ein optisches System (14) nach Anspruch 10 und zusätzlich einen flächigen Bildsensor (3) im Abbildungsbereich (3).
12. Verfahren zur Kalibrierung einer Mehrkanaloptik (1) nach einem der Ansprüche 1 bis 10, einem optischen System (14) nach Anspruch 11 oder einer Kamera (1) nach Anspruch 11, dadurch gekennzeichnet, dass für eine Anzahl der Abbildungen (A) auf dem Abbildungsbereich 3, insbesondere einem Bildsensor (3), für jeweils den Bereich einer Abbildung (A)
- eine Feldverteilung von Werten von Bildpunkten des betreffenden Bereichs des Abbildungsbereichs (3), insbesondere des Bildsensors (3), ermittelt wird, insbesondere ein Farbfeld,
- ein Mittelwert der Helligkeit und/oder der Polarisation und/oder der Wellenlänge des einfallenden Lichts für mindestens zwei dieser Bildpunkte basierend auf der Feldverteilung ermittelt wird, insbesondere eine Zentralwellenlänge,
- der betreffende Bereich des Abbildungsbereichs (3), insbesondere des Bildsensors (3), und/oder der Abbildung (A) basierend auf dem Mittelwert modifiziert und/oder kalibriert wird, wobei diese Kalibration bevorzugt für weitere Bildaufnahmen verwendet wird, und wobei bevorzugt zur Modifikation eine Kalibrationsmatrix berechnet wird, die auf die Abbildungen oder die Pixel eines Bildsensors (3) angewandt wird, wobei in dem Fall dass mehrere Mehrkanaloptiken (1) in Form eines optischen Systems (14) vorliegen die Kalibrationsmatrizen der Mehrkanaloptiken (1), bevorzugt mittels Matrixmultiplikation, zu einer resultierenden Kalibrationsmatrix vereinigt werden.
PCT/DE2022/100174 2021-03-09 2022-03-07 Mehrkanaloptik zur synchronen aufnahme von abbildungen WO2022188923A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021105689.6 2021-03-09
DE102021105689.6A DE102021105689A1 (de) 2021-03-09 2021-03-09 Mehrkanaloptik zur synchronen Aufnahme von Abbildungen

Publications (1)

Publication Number Publication Date
WO2022188923A1 true WO2022188923A1 (de) 2022-09-15

Family

ID=80930467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2022/100174 WO2022188923A1 (de) 2021-03-09 2022-03-07 Mehrkanaloptik zur synchronen aufnahme von abbildungen

Country Status (2)

Country Link
DE (1) DE102021105689A1 (de)
WO (1) WO2022188923A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090021598A1 (en) * 2006-12-06 2009-01-22 Mclean John Miniature integrated multispectral/multipolarization digital camera
US20160057407A1 (en) * 2013-02-13 2016-02-25 Universität des Saarlandes Plenoptic imaging device
CN107271039A (zh) * 2017-07-13 2017-10-20 西安交通大学 紧凑微型快照式光谱成像探测装置及探测方法
WO2018113938A1 (en) * 2016-12-21 2018-06-28 CSEM Centre Suisse d'Electronique et de Microtechnique SA - Recherche et Développement Optical system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2902675C (en) 2014-08-29 2021-07-27 Farnoud Kazemzadeh Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging
US20210389724A1 (en) 2018-09-14 2021-12-16 Northwestern University Holographic display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090021598A1 (en) * 2006-12-06 2009-01-22 Mclean John Miniature integrated multispectral/multipolarization digital camera
US20160057407A1 (en) * 2013-02-13 2016-02-25 Universität des Saarlandes Plenoptic imaging device
WO2018113938A1 (en) * 2016-12-21 2018-06-28 CSEM Centre Suisse d'Electronique et de Microtechnique SA - Recherche et Développement Optical system
CN107271039A (zh) * 2017-07-13 2017-10-20 西安交通大学 紧凑微型快照式光谱成像探测装置及探测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Diffuser (optics) - Wikipedia, the free encyclopedia", 26 June 2015 (2015-06-26), XP055204399, Retrieved from the Internet <URL:https://en.wikipedia.org/wiki/Diffuser_(optics)#Diffractive_diffuser.2Fhomogenizer> [retrieved on 20150723] *
GORDON WETZSTEIN ET AL: "Computational plenoptic imaging", SIGGRAPH '12 ACM SIGGRAPH 2012 COURSES, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 5 August 2012 (2012-08-05), pages 1 - 265, XP058008347, ISBN: 978-1-4503-1678-1, DOI: 10.1145/2343483.2343494 *
HUBOLD M ET AL: "System calibration and characterization of an ultra-compact multispectral snapshot imaging system", SPIE PROCEEDINGS; [PROCEEDINGS OF SPIE ISSN 0277-786X], SPIE, US, vol. 11144, 17 September 2019 (2019-09-17), pages 111440V - 111440V, XP060124555, ISBN: 978-1-5106-3673-6, DOI: 10.1117/12.2532317 *
MU TINGKUI ET AL: "Compact miniature snapshot imaging spectrometry using continuous variable filter", SPIE PROCEEDINGS; [PROCEEDINGS OF SPIE ISSN 0277-786X], SPIE, US, vol. 11023, 12 March 2019 (2019-03-12), pages 110232L - 110232L, XP060116328, ISBN: 978-1-5106-3673-6, DOI: 10.1117/12.2521256 *

Also Published As

Publication number Publication date
DE102021105689A1 (de) 2022-09-15

Similar Documents

Publication Publication Date Title
EP3207356B1 (de) Vorrichtung und verfahren zur bestimmung der partikelgrösse und/oder der partikelform von partikeln in einem partikelstrom
WO2019110368A1 (de) Mikroskopsystem und verfahren zur mikroskopischen abbildung mit einem solchen mikroskopsystem
AT402861B (de) Verfahren und anordnung zum erkennen bzw. zur kontrolle von flächenstrukturen bzw. der oberflächenbeschaffenheit
DE112012002652T5 (de) Abbildungsgerät
WO2010103389A1 (de) Autofokusverfahren und autofokuseinrichtung
EP3184990B1 (de) Sparkle-messung
EP3411680A1 (de) Miniaturspektrometer und verfahren zum schalten eines miniaturspektrometers zwischen abbildungsmodus und spektrometermodus
EP3147700B1 (de) Verfahren und vorrichtung zur vergrösserung des sichtfelds einer kamera sowie damit ausgestattete kamera
DE10014334C2 (de) Vorrichtung und Verfahren zur ortsaufgelösten Brechkraft-Bestimmung
DE102019008472B4 (de) Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
DE3128189A1 (de) &#34;bildlesegeraet&#34;
DE102012005939A1 (de) Zoomobjektiv sowie Kamerasystem
WO2022188923A1 (de) Mehrkanaloptik zur synchronen aufnahme von abbildungen
EP1293817A2 (de) Vorrichtung und Verfahren zur Fokuskontrolle in einem Mikroskop mit digitaler Bildgebung, vorzugsweise einem konfokalen Mikroskop
DE102004059951A1 (de) Vorrichtung zur Untersuchung von Dokumenten
DE102012005938A1 (de) Multispektrales Zoomobjektiv sowie Kamerasystem
DE202014009443U1 (de) Vorrichtung zur Bestimmung der Partikelgröße und/oder der Partikelform von Partikeln in einem Partikelstrom
DE19602862C1 (de) Meßeinrichtung zum Erfassen optischer Eigenschaften einer elektro-optischen Anzeige
DE102018126009B4 (de) Verfahren und Mikroskop zur Bestimmung der Dicke eines Deck- oder Tragglases
DE102016008884B4 (de) Spektroskopievorrichtung und -verfahren
DE102019133516B4 (de) Verfahren und Vorrichtung zur Bestimmung von Wellenlängenabweichungen von Aufnahmen eines Multilinsen-Kamerasystems
DE102021202164B3 (de) Tandemblendenarchitektur zur Füllfaktorerhöhung von kompakten Multikanalabbildungssystemen
DE19950176B4 (de) Verfahren und Einrichtung zum Bestimmen der spektralen Zusammensetzung und daraus ableitbarer farbmetrischer Kenngrößen von selbststrahlenden oder reflektivstrahlenden Objekten
DE102012107046A1 (de) Abbildungsvorrichtung
DE4128506A1 (de) Verfahren zum betreiben eines spektrometers

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22711868

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 22711868

Country of ref document: EP

Kind code of ref document: A1