WO2013026824A1 - Bildsensor, abbildungsvorrichtung und verfahren für einen bildsensor - Google Patents
Bildsensor, abbildungsvorrichtung und verfahren für einen bildsensor Download PDFInfo
- Publication number
- WO2013026824A1 WO2013026824A1 PCT/EP2012/066185 EP2012066185W WO2013026824A1 WO 2013026824 A1 WO2013026824 A1 WO 2013026824A1 EP 2012066185 W EP2012066185 W EP 2012066185W WO 2013026824 A1 WO2013026824 A1 WO 2013026824A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- group
- detectors
- image detectors
- exposure
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
- H04N25/41—Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
- H04N25/533—Control of the integration time by using differing integration times for different sensor regions
- H04N25/534—Control of the integration time by using differing integration times for different sensor regions depending on the spectral component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/57—Control of the dynamic range
- H04N25/58—Control of the dynamic range involving two or more exposures
- H04N25/581—Control of the dynamic range involving two or more exposures acquired simultaneously
- H04N25/583—Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
Definitions
- Image sensor imaging device and method for an image sensor
- Embodiments of the present invention provide an image sensor such as may be used in camera systems. Further embodiments provide an imaging device with such an image sensor. Further embodiments provide a method for such an image sensor. Background of the invention
- Fowler B. Fowler: High Dynamic Rank Image Sensor Architectures, SPIE Electronic Imaging 2011, Digital Photography VII, Proceedings Vol. 7876
- Wetzstein G. Wetzstein, I. Cupke, D. Lanman, W. Heidrich, State of the Art in Computational Plenoptic Imaging, Eurographics 201 1).
- Fowler describes methods implemented within the image sensor; The goal here is to increase the dynamic range of each individual pixel.
- the methods differ in terms of additional area / cost per pixel and noise performance and the image disturbances they cause, such as motion (the scene or camera) or inhomogeneity of the pixels of a sensor (fixed pattern noise).
- Some methods require a high calibration effort that disqualifies them for mass market applications.
- pixels with a logarithmic sensitivity characteristic are mentioned; Cameras with such pixels are used in special applications (eg to control welding processes). They have a very high dynamic, but the characteristics of the pixels with each other are very different. These differences must be measured and corrected for a homogenous image impression.
- Embodiments of the present invention provide an image sensor having a first group of image detectors and a second group of image detectors, wherein an exposure time of the first group of image detectors is independent of an exposure time the second group of image detectors is adjustable. It is a core idea of embodiments of the present invention that in an image sensor having a plurality of image detectors, these image detectors can be classified into various groups while their exposure times are independently adjustable. The independent adjustability of the exposure times of different groups of image detectors of the image sensor makes it possible to achieve a high dynamic range in an image captured by the image sensor both in the overlapping image field and in the non-overlapping image field of the different groups of image detectors.
- Embodiments thus make it possible to set the correct exposure time per group of image detectors.
- the correct exposure time can be specific for each group, since, for example, each group can see a different area of a scene (depending on an optic which is attached to the image sensor) and thus the viewing direction of the different groups can differ. Since different bright areas can occur in different areas of the scene, the possibility of independently adjusting the exposure times of the different groups of image detectors of the image sensor thus makes it possible to adjust the exposure time for the different areas of the scene.
- the exposure time of the first group of image detectors and the exposure time of the second group of image detectors may be set such that in one exposure cycle of the image sensor (for example, for a shot), at least for a predetermined time interval, both the first group of image detectors also the second group of image detectors are exposed at the same time.
- Fig. 1 is a schematic representation of an image sensor according to a
- FIG. 2 diagrams for visualization of the independent
- Fig. 3 shows an example circuit for an image detector, as in the image sensor
- Fig. 1 can be used; 4 shows diagrams for visualizing the functionality of that shown in FIG.
- Fig. 5 is a schematic representation of an image sensor according to another
- Fig. 6a is an exemplary cross-sectional view of an imaging device according to an embodiment of the present invention, in which picture fields of different groups of image detectors adjoin one another; 6b shows an exemplary sectional drawing of an imaging device according to a further embodiment in which image fields of different groups of image detectors overlap;
- FIG. 7 is a flowchart of a method according to an embodiment of the present invention.
- Fig. 8a shows an example of non-overlapping channels in embodiments of the present invention
- Fig. 8b shows an example of overlapping channels in embodiments of the
- Fig. 9a shows an example of how a high contrast scene can be scanned through a split to 9b frame
- Fig. 1 1 is a diagram to illustrate the effect shown in Fig. 10c.
- Fig. 1 shows an image sensor 100 having a plurality of groups 101a-lld of image detectors 105. Exposure times of groups 101a-lld of image detectors are independently adjustable.
- the image sensor 100 may include an exposure time setting means 103 which adjusts the exposure times for the groups 101a-lld of image detectors independently of each other. This allows, per group 101a - lOld of Image detectors to set the correct exposure time.
- the correct exposure time may be specific for each group 101a-101d of image detectors since, for example, in an imaging device in which the image sensor 100 is used, each group 101a-lld can see a different region of the scene (the viewing direction of the different groups 101a-101c). Many image detectors differ from each other) and different areas of the scene may appear in different areas of the scene.
- the dynamic range is increased in the entire image, which light and dark areas of an image are exposed better and thus have more drawing (Contrasts are easier to recognize).
- Each group 101a-lld of image detectors may each comprise a plurality of image detectors 105 (for example in the form of 3T cells or 4T cells).
- image detector 105 may also be referred to as a pixel and may, for example, each have a photodiode.
- Image detectors 105 of a group 101a-lld of image detectors can all have the same exposure time.
- exposure times of image detectors 105 of different groups 101a-lld of image detectors may be independently adjustable but within a group 101a-lld of image detectors have the same exposure time.
- the exposure time setting means for each group 101a-lld may have its own timing generator 103a-103d for independently setting the exposure times for the different groups 101a-lld of image detectors. In this way, each group 101a-lld of image detector may have a specific exposure time (or integration time).
- image sensors according to embodiments of the present invention may include any number of groups of image detectors in which the exposure times are differentially adjustable.
- an image sensor may include only a first group 101a and a second group 101b of image detectors wherein an exposure time of the first group 101a of image detectors is adjustable independently of an exposure time of the second group 101b of image detectors.
- the different adjustment of the exposure times of the groups 101a, 101b of image detectors allows that if one of the image detectors for an object cell in the image is overexposed or underexposed, the value of the other image detector for the respective object cell in the image can be used. Thus, both bright and dark areas of a scene are optimally exposed in a single exposure cycle.
- FIG. 2 shows, in four diagrams 201, 203, 205, 207, how from the image sensor 100 the exposure times of the different groups 101a-lld of image sensors are shown using the example of the first group 101a (group 1) and the second group 101b (group 2) of FIG Image detectors can be adjusted.
- 2 shows in two upper diagrams 201, 203 a first possibility of independently setting the exposure times of the two groups 101a, 101b of image detectors and in two lower diagrams 205, 207 a second possibility of setting the exposure times of the first group 101a and the second Group 101b of image detectors independently.
- the concept shown in Fig. 2 differs from conventional concepts for taking an image with an increased dynamic range in that the image is taken in a single exposure cycle and not, as in conventional concepts, in two successive exposure cycles, between which the exposure times for all image detectors of the image sensor can be varied.
- the image sensor 100 may be configured to set the exposure time of the first group 101a of image detectors and the exposure time of the second group 101b of image detectors so that in an exposure cycle of the image sensor 100, both the first group 101a of image sensors and the second group 101b are exposed by image sensors. This is also shown in the diagrams 201, 203, 205, 207 of FIG. 2.
- the image sensor 100 may be configured to set the exposure time of the first group 101a of image detectors and the exposure time of the second group 101b of image detectors such that in the exposure cycle of the image detector 100, both the first group 101a of image detectors and at least for a predetermined time interval also the second group 101b of image detectors are exposed at the same time.
- This predetermined time interval in which both the first group 101a of image detectors and the second group 101b of image detectors are exposed at the same time may correspond, for example, to the shorter exposure time from the exposure times of the first group 101a of image detectors and the second group 101b of image detectors.
- this predetermined time interval corresponds to the exposure time of the second group 101b of image detectors since they are exposed shorter than the first group 101a of image detectors. Even by this simultaneous exposure of the groups 101a, 101b of image detectors of the image sensor 100, ghost images can be avoided in dynamic scenes.
- the start time of the exposure (or integration) can be regulated.
- the exposure periods (or integration periods) of the groups 101a, 101b can be shifted from each other.
- it is possible to superpose the centers of the exposure periods (or integration periods) this is shown in the lower diagrams 205, 207 of FIG. 2). This minimizes motion artifacts.
- the image sensor may be configured to set the exposure time of the first group 101a of image detectors and the exposure time of the second group 101b of image detectors such that centers of the exposure times of the two groups 101a, 101b of image detectors fall to the same time, or a maximum of 2%. , 5% or 10% of the shorter exposure time from the exposure times of the first group 101a of image detectors and the second group 101b of image detectors are shifted in time from each other.
- the exposure cycle of the image sensor 100 may be the longer exposure time from the exposure times of the first group 101a and the second group 101b of image detectors.
- the exposure cycle corresponds to the exposure time of the first group 101a of image detectors.
- the image sensor 100 may be configured to start the exposure cycle of the image sensor by exposing one of the two groups 101a, 101b of image detectors and to start the exposure of the two groups 101a, 101b of image detectors with a time delay. This is shown in the lower diagrams 205, 207 in Fig. 2, in which the exposure cycle is started by exposing the first group 101a of image detectors and the exposure of the second group 101b of image detectors is delayed to the first group 101a of image detectors (after this). is started.
- each of the groups 101a-101d of the image sensor 100 may have its own automatic control of the exposure time (AEC - Automatic Exposure Control). This can adapt the exposure time to the light conditions, for example to avoid overexposure and underexposure. By locally adjusting the exposure time, scenes with a high contrast range can be imaged without overexposure or underexposure.
- the image sensor 100 may be configured to set the exposure time of the first group 101a of image detectors and the exposure time of the second group 101b of image detectors for the exposure cycle of the image sensor 100 so that no image detector 105 of the first group 101a of image detectors underexposes in the exposure cycle and no image detector 105 of the second group 101b is overexposed by image detectors. This is shown in FIG. 2 in that the exposure time for the first group 101a of image detectors is chosen to be significantly longer than the exposure time for the second group 101b of image detectors.
- the groups 101a-lld of image detectors may be provided with color filters (or having color filters) enabling homogeneous filtering within a channel of an imaging device in which the image sensor 100 is used.
- the image sensor 100 may be configured to automatically adjust the exposure times for the groups 101a-lld of image sensors to the light color. This allows automatic white balance.
- a local color cast can be compensated (for example by mixed light, ie daylight and artificial light within a scene). If a camera system (for example the imaging device as described with reference to FIGS.
- the image sensor 100 to which the image sensor 100 belongs is designed so that an area of the scene is detected by a plurality of pixel groups or groups of image detectors (ie the fields of view overlapping groups), it makes sense to measure each point of the scene with several different exposure times. If a point in the scene z. 2, for example, as shown in FIG. 2, a long exposure time may be set for the first group 101a of image detectors, and a short exposure time may be set for the second group 101b of image detectors. The duration of these exposure times can also be automatically adapted to the lighting conditions, so z.
- the exposure time of the second group 101b of image detectors may be set so that no pixel of this group is overexposed and those of the first group 101a of image detectors are adjusted so that no pixel of that group is underexposed.
- the image sensor 100 may also have a fixed relationship between the exposure times of the first group 101a of image detectors and the second group 101b of image detectors, or a dynamic adjustment with a limitation of the ratio of the exposure times up or down. This applies analogously for larger overlaps.
- the group-specific exposure time is advantageous if, per group 101a-lld of image detectors, as already mentioned above, a filter of the same color is used.
- the sensitivity of groups 101a-lld varies; this depends on the illumination, the absorption of the color filter materials and the spectral sensitivities of the photodiodes. With the group-specific exposure time (the independent adjustability of the exposure time and the different groups 101a-lld of image detectors) these different sensitivities can be compensated.
- FIG. 3 shows, by way of example, a circuit of an active CMOS pixel cell (so-called APS cell, APS amplifier (amplifier), photodiode (photodiode), and switches (switch), also referred to as active pixel sensor) with active pixel cells
- CMOS pixel cell active CMOS pixel cell
- APS cell APS amplifier
- photodiode photodiode
- switches switches
- the first phase is a reset phase in which a transistor M rst is turned on by means of a line RST at its gate, which connects a photodiode of the pixel cell with a reset voltage VS T. Any remaining charge from the previous exposure can then drain off. RST remains on until the voltage V s on the photodiode is reset to V R ST. Turning off RST will start the subsequent exposure phase.
- this exposure phase caused by the photoelectric effect charge carriers in the photodiode.
- the voltage Vs at the photodiode decreases.
- the length of this exposure phase corresponds to the exposure time or the integration time of the pixel cell 105.
- the readout phase in which the pixel is addressed via a row bus (row ROW): a transistor MSEL whose gate terminal is connected to the row bus , is turned on and the voltage V s on the photodiode is applied to a column bus (column-COL) via a source follower MSF whose gate is connected to the photodiode and which is connected between the supply voltage and the transistor MSEL.
- This column bus is typically connected to an analog-to-digital converter (ADC) (one per column), which converts the voltage to a digital value.
- ADC analog-to-digital converter
- the integration or effective exposure time is the time between turning off RST and turning on the voltage on the row bus.
- FIG. 5 shows an image sensor 500 according to another embodiment of the present invention.
- the image sensor 500 differs from the image sensor 100 shown in FIG. 1 in that it has, for example, six groups 101a-lOlf of image detectors 105, and that the groups of image detectors 101a-lOlf are shown in more detail.
- Each of the groups 101a-101f has a pixel cell 105 as shown in FIG. 3, and a plurality of row buses 501 and a plurality of column buses 503 on.
- each of the groups 101a-lOlf has a vertical scan circuit 505 connected to the row buses 501.
- each of the groups 101a-lOlf has a plurality of analog-to-digital converters (A / D) and a horizontal scan circuit 507. The analog / digital converters are connected between the column buses 503 and the horizontal sampling circuits 507.
- each group 101a-lOlf has its own COL buses (column buses 503) and ROW buses (row buses 501) and RST buses (which are parallel to the row buses 501). but are not shown in Fig. 5).
- each group 101a-lOlf may have a separate timing generator (in the exposure time setting means 103).
- each group 101a-lOlf may have a separate timing generator (in the exposure time setting means 103).
- 101 f can be the time between the turn-off of RST and the measurement of the voltage across the photodiode of the individual pixel cells 105 independently of the other groups 101 a
- each group can have a specific integration time.
- the individual groups 101a-lOlf of image sensors can be arranged, for example, on a common chip or substrate of the image sensor.
- the substrate for the various transistors and photodiodes of the various groups 101a-101f of image detectors may be identical for all groups 101a-lOlf of image detectors.
- the integration time is the same for all pixels in a row (Rolling Shutter) or the whole sensor (Global Shutter). In commercially available sensors, the exposure time is the same even for a rolling shutter for all lines.
- image sensors according to embodiments of the present invention may find use in imaging devices.
- imaging devices may be, for example, camera systems.
- FIGS. 6A and 6B show two imaging devices 601, 603 in accordance with embodiments of the present invention.
- the two imaging devices 601, 603 are similar in functionality and differ only in that in the imaging device 601 shown in Fig. 6A, fields 607a, 607b are contiguous (and do not overlap), whereas in the imaging device shown in Fig. 6B 603 overlap the image fields 607a, 607b.
- Fig. 6A shows a sectional view of the imaging device 601.
- the imaging device 601 has an image sensor (for example, the image sensor 100).
- the imaging device 601 has a multi-channel optical system 605 which is selected in order to image a first image field 607a on the first group 101a of image detectors in a first (optical) channel and a second image field 607b on the second group in a second (optical) channel 101b of image detectors.
- the first (optical) channel is in this case for example by a lens 609a or a lens array of the multi-channel optical system 605 in conjunction with the first group 101a of Image detectors formed.
- the first (optical) channel is therefore the path through which incident light passing through the first lens passes through the first lens array 609a in the imaging device 601 to encounter the image detectors 105 of the first group 101a of image detectors.
- the second (optical) channel is formed by a second lens or a second lens array 609b of the imaging device 605 in conjunction with the second group 101b of image detectors.
- the second (optical) channel is therefore the path that incident light that passes through the second lens or second lens array 609a travels in the imaging device 601 to encounter the image detectors 105 of the first set 101a of image detectors.
- the image fields 607a, 607b do not overlap but close to each other.
- the first channel may comprise a first color filter 61 1a, for example between the first group 101a of image detectors and the multi-channel optical system 605.
- the second channel may comprise a second color filter 611b, for example between the second group 101b of image detectors and the multi-channel optical system 605.
- the first color filter 61 1a may have a different color than the second color filter 611b.
- the color filters 611a, 611b may be used, for example, to allow color images of the image fields 607a, 607b.
- the group-specific exposure time in the groups 101a, 101b of image detectors is advantageous when using the color filters 61 1a, 61 1b, since in this case the sensitivity of the groups 101a, 101b varies, depending on the illumination, the absorption of the color filter materials, and spectral sensitivities of the photodiodes.
- the different sensitivities can be compensated with the group-specific exposure time (the independent adjustability of the exposure times of the first group 101a of image detectors and the second group 101b of image detectors).
- the image sensor 100 may be configured to set the exposure time of the first group 101a of image detectors in response to a light color in the first image field 607a and the exposure time of the second group 101b of image detectors in response to a light color in the second image field 607b and regardless of the light color in the first frame 607a.
- This setting of the exposure time depending on the light color provides for an automatic white balance and on the other hand a local color cast (in the image field 607a and / or the image field 607b) can be compensated.
- the image sensor 100 may be configured to set the exposure time of the first group 101a of image detectors in response to light conditions in the first image field 607a and the exposure time of the second group 101b of image detectors to light conditions in the second image field 607b and independently adjust the lighting conditions in the first image field 607a.
- Fig. 6b shows a sectional view of the imaging device 603 which, as described above, differs from the imaging device 601 only in that the first image field 607a and the second image field 607b overlap, that is, object cells or object points of a scene of an image detector of the first group 101a of image detector and an image detector of the second group 101b of image detectors are detected.
- This allows each point of the scene to be measured at several different exposure times. For example, such that, as already described with reference to FIG. 2, the exposure time of the first group 611a of image detectors is set so that no pixel of this group is underexposed and the exposure time of the second group 611b of image detectors is set so that no pixel thereof Group is overexposed.
- the image fields 607a, 607b only partially overlap. That is, the first frame 607a and the second frame 607b are not completely overlapped. A viewing direction of the first channel is therefore different (for example offset) to a viewing direction of the second channel. While in the embodiment shown in Fig. 6a there is no overlap area between the detection areas of the channels of the imaging device 601, in the embodiment shown in Fig. 6b, such an overlap area exists between the detection areas of the channels of the imaging device 603. From this overlap area results that the resulting image fields 607a, 607b partially overlap.
- the overlapping area of the channels is chosen such that it is smaller than the detection areas of the channels. With In other words, the overlap area is chosen so that the detection areas of the channels do not overlap completely (but only partially).
- the use of partially overlapping image fields in comparison to completely overlapping image fields has the advantage that a significantly smaller number of image detectors is required, since object cells do not overlap at least twice in the areas in which the image fields 607a, 607b do not overlap (ie from image detectors of the first Group 101a and the second group 101b), but are detected only by an image detector of the first group 101a or second group 101b.
- the image sensor used in embodiments of the present invention is therefore configured to individually adjust the exposure times of the groups 101a, 101b of image detectors and not individual pixels or image detectors of these groups 101a, 101b.
- such a group 101a, 101b of image detectors may comprise at least 3x3, 5x5 or 10x10 image detectors.
- embodiments of the present invention provide a split field image sensor (also referred to as a cluster image) in which one exposure time is used per group. Image sensors according to embodiments of the present invention thus enable separate exposure timing with the respective decoders for the groups of image detectors.
- detector arrays can be arranged in a field or array on a common chip or substrate.
- FIG. 7 shows a flow chart of a method 700 for an image sensor having a first group of image detectors and a second group of image detectors.
- the method 700 comprises a step 701 of setting an exposure time of the first group of image detectors independently of an exposure time of the second group of image detectors.
- the method 700 may be performed, for example, with an image sensor according to an embodiment of the present invention (eg, with the image sensors 100 or 500).
- Fig. 8a shows an additional example of three channels 801a, 801b, 801c, as may be arranged in an imaging device according to an embodiment of the present invention.
- the three channels 801a, 801b and 801c have contiguous image fields.
- An object point of the object to be viewed is therefore detected by a maximum of one of the three channels 801a, 801b, 801c and, in particular, not detected multiple times.
- a resulting overall picture can then be achieved by juxtaposing the individual pictures of the channels 801a, 801b, 801c.
- Fig. 8b shows an example of three overlapping image field channels 803a, 803b, 803c as may be used in embodiments of the present invention. It can be seen from Fig. 8b that an image field of the first channel 803a does not overlap with an image field of the third channel 803c. However, an image field of the second channel 803b overlaps with both the image field of the first channel 803a and the image field of the third channel 803c. At least the object areas B, C are therefore detected simultaneously by two channels. Thus, the object area B is detected by the first channel 803a and the second channel 803b, and the object area C is detected by the second channel 803b and the third channel 803c. Although in the embodiment shown in FIG.
- the edge channels 803a, 803c have the same field of view as the second channel 803b, according to further embodiments it is also possible for these edge channels 803a, 803b to have a field of view of a different size (for example, half the size that of the second channel 803b).
- a different size for example, half the size that of the second channel 803b.
- the imaging device shown in Fig. 8b only the object regions B and C would be observed, even though there is still a partial overlap of the image fields of adjacent channels (the image field of the second channel 803b overlaps each partially with the image fields of the image channel) first channel 803a and third channel 803c).
- the partial overlap of the image fields of the channels 803a, 803b, 803c shown in Fig. 8b allows for sampling gaps between adjacent channels (such as between the first channel 803a and the third channel 803c) from another channel (in the case of the second Channel 803b).
- a resulting overall image can then be obtained by overlapping the individual images of the channels 803a to 803c.
- Fig. 9a shows an image of a natural scene with a large brightness dynamics, as an example a mountain range with a section of the sky.
- the sky is a few orders of magnitude brighter than the mountain range (thus has a significantly greater luminance). If the scene is recorded with a conventional digital image sensor with uniform exposure time, pixels that pick up the sky tend to be saturated, while pixels that record the mountains receive only a small signal. As a result, details can be lost, such as a house in the mountains.
- the exposure time for different channels can be set separately. Embodiments of the present invention therefore enable an improved capture of the scene shown in FIG. 9a.
- FIG. 9b therefore shows the recording of the same scene as in FIG. 9a, but this time with an imaging device according to an embodiment of the present invention Invention in which the exposure times between different channels are separately adjustable.
- the fields of view of the individual channels do not overlap (each square represents the field of view of a channel).
- the exposure time of each channel (or group of image detectors) can now be automatically adjusted to minimize saturation or signal within a channel.
- this effect can be avoided or reduced by using the largest possible number of individual channels or, on the other hand, one can make use of the effect that contrast jumps are smeared by scattering effects in a lens and that therefore a finite number of channels is sufficient to also depict scenes with high contrast.
- FIGS. 10a to 10c illustrates how contrast jumps are smeared by scattering effects in an objective, and that therefore a finite number of channels is sufficient to image scenes with high contrast without causing pixels to saturate go or too low a signal is received.
- Fig. 10a shows a scene with a window.
- the indoor scene shown in Fig. 10a includes high luminance (outside) areas and low luminance (inside) areas.
- Fig. 10b shows how the light coming through the window is scattered in the optics of the camera, which causes the contrast on the window frame to drop. It can therefore be seen from FIG. 10b that contrast jumps are smeared by scattering effects in a camera lens.
- Fig. 10c shows a recording of the same scene as in Fig. 10b with a multi-channel system according to an embodiment of the present invention, in which the exposure time of each channel can be independently controlled. Although some channels see both the window and the interior, the stray light causes no over or underexposure in these channels. It can therefore be seen from FIG. 10c that a finite number of channels is sufficient to image scenes with high contrast, since high jumps in the contrast are avoided due to objectively caused scattering effects.
- Fig. 11 shows this effect in two diagrams, wherein in a top diagram, a contrast edge is shown without stray light and in a lower diagram, a contrast edge is shown with scattered light.
- the brightness L is therefore entered in the diagrams, while the x-axis of the field of view is entered on the abscissa axis.
- the visual field width x is divided into three channels A, B, C. From the above diagram, it can be seen that the channel A is high in brightness, so an exposure time can be set short. In the channel C is a low brightness, so that an exposure time can be selected long. In contrast, in channel B there is a contrast edge with a sudden transition from light to dark.
- the lower diagram in FIG. 11 shows a contrast edge with scattered light, as has already been described with reference to FIGS. 10a to 10c.
- the brightness gradient dL / dx in the channel B is therefore significantly smaller than in the upper diagram, so that it can be avoided that in the channel B saturated pixels and / or low-signal pixels are present, since by the scattering effect of the contrast in the channel B is lowered.
- the blurring of the contrast edge by scattered light reduces the amount of contrast dL which each of the three channels A, B, C must image.
- the scatter therefore determines the maximum brightness gradient dL / dx. If, for example, a channel can represent a certain maximum contrast dLmax, then a maximum visual field width xmax of the channel can be determined for this purpose.
- embodiments of the invention may be implemented in hardware or in software.
- the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
- some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
- embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.
- the program code can also be stored, for example, on a machine-readable carrier.
- an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
- a further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.
- a further exemplary embodiment of the method according to the invention is thus a data stream or a sequence of signals which represents the computer program for performing one of the methods described herein.
- the data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.
- Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
- a processing device such as a computer or a programmable logic device
- Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
- a programmable logic device eg, a field programmable gate array, an FPGA
- a field programmable gate array may cooperate with a microprocessor to perform one of the methods described herein.
- the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Ein Bildsensor weist eine erste Gruppe von Bilddetektoren und eine zweite Gruppe von Bilddetektoren auf. Eine Belichtungszeit der ersten Gruppe von Bilddetektoren ist unabhängig von einer Belichtungszeit der zweiten Gruppe von Bilddetektoren einstellbar.
Description
Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
Technisches Gebiet Ausführungsbeispiele der vorliegenden Erfindung schaffen einen Bildsensor, wie er beispielsweise in Kamerasystemen zum Einsatz kommen kann. Weitere Ausführungsbeispiele schaffen eine Abbildungsvorrichtung mit einem solchen Bildsensor. Weitere Ausführungsbeispiele schaffen ein Verfahren für einen solchen Bildsensor. Hintergrund der Erfindung
Zur Erhöhung des Dynamikumfangs von Kameras existieren zahlreiche Verfahren. Eine gute Übersicht bieten Fowler (B. Fowler: High dynamic ränge image sensor architectures, SPIE Electronic Imaging 2011, Digital Photography VII, Proceedings Vol. 7876) und Wetzstein (G. Wetzstein, I. Ihrke, D. Lanman, W. Heidrich, State of the Art in Computational Plenoptic Imaging, Eurographics 201 1).
Fowler beschreibt Verfahren, die innerhalb des Bildsensors implementiert sind; Ziel ist hier jeweils, den Dynamikumfang jedes einzelnen Pixels zu erhöhen. Die Verfahren unterscheiden sich hinsichtlich der zusätzlichen Fläche/Kosten pro Pixel und dem Rauschverhalten und hinsichtlich der Bildstörungen, die sie verursachen, etwa durch Bewegung (der Szene oder der Kamera) oder durch Inhomogenität der Pixel eines Sensors untereinander (Fixed Pattern Noise). Einige Verfahren erfordern einen hohen Kalibrieraufwand, der sie für Anwendungen im Massenmarkt disqualifiziert. Als Beispiel seien Pixel mit logarithmischer Empfindlichkeitskennlinie genannt; Kameras mit solchen Pixeln sind in Spezialan Wendungen im Einsatz (z. B. zur Kontrolle von Schweißvorgängen). Sie haben eine sehr hohe Dynamik, aber die Kennlinien der Pixel untereinander sind stark unterschiedlich. Diese Unterschiede müssen für einen homogenen Bildeindruck gemessen und korrigiert werden.
Die oben angegebene Veröffentlichung von Wetzstein ist eine gute Übersicht von Verfahren, die mit herkömmlichen Bildsensoren zu implementieren sind. Vorgeschlagen werden zum Beispiel zusätzliche optische Elemente wie Masken mit ND-Filtern oder dynamische Lichtmodulatoren (etwa Mikrospiegel). Eine weitere Möglichkeit sind Mehrfachbelichtungen oder Multi-Kamerasysteme mit gestaffelten Belichtungszeiten, ND- Filtern oder Blenden. Von diesen Verfahren ist lediglich die Mehrfachbelichtung mit gestaffelten Belichtungszeiten außerhalb des Labors üblich. Dieses Verfahren funktioniert nur für statische Szenen zuverlässig, sonst entstehen Geisterbilder.
Zusammenfassung der Erfindung
Es ist eine Aufgabe der vorliegenden Erfindung, ein Konzept zu schaffen, welches sowohl einen hohen Dynamikumfang bei der Bildaufnahme für statische und dynamische Szenen bietet als auch für den Massenmarkt anwendbar ist.
Diese Aufgabe wird gelöst durch eine Abbildungsvorrichtung gemäß Anspruch 1, sowie ein Verfahren gemäß Anspruch 12. Ausführungsbeispiele der vorliegenden Erfindung schaffen einen Bildsensor mit einer ersten Gruppe von Bilddetektoren und einer zweiten Gruppe von Bilddetektoren, wobei eine Belichtungszeit der ersten Gruppe von Bilddetektoren unabhängig von einer Belichtungszeit der zweiten Gruppe von Bilddetektoren einstellbar ist. Es ist ein Kerngedanke von Ausführungsbeispielen der vorliegenden Erfindung, dass bei einem Bildsensor, der eine Mehrzahl von Bilddetektoren aufweist, diese Bilddetektoren in verschiedene Gruppen eingeteilt werden können, während deren Belichtungszeiten unabhängig voneinander einstellbar sind. Durch die unabhängige Einstellbarkeit der Belichtungszeiten verschiedener Gruppen von Bilddetektoren des Bildsensors lässt sich ermöglichen, dass sowohl bei überlappendem Bildfeld als auch bei nicht-überlappendem Bildfeld der verschiedenen Gruppen von Bilddetektoren ein hoher Dynamikumfang in einem von dem Bildsensor aufgenommenen Bild erreicht wird.
Ausführungsbeispiele ermöglichen es damit, pro Gruppe von Bilddetektoren die richtige Belichtungszeit einzustellen. Die richtige Belichtungszeit kann dabei für jede Gruppe spezifisch sein, da beispielsweise jede Gruppe einen anderen Bereich einer Szene sehen kann (abhängig von einer Optik, welche an dem Bildsensor angebracht ist) und damit die Blickrichtung der verschiedenen Gruppen voneinander abweichen können. Da in verschiedenen Bereichen der Szene unterschiedlich helle Bereiche auftreten können, wird somit, durch die Möglichkeit der unabhängigen Einstellungen der Belichtungszeiten der verschiedenen Gruppen von Bilddetektoren des Bildsensors, eine Anpassung der Belichtungszeit für die verschiedenen Bereiche der Szene ermöglicht.
Durch die Anpassung der Belichtungszeiten für die verschiedenen Gruppen von Bilddetektoren kann somit der Dynamikumfang in einem kompletten Bild erhöht werden, wodurch helle und dunkle Bereiche eines Bildes besser belichtet werden und damit mehr Zeichnung haben (mit anderen Worten, Kontraste sind besser zu erkennen).
Gemäß einigen Ausführungsbeispielen kann die Belichtungszeit der ersten Gruppe von Bilddetektoren und die Belichtungszeit der zweiten Gruppe von Bilddetektoren so eingestellt werden, dass in einem Belichtungszyklus des Bildsensors (beispielsweise für eine durchzuführende Aufnahme), zumindest für ein vorgegebenes Zeitintervall, sowohl die erste Gruppe von Bilddetektoren als auch die zweite Gruppe von Bilddetektoren zeitgleich belichtet werden.
Mit anderen Worten, werden nicht, wie bei konventionellen Aufnahmesystemen zwei Bilder mit unterschiedlichen Belichtungszeiten zeitlich nacheinander aufgenommen, sondern es wird lediglich in einem Belichtungszyklus ein Bild mit dem Bildsensor aufgenommen, wobei verschiedene Gruppen von Bilddetektoren des Bildsensors unterschiedlich lange Belichtungszeiten haben. So wird auch eine Aufnahme von dynamischen (bewegten) Szenen mit einem hohen Dynamikumfang ermöglicht, ohne dass Geisterbilder entstehen.
Figurenkurzbeschreibung
Ausführungsbeispiele der vorliegenden Erfindung werden im Folgenden anhand der beiliegenden Figuren detailliert beschrieben. Es zeigen:
Fig. 1 eine schematische Darstellung eines Bildsensors gemäß einem
Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 2 Diagramme zur Visualisierung der voneinander unabhängigen
Belichtungssteuerung zweier Gruppen des Bildsensors aus Fig. 1 ;
Fig. 3 eine Beispielschaltung für einen Bilddetektor, wie er bei dem Bildsensor aus
Fig. 1 Verwendung finden kann; Fig.4 Diagramme zur Visualisierung der Funktionalität des in Fig. 3 gezeigten
Bilddetektors;
Fig. 5 eine schematische Darstellung eines Bildsensors gemäß einem weiteren
Ausführungsbeispiel der vorliegenden Erfindung.
Fig. 6a eine beispielhafte Schnittzeichnung durch eine Abbildungsvorrichtung gemäß einem Ausfuhrungsbeispiel der vorliegenden Erfindung, bei der sich Bildfelder verschiedener Gruppen von Bilddetektoren aneinander anschließen;
Fig. 6b eine beispielhafte Schnittzeichnung einer Abbildungsvorrichtung gemäß einem weiteren Ausführungsbeispiel, bei der sich Bildfelder verschiedener Gruppen von Bilddetektoren überlappen;
Fig. 7 ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
Fig. 8a ein Beispiel für nicht überlappende Kanäle bei Ausführungsbeispielen der vorliegenden Erfindung;
Fig. 8b ein Beispiel für überlappende Kanäle bei Ausführungsbeispielen der
vorliegenden Erfindung; Fig. 9a ein Beispiel wie eine Szene mit hohem Kontrast durch ein aufgeteiltes bis 9b Bildfeldabgelichtet werden kann;
Fig. 10a ein Beispiel zur Verdeutlichung der Verschmierung von Kontrastsprüngen bis 10c durch Streueffekte in einem Objektiv; und
Fig. 1 1 ein Diagramm zur Verdeutlichung des in Fig. 10c gezeigten Effekts.
Detaillierte Beschreibung von Ausführungsbeispielen der vorliegenden Erfindung Bevor im Folgenden Ausfuhrungsbeispiele der vorliegenden Erfindung anhand der Figuren detailliert beschrieben werden, wird darauf hingewiesen, dass gleiche Elemente oder Elemente gleicher Funktion mit denselben Bezugszeichen versehen sind und dass auf eine wiederholte Beschreibung von Elementen, die mit denselben Bezugszeichen versehen sind, verzichtet wird. Beschreibungen von Elementen mit gleichen Bezugszeichen sind daher untereinander austauschbar.
Fig. 1 zeigt einen Bildsensor 100 mit einer Mehrzahl von Gruppen 101a - lOld von Bilddetektoren 105. Belichtungszeiten der Gruppen 101a - lOld von Bilddetektoren sind unabhängig voneinander einstellbar.
Beispielsweise kann der Bildsensor 100 eine Belichtungszeiteinstelleinrichtung 103 aufweisen, welche die Belichtungszeiten für die Gruppen 101a - lOld von Bilddetektoren unabhängig voneinander einstellt. Diese erlaubt es, pro Gruppe 101a - lOld von
Bilddetektoren die richtige Belichtungszeit einzustellen. Die richtige Belichtungszeit kann dabei für jede Gruppe 101a - 101d von Bilddetektoren spezifisch sein, da beispielsweise in einer Abbildungsvorrichtung, in der der Bildsensor 100 verwendet wird, jede Gruppe 101a — lOld einen anderen Bereich der Szene sehen kann (die Blickrichtung der verschiedenen Gruppen 101a - lOld von Bilddetektoren weichen voneinander ab) und in verschiedenen Bildbereichen der Szene unterschiedlich helle Bereiche auftreten können.
Durch die Anpassung der Belichtungszeiten (beispielsweise in Einzelkanälen, welche durch jeweils eine Gruppe 101a - lOld von Bilddetektoren mit einer zugehörigen Mehrkanaloptik gebildet werden) wird der Dynamikumfang im kompletten Bild erhöht, wodurch helle und dunkle Bereiche eines Bildes besser belichtet werden und damit mehr Zeichnung haben (Kontraste sind besser zu erkennen).
Jede Gruppe 101a - lOld von Bilddetektoren kann jeweils eine Mehrzahl von Bilddetektoren 105 (beispielsweise in Form von 3T-Zellen oder 4T-Zellen) aufweisen. Ein solcher Bilddetektor 105 kann auch als Pixel bezeichnet werden und kann beispielsweise jeweils eine Fotodiode aufweisen.
Bilddetektoren 105 einer Gruppe 101a - lOld von Bilddetektoren können dabei alle dieselbe Belichtungszeit aufweisen. Mit anderen Worten können Belichtungszeiten von Bilddetektoren 105 verschiedener Gruppen 101a - lOld von Bilddetektoren unabhängig voneinander einstellbar sein, aber innerhalb einer Gruppe 101a - lOld von Bilddetektoren dieselbe Belichtungszeit aufweisen. Gemäß weiteren Ausführungsbeispielen kann die Belichtungszeiteinstelleinrichtung für jede Gruppe 101a - lOld einen eigenen Zeitgenerator (Timing Generator) 103a - 103d aufweisen, um die Belichtungszeiten für die verschiedenen Gruppen 101a - lOld von Bilddetektoren unabhängig voneinander einzustellen. Auf diese Weise kann jede Gruppe 101a - lOld von Bilddetektor über eine spezifische Belichtungszeit (oder Integrationszeit) verfügen.
Obwohl in dem in Fig. 1 gezeigten Ausführungsbeispiel vier verschiedene Gruppen 101a - lOld von Bilddetektoren gezeigt sind, können Bildsensoren gemäß Ausführungsbeispielen der vorliegenden Erfindung eine beliebige Anzahl von Gruppen von Bilddetektoren aufweisen, bei denen die Belichtungszeiten unterschiedlich voneinander einstellbar sind.
In einem einfachsten Ausführungsbeispiel der vorliegenden Erfindung kann ein Bildsensor auch nur eine erste Gruppe 101a und eine zweite Gruppe 101b von Bilddetektoren
aufweisen, wobei eine Belichtungszeit der ersten Gruppe 101a von Bilddetektoren unabhängig von einer Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren einstellbar ist. Auch unter Nutzung dieses einfachsten Ausführungsbeispiels ergeben sich deutliche Vorteile gegenüber konventionellen Bildsensoren, beispielsweise in dem Fall, dass in einer Abbildungsvorrichtung, in der der Bildsensor verwendet wird, die beiden Gruppen 101a, 101b von Bilddetektoren dasselbe Bildfeld aufweisen. In einem solchen Anwendungsfall kann in einem einzigen Belichtungszyklus des Bildsensors ein Bild mit einem hohen Dynamikumfang aufgenommen werden, da jede Objektzelle in dem Bild von einem Bilddetektor der ersten Gruppe 101a und einem Bilddetektor der zweiten Gruppe 101b von Bilddetektoren erfasst wird. Durch die unterschiedliche Einstellung der Belichtungszeiten der Gruppen 101a, 101b von Bilddetektoren wird ermöglicht, dass, falls einer der Bilddetektoren für eine Objektzelle im Bild überbelichtet oder unterbelichtet ist, der Wert des anderen Bilddetektoren für die jeweilige Objektzelle im Bild verwendet werden kann. So werden in einem einzigen Belichtungszyklus sowohl helle als auch dunkle Bereiche einer Szene optimal belichtet.
Fig. 2 zeigt in vier Diagrammen 201, 203, 205, 207, wie von dem Bildsensor 100 die Belichtungszeiten der unterschiedlichen Gruppen 101a - lOld von Bildsensoren am Beispiel der ersten Gruppe 101a (Gruppe 1) und der zweiten Gruppe 101b (Gruppe 2) von Bilddetektoren eingestellt werden können. Fig. 2 zeigt dazu in zwei oberen Diagrammen 201, 203 eine erste Möglichkeit der unabhängigen Einstellung der Belichtungszeiten der beiden Gruppen 101a, 101b von Bilddetektoren und in zwei unteren Diagrammen 205, 207 eine zweite Möglichkeit der Einstellung der Belichtungszeiten der ersten Gruppe 101a und der zweiten Gruppe 101b von Bilddetektoren unabhängig voneinander.
Das in Fig. 2 gezeigte Konzept unterscheidet sich von konventionellen Konzepten zur Aufnahme eines Bildes mit einem erhöhten Dynamikumfang dadurch, dass das Bild in einem einzigen Belichtungszyklus aufgenommen wird und nicht, wie bei konventionellen Konzepten, in zwei nacheinander folgenden Belichtungszyklen, zwischen denen die Belichtungszeiten für alle Bilddetektoren des Bildsensors variiert werden. Mit anderen Worten kann der Bildsensor 100 ausgebildet sein, um die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren und die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren so einzustellen, dass in einem Belichtungszyklus des Bildsensors 100 sowohl die erste Gruppe 101a von Bildsensoren als auch die zweite Gruppe 101b von Bildsensoren belichtet werden. Dies ist auch in den Diagrammen 201, 203, 205, 207 von Fig. 2 gezeigt. Dadurch, dass eine Szene in einem Belichtungszyklus aufgenommen wird,
anstatt in zwei aufeinanderfolgenden Belichtungszyklen, wird ermöglicht, dass auch dynamische (sich bewegende) Szenen aufgenommen werden können, ohne dass dabei Geisterbilder entstehen. Ferner kann der Bildsensor 100 ausgebildet sein, um die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren und die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren so einzustellen, dass in dem Belichtungszyklus des Bilddetektors 100, zumindest für ein vorgegebenes Zeitintervall sowohl die erste Gruppe 101a von Bilddetektoren als auch die zweite Gruppe 101b von Bilddetektoren zeitgleich belichtet werden. Dieses vorgegebene Zeitintervall, in dem sowohl die erste Gruppe 101a von Bilddetektoren als auch die zweite Gruppe 101b von Bilddetektoren zeitgleich belichtet werden, kann beispielsweise der kürzeren Belichtungszeit aus den Belichtungszeiten der ersten Gruppe 101a von Bilddetektoren und der zweiten Gruppe 101b von Bilddetektoren entsprechen. In den in Fig. 2 gezeigten Diagrammen 201, 203, 205, 207 entspricht dieses vorgegebene Zeitintervall der Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren, da diese kürzer belichtet werden als die erste Gruppe 101a von Bilddetektoren. Auch durch dieses zeitgleiche Belichten der Gruppen 101a, 101b von Bilddetektoren des Bildsensors 100 lassen sich Geisterbilder bei dynamischen Szenen vermeiden.
Neben der Dauer der Belichtung (bzw. Integration) kann auch der Startzeitpunkt der Belichtung (bzw. Integration) reguliert werden. Auf diese Weise können die Belichtungszeiträume (bzw. Integrationszeiträume) der Gruppen 101a, 101b gegeneinander verschoben werden. Zum Beispiel ist es möglich, statt der Startpunkte für die Belichtung der Gruppen 101a, 101b von Bilddetektoren die Mittelpunkte der Belichtungszeiträume (oder Integrationszeiträume) aufeinander zu legen (dies ist in den unteren Diagrammen 205, 207 von Fig. 2 gezeigt). Dies minimiert Bewegungsartefakte. Mit anderen Worten kann der Bildsensor ausgebildet sein, um die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren und die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren so einzustellen, dass Mitten der Belichtungszeiten der beiden Gruppen 101a, 101b von Bilddetektoren auf denselben Zeitpunkt fallen oder maximal 2 %, 5 % oder 10 % von der kürzeren Belichtungszeit aus den Belichtungszeiten der ersten Gruppe 101a von Bilddetektoren und der zweiten Gruppe 101b von Bilddetektoren zeitlich zueinander verschoben sind.
Der Belichtungszyklus des Bildsensors 100 kann beispielsweise der längeren Belichtungszeit aus den Belichtungszeiten der ersten Gruppe 101a und der zweiten Gruppe
101b von Bilddetektoren entsprechen. In dem in Fig. 2 gezeigten Beispiel entspricht der Belichtungszyklus der Belichtungszeit der ersten Gruppe 101a von Bilddetektoren.
Gemäß weiteren Ausführungsbeispielen kann der Bildsensor 100 ausgebildet sein, um den Belichtungszyklus des Bildsensors durch Belichten einer der beiden Gruppen 101a, 101b von Bilddetektoren zu starten und um die Belichtung der beiden Gruppen 101a, 101b von Bilddetektoren zeitversetzt zueinander zu starten. Dies ist in den unteren Diagrammen 205, 207 in Fig. 2 gezeigt, in denen der Belichtungszyklus durch Belichten der ersten Gruppe 101a von Bilddetektoren gestartet wird und die Belichtung der zweiten Gruppe 101b von Bilddetektoren zeitversetzt zu der ersten Gruppe 101a von Bilddetektoren (nach dieser) gestartet wird.
Gemäß weiteren Ausführungsbeispielen kann jede der Gruppen 101a - 101 d des Bildsensors 100 über eine eigene automatische Steuerung der Belichtungszeit verfügen (AEC - Automatic Exposure Control). Diese kann die Belichtungszeit den Lichtverhältnissen anpassen, beispielsweise um Überbelichtung und Unterbelichtungen zu vermeiden. Durch lokale Anpassung der Belichtungszeit können auch Szenen mit großem Kontrastumfang ohne Überbelichtung oder Unterbelichtung abgebildet werden. So kann beispielsweise der Bildsensor 100 ausgebildet sein, um für den Belichtungszyklus des Bildsensors 100 die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren und die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren so einzustellen, dass in dem Belichtungszyklus kein Bilddetektor 105 der ersten Gruppe 101a von Bilddetektoren unterbelichtet wird und kein Bilddetektor 105 der zweiten Gruppe 101b von Bilddetektoren überbelichtet wird. Dies ist in Fig. 2 dadurch gezeigt, dass die Belichtungszeit für die erste Gruppe 101a von Bilddetektoren deutlich länger gewählt ist als die Belichtungszeit für die zweite Gruppe 101b von Bilddetektoren.
Gemäß weiterer Ausführungsbeispiele können die Gruppen 101a - lOld von Bilddetektoren (oder die Pixelgruppen 101a - 101 d) mit Farbfiltern versehen sein (bzw. Farbfilter aufweisen), die eine homogene Filterung innerhalb eines Kanals einer Abbildungsvorrichtung in der der Bildsensor 100 verwendet wird ermöglichen. In diesem Fall kann der Bildsensor 100 ausgebildet sein, die Belichtungszeiten für die Gruppen 101a - lOld von Bildsensoren automatisch der Lichtfarbe anzupassen. Dies ermöglicht einen automatischen Weißabgleich. Ferner kann ein lokaler Farbstich ausgeglichen werden (etwa durch Mischlicht, das heißt Tages- und Kunstlicht innerhalb einer Szene).
Ist ein Kamerasystem (beispielsweise die Abbildungsvorrichtung, wie sie noch anhand von Fig. 6a und 6b beschrieben wird) zu dem der Bildsensor 100 gehört, so ausgelegt, dass ein Bereich der Szene von mehreren Pixelgruppen oder Gruppen von Bilddetektoren erfasst wird (sich also die Blickfelder der Gruppen überlappen), so ist es sinnvoll, jeden Punkt der Szene mit mehreren verschiedenen Belichtungszeiten zu messen. Wird ein Punkt in der Szene z. B. von zwei Gruppen erfasst, so kann, wie anhand von Fig. 2 gezeigt, für die erste Gruppe 101a von Bilddetektoren eine lange Belichtungszeit eingestellt werden und für die zweite Gruppe 101b von Bilddetektoren eine kurze Belichtungszeit eingestellt werden. Die Dauer dieser Belichtungszeiten kann ebenfalls automatisch den Lichtverhältnissen angepasst werden, so kann z. B. die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren so eingestellt werden, dass kein Pixel dieser Gruppe überbelichtet ist und die der ersten Gruppe 101a von Bilddetektoren so eingestellt werden, dass kein Pixel dieser Gruppe unterbelichtet ist. Gemäß weiterer Ausführungsbeispiele kann der Bildsensor 100 auch ein festes Verhältnis zwischen den Belichtungszeiten der ersten Gruppe 101a von Bilddetektoren und der zweiten Gruppe 101b von Bilddetektoren aufweisen, oder eine dynamische Einstellung mit einer Begrenzung des Verhältnisses der Belichtungszeiten nach oben oder unten. Dies gilt analog für größere Überdeckungen. Zum anderen ist die gruppenspezifische Belichtungszeit vorteilhaft, wenn pro Gruppe 101a - lOld von Bilddetektoren, wie oben bereits erwähnt, ein gleichfarbiger Filter verwendet wird. Die Empfindlichkeit der Gruppen 101a - lOld variiert; dies ist abhängig von der Beleuchtung, der Absorption der Farbfiltermaterialien und der spektralen Empfindlichkeiten der Fotodioden. Mit der gruppenspezifischen Belichtungszeit (der unabhängigen Einstellbarkeit der Belichtungszeit und der verschiedenen Gruppen 101a - lOld von Bilddetektoren) können diese unterschiedlichen Empfindlichkeiten ausgeglichen werden.
Ein Vorteil davon ist eine bessere Rekonstruktion der Farbe. Die Farben im Bild werden natürlicher.
Fig. 3 zeigt beispielhaft eine Schaltung einer aktiven CMOS -Pixelzelle (sogenannte APS- Zelle, APS-Amplifier (Verstärker), Photodiode (Fotodiode), and Switches (Schalter), auch bezeichnet als Active Pixel Sensor - Sensor mit aktiven Pixelzellen), wie sie beispielsweise als Bilddetektor 105 bei einem Bildsensor 100 Verwendung finden kann. Gemäß weiteren Ausführungsbeispielen sind aber auch andere Realisierungen der Bilddetektoren 105 des Bildsensors 100, beispielsweise in Form von 4T-Zellen möglich.
Die in Fig. 3 gezeigte CMOS-Pixelzelle wird im Prinzip in drei Phasen ausgelesen (idealisiert, 3T-Pixel).
Die erste Phase ist eine Reset-Phase, in der ein Transistor Mrst mit Hilfe einer Leitung RST an seinem Gateanschluss eingeschaltet wird, was eine Fotodiode der Pixelzelle mit einer Resetspannung V ST verbindet. Noch vorhandene Ladung von der vorherigen Belichtung kann dann abfließen. RST bleibt eingeschaltet, bis die Spannung Vs an der Fotodiode auf VRST zurückgesetzt ist. Das Abschalten von RST startet die darauf folgende Belichtungsphase.
In dieser Belichtungsphase entstehen durch den Fotoeffekt Ladungsträger in der Fotodiode. Die Spannung Vs an der Fotodiode sinkt. Die Länge dieser Belichtungsphase entspricht der Belichtungszeit oder der Integrationszeit der Pixelzelle 105. Nach Ablauf der Belichtungs- und Integrationszeit folgt die Auslesephase, in der über einen Zeilenbus (Zeile-ROW) das Pixel adressiert wird: ein Transistor MSEL dessen Gateanschluss mit dem Zeilenbus verbunden ist, wird eingeschaltet und die Spannung Vs an der Fotodiode wird über einen Sourcefolger MSF, dessen Gateanschluss mit der Fotodiode verbunden ist, und der zwischen Versorgungsspannung und den Transistor MSEL geschaltet ist, auf einen Spaltenbus (Spalte-COL) gelegt. Dieser Spaltenbus ist typischerweise mit einem Analog-zu-Digital- Wandler (ADC) verbunden (je einer pro Spalte), der die Spannung in einen digitalen Wert umwandelt.
Fig. 4 zeigt diesen Zyklus anhand dreier Diagramme, wobei in dem oberen Diagramm die Resetspannung über die Zeit abgetragen ist, in dem mittleren Diagramm die Zeilenspannung über die Zeit abgetragen ist und in dem unteren Diagramm die Spannung Vs an der Fotodiode abgetragen ist.
Nach dem Auslesen der Fotodiode startet der Zyklus (mit dem nächsten Belichtungszyklus) erneut. Die Integrations- oder effektive Belichtungszeit ist die Zeit zwischen dem Abschalten von RST und dem Einschalten der Spannung an dem Zeilenbus.
Fig. 5 zeigt einen Bildsensor 500 gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung. Der Bildsensor 500 unterscheidet sich von dem in Fig. 1 gezeigten Bildsensor 100 dadurch, dass er beispielhaft sechs Gruppen 101a - lOlf von Bilddetektoren 105 aufweist und dass die Gruppen von Bilddetektoren 101a - lOlf detaillierter dargestellt sind. Jede der Gruppen 101a - lOlf weist eine wie in Fig. 3 gezeigte Pixelzelle 105, sowie eine Mehrzahl von Zeilenbussen 501 und eine Mehrzahl
von Spaltenbussen 503 auf. Ferner weist jede der Gruppen 101a - lOlf eine vertikale Abtastschaltung 505 (vertical scan circuit) auf, welche mit den Zeilenbussen 501 verbunden ist. Ferner weist jede der Gruppen 101a - lOlf eine Mehrzahl von Analog/Digital- Wandlern (A/D) und eine horizontale Abtastschaltung 507 (horizontal scan circuit) auf. Die Analog/Digital-Wandler sind dabei zwischen die Spaltenbusse 503 und die horizontalen Abtastschaltungen 507 geschaltet.
Wie in Fig. 5 gezeigt, verfügt bei dem Bildsensor 500 mit aufgeteiltem Bildfeld jede Gruppe 101a - lOlf über eigene COL-Busse (Spaltenbusse 503) und ROW-Busse (Zeilenbusse 501) sowie RST-Busse (welche parallel zu den Zeilenbussen 501 verlaufen, aber in Fig. 5 nicht eingezeichnet sind).
Bei konventionellen Bildsensoren mit aufgeteiltem Bildfeld werden diese Busse aus einem globalen Timing-Generator versorgt und somit werden alle Gruppen 101a - lOlf mit dem gleichen Timing und der gleichen Belichtungszeit betrieben. In diesem Fall ist die Integrationszeit für alle Pixelgruppen des Sensors gleich.
Aber bei Ausführungsbeispielen der Erfindung, wie beispielsweise bei dem in Fig. 5 gezeigten Bildsensor 500, kann jede Gruppe 101a - lOlf einen getrennten Timing- Generator (in der Belichtungszeiteinstelleinrichtung 103) aufweisen. Für jede Gruppe 101a
- 101 f kann so die Zeit zwischen dem Abschalten von RST und dem Messen der Spannung an der Fotodiode der einzelnen Pixelzellen 105 unabhängig von den anderen Gruppen 101a
- lOlf eingestellt werden. Auf diese Weise kann jede Gruppe über eine spezifische Integrationszeit verfügen.
Die einzelnen Gruppen 101a - lOlf von Bildsensoren können beispielsweise auf einem gemeinsamen Chip bzw. Substrat des Bildsensors angeordnet sein. Beispielsweise kann das Substrat für die verschiedenen Transistoren und Fotodioden der verschiedenen Gruppen 101a - 101f von Bilddetektoren für alle Gruppen 101a - lOlf von Bilddetektoren identisch sein.
Im Gegensatz zu dem in Fig. 5 gezeigten Bildsensor 500 gibt es bei marktgängigen (konventionellen) Bildsensoren genau eine RST-Leitung und eine ROW-Leitung pro Zeile. Die RST-Eingänge aller Pixel innerhalb einer Zeile sind miteinander verbunden. Einschalten von RST setzt alle Pixel dieser Zeile gleichzeitig zurück. Ebenso werden durch Einschalten der ROW-Leitung dieser Zeile alle Pixel dieser Zeile gleichzeitig gemessen. Üblich ist es, zunächst alle Zeilen eines Sensors der Reihe nach zurückzusetzen und sie
dann, nach Ablauf der Integrationszeit, der Reihe nach auszulesen Dieses Verfahren heißt 'Rolling Shutter'.
Da bei diesem Verfahren die Belichtungszeitpunkte der Zeilen gegeneinander verschoben sind und dies zu Bildartefakten führen kann, gibt es außerdem Sensoren, bei denen eine Ladungsspeicherung vorgesehen ist. Bei diesen Sensoren werden zunächst alle Pixel gleichzeitig zurückgesetzt (globales RST-Netz). Dann wird in allen Pixeln simultan die akkumulierte Ladung aus der Fotodiode transferiert; dazu verfügt jedes Pixel über eine weitere Kapazität. Schließlich werden wie oben die gespeicherten Ladungen Zeile für Zeile ausgelesen.
Bei beiden Verfahren ist die Integrationszeit prinzipbedingt für alle Pixel einer Zeile (Rolling Shutter - rollender Verschluss) oder des ganzen Sensors (Global Shutter - globaler Verschluss) gleich. In marktgängigen Sensoren ist die Belichtungszeit auch bei einem Rolling Shutter für alle Zeilen gleich.
Wie bereits oben beschrieben, können Bildsensoren gemäß Ausführungsbeispielen der vorliegenden Erfindung ihren Einsatz in Abbildungsvorrichtungen finden. Solche Abbildungsvorrichtungen können beispielsweise Kamerasysteme sein.
Die Fig. 6A und 6B zeigen zwei Abbildungsvorrichtungen 601, 603 gemäß Ausführungsbeispielen der vorliegenden Erfindung.
Die beiden Abbildungsvorrichtungen 601, 603 sind in ihrer Funktionalität ähnlich und unterscheiden sich lediglich dadurch, dass bei der in Fig. 6A gezeigten Abbildungsvorrichtung 601 sich Bildfelder 607a, 607b aneinander anschließen (und nicht überlappen), während sich bei der in Fig. 6B gezeigten Abbildungsvorrichtung 603 die Bildfelder 607a, 607b überlappen. Fig. 6A zeigt eine Schnittansicht der Abbildungsvorrichtung 601. Die Abbildungsvorrichtung 601 weist einen Bildsensor (beispielsweise den Bildsensor 100) auf. Ferner weist die Abbildungsvorrichtung 601 eine Mehrkanaloptik 605 auf, die ausgewählt ist, um in einem ersten (optischen) Kanal ein erstes Bildfeld 607a auf die erste Gruppe 101a von Bilddetektoren abzubilden und in einem zweiten (optischen) Kanal ein zweites Bildfeld 607b auf die zweite Gruppe 101b von Bilddetektoren abzubilden.
Der erste (optische) Kanal wird dabei beispielsweise durch eine Linse 609a oder ein Linsenfeld der Mehrkanaloptik 605 in Verbindung mit der ersten Gruppe 101a von
Bilddetektoren gebildet. Der erste (optische) Kanal ist daher der Weg, den einfallendes Licht, welches durch die erste Linse das erste Linsenfeld 609a hindurch fällt, in der Abbildungsvorrichtung 601 zurücklegt, um auf die Bilddetektoren 105 der ersten Gruppe 101a von Bilddetektoren zu treffen.
Der zweite (optische) Kanal wird durch eine zweite Linse oder ein zweites Linsenfeld 609b der Abbildungsvorrichtung 605 in Verbindung mit der zweiten Gruppe 101b von Bilddetektoren gebildet. Der zweite (optische) Kanal ist daher der Weg, den einfallendes Licht, welches durch die zweite Linse oder das zweite Linsenfeld 609a hindurch fällt, in der Abbildungsvorrichtung 601 zurücklegt, um auf die Bilddetektoren 105 der ersten Gruppe 101a von Bilddetektoren zu treffen.
Wie bereits erwähnt, überlappen sich bei der in Fig. 6A gezeigten Abbildungsvorrichtung 601 die Bildfelder 607a, 607b nicht, sondern schließen aneinander an.
Eine Blickrichtung des ersten Kanals ist daher verschieden (beispielsweise versetzt) zu einer Blickrichtung des zweiten Kanals. Es existiert daher kein Überlappbereich zwischen den Erfassungsbereichen der Kanäle Gemäß weiterer Ausführungsbeispiele kann der erste Kanal ein erstes Farbfilter 61 1a, beispielsweise zwischen der ersten Gruppe 101a von Bilddetektoren und der Mehrkanaloptik 605 aufweisen. Ferner kann der zweite Kanal ein zweites Farbfilter 611b, beispielsweise zwischen der zweiten Gruppe 101b von Bilddetektoren und der Mehrkanaloptik 605 aufweisen.
Das erste Farbfilter 61 1a kann dabei eine andere Farbe aufweisen als das zweite Farbfilter 611b.
Die Farbfilter 611a, 611b können beispielsweise verwendet werden, um Farbaufnahmen der Bildfelder 607a, 607b zu ermöglichen. Die gruppenspezifische Belichtungszeit bei den Gruppen 101a, 101b von Bilddetektoren ist bei Verwendung der Farbfilter 61 1a, 61 1b vorteilhaft, da in diesem Fall die Empfindlichkeit der Gruppen 101a, 101b variiert, sie ist abhängig von der Beleuchtung, der Absorption der Farbfiltermaterialien, und der spektralen Empfindlichkeiten der Fotodioden. Die unterschiedlichen Empfindlichkeiten können mit der gruppenspezifischen Belichtungszeit (der unabhängigen Einstellbarkeit der Belichtungszeiten der ersten Gruppe 101 a von Bilddetektoren und der zweiten Gruppe 101b von Bilddetektoren) ausgeglichen werden.
Gemäß weiterer Ausführungsbeispiele kann der Bildsensor 100 ausgebildet sein, um die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren in Abhängigkeit von einer Lichtfarbe in dem ersten Bildfeld 607a einzustellen und um die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren in Abhängigkeit von einer Lichtfarbe in dem zweiten Bildfeld 607b und unabhängig von der Lichtfarbe in dem ersten Bildfeld 607a einzustellen. Diese Einstellungen der Belichtungszeit in Abhängigkeit von der Lichtfarbe sorgt für einen automatischen Weißlichtabgleich und zum anderen kann ein lokaler Farbstich (in dem Bildfeld 607a und/oder dem Bildfeld 607b) ausgeglichen werden. Allgemein kann der Bildsensor 100 ausgebildet sein, um die Belichtungszeit der ersten Gruppe 101a von Bilddetektoren in Abhängigkeit von Lichtverhältnissen in dem ersten Bildfeld 607a einzustellen, und um die Belichtungszeit der zweiten Gruppe 101b von Bilddetektoren in Abhängigkeit von Lichtverhältnissen in dem zweiten Bildfeld 607b und unabhängig von den Lichtverhältnissen in dem ersten Bildfeld 607a einzustellen.
Fig. 6b zeigt eine Schnittansicht der Abbildungsvorrichtung 603, welche sich, wie im vorhergehenden bereits beschrieben, von der Abbildungsvorrichtung 601 nur dadurch unterscheidet, dass sich das erste Bildfeld 607a und das zweite Bildfeld 607b überlappen, das heißt, dass Objektzellen oder Objektpunkte einer Szene von einem Bilddetektor der ersten Gruppe 101a von Bilddetektor und einem Bilddetektor der zweiten Gruppe 101b von Bilddetektoren erfasst werden. Dies ermöglicht, dass jeder Punkt der Szene mit mehreren verschiedenen Belichtungszeiten gemessen werden kann. Beispielsweise so, dass, wie anhand von Fig. 2 bereits beschrieben, die Belichtungszeit der ersten Gruppe 611a von Bilddetektoren so eingestellt wird, dass kein Pixel dieser Gruppe unterbelichtet ist und die Belichtungszeit der zweiten Gruppe 611b von Bilddetektoren so eingestellt wird, dass kein Pixel dieser Gruppe überbelichtet ist.
Aus Figur 6b ist ersichtlich, dass sich die Bildfelder 607a, 607b nur teilweise überlappen. Das heißt, dass sich das erste Bildfeld 607a und das zweite Bildfeld 607b nicht vollständig überlappen. Eine Blickrichtung des ersten Kanals ist daher verschieden (beispielsweise versetzt) zu einer Blickrichtung des zweiten Kanals. Während bei dem in Fig. 6a gezeigten Ausführungsbeispiel kein Überlappbereich zwischen den Erfassungsbereichen der Kanäle der Abbildungsvorrichtung 601 existiert, so existiert bei dem in Fig. 6b gezeigten Ausführungsbeispiel solch ein Überlappbereich zwischen den Erfassungsbereichen der Kanäle der Abbildungsvorrichtung 603. Aus diesem Überlappbereich resultiert, dass sich die resultierenden Bildfelder 607a, 607b teilweise überlappen. Der Überlappbereich der Kanäle ist dabei so gewählt, dass er kleiner ist als die Erfassungsbereiche der Kanäle. Mit
anderen Worten ist der Überlappbereich so gewählt, dass sich die Erfassungsbereiche der Kanäle nicht vollständig (sondern nur teilweise) überlappen.
Die Nutzung von teilweise überlappenden Bildfeldern im Vergleich zu vollständig überlappenden Bildfeldern hat den Vorteil, dass eine deutlich geringere Anzahl von Bilddetektoren benötigt wird, da zumindest in den Bereichen in denen sich die Bildfelder 607a, 607b nicht überlappen Objektzellen nicht doppelt (also von Bilddetektoren der ersten Gruppe 101a und der zweiten Gruppe 101b) erfasst werden, sondern nur von einem Bilddetektor aus der ersten Gruppe 101a oder zweiten Gruppe 101b erfasst werden.
Ferner wurde erkannt, dass es auch gar nicht nötig ist zwei vollständig überlappende Bilder mit unterschiedlichen Belichtungszeiten aufzunehmen. Es ist vielmehr ausreichend die Belichtungszeiten für verschiedene Raumwinkelbereiche der Abbildungsvorrichtung 603 und damit für verschiedene Kanäle zu variieren. Es wurde erkannt, dass auch innerhalb eines Bildes die Helligkeit stark variieren kann (beispielsweise Himmel und Boden), so dass es vorteilhaft ist, wenn die Belichtungszeit für einen ersten Raumwinkelbereich (beispielsweise zur Erfassung des ersten Bildfeldes 607a) verschieden gewählt ist zu der Belichtungszeit für einen zweiten Raumwinkelbereich (beispielsweise zur Erfassung des zweiten Bildfeldes 607b). Ferner wurde auch erkannt, dass es nicht nötig ist für jeden einzelnen Bilddetektor oder Pixel die Belichtungszeit individuell einzustellen, da sich in einem Bild die Helligkeit typischerweise eher langsam ändert. Der Bildsensor wie er bei Ausführungsbeispielen der vorliegenden Erfindung verwendet wird ist daher ausgebildet, um die Belichtungszeiten der Gruppen 101a, 101b von Bilddetektoren individuell einzustellen und nicht von einzelnen Pixeln oder Bilddetektoren dieser Gruppen 101a, 101b. Durch das Einstellen der Belichtungszeiten der Gruppen 101a, 101b von Bilddetektoren im Gegensatz zur individuellen Einstellung der Belichtungszeiten von einzelnen Bilddetektoren oder Pixeln lässt sich ein deutlich geringerer Verdrahtungs- und Implementierungsaufwand erreichen. Gemäß einigen Ausführungsbeispielen kann solch eine Gruppe 101a, 101b von Bilddetektoren mindestens 3x3, 5x5 oder 10x10 Bilddetektoren aufweisen.
Ferner hat die Nutzung von teilweise überlappenden Bildfeldern im Vergleich zu gar nicht überlappenden Bildfeldern den Vorteil, dass Abtastlücken zwischen Rändern der Bildfelder vermieden werden können. So ermöglicht die Nutzung von teilweise überlappenden Bildfeldern eine Erfassung von Objektbereichen, welche bei nicht überlappenden Bildfeldern nicht erfasst werden können (weil sie sich zwischen nicht überlappenden Erfassungsbereichen benachbarter Kanäle befinden).
Zusammenfassend ermöglichen Ausführungsbeispiele der vorliegenden Erfindung einen Bildsensor mit aufgeteiltem Bildfeld (auch bezeichnet als Clusterimager), bei dem pro Gruppe jeweils eine Belichtungszeit verwendet wird. Bildsensoren gemäß Ausführungsbeispielen der vorliegenden Erfindung ermöglichen damit eine getrennte Belichtungszeitsteuerung mit den jeweiligen Decodern für die Gruppen von Bilddetektoren.
Mehrere Gruppen von Bilddetektoren oder sogenannten Detektormatrizen können dabei in einem Feld oder Array auf einem gemeinsamen Chip oder Substrat angeordnet sein.
Fig. 7 zeigt ein Flussdiagramm eines Verfahrens 700 für einen Bildsensor mit einer ersten Gruppe von Bilddetektoren und einer zweiten Gruppe von Bilddetektoren. Das Verfahren 700 umfasst einen Schritt 701 des Einstellens einer Belichtungszeit der ersten Gruppe von Bilddetektoren unabhängig von einer Belichtungszeit der zweiten Gruppe von Bilddetektoren.
Das Verfahren 700 kann beispielsweise mit einem Bildsensor gemäß einem Ausführungsbeispiel der vorliegenden Erfindung (beispielsweise mit den Bildsensoren 100 oder 500) durchgeführt werden.
Fig. 8a zeigt ein zusätzliches Beispiel für drei Kanäle 801a, 801b, 801c, wie sie bei einer Abbildungsvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung angeordnet sein können. Bei dem in Fig. 8a gezeigten Beispiel weisen die drei Kanäle 801a, 801b und 801c aneinander anschließende Bildfelder auf. Ein Objektpunkt des zu betrachtenden Objekts wird daher maximal von einem der drei Kanäle 801a, 801b, 801c erfasst und insbesondere nicht mehrfach erfasst. Ein resultierendes Gesamtbild lässt sich dann durch Aneinandersetzen der Einzelbilder der Kanäle 801a, 801b, 801c erreichen.
Ferner zeigt Fig. 8b ein Beispiel für drei Kanäle 803a, 803b, 803c mit überlappendem Bildfeld wie sie bei Ausführungsbeispielen der vorliegenden Erfindung Verwendung finden können. Aus Fig. 8b ist ersichtlich, dass ein Bildfeld des ersten Kanals 803a sich nicht mit einem Bildfeld des dritten Kanals 803c überlappt. Jedoch überlappt sich ein Bildfeld des zweiten Kanals 803b sowohl mit dem Bildfeld des ersten Kanals 803a als auch mit dem Bildfeld des dritten Kanals 803c. Zumindest die Objektbereiche B, C werden daher von zwei Kanälen gleichzeitig erfasst. So wird der Objektbereich B von dem ersten Kanal 803a und dem zweiten Kanal 803b erfasst und der Objektbereich C wird von dem zweiten Kanal 803b und dem dritten Kanal 803c erfasst.
Obwohl bei dem in Fig. 8b gezeigten Ausführungsbeispiel die Randkanäle 803a, 803c ein genauso großes Gesichtsfeld wie der zweite Kanal 803b aufweisen, so ist gemäß weiteren Ausführungsbeispielen auch möglich, dass diese Randkanäle 803a, 803b ein Gesichtsfeld mit anderer Größe (beispielsweise halb so groß wie das des zweiten Kanals 803b) aufweisen. In diesem Fall würden mit der in Fig. 8b gezeigten Abbildungsvorrichtung nur die Objektbereiche B und C betrachtet werden, wobei selbst dann nach wie vor eine teilweise Überlappung der Bildfelder benachbarter Kanäle vorliegt (das Bildfeld des zweiten Kanals 803b überlappt sich jeweils teilweise mit den Bildfeldern des ersten Kanals 803a und des dritten Kanals 803c).
Ferner ermöglicht die in Fig. 8b gezeigte teilweise Überlappung der Bildfelder der Kanäle 803a, 803b, 803c, dass Abtastlücken zwischen benachbarten Kanälen (wie beispielsweise zwischen dem ersten Kanal 803a und dem dritten Kanal 803c) von einem weiteren Kanal (in dem Fall von dem zweiten Kanal 803b) erfasst werden. Ein resultierendes Gesamtbild lässt sich dann durch ein überlappendes Anordnen der Einzelbilder der Kanäle 803a bis 803c erhalten.
Im Folgenden sollen noch zwei Anwendungsbeispiele für Ausführungsbeispiele der vorliegenden Erfindung gegeben werden.
Fig. 9a zeigt ein Bild einer natürlichen Szene mit einer großen Helligkeitsdynamik, als Beispiel eine Bergkette mit einem Ausschnitt des Himmels. Der Himmel ist einige Größenordnungen heller als die Bergkette (hat also eine erheblich größere Leuchtdichte). Wird die Szene mit einem konventionellen digitalen Bildsensor mit einheitlicher Belichtungszeit aufgezeichnet, so werden tendenziell Pixel, welche den Himmel aufnehmen, gesättigt, während Pixel, welche die Berge aufzeichnen, nur ein geringes Signal aufnehmen. Dadurch können Details verloren gehen, wie beispielsweise ein Haus in den Bergen.
Wie bereits beschrieben, kann gemäß Ausführungsbeispielen der vorliegenden Erfindung die Belichtungszeit für verschiedene Kanäle getrennt eingestellt werden. Ausführungsbeispiele der vorliegenden Erfindung ermöglichen daher eine verbesserte Aufnahme der in Fig. 9a gezeigten Szene.
Fig. 9b zeigt daher die Aufnahme der gleichen Szene wie in Fig. 9a, jedoch diesmal mit einer Abbildungsvomchtung gemäß einem Ausführungsbeispiel der vorliegenden
Erfindung, bei der die Belichtungszeiten zwischen verschiedenen Kanälen getrennt einstellbar sind. Bei der in Fig. 9b gezeigten Anordnung überlappen sich die Gesichtsfelder der einzelnen Kanäle nicht (jedes Quadrat stellt das Gesichtsfeld eines Kanals dar). Die Belichtungszeit jedes Kanals (oder jeder Gruppe von Bilddetektoren) kann nun automatisch so angepasst werden, dass innerhalb eines Kanals möglichst weder Sättigung noch ein geringes Signal auftritt. So wird bei dem in Fig. 9b gezeigten Beispiel ermöglicht, dass die Belichtungszeit für Kanäle, die hauptsächlich den Himmel erfassen, kürzer gewählt wird als für Kanäle, die die Berge erfassen. Dadurch wird ermöglicht, dass Details, welche noch in der Aufnahme von Fig. 9a nicht erkennbar waren, in der Aufnahme von Fig. 9b zu erkennen sind (wie beispielsweise das Haus vor den Bergen).
Insbesondere bei scharfen Kontrastübergängen (z.B. am Horizont) ist es dennoch möglich, dass Kanäle mit gesättigten Pixeln und/oder Pixel mit geringem Signal existieren.
Dieser Effekt kann einerseits dadurch vermieden oder reduziert werden, dass eine möglichst hohe Anzahl von einzelnen Kanälen verwendet wird oder andererseits kann man sich den Effekt zunutze machen, dass Kontrastsprünge durch Streueffekte in einem Objektiv verschmiert werden und dass daher eben doch eine endliche Anzahl an Kanälen ausreicht, um auch Szenen mit hohem Kontrast abzubilden.
Dazu soll anhand der Figuren 10a bis 10c ein weiteres Beispiel gegeben werden, das illustriert, wie Kontrastsprünge durch Streueffekten in einem Objektiv verschmiert werden und dass daher eine endliche Anzahl an Kanälen ausreicht, um auch Szenen mit hohem Kontrast abzubilden, ohne dass Pixel in die Sättigung gehen oder ein zu geringes Signal erhalten wird.
Fig. 10a zeigt eine Szene mit einem Fenster. Die in Fig. 10 a gezeigte Innenraumszene enthält Bereiche hoher Leuchtdichte (außen) und Bereiche niedriger Leuchtdichte (innen).
Fig. 10b zeigt wie das durch das Fenster kommende Licht in der Optik der Kamera gestreut wird, was dazu führt, dass der Kontrast am Fensterrahmen sinkt. Aus Fig. 10b wird daher ersichtlich, dass Kontrastsprünge durch Streueffekte in einem Kameraobjektiv verschmiert werden.
Fig. 10c zeigt eine Aufnahme der gleichen Szene wie in Fig. 10b mit einem Mehrkanalsystem gemäß einem Ausführungsbeispiel der vorliegenden Erfindung, bei dem die Belichtungszeit jedes Kanals unabhängig voneinander gesteuert werden kann. Obwohl einige Kanäle sowohl Fenster als auch Innenraum sehen, führt das Streulicht dazu, dass in diesen Kanälen keine Über- oder Unterbelichtung auftritt. Aus Fig. 10c wird daher ersichtlich, dass eine endliche Anzahl von Kanälen ausreicht, um auch Szenen mit hohem Kontrast abzubilden, da durch objektivbedingte Streueffekte hohe Kontrastsprünge vermieden werden.
Fig. 11 zeigt diesen Effekt in zwei Diagrammen, wobei in einem oberen Diagramm eine Kontrastkante ohne Streulicht dargestellt ist und in einem unteren Diagramm eine Kontrastkante mit Streulicht dargestellt ist. Auf der Ordinatenachse ist daher bei den Diagrammen die Helligkeit L eingetragen, während auf der Abszissenachse die Gesichtsfeldbreite x eingetragen ist. Die Gesichtsfeldbreite x ist aufgeteilt auf drei Kanäle A, B, C. Aus dem oberen Diagramm wird ersichtlich, dass in dem Kanal A eine hohe Helligkeit vorliegt, eine Belichtungszeit kann daher kurz gewählt werden. In dem Kanal C liegt eine niedrige Helligkeit vor, so dass eine Belichtungszeit lang gewählt werden kann. Im Gegensatz dazu existiert in dem Kanal B eine Kontrastkante mit einem schlagartigen Übergang von Hell zu Dunkel. Dies kann dazu führen, dass, wenn in dem Kanal B die Belichtungszeit zu lang gewählt wird, aufgrund der hellen Anteile die Pixel, die diese hellen Anteile erfassen, überbelichtet werden. Wird im Gegensatz dazu die Belichtungszeit zu kurz gewählt, so kann dies dazu führen, dass aufgrund der dunklen Anteile die Pixel, welche die dunklen Anteile erfassen, ein zu geringes Signal erhalten. Bei dem in dem oberen Diagramm gezeigten scharfen Kontrastübergang (wie er im Beispiel von Fig. 9a am Horizont vorliegt) kann es daher dennoch Kanäle mit gesättigten Pixeln und/oder Pixeln mit geringem Signal geben.
Das untere Diagramm in Fig. 11 zeigt dagegen eine Kontrastkante mit Streulicht, wie es bereits anhand von Figuren 10a bis 10c beschrieben wurde. Der Helligkeitsgradient dL/dx im Kanal B ist daher deutlich kleiner als in dem oberen Diagramm, so dass es vermieden werden kann, dass in dem Kanal B gesättigte Pixel und/oder Pixel mit geringem Signal vorliegen, da durch den Streueffekt der Kontrast in dem Kanal B gesenkt wird.
Mit anderen Worten reduziert die Verwaschung der Kontrastkante durch Streulicht den Kontrastumfang dL, den jeder einzelne der drei Kanäle A, B, C abbilden muss. Je größer die Streuung, desto geringer der maximale Kontrast innerhalb eines Kanals. Die Streuung
bestimmt daher den maximalen Helligkeitsgradienten dL/dx. Wenn ein Kanal beispielsweise einen bestimmten Maximalkontrast dLmax darstellen kann, so lässt sich dazu eine maximale Gesichtsfeldbreite xmax des Kanals bestimmen. Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Ein weiteres Ausführungsbeispiel des erfmdungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen. Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen
Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
Claims
Abbildungsvorrichtung (601, 603) mit folgenden Merkmalen: einem Bildsensor (100, 500) mit einer ersten Gruppe (101a) von Bilddetektoren (105) und einer zweiten Gruppe (101b) von Bilddetektoren (105), wobei eine Belichtungszeit der ersten Gruppe (101) von Bilddetektoren (105) unabhängig von einer Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) einstellbar ist, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so einzustellen, dass in einem Belichtungszyklus des Bildsensors (100, 500), zumindest für ein vorgegebenes Zeitintervall, sowohl die erste Gruppe (101a) von Bilddetektoren (105) als auch die zweite Gruppe (101b) von Bilddetektoren (105) zeitgleich belichtet werden; und einer Mehrkanaloptik (605) die ausgebildet ist, um in einem ersten Kanal ein erstes Bildfeld (607a) auf die erste Gruppe (101a) von Bilddetektoren (105) abzubilden und um in einem zweiten Kanal ein zweites Bildfeld (607b) auf die zweite Gruppe (101b) von Bilddetektoren (105) abzubilden, wobei das erste Bildfeld (607a) und das zweite Bildfeld (607b) aneinander anschließen oder sich teilweise überlappen und wobei der erste Kanal durch eine erste Linse (609a) oder ein erstes Linsenfeld in Verbindung mit der ersten Gruppe (101a) von Bilddetektoren (105) gebildet wird und der zweite Kanal durch eine zweite Linse (609b) oder ein zweites Linsenfeld in Verbindung mit der zweiten Gruppe (101b) von Bilddetektoren (105) gebildet wird.
Abbildungsvorrichtung (601, 603) gemäß Anspruch 1, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so einzustellen, dass in einem Belichtungszyklus des Bildsensors (100, 500) sowohl die erste Gruppe (101a) von Bilddetektoren (105) als auch die zweite Gruppe (101b) von Bilddetektoren (105) belichtet werden.
Abbildungsvorrichtung (601, 603) gemäß Anspruch 1 oder 2, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so einzustellen, dass das vorgegebene Zeitintervall, in dem sowohl die erste Gruppe (101a) von Bilddetektoren (105) als auch die zweite Gruppe (101b) von Bilddetektoren (105) zeitgleich belichtet werden, der kürzeren Belichtungszeit aus den Belichtungszeiten der ersten Gruppe (101a) von Bilddetektoren (105) und der zweiten Gruppe (101b) von Bilddetektoren (105) entspricht.
4. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche 1 bis 3, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so einzustellen, dass Mitten der Belichtungszeiten auf denselben Zeitpunkt fallen oder um maximal 10% von der kürzeren Belichtungszeit aus den Belichtungszeiten der ersten Gruppe (101a) von Bilddetektoren (105) und der zweiten Gruppe (101b) von Bilddetektoren (105) zeitlich zueinander verschoben sind.
5. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche 1 bis 4, wobei der Bildsensor (100, 500) ausgebildet ist, um ansprechend auf ein Auslösesignal, einen Belichtungszyklus des Bildsensors (100) durch Belichten der ersten Gruppe (101a) von Bilddetektoren (105) oder der zweiten Gruppe (101b) von Bilddetektoren (105) zu starten und um die Belichtung der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtung der zweiten Gruppe (101b) von Bilddetektoren (105) zeitversetzt zueinander zu starten.
6. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche 1 bis 5, wobei der Bildsensor (100, 500) ausgebildet ist, um für einen Belichtungszyklus des Bildsensors (100, 500) die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) und die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so einzustellen, dass in dem Belichtungszyklus kein Bilddetektor (105) der ersten Gruppe (101a) von Bilddetektoren (105) unterbelichtet wird und kein Bilddetektor (105) der zweiten Gruppe (101b) von Bilddetektoren (105) überbelichtet wird.
7. Bildsensor (100, 500) gemäß einem der Ansprüche 1 bis 6, wobei die erste Gruppe (101a) von Bilddetektoren (105) und die zweite Gruppe (101b) von Bilddetektoren (105) auf einem gemeinsamen Chip des Bildsensors (100, 500) angeordnet sind.
8. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche Ibis 7, wobei der erste Kanal ein erstes Farbfilter (611a) aufweist und der zweite Kanal ein zweites Farbfilter (61 1b) aufweist.
9. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche Ibis 8, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) in Abhängigkeit von einer Lichtfarbe in dem ersten Bildfeld (607a) einzustellen und um die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) in Abhängigkeit von einer Lichtfarbe in dem zweiten Bildfeld (607b) und unabhängig von der Lichtfarbe in dem ersten Bildfeld (607a) einzustellen.
10. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche Ibis 9, wobei der Bildsensor (100, 500) ausgebildet ist, um die Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) in Abhängigkeit von Lichtverhältnissen in dem ersten Bildfeld (607a) einzustellen und um die Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) in Abhängigkeit von Lichtverhältnissen in dem zweiten Bildfeld (607b) und unabhängig von den Lichtverhältnissen in dem ersten Bildfeld (607a) einzustellen.
1 1. Abbildungsvorrichtung (601, 603) gemäß einem der Ansprüche Ibis 10, wobei sich das erste Bildfeld (607a) und das zweite Bildfeld (607b) nicht vollständig überlappen.
12. Verfahren (700) für eine Abbildungsvorrichtung (601, 603) die einen Bildsensor (100, 500) mit einer ersten Gruppe (101a) von Bilddetektoren (105) und einer zweiten Gruppe (101b) von Bilddetektoren (105) umfasst, mit den folgenden Schritten:
Einstellen (701) einer Belichtungszeit der ersten Gruppe (101a) von Bilddetektoren (105) unabhängig von einer Belichtungszeit der zweiten Gruppe (101b) von Bilddetektoren (105) so, dass in einem Belichtungszyklus des Bildsensors (100, 500), zumindest für ein vorgegebenes Zeitintervall, sowohl die erste Gruppe (101a) von Bilddetektoren (105) als auch die zweite Gruppe (101b) von Bilddetektoren (105) zeitgleich belichtet werden; und
Abbilden eines ersten Bildfelds (607a) auf die erste Gruppe (101a) von Bilddetektoren (105) in einem ersten Kanal und eines zweiten Bildfelds (607b) auf die zweite Gruppe (101b) von Bilddetektoren (105) in einem zweiten Kanal, wobei das erste Bildfeld (607a) und das zweite Bildfeld (607b) aneinander anschließen oder sich teilweise überlappen.
Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 12, wenn das Programm auf einem Computer abläuft.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011081405.1 | 2011-08-23 | ||
DE102011081405.1A DE102011081405B4 (de) | 2011-08-23 | 2011-08-23 | Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013026824A1 true WO2013026824A1 (de) | 2013-02-28 |
Family
ID=46679273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2012/066185 WO2013026824A1 (de) | 2011-08-23 | 2012-08-20 | Bildsensor, abbildungsvorrichtung und verfahren für einen bildsensor |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102011081405B4 (de) |
WO (1) | WO2013026824A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10771668B2 (en) | 2016-01-13 | 2020-09-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Multi-aperture imaging device, imaging system and method for capturing an object area |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013017365B4 (de) | 2012-10-19 | 2023-01-26 | Cognex Corporation | System und verfahren zum bestimmen und einstellen von kameraparametern mittels multi-gainbildern |
DE102013209240A1 (de) * | 2013-05-17 | 2014-11-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Bildverflechtung ohne Speicherpuffer |
DE102014220322B4 (de) * | 2014-10-07 | 2020-02-13 | Conti Temic Microelectronic Gmbh | Bilderfassungsvorrichtung und Verfahren zum Erfassen eines optischen Bildes |
US11750948B2 (en) | 2020-11-30 | 2023-09-05 | Stmicroelectronics (Grenoble 2) Sas | Image sensors with different charge-to-voltage conversion factors and methods thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070257184A1 (en) * | 2005-08-25 | 2007-11-08 | Olsen Richard I | Large dynamic range cameras |
US20080043114A1 (en) * | 2006-08-21 | 2008-02-21 | Samsung Electro-Mechanics Co., Ltd. | Image display apparatus and method of supporting high quality image |
US20090091645A1 (en) * | 2007-10-03 | 2009-04-09 | Nokia Corporation | Multi-exposure pattern for enhancing dynamic range of images |
US7639941B2 (en) * | 2003-10-21 | 2009-12-29 | Atmel Grenoble | Compact photographing device |
US20110080487A1 (en) * | 2008-05-20 | 2011-04-07 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2538651B1 (fr) * | 1982-12-23 | 1986-08-22 | Thomson Csf | Procede de modulation de la sensibilite d'un dispositif photosensible a transfert de ligne et dispositif mettant en oeuvre ce procede |
FR2580133B1 (de) * | 1985-04-05 | 1988-06-24 | Thomson Csf | |
IL87306A0 (en) * | 1988-08-02 | 1989-01-31 | Technion Res & Dev Foundation | Wide dynamic range camera |
EP0431010A4 (en) * | 1988-08-02 | 1992-12-09 | Sorex Corporation | Wide dynamic range image sensor |
US5247366A (en) * | 1989-08-02 | 1993-09-21 | I Sight Ltd. | Color wide dynamic range camera |
GB2370958B (en) * | 1998-02-02 | 2002-10-09 | William Stephen George Mann | Means and apparatus for acquiring, processing and combining multiple exposures of the same scene or objects to different illuminations |
JP3458741B2 (ja) * | 1998-12-21 | 2003-10-20 | ソニー株式会社 | 撮像方法及び撮像装置、画像処理方法及び画像処理装置 |
DE10064184C1 (de) * | 2000-12-22 | 2002-04-04 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zur Bilderzeugung unter Verwendung mehrerer Belichtungszeiten |
US7489352B2 (en) * | 2002-11-15 | 2009-02-10 | Micron Technology, Inc. | Wide dynamic range pinned photodiode active pixel sensor (APS) |
US7911518B2 (en) * | 2005-02-01 | 2011-03-22 | Samsung Electronics Co., Ltd. | Variable exposure for color image sensor |
US8605177B2 (en) * | 2009-09-16 | 2013-12-10 | Altasens, Inc. | Image sensor with wide dynamic range |
-
2011
- 2011-08-23 DE DE102011081405.1A patent/DE102011081405B4/de active Active
-
2012
- 2012-08-20 WO PCT/EP2012/066185 patent/WO2013026824A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7639941B2 (en) * | 2003-10-21 | 2009-12-29 | Atmel Grenoble | Compact photographing device |
US20070257184A1 (en) * | 2005-08-25 | 2007-11-08 | Olsen Richard I | Large dynamic range cameras |
US20080043114A1 (en) * | 2006-08-21 | 2008-02-21 | Samsung Electro-Mechanics Co., Ltd. | Image display apparatus and method of supporting high quality image |
US20090091645A1 (en) * | 2007-10-03 | 2009-04-09 | Nokia Corporation | Multi-exposure pattern for enhancing dynamic range of images |
US20110080487A1 (en) * | 2008-05-20 | 2011-04-07 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
Non-Patent Citations (3)
Title |
---|
B. FOWLER: "High dynamic range image sensor architectures, SPIE Electronic Imaging 2011, Digital Photography VII", PROCEEDINGS, vol. 7876 |
G. WETZSTEIN; I. IHRKE; D. LANMAN; W. HEIDRICH: "State of the Art in Computational Plenoptic Imaging", EUROGRAPHICS, 2011 |
J. MEYER ET AL.: "Ultra-compact imaging system based on multi-aperture architecture", PROCEEDINGS OF THE SPIE - MOEMS AND MINIATURIZED SYSTEMS X, vol. 7930, 24 January 2011 (2011-01-24) - 26 January 2011 (2011-01-26), pages 79300C-1 - 79300C-7, XP002685288, DOI: doi: 10.1117/12.873520 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10771668B2 (en) | 2016-01-13 | 2020-09-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Multi-aperture imaging device, imaging system and method for capturing an object area |
Also Published As
Publication number | Publication date |
---|---|
DE102011081405A1 (de) | 2013-02-28 |
DE102011081405B4 (de) | 2016-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0878091B1 (de) | Farbbildsensor für kurzzeitbelichtung | |
DE102007026337B4 (de) | Digitale Kamera | |
DE102012216021B4 (de) | Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld | |
DE69720758T2 (de) | Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation | |
DE3530778C2 (de) | Endoskop mit einer festkoerper-bildaufnahmevorrichtung | |
DE3687877T2 (de) | Kamera und verfahren zur bilderzeugung. | |
DE102007030985B4 (de) | Bildsensor, Verfahren zum Betreiben eines Bildsensors und Computerprogramm | |
DE4329839A1 (de) | Abbildungseinrichtung mit zwei Bildsensoren | |
EP2567539B1 (de) | Bildsensor und verfahren zum aufnehmen eines bildes | |
WO2013026824A1 (de) | Bildsensor, abbildungsvorrichtung und verfahren für einen bildsensor | |
DE10338681A1 (de) | Digitalkamera | |
WO2013026825A1 (de) | Abbildungsvorrichtung und verfahren für eine abbildungsvorrichtung | |
DE102012021736B4 (de) | Bildsensor für sichtbares und infrarotes Licht und Kamerasystem | |
EP3007430B1 (de) | Kamerasystem und Verfahren zur Inspektion und/oder Vermessung von Objekten | |
DE4331965A1 (de) | Verfahren und Vorrichtung zur Erhöhung der Graustufenauflösung | |
DE19702837C1 (de) | Digitale Farbkamera für die elektronische Fotografie | |
EP3137863B1 (de) | Sensoranordnung zum erfassen ortsaufgelöster photometrischer daten | |
DE102014218243A1 (de) | Tdi-hochgeschwindigkeits-zeilensensor | |
DE112017002190T5 (de) | Abbildungssystem mit zwei sensoren | |
DE102006031757A1 (de) | Verfahren zur automatischen Korrektur von Bildfehlern in Video-Assist-Bildern eines Video-Assist-Systems | |
EP2195610B1 (de) | Vefahren und vorrichtung zum erfassen einer oberfläche oder eines oberflächenabschnitts eines körpers | |
DE102018117129B3 (de) | Kamera sowie Verfahren zur Steuerung einer Kamera | |
DE102006013810A1 (de) | Verfahren und Vorrichtung zur Bestimmung von Farbinformationen eines Objektabbildes mit Hilfe eines CCD-Bildsensors im TDI-Betriebsmodus | |
DE10037785C1 (de) | Vorrichtung und Verfahren zum digitalen Erfassen einer Vorlage | |
DE102010002599B4 (de) | Sensorvorrichtung und Verfahren zum Erfassen von lokalen Intensitätsgradienten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12747929 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12747929 Country of ref document: EP Kind code of ref document: A1 |