DE102016117151B4 - Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system - Google Patents
Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system Download PDFInfo
- Publication number
- DE102016117151B4 DE102016117151B4 DE102016117151.4A DE102016117151A DE102016117151B4 DE 102016117151 B4 DE102016117151 B4 DE 102016117151B4 DE 102016117151 A DE102016117151 A DE 102016117151A DE 102016117151 B4 DE102016117151 B4 DE 102016117151B4
- Authority
- DE
- Germany
- Prior art keywords
- pixels
- exposure
- panchromatic
- chromatic
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000005286 illumination Methods 0.000 claims abstract description 18
- 239000003086 colorant Substances 0.000 claims abstract description 7
- 230000035945 sensitivity Effects 0.000 claims description 36
- 230000003595 spectral effect Effects 0.000 claims description 34
- 238000002834 transmittance Methods 0.000 claims description 11
- 230000023077 detection of light stimulus Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 11
- 230000009977 dual effect Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 229910052721 tungsten Inorganic materials 0.000 description 1
- 239000010937 tungsten Substances 0.000 description 1
- -1 tungsten halogen Chemical class 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Human Computer Interaction (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Verfahren (900), umfassend:das Bestimmen (930) einer ersten Belichtung für verschiedene chromatische Pixel, die Licht unterschiedlicher Farbe erfassen;das Erfassen (940) einer Beleuchtungsart der Szene;das Ermitteln (950) eines Belichtungsverhältnisses zwischen den chromatischen Pixeln und panchromatischen Pixeln basierend auf der Beleuchtungsart der Szene;das Bestimmen (960) einer zweiten Belichtung für die panchromatischen Pixel, die panchromatisches Licht erfassen, wobei sich basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln die erste Belichtung von der zweiten Belichtung unterscheidet; unddie Aufnahme (970) von mindestens einem Bild der Szene unter Verwendung der ersten Belichtung für die verschiedenen chromatischen Pixel und der zweiten Belichtung für die panchromatischen Pixel.A method (900) comprising: determining (930) a first exposure for different chromatic pixels that detect light of different colors; detecting (940) an illumination type of the scene; determining (950) an exposure ratio between the chromatic pixels and panchromatic pixels based on the illumination type of the scene; determining (960) a second exposure for the panchromatic pixels detecting panchromatic light, the first exposure being different from the second exposure based on the exposure ratio between the chromatic pixels and the panchromatic pixels; and capturing (970) at least one image of the scene using the first exposure for the different chromatic pixels and the second exposure for the panchromatic pixels.
Description
HINTERGRUNDBACKGROUND
Gebietarea
Vorliegende Erfindung betrifft einen automatischen Belichtungs-Algorithmus in Bildgebungsvorrichtungen wie beispielsweise Digitalkameras. Insbesondere betrifft die Erfindung ein Verfahren und eine Vorrichtung zum Synchronisieren der automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem.The present invention relates to an automatic exposure algorithm in imaging devices such as digital cameras. In particular, the invention relates to a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system.
Einleitungintroduction
Die
Für Fotos von Freunden, Familie, Kindern, für Urlaubsfotos und für Aufnahmen von Blumen und Landschaften und anderen Szenen werden sehr gerne Digitalkameras benutzt. Zum Verbessern der Bildqualität arbeiten manche Kameras inzwischen mit panchromatischen Pixeln wie farblosen Pixeln (clear Pixeln) zusammen mit chromatischen Pixeln wie Rot, Grün und Blau (RGB-Pixel). Bei Einfach- oder Mehrfachkamerasystemen ist die Spektralempfindlichkeit von chromatischen Pixeln geringer als jene von panchromatischen Pixeln. Das bedeutet, dass das bei gleicher Belichtungszeit empfangene Licht zwischen chromatischen Pixeln und panchromatischen Pixeln ohne Einstellung der Belichtung der verschiedenen Arten von Pixeln differiert. Nachteiligerweise führt eine solche Differenz bei der Belichtung zu unterbelichteten chromatischen Pixeln und/oder zu überbelichteten panchromatischen Pixeln. Wenn beispielsweise die Belichtung einer Szene für die chromatischen Pixel eingestellt wird, werden die panchromatischen Pixel überbelichtet, und wenn eine Belichtung einer Szene für die panchromatischen Pixel eingestellt wird, werden die chromatischen Pixel unterbelichtet.Digital cameras are very popular for taking photos of friends, family, children, for vacation photos and for taking pictures of flowers and landscapes and other scenes. To improve the image quality, some cameras now work with panchromatic pixels such as colorless pixels (clear pixels) together with chromatic pixels such as red, green and blue (RGB pixels). In single or multiple camera systems, the spectral sensitivity of chromatic pixels is less than that of panchromatic pixels. This means that the light received at the same exposure time differs between chromatic pixels and panchromatic pixels without adjusting the exposure of the different types of pixels. Disadvantageously, such a difference in exposure leads to underexposed chromatic pixels and / or overexposed panchromatic pixels. For example, when the exposure of a scene is adjusted for the chromatic pixels, the panchromatic pixels are overexposed, and when an exposure of a scene is adjusted for the panchromatic pixels, the chromatic pixels are underexposed.
Man benötigt daher ein Verfahren und eine Vorrichtung zum Synchronisieren der automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem.What is needed, therefore, is a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system.
Hierzu werden das Verfahren und die Vorrichtung gemäß den unabhängigen Ansprüchen vorgeschlagen. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.For this purpose, the method and the device are proposed according to the independent claims. Advantageous embodiments of the invention are the subject of the dependent claims.
FigurenlisteFigure list
Anhand bestimmter Ausführungsformen, die in den anliegenden Zeichnungen dargestellt sind, wird in der nachstehenden Beschreibung erläutert, auf welche Weise die Vorteile und Merkmale der vorliegenden Erfindung erzielt werden. In den Zeichnungen sind lediglich beispielhafte, den Schutzumfang der vorliegenden Erfindung nicht einschränkende Ausführungsformen gezeigt.
-
1 ist eine Beispieldarstellung eines Systems gemäß einer möglichen Ausführungsform; -
2 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einer Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform; -
3 zeigt ein Beispieldiagramm einer Spektralempfindlichkeit einer Beleuchtungsart wie beispielsweise Sonnenlicht, gemäß einer möglichen Ausführungsform; -
4 zeigt ein Beispieldiagramm einer Spektralempfindlichkeit eines roten, grünen, blauen und eines farblosen Pixel gemäß einer möglichen Ausführungsform; -
5 zeigt ein Beispieldiagramm einer Durchlässigkeitskurve eines IR-Sperrfilters gemäß einer möglichen Ausführungsform; -
6 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einem Dual-Kamerasystem mit einer ersten Kameraeinheit und einer zweiten Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform; -
7 zeigt ein Beispieldiagramm von Spektralempfindlichkeiten von Leuchtdioden-(LED)-Blitzlichtern an fünf Telefonen gemäß einer möglichen Ausführungsform; -
8 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einer 2x2-Array-Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform; -
9 ist ein Beispiel-Flussdiagramm zur Darstellung des Betriebs einer Kameravorrichtung gemäß einer möglichen Ausführungsform; und -
10 zeigt ein Beispiel-Blockdiagramm einer Vorrichtung gemäß einer möglichen Ausführungsform.
-
1 Figure 3 is an example representation of a system according to one possible embodiment; -
2 Figure 3 is an example representation of a simulation model for light received at a camera unit, according to a possible embodiment; -
3 FIG. 11 shows an example diagram of a spectral sensitivity of a type of illumination such as sunlight, for example, according to a possible embodiment; FIG. -
4th shows an example diagram of a spectral sensitivity of a red, green, blue and a colorless pixel according to a possible embodiment; -
5 FIG. 10 shows an example diagram of a transmission curve of an IR cut filter according to a possible embodiment; FIG. -
6th is an example representation of a simulation model for light that is received on a dual camera system with a first camera unit and a second camera unit, according to a possible embodiment; -
7th Figure 3 shows an example diagram of spectral sensitivities of light emitting diode (LED) flashes on five telephones according to one possible embodiment; -
8th Figure 3 is an example illustration of a simulation model for light received at a 2x2 array camera unit, according to one possible embodiment; -
9 Figure 13 is an example flow chart illustrating the operation of a camera device in accordance with one possible embodiment; and -
10 shows an example block diagram of a device according to a possible embodiment.
DETAILBESCHREIBUNGDETAILED DESCRIPTION
Durch Ausführungsformen der vorliegenden Erfindung werden ein Verfahren und eine Vorrichtung zum Synchronisieren einer automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem bereitgestellt. Gemäß einer möglichen Ausführungsform kann eine erste Belichtung für verschiende chromatische Pixel bestimmt werden, die Licht unterschiedlicher Farbe erfassen. Es kann eine Beleuchtungsart einer Szene erfasst werden. Ein Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln kann auf der Basis der Belichtungsart der Szene ermittelt werden. Eine zweite Belichtung kann für die panchromatischen Pixel bestimmt werden, die das panchromatische Licht erfassen. Basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln in Bezug auf eine Belichtungsart einer Szene kann sich die erste Belichtung von der zweiten Belichtung unterscheiden. Es kann dann zumindest ein Bild von der Szene aufgenommen werden, indem die erste Belichtung für die verschiedenen chromatischen Pixel und die zweite Belichtung für die panchromatischen Pixel gleichzeitig verwendet werden.Embodiments of the present invention provide a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system. According to one possible embodiment, a first exposure can be determined for different chromatic pixels that detect light of different colors. A type of lighting of a scene can be recorded. An exposure ratio between the chromatic pixels and the panchromatic pixels can be determined based on the type of exposure of the scene. A second exposure can be determined for the panchromatic pixels that capture the panchromatic light. Based on the exposure ratio between the chromatic pixels and the panchromatic pixels with respect to an exposure type of a scene, the first exposure may differ from the second exposure. At least one image of the scene can then be recorded by using the first exposure for the different chromatic pixels and the second exposure for the panchromatic pixels at the same time.
Ausführungsformen können eine Belichtung zwischen panchromatischen Pixeln und chromatischen Pixeln synchronisieren. Zum Beispiel können Ausführungsformen einen Belichtungs-Synchronisationsalgorithmus zwischen panchromatischen Pixeln und chromatischen Pixeln anwenden, um eine Überbelichtung von panchromatischen Pixeln und/oder eine Unterbelichtung von chromatischen Pixeln zu vermeiden. Solche Ausführungsformen können mit einem modernen Sensor arbeiten, zum Beispiel mit einem komplementären Metalloxid-Halbleiter-Sensor (CMOS-Sensor), der an zwei Gruppen von Pixeln desselben Sensors zwei unterschiedliche Belichtungszeiten einstellen kann.Embodiments can synchronize exposure between panchromatic pixels and chromatic pixels. For example, embodiments may employ an exposure synchronization algorithm between panchromatic pixels and chromatic pixels to avoid overexposure of panchromatic pixels and / or underexposure of chromatic pixels. Such embodiments can work with a modern sensor, for example with a complementary metal oxide semiconductor sensor (CMOS sensor), which can set two different exposure times on two groups of pixels of the same sensor.
Im Betrieb kann für die verschiedenen chromatischen Pixel
Gemäß einer möglichen Ausführungsform kann empfangenes Licht im Hinblick auf verschiedene Beleuchtungsarten gemessen werden. Zum Beispiel kann ein automatischer Weißabgleich-(AWB)-Algorithmus in der Steuereinheit
Das Belichtungsverhältnis kann verschiedenen Strategien folgend verwendet werden. Gemäß einer Strategie kann sowohl an den panchromatischen Pixeln als auch an den chromatischen Pixeln die gleiche Sensorverstärkung eingestellt werden. Dann können die Belichtungszeit der chromatischen Pixel und die Belichtungszeit der panchromatischen Pixel dem Belichtungsverhältnis genügen. Im Allgemeinen kann die Belichtungszeit von chromatischen Pixeln länger sein als die Belichtungszeit von panchromatischen Pixeln. Gemäß einer weiteren Strategie kann sowohl an den panchromatischen Pixeln als auch an den chromatischen Pixeln die gleiche Belichtungszeit eingestellt werden. Dann können die Sensorverstärkung der chromatischen Pixel und die Sensorverstärkung der panchromatischen Pixel dem Belichtungsverhältnis genügen. Im Allgemeinen kann die Sensorverstärkung von chromatischen Pixeln höher sein als die Sensorverstärkung von panchromatischen Pixeln. Andere Strategien können das Erfassen der Belichtung basierend auf der Blendengröße und auf anderen die Belichtung beeinflussenden Faktoren umfassen.The exposure ratio can be used following various strategies. According to one strategy, the same sensor gain can be set on both the panchromatic pixels and the chromatic pixels. Then the exposure time of the chromatic pixels and the exposure time of the panchromatic pixels can satisfy the exposure ratio. In general, the exposure time of chromatic pixels can be longer than the exposure time of panchromatic pixels. According to a further strategy, the same exposure time can be set both on the panchromatic pixels and on the chromatic pixels. Then the sensor gain of the chromatic pixels and the sensor gain of the panchromatic pixels can satisfy the exposure ratio. In general, the sensor gain of chromatic pixels can be higher than the sensor gain of panchromatic pixels. Other strategies may include sensing exposure based on aperture size and other factors affecting exposure.
Dieselbe Vorstellung kann auf ein Mehrfachkamerasystem mit verschiedenen Blenden ausgedehnt werden. Das empfangene Licht je Kamera kann hinsichtlich ihrer Pixelarten und ihrer Blende (F-Zahl) je Beleuchtungsart berechnet werden. Danach kann ein Belichtungsverhältnis generiert werden, um die Belichtung der panchromatischen Pixel anhand der chromatischen Pixel oder umgekehrt der chromatischen Pixel anhand der panchromatischen Pixel zu bestimmen.The same notion can be extended to a multiple camera system with different apertures. The received light per camera can be calculated with regard to its pixel types and its aperture (F-number) for each type of lighting. An exposure ratio can then be generated in order to determine the exposure of the panchromatic pixels on the basis of the chromatic pixels or, conversely, of the chromatic pixels on the basis of the panchromatic pixels.
Bei diesem speziellen RGBC-Sensor
Zum Berechnen des Lichts, das an den panchromatischen wie beispielsweise den farblosen Pixeln (clear Pixeln) empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear basierend auf der Formel
Es kann dann das an den panchromatischen Pixeln (C) empfangene Licht, Light_clear, ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert wird:
Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können anhand der Formel
Danach kann das an den chromatischen Pixeln (RGB) empfangene Licht Light_rgb ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird und die Ergebnisse addiert werden:
Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn zum Beispiel die Sensorverstärkung für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
Wenn die Belichtungszeit (exposure time) für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
Um dieses duale Kamerasystem allgemeiner zu gestalten, können die beiden Kameraeinheiten
Bei diesem dualen Kamerasystem kann der Prozentsatz von (R, Gr, Gb, B, C) Pixeln für zwei Vollbilder (ein Bayer-Bild und ein Klarbild) die folgenden Gewichtungszahlen aufweisen:
Zum Berechnen des Lichts, das an den panchromatischen, z.B. farblosen, Pixeln empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear anhand der Formel
Das an den panchromatischen Pixeln (C), empfangene Licht Light_clear kann ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert und der Einheitspixelbereich Unit_Pixel_Area_clear durch die Blende (F-Zahl F#_clear) im Quadrat geteilt wird:
Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können erste chromatische Signale S1_R, S1_Gr, S1_Gb und S1_B für jede Art von chromatischen Pixeln anhand der Formel
Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_Gr kann der summierte Bereich der Produkt-Kurve des Gr-Kanals (grüne Pixel teilten sich dieselbe Reihe mit roten Pixeln) bezogen auf die Wellenlänge sein. S1_Gb kann der summierte Bereich der Produkt-Kurve des Gb-Kanals (grüne Pixel teilten sich dieselbe Reihe mit den blauen Pixeln) bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produkt-Kurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_Gr can be the summed area of the product curve of the Gr channel (green pixels shared the same row with red pixels) related to the wavelength. S1_Gb can be the summed area of the product curve of the Gb channel (green pixels shared the same row with the blue pixels) related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.
Danach lässt sich das Licht, das an den chromatischen Pixeln (RGB) Light_rgb empfangen wird, bestimmen, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird, die Ergebnisse addiert werden und das Ergebnis mit Unit_Pixel_Area_rgb geteilt durch die Blende (F-Zahl F#_egb) im Quadrat multipliziert wird.
Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn die Sensorverstärkung für beide Gruppen von Pixeln zum Beispiel gleich eingestellt wird, gilt:
Wenn die Belichtungszeit für beide Gruppen von Pixeln beispielsweise gleich eingestellt wird, gilt:
Zusammengefasst kann die erste Kameraeinheit
Bei diesem dualen Kamerasystem kann der Prozentsatz von (R, Gr, Gb, B, C) Pixeln für zwei Vollbilder (ein Bayer-Bild und ein Klarbild) die folgenden Gewichtungszahlen aufweisen:
Zum Berechnen des Lichts, das an den panchromatischen Pixeln wie beispielsweise farblosen Pixeln empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear anhand der Formel
Für jeden Datenpunkt bei gleicher Wellenlänge kann ein Produkt von Spektralempfindlichkeiten des Farblos-Kanals und des Leuchtmittels und der Durchlässigkeit (%) des IR-Sperrfilters berechnet werden. S1_Clear kann dann der summierte Bereich dieser Produkt-Kurve bezogen auf die Wellenlänge sein. For each data point at the same wavelength, a product of the spectral sensitivities of the colorless channel and the illuminant and the transmittance (%) of the IR cut filter can be calculated. S1_Clear can then be the summed area of this product curve related to the wavelength.
Danach kann das an den panchromatischen Pixeln (C) empfangene Licht, Light_clear, ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc und Unit_Pixel_Area_clear multipliziert wird:
Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können erste chromatische Signale S1_R, S1_Gr, S1_Gb und S1_B für jede Art von chromatischen Pixeln anhand der Formel
Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_Gr kann der summierte Bereich der Produkt-Kurve des Gr-Kanals (grüne Pixel teilten sich eine Reihe mit roten Pixeln) bezogen auf die Wellenlänge sein. S1_Gb kann der summierte Bereich der Produkt-Kurve des Gb-Kanals (grüne Pixel teilten sich eine Reihe mit blauen Pixeln) bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produkt-Kurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_Gr can be the summed area of the product curve of the Gr channel (green pixels shared a row with red pixels) related to the wavelength. S1_Gb can be the summed area of the product curve of the Gb channel (green pixels shared a row with blue pixels) related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.
Dann kann das Licht, das an den chromatischen Pixeln (RGB) Light_rgb empfangen wird, ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird, die Ergebnisse addiert werden und das Ergebnis mit Unit_Pixel_Area_rgb multipliziert wird:
Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn die Sensorverstärkung zum Beispiel für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
Wenn die Belichtungszeit für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
In einem Dual CCT LED Blitzmodus kann die Spektralempfindlichkeit eines dualen LED-Leuchtmittels mit dem Szenen-Leuchtmittel zusammen mit dem dualen LED-Leuchtmittel variieren. Deshalb kann das Belichtungsverhältnis pro Szene variieren. Wenn ein Dual CCT LED Blitzlicht gewählt wird, können Spektralempfindlichkeiten an verschiedenen CCTs gemessen werden, und das Belichtungsverhältnis pro CCT kann in einer Lookup-Tabelle (LUT) gespeichert werden.In a dual CCT LED flash mode, the spectral sensitivity of a dual LED light source can vary with the scene light source together with the dual LED light source. Therefore the exposure ratio can vary per scene. If a dual CCT LED flashlight is selected, spectral sensitivities can be measured on different CCTs and the exposure ratio per CCT can be stored in a look-up table (LUT).
Bei der kombinierten Komponente aus Sensor und RGBC-Filtern
Zum Berechnen des Lichts, das an den panchromatischen Pixeln wie beispielsweise den farblosen Pixeln empfangen wird, kann anhand der Formel
Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt der Spektralempfindlichkeit eines Farblos-Kanals, der Spektralempfindlichkeit eines Leuchtmittels und der Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_Clear kann dann der summierte Bereich dieser Produkt-Kurve bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivity of a colorless channel, the spectral sensitivity of a light source and the transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_Clear can then be the summed area of this product curve related to the wavelength.
Danach kann das an den panchromatischen Pixeln (C) empfangene Licht Light_clear bestimmt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert wird:
Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können anhand der Formel
Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_G kann der summierte Bereich der Produkt-Kurve des Grün-Kanals bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produktkurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_G can be the summed area of the product curve of the green channel related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.
Das an den chromatischen Pixeln (RGB) empfangene Licht Light_rgb kann anschließend ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird und die Ergebnisse addiert werden:
Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn zum Beispiel die Sensorverstärkung für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
Wenn die Belichtungszeit für beide Gruppen von Pixeln gleich eingestellt wird, gilt:
Es gibt Varianten des 4-Farben-Filter-Kamerasystems, das in dem Simulationsmodell
Gemäß einer möglichen Ausführungsform kann für die Implementierung an einem Kameraprodukt eine LUT erstellt werden. Nachdem zum Beispiel Kameramodul-Spezifikationen bestimmt wurden, kennt man die Spektralempfindlichkeit von Sensorkanälen wie beispielsweise R, G, B, Farblos/panchromatisch und eine Durchlässigkeitskurve des IR-Sperrfilters. Die Spektralempfindlichkeiten von verschiedenen Beleuchtungsarten können durch einen Computersimulator generiert werden. Anschließend kann eine LUT-Tabelle gegenüber dem Beleuchtungstyp für jedes Kamerasystem erstellt und in dem Speicher gespeichert werden. Eine LUT-Tabelle kann zum Beispiel in folgender Form vorgesehen sein:
Tabelle 1: LUT für Belichtungsverhältnis gegenüber Beleuchtungsart
Die in der vorstehenden Tabelle angegebenen Beleuchtungsarten können ungefähre Beleuchtungsarten sein, die abhängig von dem Modell der Beleuchtungsart variieren können. Die Belichtungsverhältnisses (a, b, c, d, e und f) sind als Variablen angegeben, wobei die tatsächlichen Werte entsprechend den vorliegend beschriebenen Ausführungsformen ermittelt werden. Die Tabelle kann auch mehr oder weniger Varianten von CCT/Beleuchtungsarten und entsprechenden Belichtungsverhältnissen enthalten. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle der chromatischen Pixel verwendet werden, um für jede Szene die optimale Belichtung zu finden, kann diese Belichtungsverhältnis-Tabelle derart erstellt werden, dass die Belichtung für die panchromatischen Pixel basierend auf der bekannten Belichtung von chromatischen Pixeln gefunden wird. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle verwendet werden, um für jede Szene die optimale Belichtung zu finden, kann diese Belichtungsverhältnis-Tabelle derart erstellt werden, dass die Belichtung für die chromatischen Pixel basierend auf der bekannten Belichtung von panchromatischen Pixeln gefunden wird. Alternativ kann ein Kamerasystem die Belichtungsverhältnisse spontan in Echtzeit generieren.The types of lighting given in the table above may be approximate types of lighting that may vary depending on the lighting type model. The exposure ratios (a, b, c, d, e and f) are given as variables, and the actual values are determined according to the embodiments described herein. The table can also contain more or fewer variants of CCT / lighting types and corresponding lighting conditions. If the automatic exposure algorithm and the chromatic pixel exposure table are used to find the optimal exposure for each scene, this exposure ratio table can be used can be established such that the exposure for the panchromatic pixels is found based on the known exposure of chromatic pixels. When the automatic exposure algorithm and exposure table are used to find the optimal exposure for each scene, this exposure ratio table can be constructed so that the exposure for the chromatic pixels is found based on the known exposure of panchromatic pixels. Alternatively, a camera system can spontaneously generate the exposure conditions in real time.
Während der Echtzeitverarbeitung in einem Kamerasystem muss man lediglich warten, bis der automatische Belichtungs-Algorithmus an einer Gruppe von Pixeln (chromatisch oder panchromatisch) konvergiert. Wenn der automatische Belichtungs-Algorithmus pro Einzelaufnahme zum Beispiel zuerst an den chromatischen Pixeln konvergiert, können die Belichtungszeit und die Sensorverstärkung von chromatischen Pixeln durch die Belichtungstabelle und/oder den automatischen Belichtungs-Algorithmus von chromatischen Pixeln eingestellt werden. Die Belichtungszeit und die Sensorverstärkung von panchromatischen Pixeln können durch das Belichtungsverhältnis bei der Belichtungsart der Szene (durch einen automatischen Weißabgleichalgorithmus bestimmt) gemäß LUT eingestellt werden. Wie vorstehend erwähnt wurde, lässt sich das Belichtungsverhältnis auch in Echtzeit bestimmen.During real-time processing in a camera system, one only has to wait until the automatic exposure algorithm converges on a group of pixels (chromatic or panchromatic). For example, if the automatic exposure algorithm per single shot converges on the chromatic pixels first, the exposure time and the sensor gain of chromatic pixels can be set by the exposure table and / or the automatic exposure algorithm of chromatic pixels. The exposure time and the sensor gain of panchromatic pixels can be set by the exposure ratio for the type of exposure of the scene (determined by an automatic white balance algorithm) according to the LUT. As mentioned above, the exposure ratio can also be determined in real time.
Bei Pos. 950 kann basierend auf der Beleuchtungsart für die Szene ein Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln ermittelt werden. Das Belichtungsverhältnis lässt sich durch Berechnung, durch Abruf aus einer Tabelle oder auf andere Weise ermitteln. Das Ermittlungsverhältnis kann auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Außerdem kann das Belichtungsverhältnis auf einem Verhältnis zwischen gewichtetem empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Die Gewichtung kann auf einem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basieren. Ferner kann das empfangene Licht von Pixeln auf einem summierten Bereich einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, auf einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und auf der Durchlässigkeit eines Infrarot Cut Off Filters basieren.At 950, based on the type of lighting for the scene, an exposure ratio between chromatic pixels and panchromatic pixels can be determined. The exposure ratio can be determined by calculation, by retrieving it from a table or in some other way. The determination ratio can be based on a ratio between the received light of the various chromatic pixels and the received light of the panchromatic pixels for a given type of illumination. In addition, the exposure ratio can be based on a ratio between weighted received light of the various chromatic pixels and a weighted received light of the panchromatic pixels for a given type of illumination. The weighting can be based on a percentage of the number of pixels of each color of the chromatic pixels used for the image and a percentage of the number of panchromatic pixels. Furthermore, the received light from pixels can be based on a summed area of a product curve of a spectral sensitivity of a color channel of pixels, on a spectral sensitivity of a given type of illumination and on the transmission of an infrared cut-off filter.
Bei Pos. 960 kann eine zweite Belichtung für panchromatische Pixel bestimmt werden, die panchromatisches Licht erfassen. Basierend auf dem Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann sich die erste Belichtung von der zweiten Belichtung unterscheiden. Gemäß einer möglichen Implementierung kann die erste Belichtung eine höhere Belichtung für die verschiedenen chromatischen Pixel vorsehen als für die panchromatischen Pixel. Zum Beispiel kann die erste Belichtung eine längere Belichtungszeit für die verschiedenen chromatischen Pixel, eine höhere Sensorempfindlichkeit für die verschiedenen chromatischen Pixel, eine größere Blende für die verschiedenen chromatischen Pixel oder anderweitig eine höhere Belichtung für die verschiedenen chromatischen Pixel als die zweite Belichtung für die panchromatischen Pixel vorsehen, basierend auf dem Belichtungsverhältnis und wechselseitig für die erste Belichtung in Bezug auf die zweite Belichtung. Die erste Belichtung kann vor der zweiten Belichtung bestimmt werden, und das Belichtungsverhältnis kann verwendet werden, um die zweite Belichtung basierend auf der ersten Belichtung zu bestimmen. Alternativ kann die zweite Belichtung vor der ersten Belichtung bestimmt werden, und das Belichtungsverhältnis kann verwendet werden, um die erste Belichtung basierend auf der zweiten Belichtung zu bestimmen.At 960, a second exposure can be determined for panchromatic pixels that capture panchromatic light. Based on the exposure ratio between chromatic pixels and panchromatic pixels, the first exposure may be different from the second exposure. According to one possible implementation, the first exposure can provide a higher exposure for the various chromatic pixels than for the panchromatic pixels. For example, the first exposure may have a longer exposure time for the different chromatic pixels, a higher sensor sensitivity for the different chromatic pixels, a larger aperture for the different chromatic pixels, or otherwise a higher exposure for the different chromatic pixels than the second exposure for the panchromatic pixels provide based on the exposure ratio and reciprocally for the first exposure with respect to the second exposure. The first exposure can be determined prior to the second exposure and the exposure ratio can be used to determine the second exposure based on the first exposure. Alternatively, the second exposure can be determined prior to the first exposure and the exposure ratio can be used to determine the first exposure based on the second exposure.
Gemäß einer möglichen Ausführungsform kann bei der Bestimmung der Belichtung für die Pixel die gleiche Sensorverstärkung für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel eingestellt werden. Danach können die Belichtungszeit der chromatischen Pixel basierend auf der ersten Belichtung und die Belichtungszeit der panchromatischen Pixel basierend auf der zweiten Belichtung oder wechselseitig die erste Belichtung basierend auf der zweiten Belichtung eingestellt werden. Gemäß einer weiteren Implementierung kann bei der Bestimmung der Belichtung für die Pixel die gleiche Belichtungszeit für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel eingestellt werden. Die Sensorverstärkung der chromatischen Pixel lässt sich dann basierend auf der ersten Belichtung und die Sensorverstärkung der panchromatischen Pixel basierend auf der zweiten Belichtung oder wechselseitig die erste Belichtung basierend auf der zweiten Belichtung einstellen. Bei anderen möglichen Implementierungen können verschiedene Kombinationen von Sensorverstärkung, Belichtungszeit, Blendengröße und anderen Faktoren zum Einstellen der Belichtung der chromatischen Pixel und der panchromatischen Pixel verwendet werden.According to one possible embodiment, when determining the exposure for the pixels, the same sensor gain can be set for the different chromatic pixels as for the panchromatic pixels. Thereafter, the exposure time of the chromatic pixels based on the first exposure and the exposure time of the panchromatic pixels based on the second exposure or the first exposure can be alternately set based on the second exposure. According to a further implementation, when determining the exposure for the pixels, the same exposure time can be set for the various chromatic pixels as for the panchromatic pixels. The sensor gain of the chromatic pixels can then be adjusted based on the first exposure and the sensor gain of the panchromatic pixels can be adjusted based on the second exposure or alternately the first exposure can be adjusted based on the second exposure. In other possible implementations, various combinations of sensor gain, exposure time, aperture size, and other factors can be used to adjust the exposure of the chromatic pixels and the panchromatic pixels.
Bei Pos. 970 kann zumindest ein Bild einer Szene erfasst werden, wobei die erste Belichtung für die verschiedenen chromatischen Pixel und die zweite Belichtung für die panchromatischen Pixel verwendet wird. Gemäß einer möglichen Implementierung können sich die verschiedenen chromatischen Pixel und die panchromatischen Pixel auf demselben Sensor oder in derselben Kamera befinden. Gemäß einer weiteren Implementierung können sich die verschiedenen chromatischen Pixel in einer anderen Kamera oder auf einem anderen Sensor als die panchromatischen Pixel befinden und sogar in anderen Kameras oder auf anderen Sensoren als andere chromatische Pixel. Zum Beispiel können die verschiedenen chromatischen Pixel solche auf einem ersten Sensor in einer ersten Kamera und die panchromatischen Pixel solche auf einem zweiten Sensor in einer zweiten Kamera sein. Die Erfassung von wenigstens einem Bild kann dann die Erfassung eines ersten Bildes unter Verwendung der verschiedenen chromatischen Pixel auf dem ersten Sensor in der ersten Kamera mit der ersten Belichtung und die Erfassung eines zweiten Bildes unter Verwendung der panchromatischen Pixel auf dem zweiten Sensor in der zweiten Kamera oder umgekehrt umfassen. Das erste und das zweite Bild können anschließend zu dem wenigstens einen Bild zusammengesetzt werden.At 970, at least one image of a scene can be captured, the first exposure being used for the various chromatic pixels and the second exposure being used for the panchromatic pixels. According to one possible implementation, the different chromatic pixels and the panchromatic pixels can be on the same sensor or in the same camera. According to another implementation, the different chromatic pixels may be in a different camera or on a different sensor than the panchromatic pixels and even in different cameras or on different sensors than different chromatic pixels. For example, the various chromatic pixels may be those on a first sensor in a first camera and the panchromatic pixels may be those on a second sensor in a second camera. The acquisition of at least one image can then include the acquisition of a first image using the different chromatic pixels on the first sensor in the first camera with the first exposure and the acquisition of a second image using the panchromatic pixels on the second sensor in the second camera or vice versa. The first and the second image can then be combined to form the at least one image.
Bei Pos. 980 kann ein Ausgabebild generiert werden. Zum Beispiel kann ein Bildsignalprozessor (ISP) die chromatischen und panchromatischen Pixel verarbeiten, um ein Ausgabebild zu generieren. Bei Pos. 990 kann das Bild ausgegeben werden. Die Bildausgabe kann über einen Sendeempfänger beispielsweise an ein Display, an einen Speicher, an einen Drucker oder an ein anderes Gerät und/oder anderweitig erfolgen. Bei Pos. 995 kann der Ablauf in dem Flussdiagramm
Es versteht sich, dass ungeachtet der in den Figuren dargestellten bestimmten Schritte abhängig von der Ausführungsform eine Vielfalt von zusätzlichen oder anderen Schritten durchgeführt werden kann und dass ein oder mehrere der bestimmten Schritte abhängig von der Ausführungsform umgeordnet, wiederholt werden oder ganz entfallen können. Ebenso können durchgeführte Schritte laufend oder kontinuierlich wiederholt werden, während andere Schritte gleichzeitig in Durchführung sind. Ferner können verschiedene Schritte durch verschiedene Elemente oder in einem einzigen Element der beschriebenen Ausführungsformen durchgeführt werden.It goes without saying that regardless of the specific steps depicted in the figures, depending on the embodiment, a variety of additional or different steps can be performed and that one or more of the specific steps can be rearranged, repeated or omitted entirely, depending on the embodiment. Steps that have been carried out can also be repeated continuously or continuously while other steps are being carried out at the same time. Furthermore, different steps can be performed by different elements or in a single element of the described embodiments.
Das Display
In der Vorrichtung
Im Betriebszustand kann der Sensor
Die Steuereinheit
Das Belichtungsverhältnis kann auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Das Belichtungsverhältnis kann ferner auf einem Verhältnis zwischen dem gewichteten empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Die Gewichtung kann auf dem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basieren. Das empfangene Licht von Pixeln kann auf dem summierten Bereich einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, auf einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und auf einer Durchlässigkeit eines Infrarot-Sperrfilters basieren. Gemäß einer möglichen Implementierung kann die Steuereinheit
Die mindestens eine Kamera
Das vorliegende Verfahren kann auf einem programmierten Prozessor durchgeführt werden. Die Steuerungen, die Flussdiagramme und Module können jedoch auch auf einem Universalcomputer oder einem Spezialcomputer, einem programmierten Mikroprozessor oder Mikroprozessor und an integrierten Peripherie-Schaltungselementen, an einer integrierten Schaltung, einer elektronischen Hardware- oder Logikschaltung wie ein diskretes Schaltungselement, einem programmierbaren Logikbaustein oder dergleichen implementiert werden. Generell kann jede Vorrichtung, in der sich ein endlicher Automat befindet, der die in den Figuren dargestellten Flussdiagramme implementieren kann, verwendet werden, um die Prozessorfunktionen der vorliegenden Beschreibung zu implementieren. The present method can be performed on a programmed processor. The controls, flowcharts and modules can, however, also be used on a general-purpose or special purpose computer, a programmed microprocessor or microprocessor and on integrated peripheral circuit elements, on an integrated circuit, an electronic hardware or logic circuit such as a discrete circuit element, a programmable logic module or the like implemented. In general, any device that contains a finite state machine that can implement the flowcharts shown in the figures can be used to implement the processor functions of the present description.
Vorstehend wurden bestimmte Ausführungsformen beschrieben. Der Fachmann wird jedoch erkennen, dass zahlreiche Alternativen, Modifikationen und Varianten möglich sind. Es können zum Beispiel in den anderen Ausführungsformen verschiedene Komponenten der Ausführungsformen getauscht, hinzugefügt oder substituiert werden. Ebenso sind nicht alle Elemente, die in einer jeweiligen Figur gezeigt sind, für den Betrieb der beschriebenen Ausführungsform notwendig. Zum Beispiel wäre der Durchschnittsfachmann in der Lage durch die einfache Verwendung der Elemente der unabhängigen Ansprüche die Lehren der Erfindung zu erstellen und zu nutzen. Dementsprechend sind die vorstehenden Ausführungsformen der Erfindung lediglich illustrativ und nicht beschränkend. Verschiedene Änderungen sind möglich, ohne den Erfindungsgedanken zu verlassen.Certain embodiments have been described above. However, those skilled in the art will recognize that numerous alternatives, modifications, and variations are possible. For example, various components of the embodiments can be exchanged, added, or substituted in the other embodiments. Likewise, not all of the elements shown in a respective figure are necessary for the operation of the embodiment described. For example, one of ordinary skill in the art would be able to make and utilize the teachings of the invention simply by using the elements of the independent claims. Accordingly, the foregoing embodiments of the invention are illustrative in nature and not restrictive. Various changes are possible without departing from the inventive concept.
In der vorliegenden Beschreibung wurden die Begriffe „erst/e/r/s“, „zweit/e/r/s“ und dergleichen lediglich verwendet, um eine Einheit oder eine Aktion von einer weiteren Einheit oder weiteren Aktion zu unterscheiden, auch wenn eine solche Beziehung oder Ordnung zwischen den Einheiten oder Aktionen nicht tatsächlich vorliegt oder notwendig ist. Der Ausdruck „ein/e/r/s von“, gefolgt von einer Aufzählung, bedeutet, dass von den Elementen in der Aufzählung eines, einige oder alle, aber nicht notwendigerweise alle vorhanden sind. Die Begriffe „umfasst“, „umfassend“ oder andere Formen derselben sollen zum Ausdruck bringen, dass ein Prozess, ein Verfahren, ein Gegenstand oder ein Gerät, in dem das aufgelistete Elemente umfasst ist, nicht ausschließlich diese Elemente umfasst, sondern auch andere oder weitere Elemente umfassen kann, die nicht ausdrücklich aufgelistet sind. Ist von „einem“ Element die Rede, bedeutet das nicht, dass in dem Prozess, dem Verfahren, dem Gegenstand oder dem Gerät, der/das dieses Element umfasst, nicht auch weitere identische Elemente vorhanden sind. Ebenso bedeutet der Begriffe „ein weiterer bzw. eine weitere oder ein weiteres“, mindestens ein zweites oder mehr Elemente. Die in der Beschreibung verwendeten Begriffe „enthaltend“, „aufweisend“ haben die Bedeutung von „umfassend“. Ferner beruhen die Ausführungen in dem Abschnitt „Hintergrund“ auf eigenen Erkenntnissen des Erfinders betreffend den Kontext einiger Ausführungsformen zum Anmeldezeitpunkt und auf der Erkennung von Problemen bei bestehenden Technologien und/oder Problemen oder Schwierigkeiten im Rahmen der eigenen Arbeit des Erfinders.In the present description, the terms “first”, “second” and the like were only used to distinguish a unit or an action from a further unit or further action, even if a such relationship or order between units or actions does not actually exist or is necessary. The term “a of” followed by a list means that there are one, some, or all, but not necessarily all, of the items in the list. The terms “comprises”, “comprising” or other forms of the same are intended to express that a process, a method, an object or a device in which the listed element is included does not exclusively include these elements, but also other or further elements May include items not specifically listed. If “an” element is mentioned, this does not mean that the process, method, object or device that comprises this element does not also contain other identical elements. Likewise, the term “a further or a further or a further” means at least one second or more elements. The terms “containing” and “having” used in the description have the meaning of “comprising”. Furthermore, the explanations in the “Background” section are based on the inventor's own findings regarding the context of some embodiments at the time of filing and on the recognition of problems with existing technologies and / or problems or difficulties in the context of the inventor's own work.
Claims (22)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/860,778 US9866764B2 (en) | 2014-11-21 | 2015-09-22 | Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system |
US14/860,778 | 2015-09-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016117151A1 DE102016117151A1 (en) | 2017-03-23 |
DE102016117151B4 true DE102016117151B4 (en) | 2021-09-23 |
Family
ID=57140078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016117151.4A Active DE102016117151B4 (en) | 2015-09-22 | 2016-09-13 | Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102016117151B4 (en) |
GB (1) | GB2544851B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3817375A4 (en) * | 2019-09-09 | 2021-08-11 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image sensor, camera module, mobile terminal, and image capturing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2677732A2 (en) | 2012-06-22 | 2013-12-25 | Nokia Corporation | Method, apparatus and computer program product for capturing video content |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8264576B2 (en) * | 2007-03-05 | 2012-09-11 | DigitalOptics Corporation Europe Limited | RGBW sensor array |
JP5011814B2 (en) * | 2006-05-15 | 2012-08-29 | ソニー株式会社 | Imaging apparatus, image processing method, and computer program |
US8045024B2 (en) * | 2009-04-15 | 2011-10-25 | Omnivision Technologies, Inc. | Producing full-color image with reduced motion blur |
US8514322B2 (en) * | 2010-06-16 | 2013-08-20 | Aptina Imaging Corporation | Systems and methods for adaptive control and dynamic range extension of image sensors |
JP5442571B2 (en) * | 2010-09-27 | 2014-03-12 | パナソニック株式会社 | Solid-state imaging device and imaging device |
DE102010041569B4 (en) * | 2010-09-28 | 2017-04-06 | Leica Geosystems Ag | Digital camera system, color filter element for digital camera system, method for determining deviations between the cameras of a digital camera system and image processing unit for digital camera system |
WO2014032259A1 (en) * | 2012-08-30 | 2014-03-06 | Motorola Mobility Llc | A system for controlling a plurality of cameras in a device |
-
2016
- 2016-09-06 GB GB1615105.2A patent/GB2544851B/en active Active
- 2016-09-13 DE DE102016117151.4A patent/DE102016117151B4/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2677732A2 (en) | 2012-06-22 | 2013-12-25 | Nokia Corporation | Method, apparatus and computer program product for capturing video content |
Also Published As
Publication number | Publication date |
---|---|
GB201615105D0 (en) | 2016-10-19 |
GB2544851A (en) | 2017-05-31 |
GB2544851B (en) | 2019-04-17 |
DE102016117151A1 (en) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015121747A1 (en) | Multi-camera device and synchronized automatic white balance method | |
DE102016105753B4 (en) | Method and device for determining lens shading correction for a multiple camera device with different fields of view | |
CN107534735B (en) | Image processing method, device and the terminal of terminal | |
US9866764B2 (en) | Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system | |
DE112009005418B4 (en) | Image processing device | |
DE102016121426B4 (en) | Method and device for interpolating pixel colors from color and panchromatic channels to color channels | |
CN105049736B (en) | Multiple-exposure image system and elimination scrolling shutter flickering method | |
US20150062347A1 (en) | Image processing methods for visible and infrared imaging | |
US20140078247A1 (en) | Image adjuster and image adjusting method and program | |
DE102018119625A1 (en) | Reduction of structured IR patterns in stereoscopic depth sensor imaging | |
DE102016115292A1 (en) | Method and apparatus for automatic exposure value acquisition for high dynamic range imaging | |
CN107534759B (en) | Image pickup apparatus, image pickup method, and computer-readable medium | |
DE112012004641T5 (en) | Vehicle vision system with color correction | |
DE102004007649A1 (en) | System and method for analyzing a digital image | |
DE112013005599B4 (en) | image pickup device | |
DE102015006984A1 (en) | Image pickup device with white balance control and control method for this | |
CN101273624A (en) | Compensating for improperly exposed areas in digital images | |
DE102016117584A1 (en) | Video imaging system | |
EP2367360A2 (en) | Method for correcting color errors in images from digital color cameras | |
CN106331662A (en) | Image acquisition device and image acquisition method | |
DE102014211039B4 (en) | Imaging device, image processing device and associated control method | |
DE112016000067T5 (en) | Image processing means | |
DE102016117151B4 (en) | Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system | |
DE112013005142T5 (en) | Image pickup device and associated focus control method | |
WO2021179142A1 (en) | Image processing method and related apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H04N0005235000 Ipc: H04N0023700000 |