DE102016117151B4 - Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system - Google Patents

Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system Download PDF

Info

Publication number
DE102016117151B4
DE102016117151B4 DE102016117151.4A DE102016117151A DE102016117151B4 DE 102016117151 B4 DE102016117151 B4 DE 102016117151B4 DE 102016117151 A DE102016117151 A DE 102016117151A DE 102016117151 B4 DE102016117151 B4 DE 102016117151B4
Authority
DE
Germany
Prior art keywords
pixels
exposure
panchromatic
chromatic
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016117151.4A
Other languages
German (de)
Other versions
DE102016117151A1 (en
Inventor
By-Her W. Richards
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/860,778 external-priority patent/US9866764B2/en
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102016117151A1 publication Critical patent/DE102016117151A1/en
Application granted granted Critical
Publication of DE102016117151B4 publication Critical patent/DE102016117151B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

Verfahren (900), umfassend:das Bestimmen (930) einer ersten Belichtung für verschiedene chromatische Pixel, die Licht unterschiedlicher Farbe erfassen;das Erfassen (940) einer Beleuchtungsart der Szene;das Ermitteln (950) eines Belichtungsverhältnisses zwischen den chromatischen Pixeln und panchromatischen Pixeln basierend auf der Beleuchtungsart der Szene;das Bestimmen (960) einer zweiten Belichtung für die panchromatischen Pixel, die panchromatisches Licht erfassen, wobei sich basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln die erste Belichtung von der zweiten Belichtung unterscheidet; unddie Aufnahme (970) von mindestens einem Bild der Szene unter Verwendung der ersten Belichtung für die verschiedenen chromatischen Pixel und der zweiten Belichtung für die panchromatischen Pixel.A method (900) comprising: determining (930) a first exposure for different chromatic pixels that detect light of different colors; detecting (940) an illumination type of the scene; determining (950) an exposure ratio between the chromatic pixels and panchromatic pixels based on the illumination type of the scene; determining (960) a second exposure for the panchromatic pixels detecting panchromatic light, the first exposure being different from the second exposure based on the exposure ratio between the chromatic pixels and the panchromatic pixels; and capturing (970) at least one image of the scene using the first exposure for the different chromatic pixels and the second exposure for the panchromatic pixels.

Description

HINTERGRUNDBACKGROUND

Gebietarea

Vorliegende Erfindung betrifft einen automatischen Belichtungs-Algorithmus in Bildgebungsvorrichtungen wie beispielsweise Digitalkameras. Insbesondere betrifft die Erfindung ein Verfahren und eine Vorrichtung zum Synchronisieren der automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem.The present invention relates to an automatic exposure algorithm in imaging devices such as digital cameras. In particular, the invention relates to a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system.

Einleitungintroduction

Die EP 2 677 732 A2 beschreibt ein Verfahren, eine Vorrichtung und ein Computerprogrammprodukt zur Aufnahme von Videos unter Verwendung eines Farbbildsensors und eines panchromatischen Sensors. Ein erster Satz von Frames wird durch den Farbbildsensor aufgenommen und ein zweiter Satz von Frames wird durch den panchromatischen Sensor aufgenommen. Da panchromatische Sensoren empfindlicher auf Licht sind als chromatische Sensoren können mit dem panchromatischen Sensor in einer gleichen Belichtungszeit mehr Frames aufgenommen werden als mit dem chromatischen Sensor. Somit ist die Anzahl der Frames in dem zweiten Satz größer als die Frames in dem ersten Satz. Es wird weiter beschrieben, wie die Frames ausgerichtet werden können.the EP 2 677 732 A2 describes a method, an apparatus and a computer program product for recording videos using a color image sensor and a panchromatic sensor. A first set of frames is captured by the color image sensor and a second set of frames is captured by the panchromatic sensor. Since panchromatic sensors are more sensitive to light than chromatic sensors, more frames can be recorded with the panchromatic sensor in the same exposure time than with the chromatic sensor. Thus, the number of frames in the second set is greater than the frames in the first set. It is further described how the frames can be aligned.

Für Fotos von Freunden, Familie, Kindern, für Urlaubsfotos und für Aufnahmen von Blumen und Landschaften und anderen Szenen werden sehr gerne Digitalkameras benutzt. Zum Verbessern der Bildqualität arbeiten manche Kameras inzwischen mit panchromatischen Pixeln wie farblosen Pixeln (clear Pixeln) zusammen mit chromatischen Pixeln wie Rot, Grün und Blau (RGB-Pixel). Bei Einfach- oder Mehrfachkamerasystemen ist die Spektralempfindlichkeit von chromatischen Pixeln geringer als jene von panchromatischen Pixeln. Das bedeutet, dass das bei gleicher Belichtungszeit empfangene Licht zwischen chromatischen Pixeln und panchromatischen Pixeln ohne Einstellung der Belichtung der verschiedenen Arten von Pixeln differiert. Nachteiligerweise führt eine solche Differenz bei der Belichtung zu unterbelichteten chromatischen Pixeln und/oder zu überbelichteten panchromatischen Pixeln. Wenn beispielsweise die Belichtung einer Szene für die chromatischen Pixel eingestellt wird, werden die panchromatischen Pixel überbelichtet, und wenn eine Belichtung einer Szene für die panchromatischen Pixel eingestellt wird, werden die chromatischen Pixel unterbelichtet.Digital cameras are very popular for taking photos of friends, family, children, for vacation photos and for taking pictures of flowers and landscapes and other scenes. To improve the image quality, some cameras now work with panchromatic pixels such as colorless pixels (clear pixels) together with chromatic pixels such as red, green and blue (RGB pixels). In single or multiple camera systems, the spectral sensitivity of chromatic pixels is less than that of panchromatic pixels. This means that the light received at the same exposure time differs between chromatic pixels and panchromatic pixels without adjusting the exposure of the different types of pixels. Disadvantageously, such a difference in exposure leads to underexposed chromatic pixels and / or overexposed panchromatic pixels. For example, when the exposure of a scene is adjusted for the chromatic pixels, the panchromatic pixels are overexposed, and when an exposure of a scene is adjusted for the panchromatic pixels, the chromatic pixels are underexposed.

Man benötigt daher ein Verfahren und eine Vorrichtung zum Synchronisieren der automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem.What is needed, therefore, is a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system.

Hierzu werden das Verfahren und die Vorrichtung gemäß den unabhängigen Ansprüchen vorgeschlagen. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.For this purpose, the method and the device are proposed according to the independent claims. Advantageous embodiments of the invention are the subject of the dependent claims.

FigurenlisteFigure list

Anhand bestimmter Ausführungsformen, die in den anliegenden Zeichnungen dargestellt sind, wird in der nachstehenden Beschreibung erläutert, auf welche Weise die Vorteile und Merkmale der vorliegenden Erfindung erzielt werden. In den Zeichnungen sind lediglich beispielhafte, den Schutzumfang der vorliegenden Erfindung nicht einschränkende Ausführungsformen gezeigt.

  • 1 ist eine Beispieldarstellung eines Systems gemäß einer möglichen Ausführungsform;
  • 2 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einer Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform;
  • 3 zeigt ein Beispieldiagramm einer Spektralempfindlichkeit einer Beleuchtungsart wie beispielsweise Sonnenlicht, gemäß einer möglichen Ausführungsform;
  • 4 zeigt ein Beispieldiagramm einer Spektralempfindlichkeit eines roten, grünen, blauen und eines farblosen Pixel gemäß einer möglichen Ausführungsform;
  • 5 zeigt ein Beispieldiagramm einer Durchlässigkeitskurve eines IR-Sperrfilters gemäß einer möglichen Ausführungsform;
  • 6 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einem Dual-Kamerasystem mit einer ersten Kameraeinheit und einer zweiten Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform;
  • 7 zeigt ein Beispieldiagramm von Spektralempfindlichkeiten von Leuchtdioden-(LED)-Blitzlichtern an fünf Telefonen gemäß einer möglichen Ausführungsform;
  • 8 ist eine Beispieldarstellung eines Simulationsmodells für Licht, das an einer 2x2-Array-Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform;
  • 9 ist ein Beispiel-Flussdiagramm zur Darstellung des Betriebs einer Kameravorrichtung gemäß einer möglichen Ausführungsform; und
  • 10 zeigt ein Beispiel-Blockdiagramm einer Vorrichtung gemäß einer möglichen Ausführungsform.
With the aid of specific embodiments shown in the accompanying drawings, the description below explains how the advantages and features of the present invention are achieved. In the drawings, only exemplary embodiments, which do not restrict the scope of protection of the present invention, are shown.
  • 1 Figure 3 is an example representation of a system according to one possible embodiment;
  • 2 Figure 3 is an example representation of a simulation model for light received at a camera unit, according to a possible embodiment;
  • 3 FIG. 11 shows an example diagram of a spectral sensitivity of a type of illumination such as sunlight, for example, according to a possible embodiment; FIG.
  • 4th shows an example diagram of a spectral sensitivity of a red, green, blue and a colorless pixel according to a possible embodiment;
  • 5 FIG. 10 shows an example diagram of a transmission curve of an IR cut filter according to a possible embodiment; FIG.
  • 6th is an example representation of a simulation model for light that is received on a dual camera system with a first camera unit and a second camera unit, according to a possible embodiment;
  • 7th Figure 3 shows an example diagram of spectral sensitivities of light emitting diode (LED) flashes on five telephones according to one possible embodiment;
  • 8th Figure 3 is an example illustration of a simulation model for light received at a 2x2 array camera unit, according to one possible embodiment;
  • 9 Figure 13 is an example flow chart illustrating the operation of a camera device in accordance with one possible embodiment; and
  • 10 shows an example block diagram of a device according to a possible embodiment.

DETAILBESCHREIBUNGDETAILED DESCRIPTION

Durch Ausführungsformen der vorliegenden Erfindung werden ein Verfahren und eine Vorrichtung zum Synchronisieren einer automatischen Belichtung zwischen chromatischen Pixeln und panchromatischen Pixeln in einem Kamerasystem bereitgestellt. Gemäß einer möglichen Ausführungsform kann eine erste Belichtung für verschiende chromatische Pixel bestimmt werden, die Licht unterschiedlicher Farbe erfassen. Es kann eine Beleuchtungsart einer Szene erfasst werden. Ein Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln kann auf der Basis der Belichtungsart der Szene ermittelt werden. Eine zweite Belichtung kann für die panchromatischen Pixel bestimmt werden, die das panchromatische Licht erfassen. Basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln in Bezug auf eine Belichtungsart einer Szene kann sich die erste Belichtung von der zweiten Belichtung unterscheiden. Es kann dann zumindest ein Bild von der Szene aufgenommen werden, indem die erste Belichtung für die verschiedenen chromatischen Pixel und die zweite Belichtung für die panchromatischen Pixel gleichzeitig verwendet werden.Embodiments of the present invention provide a method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system. According to one possible embodiment, a first exposure can be determined for different chromatic pixels that detect light of different colors. A type of lighting of a scene can be recorded. An exposure ratio between the chromatic pixels and the panchromatic pixels can be determined based on the type of exposure of the scene. A second exposure can be determined for the panchromatic pixels that capture the panchromatic light. Based on the exposure ratio between the chromatic pixels and the panchromatic pixels with respect to an exposure type of a scene, the first exposure may differ from the second exposure. At least one image of the scene can then be recorded by using the first exposure for the different chromatic pixels and the second exposure for the panchromatic pixels at the same time.

Ausführungsformen können eine Belichtung zwischen panchromatischen Pixeln und chromatischen Pixeln synchronisieren. Zum Beispiel können Ausführungsformen einen Belichtungs-Synchronisationsalgorithmus zwischen panchromatischen Pixeln und chromatischen Pixeln anwenden, um eine Überbelichtung von panchromatischen Pixeln und/oder eine Unterbelichtung von chromatischen Pixeln zu vermeiden. Solche Ausführungsformen können mit einem modernen Sensor arbeiten, zum Beispiel mit einem komplementären Metalloxid-Halbleiter-Sensor (CMOS-Sensor), der an zwei Gruppen von Pixeln desselben Sensors zwei unterschiedliche Belichtungszeiten einstellen kann.Embodiments can synchronize exposure between panchromatic pixels and chromatic pixels. For example, embodiments may employ an exposure synchronization algorithm between panchromatic pixels and chromatic pixels to avoid overexposure of panchromatic pixels and / or underexposure of chromatic pixels. Such embodiments can work with a modern sensor, for example with a complementary metal oxide semiconductor sensor (CMOS sensor), which can set two different exposure times on two groups of pixels of the same sensor.

1 ist eine Beispielsdarstellung eines Systems 100 gemäß einer möglichen Ausführungsform. Das System 100 kann eine Vorrichtung 110 und eine Szene 170 umfassen, die durch eine Lichtquelle wie beispielsweise ein Leuchtmittel beleuchtet wird. Die Vorrichtung 110 kann eine Kompaktkamera, eine digitale Spiegelreflexkamera (DSLR-Kamera), eine spiegellose Kamera, ein Smartphone, ein Mobiltelefon, ein Selektivrufempfänger, ein Spielgerät, ein Digitalempfänger, ein tragbares Gerät, eine Armbanduhr, ein Camcorder, ein Tablet-Computer, ein Personal-Computer oder eine andere Vorrichtung sein, die eine Kameraeinheit enthalten kann. Zum Beispiel kann die Vorrichtung 100 mindestens eine Kameraeinheit 120, eine Steuereinheit 150 mit einer Belichtungssynchronisationslogik und einen Speicher 160 enthalten. Die Steuereinheit 150 kann ein Prozessor sein, ein Bildsignalprozessor, ein separater Prozessor und ein Bildverarbeitungspipeline-Modul, Software, Hardware, eine Einheit, mehrere Einheiten oder eine andere Steuereinheit, die in einer Vorrichtung mit mindestens einer Kameraeinheit Operationen steuern kann. Die Kameraeinheit 120 kann ein Objektiv 130 und einen Sensor 140 enthalten. Der Sensor 140 kann ein ladungsgekoppelter Halbleitersensor (CCD-Sensor) sein, ein CMOS-Sensor, ein n-Typ-Metalloxid-Halbleitersensor (NMOS-Sensor) oder ein anderer Sensor, der ein Bild erfassen kann. Der Sensor 140 kann chromatische Pixel 142 und panchromatische Pixel 144 enthalten. Die chromatischen Pixel können rote, grüne und blaue (RGB) Pixel enthalten, wie gezeigt, oder andere Arten von chromatischen Pixeln, z.B. Cyanpixel, gelbe Pixel, grüne Pixel, Magentapixel (CYGM-Pixel) oder andere chromatische Pixel. Die panchromatischen Pixel können farblose Pixel (clear Pixel) sein, die sämtliches sichtbares Licht erfassen können. Zu Darstellungszwecken ist nur eine Gruppe einer Kombination von chromatischen Pixeln 142 und panchromatischen Pixeln 144 dargestellt. Es versteht sich jedoch, dass der Sensor 140 Millionen von Pixeln enthalten kann. 1 is an example representation of a system 100 according to a possible embodiment. The system 100 can be a device 110 and a scene 170 which is illuminated by a light source such as a lamp. The device 110 Can be a compact camera, a digital single-lens reflex (DSLR) camera, a mirrorless camera, a smartphone, a mobile phone, a selective call receiver, a gaming device, a digital receiver, a portable device, a wrist watch, a camcorder, a tablet computer, a personal Be a computer or other device that may contain a camera unit. For example, the device 100 at least one camera unit 120 , a control unit 150 with exposure synchronization logic and a memory 160 contain. The control unit 150 may be a processor, an image signal processor, a separate processor and an image processing pipeline module, software, hardware, a unit, multiple units, or any other control unit capable of controlling operations in a device with at least one camera unit. The camera unit 120 can be a lens 130 and a sensor 140 contain. The sensor 140 may be a charge coupled device (CCD) sensor, a CMOS sensor, an n-type metal oxide semiconductor (NMOS) sensor, or any other sensor that can capture an image. The sensor 140 can be chromatic pixels 142 and panchromatic pixels 144 contain. The chromatic pixels may include red, green, and blue (RGB) pixels, as shown, or other types of chromatic pixels such as cyan pixels, yellow pixels, green pixels, magenta pixels (CYGM pixels), or other chromatic pixels. The panchromatic pixels can be colorless pixels (clear pixels) that can capture all visible light. For illustration purposes only one group is a combination of chromatic pixels 142 and panchromatic pixels 144 shown. It should be understood, however, that the sensor 140 Can contain millions of pixels.

Im Betrieb kann für die verschiedenen chromatischen Pixel 142, die Licht unterschiedlicher Farben erfassen, eine erste Belichtung 152 bestimmt werden. Eine zweite Belichtung 154 kann für die panchromatischen Pixel 144 bestimmt werden, die panchromatisches Licht erfassen. Basierend auf einem Belichtungsverhältnis zwischen den chromatischen Pixeln 142 und den panchromatischen Pixeln 144 in Bezug auf die Beleuchtungsart der Szene kann sich die erste Belichtung 152 von der zweiten Belichtung 154 unterscheiden. Das Belichtungsverhältnis kann auf der Art der Lichtquelle 180 basieren, die die Szene 170 beleuchtet. Es kann mindestens ein Bild von der Szene 170 mit der ersten Belichtung 152 für die verschiedenen chromatischen Pixel 142 und mit der zweiten Belichtung 154 für die verschiedenen panchromatischen Pixel 144 aufgenommen werden.In operation can for the different chromatic pixels 142 that capture light of different colors, take a first exposure 152 to be determined. A second exposure 154 can for the panchromatic pixels 144 that detect panchromatic light. Based on a Exposure ratio between the chromatic pixels 142 and the panchromatic pixels 144 In relation to the lighting type of the scene, the first exposure can vary 152 from the second exposure 154 differentiate. The exposure ratio can be based on the type of light source 180 based that the scene 170 illuminated. There can be at least one picture of the scene 170 with the first exposure 152 for the different chromatic pixels 142 and with the second exposure 154 for the different panchromatic pixels 144 be included.

Gemäß einer möglichen Ausführungsform kann empfangenes Licht im Hinblick auf verschiedene Beleuchtungsarten gemessen werden. Zum Beispiel kann ein automatischer Weißabgleich-(AWB)-Algorithmus in der Steuereinheit 150 wie beispielsweise eine Bildsignalverarbeitungseinheit die Beleuchtungsart wie beispielsweise die Art der Lichtquelle einer Szene erfassen. Danach kann ein Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln für die Beleuchtungsart vorab oder in Echtzeit berechnet werden. Es kann eine Belichtungstabelle für die chromatischen Pixel erstellt werden, um mit einem automatischen Belichtungsalgorithmus für die chromatischen Pixel zu arbeiten, und es kann eine Belichtungstabelle für die panchromatischen Pixel erstellt werden, um mit einem automatischen Belichtungs-Algorithmus für die panchromatischen Pixel zu arbeiten. Eine in den Ausführungsformen beschriebene Belichtungsverhältnis-Tabelle kann eine Belichtungstabelle eliminieren, und zwar entweder für die chromatischen Pixel oder für die panchromatischen Pixel. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle der chromatischen Pixel verwendet werden, um eine optimale Belichtung je Szene zu finden, kann die Tabelle des Belichtungsverhältnisses verwendet werden, um die Belichtung der panchromatischen Pixel abzuleiten. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle der panchromatischen Pixel verwendet werden, um eine optimale Belichtung je Szene zu finden, kann die Tabelle des Belichtungsverhältnisses verwendet werden, um die Belichtung der chromatischen Pixel abzuleiten. Eine Belichtungsverhältnis-Tabelle kann für panchromatische Pixel oder für chromatische Pixel in dem Speicher 160 gespeichert sein. Alternativ kann das Belichtungsverhältnis durch eine Belichtungsverhältnis-Generierungslogik in der Steuereinheit 150 in Echtzeit generiert und für die Belichtung der panchromatischen Pixel oder chromatischen Pixel verwendet werden.According to a possible embodiment, received light can be measured with regard to different types of lighting. For example, an automatic white balance (AWB) algorithm in the control unit 150 such as, for example, an image signal processing unit can detect the type of lighting such as the type of light source of a scene. Thereafter, an exposure ratio between the chromatic pixels and the panchromatic pixels for the lighting type can be calculated in advance or in real time. An exposure table for the chromatic pixels can be made to work with an automatic exposure algorithm for the chromatic pixels, and an exposure table for the panchromatic pixels can be made to work with an automatic exposure algorithm for the panchromatic pixels. An exposure ratio table described in the embodiments can eliminate an exposure table either for the chromatic pixels or for the panchromatic pixels. If the automatic exposure algorithm and chromatic pixel exposure table are used to find the optimal exposure per scene, the exposure ratio table can be used to infer the panchromatic pixel exposure. If the automatic exposure algorithm and panchromatic pixel exposure table are used to find the optimal exposure per scene, the exposure ratio table can be used to infer the chromatic pixel exposure. An exposure ratio table can be for panchromatic pixels or for chromatic pixels in memory 160 be saved. Alternatively, the exposure ratio can be set by exposure ratio generation logic in the control unit 150 generated in real time and used for the exposure of the panchromatic pixels or chromatic pixels.

Das Belichtungsverhältnis kann verschiedenen Strategien folgend verwendet werden. Gemäß einer Strategie kann sowohl an den panchromatischen Pixeln als auch an den chromatischen Pixeln die gleiche Sensorverstärkung eingestellt werden. Dann können die Belichtungszeit der chromatischen Pixel und die Belichtungszeit der panchromatischen Pixel dem Belichtungsverhältnis genügen. Im Allgemeinen kann die Belichtungszeit von chromatischen Pixeln länger sein als die Belichtungszeit von panchromatischen Pixeln. Gemäß einer weiteren Strategie kann sowohl an den panchromatischen Pixeln als auch an den chromatischen Pixeln die gleiche Belichtungszeit eingestellt werden. Dann können die Sensorverstärkung der chromatischen Pixel und die Sensorverstärkung der panchromatischen Pixel dem Belichtungsverhältnis genügen. Im Allgemeinen kann die Sensorverstärkung von chromatischen Pixeln höher sein als die Sensorverstärkung von panchromatischen Pixeln. Andere Strategien können das Erfassen der Belichtung basierend auf der Blendengröße und auf anderen die Belichtung beeinflussenden Faktoren umfassen.The exposure ratio can be used following various strategies. According to one strategy, the same sensor gain can be set on both the panchromatic pixels and the chromatic pixels. Then the exposure time of the chromatic pixels and the exposure time of the panchromatic pixels can satisfy the exposure ratio. In general, the exposure time of chromatic pixels can be longer than the exposure time of panchromatic pixels. According to a further strategy, the same exposure time can be set both on the panchromatic pixels and on the chromatic pixels. Then the sensor gain of the chromatic pixels and the sensor gain of the panchromatic pixels can satisfy the exposure ratio. In general, the sensor gain of chromatic pixels can be higher than the sensor gain of panchromatic pixels. Other strategies may include sensing exposure based on aperture size and other factors affecting exposure.

Dieselbe Vorstellung kann auf ein Mehrfachkamerasystem mit verschiedenen Blenden ausgedehnt werden. Das empfangene Licht je Kamera kann hinsichtlich ihrer Pixelarten und ihrer Blende (F-Zahl) je Beleuchtungsart berechnet werden. Danach kann ein Belichtungsverhältnis generiert werden, um die Belichtung der panchromatischen Pixel anhand der chromatischen Pixel oder umgekehrt der chromatischen Pixel anhand der panchromatischen Pixel zu bestimmen.The same notion can be extended to a multiple camera system with different apertures. The received light per camera can be calculated with regard to its pixel types and its aperture (F-number) for each type of lighting. An exposure ratio can then be generated in order to determine the exposure of the panchromatic pixels on the basis of the chromatic pixels or, conversely, of the chromatic pixels on the basis of the panchromatic pixels.

2 ist eine Beispieldarstellung eines Simulationsmodells 200 für Licht, das an einer Kameraeinheit 210 wie beispielsweise die Kameraeinheit 120 empfangen wird, gemäß einer möglichen Ausführungsform. Die Kameraeinheit 210 kann ein Infrarot-Sperrfilter (IR-Sperrfilter) 212, eine Rot-Grün- Blau- und Farblos-Pixelmatrix (RGBC-Pixelmatrix) 214 und einen Sensor 216 enthalten. Die Kameraeinheit 210 und/oder eine Vorrichtung wie die Vorrichtung 110, die die Kameraeinheit 210 enthält, können auch andere Elemente enthalten, zum Beispiel das Objektiv 130, die Steuereinheit 150 und den Speicher 160. Die RGBC-Pixelmatrix 214 ist zwar separat dargestellt, kann jedoch auch Teil des Sensors 216 sein, und wenn Pixelmatrix und Sensor kombiniert werden, können die RGBC-Pixelmatrix 214 und der Sensor 216 als RGBC-Sensor 218 betrachtet werden. Ein farbloses Pixel (C-Pixel) kann äquivalent zu einem panchromatischen Pixel sein. Die RGBC-Pixelmatrix 230 kann auch eine andere Pixelmatrix sein, die chromatische und panchromatische Pixel enthält. Das Simulationsmodell 200 kann ein Beleuchtungsmittel umfassen, z.B. eine Lichtquelle 220 und ein Subjekt 230, z.B. ein Subjekt in einer Szene. 2 is an example representation of a simulation model 200 for light that is on a camera unit 210 such as the camera unit 120 is received, according to one possible embodiment. The camera unit 210 can an infrared cut filter (IR cut filter) 212 , a red, green, blue and colorless pixel matrix (RGBC pixel matrix) 214 and a sensor 216 contain. The camera unit 210 and / or a device such as the device 110 who have favourited the camera unit 210 may contain other elements, such as the lens 130 , the control unit 150 and the memory 160 . The RGBC pixel matrix 214 is shown separately, but can also be part of the sensor 216 and when the pixel matrix and sensor are combined, the RGBC pixel matrix 214 and the sensor 216 as an RGBC sensor 218 to be viewed as. A colorless pixel (C-pixel) can be equivalent to a panchromatic pixel. The RGBC pixel matrix 230 can also be another pixel matrix containing chromatic and panchromatic pixels. The simulation model 200 may comprise a lighting means, for example a light source 220 and a subject 230 , e.g. a subject in a scene.

3 ist ein Beispieldiagramm 300 einer Spektralempfindlichkeit einer Beleuchtungsart, zum Beispiel Sonnenlicht, gemäß einer möglichen Ausführungsform. 4 ist ein Beispieldiagramm 400 einer Spektralempfindlichkeit von roten, grünen, blauen und farblosen (panchromatischen) Pixeln, wie zum Beispiel in einem RGBC-Sensor, in anderen Sensoren und/oder in mehreren Sensoren, gemäß einer möglichen Ausführungsform. Das Diagramm 400 kann die Spektralempfindlichkeit von roten Pixeln 410, die Spektralempfindlichkeit von grünen Pixeln 420, die Spektralempfindlichkeit von blauen Pixeln 430 und die Spektralempfindlichkeit von farblosen wie beispielsweise panchromatischen Pixeln 440 enthalten. 5 ist ein Beispieldiagramm 500 einer Durchlässigkeitskurve eines IR-Sperrfilters gemäß einer möglichen Ausführungsform. 3 is an example diagram 300 a spectral sensitivity of a type of lighting, for example sunlight, according to a possible embodiment. 4th is an example diagram 400 a spectral sensitivity of red, green, blue and colorless (panchromatic) pixels, such as in an RGBC sensor, in other sensors and / or in several sensors, according to a possible embodiment. The diagram 400 can increase the spectral sensitivity of red pixels 410 , the spectral sensitivity of green pixels 420 , the spectral sensitivity of blue pixels 430 and the spectral sensitivity of colorless such as panchromatic pixels 440 contain. 5 is an example diagram 500 a transmission curve of an IR cut filter according to a possible embodiment.

Bei diesem speziellen RGBC-Sensor 218 kann der Prozentsatz von roten, grünen, blauen und farblosen Pixeln je Vollbild in den folgenden jeweiligen Gewichtungszahlen resultieren: w R = 1 4 ;

Figure DE102016117151B4_0001
w G = 1 4 ;
Figure DE102016117151B4_0002
w B = 1 4 ;  
Figure DE102016117151B4_0003
und w C = 1 4 .
Figure DE102016117151B4_0004
With this special RGBC sensor 218 the percentage of red, green, blue and colorless pixels per frame can result in the following respective weighting numbers: w R. = 1 4th ;
Figure DE102016117151B4_0001
w G = 1 4th ;
Figure DE102016117151B4_0002
w B. = 1 4th ;
Figure DE102016117151B4_0003
and w C. = 1 4th .
Figure DE102016117151B4_0004

Zum Berechnen des Lichts, das an den panchromatischen wie beispielsweise den farblosen Pixeln (clear Pixeln) empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear basierend auf der Formel ( Clear Pixels ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0005
berechnet werden, wobei die Werte jedes Multiplikanden unter den Kurven 440, 500 und 300 jeweils gleich dem Y-Achsen-Wert pro bestimmter Wellenlänge sein können. Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt der Spektralempfindlichkeit eines Farblos-Kanals, der Spektralempfindlichkeit eines Leuchtmittels (Illuminant) und des Durchlässigkeitsgrads (%) eines IR-Sperrfilters berechnet werden. S1_Clear ist dann die Summed Area dieser Produkt-Kurve bezogen auf die Wellenlänge.To calculate the light that is received at the panchromatic pixels, such as, for example, the colorless pixels (clear pixels), a panchromatic signal S1_Clear based on the formula ( Clear Pixels ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0005
can be calculated with the values of each multiplicand under the curves 440 , 500 and 300 each can be equal to the Y-axis value per particular wavelength. For example, a product of the spectral sensitivity of a colorless channel, the spectral sensitivity of an illuminant and the transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_Clear is then the summed area of this product curve related to the wavelength.

Es kann dann das an den panchromatischen Pixeln (C) empfangene Licht, Light_clear, ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert wird: Light _ clear = S 1 _ Clear × w c .

Figure DE102016117151B4_0006
The light received at the panchromatic pixels (C), Light_clear, can then be determined by multiplying the signal S1_clear by the weighting percentage w c : Light _ clear = S. 1 _ Clear × w c .
Figure DE102016117151B4_0006

Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können anhand der Formel ( R , G , B ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0007
erste chromatische Signale S1_R, S1_G und S1_B für jede Art von chromatischen Pixeln ähnlich wie das für das Signal S1_clear berechnete Produktfeld und jeweils unter Verwendung der Kurven 410, 420 und 430 für die chromatischen Pixel berechnet werden. Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und eines Durchlässigkeitsgrads (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich (Summed Area) der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_G kann der summierte Bereich der Produkt-Kurve des Grün-Kanals bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produkt-Kurve des Bed-Kanals bezogen auf die Wellenlänge sein.To calculate the light that is received at the chromatic pixels, you can use the formula ( R. , G , B. ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0007
first chromatic signals S1_R, S1_G and S1_B for each type of chromatic pixels similar to the product field calculated for the signal S1_clear and in each case using the curves 410 , 420 and 430 for the chromatic pixels. For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel based on the wavelength. S1_G can be the summed area of the product curve of the green channel related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.

Danach kann das an den chromatischen Pixeln (RGB) empfangene Licht Light_rgb ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird und die Ergebnisse addiert werden: Light _ rgb = S 1 _ R × w R + S 1 _ G × w G + S 1 _ B × w B .

Figure DE102016117151B4_0008
Then the light Light_rgb received at the chromatic pixels (RGB) can be determined by multiplying each signal by its respective weighting percentage and adding the results: Light _ rgb = S. 1 _ R. × w R. + S. 1 _ G × w G + S. 1 _ B. × w B. .
Figure DE102016117151B4_0008

Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn zum Beispiel die Sensorverstärkung für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Exposure Time of Chromatic Pixels ] × Light _ rgb   = [ Exposure Time of Panchromatic Pixels ] × Light _ clear .

Figure DE102016117151B4_0009
The exposure ratio between chromatic pixels and panchromatic pixels can then be Light_clear / Light_rgb. For example, if the sensor gain is set the same for both groups of pixels, then: [ Exposure Time of Chromatic Pixels ] × Light _ rgb = [ Exposure Time of Panchromatic Pixels ] × Light _ clear .
Figure DE102016117151B4_0009

Wenn die Belichtungszeit (exposure time) für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Sensor Gain of Chromatic Pixels ] × Light _ rgb       = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .

Figure DE102016117151B4_0010
If the exposure time is set the same for both groups of pixels, the following applies: [ Sensor Gain of Chromatic Pixels ] × Light _ rgb = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .
Figure DE102016117151B4_0010

6 ist eine Beispieldarstellung eines Simulationsmodells 600 für Licht, das an einem dualen Kamerasystem mit einer ersten Kameraeinheit 610 und einer zweiten Kameraeinheit 640 empfangen wird, die jeweils Teil der Vorrichtung sein können, z.B. der Vorrichtung 110, gemäß einer möglichen Ausführungsform. Die erste Kameraeinheit 610 kann ein Infrarot-Sperrfilter (IR-Sperrfilter) 612, eine Bayer Pixelmatrix Rot, Grün und Blau (RGB) 614 und einen Sensor 616 enthalten. Die RGB-Pixelmatrix 614 ist separat dargestellt, kann jedoch auch Teil des Sensors sein, und wenn Matrix und Sensor kombiniert werden, können die RGB-Pixelmatrix 614 und der Sensor 616 als ein RGB-Bayer-Sensor 618 betrachtet werden. Die zweite Kameraeinheit kann ein Infrarot-Sperrfilter (IR-Sperrfilter) 642, eine farblose Mikrolinse (clear microlens) 644 und einen Sensor 646 enthalten. Die farblose Mikrolinse 644 ist separat dargestellt, kann jedoch Teil des Sensors sein, und wenn Mikrolinse und Sensor kombiniert werden, können die farblose Mikrolinse 644 und der Sensor 646 als panchromatischer Sensor 648 betrachtet werden. Die Kameraeinheiten 610 und 640 und/oder eine Vorrichtung wie beispielsweise die Vorrichtung 110 mit den Kameraeinheiten 610 und 640 können auch andere Elemente enthalten, zum Beispiel das Objektiv 130, die Steuereinheit 150 und den Speicher 160. Das Simulationsmodell 600 kann auch ein Leuchtmittel 620 wie beispielsweise eine Lichtquelle und ein Subjekt 630 wie beispielsweise ein Subjekt in einer Szene umfassen. 6th is an example representation of a simulation model 600 for light that is connected to a dual camera system with a first camera unit 610 and a second camera unit 640 is received, each of which can be part of the device, for example the device 110 , according to one possible embodiment. The first camera unit 610 can an infrared cut filter (IR cut filter) 612 , a Bayer pixel matrix red, green and blue (RGB) 614 and a sensor 616 contain. The RGB pixel matrix 614 is shown separately, but can also be part of the sensor, and when the matrix and sensor are combined, the RGB pixel matrix 614 and the sensor 616 than an RGB Bayer sensor 618 to be viewed as. The second camera unit can be an infrared cut filter (IR cut filter) 642 , a clear microlens 644 and a sensor 646 contain. The colorless microlens 644 is shown separately, but can be part of the sensor, and when the microlens and sensor are combined, the colorless microlens 644 and the sensor 646 as a panchromatic sensor 648 to be viewed as. The camera units 610 and 640 and / or a device such as the device 110 with the camera units 610 and 640 may contain other elements, such as the lens 130 , the control unit 150 and the memory 160 . The simulation model 600 can also be a light source 620 such as a light source and a subject 630 such as a subject in a scene.

Um dieses duale Kamerasystem allgemeiner zu gestalten, können die beiden Kameraeinheiten 610 und 640 unterschiedliche Blenden (F-Zahlen) und unterschiedliche Pixelgröße aufweisen, was die Belichtung der Sensoren 618 und 648 beeinflussen kann. Die F-Zahl der Kameraeinheit 610 mit dem RGB-Bayer-Sensor 618 sei F#_rgb, und die F-Zahl der Kameraeinheit 640 mit dem panchromatischen Sensor 648 sei F#_clear. Der Einheitspixelbereich der Kameraeinheit 610 mit dem RGB-Bayer-Sensor 618 sei Unit_Pixel_Area_rgb, und der Einheitspixelbereich der Kameraeinheit 640 mit dem panchromatischen Sensor 648 sei Unit_Pixel_Area_clear.To make this dual camera system more general, the two camera units 610 and 640 different apertures (F-numbers) and different pixel sizes, what the exposure of the sensors 618 and 648 can affect. The F-number of the camera unit 610 with the RGB Bayer sensor 618 let F # _rgb, and the F-number of the camera unit 640 with the panchromatic sensor 648 let F # _clear. The unit pixel area of the camera unit 610 with the RGB Bayer sensor 618 let Unit_Pixel_Area_rgb, and be the unit pixel area of the camera unit 640 with the panchromatic sensor 648 be Unit_Pixel_Area_clear.

Bei diesem dualen Kamerasystem kann der Prozentsatz von (R, Gr, Gb, B, C) Pixeln für zwei Vollbilder (ein Bayer-Bild und ein Klarbild) die folgenden Gewichtungszahlen aufweisen: w R = 1 8 ;

Figure DE102016117151B4_0011
w G _ R = 1 8 ;
Figure DE102016117151B4_0012
w G _ B = 1 8 ;
Figure DE102016117151B4_0013
w B = 1 8 ;  
Figure DE102016117151B4_0014
und w C = 1 2 .
Figure DE102016117151B4_0015
In this dual camera system, the percentage of (R, Gr, Gb, B, C) pixels for two full images (a Bayer image and a clear image) can have the following weighting numbers: w R. = 1 8th ;
Figure DE102016117151B4_0011
w G _ R. = 1 8th ;
Figure DE102016117151B4_0012
w G _ B. = 1 8th ;
Figure DE102016117151B4_0013
w B. = 1 8th ;
Figure DE102016117151B4_0014
and w C. = 1 2 .
Figure DE102016117151B4_0015

Zum Berechnen des Lichts, das an den panchromatischen, z.B. farblosen, Pixeln empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear anhand der Formel ( Clear Pixels ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0016
berechnet werden. Für jeden Datenpunkt bei gleicher Wellenlänge kann ein Produkt von Spektralempfindlichkeiten des Farblos-Kanals und des Leuchtmittels und der Durchlässigkeit (%) des IR-Sperrfilters berechnet werden. S1_Clear kann dann der summierte Bereich dieser Produkt-Kurve bezogen auf die Wellenlänge sein.To calculate the light that is received at the panchromatic, for example colorless, pixels, a panchromatic signal S1_Clear can first be based on the formula ( Clear Pixels ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0016
be calculated. For each data point at the same wavelength, a product of the spectral sensitivities of the colorless channel and the illuminant and the transmittance (%) of the IR cut filter can be calculated. S1_Clear can then be the summed area of this product curve related to the wavelength.

Das an den panchromatischen Pixeln (C), empfangene Licht Light_clear kann ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert und der Einheitspixelbereich Unit_Pixel_Area_clear durch die Blende (F-Zahl F#_clear) im Quadrat geteilt wird: Light _ clear = S 1 _ Clear × w c × 1 / ( F # _ clear 2 ) × Unit _ Pixel _ Area _ clear .

Figure DE102016117151B4_0017
The light Light_clear received at the panchromatic pixels (C) can be determined by multiplying the signal S1_clear by the weighting percentage w c and dividing the unit pixel area Unit_Pixel_Area_clear by the aperture (F number F # _clear) squared: Light _ clear = S. 1 _ Clear × w c × 1 / ( F. # _ clear 2 ) × Unit _ pixel _ Area _ clear .
Figure DE102016117151B4_0017

Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können erste chromatische Signale S1_R, S1_Gr, S1_Gb und S1_B für jede Art von chromatischen Pixeln anhand der Formel ( R , Gr , Gb , B ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0018
berechnet werden.To calculate the light that is received at the chromatic pixels, first chromatic signals S1_R, S1_Gr, S1_Gb and S1_B for each type of chromatic pixels can be based on the formula ( R. , Size , Gb , B. ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0018
be calculated.

Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_Gr kann der summierte Bereich der Produkt-Kurve des Gr-Kanals (grüne Pixel teilten sich dieselbe Reihe mit roten Pixeln) bezogen auf die Wellenlänge sein. S1_Gb kann der summierte Bereich der Produkt-Kurve des Gb-Kanals (grüne Pixel teilten sich dieselbe Reihe mit den blauen Pixeln) bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produkt-Kurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_Gr can be the summed area of the product curve of the Gr channel (green pixels shared the same row with red pixels) related to the wavelength. S1_Gb can be the summed area of the product curve of the Gb channel (green pixels shared the same row with the blue pixels) related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.

Danach lässt sich das Licht, das an den chromatischen Pixeln (RGB) Light_rgb empfangen wird, bestimmen, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird, die Ergebnisse addiert werden und das Ergebnis mit Unit_Pixel_Area_rgb geteilt durch die Blende (F-Zahl F#_egb) im Quadrat multipliziert wird. Light _ rgb = ( S 1 _ R × w R + S 1 _ G r × w G r + S 1 _ G b × w G b + S 1 _ B × w B ) ×                            1 / ( F # _ rgb 2 ) × Unit _ Pixel _ Area _ rgb .

Figure DE102016117151B4_0019
The light that is received at the chromatic pixels (RGB) Light_rgb can then be determined by multiplying each signal by its respective weighting percentage, adding the results and dividing the result with Unit_Pixel_Area_rgb by the aperture (F number F # _egb ) is multiplied by the square. Light _ rgb = ( S. 1 _ R. × w R. + S. 1 _ G r × w G r + S. 1 _ G b × w G b + S. 1 _ B. × w B. ) × 1 / ( F. # _ rgb 2 ) × Unit _ pixel _ Area _ rgb .
Figure DE102016117151B4_0019

Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn die Sensorverstärkung für beide Gruppen von Pixeln zum Beispiel gleich eingestellt wird, gilt: [ Exposure Time of RGB Bayer Sensor ] × Light _ rgb         = [ Exposure Time of Panchromatic Sensor ] × Light _ clear .

Figure DE102016117151B4_0020
The exposure ratio between chromatic pixels and panchromatic pixels can then be Light_clear / Light_rgb. For example, if the sensor gain is set the same for both groups of pixels: [ Exposure Time of RGB Bayer Sensor ] × Light _ rgb = [ Exposure Time of Panchromatic Sensor ] × Light _ clear .
Figure DE102016117151B4_0020

Wenn die Belichtungszeit für beide Gruppen von Pixeln beispielsweise gleich eingestellt wird, gilt: [ Sensor Gain of RGB Bayer Sensor ] × Light _ rgb       = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .

Figure DE102016117151B4_0021
In diesen Fällen kann die Sensorverstärkung (sensor gain) äquivalent sein zu der Verstärkung der Pixel in der vorhergehenden Ausführungsform.For example, if the exposure time is set the same for both groups of pixels: [ Sensor Gain of RGB Bayer Sensor ] × Light _ rgb = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .
Figure DE102016117151B4_0021
In these cases, the sensor gain may be equivalent to the gain of the pixels in the previous embodiment.

Zusammengefasst kann die erste Kameraeinheit 610, zum Beispiel eine erste Kamera, ein Objektiv 130 und einen Sensor 140 mit den chromatischen Pixeln 142 enthalten. Der Sensor 140 der ersten Kameraeinheit 610 kann Licht unterschiedlicher Farbe an verschiedenen chromatischen Pixeln erfassen und kann ein erstes Bild der Szene an den verschiedenen chromatischen Pixeln mit der ersten Belichtung für die verschiedenen chromatischen Pixel aufnehmen. Die zweite Kameraeinheit 640, zum Beispiel eine zweite Kamera, kann ein Objektiv 130 und einen Sensor 140 mit den panchromatischen Pixeln 144 aufweisen. Der Sensor 140 der zweiten Kamera kann panchromatisches Licht an panchromatischen Pixeln erfassen und kann gleichzeitig ein zweites Bild der Szene an den panchromatischen Pixeln mit dem zweiten Belichtungswert für die panchromatischen Pixel aufnehmen. Basierend auf einem Belichtungsverhältnis kann sich die zweite Belichtung von der ersten Belichtung unterscheiden.In summary, the first camera unit 610 , for example a first camera, a lens 130 and a sensor 140 with the chromatic pixels 142 contain. The sensor 140 the first camera unit 610 can detect different color light at different chromatic pixels and can capture a first image of the scene at the different chromatic pixels with the first exposure for the different chromatic pixels. The second camera unit 640 , for example a second camera, can be a lens 130 and a sensor 140 with the panchromatic pixels 144 exhibit. The sensor 140 the second camera can capture panchromatic light at panchromatic pixels and can simultaneously record a second image of the scene at the panchromatic pixels with the second exposure value for the panchromatic pixels. The second exposure may be different from the first exposure based on an exposure ratio.

7 zeigt ein Beispiel-Diagramm 700 zur Darstellung der Spektralempfindlichkeiten von LED-Blitzlichtern an fünf Telefonen gemäß einer möglichen Ausführungsform. Gemäß dieser Implementierung eines Dual-Kamerasystems können die Kameraeinheit 610 und die Kameraeinheit 640 die gleiche Blende (F-Zahl) haben, um die Berechnung eines Einzel-LED-Blitzmodus mit korrelierter Farbtemperatur (CCT) zu demonstrieren, in welchem ein Blitz das Leuchtmittel 620 ist. Bei Anwendung des Einzel-CCT-LED-Blitzmodus können die Spektralempfindlichkeiten des Leuchtmittels 620 für alle Aufnahmen festgelegt werden. Daher kann das Belichtungsverhältnis pro Kamerasystem durch die Verwendung eines solchen Blitzmodus festgelegt werden. 7th shows an example diagram 700 for displaying the spectral sensitivities of LED flashlights on five telephones according to one possible embodiment. According to this implementation of a dual camera system, the camera unit 610 and the camera unit 640 have the same aperture (F number) to demonstrate the calculation of a single LED flash mode with correlated color temperature (CCT) in which a flash is the light source 620 is. When using the single CCT LED flash mode, the spectral sensitivities of the light source 620 can be set for all recordings. Therefore, the exposure ratio per camera system can be determined by using such a flash mode.

Bei diesem dualen Kamerasystem kann der Prozentsatz von (R, Gr, Gb, B, C) Pixeln für zwei Vollbilder (ein Bayer-Bild und ein Klarbild) die folgenden Gewichtungszahlen aufweisen: w R = 1 8 ;

Figure DE102016117151B4_0022
w G _ R = 1 8 ;
Figure DE102016117151B4_0023
w G _ B = 1 8 ;
Figure DE102016117151B4_0024
w B = 1 8 ;  
Figure DE102016117151B4_0025
und w C = 1 2 .
Figure DE102016117151B4_0026
In this dual camera system, the percentage of (R, Gr, Gb, B, C) pixels for two full images (a Bayer image and a clear image) can have the following weighting numbers: w R. = 1 8th ;
Figure DE102016117151B4_0022
w G _ R. = 1 8th ;
Figure DE102016117151B4_0023
w G _ B. = 1 8th ;
Figure DE102016117151B4_0024
w B. = 1 8th ;
Figure DE102016117151B4_0025
and w C. = 1 2 .
Figure DE102016117151B4_0026

Zum Berechnen des Lichts, das an den panchromatischen Pixeln wie beispielsweise farblosen Pixeln empfangen wird, kann zunächst ein panchromatisches Signal S1_Clear anhand der Formel ( Clear Pixels ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0027
berechnet werden.To calculate the light that is received at the panchromatic pixels such as, for example, colorless pixels, a panchromatic signal S1_Clear can first be based on the formula ( Clear Pixels ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0027
be calculated.

Für jeden Datenpunkt bei gleicher Wellenlänge kann ein Produkt von Spektralempfindlichkeiten des Farblos-Kanals und des Leuchtmittels und der Durchlässigkeit (%) des IR-Sperrfilters berechnet werden. S1_Clear kann dann der summierte Bereich dieser Produkt-Kurve bezogen auf die Wellenlänge sein. For each data point at the same wavelength, a product of the spectral sensitivities of the colorless channel and the illuminant and the transmittance (%) of the IR cut filter can be calculated. S1_Clear can then be the summed area of this product curve related to the wavelength.

Danach kann das an den panchromatischen Pixeln (C) empfangene Licht, Light_clear, ermittelt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc und Unit_Pixel_Area_clear multipliziert wird: Light _ clear = S 1 _ Clear × w c × Unit _ Pixel _ Area _ clear .

Figure DE102016117151B4_0028
The light received at the panchromatic pixels (C), Light_clear, can then be determined by multiplying the signal S1_clear by the weighting percentage w c and Unit_Pixel_Area_clear: Light _ clear = S. 1 _ Clear × w c × Unit _ pixel _ Area _ clear .
Figure DE102016117151B4_0028

Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können erste chromatische Signale S1_R, S1_Gr, S1_Gb und S1_B für jede Art von chromatischen Pixeln anhand der Formel ( R ,Gr ,Gb ,B ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0029
berechnet werden.To calculate the light that is received at the chromatic pixels, first chromatic signals S1_R, S1_Gr, S1_Gb and S1_B for each type of chromatic pixels can be based on the formula ( R. , Gr , Gb , B ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0029
be calculated.

Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_Gr kann der summierte Bereich der Produkt-Kurve des Gr-Kanals (grüne Pixel teilten sich eine Reihe mit roten Pixeln) bezogen auf die Wellenlänge sein. S1_Gb kann der summierte Bereich der Produkt-Kurve des Gb-Kanals (grüne Pixel teilten sich eine Reihe mit blauen Pixeln) bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produkt-Kurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_Gr can be the summed area of the product curve of the Gr channel (green pixels shared a row with red pixels) related to the wavelength. S1_Gb can be the summed area of the product curve of the Gb channel (green pixels shared a row with blue pixels) related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.

Dann kann das Licht, das an den chromatischen Pixeln (RGB) Light_rgb empfangen wird, ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird, die Ergebnisse addiert werden und das Ergebnis mit Unit_Pixel_Area_rgb multipliziert wird: Light _ rgb = ( S 1 _ R × w R + S 1 _ G r × w Gr + S 1 _ G b × w Gb + S 1 _ B × w B ) ×                                         Unit _ Pixel _ Area _ rgb .

Figure DE102016117151B4_0030
Then the light received at the chromatic pixels (RGB) Light_rgb can be determined by multiplying each signal by its respective weight percentage, adding the results and multiplying the result by Unit_Pixel_Area_rgb: Light _ rgb = ( S. 1 _ R. × w R. + S. 1 _ G r × w Size + S. 1 _ G b × w Gb + S. 1 _ B. × w B. ) × Unit _ pixel _ Area _ rgb .
Figure DE102016117151B4_0030

Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn die Sensorverstärkung zum Beispiel für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Exposure Time of RGB Bayer Sensor ] × Light _ rgb   = [ Exposure Time of Panchromatic Sensor ] × Light _ clear .

Figure DE102016117151B4_0031
The exposure ratio between chromatic pixels and panchromatic pixels can then be Light_clear / Light_rgb. For example, if the sensor gain is set the same for both groups of pixels: [ Exposure Time of RGB Bayer Sensor ] × Light _ rgb = [ Exposure Time of Panchromatic Sensor ] × Light _ clear .
Figure DE102016117151B4_0031

Wenn die Belichtungszeit für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Sensor Gain of RGB Bayer Sensor ] × Light _ rgb       = [ Sensor Gain of Panchromatic Sensor ] × Light _ clear .

Figure DE102016117151B4_0032
If the exposure time is set the same for both groups of pixels, the following applies: [ Sensor Gain of RGB Bayer Sensor ] × Light _ rgb = [ Sensor Gain of Panchromatic Sensor ] × Light _ clear .
Figure DE102016117151B4_0032

In einem Dual CCT LED Blitzmodus kann die Spektralempfindlichkeit eines dualen LED-Leuchtmittels mit dem Szenen-Leuchtmittel zusammen mit dem dualen LED-Leuchtmittel variieren. Deshalb kann das Belichtungsverhältnis pro Szene variieren. Wenn ein Dual CCT LED Blitzlicht gewählt wird, können Spektralempfindlichkeiten an verschiedenen CCTs gemessen werden, und das Belichtungsverhältnis pro CCT kann in einer Lookup-Tabelle (LUT) gespeichert werden.In a dual CCT LED flash mode, the spectral sensitivity of a dual LED light source can vary with the scene light source together with the dual LED light source. Therefore the exposure ratio can vary per scene. If a dual CCT LED flashlight is selected, spectral sensitivities can be measured on different CCTs and the exposure ratio per CCT can be stored in a look-up table (LUT).

8 ist eine Beispieldarstellung eines Simulationsmodells 800 für Licht, das an einer 2x2-Array-Kameraeinheit empfangen wird, gemäß einer möglichen Ausführungsform. Die Kameraeinheit 810 kann ein Infrarot-Sperrfilter (IR-Sperrfilter) 812, ein Farbfilter 814 und einen Sensor 816 enthalten. Die Kameraeinheit 810 und/oder eine Vorrichtung wie beispielsweise die Vorrichtung 110, die die Kameraeinheit 810 enthält, kann auch andere Elemente enthalten, zum Beispiel das Objektiv 130, die Steuereinheit 150 und den Speicher 160. Das Farbfilter 814 kann von dem Sensor 816 getrennt sein. Alternativ können das Farbfilter 814 und der Sensor 816 als kombinierte Komponente aus Sensor und RGBC-Filtern 818 betrachtet werden. Ein Pixel an dem Sensor, hinter dem farblosen Filter, ist ein farbloses (C) Pixel, das äquivalent zu einem panchromatischen Pixel sein kann. Bei einer 2x2-Array-Kameraeinheit 810 kann der Sensor 816 in Quadranten unterteilt sein, wobei die Pixel in einem gegebenen Quadranten durch eines der R-, G-, B- oder C-Filter in dem Farbfilter 814 Licht empfangen können. Das Simulationsmodell 800 kann auch ein Leuchtmittel 820 einschließen, zum Beispiel eine Lichtquelle, und ein Subjekt 830, zum Beispiel ein Subjekt in einer Szene. 8th is an example representation of a simulation model 800 for light received at a 2x2 array camera unit, according to a possible embodiment. The camera unit 810 can an infrared cut filter (IR cut filter) 812 , a color filter 814 and a sensor 816 contain. The camera unit 810 and / or a device such as the device 110 who have favourited the camera unit 810 may contain other elements, such as the lens 130 , the control unit 150 and the memory 160 . The color filter 814 can from the sensor 816 be separated. Alternatively, you can use the color filter 814 and the sensor 816 as a combined component of sensor and RGBC filters 818 to be viewed as. A pixel on the sensor, behind the colorless filter, is a colorless (C) pixel, which can be equivalent to a panchromatic pixel. In the case of a 2x2 array camera unit 810, the sensor can 816 be divided into quadrants, with the pixels in a given quadrant being passed through one of the R, G, B or C filters in the color filter 814 Can receive light. The simulation model 800 can also be a light source 820 include, for example, a light source, and a subject 830 , for example a subject in a scene.

Bei der kombinierten Komponente aus Sensor und RGBC-Filtern 818 in der 2x2-Kameraeinheit 810 kann der Prozentsatz von (R,G,B,C) Pixeln pro Vollbild die folgenden Gewichtungszahlen ergeben: w R = 1 4 ;

Figure DE102016117151B4_0033
w G = 1 4 ;
Figure DE102016117151B4_0034
w B = 1 4 ;  
Figure DE102016117151B4_0035
und w C = 1 4 .
Figure DE102016117151B4_0036
With the combined component of sensor and RGBC filters 818 in the 2x2 camera unit 810, the percentage of (R, G, B, C) pixels per frame can give the following weighting numbers: w R. = 1 4th ;
Figure DE102016117151B4_0033
w G = 1 4th ;
Figure DE102016117151B4_0034
w B. = 1 4th ;
Figure DE102016117151B4_0035
and w C. = 1 4th .
Figure DE102016117151B4_0036

Zum Berechnen des Lichts, das an den panchromatischen Pixeln wie beispielsweise den farblosen Pixeln empfangen wird, kann anhand der Formel ( Clear Pixels ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0037
zunächst ein panchromatisches Signal S1_clear berechnet werden.To calculate the light that is received at the panchromatic pixels such as the colorless pixels, the formula ( Clear Pixels ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0037
first a panchromatic signal S1_clear is calculated.

Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt der Spektralempfindlichkeit eines Farblos-Kanals, der Spektralempfindlichkeit eines Leuchtmittels und der Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_Clear kann dann der summierte Bereich dieser Produkt-Kurve bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivity of a colorless channel, the spectral sensitivity of a light source and the transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_Clear can then be the summed area of this product curve related to the wavelength.

Danach kann das an den panchromatischen Pixeln (C) empfangene Licht Light_clear bestimmt werden, indem das Signal S1_clear mit dem Gewichtungsprozentsatz wc multipliziert wird: Light _ clear = S 1 _ Clear × w c .

Figure DE102016117151B4_0038
The light Light_clear received at the panchromatic pixels (C) can then be determined by multiplying the signal S1_clear by the weighting percentage w c : Light _ clear = S. 1 _ Clear × w c .
Figure DE102016117151B4_0038

Zum Berechnen des Lichts, das an den chromatischen Pixeln empfangen wird, können anhand der Formel ( R , G , B ) × ( IR ) × ( Illuminant )

Figure DE102016117151B4_0039
erste chromatische Signale S1_R, S1_G und S1_B für jede Art von chromatischen Pixeln berechnet werden.To calculate the light that is received at the chromatic pixels, you can use the formula ( R. , G , B. ) × ( IR ) × ( Illuminant )
Figure DE102016117151B4_0039
first chromatic signals S1_R, S1_G and S1_B are calculated for each type of chromatic pixels.

Zum Beispiel kann für jeden Datenpunkt bei gleicher Wellenlänge ein Produkt von Spektralempfindlichkeiten eines Farbkanals, eines Leuchtmittels und einer Durchlässigkeit (%) eines IR-Sperrfilters berechnet werden. S1_R kann dann der summierte Bereich der Produkt-Kurve des Rot-Kanals bezogen auf die Wellenlänge sein. S1_G kann der summierte Bereich der Produkt-Kurve des Grün-Kanals bezogen auf die Wellenlänge sein. S1_B kann der summierte Bereich der Produktkurve des Bed-Kanals bezogen auf die Wellenlänge sein.For example, a product of the spectral sensitivities of a color channel, a light source and a transmittance (%) of an IR cut filter can be calculated for each data point at the same wavelength. S1_R can then be the summed area of the product curve of the red channel related to the wavelength. S1_G can be the summed area of the product curve of the green channel related to the wavelength. S1_B can be the summed area of the product curve of the Bed channel related to the wavelength.

Das an den chromatischen Pixeln (RGB) empfangene Licht Light_rgb kann anschließend ermittelt werden, indem jedes Signal mit seinem jeweiligen Gewichtungsprozentsatz multipliziert wird und die Ergebnisse addiert werden: Light _ rgb = S 1 _ R × w R + S 1 _ G × w G + S 1 _ B × w B .

Figure DE102016117151B4_0040
The light Light_rgb received at the chromatic pixels (RGB) can then be determined by multiplying each signal by its respective weighting percentage and adding the results: Light _ rgb = S. 1 _ R. × w R. + S. 1 _ G × w G + S. 1 _ B. × w B. .
Figure DE102016117151B4_0040

Das Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann dann Light_clear / Light_rgb sein. Wenn zum Beispiel die Sensorverstärkung für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Exposure Time of Chromatic Pixels ] × Light _ rgb          = [ Exposure Time of Panchromatic Pixels ] × Light _ clear .

Figure DE102016117151B4_0041
The exposure ratio between chromatic pixels and panchromatic pixels can then be Light_clear / Light_rgb. For example, if the sensor gain is set the same for both groups of pixels, then: [ Exposure Time of Chromatic Pixels ] × Light _ rgb = [ Exposure Time of Panchromatic Pixels ] × Light _ clear .
Figure DE102016117151B4_0041

Wenn die Belichtungszeit für beide Gruppen von Pixeln gleich eingestellt wird, gilt: [ Sensor Gain of Chromatic Pixels ] × Light _ rgb        = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .

Figure DE102016117151B4_0042
If the exposure time is set the same for both groups of pixels, the following applies: [ Sensor Gain of Chromatic Pixels ] × Light _ rgb = [ Sensor Gain of Panchromatic Pixels ] × Light _ clear .
Figure DE102016117151B4_0042

Es gibt Varianten des 4-Farben-Filter-Kamerasystems, das in dem Simulationsmodell 800 gezeigt ist. In einer Variante können vier Farbfilter jeweils an vier individuellen Sensoren verwendet werden. Bei dieser Variante kann eine Kamera von jeweils vier Kameras mit einem der vier Sensoren für jeden Farbkanal der RGBC-Kanäle Bilder aufnehmen. Eine weitere Variante kann ein Kamerasystem umfassen, das mehr als vier individuelle Sensoren hat, und zwar mindestens einen für jeden Farbkanal von RGBC. Es können zum Beispiel 4x4, 5x4, 4x5, 5x5 oder mehr Sensoren verwendet werden. Ein derartiges Mehrfach-Sensorsystem ist in dem US-Patent Nr. 8,514,491 beschrieben.There are variants of the 4-color filter camera system used in the simulation model 800 is shown. In a variant, four color filters can each be used on four individual sensors. In this variant, one camera can record images from four cameras with one of the four sensors for each color channel of the RGBC channels. Another variation may include a camera system that has more than four individual sensors, at least one for each color channel of RGBC. For example 4x4, 5x4, 4x5, 5x5 or more sensors can be used. Such a multiple sensor system is in the U.S. Patent No. 8,514,491 described.

Gemäß einer möglichen Ausführungsform kann für die Implementierung an einem Kameraprodukt eine LUT erstellt werden. Nachdem zum Beispiel Kameramodul-Spezifikationen bestimmt wurden, kennt man die Spektralempfindlichkeit von Sensorkanälen wie beispielsweise R, G, B, Farblos/panchromatisch und eine Durchlässigkeitskurve des IR-Sperrfilters. Die Spektralempfindlichkeiten von verschiedenen Beleuchtungsarten können durch einen Computersimulator generiert werden. Anschließend kann eine LUT-Tabelle gegenüber dem Beleuchtungstyp für jedes Kamerasystem erstellt und in dem Speicher gespeichert werden. Eine LUT-Tabelle kann zum Beispiel in folgender Form vorgesehen sein: Tabelle 1: LUT für Belichtungsverhältnis gegenüber Beleuchtungsart CCT /Beleuchtungsart Belichtungsverhältnis 2300K / Kerzenlicht a 2800K / Wolfram Halogon b 4100K / Fluoreszierend c 5000K / Tageslicht d 6500K / Tageslicht bewölkt e 7500K / Schatten f According to one possible embodiment, a LUT can be created for implementation on a camera product. For example, after camera module specifications have been determined, the spectral sensitivity of sensor channels such as R, G, B, colorless / panchromatic and a transmission curve of the IR cut filter are known. The spectral sensitivities of different types of lighting can be generated by a computer simulator. A LUT table can then be created against the lighting type for each camera system and stored in memory. A LUT table can be provided in the following form, for example: Table 1: LUT for exposure ratio versus type of lighting CCT / lighting type Exposure ratio 2300K / candlelight a 2800K / tungsten halogen b 4100K / fluorescent c 5000K / daylight d 6500K / daylight cloudy e 7500K / shade f

Die in der vorstehenden Tabelle angegebenen Beleuchtungsarten können ungefähre Beleuchtungsarten sein, die abhängig von dem Modell der Beleuchtungsart variieren können. Die Belichtungsverhältnisses (a, b, c, d, e und f) sind als Variablen angegeben, wobei die tatsächlichen Werte entsprechend den vorliegend beschriebenen Ausführungsformen ermittelt werden. Die Tabelle kann auch mehr oder weniger Varianten von CCT/Beleuchtungsarten und entsprechenden Belichtungsverhältnissen enthalten. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle der chromatischen Pixel verwendet werden, um für jede Szene die optimale Belichtung zu finden, kann diese Belichtungsverhältnis-Tabelle derart erstellt werden, dass die Belichtung für die panchromatischen Pixel basierend auf der bekannten Belichtung von chromatischen Pixeln gefunden wird. Wenn der automatische Belichtungs-Algorithmus und die Belichtungstabelle verwendet werden, um für jede Szene die optimale Belichtung zu finden, kann diese Belichtungsverhältnis-Tabelle derart erstellt werden, dass die Belichtung für die chromatischen Pixel basierend auf der bekannten Belichtung von panchromatischen Pixeln gefunden wird. Alternativ kann ein Kamerasystem die Belichtungsverhältnisse spontan in Echtzeit generieren.The types of lighting given in the table above may be approximate types of lighting that may vary depending on the lighting type model. The exposure ratios (a, b, c, d, e and f) are given as variables, and the actual values are determined according to the embodiments described herein. The table can also contain more or fewer variants of CCT / lighting types and corresponding lighting conditions. If the automatic exposure algorithm and the chromatic pixel exposure table are used to find the optimal exposure for each scene, this exposure ratio table can be used can be established such that the exposure for the panchromatic pixels is found based on the known exposure of chromatic pixels. When the automatic exposure algorithm and exposure table are used to find the optimal exposure for each scene, this exposure ratio table can be constructed so that the exposure for the chromatic pixels is found based on the known exposure of panchromatic pixels. Alternatively, a camera system can spontaneously generate the exposure conditions in real time.

Während der Echtzeitverarbeitung in einem Kamerasystem muss man lediglich warten, bis der automatische Belichtungs-Algorithmus an einer Gruppe von Pixeln (chromatisch oder panchromatisch) konvergiert. Wenn der automatische Belichtungs-Algorithmus pro Einzelaufnahme zum Beispiel zuerst an den chromatischen Pixeln konvergiert, können die Belichtungszeit und die Sensorverstärkung von chromatischen Pixeln durch die Belichtungstabelle und/oder den automatischen Belichtungs-Algorithmus von chromatischen Pixeln eingestellt werden. Die Belichtungszeit und die Sensorverstärkung von panchromatischen Pixeln können durch das Belichtungsverhältnis bei der Belichtungsart der Szene (durch einen automatischen Weißabgleichalgorithmus bestimmt) gemäß LUT eingestellt werden. Wie vorstehend erwähnt wurde, lässt sich das Belichtungsverhältnis auch in Echtzeit bestimmen.During real-time processing in a camera system, one only has to wait until the automatic exposure algorithm converges on a group of pixels (chromatic or panchromatic). For example, if the automatic exposure algorithm per single shot converges on the chromatic pixels first, the exposure time and the sensor gain of chromatic pixels can be set by the exposure table and / or the automatic exposure algorithm of chromatic pixels. The exposure time and the sensor gain of panchromatic pixels can be set by the exposure ratio for the type of exposure of the scene (determined by an automatic white balance algorithm) according to the LUT. As mentioned above, the exposure ratio can also be determined in real time.

9 ist ein Beispiel-Flussdiagramm 900 zur Darstellung des Betriebs einer Kameravorrichtung wie beispielsweise der Vorrichtung 110 gemäß einer Ausführungsform. Der Ablauf in dem Flussdiagramm beginnt bei Pos. 910. Bei Pos. 920 können mehrere Vorschaubilder aufgenommen werden. Bei Pos. 930 kann ein Algorithmus für eine automatische Belichtung von chromatischen Pixeln an den mehreren Vorschaubildern konvergieren, und dieser Algorithmus und eine Belichtungstabelle können eine erste Belichtung für chromatische Pixel bestimmen. Eine erste Belichtung kann zum Beispiel für verschiedene chromatische Pixel bestimmt werden, die Licht unterschiedlicher Farbe erfassen. Die Belichtung kann auf einem Erfassungszustand der Kamera basieren, zum Beispiel auf einem ersten Erfassungszustand. Die Belichtung kann auf der Belichtungszeit, der Blendengröße, der Pixelempfindlichkeit und auf anderen Einflussfaktoren der Belichtung basieren. Bei Pos. 940 kann eine Beleuchtungsart für eine zu erfassende Szene bestimmt werden. Zum Beispiel kann die Beleuchtungsart für die Szene durch die Anwendung eines automatischen Weißabgleichalgorithmus ermittelt oder von einem Benutzer eingestellt werden. 9 is an example flowchart 900 to illustrate the operation of a camera device such as the device 110 according to one embodiment. The sequence in the flowchart begins at item 910. At item 920, several preview images can be recorded. At 930, an algorithm for automatic exposure of chromatic pixels may converge on the plurality of preview images, and that algorithm and an exposure table may determine a first exposure for chromatic pixels. For example, a first exposure can be determined for different chromatic pixels that capture light of different colors. The exposure can be based on a detection state of the camera, for example on a first detection state. The exposure can be based on the exposure time, the aperture size, the pixel sensitivity and other factors influencing the exposure. At item 940, a type of lighting can be determined for a scene to be recorded. For example, the type of lighting for the scene can be determined using an automatic white balance algorithm or can be set by a user.

Bei Pos. 950 kann basierend auf der Beleuchtungsart für die Szene ein Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln ermittelt werden. Das Belichtungsverhältnis lässt sich durch Berechnung, durch Abruf aus einer Tabelle oder auf andere Weise ermitteln. Das Ermittlungsverhältnis kann auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Außerdem kann das Belichtungsverhältnis auf einem Verhältnis zwischen gewichtetem empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Die Gewichtung kann auf einem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basieren. Ferner kann das empfangene Licht von Pixeln auf einem summierten Bereich einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, auf einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und auf der Durchlässigkeit eines Infrarot Cut Off Filters basieren.At 950, based on the type of lighting for the scene, an exposure ratio between chromatic pixels and panchromatic pixels can be determined. The exposure ratio can be determined by calculation, by retrieving it from a table or in some other way. The determination ratio can be based on a ratio between the received light of the various chromatic pixels and the received light of the panchromatic pixels for a given type of illumination. In addition, the exposure ratio can be based on a ratio between weighted received light of the various chromatic pixels and a weighted received light of the panchromatic pixels for a given type of illumination. The weighting can be based on a percentage of the number of pixels of each color of the chromatic pixels used for the image and a percentage of the number of panchromatic pixels. Furthermore, the received light from pixels can be based on a summed area of a product curve of a spectral sensitivity of a color channel of pixels, on a spectral sensitivity of a given type of illumination and on the transmission of an infrared cut-off filter.

Bei Pos. 960 kann eine zweite Belichtung für panchromatische Pixel bestimmt werden, die panchromatisches Licht erfassen. Basierend auf dem Belichtungsverhältnis zwischen chromatischen Pixeln und panchromatischen Pixeln kann sich die erste Belichtung von der zweiten Belichtung unterscheiden. Gemäß einer möglichen Implementierung kann die erste Belichtung eine höhere Belichtung für die verschiedenen chromatischen Pixel vorsehen als für die panchromatischen Pixel. Zum Beispiel kann die erste Belichtung eine längere Belichtungszeit für die verschiedenen chromatischen Pixel, eine höhere Sensorempfindlichkeit für die verschiedenen chromatischen Pixel, eine größere Blende für die verschiedenen chromatischen Pixel oder anderweitig eine höhere Belichtung für die verschiedenen chromatischen Pixel als die zweite Belichtung für die panchromatischen Pixel vorsehen, basierend auf dem Belichtungsverhältnis und wechselseitig für die erste Belichtung in Bezug auf die zweite Belichtung. Die erste Belichtung kann vor der zweiten Belichtung bestimmt werden, und das Belichtungsverhältnis kann verwendet werden, um die zweite Belichtung basierend auf der ersten Belichtung zu bestimmen. Alternativ kann die zweite Belichtung vor der ersten Belichtung bestimmt werden, und das Belichtungsverhältnis kann verwendet werden, um die erste Belichtung basierend auf der zweiten Belichtung zu bestimmen.At 960, a second exposure can be determined for panchromatic pixels that capture panchromatic light. Based on the exposure ratio between chromatic pixels and panchromatic pixels, the first exposure may be different from the second exposure. According to one possible implementation, the first exposure can provide a higher exposure for the various chromatic pixels than for the panchromatic pixels. For example, the first exposure may have a longer exposure time for the different chromatic pixels, a higher sensor sensitivity for the different chromatic pixels, a larger aperture for the different chromatic pixels, or otherwise a higher exposure for the different chromatic pixels than the second exposure for the panchromatic pixels provide based on the exposure ratio and reciprocally for the first exposure with respect to the second exposure. The first exposure can be determined prior to the second exposure and the exposure ratio can be used to determine the second exposure based on the first exposure. Alternatively, the second exposure can be determined prior to the first exposure and the exposure ratio can be used to determine the first exposure based on the second exposure.

Gemäß einer möglichen Ausführungsform kann bei der Bestimmung der Belichtung für die Pixel die gleiche Sensorverstärkung für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel eingestellt werden. Danach können die Belichtungszeit der chromatischen Pixel basierend auf der ersten Belichtung und die Belichtungszeit der panchromatischen Pixel basierend auf der zweiten Belichtung oder wechselseitig die erste Belichtung basierend auf der zweiten Belichtung eingestellt werden. Gemäß einer weiteren Implementierung kann bei der Bestimmung der Belichtung für die Pixel die gleiche Belichtungszeit für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel eingestellt werden. Die Sensorverstärkung der chromatischen Pixel lässt sich dann basierend auf der ersten Belichtung und die Sensorverstärkung der panchromatischen Pixel basierend auf der zweiten Belichtung oder wechselseitig die erste Belichtung basierend auf der zweiten Belichtung einstellen. Bei anderen möglichen Implementierungen können verschiedene Kombinationen von Sensorverstärkung, Belichtungszeit, Blendengröße und anderen Faktoren zum Einstellen der Belichtung der chromatischen Pixel und der panchromatischen Pixel verwendet werden.According to one possible embodiment, when determining the exposure for the pixels, the same sensor gain can be set for the different chromatic pixels as for the panchromatic pixels. Thereafter, the exposure time of the chromatic pixels based on the first exposure and the exposure time of the panchromatic pixels based on the second exposure or the first exposure can be alternately set based on the second exposure. According to a further implementation, when determining the exposure for the pixels, the same exposure time can be set for the various chromatic pixels as for the panchromatic pixels. The sensor gain of the chromatic pixels can then be adjusted based on the first exposure and the sensor gain of the panchromatic pixels can be adjusted based on the second exposure or alternately the first exposure can be adjusted based on the second exposure. In other possible implementations, various combinations of sensor gain, exposure time, aperture size, and other factors can be used to adjust the exposure of the chromatic pixels and the panchromatic pixels.

Bei Pos. 970 kann zumindest ein Bild einer Szene erfasst werden, wobei die erste Belichtung für die verschiedenen chromatischen Pixel und die zweite Belichtung für die panchromatischen Pixel verwendet wird. Gemäß einer möglichen Implementierung können sich die verschiedenen chromatischen Pixel und die panchromatischen Pixel auf demselben Sensor oder in derselben Kamera befinden. Gemäß einer weiteren Implementierung können sich die verschiedenen chromatischen Pixel in einer anderen Kamera oder auf einem anderen Sensor als die panchromatischen Pixel befinden und sogar in anderen Kameras oder auf anderen Sensoren als andere chromatische Pixel. Zum Beispiel können die verschiedenen chromatischen Pixel solche auf einem ersten Sensor in einer ersten Kamera und die panchromatischen Pixel solche auf einem zweiten Sensor in einer zweiten Kamera sein. Die Erfassung von wenigstens einem Bild kann dann die Erfassung eines ersten Bildes unter Verwendung der verschiedenen chromatischen Pixel auf dem ersten Sensor in der ersten Kamera mit der ersten Belichtung und die Erfassung eines zweiten Bildes unter Verwendung der panchromatischen Pixel auf dem zweiten Sensor in der zweiten Kamera oder umgekehrt umfassen. Das erste und das zweite Bild können anschließend zu dem wenigstens einen Bild zusammengesetzt werden.At 970, at least one image of a scene can be captured, the first exposure being used for the various chromatic pixels and the second exposure being used for the panchromatic pixels. According to one possible implementation, the different chromatic pixels and the panchromatic pixels can be on the same sensor or in the same camera. According to another implementation, the different chromatic pixels may be in a different camera or on a different sensor than the panchromatic pixels and even in different cameras or on different sensors than different chromatic pixels. For example, the various chromatic pixels may be those on a first sensor in a first camera and the panchromatic pixels may be those on a second sensor in a second camera. The acquisition of at least one image can then include the acquisition of a first image using the different chromatic pixels on the first sensor in the first camera with the first exposure and the acquisition of a second image using the panchromatic pixels on the second sensor in the second camera or vice versa. The first and the second image can then be combined to form the at least one image.

Bei Pos. 980 kann ein Ausgabebild generiert werden. Zum Beispiel kann ein Bildsignalprozessor (ISP) die chromatischen und panchromatischen Pixel verarbeiten, um ein Ausgabebild zu generieren. Bei Pos. 990 kann das Bild ausgegeben werden. Die Bildausgabe kann über einen Sendeempfänger beispielsweise an ein Display, an einen Speicher, an einen Drucker oder an ein anderes Gerät und/oder anderweitig erfolgen. Bei Pos. 995 kann der Ablauf in dem Flussdiagramm 900 enden.At item 980 an output image can be generated. For example, an image signal processor (ISP) can process the chromatic and panchromatic pixels to generate an output image. At item 990 the image can be output. The image output can take place via a transceiver, for example to a display, to a memory, to a printer or to another device and / or otherwise. At item 995 the sequence in the flowchart 900 end up.

Es versteht sich, dass ungeachtet der in den Figuren dargestellten bestimmten Schritte abhängig von der Ausführungsform eine Vielfalt von zusätzlichen oder anderen Schritten durchgeführt werden kann und dass ein oder mehrere der bestimmten Schritte abhängig von der Ausführungsform umgeordnet, wiederholt werden oder ganz entfallen können. Ebenso können durchgeführte Schritte laufend oder kontinuierlich wiederholt werden, während andere Schritte gleichzeitig in Durchführung sind. Ferner können verschiedene Schritte durch verschiedene Elemente oder in einem einzigen Element der beschriebenen Ausführungsformen durchgeführt werden.It goes without saying that regardless of the specific steps depicted in the figures, depending on the embodiment, a variety of additional or different steps can be performed and that one or more of the specific steps can be rearranged, repeated or omitted entirely, depending on the embodiment. Steps that have been carried out can also be repeated continuously or continuously while other steps are being carried out at the same time. Furthermore, different steps can be performed by different elements or in a single element of the described embodiments.

10 ist ein Beispiel-Blockdiagramm einer Vorrichtung 1000 wie beispielsweise die Vorrichtung 110, gemäß einer möglichen Ausführungsform. Die Vorrichtung 1000 kann ein Gehäuse 1010, eine Steuereinheit 1020 in dem Gehäuse 1010, eine Audioeingabe- und Ausgabeschaltung 1030, die mit der Steuereinheit 1020 verbunden ist, ein mit der Steuereinheit 1020 verbundenes Display 1040, einen mit der Steuereinheit 1020 verbundenen Sendeempfänger 1050, eine mit dem Sendeempfänger 1050 verbundene Antenne 1055, eine mit der Steuereinheit 1020 verbundene Benutzerschnittstelle 1060, einen mit der Steuereinheit 1020 verbundenen Speicher und eine mit der Steuereinheit 1020 verbundene Netzwerkschnittstelle 1080 umfassen. Ebenso kann die Vorrichtung 1000 mindestens eine Kamera 1090 wie beispielsweise die Kameraeinheit 120, die Kameraeinheit 210, die Kameraeinheiten 610 und 640, die Kameraeinheit 810 und/oder eine andere Kamera oder Kameraeinheit enthalten. Die Kamera 1090 kann ein Objektiv 1092 und einen Sensor 1094 enthalten. Abhängig von der Implementierung der Vorrichtung 1000 beispielsweise als Einzelkamera im Vergleich zu einem Smartphone erfordert die Vorrichtung nicht notwendigerweise alle dargestellten Elemente. Die Vorrichtung kann die Verfahren durchführen, die in all den Ausführungsformen beschrieben sind. 10 Figure 3 is an example block diagram of an apparatus 1000 such as the device 110 , according to one possible embodiment. The device 1000 can be a housing 1010 , a control unit 1020 in the case 1010 , an audio input and output circuit 1030 that came with the control unit 1020 connected, one to the control unit 1020 connected display 1040 , one with the control unit 1020 associated transceiver 1050 , one with the transceiver 1050 connected antenna 1055 , one with the control unit 1020 connected user interface 1060 , one with the control unit 1020 connected memory and one with the control unit 1020 connected network interface 1080 include. Likewise, the device 1000 at least one camera 1090 such as the camera unit 120 , the camera unit 210 who have favourited camera units 610 and 640 , the camera unit 810 and / or another camera or camera unit. The camera 1090 can be a lens 1092 and a sensor 1094 contain. Depending on the implementation of the device 1000 For example, as a single camera compared to a smartphone, the device does not necessarily require all of the elements shown. The device can carry out the methods described in all of the embodiments.

Das Display 1400 kann mehrere Displays umfassen und kann ein Bildsucher sein, eine Flüssigkristallanzeige (LCD), ein Leuchtdioden-Display (LED-Display), ein Plasma-Display, ein Projektions-Display, ein Touchscreen, ein LED-Blitz oder eine andere Vorrichtung oder einer Kombination von Vorrichtungen, die Informationen anzeigen und/oder Licht aussenden. Der Sendeempfänger 1050 kann einen Sender und/oder einen Empfänger umfassen. Die Audioeingabe- und Ausgabeschaltung 1030 kann ein Mikrophon, einen Lautsprecher, einen Messwertgeber oder eine andere Audioeingabe- und Ausgabeschaltung umfassen. Die Benutzerschnittstelle 1060 kann eine Kleintastatur, eine Tastatur, Tasten, ein Touchpad, einen Joystick, ein Touchscreen-Display, ein anderes zusätzliches Display oder eine andere Einrichtung für die Schaffung einer Schnittstelle zwischen einem Benutzer und einem elektronischen Gerät umfassen. Die Netzwerkschnittstelle 1080 kann ein Universal Serial Bus (USB) Port sein, ein Ethernet-Port, ein Infrarot-Sendeempfänger, ein IEEE 13910 Port, ein WLAN-Sendeempfänger oder eine andere Schnittstelle, die eine Vorrichtung mit einem Netzwerk, einem Gerät oder einem Computer für die Übertragung und den Empfang von Datenkommunikationssignalen verbinden kann. Der Speicher 1070 kann einen Speicher mit wahlfreiem Zugriff, einen Nur-Lese-Speicher, einen optischen Speicher, einen Flash-Speicher, einen entfernbaren Speicher, eine Festplatte, einen Cache oder einen anderen Speicher umfassen, der mit einer drahtlosen Kommunikationsvorrichtung verbunden werden kann.the display 1400 may include multiple displays and may be a viewfinder, liquid crystal display (LCD), light emitting diode (LED) display, plasma display, projection display, touch screen, LED flash, or other device, or a combination of devices that display information and / or emit light. The transceiver 1050 may comprise a transmitter and / or a receiver. The audio input and output circuitry 1030 may include a microphone, speaker, transducer, or other audio input and output circuitry. The user interface 1060 may include a keyboard, keyboard, buttons, touchpad, joystick, touchscreen display, other additional display, or other means for creating an interface between a user and an electronic device. The network interface 1080 can be a Universal Serial Bus (USB) port, an Ethernet port, an infrared transceiver, an IEEE 13910 Port, WLAN transceiver, or other interface that can connect a device to a network, device, or computer for the transmission and reception of data communication signals. The memory 1070 may include random access memory, read-only memory, optical memory, flash memory, removable memory, hard drive, cache, or other memory that can be connected to a wireless communication device.

In der Vorrichtung 1000 oder in der Steuereinheit 1020 kann ein Betriebssystem implementiert sein, zum Microsoft Windows®, UNIX® oder LINUX®, AndroidTM oder ein anderes Betriebssystem. Die Betriebssoftware für die Vorrichtung oder das Gerät kann in einer beliebigen Programmiersprache geschrieben sein, zum Beispiel in C, C++, Java oder Visual Basic. Die Anwendungssoftware kann auch auf einem Application Framework bzw. einer Anwendungsrahmenstruktur wie einem Java® Framework, einem N.E.T.® Framework oder einem anderen Application Framework laufen. Die Software und/oder das Betriebssystem können in dem Speicher 1070 oder an einem anderen Ort in der Vorrichtung 1000 gespeichert sein. Die Vorrichtung 1000 oder die Steuereinheit 1020 können auch Hardware nutzen, um die beschriebenen Operationen durchzuführen. Zum Beispiel kann die Steuereinheit 1020 ein programmierbarer Prozessor sein. Beschriebene Ausführungsformen können auch an einem Universalrechner oder einem Spezialrechner, einem programmierten Mikroprozessor oder Mikroprozessor, an integrierten Peripherie-Schaltungselementen, einer anwendungsspezifischen integrierten Schaltung oder einer anderen integrierten Schaltung, elektronischen Hardware/Logikschaltungen wie eine Schaltung mit diskreten Elementen, einem programmierbaren Logikelement wie beispielsweise ein programmierbares Logic Array, ein feldprogrammierbares Gate Array oder dergleichen implementiert sein. Im Allgemeinen kann die Steuereinheit 1020 eine beliebige Steuervorrichtung oder Prozessorvorrichtung oder-vorrichtungen sein, mit denen ein drahtloses Kommunikationsgerät betrieben werden kann und die beschriebenen Ausführungsformen implementiert werden können. Als weitere Beispiele kann die Steuereinheit einen Prozessor, einen Bildsignalprozessor, eine automatische Belichtungssynchronisationslogik, Software, Hardware und/oder eine andere Steuerung umfassen, die in den Ausführungsformen beschriebene Operationen durchführen kann.In the device 1000 or in the control unit 1020 may be implemented for Microsoft Windows ®, UNIX ® or Linux ®, Android ™ or another operating system, an operating system. The operating software for the device or the device can be written in any programming language, for example in C, C ++, Java or Visual Basic. The application software can also run on an application framework or an application framework structure such as a Java® framework, a NET® framework or another application framework. The software and / or the operating system can be in the memory 1070 or at another location in the device 1000 be saved. The device 1000 or the control unit 1020 can also use hardware to perform the operations described. For example, the control unit 1020 be a programmable processor. The described embodiments can also be applied to a general-purpose computer or a special-purpose computer, a programmed microprocessor or microprocessor, integrated peripheral circuit elements, an application-specific integrated circuit or another integrated circuit, electronic hardware / logic circuits such as a circuit with discrete elements, a programmable logic element such as a programmable logic array, a field-programmable gate array or the like can be implemented. In general, the control unit can 1020 any control device or processor device or devices capable of operating a wireless communication device and implementing the described embodiments. As further examples, the control unit may include a processor, an image signal processor, automatic exposure synchronization logic, software, hardware, and / or other controller capable of performing operations described in the embodiments.

Im Betriebszustand kann der Sensor 1094 der mindestens einen Kamera 1090 Licht unterschiedlicher Farbe an verschiedenen chromatischen Pixeln und panchromatisches Licht an panchromatischen Pixeln wahrnehmen oder beispielsweise erfassen. Die panchromatischen Pixel und die chromatischen Pixel können Pixel auf demselben Sensor in einer Kameraeinheit oder Pixel auf separaten Sensoren in separaten Kameraeinheiten sein. Die Steuereinheit 1020 kann eine Beleuchtungsart einer Szene erfassen und kann ein Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln basierend auf der Art der Beleuchtung der Szene ermitteln.When in operation, the sensor can 1094 the at least one camera 1090 Perceive or detect light of different colors at different chromatic pixels and panchromatic light at panchromatic pixels, for example. The panchromatic pixels and the chromatic pixels can be pixels on the same sensor in one camera unit or pixels on separate sensors in separate camera units. The control unit 1020 may detect an illumination type of a scene, and may determine an exposure ratio between the chromatic pixels and the panchromatic pixels based on the type of illumination of the scene.

Die Steuereinheit 1020 kann eine erste Belichtung für verschiedene chromatische Pixel und eine zweite Belichtung für die panchromatischen Pixel bestimmen. Basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln kann die erste Belichtung eine andere sein als die zweite Belichtung. Die erste Belichtung kann für die verschiedenen chromatischen Pixel eine höhere Belichtung als für die panchromatischen Pixel vorsehen.The control unit 1020 may determine a first exposure for different chromatic pixels and a second exposure for the panchromatic pixels. Based on the exposure ratio between the chromatic pixels and the panchromatic pixels, the first exposure may be different from the second exposure. The first exposure can provide a higher exposure for the various chromatic pixels than for the panchromatic pixels.

Das Belichtungsverhältnis kann auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Das Belichtungsverhältnis kann ferner auf einem Verhältnis zwischen dem gewichteten empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basieren. Die Gewichtung kann auf dem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basieren. Das empfangene Licht von Pixeln kann auf dem summierten Bereich einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, auf einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und auf einer Durchlässigkeit eines Infrarot-Sperrfilters basieren. Gemäß einer möglichen Implementierung kann die Steuereinheit 1020 die gleiche Sensorverstärkung der chromatischen Pixel wie der panchromatischen Pixel einstellen, kann die Belichtungszeit der chromatischen Pixel basierend auf der ersten Belichtung einstellen und kann die Belichtungszeit der panchromatischen Pixel basierend auf der zweiten Belichtung, die auf der ersten Belichtung basiert, einstellen. Gemäß einer weiteren möglichen Implementierung kann die Steuereinheit 1020 die gleiche Belichtungszeit der chromatischen Pixel und der panchromatischen Pixel einstellen, kann die Sensorverstärkung der chromatischen Pixel basierend auf der ersten Belichtung einstellen und kann die Sensorverstärkung der panchromatischen Pixel basierend auf der zweiten Belichtung, die auf der ersten Belichtung basiert, einstellen. Ähnlich kann die Steuereinheit 1020 die Sensorverstärkung, die Belichtungszeit, die Blendengröße oder eine andere Belichtungskomponente der panchromatischen Pixel zuerst und dann die andere jeweilige Belichtungskomponente der chromatischen Pixel basierend auf der Belichtungskomponente der panchromatischen Pixel, die auf dem Belichtungsverhältnis basiert, einstellen.The exposure ratio may be based on a ratio between the received light of the various chromatic pixels and the received light of the panchromatic pixels for a given type of lighting. The exposure ratio may further be based on a ratio between the weighted received light of the various chromatic pixels and a weighted received light of the panchromatic pixels for a given type of illumination. The weighting can be based on the percentage of the number of pixels of each color of the chromatic pixels used for the image and a percentage of the number of panchromatic pixels. The received light from pixels may be based on the summed area of a product curve of a spectral sensitivity of a color channel of pixels, on a spectral sensitivity of a given type of illumination, and on a transmittance of an infrared cut filter. According to one possible implementation, the control unit can 1020 set the same sensor gain of the chromatic pixels as the panchromatic pixels, can set the exposure time of the chromatic pixels based on the first exposure, and can set the exposure time of the panchromatic pixels based on the second exposure based on the first exposure. According to a further possible implementation, the control unit 1020 set the same exposure time of the chromatic pixels and the panchromatic pixels, can adjust the sensor gain of the chromatic pixels based on the first exposure, and can adjust the sensor gain of the panchromatic pixels based on the second exposure based on the first exposure. The control unit can 1020 adjust the sensor gain, exposure time, aperture size, or another exposure component of the panchromatic pixels first and then adjust the other respective exposure component of the chromatic pixels based on the exposure component of the panchromatic pixels based on the exposure ratio.

Die mindestens eine Kamera 1090 kann mindestens ein Bild von einer Szene erfassen, wobei die erste Belichtung für die verschiedenen chromatischen Pixel und die zweite Belichtung für die panchromatischen Pixel gleichzeitig verwendet werden. Die Steuereinheit 1090 kann das erste und das zweite Bild zusammensetzen, um mindestens ein Bild zu generieren. Die Steuereinheit 1090 kann dieses mindestens eine Bild beispielsweise an das Display 1040, an den Speicher 1070, über die Netzwerkschnittstelle 1080 beispielsweise an einen Drucker oder über den Sendeempfänger 1050 ausgeben und/oder kann dieses mindestens eine Bild auf andere Weise ausgeben.The at least one camera 1090 can capture at least one image of a scene using the first exposure for the different chromatic pixels and the second exposure for the panchromatic pixels at the same time. The control unit 1090 may combine the first and second images to generate at least one image. The control unit 1090 this at least one image can be sent to the display, for example 1040 , to the memory 1070 , via the network interface 1080 for example to a printer or via the transceiver 1050 output and / or can output this at least one image in another way.

Das vorliegende Verfahren kann auf einem programmierten Prozessor durchgeführt werden. Die Steuerungen, die Flussdiagramme und Module können jedoch auch auf einem Universalcomputer oder einem Spezialcomputer, einem programmierten Mikroprozessor oder Mikroprozessor und an integrierten Peripherie-Schaltungselementen, an einer integrierten Schaltung, einer elektronischen Hardware- oder Logikschaltung wie ein diskretes Schaltungselement, einem programmierbaren Logikbaustein oder dergleichen implementiert werden. Generell kann jede Vorrichtung, in der sich ein endlicher Automat befindet, der die in den Figuren dargestellten Flussdiagramme implementieren kann, verwendet werden, um die Prozessorfunktionen der vorliegenden Beschreibung zu implementieren. The present method can be performed on a programmed processor. The controls, flowcharts and modules can, however, also be used on a general-purpose or special purpose computer, a programmed microprocessor or microprocessor and on integrated peripheral circuit elements, on an integrated circuit, an electronic hardware or logic circuit such as a discrete circuit element, a programmable logic module or the like implemented. In general, any device that contains a finite state machine that can implement the flowcharts shown in the figures can be used to implement the processor functions of the present description.

Vorstehend wurden bestimmte Ausführungsformen beschrieben. Der Fachmann wird jedoch erkennen, dass zahlreiche Alternativen, Modifikationen und Varianten möglich sind. Es können zum Beispiel in den anderen Ausführungsformen verschiedene Komponenten der Ausführungsformen getauscht, hinzugefügt oder substituiert werden. Ebenso sind nicht alle Elemente, die in einer jeweiligen Figur gezeigt sind, für den Betrieb der beschriebenen Ausführungsform notwendig. Zum Beispiel wäre der Durchschnittsfachmann in der Lage durch die einfache Verwendung der Elemente der unabhängigen Ansprüche die Lehren der Erfindung zu erstellen und zu nutzen. Dementsprechend sind die vorstehenden Ausführungsformen der Erfindung lediglich illustrativ und nicht beschränkend. Verschiedene Änderungen sind möglich, ohne den Erfindungsgedanken zu verlassen.Certain embodiments have been described above. However, those skilled in the art will recognize that numerous alternatives, modifications, and variations are possible. For example, various components of the embodiments can be exchanged, added, or substituted in the other embodiments. Likewise, not all of the elements shown in a respective figure are necessary for the operation of the embodiment described. For example, one of ordinary skill in the art would be able to make and utilize the teachings of the invention simply by using the elements of the independent claims. Accordingly, the foregoing embodiments of the invention are illustrative in nature and not restrictive. Various changes are possible without departing from the inventive concept.

In der vorliegenden Beschreibung wurden die Begriffe „erst/e/r/s“, „zweit/e/r/s“ und dergleichen lediglich verwendet, um eine Einheit oder eine Aktion von einer weiteren Einheit oder weiteren Aktion zu unterscheiden, auch wenn eine solche Beziehung oder Ordnung zwischen den Einheiten oder Aktionen nicht tatsächlich vorliegt oder notwendig ist. Der Ausdruck „ein/e/r/s von“, gefolgt von einer Aufzählung, bedeutet, dass von den Elementen in der Aufzählung eines, einige oder alle, aber nicht notwendigerweise alle vorhanden sind. Die Begriffe „umfasst“, „umfassend“ oder andere Formen derselben sollen zum Ausdruck bringen, dass ein Prozess, ein Verfahren, ein Gegenstand oder ein Gerät, in dem das aufgelistete Elemente umfasst ist, nicht ausschließlich diese Elemente umfasst, sondern auch andere oder weitere Elemente umfassen kann, die nicht ausdrücklich aufgelistet sind. Ist von „einem“ Element die Rede, bedeutet das nicht, dass in dem Prozess, dem Verfahren, dem Gegenstand oder dem Gerät, der/das dieses Element umfasst, nicht auch weitere identische Elemente vorhanden sind. Ebenso bedeutet der Begriffe „ein weiterer bzw. eine weitere oder ein weiteres“, mindestens ein zweites oder mehr Elemente. Die in der Beschreibung verwendeten Begriffe „enthaltend“, „aufweisend“ haben die Bedeutung von „umfassend“. Ferner beruhen die Ausführungen in dem Abschnitt „Hintergrund“ auf eigenen Erkenntnissen des Erfinders betreffend den Kontext einiger Ausführungsformen zum Anmeldezeitpunkt und auf der Erkennung von Problemen bei bestehenden Technologien und/oder Problemen oder Schwierigkeiten im Rahmen der eigenen Arbeit des Erfinders.In the present description, the terms “first”, “second” and the like were only used to distinguish a unit or an action from a further unit or further action, even if a such relationship or order between units or actions does not actually exist or is necessary. The term “a of” followed by a list means that there are one, some, or all, but not necessarily all, of the items in the list. The terms “comprises”, “comprising” or other forms of the same are intended to express that a process, a method, an object or a device in which the listed element is included does not exclusively include these elements, but also other or further elements May include items not specifically listed. If “an” element is mentioned, this does not mean that the process, method, object or device that comprises this element does not also contain other identical elements. Likewise, the term “a further or a further or a further” means at least one second or more elements. The terms “containing” and “having” used in the description have the meaning of “comprising”. Furthermore, the explanations in the “Background” section are based on the inventor's own findings regarding the context of some embodiments at the time of filing and on the recognition of problems with existing technologies and / or problems or difficulties in the context of the inventor's own work.

Claims (22)

Verfahren (900), umfassend: das Bestimmen (930) einer ersten Belichtung für verschiedene chromatische Pixel, die Licht unterschiedlicher Farbe erfassen; das Erfassen (940) einer Beleuchtungsart der Szene; das Ermitteln (950) eines Belichtungsverhältnisses zwischen den chromatischen Pixeln und panchromatischen Pixeln basierend auf der Beleuchtungsart der Szene; das Bestimmen (960) einer zweiten Belichtung für die panchromatischen Pixel, die panchromatisches Licht erfassen, wobei sich basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln die erste Belichtung von der zweiten Belichtung unterscheidet; und die Aufnahme (970) von mindestens einem Bild der Szene unter Verwendung der ersten Belichtung für die verschiedenen chromatischen Pixel und der zweiten Belichtung für die panchromatischen Pixel.A method (900) comprising: determining (930) a first exposure for different chromatic pixels that detect different color light; detecting (940) an illumination type of the scene; determining (950) an exposure ratio between the chromatic pixels and panchromatic pixels based on the type of illumination of the scene; determining (960) a second exposure for the panchromatic pixels detecting panchromatic light, the first exposure being different from the second exposure based on the exposure ratio between the chromatic pixels and the panchromatic pixels; and capturing (970) at least one image of the scene using the first exposure for the various chromatic pixels and the second exposure for the panchromatic pixels. Verfahren (900) nach Anspruch 1, wobei die erste Belichtung eine höhere Belichtung für die verschiedenen chromatischen Pixel als für die panchromatischen Pixel vorsieht.Method (900) according to Claim 1 wherein the first exposure provides a higher exposure for the various chromatic pixels than for the panchromatic pixels. Verfahren (900) nach Anspruch 1 oder Anspruch 2, wobei das Belichtungsverhältnis auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basiert.Method (900) according to Claim 1 or Claim 2 wherein the exposure ratio is based on a ratio between the received light of the various chromatic pixels and the received light of the panchromatic pixels for a given type of illumination. Verfahren (900) nach Anspruch 3, wobei das Belichtungsverhältnis auf einem Verhältnis zwischen gewichtetem empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatische Pixel bei einer gegebenen Beleuchtungsart basiert, wobei die Gewichtung auf einem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basiert.Method (900) according to Claim 3 wherein the exposure ratio is based on a ratio between weighted received light of the various chromatic pixels and a weighted received light of the panchromatic pixels for a given lighting type, the weighting being based on a percentage of the number of pixels of each color of the chromatic pixels used for the image and based on a percentage of the number of panchromatic pixels. Verfahren (900) nach einem der Ansprüche 1 bis 4, wobei das empfangene Licht von Pixeln auf einem summierten Bereich (Summed Area) einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und einer Durchlässigkeit eines Infrarot-Sperrfilters basiert.Method (900) according to one of the Claims 1 until 4th wherein the received light of pixels is based on a summed area of a product curve of a spectral sensitivity of a color channel of pixels, a spectral sensitivity of a given type of illumination and a transmittance of an infrared cut filter. Verfahren (900) nach einem der Ansprüche 1 bis 5, ferner umfassend: das Einstellen der gleichen Sensorverstärkung für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel; das Einstellen der Belichtungszeit für die chromatischen Pixel basierend auf der ersten Belichtung; und das Einstellen der Belichtungszeit für die panchromatischen Pixel basierend auf der zweiten Belichtung.Method (900) according to one of the Claims 1 until 5 , further comprising: setting the same sensor gain for the different chromatic pixels as for the panchromatic pixels; adjusting the exposure time for the chromatic pixels based on the first exposure; and adjusting the exposure time for the panchromatic pixels based on the second exposure. Verfahren (900) nach einem der Ansprüche 1 bis 6, ferner umfassend: das Einstellen der gleichen Belichtungszeit für die verschiedenen chromatischen Pixel wie für die panchromatischen Pixel; das Einstellen der Sensorverstärkung der chromatischen Pixel basierend auf der ersten Belichtung; und das Einstellen der Sensorverstärkung der panchromatischen Pixel basierend auf der zweiten Belichtung.Method (900) according to one of the Claims 1 until 6th , further comprising: setting the same exposure time for the different chromatic pixels as for the panchromatic pixels; adjusting the sensor gain of the chromatic pixels based on the first exposure; and adjusting the sensor gain of the panchromatic pixels based on the second exposure. Verfahren (900) nach einem der Ansprüche 1 bis 7, wobei die verschiedenen chromatischen Pixel solche auf einem ersten Sensor in einer ersten Kamera sind, wobei die panchromatischen Pixel solche auf einem zweiten Sensor in einer zweiten Kamera sind und wobei die Aufnahme von wenigstens einem Bild die Erfassung eines ersten Bildes unter Verwendung der verschiedenen chromatischen Pixel auf dem ersten Sensor in der ersten Kamera mit der ersten Belichtung und im selben Moment die Erfassung eines zweiten Bildes unter Verwendung der panchromatischen Pixel auf dem zweiten Sensor in der zweiten Kamera umfasst.Method (900) according to one of the Claims 1 until 7th wherein the different chromatic pixels are those on a first sensor in a first camera, the panchromatic pixels are those on a second sensor in a second camera, and wherein capturing at least one image involves capturing a first image using the different chromatic pixels on the first sensor in the first camera with the first exposure and at the same moment capturing a second image using the panchromatic pixels on the second sensor in the second camera. Verfahren (900) nach Anspruch 8, ferner umfassend das Zusammensetzen des ersten Bildes und des zweiten Bildes, um mindestens ein Bild zu generieren.Method (900) according to Claim 8 , further comprising composing the first image and the second image to generate at least one image. Verfahren (900) nach einem der Ansprüche 1 bis 7, wobei die panchromatischen Pixel und die chromatischen Pixel solche auf demselben Sensor in einer Kamera sind.Method (900) according to one of the Claims 1 until 7th , where the panchromatic pixels and the chromatic pixels are those on the same sensor in a camera. Verfahren (900) nach einem der Ansprüche 1 bis 10, ferner umfassend die Ausgabe von mindestens einem Bild.Method (900) according to one of the Claims 1 until 10 , further comprising outputting at least one image. Vorrichtung (1000), umfassend: mindestens eine Kameraeinheit (1090) mit einem Objektiv (1092) und einem Sensor (1094), wobei der Sensor der mindestens einen Kameraeinheit (1090) wirksam ist für die Erfassung von Licht unterschiedlicher Farbe an verschiedenen chromatischen Pixeln und von panchromatischem Licht an panchromatischen Pixeln; und eine Steuereinheit (1020), die mit der mindestens einen Kamera (1090) wirkverbunden ist, wobei die Steuereinheit (1020) wirksam ist für: die Erfassung einer Beleuchtungsart einer Szene, die Ermittlung eines Belichtungsverhältnisses zwischen den chromatischen Pixeln und den panchromatischen Pixeln basierend auf der Beleuchtungsart der Szene und das Bestimmen einer ersten Belichtung für die verschiedenen chromatischen Pixel und einer zweiten Beleuchtung für die panchromatischen Pixel, wobei sich basierend auf dem Belichtungsverhältnis zwischen den chromatischen Pixeln und den panchromatischen Pixeln die erste Belichtung von der zweiten Belichtung unterscheidet, wobei die mindestens eine Kamera (1090) ein Bild der Szene unter gleichzeitiger Verwendung der ersten Belichtung für die verschiedenen chromatischen Pixel und der zweiten Belichtung für die panchromatischen Pixel aufnimmt.Apparatus (1000) comprising: at least one camera unit (1090) with an objective (1092) and a sensor (1094), the sensor of the at least one camera unit (1090) being effective for the detection of light of different colors at different chromatic pixels and of panchromatic light on panchromatic pixels; and a control unit (1020), which is operatively connected to the at least one camera (1090), the control unit (1020) being effective for: detecting a type of illumination of a scene, determining an exposure ratio between the chromatic pixels and the panchromatic pixels based on the lighting type of the scene and determining a first exposure for the various chromatic pixels and a second illumination for the panchromatic pixels, the first exposure differing from the second exposure based on the exposure ratio between the chromatic pixels and the panchromatic pixels, wherein the at least one camera (1090) captures an image of the scene using simultaneously the first exposure for the various chromatic pixels and the second exposure for the panchromatic pixels. Vorrichtung (1000) nach Anspruch 12, wobei die erste Belichtung eine höhere Belichtung für die verschiedenen chromatischen Pixel als für panchromatischen Pixel vorsieht.Device (1000) according to Claim 12 wherein the first exposure provides a higher exposure for the various chromatic pixels than for panchromatic pixels. Vorrichtung (1000) nach Anspruch 12 oder Anspruch 13, wobei das Belichtungsverhältnis auf einem Verhältnis zwischen dem empfangenen Licht der verschiedenen chromatischen Pixel und dem empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basiert.Device (1000) according to Claim 12 or Claim 13 wherein the exposure ratio is based on a ratio between the received light of the various chromatic pixels and the received light of the panchromatic pixels for a given type of illumination. Vorrichtung (1000) nach Anspruch 14, wobei das Belichtungsverhältnis auf einem Verhältnis zwischen gewichtetem empfangenen Licht der verschiedenen chromatischen Pixel und einem gewichteten empfangenen Licht der panchromatischen Pixel bei einer gegebenen Beleuchtungsart basiert, wobei die Gewichtung auf einem Prozentsatz der Anzahl von Pixeln jeder Farbe der chromatischen Pixel, die für das Bild verwendet werden, und einem Prozentsatz der Anzahl von panchromatischen Pixeln basiert.Device (1000) according to Claim 14 wherein the exposure ratio is based on a ratio between weighted received light of the various chromatic pixels and a weighted received light of the panchromatic pixels for a given lighting type, the weighting being based on a percentage of the number of pixels of each color of the chromatic pixels used for the image and based on a percentage of the number of panchromatic pixels. Vorrichtung (1000) nach einem der Ansprüche 12 bis 15, wobei das empfangene Licht von Pixeln auf einem summierten Bereich (Summed Area) einer Produkt-Kurve einer Spektralempfindlichkeit eines Farbkanals von Pixeln, einer Spektralempfindlichkeit einer gegebenen Beleuchtungsart und einer Durchlässigkeit eines Infrarot-Sperrfilters basiert.Device (1000) according to one of the Claims 12 until 15th wherein the received light of pixels is based on a summed area of a product curve of a spectral sensitivity of a color channel of pixels, a spectral sensitivity of a given type of illumination and a transmittance of an infrared cut filter. Vorrichtung (1000) nach einem der Ansprüche 12 bis 16, wobei die Steuereinheit wirksam ist für die Einstellung der gleichen Sensorverstärkung der chromatischen Pixel wie der panchromatischen Pixel, für die Einstellung der Belichtungszeit der chromatischen Pixel basierend auf der ersten Belichtung und für die Einstellung der Belichtungszeit der panchromatischen Pixel basierend auf der zweiten Belichtung.Device (1000) according to one of the Claims 12 until 16 wherein the control unit is effective for setting the same sensor gain of the chromatic pixels as the panchromatic pixels, for setting the exposure time of the chromatic pixels based on the first exposure and for setting the exposure time of the panchromatic pixels based on the second exposure. Vorrichtung (1000) nach einem der Ansprüche 12 bis 17, wobei die Steuereinheit wirksam ist für die Einstellung der gleichen Belichtungszeit der chromatischen Pixel und der panchromatischen Pixel, für die Einstellung der Sensorverstärkung der chromatischen Pixel basierend auf der ersten Belichtung und für die Einstellung der Sensorverstärkung der panchromatischen Pixel basierend auf der zweiten Belichtung.Device (1000) according to one of the Claims 12 until 17th wherein the control unit is effective for setting the same exposure time of the chromatic pixels and the panchromatic pixels, for setting the sensor gain of the chromatic pixels based on the first exposure and for setting the sensor gain of the panchromatic pixels based on the second exposure. Vorrichtung (1000) nach einem der Ansprüche 12 bis 18, wobei die mindestens eine Kamera (1090) umfasst: eine erste Kamera mit einem ersten Objektiv und einem ersten Sensor, wobei der erste Sensor wirksam ist für die Erfassung von Licht unterschiedlicher Farbe an verschiedenen chromatischen Pixeln und wirksam ist für die Aufnahme eines ersten Bildes von der Szene an den verschiedenen chromatischen Pixeln unter Verwendung der ersten Belichtung für die chromatischen Pixel; und eine zweite Kamera mit einem zweiten Objektiv und einem zweiten Sensor, wobei der zweite Sensor wirksam ist für die Erfassung von panchromatischem Licht an panchromatischen Pixeln und wirksam ist für die Aufnahme eines zweiten Bildes von der Szene unter Verwendung der zweiten Belichtung für die panchromatischen Pixel.Device (1000) according to one of the Claims 12 until 18th wherein the at least one camera (1090) comprises: a first camera with a first lens and a first sensor, wherein the first sensor is effective for detecting light of different colors at different chromatic pixels and is effective for capturing a first image of the scene at the different chromatic pixels using the first exposure for the chromatic pixels; and a second camera having a second objective and a second sensor, wherein the second sensor is effective for detecting panchromatic light at panchromatic pixels and is effective for capturing a second image of the scene using the second exposure for the panchromatic pixels. Vorrichtung (1000) nach Anspruch 19, wobei die Steuereinheit (1020) konfiguriert ist für das Zusammensetzen des ersten und des zweiten Bildes, um mindestens ein Bild zu generieren.Device (1000) according to Claim 19 wherein the controller (1020) is configured to compose the first and second images to generate at least one image. Vorrichtung (1000) nach einem der Ansprüche 12 bis 18, wobei die panchromatischen Pixel und die chromatischen Pixel solche auf demselben Sensor in einer Kameraeinheit sind.Device (1000) according to one of the Claims 12 until 18th wherein the panchromatic pixels and the chromatic pixels are those on the same sensor in one camera unit. Vorrichtung nach einem der Ansprüche 12 bis 21, wobei die Steuereinheit (1020) konfiguriert ist für die Ausgabe des mindestens einen Bildes.Device according to one of the Claims 12 until 21 wherein the control unit (1020) is configured to output the at least one image.
DE102016117151.4A 2015-09-22 2016-09-13 Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system Active DE102016117151B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/860,778 US9866764B2 (en) 2014-11-21 2015-09-22 Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system
US14/860,778 2015-09-22

Publications (2)

Publication Number Publication Date
DE102016117151A1 DE102016117151A1 (en) 2017-03-23
DE102016117151B4 true DE102016117151B4 (en) 2021-09-23

Family

ID=57140078

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016117151.4A Active DE102016117151B4 (en) 2015-09-22 2016-09-13 Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system

Country Status (2)

Country Link
DE (1) DE102016117151B4 (en)
GB (1) GB2544851B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3817375A4 (en) * 2019-09-09 2021-08-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image sensor, camera module, mobile terminal, and image capturing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2677732A2 (en) 2012-06-22 2013-12-25 Nokia Corporation Method, apparatus and computer program product for capturing video content

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264576B2 (en) * 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
JP5011814B2 (en) * 2006-05-15 2012-08-29 ソニー株式会社 Imaging apparatus, image processing method, and computer program
US8045024B2 (en) * 2009-04-15 2011-10-25 Omnivision Technologies, Inc. Producing full-color image with reduced motion blur
US8514322B2 (en) * 2010-06-16 2013-08-20 Aptina Imaging Corporation Systems and methods for adaptive control and dynamic range extension of image sensors
JP5442571B2 (en) * 2010-09-27 2014-03-12 パナソニック株式会社 Solid-state imaging device and imaging device
DE102010041569B4 (en) * 2010-09-28 2017-04-06 Leica Geosystems Ag Digital camera system, color filter element for digital camera system, method for determining deviations between the cameras of a digital camera system and image processing unit for digital camera system
WO2014032259A1 (en) * 2012-08-30 2014-03-06 Motorola Mobility Llc A system for controlling a plurality of cameras in a device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2677732A2 (en) 2012-06-22 2013-12-25 Nokia Corporation Method, apparatus and computer program product for capturing video content

Also Published As

Publication number Publication date
GB201615105D0 (en) 2016-10-19
GB2544851A (en) 2017-05-31
GB2544851B (en) 2019-04-17
DE102016117151A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
DE102015121747A1 (en) Multi-camera device and synchronized automatic white balance method
DE102016105753B4 (en) Method and device for determining lens shading correction for a multiple camera device with different fields of view
CN107534735B (en) Image processing method, device and the terminal of terminal
US9866764B2 (en) Method and apparatus for synchronizing auto exposure between chromatic pixels and panchromatic pixels in a camera system
DE112009005418B4 (en) Image processing device
DE102016121426B4 (en) Method and device for interpolating pixel colors from color and panchromatic channels to color channels
CN105049736B (en) Multiple-exposure image system and elimination scrolling shutter flickering method
US20150062347A1 (en) Image processing methods for visible and infrared imaging
US20140078247A1 (en) Image adjuster and image adjusting method and program
DE102018119625A1 (en) Reduction of structured IR patterns in stereoscopic depth sensor imaging
DE102016115292A1 (en) Method and apparatus for automatic exposure value acquisition for high dynamic range imaging
CN107534759B (en) Image pickup apparatus, image pickup method, and computer-readable medium
DE112012004641T5 (en) Vehicle vision system with color correction
DE102004007649A1 (en) System and method for analyzing a digital image
DE112013005599B4 (en) image pickup device
DE102015006984A1 (en) Image pickup device with white balance control and control method for this
CN101273624A (en) Compensating for improperly exposed areas in digital images
DE102016117584A1 (en) Video imaging system
EP2367360A2 (en) Method for correcting color errors in images from digital color cameras
CN106331662A (en) Image acquisition device and image acquisition method
DE102014211039B4 (en) Imaging device, image processing device and associated control method
DE112016000067T5 (en) Image processing means
DE102016117151B4 (en) Method and apparatus for synchronizing automatic exposure between chromatic pixels and panchromatic pixels in a camera system
DE112013005142T5 (en) Image pickup device and associated focus control method
WO2021179142A1 (en) Image processing method and related apparatus

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000