DE102018117129B3 - Kamera sowie Verfahren zur Steuerung einer Kamera - Google Patents

Kamera sowie Verfahren zur Steuerung einer Kamera Download PDF

Info

Publication number
DE102018117129B3
DE102018117129B3 DE102018117129.3A DE102018117129A DE102018117129B3 DE 102018117129 B3 DE102018117129 B3 DE 102018117129B3 DE 102018117129 A DE102018117129 A DE 102018117129A DE 102018117129 B3 DE102018117129 B3 DE 102018117129B3
Authority
DE
Germany
Prior art keywords
pixels
light intensity
pixel
segment
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018117129.3A
Other languages
English (en)
Inventor
Julian Wingert
Jan Henning Holm
Vibha Rao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Basler AG
Original Assignee
Basler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Basler AG filed Critical Basler AG
Priority to DE102018117129.3A priority Critical patent/DE102018117129B3/de
Application granted granted Critical
Publication of DE102018117129B3 publication Critical patent/DE102018117129B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • H04N25/683Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects by defect estimation performed on the scene signal, e.g. real time or on the fly detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Die Erfindung betrifft eine Kamera (2) mit einen Bildsensor (4) und einer Kontrolleinheit (6). Der Bildsensor (4) weist eine Vielzahl von Pixeln (8) auf, die in mindestens eine Pixelreihe (14) gegliedert und pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen (10, 12) der jeweiligen Pixelreihe (14) zugeordnet sind. Jede Pixelreihe (14) ist in eine Mehrzahl von Segmenten (20) mit jeweils mehreren Pixeln (8) einer jeden Pixelgruppe (10, 12) der jeweiligen Pixelreihe (14) gegliedert. Die Kontrolleinheit (6) ist ausgebildet, in einem Schritt a) für ein Segment (20) die kleinste Lichtintensität der Pixel (8) der ersten Pixelgruppe (10) als die erste Lichtintensität (L1) dieses Segments (20) zu ermitteln; in einem Schritt b) für dieses Segment (20) die kleinste Lichtintensität der Pixel (8) der zweiten Pixelgruppe (12) als die zweite Lichtintensität (L2) dieses Segments (20) zu ermitteln; und in einem Schritt c) für dieses Segment (20) die größte Lichtintensität aus (L1) und (L2) als die dritte Lichtintensität (L3) dieses Segments (20) zu ermitteln. Außerdem ist die Kontrolleinheit (6) ausgebildet, für jedes Segment (20) die Schritte a), b) und c) auszuführen und die größte der dritten Lichtintensitäten (L3) als die vierte Lichtintensität (L4) zu ermitteln sowie die Kamera (2) basierend auf der vierten Lichtintensität (L4) zu steuern. Außerdem betrifft die Erfindung ein Verfahren (42) zum Steuern der Kamera (2).

Description

  • Die Erfindung betrifft eine Kamera sowie ein Verfahren zum Steuern einer Kamera.
  • Kameras sind grundsätzlich aus dem Stand der Technik bekannt. Hierbei handelt es sich beispielsweise um eine Bildkamera oder um eine Videokamera. Besonders bevorzugt ist die Kamera als eine hochauflösende Industriekamera ausgebildet. So kann die Kamera beispielsweise eine Netzwerkkamera sein. Die Kamera weist einen Bildsensor auf. Mittels des Bildsensors kann ein Überwachungsbereich der Kamera optisch erfasst werden. Dabei weist der Bildsensor eine Vielzahl von Pixeln auf. Ein Pixel kann auch als eine Bildzelle des Bildsensors bezeichnet sein. Die Pixel des Bildsensors sind oftmals rasterförmig angeordnet. Dadurch können sich eine Mehrzahl von Reihen und/oder Zeilen bilden, die jeweils eine Vielzahl von Pixeln aufweisen. Jedes Pixel des Bildsensors weist oftmals eine begrenzt verfügbare Dynamik auf. Wird ein Pixel des Bildsensors beispielsweise über einen sehr langen Zeitraum belichtet, so besteht die Gefahr, dass durch dieses Pixel keine verwertbaren Informationen entstehen. Vielmehr besteht in diesem Fall die Gefahr einer sogenannten Überbelichtung. Der Bildsensor weist eine Vielzahl von Pixeln auf. Für jedes der Pixel besteht deshalb die Gefahr einer Überbelichtung. Um diese Überbelichtung zu vermeiden, ist die Kamera derart zu steuern, dass möglichst keiner der Pixel überbelichtet wird. Dies kann beispielsweise durch die Einstellung der Belichtungszeit, einer Kamerablende, und/oder eine Empfindlichkeit der Pixel des Bildsensors erfolgen. Weitere Einstellmöglichkeiten sind ebenfalls möglich. In der Praxis hat es sich deshalb als vorteilhaft herausgestellt, zunächst die Signale der Pixel auszuwerten, um zu ermitteln, ob und/oder gegebenenfalls welches der Pixel überbelichtet ist und/oder unterbelichtet ist. Ist keines der Pixel überbelichtet und/oder unterbelichtet, können die Informationen darüber hinaus derart ausgewertet werden, um eine geeignete Einstellung für die Kamera zu finden, sodass beispielsweise ein besonders kontrastreiches Bild mittels des Bildsensors erfassbar ist. Bei der zuvor erläuterten Ermittlung einer Überbelichtung und/oder Unterbelichtung besteht jedoch die Gefahr, dass defekte Pixel negativen Einfluss auf die Einstellung der Kamera haben. Wird beispielsweise ein defektes Pixel bei nur geringer Lichtintensität bereits überbelichtet, verfälscht ein von diesem Pixel bereitgestelltes Informationssignal die für alle Pixel des Bildsensors geltenden Einstellungen, um eine Überbelichtung oder eine Unterbelichtung zu vermeiden.
  • Der Erfindung liegt deshalb die Aufgabe zugrunde, eine technische Lösung bereitzustellen, die ein Einstellen der Kamera derart ermöglicht, sodass defekte Pixel des Bildsensors möglichst keinen Einfluss auf diese Einstellung haben.
  • Das Dokument US 2006/0044425 A1 beschreibt ein Verfahren und eine Vorrichtung, die die Identifizierung und Korrektur defekter Pixel und/oder Pixelcluster in einer Bildgebungsvorrichtung ermöglichen.
  • Das Dokument US 2008/0100727 A1 betrifft eine Defektpixelkorrekturschaltung, die einen Defekt eines Bildsensors ermitteln kann und diesen durch den Korrekturpixel ersetzt.
  • Das Dokument US 2010/0141810 A1 umfasst ein Verfahren zur Klassifizierung schlechter Pixel für einen Bildsensor mit einer Vielzahl von Sensorelementen.
  • Gemäß einem ersten Aspekt der Erfindung wird die Aufgabe gelöst durch eine Kamera mit den Merkmalen des Anspruchs 1. Vorgesehen ist also eine Kamera, die einen Bildsensor und eine Kontrolleinheit aufweist. Der Bildsensor weist eine Vielzahl von Pixeln auf. Jedes Pixel ist zum Bereitstellen eines Pixelsignals ausgebildet, das eine von dem jeweiligen Pixel erfasste Lichtintensität repräsentiert. Die Pixel des Bildsensors sind in mindestens einer Pixelreihe gegliedert. Die Pixel einer jeden Pixelreihe sind pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen der jeweiligen Pixelreihe zugeordnet. Jede Pixelreihe ist in eine Mehrzahl von Segmenten mit jeweils mehreren Pixeln einer jeden Pixelgruppe der jeweiligen Pixelreihe gegliedert. Die Kontrolleinheit der Kamera ist ausgebildet, in einem Schritt a) für ein Segment die kleinste Lichtintensität der von den zugehörigen Pixeln der ersten Pixelgruppe erfassten Lichtintensitäten als die erste Lichtintensität dieses Segments zu ermitteln. Die Kontrolleinheit ist außerdem ausgebildet, in einem Schritt b) für das Segment aus Schritt a) die kleinste Lichtintensität der von den zugehörigen Pixeln der zweiten Pixelgruppe erfassten Lichtintensitäten als die zweite Lichtintensität dieses Segments zu ermitteln. Jede Kontrolleinheit ist außerdem ausgebildet, in einem Schritt c) für das Segment aus Schritt a) bzw. b) die größte Lichtintensität der ersten Lichtintensität und der zweiten Lichtintensität als die dritte Lichtintensität dieses Segments zu ermitteln. Die Kontrolleinheit ist außerdem ausgebildet, für jedes Segment die Schritte a), b) und c) auszuführen, um für jedes Segment eine dritte, zugehörige Lichtintensität zu ermitteln. Die Kontrolleinheit ist außerdem ausgebildet, die größte Lichtintensität der dritten Lichtintensitäten als die vierte Lichtintensität zu ermitteln. Die Kontrolleinheit ist außerdem ausgebildet, die Kamera basierend auf der vierten Lichtintensität zu steuern.
  • Die Kontrolleinheit der Kamera kann eine Prozessoreinheit aufweisen, die zur Verarbeitung von Daten und/oder Signalen ausgebildet ist. Wie zuvor erläutert, weist der Bildsensor eine Vielzahl von Pixeln auf, die in mindestens einer Pixelreihe gegliedert sind. Vorzugsweise sind die Pixel in mehrere Pixelreihen gegliedert. Unter einer Pixelreihe ist vorzugsweise eine Reihenanordnung von unmittelbar hintereinander angeordneten Pixeln zu verstehen. Eine Pixelreihe kann sich in horizontaler Richtung, in vertikaler Richtung oder in Diagonalrichtung bei einem Flächensensor erstrecken. Mindestens eine der Pixelreihen kann eine Pixelzeile bilden. Mindestens eine der Pixelreihen kann eine Pixelspalte bilden. Mindestens eine der Pixelreihen kann eine Diagonalreihe von Pixeln bilden. Sind die Pixel des Bildsensors beispielsweise rasterförmig angeordnet, so können mehrere Pixelreihen übereinander angeordnet sein. Dadurch können durch die gleichen Pixel eine Vielzahl von Pixelspalten und/oder Diagonalreihen von Pixeln gebildet sein.
  • Bei dem Bildsensor kann es sich um einen Farbbildsensor oder um einen monochromen Bildsensor handeln. Bei dem monochromen Bildsensor können die Pixel in einer Pixelreihe zwei Pixelgruppen zugeordnet sein. Eine erste dieser Pixelgruppen kann Pixel mit einer ersten Lichtsensitivität aufweisen. Die zweite Pixelgruppe kann Pixel mit einer zweiten Lichtsensitivität aufweisen. Die zweite Lichtsensitivität kann größer als die erste Lichtsensitivität, oder umgekehrt, sein. Somit kann die zweite Pixelgruppe beispielsweise Pixel mit besonders lichtempfindlichen Pixeln und die erste Pixelgruppe Pixel mit weniger lichtempfindlichen Pixeln aufweisen. Die Pixel der beiden Pixelgruppen können dann abwechselnd aus den beiden Gruppen hintereinander angeordnet werden, sodass auf ein Pixel der ersten Pixelgruppe ein Pixel der zweiten Pixelgruppe, dann wieder ein Pixel der ersten Gruppe, usw. folgt.
  • Bei Farbbildsensoren können die Pixelgruppen zu den jeweiligen Farben der Pixel korrespondieren. So kann eine erste Pixelgruppe beispielsweise grüne Pixel und eine zweite Pixelgruppe rote Pixel oder blaue Pixel aufweisen. Daraus folgt, dass die Pixel einer Pixelreihe abwechselnd rote und grüne bzw. blaue und grüne Pixel aufweist. Jede Pixelreihe weist vorzugsweise Pixel von genau zwei unterschiedlichen Farben auf, beispielsweise grüne und rote Pixel oder grüne und blaue Pixel.
  • Jede Pixelreihe ist in einer Mehrzahl von Segmenten gegliedert. Die Segmente können also die zugehörige Pixelreihe untergliedern. Jedes Segment weist mehrere Pixel einer jeden Pixelgruppe der jeweiligen Pixelreihe auf. Die Pixel eines jeden Segments bilden dabei vorzugsweise hintereinander angeordnete Pixel aus der zugehörigen Pixelreihe. So kann ein Segment beispielsweise zwei rote und zwei grüne Pixel aufweisen, wenn die zugehörige Pixelreihe eine rote Pixelgruppe und eine grüne Pixelgruppe aufweist. Entsprechendes kann für die anderen Farben eines Farbbildsensors gelten. Ebenfalls gelten entsprechende Ausgestaltungen für monochrome Bildsensoren, wenn dieser beispielsweise unterschiedliche Pixelgruppen mit unterschiedlich lichtsensitiven Pixeln aufweist. Die Segmente der Pixelreihe können unmittelbar hintereinander angeordnet sein. Mit anderen Worten können die mehreren Segmente einer Pixelreihe der gesamten Pixelreihe entsprechen. Durch die Pixelreihen, Pixelgruppen und/oder Segmente wird der Bildsensor und/oder die zugehörigen Pixel jedoch nicht körperlich zerteilt. Vielmehr können die Pixel des Bildsensors den Pixelreihen, den Pixelgruppen bzw. den Segmenten zugeordnet sein. Die Segmente einer Pixelreihe können hintereinander folgend ausgebildet sein, insbesondere derart, dass alle Pixel einer Pixelreihe den Segmenten der jeweiligen Pixelreihe zugeordnet sind. Zwischen den Segmenten kann es also vorzugsweise kein Pixel geben, das nicht einem der Segmente zugeordnet ist. Der Bildsensor ist vorzugsweise als ein CCD-Sensor oder als ein CMOS-Sensor ausgebildet.
  • Auch wenn die nachfolgenden Erläuterungen auf eine rote Pixelgruppe mit roten Pixeln und eine grüne Pixelgruppe mit grünen Pixeln sowie auf einen Farbbildsensor Bezug nehmen, sind die farbbezogenen Erläuterungen nicht einschränkend auf die jeweiligen Farben und/oder überhaupt auf eine Farbe einschränkend zu verstehen. Vielmehr können die Erläuterungen in analoger Weise für andere Farben und/oder für einen monochromen Bildsensor gelten.
  • Die Kontrolleinheit der Kamera ist ausgebildet, für jedes Segment die Schritte a), b), c) auszuführen, um so für jedes Segment eine dritte, zugehörige Lichtintensität zu ermitteln. Diese dritte, zugehörige Lichtintensität wird auch als die dritte Lichtintensität des jeweiligen Segments bezeichnet.
  • Rein beispielhaft sollen die Schritte a), b), c) anhand eines Farbbildsensors erläutert werden, der eine Pixelreihe mit abwechselnd angeordneten roten und grünen Pixeln aufweist. Diese Pixelreihe weist also eine rote Pixelgruppe und eine grüne Pixelgruppe auf. Die Pixelreihe kann in mehrere Segmente unterteilt werden, wobei jedes Segment beispielsweise insgesamt vier Pixel aufweist. Dabei weist jedes Segment zwei grüne Pixel und zwei rote Pixel auf, die farblich abwechselnd hintereinander angeordnet sind. So kann beispielsweise auf ein erstes rotes Pixel ein grünes Pixel, daraufhin ein rotes Pixel und daraufhin wieder ein grünes Pixel folgen. Diese Anordnung kann für jedes Segment der Pixelreihe gelten. Die rote Pixelgruppe kann die erste Pixelgruppe bilden. Die grüne Pixelgruppe kann die zweite Pixelgruppe bilden.
  • Wird bei dem zuvor genannten Beispiel nun der Schritt a) mittels der Kontrolleinheit der Kamera ausgeführt, so wird zunächst festgestellt, welches der beiden roten Pixel eines Segments die kleinere Lichtintensität erfasst und diese als erste Lichtintensität des jeweiligen Segments bestimmt. Entsprechendes kann für die grünen Pixel des gleichen Segments in Schritt b) ausgeführt werden, wobei hier jedoch die kleinste Lichtintensität der grünen Pixel als die zweite Lichtintensität bestimmt wird. In dem Schritt c) wird von der Kontrolleinheit ermittelt, welche der beiden Lichtintensitäten des jeweiligen Segments größer ist und diese sodann als dritte Lichtintensität des Segments bestimmt. Die zuvor genannten Schritte a), b) und c) werden sodann für jedes Segment des Bildsensors ausgeführt. Dadurch entsteht eine Vielzahl von dritten Lichtintensitäten für die entsprechende Vielzahl von Segmenten. Die größte dieser dritten Lichtintensitäten wird von der Kontrolleinheit als die vierte Lichtintensität bestimmt. Außerdem ist die Kontrolleinheit ausgebildet, die Kamera basierend auf der vierten Lichtintensität zu steuern.
  • Bei Untersuchungen wurde festgestellt, dass ein Defekt eines Pixels eines Bildsensors mit einer sehr hohen Wahrscheinlichkeit nur isoliert auftritt. Im Umkehrschluss ist die Wahrscheinlichkeit also sehr gering, dass mehrere nebeneinander angeordnete Pixel eines Bildsensors gleichzeitig defekt sind. Insbesondere ist die Wahrscheinlichkeit besonders gering, dass drei nebeneinander liegende Pixel eines Bildsensors defekt sind. Dieses Untersuchungsergebnis wird vorteilhaft von der erfindungsgemäßen Kamera verwendet, indem die Kontrolleinheit ausgebildet ist, die Schritte a), b) sowie c) auszuführen.
  • Zu berücksichtigen ist, dass die Pixel einer jeden Pixelreihe pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen der jeweiligen Pixelreihe zugeordnet sind. So sind beispielsweise die Pixel einer Pixelreihe pixelweise abwechselnd mit roten Pixeln einer roten Pixelgruppe und mit grünen Pixeln einer grünen Pixelgruppe angeordnet. Rote und grüne Pixel wechseln sich also ab. Wenn nun in Schritt a) für ein Segment die kleinste Lichtintensität der von den zugehörigen Pixeln der ersten Pixelgruppe, also beispielsweise der roten Pixel, erfassten Lichtintensität als erste Lichtintensität dieses Segments ermittelt wird, so sind diese Pixel nicht direkt benachbart hintereinander angeordnet, sondern beispielsweise durch ein Pixel der anderen Pixelgruppe, insbesondere der grünen Pixelgruppe, voneinander getrennt. In Schritt a) werden also nicht unmittelbar benachbarte Pixel untersucht. Ist eines der in Schritt a) berücksichtigten Pixel defekt, beispielsweise übermäßig stark lichtempfindlich, was zu einer sehr großen, erfassten Lichtintensität führt, so wird dieses entsprechend defekte Pixel keinen Einfluss auf die Ermittlung der ersten Lichtintensität des zugehörigen Segments haben. Vielmehr wird die erste Lichtintensität durch das andere Pixel der gleichen Pixelgruppe, also beispielsweise durch das andere rote Pixel, bestimmt. In Schritt b) wird eine analoge Auswertung bzw. Ermittlung für die Pixel der anderen Pixelgruppe des jeweiligen Segments ausgeführt. Schließlich wird in Schritt c) mittels der Kontrolleinheit ermittelt, welches der beiden Lichtintensitäten, nämlich der ersten Lichtintensität und der zweiten Lichtintensität des gemeinsamen Segments, größer ist, um dieses dann zu verwenden um dadurch die dritte Lichtintensität dieses Segments zu bestimmen. Die dritte Lichtintensität ist in diesem Fall nicht von dem defekten Pixel des Segments beeinflusst.
  • Wenn das defekte Pixel nicht besonders lichtempfindlich ist, sondern defekt ist, weil es besonders lichtunempfindlich ist, wird zwar die erste Lichtintensität von dem defekten Pixel negativ beeinflusst, aber dieser negative Einfluss wird in Schritt c) an einer weiteren Übernahme gehindert. Denn in diesem Fall wird die zweite Lichtintensität größer als die erste Lichtintensität sein, sodass die dritte Lichtintensität von der zweiten Lichtintensität bestimmt ist. Das defekte Pixel hat also auch in diesem Fall keinen negativen Einfluss auf die dritte Lichtintensität.
  • Die zuvor erläuterten Schritte a), b) und c) haben den vorteilhaften Effekt, dass einzelne defekte Pixel keinen negativen Einfluss auf die Ermittlung der dritten Lichtintensität haben. Vielmehr wird die dritte Lichtintensität entweder durch die Lichtintensität des nicht defekten roten Pixels oder durch die Lichtintensität des nicht defekten grünen Pixels bestimmt. Auf diese Weise kann besonders vorteilhaft gewährleistet werden, dass einzelne, isoliert angeordnete und defekte Pixel keinen negativen Einfluss auf die Ermittlung der dritten Lichtintensität haben. Vielmehr wird die dritte Lichtintensität dabei von nicht-defekten Pixeln bestimmt. Indem die Schritte a), b), c) für jedes Segment ausgeführt werden, wird eine Vielzahl von dritten Lichtintensitäten bestimmt. Aus diesen dritten Lichtintensitäten wird die größte der dritten Lichtintensitäten als die vierte Lichtintensität ermittelt. Diese bietet darüber Aufschluss, ob eines der Segmente überbelichtete Pixel aufweist. Es kann darüber hinaus Aufschluss darüber geben, ob der verfügbare Dynamikbereich der Pixel des Bildsensors bereits voll ausgenutzt wurde. Ist dies beispielsweise nicht der Fall, kann die Belichtungszeit und/oder die Blendenöffnung und/oder andere Einstellungen der Kamera verändert werden, um eine möglichst vollständige Ausnutzung des zur Verfügung stehenden Dynamikbereichs der Pixel des Bildsensors zu verwenden, was besonders kontrastreiche und/oder hochqualitative Bilder gewährleistet. Für die Kamera ist es deshalb vorgesehen, dass die Kontrolleinheit ausgebildet ist, die Kamera basierend auf der vierten Lichtintensität zu steuern.
  • Eine vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die Kontrolleinheit ausgebildet ist, eine Bilderfassung mittels des Bildsensors der Kamera basierend auf der vierten Lichtintensität zu steuern. Der Bildsensor ist zur Bilderfassung ausgebildet. Außerdem kann von dem Bildsensor ein Sensorsignal bereitgestellt werden, das das mittels des Bildsensors erfasste Bild repräsentiert. Um zu verhindern, dass das Bild einen geringen Kontrast aufweist, zu hell ist, zu dunkel ist und/oder andere negative optische Eigenschaften aufweist, ist es von Vorteil, die Bilderfassung mittels des Bildsensors der Kamera basierend auf der vierten Lichtintensität zu steuern. Die Steuerung kann dabei beispielsweise die Steuerung der Belichtungszeit der Bilderfassung, eine Blendenöffnungsgröße einer Blende der Kamera und/oder eine Verstärkung des Bildsensorsignals sein. Der Bildsensor weist eine Vielzahl von Pixeln auf. Jedes der Pixel kann ein Pixelsignal bereitstellen, das die jeweilige, erfasste Lichtintensität repräsentiert. Es ist deshalb auch möglich, dass die Kontrolleinheit ausgebildet ist, die Bilderfassung mittels des Bildsensors der Kamera basierend auf der vierten Lichtintensität durch Steuerung einer Verstärkung der Pixelsignale zu steuern. Die Steuerung der Bilderfassung kann dabei derart ausgestaltet sein, dass eine Unterbelichtung verhindert wird, dass eine Überbelichtung verhindert wird, dass zumindest ein vorbestimmter Mindestkontrast erreicht wird und/oder dass andere vorbestimmte optische Eigenschaften erreicht werden.
  • Eine vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die Kontrolleinheit ausgebildet ist, eine Helligkeit der Kamera basierend auf der vierten Lichtintensität zu steuern. Die Helligkeit kann beispielsweise durch Anpassung eines Verstärkungsfaktors des Sensorsignals und/oder der Pixelsignale erfolgen.
  • Eine weitere vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass jedes Segment ein Vielfaches von zwei Pixeln derart aufweist, dass jedes Segment jeweils eine gleiche Anzahl von Pixeln einer ersten Pixelgruppe und einer zweiten Pixelgruppe aufweist. Jedes Segment kann beispielsweise vier, sechs, acht, zehn oder ein anderes Vielfaches von zwei Pixeln aufweisen. Ein Segment mit vier Pixeln kann beispielsweise zwei grüne Pixel und zwei rote Pixel oder zwei grüne Pixel und zwei blaue Pixel aufweisen.
  • Eine weitere vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass der Bildsensor als ein Flächensensor oder als ein Zeilensensor ausgebildet ist. Bei dem Flächensensor können die Pixel des Bildsensors rasterförmig oder schachbrettförmig angeordnet sein. Bei einem Zeilensensor ist es bevorzugt vorgesehen, dass sämtliche Pixel des Bildsensors in einer einzigen Zeile oder beispielsweise in zwei Zeilen angeordnet sind.
  • Eine weitere vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die Pixel des Bildsensors mit mindestens zwei unterschiedlichen Farben ausgebildet sind. In diesem Fall kann der Bildsensor als Farbbildsensor ausgebildet sein. Besonders bevorzugt weist der Bildsensor Pixel mit mindestens drei oder genau drei unterschiedlichen Farben auf. So können die Pixel des Bildsensors beispielsweise grüne Pixel, rote Pixel und blaue Pixel sein. Der Bildsensor kann deshalb auch als RGB-Bildsensor bezeichnet sein.
  • Eine vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die erste Pixelgruppe einer jeden Pixelreihe von zugehörigen Pixeln mit einer ersten Farbe repräsentiert ist und die zweite Pixelgruppe einer jeden Pixelreihe von zugehörigen Pixeln mit einer zweiten, anderen Farbe repräsentiert ist, sodass jede Pixelreihe eine Mehrzahl von hintereinander angeordneten Pixeln mit abwechselnder Farbe aufweist. Die erste Farbe kann beispielsweise Grün sein. Die zweite Farbe kann beispielsweise Rot oder Blau sein. Eine andere Farbkombination für die erste bzw. zweite Farbe ist ebenfalls möglich. Weiterhin ist es möglich, dass die zuvor genannte Ausgestaltung in analoger Weise für monochrome Bildsensoren gilt. Die Pixel mit einer ersten Farbe sind dabei durch Pixel mit einer ersten Lichtempfindlichkeit gebildet und die Pixel mit der zweiten, anderen Farbe sind dabei durch Pixel mit einer zweiten, anderen Lichtempfindlichkeit gebildet.
  • Eine vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die erste Farbe Grün ist, und dass die zweite Farbe Rot oder Blau ist. Die erste und zweite Farbe beziehen sich dabei vorzugsweise auf die vorangegangene Ausgestaltung der Kamera. Eine andere Wahl für die erste bzw. zweite Farbe ist ebenfalls möglich. So kann die erste Farbe beispielsweise Rot sein. In diesem Fall kann die zweite Farbe Grün oder Blau sein. Es ist aber auch möglich, dass die erste Farbe Blau ist und die zweite Farbe Grün oder Rot ist.
  • Eine weitere vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass der Bildsensor als ein Bayer-Sensor ausgebildet ist. Ein derartiger Bildsensor eignet sich besonders vorteilhaft als Farbbildsensor.
  • Eine weitere vorteilhafte Ausgestaltung der Kamera zeichnet sich dadurch aus, dass die Kontrolleinheit ausgebildet ist, die Schritte a), b) und c) als Schrittgruppe auszuführen, wobei die Kontrolleinheit ausgebildet ist, die Schrittgruppe nacheinander für jedes Segment auszuführen. Für ein Segment kann also zunächst die Schrittgruppe ausgeführt werden, bevor die gleiche Schrittgruppe für das nächste Segment ausgeführt wird. Es kann also ein sequenzielles Ausführen der Schrittgruppe für die Mehrzahl der Segmente stattfinden. So kann die Schrittgruppe beispielsweise zunächst für ein erstes Segment einer Pixelreihe, daraufhin für ein weiteres Segment, und daraufhin segmentweise weiter ausgeführt werden. Dadurch kann besonders einfach sichergestellt werden, dass die Schrittgruppe für jedes Segment ausgeführt wird. Das Ergebnis der Schrittgruppe ist dabei vorzugsweise die für das jeweilige Segment ermittelte, dritte, zugehörige Lichtintensität.
  • Gemäß einem zweiten Aspekt der Erfindung wird die eingangs genannte Aufgabe gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 11. Vorgesehen ist also ein Verfahren zum Steuern einer Kamera mit einem Bildsensor und einer Kontrolleinheit, wobei der Bildsensor eine Vielzahl von Pixeln aufweist, jedes Pixel zum Bereitstellen eines Pixelsignals ausgebildet ist, das eine von dem jeweiligen Pixel erfasste Lichtintensität repräsentiert, die Pixel des Bildsensors in mindestens eine Pixelreihe gegliedert sind, die Pixel einer jeden Pixelreihe pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen der jeweiligen Pixelreihe zugeordnet sind, jede Pixelreihe in eine Mehrzahl von Segmenten mit jeweils mehreren Pixeln einer jeden Pixelgruppe der jeweiligen Pixelreihe gegliedert ist, und wobei das Verfahren die folgenden Schritte a) bis c) aufweist, die für jedes Segment mittels der Kontrolleinheit ausgeführt werden:
    1. a) Ermitteln der kleinsten Lichtintensität der von den Pixeln einer ersten Pixelgruppe des jeweiligen Segments erfassten Lichtintensitäten als eine erste Lichtintensität des jeweiligen Segments;
    2. b) Ermitteln der kleinsten Lichtintensität der von den Pixeln einer zweiten Pixelgruppe des jeweiligen Segments erfassten Lichtintensitäten als eine zweite Lichtintensität des jeweiligen Segments;
    3. c) Ermitteln der größten Lichtintensität der ersten Lichtintensität des jeweiligen Segments und der zweiten Lichtintensität des jeweiligen Segments als eine dritte Lichtintensität des jeweiligen Segments; und wobei das Verfahren außerdem die folgenden Schritte d) und e) aufweist:
    4. d) Ermitteln der größten Lichtintensität der dritten Lichtintensitäten als eine vierte Lichtintensität mittels der Kontrolleinheit; und
    5. e) Steuern der Kamera basierend auf der vierten Lichtintensität mittels der Kontrolleinheit.
  • Bezüglich des Verfahrens wird auf die vorangegangenen Erläuterungen, bevorzugten Merkmale, Effekte und/oder Vorteile verwiesen und zumindest in analoger Weise Bezug genommen, wie sie im Zusammenhang mit der Kamera gemäß dem ersten Aspekt der Erfindung und/oder einer der zugehörigen, vorteilhaften Ausgestaltungen erläutert worden sind. Dies gilt insbesondere für die Verfahrensschritte a), b), c). Bezüglich der Verfahrensschritte d) und e) wurde bereits im Zusammenhang mit der Kamera gemäß dem ersten Aspekt der Erfindung erläutert, dass die Kontrolleinheit der Kamera vorzugsweise dazu konfiguriert und/oder ausgebildet ist, diese Verfahrensschritte d) und e) auszuführen. Von einer Wiederholung der Vorteile und Effekte wird deshalb an dieser Stelle abgesehen.
  • Eine vorteilhafte Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass Schritt e) ein Steuern einer Bilderfassung mittels des Bildsensors der Kamera basierend auf der vierten Lichtintensität umfasst. Bezüglich der Steuerung der Bilderfassung wird auf die vorteilhaften Erläuterungen, bevorzugten Merkmale, Effekte und/oder Vorteile in analoger Weise Bezug genommen, wie sie in entsprechender Weise im Zusammenhang mit der Kamera bereits erläutert worden sind.
  • Eine weitere vorteilhafte Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass die erste Pixelgruppe einer jeden Pixelreihe von zugehörigen Pixeln mit einer ersten Farbe repräsentiert ist und wobei die zweite Pixelgruppe einer jeden Pixelreihe von zugehörigen Pixeln mit einer zweiten, anderen Farbe repräsentiert ist, sodass jede Pixelreihe eine Mehrzahl von hintereinander angeordneten Pixeln mit abwechselnder Farbe aufweist.
  • Eine weitere vorteilhafte Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass die erste Farbe Grün ist und dass die zweite Farbe Rot oder Blau ist.
  • Eine weitere vorteilhafte Ausgestaltung des Verfahrens zeichnet sich dadurch aus, dass die Schritte a) bis c) nacheinander als Schrittgruppe für jedes Segment ausgeführt werden.
  • Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung der Ausführungsbeispiele und den Figuren. Dabei bilden alle beschriebenen und/oder bildlich dargestellten Merkmale für sich und in beliebiger Kombination den Gegenstand der Erfindung auch unabhängig von ihrer Zusammensetzung in den einzelnen Ansprüchen oder deren Rückbezügen. In den Figuren stehen weiterhin gleiche Bezugszeichen für gleiche oder ähnliche Objekte.
    • 1 zeigt eine vorteilhafte Ausgestaltung der Kamera in einer schematischen Ansicht.
    • 2 zeigt eine vorteilhafte Pixelanordnung des Bildsensors der Kamera in einer schematischen Darstellung.
    • 3 zeigt eine vorteilhafte Ausgestaltung einer Pixelreihe in einer schematischen Darstellung.
    • 4 zeigt eine vorteilhafte Ausgestaltung eines Ablaufplans in einer schematischen Darstellung.
    • 5 zeigt eine vorteilhafte Ausgestaltung eines Ablaufplans des Verfahrens.
  • In der 1 ist die Kamera 2 in einer vorteilhaften Ausgestaltung schematisch dargestellt. Die Kamera 2 weist einen Bildsensor 4 und eine Kontrolleinheit 6 auf. Außerdem kann die Kamera 2 ein Gehäuse 22 aufweisen. Die Kontrolleinheit 6 ist innerhalb des Gehäuses 22 angeordnet. Außerdem ist der Bildsensor 4 vollständig oder zumindest teilweise innerhalb des Gehäuses 22 angeordnet. Vorzugsweise weist das Gehäuse 22 eine Öffnung auf, durch die Licht auf den Bildsensor 4 treffen kann. Diese Öffnung kann mit einer Blende gekoppelt sein, um die effektive Querschnittsfläche für eintreffendes Licht auf den Bildsensor 4 zu steuern. Die Blende kann mittels der Kontrolleinheit 6 direkt oder indirekt gesteuert sein. Außerdem kann an dem Gehäuse 22 ein Befestigungsanschluss 24 angeordnet sein. Dieser Befestigungsanschluss 24 kann zum Befestigen einer Linse und/oder eines Objektivs ausgebildet sein. Der Befestigungsanschluss 24 kann ein Innengewinde oder ein Außengewinde aufweisen. Der Befestigungsanschluss 24 ist vorzugsweise koaxial zu dem Bildsensor 4 angeordnet.
  • Die Kamera 2 kann außerdem eine Signalschnittstelle 26 aufweisen. Die Signalschnittstelle 26 ist vorzugsweise als eine Netzwerk-Schnittstelle ausgebildet. Die Signalschnittstelle 26 ist vorzugsweise über eine Signalleitung 28 mit der Kontrolleinheit 6 gekoppelt. Die Kontrolleinheit 6 ist vorzugsweise außerdem über eine weitere Signalleitung 30 mit der Bildsensoreinheit 4 gekoppelt. Mittels dieser Signalleitung 30 können Signale, insbesondere ein Bildsensorsignal oder die Pixelsignale, von der Bildsensoreinheit 4 an die Kontrolleinheit 6 übertragen werden. Die Kontrolleinheit 6 kann mehrere Untereinheiten aufweisen. Eine dieser Untereinheiten kann eine Datenverarbeitungseinheit sein. Über die Signalleitung 28 zwischen der Kontrolleinheit 6 und der Signalschnittstelle 26 kann ein Bildsignal an eine über die Signalschnittstelle 26 gekoppelte Empfangseinheit, insbesondere einen Server und/oder einen netzwerkfähigen Computer, übertragen werden. Die Kamera 2 ist vorzugsweise eine Netzwerkkamera.
  • Der Bildsensor 4 der Kamera 2 weist eine Vielzahl von Pixeln 8 auf. In diesem Zusammenhang wird auf die 2 verwiesen. In der 2 ist eine Pixelanordnung mit einer Vielzahl von Pixeln 8 dargestellt. Diese Pixelanordnung ist jedoch nur rein beispielhaft und soll nicht einschränkend verstanden werden. In dieser Pixelanordnung sind die Pixel 8 rasterförmig angeordnet, sodass von den Pixeln 8 mehrere Pixelzeilen 32, mehrere Pixelspalten 34 und mehrere Pixeldiagonalreihen 36 gebildet sind. Jede der Pixelzeile 32, Pixelspalte 34 und/oder Pixeldiagonalreihe 36 kann als eine Pixelreihe 14 verstanden werden. Wenn im Folgenden von einer Pixelreihe 14 gesprochen wird, kann damit beispielsweise eine Pixelzeile 32, eine Pixelspalte 34 oder eine Pixeldiagonalreihe 36 gemeint sein.
  • Die Pixel 8 des Bildsensors 4 der Kamera 2 sind in mehrere Pixelreihen 14 gegliedert. In diesem Zusammenhang wird auf die 3 verwiesen, in der eine Pixelreihe 14, in diesem Fall beispielhaft gebildet durch eine Pixelzeile 32, dargestellt ist. Die folgenden Erläuterungen gelten aber für jede der möglichen Pixelreihen 14 in analoger Weise. Die Pixel 8, 16, 18 einer jeden Pixelreihe 14 sind pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen 10, 12 der jeweiligen Pixelreihe 14 zugeordnet. Die gekreuzt schraffierten Pixel 16 der Pixelreihe 14 können beispielweise der ersten Pixelgruppe 10 zugeordnet sein. Die schräg schraffierten Pixel 18 können beispielsweise der zweiten Pixelgruppe 12 zugeordnet sein. Die Pixel 16 der ersten Pixelgruppe 10 können beispielsweise grüne Pixel 16 sein. Die Pixel 18 der zweiten Pixelgruppe 12 können beispielsweise rote Pixel 18 sein. Wie aus der 3 deshalb zumindest indirekt hervorgeht, sind die grünen Pixel 16 der ersten Pixelgruppe 10 und die roten Pixel 18 der zweiten Pixelgruppe 12 abwechselnd angeordnet.
  • Außerdem ist es vorgesehen, dass jede Pixelreihe 14 in eine Mehrzahl von Segmenten 20 gegliedert ist. Jedes Segment 20 weist dabei mehrere Pixel 16 bzw. 18 einer jeden Pixelgruppe 10, 12 auf. Wie aus der 3 beispielhaft hervorgeht, kann jedes Segment 20 vier Pixel 8 umfassen. Unter Bezugnahme auf das zuvor erläuterte Beispiel kann jedes Segment 20 beispielsweise zwei grüne Pixel 16 der ersten Pixelgruppe 10 und zwei rote Pixel 18 der zweiten Pixelgruppe 12 aufweisen.
  • Durch die Pixelreihen 14, 32, 34, 36, Pixelgruppen 10, 12 und/oder Segmente 20 wird der Bildsensor 4 nicht körperlich zerteilt. Vielmehr können die Pixel 8 des Bildsensors 4 den Pixelreihen 14, 32, 34, 36, den Pixelgruppen 10, 12, und/oder den Segmenten 20 funktional und/oder logisch zugeordnet sein.
  • Die Kontrolleinheit 6 ist ausgebildet, für jedes Segment 20 die Schritte a), b) und c) auszuführen. Diese Schritte sind schematisch im Verfahrensablaufplan in der 5 dargestellt. Ein hierzu korrespondierender Logik-Ablaufplan ist in der 4 dargestellt, auf den im weiteren Bezug genommen werden soll.
  • Die Kontrolleinheit 6 ist ausgebildet, in dem Schritt a) für das Segment 20 die kleinste Lichtintensität der von den zugehörigen Pixeln 16 der ersten Pixelgruppe 10 erfassten Lichtintensitäten P1, P2 als die erste Lichtintensität L1 dieses Segments 20 zu ermitteln.
  • In der Praxis kann es vorkommen, dass eines der beiden Pixel 16 defekt ist. Dieses Pixel 16 kann sodann als ein defektes Pixel 40 bezeichnet werden. Das andere der beiden Pixel 16 kann als nicht-defektes Pixel 38 bezeichnet werden. Das defekte Pixel 40 kann beispielsweise übermäßig stark lichtsensitiv bzw. besonders lichtempfindlich sein, und zwar so lichtempfindlich, wie es nicht vorgesehen ist. Bei einer geringen Lichteinstrahlung kann dies sodann dazu führen, dass für dieses defekte Pixel 40 innerhalb kürzester Zeit eine Überbelichtung stattfindet, sodass die von diesem defekten Pixel 40 erfasste, verfälschte Lichtintensität P1 besonders groß ist. Das nicht-defekte Pixel 38 wird in der Praxis mit Licht einer etwa ähnlichen Lichtintensität beaufschlagt. Die von diesem nicht-defekten Pixel 38 erfasste Lichtintensität P2 ist jedoch deutlich kleiner als die von dem defekten Pixel 40 erfasste Lichtintensität P1. Wird von der Kontrolleinheit nun der Schritt a) ausgeführt, bildet die Lichtintensität P2 des nicht-defekten Pixels 38 die erste Lichtintensität L1. Durch die zuvor erläuterte Ermittlung der ersten Lichtintensität L1 kann somit der Einfluss eines defekten Pixels 40 auf die Ermittlung der ersten Lichtintensität L1 verhindert werden.
  • Grundsätzlich besteht jedoch im Regelfall die Annahme, dass keines der beiden Pixel 16 der ersten Pixelgruppe 10 defekt ist. In diesem Fall sind die von diesen beiden Pixel 16 erfassten Lichtintensitäten P1, P2 in etwa gleich groß. Dabei wird jedoch die etwas kleinere Lichtintensität als die erste Lichtintensität L1 für dieses Segment 20 bestimmt. Die so bestimmte erste Lichtintensität L1 bietet jedoch die Möglichkeit, über die tatsächliche Belichtung der Pixel 16 Aufschluss zu geben. Ist die erste Lichtintensität L1 beispielsweise derart groß, dass auf eine Überbelichtung beider Pixel geschlossen werden kann, so ist diese erste Lichtintensität L1 dazu geeignet, um für die weitere Einstellung der Kamera verwendet zu werden. Denn eine Überbelichtung der Pixel 16 ist zu vermeiden.
  • Eine Überbelichtung der Pixel 16 stellt jedoch nur einen Fall von vielen möglichen Fällen dar. Die Belichtung der Pixel 16 kann auch derart erfolgen, dass keines der beiden Pixel 16 überbelichtet ist. In diesem Fall wird auch die in analoger Weise ermittelte erste Lichtintensität L1 eine entsprechende Information repräsentieren.
  • Wie aus der 4 schematisch zu erkennen ist, weist das Segment 20 aber auch Pixel 18 einer zweiten Pixelgruppe 12 auf. Die Kontrolleinheit 6 ist deshalb ausgebildet, in einen Schritt b) für das Segment 20 die kleinste Lichtintensität der von den zugehörigen Pixeln 18 der zweiten Pixelgruppe 12 erfassten Lichtintensitäten P3, P4 als die zweite Lichtintensität L2 dieses Segments 20 zu ermitteln. Unter der Annahme, dass beide Pixel 18 der zweiten Pixelgruppe 12 nicht defekt sind, werden die von diesen Pixeln 18 erfassten Lichtintensitäten P3, P4 nur geringfügig voneinander abweichen, sodass die zweite Lichtintensität L2 von der sehr wahrscheinlich nur geringfügig kleineren Lichtintensität der beiden Lichtintensitäten P3, P4 bestimmt ist. Wie in analoger Weise für die erste Lichtintensität L1 erörtert worden ist, gibt es die Möglichkeit, dass die Pixel 18 der zweiten Pixelgruppe 12 nicht überbelichtet sind oder dass die Pixel 18 eben doch vollständig überbelichtet sind.
  • Wie zuvor erläutert, geben die erste Lichtintensität L1 sowie die zweite Lichtintensität L2 selbst robust gegenüber möglichen Einflüssen eines defekten Pixels 40 verlässlich darüber Auskunft, wie die Belichtung des Segments 20 ist. In einem Schritt c) wird deshalb mittels der Kontrolleinheit 6 die Lichtintensität der ersten Lichtintensität L1 und der zweiten Lichtintensität L2 als die dritte Lichtintensität L3 bestimmt, die größer ist. Mit anderen Worten ist die Kontrolleinheit 6 dazu ausgebildet, in einem Schritt c) für das Segment 20 die größte Lichtintensität der ersten Lichtintensität L1 und der zweiten Lichtintensität L2 als die dritte Lichtintensität L3 dieses Segments 20 zu bestimmen. Obwohl eines der Pixel 40 des Segments 20 defekt ist, ist die dritte Lichtintensität L3 des Segments 20 verlässlich weiter verwertbar. Da die Kontrolleinheit 6 ausgebildet ist, für jedes Segment 20 die Schritte a), b) und c), vorzugweise gruppenweise für jedes der Segmente 20, auszuführen, kann mittels der Kontrolleinheit 6 für jedes Segment 20 eine dritte, zugehörige Lichtintensität L3 ermittelt werden. Das in 4 dargestellte Logikdiagramm zur Ermittlung der dritten Lichtintensität L3 kann also für jedes Segment 20 vorgesehen sein. Zur besseren Übersicht wurde allerdings auf die entsprechende Darstellung in 4 verzichtet.
  • Die Kontrolleinheit 6 ist außerdem ausgebildet, die größte Lichtintensität der dritten Lichtintensitäten L3 als die vierte Lichtintensität L4 zu ermitteln. Da die Vielzahl von dritten Lichtintensitäten L3 aufgrund der Pixelanordnung, wie sie beispielsweise in der 2 dargestellt ist, voneinander abweichen kann, ist die größte dritte Lichtintensität L3 von besonderem Interesse. Denn diese gibt darüber Aufschluss, ob eines der Pixel eines der Segmente 20 überbelichtet ist. Deshalb wird die größte Lichtintensität der Vielzahl von dritten Lichtintensitäten L3 auch als die vierte Lichtintensität L4 bestimmt. Gibt diese vierte Lichtintensität L4 darüber Aufschluss, dass eine Überbelichtung zumindest eines der Pixel 8 vorliegt, so ist die Kamera vorzugsweise von der Kontrolleinheit 6 derart zu steuern, dass die Belichtungszeit verkürzt wird und/oder dass eine Blendenöffnung verkleinert wird. Es ist deshalb vorgesehen, dass die Kontrolleinheit 6 ausgebildet ist, die Kamera 2 basierend auf der vierten Lichtintensität L4 zu steuern. Die Steuerung kann sich beispielsweise auf die Belichtungszeit, die Blendenöffnungsgröße und/oder auf die Verstärkung des Sensorsignals und/oder der Pixelsignale beziehen. Dadurch ist es möglich, dass die Kontrolleinheit 6 die Helligkeit der Kamera 2 basierend auf der vierten Lichtintensität L4 steuert. Diese Steuerung ist - basierend auf den zuvor genannten Erläuterungen - besonders robust gegenüber möglichen Einflüssen von defekten Pixeln 40. Denn dieser negative Effekt kann insbesondere durch die von der Kontrolleinheit 6 ausführbaren Schritte a), b) und c) verhindert werden. In der 5 ist eine vorteilhafte Ausgestaltung des Verfahrens 42 dargestellt. Vorzugsweise ist das Verfahren 42 dazu ausgebildet und/oder ausgestaltet, um mittels der Kamera 2 ausgeführt zu werden.
  • Das Verfahren weist die Schritte a), b) und c) auf, die vorzugsweise gruppenweise in der genannten Reihenfolge für jedes Segment 20 mittels der Kontrolleinheit 6 ausgeführt werden. Gemäß Schritt a) erfolgt ein Ermitteln der kleinsten Lichtintensität der von den Pixeln 16 der ersten Pixelgruppe 10 des Segments 20 erfassten Lichtintensitäten P1, P2 als die erste Lichtintensität L1. Gemäß einem Schritt b) des Verfahrens 42 erfolgt ein Ermitteln der kleinsten Lichtintensität der von den Pixeln 18 der zweiten Pixelgruppe 12 des Segments 20 erfassten Lichtintensitäten P3, P4 als die zweite Lichtintensität L2 des Segments 20. Gemäß dem Schritt c) des Verfahrens erfolgt ein Ermitteln der größten Lichtintensität der ersten Lichtintensität L1 des Segments 20 und der zweiten Lichtintensität L2 des Segments 20 als die dritte Lichtintensität L3 dieses Segments 20. Außerdem weist das Verfahren 42 die Schritte d) und e) auf. Die Schritte d) und e) werden im Anschluss an das Ausführen der Schritte a) bis c) für jedes der Segmente ausgeführt. Gemäß Schritt d) des Verfahrens 42 erfolgt ein Ermitteln der größten Lichtintensität der dritten Lichtintensitäten L3 als die vierte Lichtintensität L4 mittels der Kontrolleinheit 6. Gemäß Schritt e) des Verfahrens 42 erfolgt ein Steuern der Kamera 2 basierend auf der vierten Lichtintensität L4 mittels der Kontrolleinheit 6.
  • Ergänzend sei darauf hingewiesen, dass „aufweisend“ keine anderen Elemente oder Schritte ausschließt und „ein“ oder „eine“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.
  • Bezugszeichenliste
  • P1
    Lichtintensität von Pixel
    P2
    Lichtintensität von Pixel
    P3
    Lichtintensität von Pixel
    P4
    Lichtintensität von Pixel
    L1
    erste Lichtintensität
    L2
    zweite Lichtintensität
    L3
    dritte Lichtintensität
    L4
    vierte Lichtintensität
    2
    Kamera
    4
    Bildsensor
    6
    Kontrolleinheit
    8
    Pixel
    10
    erste Pixelgruppe
    12
    zweite Pixelgruppe
    14
    Pixelreihe
    16
    Pixel der ersten Pixelgruppe
    18
    Pixel der zweiten Pixelgruppe
    20
    Segment
    22
    Gehäuse
    24
    Befestigungsanschluss
    26
    Signalschnittstelle
    28
    Signalleitung
    30
    Signalleitung
    32
    Pixelzeile
    34
    Pixelspalte
    36
    Pixeldiagonalreihe
    38
    nicht-defektes Pixel
    40
    defektes Pixel

Claims (16)

  1. Kamera (2), aufweisend: einen Bildsensor (4) und eine Kontrolleinheit (6); wobei der Bildsensor (4) eine Vielzahl von Pixeln (8) aufweist; wobei jedes Pixel (8) zum Bereitstellen eines Pixelsignals ausgebildet ist, das eine von dem jeweiligen Pixel (8) erfasste Lichtintensität repräsentiert; wobei die Pixel (8) des Bildsensors (4) in mindestens eine Pixelreihe (14) gegliedert sind; wobei die Pixel (8) einer jeden Pixelreihe (14) pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen (10, 12) der jeweiligen Pixelreihe (14) zugeordnet sind; wobei jede Pixelreihe (14) in eine Mehrzahl von Segmenten (20) mit jeweils mehreren Pixeln (8), einer jeden Pixelgruppe (10, 12) der jeweiligen Pixelreihe (14) gegliedert ist; wobei die Kontrolleinheit (6) ausgebildet ist, in einem Schritt a) für ein Segment (20) die kleinste Lichtintensität der von den zugehörigen Pixeln (8) der ersten Pixelgruppe (10) erfassten Lichtintensitäten als die erste Lichtintensität (L1) dieses Segments (20) zu ermitteln; wobei die Kontrolleinheit (6) ausgebildet ist, in einem Schritt b) für das Segment (20) aus Schritt a) die kleinste Lichtintensität der von den zugehörigen Pixeln (8) der zweiten Pixelgruppe (12) erfassten Lichtintensitäten als die zweite Lichtintensität (L2) dieses Segments (20) zu ermitteln; wobei die Kontrolleinheit (6) ausgebildet ist, in einem Schritt c) für das Segment (20) aus Schritt a) und b) die größte Lichtintensität der ersten Lichtintensität (L1) und der zweiten Lichtintensität (L2) als die dritte Lichtintensität (L3) dieses Segments (20) zu ermitteln; wobei die Kontrolleinheit (6) ausgebildet ist, für jedes Segment (20) die Schritte a), b) und c) auszuführen, um für jedes Segment (20) eine dritte, zugehörige Lichtintensität (L3) zu ermitteln; wobei die Kontrolleinheit (6) ausgebildet ist, die größte Lichtintensität der dritten Lichtintensitäten (L3) als die vierte Lichtintensität (L4) zu ermitteln; und wobei die Kontrolleinheit (6) ausgebildet ist, die Kamera (2) basierend auf der vierten Lichtintensität (L4) zu steuern.
  2. Kamera (2) nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Kontrolleinheit (6) ausgebildet ist, eine Bilderfassung mittels des Bildsensors (4) der Kamera (2) basierend auf der vierten Lichtintensität (L4) zu steuern.
  3. Kamera (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kontrolleinheit (6) ausgebildet ist, die Helligkeit der Kamera (2) basierend auf der vierten Lichtintensität (L4) zu steuern.
  4. Kamera (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jedes Segment (20) ein Vielfaches von zwei Pixeln (8) in derart aufweist, dass jedes Segment (20) jeweils eine gleiche Anzahl von Pixeln (8) einer ersten Pixelgruppe (16) und einer zweiten Pixelgruppe (18) aufweist.
  5. Kamera (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildsensor (4) als ein Flächensensor oder ein Zeilensensor ausgebildet ist.
  6. Kamera (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Pixel (8) des Bildsensors (4) mit mindestens zwei unterschiedlichen Farben ausgebildet sind.
  7. Kamera (2) nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die erste Pixelgruppe (16) einer jeden Pixelreihe (14) von zugehörigen Pixeln (8) mit einer ersten Farbe repräsentiert ist und wobei die zweite Pixelgruppe (18) einer jeden Pixelreihe (14) von zugehörigen Pixeln (8) mit einer zweiten, anderen Farbe repräsentiert ist, so dass jede Pixelreihe (14) eine Mehrzahl von hintereinander angeordneten Pixeln (8) mit abwechselnder Farbe aufweist.
  8. Kamera (2) nach einem der vorhergehenden Ansprüche 6 bis 7, dadurch gekennzeichnet, dass die erste Farbe Grün ist, und dass die zweite Farbe Rot oder Blau ist.
  9. Kamera (2) nach einem der vorhergehenden Ansprüche 6 bis 8, dadurch gekennzeichnet, dass der Bildsensor (4) als ein Bayer-Sensor ausgebildet ist.
  10. Kamera (2) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kontrolleinheit (6) ausgebildet ist, die Schritte a), b) und c) als Schrittgruppe auszuführen, und wobei die Kontrolleinheit (6) ausgebildet ist, die Schrittgruppe nacheinander für jedes Segment (20) auszuführen.
  11. Verfahren zum Steuern einer Kamera (2) mit einem Bildsensor (4) und einer Kontrolleinheit (6), wobei der Bildsensor (4) eine Vielzahl von Pixeln (8) aufweist, jedes Pixel (8) zum Bereitstellen eines Pixelsignals ausgebildet ist, das eine von dem jeweiligen Pixel (8) erfasste Lichtintensität repräsentiert, die Pixel (8) des Bildsensors (4) in mindestens eine Pixelreihe (14) gegliedert sind, die Pixel (8) einer jeden Pixelreihe (14) pixelweise abwechselnd mindestens zwei unterschiedlichen Pixelgruppen (10, 12) der jeweiligen Pixelreihe (14) zugeordnet sind, jede Pixelreihe (14) in eine Mehrzahl von Segmenten (20) mit jeweils mehreren Pixeln (8) einer jeden Pixelgruppe (10, 12) der jeweiligen Pixelreihe (14) gegliedert ist, und wobei das Verfahren die folgenden Schritte a) bis c) aufweist, die für jedes Segment (20) mittels der Kontrolleinheit (6) ausgeführt werden: a) Ermitteln der kleinsten Lichtintensität der von den Pixeln (8) einer ersten Pixelgruppe (10) des jeweiligen Segments (20) erfassten Lichtintensitäten als eine erste Lichtintensität (L1) des jeweiligen Segments (20); b) Ermitteln der kleinsten Lichtintensität der von den Pixeln (8) einer zweiten Pixelgruppe (12) des jeweiligen Segments (20) erfassten Lichtintensitäten als eine zweite Lichtintensität (L2) des jeweiligen Segments (20); c) Ermitteln der größten Lichtintensität der ersten Lichtintensität (L1) des jeweiligen Segments (20) und der zweiten Lichtintensität (L2) des jeweiligen Segments als eine dritte Lichtintensität (L3) des jeweiligen Segments (20); und wobei das Verfahren außerdem die folgenden Schritte aufweist: d) Ermitteln der größten Lichtintensität der dritten Lichtintensitäten (L3) als eine vierte Lichtintensität (L4) mittels der Kontrolleinheit (6); und e) Steuern der Kamera (2) basierend auf der vierten Lichtintensität (L4) mittels der Kontrolleinheit (6).
  12. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass Schritt e) ein Steuern einer Bilderfassung mittels des Bildsensors (4) der Kamera (2) basierend auf der vierten Lichtintensität (L4) umfasst.
  13. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass Schritt e) ein Steuern einer Helligkeit der Bilderfassung basierend auf der vierten Lichtintensität (L4) umfasst.
  14. Verfahren nach einem der vorhergehenden Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die erste Pixelgruppe (10) einer jeden Pixelreihe (14) von zugehörigen Pixeln (8) mit einer ersten Farbe repräsentiert ist und wobei die zweite Pixelgruppe (12) einer jeden Pixelreihe (14) von zugehörigen Pixeln (8) mit einer zweiten, anderen Farbe repräsentiert ist, so dass jede Pixelreihe (14) eine Mehrzahl von hintereinander angeordneten Pixeln (8) mit abwechselnder Farbe aufweist.
  15. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die erste Farbe Grün ist, und dass die zweite Farbe Rot oder Blau ist.
  16. Verfahren nach einem der vorhergehenden Ansprüche 11 bis 15, dadurch gekennzeichnet, dass die Schritte a) bis c) nacheinander als Schrittgruppe für jedes Segment (20) ausgeführt werden.
DE102018117129.3A 2018-07-16 2018-07-16 Kamera sowie Verfahren zur Steuerung einer Kamera Active DE102018117129B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018117129.3A DE102018117129B3 (de) 2018-07-16 2018-07-16 Kamera sowie Verfahren zur Steuerung einer Kamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018117129.3A DE102018117129B3 (de) 2018-07-16 2018-07-16 Kamera sowie Verfahren zur Steuerung einer Kamera

Publications (1)

Publication Number Publication Date
DE102018117129B3 true DE102018117129B3 (de) 2019-07-04

Family

ID=66816824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018117129.3A Active DE102018117129B3 (de) 2018-07-16 2018-07-16 Kamera sowie Verfahren zur Steuerung einer Kamera

Country Status (1)

Country Link
DE (1) DE102018117129B3 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060044425A1 (en) 2004-08-31 2006-03-02 Micron Technology, Inc. Correction method for defects in imagers
US20080100727A1 (en) 2006-10-30 2008-05-01 Fujitsu Limited Defect pixel, correction circuit, image processing system using the same, and defect pixel, correcting method
US20100141810A1 (en) 2008-12-04 2010-06-10 Proimage Technology Bad Pixel Detection and Correction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060044425A1 (en) 2004-08-31 2006-03-02 Micron Technology, Inc. Correction method for defects in imagers
US20080100727A1 (en) 2006-10-30 2008-05-01 Fujitsu Limited Defect pixel, correction circuit, image processing system using the same, and defect pixel, correcting method
US20100141810A1 (en) 2008-12-04 2010-06-10 Proimage Technology Bad Pixel Detection and Correction

Similar Documents

Publication Publication Date Title
DE60203869T2 (de) Verfahren zur schnellen automatischen Belichtungs- oder Verstärkungsregelung in einem MOS Bildsensor
DE602005005553T2 (de) Abbildungsvorrichtung und Abbildungsverfahren
DE2312978C3 (de) Vorrichtung zur automatischen Fokussierung von bilderzeugenden optischen Systemen
DE102012216021B4 (de) Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld
DE102013012810A1 (de) Verfahren zum Aktivieren und Deaktivieren einer Bildkorrekturfunktion, Kamerasystem und Kraftfahrzeug
EP2367360A2 (de) Verfahren zur Korrektur von Farbfehlern in Bildern von digitalen Farbkameras
EP2583464B1 (de) Farbbildsensor
EP2312864A1 (de) Bildsensor und Betriebsverfahren
DE3620525C2 (de)
DE102011081405B4 (de) Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
DE102006050864B4 (de) Verfahren und Vorrichtung zur Korrektur fehlerhafter Pixel für eine bildgebende Festkörpervorrichtung
DE102012021736B4 (de) Bildsensor für sichtbares und infrarotes Licht und Kamerasystem
DE102018117129B3 (de) Kamera sowie Verfahren zur Steuerung einer Kamera
DE102010001918A1 (de) Bildwandler
WO2013026825A1 (de) Abbildungsvorrichtung und verfahren für eine abbildungsvorrichtung
WO2022122240A1 (de) Verfahren und vorrichtung zum detektieren einer störpflanzenabbildung in einem kamerarohbild und bildverarbeitungseinrichtung
EP1343311A2 (de) Verfahren und Vorrichtung zur Kompensation defekter Pixel eines CCD-Sensors
DE4331965A1 (de) Verfahren und Vorrichtung zur Erhöhung der Graustufenauflösung
DE102005052979A1 (de) Verfahren zur Gain-Kalibrierung eines Röntgenbildaufnahmesystems und Röntgenbildaufnahmesystem
DE3733074A1 (de) Schaltungsanordnung fuer eine pixelweise korrektur der bildsignale eines aus mehreren fotoelementen bestehenden bildsensors
DE102018130710B3 (de) Vorrichtung und Verfahren zur Erzeugung von Prüfbilddaten sowie System mit derartiger Vorrichtung
DE112019004441T5 (de) Bilderfassungsvorrichtung und bilderfassungselement
DE102006031757A1 (de) Verfahren zur automatischen Korrektur von Bildfehlern in Video-Assist-Bildern eines Video-Assist-Systems
DE112017002190T5 (de) Abbildungssystem mit zwei sensoren
DE102017220083A1 (de) Abbildungsvorrichtung und bildverarbeitungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000