DE19983408B4 - Verfahren und Einrichtung zum Reduzieren von Flackereinflüssen von Entladungslampen während einer pipeline-artigen digitalen Videoaufnahme - Google Patents

Verfahren und Einrichtung zum Reduzieren von Flackereinflüssen von Entladungslampen während einer pipeline-artigen digitalen Videoaufnahme Download PDF

Info

Publication number
DE19983408B4
DE19983408B4 DE19983408T DE19983408T DE19983408B4 DE 19983408 B4 DE19983408 B4 DE 19983408B4 DE 19983408 T DE19983408 T DE 19983408T DE 19983408 T DE19983408 T DE 19983408T DE 19983408 B4 DE19983408 B4 DE 19983408B4
Authority
DE
Germany
Prior art keywords
illumination
line
frequency
integration period
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19983408T
Other languages
English (en)
Other versions
DE19983408T1 (de
Inventor
Ronald D. Phoenix Smith
Gregory W. Tempe Starr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE19983408T1 publication Critical patent/DE19983408T1/de
Application granted granted Critical
Publication of DE19983408B4 publication Critical patent/DE19983408B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

Ein Verfahren, umfassend die Schritte (8):
Einstellen einer ersten Einzelbildrate (300);
Einstellen einer Aufnahmeintegrationsperiode auf eine erste Integrationsperiode (302);
Aufnehmen eines Satzes von Einzelbildern unter einer Beleuchtung durch eine Lichtquelle mit einer Beleuchtungsfrequenz (304); und
Bestimmen der Beleuchtungsfrequenz, indem
für jede Zeile in jedem Einzelbild des Satzes von Einzelbildern jeweils ein über die Zeile gemittelter Datenwert erzeugt wird (306, 308), wobei jeder Datenwert ein Mittelwert einer separaten Zeile von Bilddaten ist, um einen Einfluß einer Auswahl einer bestimmten Spalte der Bilddaten auf die Bestimmung zu mildern, wobei eine zeitliche Folge von zeilen-gemittelten Datenwerten erzeugt wird;
eine Transformation aus dem Zeitbereich in den Frequenzbereich an der Folge von zeilen-gemittelten Datenwerten ausgeführt wird (310); und
die Beleuchtungsfrequenz aus dem sich ergebenden Spektrum der Transformation abgeleitet wird (312, 314).

Description

  • Die vorliegende Erfindung bezieht sich auf das Gebiet der Anwendung digitalen Videoaufnahmen. Insbesondere bezieht sich die vorliegende Erfindung auf ein Verfahren und eine Einrichtung zum Eliminieren von Flackereinflüssen aus Entladungslampen während pipeline-artiger digitaler Videoaufnahmen.
  • Digitalkameras werden gegenwärtig in vielen Anwendungen benutzt, die sowohl Standbilder als auch die Videoaufnahme einschließen. Um Bilder aufzunehmen, benutzen Digitalkameras ein Sensorarray, das aus einem geordneten Muster von Photodioden (das heißt lichtempfindlichen Dioden oder Photosensoren) gebildet ist. Jede Photodiode mißt die Lichtmenge, die sie empfängt, indem sie eine entsprechende Ladungsmenge auf einem integrierten Kondensator speichert. Die von jeder Photodiode gespeicherte Ladungsmenge wird dann in einen Digitalwert von einem Analog-Digital-Umsetzer derart konvertiert, daß sämtliche Digitalwerte, nachdem sie konvertiert und in einer bestimmten Matrix neu zusammengesetzt sind, verarbeitet werden können, um ein Digitalbild zu erreichen.
  • Typischerweise wird das Photosensorarray von der aufzunehmenden Szene mit Hilfe entweder eines mechanischen oder eines elektronischen Schließmechanismus belichtet, der ermöglicht, daß abwechselnd entweder (1) Licht auf das Photosensorarray fällt oder (2) Ladung sich auf jedem Photosensor in dem Array akkumuliert. Das Photosensorarray kann die Ladung entweder zeilenweise aufnehmen, wie bei dem letztgenannten Fall, oder alternativ, wie bei dem früheren Fall, das Bild insgesamt aufnehmen (das heißt, das Photosensorarray wird durch eine Lichtquelle insgesamt gleichzeitig belichtet). Die Verarbeitung der Ladungen, welche auf jedem der Photosensoren gespeichert sind, wird dann entweder zeilenweise oder pixelweise durchgeführt. Bilder, die in der genannten zeilenweise durchgeführten Art und Weise aufgenommen werden, werden als in einem "pipeline-artigen" Betriebsmodus aufgenommen bezeichnet. Für Videobildaufnahmeanwendungen wird eine Reihe von Einzelbildrahmen (das heißt Abbildern) ähnlich der obigen Weise aufgenommen.
  • Wenn Digitalkameras so positioniert werden, daß sie herkömmliche filmbasierte Kameras ersetzen, müssen sie in der Lage sein, unter einer Vielzahl von Beleuchtungssituationen zu arbeiten. Beispielsweise müssen Digitalkameras in der Lage sein, Videos von Szenen aufzunehmen, welche im Falle von Außenaufnahmen durch Sonnenlicht belichtet werden oder welche im Falle von Innenaufnahmen von Glühlampenlicht oder Fluoreszenzlicht beleuchtet werden.
  • Wenn jedoch eine Sequenz von Einzelbildern in einer Umgebung aufgenommen wird, die von einer Entladungslampe (z.B. einer Leuchtstofflampe) beleuchtet wird, enthält das digitale Video Artefakte infolge der Tatsache, daß sich die Intensität und die Farbtemperatur der Entladungslampe als eine Funktion der Zeit verändern können. So bieten Entladungslampen, wie beispielsweise Leuchtstofflampen, keine konstante Intensität des Lichts, sondern bieten stattdessen eine Intensität, welche, wenn sie gemessen und als Diagramm dargestellt wird, einer vollwellengleichgerichteten Sinuswelle ähnelt.
  • 1 zeigt ein Beispiel der Intensität einer Leuchtstoffbeleuchtung, wie sie über die Zeit variiert, wobei die Y-Achse die durch die Photodiode erfaßte Intensität des Lichts und die X-Achse den Zeitverlauf darstellt. Wie anhand von 1 zu sehen ist, ist die Intensität des von der Leuchtstoffbeleuchtung erzeugten (und somit von der Photodiode erfaßten) Lichts periodisch und ähnelt dem Absolutbetrag einer Sinuswelle. Da die Veränderung der Intensität eine Funktion der Zeit ist, wird ein Videostrom, der bei dieser Beleuchtung aufgenommen wird, einen möglicherweise erheblichen Betrag einer Veränderung der Qualität des aufgenommenen Videos enthalten, da die Aufnahme ebenfalls eine Funktion der Zeit ist.
  • Das Problem ist darüber hinaus mit der Tatsache verbunden, daß die Variation der Intensität der fluoreszierenden Beleuchtung sich in verschiedenen Teilen der Welt unterscheidet, da einige Länder ein 60Hz-Wechselstrom(AC)-Energieversorgungssystem und andere Länder ein 50Hz-AC-Energieversorgungssystem verwenden. Beispielsweise verwenden die Vereinigten Staaten ein AC-Energieversorgungssystem, welches bei 60Hz oszilliert. Somit muß in Abhängigkeit von dem Land, in welchem die Digitalkamera verwendet wird, die Einzelbildaufnahmerate so eingestellt werden, daß die Einzelbildaufnahmerate eine Funktion des Betriebszyklus der Stromversorgung ist.
  • Aus der US 5495313 A ist eine Beleuchtungsmeßeinrichtung für eine Kamera bekannt. Ein Sensorarry wird verwendet, wobei Messungen an senkrechten und wagerechten Sensorreihen zeitlich versetzt vorgenommen werden. Mit einer Variation des zeitlichen Abstands wird eine Belichtungszeit ermittelt.
  • Die US 4827119 beschreibt eine Einrichtung, um verschiedene Lichtquellen anhand ihrer Beleuchtung und deren Wandlung in ein Frequenzspektrum zu identifizieren.
  • Eine Lösung, die es ermöglicht, daß eine Digitalkamera unter der Leuchtstofflampenbeleuchtung verschiedener Energieversorgungssysteme funktioniert, besteht darin, daß der Benutzer einen Code eingeben muß, der das Land kennzeichnet, in welchem die Digitalkamera verwendet wird. Die Kamera würde dann die Einzelbildaufnahmerate in Übereinstimmung mit der Betriebsfrequenz des Landes einstellen. Die Kamera würde eine Liste von Korrespondenzen zwischen den Regionen, in welchen sie gegenwärtig betrieben wird, und zusätzlich, welche Energieversorgungssysteme in dieser Region arbeiten, aufrechterhalten. Darüber hinaus erfordert diese Lösung, daß der Benutzer einen Code jedesmal dann eingibt, wenn der Benutzer eine Region mit einem abweichenden Energieversorgungssystem betritt. Somit würde diese Lösung erfordern, daß der Benutzer manuell den gegenwärtigen Ort des Benutzers eingibt.
  • Eine zweite Lösung bestünde darin, ein System, wie beispielsweise ein globales Positionierungssystem (GPS), in die Kamera selbst einzubringen, welches es der Kamera ermöglichen würde, sich "selbst bewußt" darüber zu werden, an welchem geographischen Ort sie sich befindet, und somit automatisch die internen Systeme der Kamera dementsprechend einzustellen. Jedoch würde diese Lösung eine zusätzliche Schaltung erfordern, welche zusätzliche Energie- und Kostenanforderungen an die Digitalkamera stellen würde.
  • Eine weitere Lösung würde darin bestehen, eine Schaltung aufzunehmen, welche es der Kamera ermöglicht, automatisch das Energieversorgungssystem zu erkennen, in welcher sie gegenwärtig arbeitet, indem der Benutzer die Kamera in das Energieversorgungssystem des Landes einstecken muß. Wenn beispielsweise ein Benutzer einen bestimmten Ort oder ein neues Gebiet erreicht, würde der Benutzer einfach die Kamera in eine Wandsteckdose einstecken, um es der Schaltung einer Digitalkamera zu ermöglichen, den Betriebszyklus des Energieversorgungssystems zu registrieren. Jedoch ist diese Lösung ebenfalls nicht zu empfehlen, da verschiedene Regionen in der Welt üblicherweise verschiedene Konfigurationen der Wandsteckdosen und -stecker für diese Steckdosen haben, so daß der Benutzer einen Satz von Adaptern mit sich führen müßte, welche einige Zehn oder Hunderte zählen könnten, um sicher zu sein, daß der Benutzer die Digitalkamera in das Energieversorgungssystem einstecken kann.
  • Aufgabe der Erfindung ist es, ein die Einflüsse der Verwendung von Leuchtstoffbeleuchtung beseitigendes System zu haben, das keinen Benutzereingriff oder erhöhte Kosten- und Energieversorgungsanforderungen an die Kamera selbst erfordert.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren gemäß Anspruch 1, sowie Einrichtungen gemäß einem der Ansprüche 9 oder 17 gelöst.
  • Offenbart wird ein Verfahren, das als ersten Schritt das Einstellen einer ersten Einzelbildrate aufweist. Dann wird eine Aufnahmeintegrationsperiode auf eine erste Integrationsperiode eingestellt und unter einer Belichtungsquelle mit einer ersten Frequenz ein Satz von Einzelbildern aufgenommen. Anschließend wird die erste Frequenz der Belichtung bestimmt. Außerdem wird eine Einrichtung zum Durchführen des oben genannten Verfahrens offenbart, die einen Bildsensor und eine mit dem Bildsensor gekoppelte Aufnahmesteuereinheit aufweist.
  • 1 ist eine Kurve der Lichtintensität aus einer Entladungslampe, gemessen über die Zeit.
  • 2 veranschaulicht die Abtastung von Bilddaten über die Zeit unter Verwendung eines pipeline-artigen Bildsensors.
  • 3 ist eine Darstellung von zeilenweise gemittelten Bildaufnahmedaten über der Zeit für ein bestimmtes aufgenommenes Bild.
  • 4 ist eine Kurve des Betrags der aufgenommenen Beleuchtung, die die Bilddaten einschließt, über der Zeit.
  • 5 ist eine Kurve der Integrationszeit über der Flackeramplitude für zwei Lichtquellen bei verschiedenen Frequenzen.
  • 6 ist eine Kurve des in 4 gezeigten Signals nach einer Fouriertransformation.
  • 7 ist ein Bildaufnahmesystem, das in Übereinstimmung mit einem Ausführungsbeispiel der vorliegenden Erfindung konfiguriert ist und welches einen Flackerdetektor enthält.
  • 8 ist ein Ablaufdiagramm des Betriebs des einen Flackerdetektor enthaltenden Bildaufnahmesystems.
  • Die vorliegende Erfindung schafft ein Verfahren und eine Einrichtung zum Reduzieren der Einflüsse des Flackerns (oder Flimmerns) von Entladungslampen auf einen aufgenommenen Videostrom. Aus Gründen der Erläuterung sind spezielle Ausführungsbeispiele angegeben, um ein besseres Verständnis der vorliegenden Erfindung zu erreichen. Für einen Fachmann wird es jedoch beim Lesen dieser Offenbarung klar, daß die Erfindung ohne diese Details ausgeführt werden kann. Darüber hinaus finden, obwohl die vorliegende Erfindung über die Verwendung eines CMOS-Bildsensors beschrieben wird, die meisten, wenn nicht sämtliche, Aspekte der Erfindung auf Bildsensoren im allgemeinen Anwendung. Darüber hinaus werden gut bekannte Elemente, Einrichtungen, Prozeßschritte und dergleichen nicht im Detail beschrieben, um ein Verdecken der vorliegenden Erfindung zu vermeiden.
  • Da die Intensität und der Farbwert, die von einer Leuchtstofflampe ausgegeben werden, infolge der angelegten Wechselspannung in einer sinusförmigen und folglich periodischen Art und Weise variieren, benutzt die vorliegende Erfindung den Bildsensor, um die Gesamtbeleuchtung abzutasten, um zu erfassen, ob das System bei einer 50Hz-, 60Hz- oder Glühlichtsituation arbeitet. Dann wird von dem Bildsensor eine Integration unter verschiedenen Einschränkungen, die auf der erfaßten Lichtfrequenz basieren, durchgeführt. Die Zeitgabe gestattet es dem Photosensorarray, jedes Einzelbild zu etwa dem gleichen Zeitpunkt innerhalb des Zyklus der Oszillation der Lichtintensität, die aus der Leuchtstofflampe empfangen wird, aufzunehmen.
  • 2 ist ein Diagramm der Abtastung der Bilddaten über der Zeit unter Verwendung eines pipeline-artigen Bildsensors. Die Einzelbildaufnahme beginnt zum Zeitpunkt Null, wenn ein Einzelbildaufnahmesignal angelegt wird. Während der Aufnahme erhält jede Zeile ein RÜCKSETZ-Signal, welches es der Zeile ermöglicht, die Integration zu beginnen. Bei einem Ausführungsbeispiel haben sämtliche Zeilen eine Integrationszeit "t", welche für jede Zeile gleich ist. Nach der Integrationszeit t wird ein Zeilenauslesesignal an die spezielle Zeile des Bildsensors geliefert, um den integrierten Wert auszulesen, welcher die Bilddaten für die spezielle Zeile für jedes Pixel in dieser Zeile darstellt. Bei dem in 2 gezeigten Beispiel enthält der Bildsensor 480 Zeilen Auflösung, was bedeutet, daß es 480 Zeilen von Pixelsensoren gibt. Sobald die Integrationszeit abgelaufen ist, wird die jeweilige Zeile der Pixelsensorwerte zur Verarbeitung ausgelesen. Nachdem die letzte Zeile der Pixelsensorwerte ausgelesen ist, wird das nächste Einzelbild aufgenommen, indem die erste Zeile des Bildsensors ein RÜCKSETZ-Kommando empfängt. Wenn der Bildsensor in einem pipeline-artigen Modus betrieben wird, wird, sobald die letzte Zeile des Bildsensors ein RÜCKSETZ-Kommando zum Initiieren der Aufnahme empfangen hat, ein RÜCKSETZ-Kommando zum Initiieren der Aufnahme für die nächste, welche die erste Zeile des Bildsensors ist, automatisch gesendet. Wie es in 2 gezeigt ist, erfolgt das Abtasten in der Zeitachse (X-Achse in dem Diagramm), aber das, was abgetastet wird, variiert in der Zeile (Y-Achse in dem Diagramm), so daß die Beleuchtungsdaten mit den tatsächlichen Bilddaten vermischt werden.
  • 3 ist ein Diagramm der aufgenommenen Bilddaten für jede Zeile, welche über der Zeit für ein bestimmtes aufgenommenes Bild gemittelt worden sind (das heißt, bei dem die Pixelwerte jeder Zeile gemittelt worden sind). Wie unten erörtert wird, werden die Bilddaten für jede Zeile gemittelt, so daß die Einflüsse der Auswahl einer bestimmten Spalte der Pixeldaten beim Analysieren abgeschwächt werden. wenn beispielsweise die letzte Spalte der Pixelwerte auf der rechten Seite des Bildes für die Analyse ausgewählt würde, würde dies ein stark abweichendes Ergebnis gegenüber dem Fall erbringen, wenn die Spalte der Pixeldaten aus der Mitte des Bildes käme. Durch Mitteln der Bilddaten für jede Zeile haben die tatsächlichen Änderungen der Werte infolge des in dem Abbild enthaltenen "Bildes" einen geringeren Einfluß auf die aktuellen Daten, welche für die Analyse der Beleuchtung des Bildes verwendet werden.
  • 4 ist eine Darstellung des Betrags der Aufnahmebeleuchtung, die von dem Bildsensor über der Zeit ausgegeben worden ist, nachdem sie durch einen Analog-Digital-Umsetzer konvertiert worden ist. Die ausgegebenen Beleuchtungsdaten sind mit den Bilddaten vermischt, und in 4 werden beide über der Zeit dargestellt. Die Lichtbeleuchtung stellt den Zeilenmittelwert jeder Zeile, wie sie aufgenommen wird, dar. Die Y-Achse ist in Einheiten des Ausgangssignals des Analog-Digital-Umsetzers, wobei bei diesem Ausführungsbeispiel sie eine ganze Zahl zwischen Null und 255 ist, was eine 8-Bit-Analog-Digital-Umsetzung des Ausgangssignals des Bildsensors darstellt. Um die Frequenz der Beleuchtungsamplitudenoszillation aufgrund der Leuchtstoffbeleuchtung in den aufgenommenen Bilddaten zu bestimmen, werden die Bilddaten durch eine Fouriertransformation weiterverarbeitet. Dies wird unten näher anhand von 6 erläutert.
  • Um die Aufnahme von Einflüssen der Beleuchtung, welche eine oszillierende Amplitude aufweist, in die Bilddaten zu eliminieren, sei angemerkt, daß die Leistungsamplituden Fouriertransformierte eines Impulssignalverlaufs den Absolutwert der sinc-Funktion (das heißt |sin(X)/X|) ähnelt, und insbesondere, daß diese Funktion Nullstellen enthält. Wenn die Nullstellen dem Beleuchtungsflackern entsprechen, kann dann, wenn die Integrationszeit auf diejenigen Werte eingestellt wird, welche den Werten entsprechen, an welchem die Leistungsamplitude der Fouriertransformierten gleich Null ist, das Beleuchtungsflackern beseitigt werden. Somit kann in Abhängigkeit davon, ob die Bilder bei einer 50Hz- oder 60Hz-Beleuchtung aufgenommen werden, die Integrationszeit auf bestimmte Werte eingestellt werden, um die von dem os zillierenden Pegel der Beleuchtung bewirkten Flackereffekte zu eliminieren. Um die Oszillationsfrequenz der Lichtquelle besser bestimmen zu können, ist es erforderlich, daß die Integrationszeit so ausgewählt wird, daß die Amplitude der entweder von der 50Hz- oder von der 60Hz-Lichtquelle bewirkten Einflüsse ähnlich wäre. Wie anhand von 5 zu sehen ist, gibt es verschiedene Orte, bei denen die Kurve der Amplitude des 60Hz-Signalverlaufs gleich der Kurve der Amplitude des 50Hz-Signalverlaufs ist. Bei einem Ausführungsbeispiel wird die Integrationszeit auf 0,0132 Sekunden eingestellt. Der Grund dafür, weshalb die Integrationszeit auf einen Wert eingestellt wird, welcher zu ähnlichen Amplituden für die 50Hz- und 60Hz-Frequenz führt, besteht darin, daß das Vorhandensein der Beleuchtung mit einer Frequenz leicht erfaßt werden kann. Wenn beispielsweise die Integrationszeit auf 0,017 Sekunden gesetzt würde, bei der die Amplitude des 50Hz-Signals viel größer ist als die Amplitude des 60Hz-Signals, dann wäre es sehr schwierig, den von dem 60Hz-Signal bewirkten Einfluß zu erfassen, da er ziemlich nah bei Null läge. Tabelle 1 enthält eine Beispielliste von Integrationszeiten, die zum Bestimmen der Oszillationsfrequenz der Lichtquelle geeignet sind.
  • Tabelle 1 - Beispiel Integrationszeiten in Sekunden
    Figure 00090001
  • Wie oben anhand von 4 erörtert, ist der Einfluß der oszillierenden Beleuchtung des aufgenommenen Bildes in den Bilddaten enthalten. Um die Beleuchtungseffekte heraus zutrennen, wird eine schnelle Fouriertransformation (FFT) an den Bilddaten ausgeführt, um die Frequenz der Oszillation der Beleuchtung zu bestimmen, sofern sie vorhanden ist.
  • 6 ist eine Darstellung der in 4 gezeigten Daten nach einer FFT, wobei angenommen wird, daß die Beleuchtung während der Aufnahme der Bilddaten in 4 auf einer 60Hz-Lichtquelle beruht. Wie in 6 zu sehen ist, gibt es eine "Spitze", die bei 120Hz erscheint, da die Beleuchtungsdaten anzeigen, daß eine 60Hz-Stromversorgungsquelle erfaßt wurde. Es sei angemerkt, daß die Spitze bei 120Hz erscheint, da die Beleuchtung mit dem Doppelten der Versorgungsfrequenz schwankt, welche in diesem Fall 60Hz ist (das heißt, die Beleuchtung ändert sich sowohl bei dem "positiven" als auch dem "negativen" Abschnitt des 60Hz-Zyklus).
  • 7 ist eine Blockdarstellung eines in Übereinstimmung mit einem Ausführungsbeispiel der vorliegenden Erfindung konfigurierten Bildaufnahme- und Verarbeitungssystems mit einem Photosensorarray 100, einer Puffer- und Verarbeitungseinheit 102, einer Analog-Zu-Digital(A/D)-Einheit 104, einer Aufnahmesteuereinheit 106, einer FFT-Einheit 108 und einer Detektoreinheit 110. Die Puffer- und Verarbeitungseinheit 102, die FFT 108 und die Erfassungseinheit 110 bilden einen Flacker-Detektor 112.
  • Das Photosensorarray 100 wird in einem pipeline-artigen Modus betrieben, welcher, wie oben erörtert wurde, bedeutet, daß jede Zeile des Photosensorarrays 100 Zeile für Zeile integriert wird. Das Ausgangssignal des Photosensorarrays 100 wird einer A/D-Einheit 104 eingespeist. Insbesondere gibt das Photosensorarray 100 die Aufnahmeladungen auf der Grundlage der von der Aufnahmesteuereinheit 106 gesendeten Steuersignale an die A/D-Einheit zur Verarbeitung aus. Die Aufnahmesteuereinheit 106 wird wiederum von dem Flacker-Detektor 112 gesteuert. Sobald die Puffer- und Verarbeitungseinheit 102 die aufgenommenen Bilddaten von der A/D-Einheit 104 empfängt, führt sie insbesondere irgendeine Verarbeitung durch, die erforderlich ist, und sendet dann die Ergebnisse an die FFT-Einheit 108. Die FFT-Einheit 108 arbeitet dann an den Ergebnissen, die aus der Puffer- und Verarbeitungseinheit 102 empfangen worden sind, und sendet dann die sich ergebenden Daten an die Detektor-Einheit 110. Die Detektoreinheit 110 gibt dann ein Signal an die Aufnahmesteuereinheit 106 aus, um die Beleuchtungsbedingung anzuzeigen, unter welcher die Kamera betrieben wird. Wie oben beschrieben, bilden die Puffer- und Verarbeitungseinheit 102, die FFT-Einheit 108 und die Detektor-Einheit 110 einen Flacker-Detektor 112.
  • Bei einem Ausführungsbeispiel stellt zu dem gleichen Zeitpunkt, zu dem die Puffer- und Verarbeitungseinheit 102 Daten aus der A/D-Einheit 104 empfängt, die Puffer- und Verarbeitungseinheit 102 dieselben Informationen an Nachverarbeitungs- und Speichereinheiten (nicht gezeigt) zur Verfügung. Die Nachverarbeitungs- und Speichereinheiten können Einheiten zum Bereitstellen einer weiteren Bildverarbeitung, wie beispielsweise einer Kompression oder Bildanreicherung, enthalten. Die Speicherkomponenten in den Nachverarbeitungs- und Speichereinheiten können beliebige Medien enthalten, die zum Speichern digitaler Daten geeignet sind. Bei einem Ausführungsbeispiel ist die Speichereinheit ein nichtflüchtiger Speicher, wie beispielsweise ein magnetisches Medium. Jedoch ist eine beliebige Speichermöglichkeit zum Speichern digitaler Daten geeignet, unabhängig davon, ob sie ein flüchtiger oder ein nicht-flüchtiger Speicher ist. Bei anderen Ausführungsbeispielen können die vom Flacker-Detektor 112 zur Verfügung gestellten Funktionen zusammen mit den von den Nachverarbeitungs- und Speichereinheiten zur Verfügung gestellten Funktionen implementiert werden. Zusätzlich sei angemerkt, daß die Funktionen des Flacker-Detektors 112 zusammen mit den von dem Verarbeitungs- und Speichereinheiten zur Verfügung gestellten Funktionen durch einen Mehrzweckcomputer zur Verfügung gestellt werden können, der einen Mehrzweckprozessor und Speichereinheiten, wie sie oben beschrieben sind, zur Verfügung stellt. So kann die aktuelle Implementierung der in 7 beschriebenen Verarbeitungs- und Speichereinheiten in einer Vielzahl von Lösungen, in Hardware oder Software, implementiert werden.
  • 8 ist ein Ablaufdiagramm eines Ausführungsbeispiels der Operation der vorliegenden Erfindung. Der Prozeß beginnt mit dem Schritt 300, während dem die Aufnahmesteuereinheit 106 eingestellt wird, um ein oder mehrere Einzelbilder unter Verwendung des Photosensorarrays 100 bei einer bestimmten Einzelbildrate aufzunehmen. Die minimale Einzelbildrate ist von der Gesamtzahl der zu gewinnenden Datenabtastwerte abhängig. Die Abtastrate und die Gesamtzahl der Abtastwerte werden so ausgewählt, daß eine Unterabtastung (undersampling) vermieden wird. Die exakten Abtastanforderungen können über einen nahezu unbeschränkten Bereich variieren, vorausgesetzt die Nyquist-Auflösung wird eingehalten. Bei einem Ausführungsbeispiel wird die Einzelbildrate so eingestellt, um wenigstens 120Hz wiederzugewinnen, was dem Doppelten der Frequenz eines beliebigen möglicherweise anzutreffenden Leuchtstofflichts entspricht (das heißt dem Doppelten der höchsten möglichen Energieversorgungsleitungsfrequenz, welche 60Hz ist). Dies dient dazu zu sichern, daß die Änderungen der Beleuchtung aufgenommen werden, da die Aufnahmefrequenz hoch genug sein muß, um Nyquist-Einflüsse infolge einer Unterabtastung zu vermeiden.
  • Eine Unterabtastung ist üblicherweise kein Problem, da jede Zeile in dem Photosensorarray 100 eine "Probe" der Beleuchtung aufnimmt. Nimmt man beispielsweise typische Einzelbildraten von 15 Einzelbildern pro Sekunde an, gäbe es selbst dann, wenn das Photosensorarray 100 nur 16 Zeilen Auflösung hätte, genügend Abtastwerte, um der Nyquist-Auflösung von 240Hz zum Wiederherstellen von 120Hz zu genügen.
  • Im Schritt 302 wird die Integrationszeit auf etwa 13,2ms eingestellt. Wie oben beschrieben, wurde diese Integrati onszeit ausgewählt, um eine Aufnahme der Beleuchtung von etwa der 60Hz- oder der 50Hz-Lichtquelle bei der gleichen Amplitude zu ermöglichen. Die Operation fährt dann zum Schritt 304 fort.
  • Im Schritt 304 werden eines oder mehrere Einzelbilder von dem Photosensorarray 100 bei der von der Aufnahmesteuereinheit 106 im Schritt 302 eingestellten Integrationszeit (das heißt 13,2ms) aufgenommen. Insbesondere ist die für jede Zeile verwendete Integrationszeit 13,2ms.
  • Im Schritt 306 werden die für jede Zeile des Einzelbilds aufgenommenen Bilddaten horizontal gemittelt. Wie oben beschrieben, senkt die Mittelung der Bilddaten für alle Pixel in einer Zeile die Einflüsse des Vorhandenseins eines dunklen Objekts oder eines hellen Objekts in der Szene, so daß irgendwelche Beleuchtungsschwankungen, die von einem Leuchtstofflicht bewirkt werden, einfacher erfaßt werden können. Wenn beispielsweise die aufgenommenen Bilder in ihren Bilddaten vollständig gleichmäßig sind, wie beispielsweise vollständig weiße Bilder, dann können irgendwelche Änderungen in der Beleuchtung einfach erfaßt werden. Ohne eine Mittelung führt die Auswahl eines zufälligen Spaltenpixels zu unvorhersagbaren Ergebnissen in Abhängigkeit davon, welche Spalte des Photosensorarrays 100 ausgewählt wird. Die sich ergebenden Daten wären ähnlich den Daten in 4.
  • Im Schritt 308 können dann, wenn mehrere Einzelbilder aufgenommen worden sind und angenommen wird, daß die Lücke zwischen den Einzelbildern gleich Null ist (das heißt, die Einzelbilder aufeinanderfolgend ohne Pause aufgenommen werden), die horizontal gemittelten Bilddaten
    "zusammengeheftet" werden, so daß sie eine kontinuierliche Serie horizontal gemittelter Bilddaten ergeben. Die Operation fährt dann zum Schritt 310 fort.
  • Im Schritt 310 wird an den Bilddaten eine schnelle Fouriertransformation (FFT) von der FFT-Einheit 108 durchgeführt. Wie oben erörtert, werden durch Ausführung der FFT an den horizontal gemittelten Bilddaten aus dem Schritt 308 die Ergebnisse so sein, wie es beispielsweise in 6 gezeigt ist (wo die Zeilenfrequenz 60Hz ist). Es sei angemerkt, daß solange, wie es genügend Daten zum Auflösen von 120Hz gibt, dann 100Hz ebenfalls aufgelöst werden kann. Die Operation fährt dann zum Schritt 312 fort.
  • Im Schritt 312 wird der Wert der FFT bei dem 100Hz-Wert mit dem Wert bei 120Hz verglichen. Im Schritt 314 bestimmt die Detektor-Einheit 110, ob der Wert für den 60Hz-Wert (das heißt, der 120Hz-Wert, welcher für die Nyquist-Auflösung verwendet wird) oder der 50Hz-Wert (das heißt, der 100Hz-Wert, welcher für die Nyquist-Auflösung verwendet wird) größer ist. Bei einem Ausführungsbeispiel wird dann, wenn sowohl der 60Hz-Wert als auch der 50Hz-Wert innerhalb einer Toleranz von 10% voneinander beabstandet sind, angenommen, daß die Kamera unter Glühlichtbedingungen arbeitet. Die Operation fährt dann beim Block 316 fort.
  • Es sei angemerkt, daß die Verwendung der FFT eine algorithmische Optimierung aber kein Erfordernis darstellt. Bei anderen Implementierungen kann auch eine diskrete Fouriertransformation verwendet werden. Der Vorteil der Durchführung einer diskreten Fouriertransformation besteht darin, daß man nicht darauf beschränkt ist, eine Datenmenge auszuwählen, welche aus einer Anzahl von Werten, die einer Potenz von 2 entspricht, besteht. Obwohl die diskrete Fouriertransformation berechnungsintensiver ist als die FFT, löst sie ein spezielles Problem, nämlich das des Frequenzverwischens.
  • Wenn eine Transformation aus dem Zeitbereich in den Frequenzbereich ausgeführt wird, gibt es ein Aliasing (Verfälschung) der Eingangsdaten, sofern das Nyquist-Abtastkriterium nicht erfüllt ist. Es gibt ein ähnliches Problem bei den Ausgabespektren, bei denen dann, wenn die Frequenz in dem Datensatz "zwischen" zwei digitalen Frequenzwerten ist, das Frequenz-Aliasing auftritt und das sich ergebende Spektrum verwischt erscheint. Um ein Frequenzverwischen zu vermeiden, kann die diskrete Fouriertransformationen zu den Kosten der zusätzlichen Berechnung verwendet werden. Da die Erfassung nur einmal auszuführen ist, um die anfänglichen Beleuchtungsbedingungen zu bestimmen, kann es akzeptabel sein, einen berechnungsintensiveren Algorithmus zu verwenden. Die Auswahl ist ein Kompromiß zwischen der Rechenzeit und der Unterscheidungsgenauigkeit, aber die Verwendung der schnellen Fouriertransformation ist kein Erfordernis.
  • Im Schritt 316 wird auf der Grundlage der von der Detektor-Einheit 110 durchgeführten Bestimmung, ob die Kamera unter einer 60Hz-, 50Hz- oder Glühlicht-Bedingung betrieben wird, die Integrationszeit entsprechend eingestellt.
  • Sobald die Flacker-Frequenz im Schritt 314 bestimmt worden ist, gibt die Detektor-Einheit 110 ein Signal aus, daß bei einem Ausführungsbeispiel die Flackerfrequenz darstellt. Bei einem anderen Ausführungsbeispiel gibt die Detektor-Einheit 110 ein Signal aus, daß signalisiert, ob ein Glüh-, 50Hz- oder 60Hz-Beleuchtungssystem erfaßt worden ist. Sofern die Lichtquelle eine nicht-flimmernde Quelle ist, würde dies im Schritt 314 oben erfaßt worden sein. Die Aufnahmesteuereinheit bestimmt dann die richtige Integrationszeit für die erfaßte Frequenz.
  • Bei bestimmten Konfigurationen bestimmt die Detektor-Einheit 110 die richtige Integrationszeit auf der Grundlage der erfaßten Flackerfrequenz. Dann steuert die Detektor-Einheit 110 die Aufnahmesteuereinheit 106 derart, daß diese bei der bestimmten Einzelbildrate aufnimmt. So kann die Implementierung der Steuerung der Einzelbildratenaufnahme auf verschiedene Weise ausgeführt werden und ist nicht auf ein spezielles Ausführungsbeispiel eingeschränkt.
  • Durch Ausgeben der aktuellen Frequenz der Oszillation der Lichtquellenintensität ist die vorliegende Erfindung nicht auf die Beseitigung von Flackereinflüssen aus nur in 50Hz- oder 60Hz-Systemen aufgenommenem Video eingeschränkt. Bei einigen Situationen extrem geringer Beleuchtung bei spielsweise, bei denen die einzige Lichtquelle diejenige ist, die von einem Computermonitor eines Nutzers zur Verfügung gestellt wird, können die Flackereffekte beseitigt werden, sofern das System die tatsächliche Frequenz des erfaßten Lichts ausgibt. Dies beruht darauf, daß die meisten Monitore eine Auffrischrate aufweisen, die oberhalb 60Hz beginnt. Wenn beispielsweise eine Szene von einem Monitor beleuchtet wird, der eine Auffrischrate von 75Hz aufweist, is die Kamera in der Lage, die Videoaufnahmerate mit der Auffrischrate des Monitors zu synchronisieren.

Claims (19)

  1. Ein Verfahren, umfassend die Schritte (8): Einstellen einer ersten Einzelbildrate (300); Einstellen einer Aufnahmeintegrationsperiode auf eine erste Integrationsperiode (302); Aufnehmen eines Satzes von Einzelbildern unter einer Beleuchtung durch eine Lichtquelle mit einer Beleuchtungsfrequenz (304); und Bestimmen der Beleuchtungsfrequenz, indem für jede Zeile in jedem Einzelbild des Satzes von Einzelbildern jeweils ein über die Zeile gemittelter Datenwert erzeugt wird (306, 308), wobei jeder Datenwert ein Mittelwert einer separaten Zeile von Bilddaten ist, um einen Einfluß einer Auswahl einer bestimmten Spalte der Bilddaten auf die Bestimmung zu mildern, wobei eine zeitliche Folge von zeilen-gemittelten Datenwerten erzeugt wird; eine Transformation aus dem Zeitbereich in den Frequenzbereich an der Folge von zeilen-gemittelten Datenwerten ausgeführt wird (310); und die Beleuchtungsfrequenz aus dem sich ergebenden Spektrum der Transformation abgeleitet wird (312, 314).
  2. Das Verfahren nach Anspruch 1, ferner umfassend den Schritt des Einstellens der Aufnahmeintegrationsperiode auf eine zweite Integrationsperiode auf der Grundlage der ermittelten Beleuchtungsfrequenz.
  3. Das Verfahren nach Anspruch 2, wobei der Schritt des Einstellens der Aufnahmeintegrationsperiode die Schritte umfaßt: Auswählen eines Satzes von Integrationsperioden auf der Grundlage der ermittelten Beleuchtungsfrequenz; und Bestimmen der zweiten Integrationsperiode aus dem Satz der Integrationsperioden.
  4. Das Verfahren nach Anspruch 3, wobei der Satz der Integrationsperioden so ausgewählt ist, daß er irgendwelche Einflüsse aus der Beleuchtungsquelle wesentlich reduziert.
  5. Das Verfahren nach Anspruch 1, wobei die Transformation eine schnelle Fouriertransformation ist.
  6. Das Verfahren nach Anspruch 1, wobei die Beleuchtungsfrequenz bei 60Hz liegt.
  7. Das Verfahren nach Anspruch 1, wobei die Beleuchtungsfrequenz bei 50Hz liegt.
  8. Das Verfahren nach Anspruch 1, wobei die Beleuchtungsfrequenz bei 0Hz liegt.
  9. Eine Einrichtung, aufweisend: einen Bildsensor (100); und eine mit dem Bildsensor gekoppelte Aufnahmesteuereinheit (106), die so konfiguriert ist, daß sie: eine erste Einzelbildrate einstellt; eine Aufnahmeintegrationsperiode auf eine erste Integrationsperiode einstellt; einen Satz von Einzelbildern unter einer Beleuchtung durch eine Quelle mit einer Beleuchtungsfrequenz unter Verwendung des Bildsensors (100) aufnimmt; und die Beleuchtungsfrequenz bestimmt, indem sie: für jede Zeile in jedem Einzelbild des Satzes von Einzelbildern jeweils einen über die Zeile gemittelten Datenwert erzeugt, wobei jeder Datenwert ein Mittelwert einer separaten Zeile von Bilddaten ist, um einen Einfluß einer Auswahl einer bestimmten Spalte der Bilddaten auf die Bestimmung zu mildern, wobei sie eine zeitliche Folge von zeilengemittelten Datenwerten erzeugt; eine Transformation aus dem Zeitbereich in den Frequenzbereich an der Folge von zeilen-gemittelten Datenwerten ausführt; und die Beleuchtungsfrequenz aus dem sich ergebenden Spektrum der Transformation ableitet.
  10. Die Einrichtung nach Anspruch 9, wobei die Aufnahmesteuereinheit ferner so konfiguriert ist, daß sie auf der Grundlage der ermittelten Beleuchtungsfrequenz die Aufnahmeintegrationsperiode auf eine zweite Integrationsperiode einstellt.
  11. Die Einrichtung nach Anspruch 10, wobei die Aufnahmesteuereinheit zum Einstellen der Aufnahmeintegrationsperiode derart konfiguriert ist, daß sie: einen Satz von Integrationsperioden auf der Grundlage der ermittelten Beleuchtungsfrequenz auswählt; und die zweite Integrationsperiode aus dem Satz von Integrationsperioden bestimmt.
  12. Die Einrichtung nach Anspruch 11, wobei die Aufnahmesteuereinheit so konfiguriert ist, daß sie den Satz von Integrationsperioden so auswählt, daß irgendwelche Einflüsse aus der Beleuchtungsquelle wesentlich reduziert werden.
  13. Die Einrichtung nach Anspruch 9, wobei die Transformation eine schnelle Fouriertransformation ist.
  14. Die Einrichtung nach Anspruch 9, wobei die Beleuchtungsfrequenz bei 60Hz liegt.
  15. Die Einrichtung nach Anspruch 9, wobei die Beleuchtungsfrequenz bei 50Hz liegt.
  16. Die Einrichtung nach Anspruch 10, wobei die Beleuchtungsfrequenz bei 0Hz liegt.
  17. Eine Einrichtung, aufweisend: einen Bildsensor (100); einen mit dem Bildsensor gekoppelten Analog-Zu-Digital-Prozessor (104); einen Flacker-Detektor (112), der mit dem Analog-Zu-Digital-Prozessor (104) gekoppelt ist, um für jede Zeile in jedem Einzelbild des Satzes von Einzelbildern jeweils einen über die Zeile gemittelten Datenwert zu erzeugen, wobei jeder Datenwert ein Mittelwert einer separaten, vom Analog-zu-Digital-Prozessor (104) unter Verwendung des Bildsensors (100) bereitgestellten Zeile ist, wobei eine zeitliche Folge von zeilen-gemittelten Datenwerten erzeugt wird, und eine Transformation aus dem Zeitbereich in den Frequenzbereich an der Folge von zeilen-gemittelten Datenwerten auszuführen (310), um ein Spektrum zu erzeugen und das Spektrum zur Erfassung einer spektralen Komponente zu analysieren; und eine mit dem Flacker-Detektor (112) und dem Bildsensor (100) gekoppelte Aufnahmesteuereinheit (106), die eine Angabe der Art der Beleuchtung gewinnt und in Abhängigkeit davon den Bildsensor (100) in einem Pipeline-Modus anzusteuern, wobei ein Bild auf Zeilenbasis erfaßt wird.
  18. Die Einrichtung nach Anspruch 17, wobei der Flacker-Detektor aufweist: eine mit dem Analog-Zu-Digital-Prozessor gekoppelte Puffer- und Verarbeitungseinheit; eine mit der Puffer- und Verarbeitungseinheit gekoppelte schnelle Fouriertransformationseinheit; und eine mit der Puffer- und Verarbeitungseinheit und der schnellen Fouriertransformationseinheit gekoppelte Detektor-Einheit.
  19. Die Einrichtung nach Anspruch 17, wobei die Aufnahmesteuereinheit den Bildsensor ansteuert, indem eine Aufnahmeintegrationsperiode des Bildsensors auf Grundlage der ermittelten Beleuchtungsfrequenz der Beleuchtung eingestellt wird, um einen von der Beleuchtungsquelle verursachten sichtbaren Effekt in dem aufgenommenen Bild zu verringern.
DE19983408T 1998-07-28 1999-06-24 Verfahren und Einrichtung zum Reduzieren von Flackereinflüssen von Entladungslampen während einer pipeline-artigen digitalen Videoaufnahme Expired - Fee Related DE19983408B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/123,496 1998-07-28
US09/123,496 US6501518B2 (en) 1998-07-28 1998-07-28 Method and apparatus for reducing flicker effects from discharge lamps during pipelined digital video capture
PCT/US1999/014423 WO2000007363A1 (en) 1998-07-28 1999-06-24 Method and apparatus for reducing flicker effects from discharge lamps during pipelined digital video capture

Publications (2)

Publication Number Publication Date
DE19983408T1 DE19983408T1 (de) 2001-06-28
DE19983408B4 true DE19983408B4 (de) 2007-01-18

Family

ID=22409005

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19983408T Expired - Fee Related DE19983408B4 (de) 1998-07-28 1999-06-24 Verfahren und Einrichtung zum Reduzieren von Flackereinflüssen von Entladungslampen während einer pipeline-artigen digitalen Videoaufnahme

Country Status (10)

Country Link
US (2) US6501518B2 (de)
JP (1) JP4195197B2 (de)
KR (1) KR100381532B1 (de)
CN (1) CN1146225C (de)
AU (1) AU4832599A (de)
DE (1) DE19983408B4 (de)
GB (1) GB2354663B (de)
MY (1) MY124395A (de)
TW (1) TW403852B (de)
WO (1) WO2000007363A1 (de)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421097B1 (en) * 1998-07-31 2002-07-16 Intel Corporation Method and apparatus for reducing flicker in a video image sequence
JP3370979B2 (ja) * 2000-09-08 2003-01-27 三菱電機株式会社 撮像装置および自動レベル調整方法
JP4608766B2 (ja) * 2000-11-27 2011-01-12 ソニー株式会社 固体撮像素子の駆動方法、及びカメラ
JP4416959B2 (ja) * 2001-04-26 2010-02-17 富士通マイクロエレクトロニクス株式会社 Xyアドレス型固体撮像装置のフリッカノイズ低減方法
US7187405B2 (en) * 2001-10-02 2007-03-06 Avago Technologies General Ip (Singapore) Pte. Ltd. Automatic flicker frequency detection device and method
US7239345B1 (en) * 2001-10-12 2007-07-03 Worldscape, Inc. Camera arrangements with backlighting detection and methods of using same
US20030090587A1 (en) * 2001-10-30 2003-05-15 Hofer Gregory V. Method and apparatus for auto-focus control in the presence of artificial illumination
US6989860B2 (en) * 2001-10-30 2006-01-24 Hewlett-Packard Development Company, L.P. Method and apparatus for auto-exposure control in the presence of artificial illumination
US7009642B2 (en) * 2001-10-30 2006-03-07 Hewlett-Packard Development Company, L.P. Method and apparatus for detecting the presence of artificial illumination in a scene
JP3823314B2 (ja) * 2001-12-18 2006-09-20 ソニー株式会社 撮像信号処理装置及びフリッカ検出方法
JP2003198932A (ja) * 2001-12-27 2003-07-11 Sharp Corp フリッカ補正装置およびフリッカ補正方法、並びにフリッカ補正プログラムを記録した記録媒体
JP4337353B2 (ja) * 2002-03-25 2009-09-30 セイコーエプソン株式会社 フリッカ検出装置、フリッカ補正装置、撮像装置、フリッカ検出プログラムおよびフリッカ補正プログラム
JP2004112742A (ja) * 2002-07-25 2004-04-08 Fujitsu Ltd 画像歪みを抑制したイメージセンサ
KR100460755B1 (ko) * 2002-10-10 2004-12-14 매그나칩 반도체 유한회사 이미지센서의 화소배열부 및 그를 포함하는 이미지센서 및이미지센서의 플리커 잡음 제거방법
US7126639B2 (en) * 2002-10-29 2006-10-24 Hewlett-Packard Development Company, L.P. Digital camera printing user interface responsive to location
SE525331C2 (sv) * 2002-12-23 2005-02-01 Unipower Ab Mätmetod för bestämning av riktning till flimmerstörkälla
JP3826904B2 (ja) * 2003-07-08 2006-09-27 ソニー株式会社 撮像装置およびフリッカ低減方法
JP4106554B2 (ja) * 2003-09-08 2008-06-25 ソニー株式会社 撮影環境判定方法および撮像装置
US20050237394A1 (en) * 2004-04-21 2005-10-27 Behnam Katiblan Flicker detection for image sensing devices
US7538799B2 (en) * 2005-01-14 2009-05-26 Freescale Semiconductor, Inc. System and method for flicker detection in digital imaging
JP4377840B2 (ja) * 2005-03-31 2009-12-02 イーストマン コダック カンパニー デジタルカメラ
US7683948B2 (en) * 2005-03-31 2010-03-23 Freescale Semiconductor, Inc. System and method for bad pixel replacement in image processing
JP4756960B2 (ja) * 2005-09-02 2011-08-24 キヤノン株式会社 撮像装置及びその制御方法、コンピュータプログラム及び記憶媒体
US7777787B2 (en) 2005-10-17 2010-08-17 Nokia Corporation Preventing flicker effects in video electronic devices
US8068148B2 (en) * 2006-01-05 2011-11-29 Qualcomm Incorporated Automatic flicker correction in an image capture device
TWI306572B (en) * 2006-02-15 2009-02-21 Pixart Imaging Inc Light pointing device and light tracking receiver having function selection key and system using the same
TWI311883B (en) * 2006-05-10 2009-07-01 Novatek Microelectronics Corp Flicker frequency detection method and device
US7667740B2 (en) * 2006-07-28 2010-02-23 Hewlett-Packard Development Company, L.P. Elimination of modulated light effects in rolling shutter CMOS sensor images
US7847834B2 (en) * 2007-11-19 2010-12-07 Omnivision Technologies, Inc. Light source frequency detection circuit using bipolar transistor
KR101164193B1 (ko) * 2008-12-22 2012-07-11 한국전자통신연구원 복수 개의 적외선 신호 좌표를 구별하여 추적하는 방법 및 시스템
DE112010004379T5 (de) * 2009-11-13 2012-11-29 Steven Donald Edelson Überwachungs- und Kamerasystem und Verfahren
US9088727B2 (en) * 2011-04-06 2015-07-21 Pelco, Inc. Spatially-varying flicker detection
CN103108132B (zh) * 2011-11-15 2016-06-15 慧荣科技股份有限公司 抗闪烁摄录装置与摄录方法
JP5814865B2 (ja) * 2012-06-20 2015-11-17 株式会社 日立産業制御ソリューションズ 撮像装置
US9106839B2 (en) 2013-04-05 2015-08-11 Google Inc. Automatic location-based camera frame rate settings
FR3009469B1 (fr) * 2013-07-31 2016-11-25 Morpho Procede de synchronisation de plusieurs cameras d'un systeme de prise de vues, notamment un systeme de prise de vues stereoscopique et systeme de prise de vues pour la mise en œuvre dudit procede.
EP2950523A1 (de) * 2014-05-28 2015-12-02 Thomson Licensing Verfahren zur Schätzung des Flimmerns auf einem mit einem Camcorder aufgezeichnete Video
CN104378628B (zh) * 2014-11-28 2018-04-24 广东中星电子有限公司 一种检测图像闪烁条纹的方法
DE102020202400A1 (de) * 2020-02-25 2021-08-26 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optoelektronische sensorvorrichtung, detektor und elektronisches gerät sowie verfahren zum betreiben einer derartigen sensorvorrichtung bzw. eines derartigen detektors
KR20220048090A (ko) * 2020-10-12 2022-04-19 삼성전자주식회사 주파수 도메인을 이용한 이미지 센서의 검사 방법 및 이를 수행하는 검사 시스템
CN112887629B (zh) * 2021-01-27 2022-08-23 维沃移动通信有限公司 频率检测方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4827119A (en) * 1988-01-28 1989-05-02 Eastman Kodak Company Illuminant discriminator
EP0506031A1 (de) * 1991-03-27 1992-09-30 Matsushita Electric Industrial Co., Ltd. Korrektur des Beleuchtungsflimmerns für Videokameras
US5495313A (en) * 1991-09-04 1996-02-27 Nikon Corporation Light metering device for camera
US5548398A (en) * 1994-11-22 1996-08-20 Eastman Kodak Company Illuminant discriminator providing detection of high efficiency illumination

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930005751B1 (ko) * 1990-07-04 1993-06-24 삼성전자 주식회사 Ccd 칼라 카메라용 플리커 방지회로
JPH04237271A (ja) * 1991-01-21 1992-08-25 Fuji Photo Film Co Ltd 撮像装置
JP3170588B2 (ja) * 1992-10-08 2001-05-28 日本オプネクスト株式会社 光受信器の試験方法
JPH06209427A (ja) 1993-01-11 1994-07-26 Matsushita Electric Ind Co Ltd 固体撮像装置
KR0148450B1 (ko) * 1994-04-08 1998-11-16 가나이 쯔또무 촬상장치 및 그 제어방법
ATE172832T1 (de) * 1995-06-26 1998-11-15 Phase One Denmark A S Verfahren und system zur aufnahme digitaler kamerabilder
JPH0965198A (ja) 1995-08-29 1997-03-07 Rhythm Watch Co Ltd 撮像装置
US5925875A (en) * 1996-04-26 1999-07-20 Lockheed Martin Ir Imaging Systems Apparatus and method for compensating for fixed pattern noise in planar arrays
KR970072970A (ko) * 1996-04-30 1997-11-07 이대원 프레임 메모리를 이용한 고감도 카메라
JPH10136267A (ja) 1996-09-05 1998-05-22 Seiko Epson Corp 画像入力方法および画像入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4827119A (en) * 1988-01-28 1989-05-02 Eastman Kodak Company Illuminant discriminator
EP0506031A1 (de) * 1991-03-27 1992-09-30 Matsushita Electric Industrial Co., Ltd. Korrektur des Beleuchtungsflimmerns für Videokameras
US5495313A (en) * 1991-09-04 1996-02-27 Nikon Corporation Light metering device for camera
US5548398A (en) * 1994-11-22 1996-08-20 Eastman Kodak Company Illuminant discriminator providing detection of high efficiency illumination

Also Published As

Publication number Publication date
KR100381532B1 (ko) 2003-04-26
US20030090566A1 (en) 2003-05-15
DE19983408T1 (de) 2001-06-28
KR20010072073A (ko) 2001-07-31
US20020131491A1 (en) 2002-09-19
MY124395A (en) 2006-06-30
TW403852B (en) 2000-09-01
AU4832599A (en) 2000-02-21
CN1315110A (zh) 2001-09-26
GB2354663B (en) 2002-10-23
US6771305B2 (en) 2004-08-03
GB2354663A (en) 2001-03-28
JP2002521974A (ja) 2002-07-16
JP4195197B2 (ja) 2008-12-10
WO2000007363A1 (en) 2000-02-10
GB0101335D0 (en) 2001-03-07
CN1146225C (zh) 2004-04-14
US6501518B2 (en) 2002-12-31

Similar Documents

Publication Publication Date Title
DE19983408B4 (de) Verfahren und Einrichtung zum Reduzieren von Flackereinflüssen von Entladungslampen während einer pipeline-artigen digitalen Videoaufnahme
US7187405B2 (en) Automatic flicker frequency detection device and method
DE69534069T2 (de) Videoeinzelbildabspeichervorrichtung mit System zur Analyse von analogen Videosignalen
DE69600881T2 (de) Verfahren und system zur aufnahme digitaler kamerabilder
DE3789183T2 (de) Änderungsdetektierung in Videodaten.
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
DE69625398T2 (de) Schwarzmuster-Korrektur für einen Ladungsübertragungssensor
DE69622669T2 (de) Bildaufnahmesystem mit Bildaufnahmeeinheit und Computer
DE69626375T2 (de) Gerät und Verfahren zur Bewegungsfeststellung
DE60209454T2 (de) Bildbearbeitungsvorrichtung und -verfahren
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
DE3913758A1 (de) Optische bildverarbeitung
DE69923048T2 (de) Wirksames Testverfahren zum Klassifizieren der Bildqualität eines optischen Sensors unter Verwendung von drei Pixelkategorien
EP2567539B1 (de) Bildsensor und verfahren zum aufnehmen eines bildes
DE68915497T2 (de) Endoskop mit einer Einstellvorrichtung bezüglich des Beleuchtungsverhältnisses zwischen einem bewegten und einem stillstehenden Bild.
DE112018005773T5 (de) Intensitätsnormierter bildsensor
DE4117019A1 (de) Steuervorrichtung fuer einen bildsensor
DE19536691B4 (de) Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
EP3100594A1 (de) Selbstjustierender sensor zum erfassen des tageslichts
DE69622379T2 (de) Erkennung und Korrektur von spiegelnden Reflexionen in der digitalen Bilderfassung
DE102016109887A1 (de) Verfahren zur Erkennung und Korrektur von Bildfehlern sowie Bildverarbeitungseinheit und Computerprogramm hierzu
DE69126500T2 (de) Verfahren und Gerät zur Auswahl von Videoinformation
DE69925980T2 (de) Vorrichtung zur umwandlung von videosignalkennzeichen und verfahren dafür
EP0934649A1 (de) Verfahren zum erfassen eines bildsignals
DE3824136C2 (de)

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee