DE102005061366A1 - Verfahren und Vorrichtung zur Verarbeitung von Bilddaten eines Farbfilterfeldes - Google Patents

Verfahren und Vorrichtung zur Verarbeitung von Bilddaten eines Farbfilterfeldes Download PDF

Info

Publication number
DE102005061366A1
DE102005061366A1 DE102005061366A DE102005061366A DE102005061366A1 DE 102005061366 A1 DE102005061366 A1 DE 102005061366A1 DE 102005061366 A DE102005061366 A DE 102005061366A DE 102005061366 A DE102005061366 A DE 102005061366A DE 102005061366 A1 DE102005061366 A1 DE 102005061366A1
Authority
DE
Germany
Prior art keywords
classifier
horizontal
image data
vertical
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005061366A
Other languages
English (en)
Inventor
Timofei Suwon Uvarov
Hyung-guen Suwon Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE102005061366A1 publication Critical patent/DE102005061366A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Color Image Communication Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Verarbeitung von Bilddaten, die gemäß einem Farbfilterfeld (CFA) erzeugt werden, wie z. B. einem Bayer-CFA. DOLLAR A Erfindungsgemäß beinhaltet die Bilddatenverarbeitung das Erzeugen von Klassifizierern (S340) aus den Bilddaten, das gerichtete Interpolieren (S360) einer vorgegebenen Farbkomponente aus den Bilddaten in Abhängigkeit von den Klassifizierern und das Erzeugen von Chrominanzkomponenten (S380) aus der gerichtet interpolierten, vorgegebenen Farbkomponente und Bilddaten für wenigstens eine andere Farbkomponente außer der vorgegebenen Farbkomponente. DOLLAR A Verwendung z. B. zur Verarbeitung von Bilddaten von digitalen Fotokameras und Mobiltelefonkameras.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Verarbeitung von Bilddaten, die gemäß einem Farbfilterfeld (CFA) erzeugt wurden, wie z.B. einem Bayer-CFA.
  • Bilderfassungssysteme, wie digitale Fotokameras, Kameras von Mobiltelefonen oder dergleichen, beinhalten eine Bilderfassungsvorrichtung in einer Sensorfeldform mit aktiven Pixeln. Eine derartige Bilderfassungsvorrichtung erzeugt digitale Bilddaten mit drei Farben, d.h. grün (G), blau (B) und rot (R), in einem Bayer-Farbmuster, wie in 1 gezeigt. In einem Fall, in dem eine Bilderfassungsvorrichtung ein Bayer-CFA benutzt, erzeugt ein Komplementär-Metall-Oxid-Halbleiter(CMOS)-Bildsensor (CIS) für jedes Pixel Bilddaten entsprechend einer der Farben R, G und B.
  • Wenn ein Bild unter Verwendung von lediglich jedem von der Bilderfassungsvorrichtung erzeugten Pixeldatenwert angezeigt würde, wäre das angezeigte Bild mit schlechter visueller Qualität ernsthaft verzerrt. Daher bestimmt ein nachfolgender Interpolator zwei fehlende Farbkomponen ten für jeden Pixeldatenwert unter Verwendung von Daten benachbarter Pixel. Ein Bild, das unter Verwendung der resultierenden Dreifarbendaten für jedes Pixel angezeigt wird, weist eine verbesserte visuelle Qualität auf.
  • Allgemein bekannte Interpolationsverfahren umfassen ein bilineares Interpolationsverfahren, ein Verfahren für gleichmäßigen Farbtonübergang, ein PEI-Verfahren, ein gerichtetes Interpolationsverfahren, ein Adams-Verfahren, ein Adams-PEI-Verfahren, ein Kimmel-Verfahren und so weiter. Die Patentschrift US 5.506.619 und die koreanische Offenlegungsschrift 2001-56442 offenbaren herkömmliche Interpolationsverfahren zur Erzielung von Pixeldaten von zwei fehlenden Farben für jedes Pixel unter Verwendung benachbarter Pixeldaten.
  • In den vorstehend erwähnten herkömmlichen Interpolationsverfahren ist jedoch eine Verzerrung eines angezeigten Bildes nicht vollständig korrigiert. Eine Verzerrung eines Bildes beinhaltet einen Zipper-Effekt, d.h. Aliasing, Farbmoiré, Unschärfe mit Detailverlust, einen falschen bzw. Pseudofarbeffekt und dergleichen.
  • Der Erfindung liegt als technisches Problem die Bereitstellung eines Verfahrens und einer Vorrichtung zur Verarbeitung von Bilddaten gemäß einem CFA zugrunde, die in der Lage sind, die vorstehend erwähnten Schwierigkeiten des Standes der Technik zu reduzieren oder zu vermeiden und die insbesondere eine Minimierung der Bildverzerrung ermöglichen, wenn fehlende Farbkomponenten von Bilddaten entsprechend einem Farbfilterfeld interpoliert werden.
  • Die Erfindung löst dieses Problem durch die Bereitstellung eines Verfahrens mit den Merkmalen des Anspruchs 1 und einer Vorrichtung mit den Merkmalen des Anspruchs 11.
  • Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Erfindungsgemäß können sowohl lineare als auch gerichtete Interpolationen für die Bilddaten entsprechend dem Farbfilterfeld und den Chrominanzkomponenten durchgeführt werden. Derartige Mehrfachtypen von Interpolationen verbessern die visuelle Qualität in einem Abbildungssystem.
  • Vorteilhafte Ausführungsformen der Erfindung werden im Folgenden beschrieben und sind in den Zeichnungen gezeigt, die außerdem das vorstehend zum leichteren Verständnis der Erfindung erläuterte herkömmliche Ausführungsbeispiel zeigen. Es zeigen:
  • 1 ein Farbmuster für ein herkömmliches Bayer-Farbfilterteld,
  • 2 ein Blockdiagramm einer erfindungsgemäßen Farbsignalinterpolationsvorrichtung,
  • 3 ein Flussdiagramm von Schritten während des Betriebs der Farbsignalinterpolationsvorrichtung von 2 gemäß der Erfindung,
  • 4A und 4B Farbkomponenten, die aus einer Interpolation gemäß der Erfindung zu bestimmen sind,
  • 5A Pixeldaten, die zur Berechnung von horizontalen und vertikalen Klassifizierern gemäß der Erfindung verwendet werden,
  • 5B und 5C Pixeldaten, die zur Mittelung der horizontalen und vertikalen Klassifizierer gemäß der Erfindung verwendet werden,
  • 6 Pixeldaten, die zur Neuberechnung von horizontalen und vertikalen Klassifizierern gemäß der Erfindung verwendet werden, und
  • 7A und 7B eine Berechnung von Chrominanzkomponenten gemäß der Erfindung.
  • Im Folgenden werden beispielhafte Ausführungsformen der Erfindung bezugnehmend auf die entsprechenden 2 bis 7B beschrieben. 2 zeigt eine Farbsignalinterpolationsvorrichtung 200 gemäß der Erfindung, die einen linearen Interpolator 210, eine Klassifiziererberechnungseinheit 220, einen ersten gerichteten Interpolator 230, eine Farbdifferenzberechnungseinheit 240, einen zweiten gerichteten Interpolator 250 und einen RGB-Generator 260 beinhaltet.
  • Der lineare Interpolator 210 empfängt R-, G- und B-Pixelbilddaten und interpoliert die R-, G- und B-Pixeldbilddaten linear unter Verwendung benachbarter Pixelbilddaten, um linear interpolierte R-, G- und B-Daten von jedem Pixel zu erzeugen. Die R-, G- und B-Pixelbilddaten rühren von einem Bildsensor mit einem Bayer-Muster-CFA (Farbfilterfeld) gemäß einer beispielhaften Ausführungsform der Erfindung her. Die Erfindung kann jedoch auch für andere Typen von Farbfilterfeldern ausgeführt werden.
  • Die Klassifiziererberechnungseinheit 220 erzeugt gerichtete, d.h. horizontale und vertikale, Klassifizierer H und V aus den linear interpolierten R-, B- und G-Pixelbilddaten, die von dem linearen Interpolator 210 abgegeben werden. Der horizontale Klassifizierer H zeigt einen horizontalen Gradienten von Daten benachbart zu einem momentanen Pixel an, und der vertikale Klassifizierer V zeigt einen vertikalen Gradienten der Daten benachbart zu dem momentanen Pixel an.
  • Das Moiré-Phänomen in einem interpolierten Bild kann aufgrund von Aliasing von R- und B-Farbkomponenten auftreten. Es ist möglich, dass Abtastfrequenzen der R- und B-Farbkomponenten nicht ausreichend sind, um hohe räumliche Frequenzen zu kompensieren, und somit Aliasing verursachen. können
  • Eine gerichtete Interpolation wird bezüglich einer vorgegebenen Farbkomponente, wie der grünen (G) Farbe, zur Interpolation von Chrominanzkomponenten gemäß einer Ausführungsform der Erfindung durchgeführt. Zu diesem Zweck führt der erste gerichtete Interpolator 230 eine gerichtete Interpolation mit den linear interpolierten R-, B- und G-Pixelbilddaten durch, die von dem linearen Interpolator 210 gemäß den horizontalen und vertikalen Klassifizierern H und V abgegeben werden. Als Ergebnis erzeugt der erste gerichtete Interpolator 230 gerichtet interpolierte G-Daten.
  • Außerdem kann die Klassifizierer-Berechnungseinheit 220 die horizontalen und vertikalen Klassifizierer H und V unter Verwendung lediglich der gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230 neu berechnen, um die neu berechneten horizontalen und vertikalen Klassifizierer als die horizontalen und die vertikalen Klassifizierer H und V abzugeben. Alternativ kann die Klassifizierer-Berechnungseinheit 220 die horizontalen und vertikalen Klassifizierer H und V unter Verwendung der linear interpolierten R- und B-Daten von dem linearen Interpolator 210 und der gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230 neu berechnen, um die neu berechneten horizontalen und vertikalen Klassifizierer als die horizontalen und vertikalen Klassifizierer H und V abzugeben. Die Neuberechnung der horizontalen und vertikalen Klassifizierer H und V durch die Klassifizierer-Berechnungseinheit 220 ist optional. Die Neuberechnung der horizontalen und vertikalen Klassifizierer H und V kann des Weiteren die visuelle Qualität verbessern.
  • Die Farbdifferenzberechnungseinheit 240 erzeugt erste Chrominanzkomponenten Kr[*](/Kb[*]) und zweite Chrominanzkomponenten Kb[*](/Kr[*]) benachbart zu dem momentanen Pixel aus den linear interpolierten R- und B-Daten von dem linearen Interpolator 210 und den gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230. Der zweite gerichtete Interpolator 250 interpoliert gerichtet die ersten und zweiten Chrominanzkomponenten Kr[*](/Kb[*]) und Kb[*](/Kr[*]) gemäß den horizontalen und vertikalen Klassifizierern H und V, die von der Klassifiziererberechnungseinheit 220 abgegeben werden, um erste und zweite Chrominanzdaten Kr[momentan][/Kb[momentan]) und Kb[momentan](/Kr[momentan]) des momentanen Pixels zu erzeugen.
  • Der RGB-Generator 260 extrahiert zwei fehlende Farbkomponenten für jedes Pixel aus den linear interpolierten R- und B-Daten von dem linearen Interpolator 210, den gerichtet interpolierten G-Daten von dem gerichteten Interpolator 230 und den ersten und zweiten Chrominanzdaten Kr[momentan](/Kb[momentan]) und Kb[momentan](/Kr[momentan]) von dem zweiten gerichteten Interpolator 250, um neu organisierte R-, G- und B-Daten abzugeben. G- und B-Daten werden zum Beispiel für ein R-Pixel extrahiert, R- und B-Daten werden für ein G-Pixel extrahiert und R- und G-Daten werden für ein B-Pixel extrahiert. Als Ergebnis werden R-, G- und B-Daten für jedes Pixel von dem RGB-Generator 260 abgegeben.
  • Der Betrieb der Farbsignalinterpolationsvorrichtung 200 wird detaillierter unter Bezugnahme auf das Flussdiagramm von 3 beschrieben. Bezugnehmend auf die 2 und 3 empfängt der lineare Interpolator 210 Pixelbilddaten (R-, G-, B-Eingangsdaten) von einem Bildsensor, die zum Beispiel gemäß einem Bayer-FarbfilterFeld erzeugt werden (Schritt S310 in 3).
  • Der lineare Interpolator 210 interpoliert linear die R-, G- und B-Pixelbilddaten unter Verwendung benachbarter Pixeldaten (Schritt S320 in 3). In 4A sind zum Beispiel G2-, G4-, G6- und G8-Pixelbilddaten benachbart zu dem Pixel mit dem G5-Datenwert, der für ein mittiges R- oder B-Pixel zu bestimmen ist. Der linear interpolierte G5-Datenwert kann als G5 = (G2 + G8)/2 oder G5 = (G4 + G6)/2 ermittelt werden.
  • In 4B sind R1-, R3-, R7- und R9-Pixelbilddaten benachbart zu dem Pixel mit den R2-, R4-, R5-, R6- und R8-Daten, die für entsprechende G-Pixel und ein B-Pixel zu bestimmen sind. Die linear interpolierten R2-, R4-, R6- und R8-Daten für die G-Pixel können als R2(R1 + R3)/2, R4 = (R1 + R7)/2, R6 = (R3 + R8)/2 und R8 = (R7 + R9)/2 ermittelt werden, während R5 des mittigen B-Pixels nicht berechnet wird. Außerdem wird in Schritt S320 der linear interpolierte B-Datenwert der G-Pixel in gleicher Weise berechnet. Zudem werden Pixelbilddaten von dem Bildsensor wie von dem linearen Interpolator 210 als die linear interpolierten Bilddaten abgegeben.
  • Außerdem erzeugt die Klassifiziererberechnungseinheit 220 die horizontalen und vertikalen Klassifizierer H und V unter Verwendung der linear interpolierten R-, B- und G-Pixeldbilddaten, die von dem linearen Interpolator 210 abgegeben werden (Schritt S340 in 3). Der horizontale Klassifizierer H zeigt einen Gradienten des momentanen Pixels unter Verwendung von zwei horizontalen Bilddaten auf der linken Seite des momentanen Pixels und zwei horizontalen Bilddaten auf der rechten Seite des momentanen Pixels an, wie in 5A dargestellt. Wenn zum Beispiel 5 R1, G2, R3, G4 und R5 horizontale Pixelbilddaten einschließlich eines momentanen Pixels R3 sind, kann der horizontale Klassifizierer H als H = w1·ABS(G2 – G4) + w2·ABS(R1 – 2R3 + R5) berechnet werden. Hierbei bezeichnet ABS() einen Absolutwert, und w1 und w2 bezeichnen Gewichtungskoeffizienten. Der vertikale Klassifizierer V wird in gleicher Weise aus 5 vertikalen Pixelbilddaten einschließlich des momentanen Pixels berechnet (die zwei vertikale Bilddaten oberhalb und zwei vertikale Bilddaten unterhalb des momentanen Pixels beinhalten).
  • Wenn eine Differenz zwischen den horizontalen und vertikalen Klassifizierern H und V kleiner als ein erster Schwellenwert ist (Schritt S330 in 3), mittelt die Klassifiziererberechnungseinheit 220 die horizontalen und vertikalen Klassifizierer H und V (Schritt S350 in 3). Zum Beispiel summiert in jenem Fall die Klassifiziererberechnungseinheit 220 horizontale Klassifizierer H[links] und H[rechts] auf der linken und rechten Seite des momentanen Pixels und einen horizontalen Klassifizierer H[momentan] des momentanen Pixels mit jeweiligen Gewichtungskoeffizienten, um das Summenresultat als den horizontalen Klassifizierer H zu erzeugen.
  • In gleicher Weise summiert die Klassifiziererberechnungseinheit 220 vertikale Klassifizierer V[oben] und V[unten] oberhalb und unterhalb des momentanen Pixels und einen vertikalen Klassifizierer V[momentan] des momentanten Pixels mit jeweiligen Gewichtungskoeffizienten, um das Summenresultat als den vertikalen Klassifizierer V wie in Gleichung 1 unten zu erzeugen. So wird ein 7 × 7-Fenster von Pixelbilddaten, wie in 5B gezeigt, dazu verwendet, die horizontalen und vertikalen Klassifizierer H und V zu mitteln. In Gleichung 1 unten bezeichnen w1 und w2 Gewichtungskoeffizienten.
  • [Gleichung 1]
    • V = w1·V[momentan] + w2(V[oben] + V[unten])
    • H = w1·H[momentan] + w2(H[links] + H[rechts]).
  • Wenn außerdem die Differenz zwischen derartigen gemittelten Klassifizierern H und V größer als der erste Schwellenwert, jedoch kleiner als ein zweiter Schwellenwert ist, kann die Klassifiziererberechnungseinheit 220 des Weiteren die Klassifizierer H und V neu mitteln. In jenem Fall summiert die Klassifiziererberechnungseinheit 220 zum Beispiel vertikale Klassifizierer V[links] und V[rechts] auf der linken und rechten Seite des momentanen Pixels und den vertikalen Klassifizierer V[momentan] des momentanen Pixels mit jeweiligen Gewichtungskoeffizienten, um das Summenresultat als den vertikalen Klassifizierer V zu erzeugen.
  • In gleicher Weise summiert die Klassifiziererberechnungseinheit 220 horizontale Klassifizierer H[oben] und H[unten] oberhalb und unterhalb des momentanen Pixels und den horizontalen Klassifizierer H[momentan] des momentanen Pixels mit jeweiligen Gewichtungskoeffizienten, um das Summenresultat als den horizontalen Klassifizierer H wie in Gleichung 2 unten zu erzeugen. So wird ein 7 × 7-Fenster von Pixelbilddaten, wie in 5C gezeigt, dazu verwendet, die gemittelten horizontalen und vertikalen Klassifizierer H und V des Weiteren neu zu mitteln. In Gleichung 2 bezeichnen w1 und w2 Gewichtungskoeffizienten.
  • [Gleichung 2]
    • V = w1·V[momentan] + w2(V[links] + V[rechts])
    • H = w1·H[momentan] + w2(H[oben] + H[unten]).
  • Des Weiteren bezugnehmend auf die 2 und 3 führt der erste gerichtete Interpolator 230 die gerichtete Interpolation von den linear interpolierten R-, B- und G-Pixelbilddaten durch, die von dem linearen Interpolator 210 abgegeben werden, um gerichtet interpolierte G-Daten in Abhängigkeit von den horizontalen und vertikalen Klassifizierern H und V zu erzeugen (Schritt S360 in 3). Hierbei werden die gerichtet interpolierten G-Daten der R- und B-Pixel erzeugt.
  • Wenn zum Beispiel der vertikale Klassifizierer V größer als der horizontale Klassifizierer H ist, wird ein horizontaler Faltungswert HC(momentan) als der gerichtet interpolierte G-Datenwert G[momentan] wie in Gleichung 3 unten berechnet. HC(momentan) wird aus den Bilddaten für das momentane Pixel, zwei Pixel auf der linken Seite des momentanen Pixels und zwei Pixel auf der rechten Seite des momentanen Pixels berechnet. Wenn zum Beispiel 5 R1, G2, R3, G4 und R5 5 horizontale Bilddatenwerte von dem Bildsensor einschließlich des momentanen Pixels R3 sind, ist HC(momentan) = w·(G2 + G4) + (a·R1 + b·R3 + a·R5). Hierbei bezeichnen w, a und b Gewichtungskoeffizienten.
  • [Gleichung 3]
    • G[momentan] = HC(momentan)
  • Wenn andererseits der vertikale Klassifizierer V kleiner als der horizontale Klassifizierer H ist, wird ein vertikaler Faltungswert VC(momentan) als der gerichtet interpolierte G-Datenwert G[momentan] wie in Gleichung 4 unten berechnet. VC(momentan) wird aus 5 vertikalen Datenwerten einschließlich eines momentanen Pixels in gleicher Weise berechnet, wie für die Berechnung von HC(momentan) beschrieben.
  • [Gleichung 4]
    • G[momentan] = VC(momentan).
  • Wenn der vertikale Klassifizierer V den gleichen oder fast gleichen Wert hat wie der horizontale Klassifizierer H, wird ein Mittelwert von HC(momentan) und VC(momentan) als der gerichtet interpolierte G-Datenwert G[momentan] wie in Gleichung 5 unten erzeugt.
  • [Gleichung 5]
    • G[momentan] = {HC(momentan) + VC(momentan)}/2.
  • In Schritt S370 kann die Klassifiziererberechnungseinheit 220 die horizontalen und vertikalen Klassifizierer H und V unter Verwendung der gerichtet interpolierten G-Daten neu berechnen und neu mitteln. Der Schritt S370 ist jedoch optional (wie durch die gestrichelten Linien in 3 dargestellt). Die Neuberechnung und Neumittelung der horizontalen und vertikalen Klassifizierer H und V werden zum Beispiel unter Verwendung lediglich der gerichtet interpolierten G-Daten durchgeführt, die von dem ersten gerichteten Interpolator 230 abgegeben werden. Die H- und V-Klassifizierer können zum Beispiel durch eine gewichtete Summe der gerichtet interpolierten G-Daten erzeugt werden. In jenem Fall werden Pixelbilddaten in einem 11 × 11-Fenster, wie in 6 gezeigt, dazu verwendet, die horizontalen und vertikalen Klassifizierer H und V neu zu berechnen und neu zu mitteln, da Bilddaten für vier zusätzliche Pixel um das 7 × 7-Fenster herum zur Ermittlung der zu mittelnden mehreren Klassifizierer verwendet werden.
  • Alternativ zur Verwendung lediglich der gerichtet interpolierten G-Daten können sowohl die linear interpolierten R- und B-Daten von dem linearen Interpolator 210 als auch gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230 zur Neuberechnung und Neumittelung der horizontalen und vertikalen Klassifizierer H und V verwendet werden. Die H- und V-Klassifizierer können zum Beispiel durch eine gewichtete Summe der linear interpolierten R- und B-Daten und der gerichtet interpolierten G-Daten erzeugt werden.
  • Weiter bezugnehmend auf die 2 und 3 erzeugt die Farbdifferenzberechnungseinheit 240 die ersten und zweiten Chrominanzkomponenten Kr[*](/Kb[*]) und Kb[*](/Kr[*]) benachbart zu dem momentanen Pixel aus den linear interpolierten R- und B-Daten von dem linearen Interpolator 210 und den gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230 (Schritt S380 von 3). Wie zum Beispiel in 7A gezeigt, erzeugt die Farbdifferenzberechnungseinheit 240 erste Chrominanzkomponenten Kr[oben], Kr[unten], Kr[links] und Kr[rechts] von G-Pixeln oberhalb, unterhalb, links und rechts von einem momentanen R-Pixel R[momentan] und zweite Chrominanzkomponenten Kb[lo], Kb[ro], Kb[lu] und Kb[ru] von B-Pixeln links oben, rechts oben, links unten und rechts unten von dem momentanen R-Pixel R[momentan].
  • Somit können die ersten Chrominanzkomponenten Kr[*] aus den gerichtet interpolierten G-Daten und den linear interpolierten R-Daten von G-Pixeln wie in Gleichung 6 unten berechnet werden, und die zweiten Chrominanzkomponenten Kb[*] können aus den gerichtet interpolierten G-Daten und den linear interpolierten B-Daten von B-Pixeln wie in Gleichung 7 unten berechnet werden. Man beachte, dass derartige linear interpolierte B-Daten von derartigen B-Pixeln die ursprünglichen B-Pixelbilddaten von dem Bildsensor sind.
  • [Gleichung 6]
    • Kr[oben] = G[oben] – R[oben]
    • Kr[unten] = G[unten] – R[unten]
    • Kr[links] = G[links] – R[links]
    • Kr[rechts] = G[rechts] – R[rechts]
  • [Gleichung 7]
    • Kb[l0] = G[l0] – B[l0]
    • Kb[r0] = G[r0] – B[r0]
    • Kb[lb] = G[lb] – B[lb]
    • Kb[ru] = G[rbu] – B[ru]
  • In ähnlicher Weise wie in 7B gezeigt erzeugt die Farbdifferenzberechnungseinheit 240 auch die ersten Chrominanzkomponenten Kb[oben], Kb[unten], Kb[links] und Kb[rechts] von G-Pixeln oberhalb, unterhalb, links und rechts von einem momentanen B-Pixel B[momentan]. Die Farbdifterenzberechnungseinheit 240 erzeugt in ähnlicher Weise die zweiten Chrominanzkomponenten Kr[l0], Kr[r0], Kr[l0] und Kr[rb] von R-Pixeln links oben, rechts oben, links unten und rechts unten von dem momentanen B-Pixel B[momentan]. In gleicher Weise werden für das momentane G-Pixel Kb[*] als die ersten Chrominanzkomponenten erzeugt und Kr[*] werden als die zweiten Chrominanzkomponenten erzeugt.
  • In Schritt S390 interpoliert der zweite gerichtete Interpolator 250 gerichtet die ersten und zweiten Chrominanzkomponenten Kr[*](/Kb[*]) und Kb[*](/Kr[*]) in Abhängigkeit von den horizontalen und vertikalen Klassifizierern H und V, um erste und zweite Chrominanzdaten Kr[momentan](/Kb[momentan]) und Kb[momentan](/Kr[momentan]) des momentanen Pixels zu erzeugen. Erste Chrominanzdaten Kr[momentan](/Kb[momentan]) werden durch gerichtetes Interpolieren der ersten Chrominanzkomponenten Kr[*](/Kb[*]) erhalten. Zweite Chrominanzdaten Kb[momentan](/Kr(momentan]) werden durch gerichtetes Interpolieren der zweiten Chrominanzkomponenten Kb[*](/Kr[*]) erhalten.
  • Wenn zum Beispiel der vertikale Klassifizierer V größer als der horizontale Klassifizierer H für ein momentanes R-Pixel ist, wird eine Mittelung von Chrominanzkomponenten auf der linken und der rechten Seite des momentanen R-Pixels als der gerichtet interpolierte erste Chrominanzdatenwert Kr[momentan] erzeugt, wie in Gleichung 8 unten.
  • [Gleichung 8]
    • Kr[momentan] = (Kr[links] + Kr[rechts])/2.
  • Wenn andererseits der vertikale Klassifizierer V kleiner als der horizontale Klassifizierer H für das momentane R-Pixel ist, wird eine Mittelung von Chrominanzkomponenten Kr[oben] und Kr[unten] oberhalb und unterhalb des momentanen R-Pixels als der gerichtet interpolierte erste Chrominanzdatenwert Kr[momentan] erzeugt, wie in Gleichung 9 unten.
  • [Gleichung 9]
    • Kr[momentan] = (Kr[oben] + Kr[unten])/2.
  • Wenn der vertikale Klassifizierer V den gleichen oder fast gleichen Wert hat, wie der horizontale Klassifizierer H für das momentane R-Pixel, wird eine weitere Mittelung der Mittelwerte als der gerichtet interpolierte erste Chrominanzdatenwert Kr[momentan] erzeugt, wie in Gleichung 10 unten.
  • [Gleichung 10]
    • Kr[momentan] = (Kr[links] + Kr[rechts] + Kr[oben] + Kr[unten])/4.
  • Das Verfahren zur Erzielung des ersten Chrominanzdatenwerts Kr[momentan] für das momentane R-Pixel wird auch für die momentanen B- und G-Pixel verwendet, um in gleicher Weise den ersten Chrominanzdatenwert Kr[momentan](/Kb[momentan]) für die momentanen B- und G-Pixel zu erzeugen.
  • Eine Medianfilterung wird durchgeführt, um den zweiten Chrominanzdatenwert Kb[momentan](/Kr[momentan]) aus den zweiten Chrominanzkomponenten Kb[*](/Kr[*]) diagonal zu einem momentanen Pixel zu erhalten. Der zweite Chrominanzdatenwert Kb[momentan] wird zum Beispiel aus einer Medianfilterung der zweiten Chrominanzkomponenten Kb[lo], Kb[ro], Kb[lu] und Kb[ru] für das momentane R-Pixel erzeugt. Wenn Werte für die zweiten Chrominanzkomponenten Kb[lo], Kb[ro], Kb[lu] und Kb[ru] gleich 8, 3, 10 beziehungsweise 2 sind, wird eine Medianfilterung zu (3 + 8)/2 berechnet.
  • Wie allgemein bekannt ist, bezieht sich eine "Medianfilterung" auf einen Mittelwert der Werte in einem Satz mit Ausnahme eines Minimums und eines Maximums in dem Satz. In gleicher Weise werden zweite Chrominanzdatenwerte für die momentanen B- und G-Pixel durch eine Medianfilterung der zweiten Chrominanzkomponenten Kb[*](/Kr[*]) diagonal zu den momenanten B- und G-Pixeln ermittelt.
  • In Schritt S400 extrahiert der RGB-Generator 260 zwei fehlende Komponenten jedes Pixels unter Verwendung der ersten Chrominanzdaten Kr[momentan](/Kb[momentan]) und der zweiten Chrominanzdaten Kb[momentan](/Kr[momentan]) von dem zweiten gerichteten Interpolator 250. Die linear interpolierten R- und B-Daten von dem linearen Interpolator 210 und die gerichtet interpolierten G-Daten von dem ersten gerichteten Interpolator 230 werden außerdem zur Extrahierung der zwei fehlenden Komponenten verwendet. Zum Beispiel können G- und B-Daten G[momentan] und B[momentan] eines momentanen R-Pixels wie in Gleichung 11 unten erhalten werden.
  • [Gleichung 11]
    • G[momentan] = R[momentan] + Kr[momentan]
    • B[momentan] = G[momentan] – Kb[momentan].
  • Auf diese Weise bilden die extrahierten Werte G[momentan] und B[momentan] und der momentane R-Pixelwert R[momentan] die neu organisierten R-, G- und B-Daten, die nachfolgend zur Anzeige als ein Bild auf einem Bildschirm zu verarbeiten sind.
  • Auf diese Weise werden sowohl lineare als auch gerichtete Interpolationen der Bilddaten des Bayer-Farbfilterfeldes und der Chrominanzkomponenten durchgeführt. Derartige Mehrfachtypen von Interpolationen verbessern die visuelle Qualität. Somit wird eine Bildverzerrung aufgrund von Aliasing, Farbmoiré, Unschärfeerzeugung, einem falschen bzw. Pseudo-Farbeffekt und dergleichen für eine verbesserte visuelle Qualität minimiert.

Claims (20)

  1. Verfahren zur Verarbeitung von Bilddaten, die gemäß einem Farbfilterfeld erzeugt werden, umfassend: – Erzeugen von Klassifizierern (S340) aus den Bilddaten, – gerichtetes Interpolieren (S360) einer vorgegebenen Farbkomponente aus den Bilddaten in Abhängigkeit von den Klassifizierern und – Erzeugen von Chrominanzkomponenten (S380) aus der vorgegebenen, gerichtet interpolierten Farbkomponente und Bilddaten für wenigstens eine andere Farbkomponente außer der vorgegebenen Farbkomponente.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Farbfilterfeld ein Bayer-Farbmuster aufweist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die vorgegebene Farbkomponente für eine grüne Farbe dient.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Bilddaten linear interpolierte Daten für Daten sind, die von einem Farbfilterfeld erzeugt werden, und die wenigstens eine andere Farbkomponente linear interpolierte Bilddaten der Farben rot und blau enthält.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Schritt der Erzeugung der Klassifizierer ein Erzeugen von horizontalen und vertikalen Klassifizierern beinhaltet.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Schritt der Erzeugung der Klassifizierer beinhaltet: – Berechnen des horizontalen Klassifizierers für ein momentanes Pixel unter Verwendung der Bilddaten für das momentane Pixel und zusätzliche Pixel links und rechts von dem momentanen Pixel und – Berechnen des vertikalen Klassifizierers für das momentane Pixel unter Verwendung der Bilddaten für das momentane Pixel und zusätzliche Pixel oberhalb und unterhalb des momentanen Pixels.
  7. Verfahren nach Anspruch 6, weiter gekennzeichnet durch – Einstellen des horizontalen Klassifizierers durch Mitteln von horizontalen Klassifizierern des momentanen Pixels und angrenzender Pixel und Einstellen des vertikalen Klassifizierers durch Mitteln von vertikalen Klassifizierern des momentanen Pixels und von angrenzenden Pixeln, wenn eine Differenz zwischen dem horizontalen und dem vertikalen Klassifizierer für das momentane Pixel geringer als ein Schwellenwert ist.
  8. Verfahren nach einem der Ansprüche 5 bis 7, weiter gekennzeichnet durch – Berechnen eines horizontalen Faltungswerts für die gerichtet interpolierte, vorgegebene Farbkomponente, wenn der vertikale Klassifizierer größer als der horizontale Klassifizierer ist, – Berechnen eines vertikalen Faltungswerts für die gerichtet interpolierte, vorgegebene Farbkomponente, wenn der vertikale Klassifizierer kleiner als der horizontale Klassifizierer ist, und – Mitteln der horizontalen und vertikalen Faltungswerte für die gerichtet interpolierte, vorgegebene Farbkomponente, wenn der vertikale Klassifizierer im Wesentlichen gleich dem horizontalen Klassifizierer ist.
  9. Verfahren nach einem der Ansprüche 1 bis 8, weiter gekennzeichnet durch – Neuberechnen der Klassifizierer unter Verwendung der gerichtet interpolierten, vorgegebenen Farbkomponente.
  10. Verfahren nach einem der Ansprüche 1 bis 9, weiter gekennzeichnet durch – gerichtetes Interpolieren der Chrominanzkomponenten in Abhängigkeit von den Klassifizierern und – Extrahieren von wenigstens einer Farbkomponente eines Pixels unter Verwendung der gerichtet interpolierten Chrominanzkomponenten des Pixels.
  11. Vorrichtung zur Verarbeitung von Bilddaten, die gemäß einem Farbfilterfeld erzeugt wurden, gekennzeichnet durch – eine Klassifizierungsberechnungseinheit (220) zum Erzeugen von Klassifizierern aus den Bilddaten, – einen ersten gerichteten Interpolator (230) zum gerichteten Interpolieren einer vorgegebenen Farbkomponente aus den Bilddaten in Abhängigkeit von den Klassifizierern und – eine Farbdifferenzberechnungseinheit (240) zum Erzeugen von Chrominanzkomponenten aus der gerichtet interpolierten, vorgegebenen Farbkomponente und Bilddaten für wenigstens eine andere Farbkomponente neben der vorgegebenen Farbkomponente.
  12. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass das Farbfilterfeld ein Bayer-Farbmuster aufweist.
  13. Vorrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die vorgegebene Farbkomponente für eine grüne Farbe dient.
  14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Bilddaten linear interpolierte Daten für Daten sind, die von einem Farbfilterfeld erzeugt werden, und die wenigstens eine andere Farbkomponente linear interpolierte Bilddaten der Farben rot und blau beinhaltet.
  15. Vorrichtung nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die Klassifiziererberechnungseinheit horizontale und vertikale Klassifizierer erzeugt.
  16. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, dass die Klassifiziererberechnungseinheit den horizontalen Klassifizierer für ein momentanes Pixel unter Verwendung der Bilddaten für das momentane Pixel und zusätzliche Pixel links und rechts von dem momentanen Pixel berechnet und den vertikalen Klassifizierer für das momentane Pixel unter Verwendung der Bilddaten für das momentane Pixel und zusätzliche Pixel oberhalb und unterhalb des momentanen Pixels berechnet.
  17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass die Klassifiziererberechnungseinheit den horizontalen Klassifizierer durch Mitteln von horizontalen Klassifizierern des momentanen Pixels und angrenzender Pixel einstellt und den vertikalen Klassifizierer durch Mitteln von vertikalen Klassifizierern des momentanen Pixels und angrenzender Pixel einstellt, wenn eine Differenz zwischen dem horizontalen und dem vertikalen Klassifizierer für das momentane Pixel kleiner als ein Schwellenwert ist.
  18. Vorrichtung nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, dass der erste gerichtete Interpolator einen horizontalen Faltungswert für die gerichtet interpolierte, vorgegebene Farbkomponente berechnet, wenn der vertikale Klassifizierer größer als der horizontale Klassifizierer ist, einen vertikalen Faltungswert für die gerichtet interpolierte, vorgegebene Farbkomponente berechnet, wenn der vertikale Klassifizierer kleiner als der horizontale Klassifizierer ist, und die horizontalen und vertikalen Faltungswerte für die gerichtet interpolierte, vorgegebene Farbkomponente mittelt, wenn der vertikale Klassifizierer im Wesentlichen gleich dem horizontalen Klassifizierer ist.
  19. Vorrichtung nach einem der Ansprüche 11 bis 18, dadurch gekennzeichnet, dass die Klassifiziererberechnungseinheit die Klassifizierer unter Verwendung der gerichtet interpolierten, vorgegebenen Farbkomponente neu berechnet.
  20. Vorrichtung nach einem der Ansprüche 11 bis 19, weiter gekennzeichnet durch – einen zweiten gerichteten Interpolator (250) für gerichtetes Interpolieren der Chrominanzkomponenten in Abhängigkeit von den Klassifizierern und – einen Farbkomponentengenerator (260) zum Extrahieren von wenigstens einer Farbkomponente eines Pixels unter Verwendung der gerichtet interpolierten Chrominanzkomponenten des Pixels.
DE102005061366A 2004-12-16 2005-12-13 Verfahren und Vorrichtung zur Verarbeitung von Bilddaten eines Farbfilterfeldes Withdrawn DE102005061366A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020040107213A KR100699831B1 (ko) 2004-12-16 2004-12-16 베이어 패턴의 컬러 신호를 보간하는 방법 및 보간기
KR10-2004-0107213 2004-12-16

Publications (1)

Publication Number Publication Date
DE102005061366A1 true DE102005061366A1 (de) 2006-07-13

Family

ID=36595830

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005061366A Withdrawn DE102005061366A1 (de) 2004-12-16 2005-12-13 Verfahren und Vorrichtung zur Verarbeitung von Bilddaten eines Farbfilterfeldes

Country Status (6)

Country Link
US (1) US7577315B2 (de)
JP (1) JP4664810B2 (de)
KR (1) KR100699831B1 (de)
CN (1) CN1812592B (de)
DE (1) DE102005061366A1 (de)
TW (1) TWI283930B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009013073A1 (de) 2007-07-25 2009-01-29 Robert Bosch Gmbh Kamera

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
US7830430B2 (en) * 2005-07-28 2010-11-09 Eastman Kodak Company Interpolation of panchromatic and color pixels
US8139130B2 (en) 2005-07-28 2012-03-20 Omnivision Technologies, Inc. Image sensor with improved light sensitivity
US8274715B2 (en) 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
KR100769548B1 (ko) * 2005-12-30 2007-10-23 엠텍비젼 주식회사 컬러 필터 어레이 및 영상 보간 방법
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US7755682B2 (en) * 2006-03-29 2010-07-13 Ite Tech. Inc. Color interpolation method for Bayer filter array images
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
TWI329298B (en) * 2006-05-23 2010-08-21 Au Optronics Corp Shift register
US9155024B2 (en) 2006-06-23 2015-10-06 Panasonic Intellectual Property Corporation Of America Radio transmitting apparatus, radio receiving apparatus, and pilot generating method
DE102006038646B4 (de) * 2006-08-17 2011-03-24 Baumer Optronic Gmbh Bildverarbeitungsvorrichtung für Farb-Bilddaten
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
US7587575B2 (en) * 2006-10-17 2009-09-08 International Business Machines Corporation Communicating with a memory registration enabled adapter using cached address translations
US7617377B2 (en) * 2006-10-17 2009-11-10 International Business Machines Corporation Splitting endpoint address translation cache management responsibilities between a device driver and device driver services
US8769168B2 (en) * 2006-10-17 2014-07-01 International Business Machines Corporation Method for communicating with a network adapter using a queue data structure and cached address translations
US7590817B2 (en) * 2006-10-17 2009-09-15 International Business Machines Corporation Communicating with an I/O device using a queue data structure and pre-translated addresses
US7506084B2 (en) * 2006-10-17 2009-03-17 International Business Machines Corporation Method for communicating with an I/O adapter using cached address translations
US7920751B2 (en) * 2007-03-16 2011-04-05 General Electric Company Adaptive gradient weighting technique for detector bad cell correction
US8723969B2 (en) 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US8270713B2 (en) * 2007-10-16 2012-09-18 Aptina Imaging Corporation Method and apparatus providing hardware-efficient demosaicing of image data
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
KR100992362B1 (ko) 2008-12-11 2010-11-04 삼성전기주식회사 컬러 보간 장치
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
JP2011041210A (ja) * 2009-08-18 2011-02-24 Sony Corp 信号処理装置、撮像装置及び信号処理方法
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
WO2011065012A1 (ja) * 2009-11-27 2011-06-03 株式会社ニコン データ処理装置
WO2012007791A1 (en) * 2010-07-13 2012-01-19 Nokia Corporation Color image sensing
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
CN104717474B (zh) * 2013-12-16 2017-07-25 瑞昱半导体股份有限公司 图像处理方法、模块及包含其的电子设备
KR102282457B1 (ko) * 2014-12-05 2021-07-28 한화테크윈 주식회사 컬러 모아레 저감 방법, 컬러 모아레 저감 장치 및 영상 처리 장치
CN105163098B (zh) * 2015-09-29 2018-06-01 联想(北京)有限公司 图像处理方法及装置
KR102512521B1 (ko) * 2015-10-12 2023-03-21 삼성전자주식회사 텍스쳐 처리 방법 및 장치
CN106303474A (zh) * 2016-09-29 2017-01-04 杭州雄迈集成电路技术有限公司 一种基于g模式色彩滤波阵列的去马赛克方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3971065A (en) * 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US5506619A (en) * 1995-03-17 1996-04-09 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
US5631703A (en) * 1996-05-29 1997-05-20 Eastman Kodak Company Particular pattern of pixels for a color filter array which is used to derive luminance and chrominance values
JP4380805B2 (ja) * 1997-07-15 2009-12-09 エヌエックスピー ビー ヴィ 色サンプルの補間方法、装置及びカメラ
JP2000224603A (ja) * 1999-02-02 2000-08-11 Nikon Corp 補間処理装置、撮像装置および補間処理プログラムを記録した記録媒体
JP2001045509A (ja) * 1999-07-28 2001-02-16 Nikon Corp 補間処理装置および補間処理プログラムを記録した記録媒体
US6832009B1 (en) * 1999-09-24 2004-12-14 Zoran Corporation Method and apparatus for improved image interpolation
US7072508B2 (en) * 2001-01-10 2006-07-04 Xerox Corporation Document optimized reconstruction of color filter array images
JP2002232903A (ja) * 2001-02-07 2002-08-16 Asahi Optical Co Ltd 画像補間装置
KR20020087951A (ko) * 2001-02-06 2002-11-23 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 영상 센서를 위한 그린 재생
US20020167602A1 (en) * 2001-03-20 2002-11-14 Truong-Thao Nguyen System and method for asymmetrically demosaicing raw data images using color discontinuity equalization
KR100396898B1 (ko) 2001-09-13 2003-09-02 삼성전자주식회사 이미지센서 출력데이터 처리장치 및 처리방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009013073A1 (de) 2007-07-25 2009-01-29 Robert Bosch Gmbh Kamera
DE102007034608A1 (de) 2007-07-25 2009-01-29 Robert Bosch Gmbh Kamera

Also Published As

Publication number Publication date
JP2006174485A (ja) 2006-06-29
JP4664810B2 (ja) 2011-04-06
US20060133697A1 (en) 2006-06-22
CN1812592A (zh) 2006-08-02
KR100699831B1 (ko) 2007-03-27
US7577315B2 (en) 2009-08-18
CN1812592B (zh) 2010-08-25
KR20060068503A (ko) 2006-06-21
TW200701480A (en) 2007-01-01
TWI283930B (en) 2007-07-11

Similar Documents

Publication Publication Date Title
DE102005061366A1 (de) Verfahren und Vorrichtung zur Verarbeitung von Bilddaten eines Farbfilterfeldes
DE60211870T2 (de) System und verfahren zur asymmetrischen entfernung des mosaikeffektes in rohbilddaten unter verwendung eines farbunterschiedausgleichs
DE69633587T2 (de) Einzel-Chip-Farbvideokamera zum Erzeugen von interpixel Farbartsignalen durch Interpolation der Primärfarbsignale von benachbarten Pixeln
DE112009005418B4 (de) Bildverarbeitungsgerät
DE60221757T2 (de) Verfahren und Vorrichtung zur gleichzeitigen Entfernung des Mosaikeffekts und Grössenänderung von Rohbilddaten
DE60120031T2 (de) Gerät und Verfahren zum Verdecken von Interpolationartefakten in einem Umwandler von Zeilensprungsvideo in Video mit progressiver Abtastung
DE69628867T2 (de) Adaptive Farbebeneninterpolation in einer elektronischen Einfachsensorfarbkamera
DE60114974T2 (de) Verfahren zur verbesserung eines digitalbildes anhand der pixelfarbe
DE69812882T2 (de) Verfahren zur bewegungskompensierten Mehrhalbbildverbesserung von Videostandbildern
DE60012464T2 (de) Verfahren zur Verbesserung eines digitalbildes mit rauschabhängiger Steuerung der Textur
DE102006038646B4 (de) Bildverarbeitungsvorrichtung für Farb-Bilddaten
DE3431200C2 (de)
DE102008029128A9 (de) Techniken zur Verringerung von Farbartefakten in Digitalbildern
DE19712482B4 (de) Farbbildverbesserungsvorrichtung für ein Sichtgerät
JP3745948B2 (ja) 画像処理装置およびデジタルカメラ
US20050249404A1 (en) Image processing apparatus
DE102015111787A1 (de) Entschachteln eines verschachtelten Hoch-Dynamik-Bereich-Bildes mittels eines Benutzens von YUV-Interpolation
CN101238485B (zh) 图像处理装置
DE60015265T2 (de) Bildverarbeitungsgerät
DE102016112968B4 (de) Bestimmung von Farbwerten für Pixel an Zwischenpositionen
DE69922129T2 (de) Farbbildverarbeitungssystem
DE19920812A1 (de) Einrichtung zum Erzeugen einer interpolierten Videozeile
TWI544785B (zh) 影像縮減取樣裝置與方法
DE60224125T2 (de) Signalverarbeitungsgerät, Signalverarbeitungsverfahren des Geräts, Operationsprozessprogramm des Verfahrens und Speichermedium zum Speichern des Programms
DE10027179B4 (de) Verfahren und Vorrichtung zum Verbessern der Bilddarstellung ein einem Digitalkopierer

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee