DE3851286T2 - Verfahren und Vorrichtung zur Rekonstruktion von fehlenden Farbabtastwerten. - Google Patents

Verfahren und Vorrichtung zur Rekonstruktion von fehlenden Farbabtastwerten.

Info

Publication number
DE3851286T2
DE3851286T2 DE3851286T DE3851286T DE3851286T2 DE 3851286 T2 DE3851286 T2 DE 3851286T2 DE 3851286 T DE3851286 T DE 3851286T DE 3851286 T DE3851286 T DE 3851286T DE 3851286 T2 DE3851286 T2 DE 3851286T2
Authority
DE
Germany
Prior art keywords
image sensor
electronic information
signal
group
sensor elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3851286T
Other languages
English (en)
Other versions
DE3851286D1 (de
Inventor
William T Freeman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intellectual Ventures I LLC
Original Assignee
Polaroid Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Polaroid Corp filed Critical Polaroid Corp
Application granted granted Critical
Publication of DE3851286D1 publication Critical patent/DE3851286D1/de
Publication of DE3851286T2 publication Critical patent/DE3851286T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)
  • Image Input (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

    Technisches Gebiet der Erfindung
  • Die Erfindung bezieht sich allgemein auf ein verbessertes Gerät und ein verbessertes Verfahren zur Aufnahme und Interpolation von Bilddaten, und insbesondere bezieht sich die Erfindung auf ein verbessertes Gerät und ein verbessertes Verfahren zur Feststellung abgetasteter Bilddaten und zur anschließenden Interpolation der nicht abgetasteten Bilddaten in der Weise, daß der Farbsaum beträchtlich vermindert wird. Es wird zweckmäßig sein, die Erfindung im einzelnen unter Bezugnahme auf ein Gerät zu beschreiben, welches ein Bild über drei Farben aufnimmt und reproduziert, wobei das am weitesten verbreitete Format zur Farbbilderzeugung Anwendung findet.
  • Hintergrund der Erfindung
  • Elektronische Bilderzeugungskameras zur Aufzeichnung von Stehbildern sind bekannt. Derartige Kameras können mehrere Stehbilder auf einer einzigen magnetischen Diskette oder einem Band entweder im analogen oder digitalen Format aufzeichnen, um es später auf irgendeiner bekannten Kathodenstrahlröhre wiederzugeben. Es können auch Drucker in Verbindung mit solchen Kameras benutzt werden, um eine Hartkopie der aufgezeichneten Bilder herzustellen. Derartige elektronische Stehbildkameras können zweidimensionale Bildsensorfelder aufweisen, beispielsweise ladungsgekoppelte Einrichtungen (CCDs), die das einfallende Szenenlicht während einer vorbestimmten Zeit integrieren, um ein elektronisches Informationssignal zu liefern, das der auf dem Feld auf treffenden Szenenlichtintensität entspricht. Derartige zweidimensionale Bildsensorfelder umfassen eine Zahl diskreter Bildsensorelemente oder Pixel, die in einem zweidimensionalen Feld angeordnet sind, auf dem jedes Bildsensorelement auf die einfallende Strahlung anspricht, um ein elektronisches Informationssignal zu liefern, das der Intensität der einfallenden Beleuchtung entspricht.
  • Um Farbbilder aufzuzeichnen, wird die auf das zweidimensionale Bildsensorfeld auftreffende Strahlung gefiltert, so daß unterschiedliche Bildsensorelemente unterschiedliche Farbbeleuchtung erhalten. Die Filter sind in bekannter Weise über der Oberfläche des Bildsensorfeldes derart angeordnet, daß ein sich wiederholendes Muster von roten, grünen und blauen Streifen gebildet wird. Abwechselnde einzelne Bildsensorelemente oder Pixel in jeder Zeile können in einem sich wiederholenden Muster von roten, grünen, blauen, grünen Filtern gefiltert werden, wie dies bekannt ist. Da jedes Bildsensorelement nur eine Farbe der Beleuchtung aufnehmen kann, muß die Farbinformation für die anderen Farben, die von jenem Bildsensorelement nicht erfaßt werden, ausgefüllt werden. Das Ausfüllen der fehlenden Farbinformation wird allgemein dadurch bewerkstelligt, daß die erfaßten Bilddaten für jede Farbe interpoliert werden, um Farbwerte für alle Farben für jedes Bildsensorelement zu liefern. Insbesondere führt dies zu drei Gruppen von Bildsensorelementen, von denen jeweils eine einen gemessenen Wert für eine bestimmte Farbe hat und einen interpolierten Wert für die anderen beiden Farben.
  • Die herkömmlichen Interpolationsmethoden können jedoch Bilder liefern, die in der Nähe scharfer Ränder zu Fehlern, beispielsweise zu Farbsäumen, führen. Das herkömmliche Verfahren zur Lösung dieses Problems besteht darin, die Farbsäume bzw. Farbstreifen auf Kosten der Bildschärfe zu eliminieren, indem entweder das Bild unscharf wird oder gewählte Raumfrequenzen vom Bild entfernt werden (antialiasing), so daß die Ränder keine Farbstreifen erzeugen. Diese zu einer Unschärfe führende Verwaschung des Bildes hat den Nachteil, daß dies zu einer Verminderung der Auflösung und zu flauen Bildern führt.
  • In der US-A-4 663 655 ist eine neuartige Technik beschrieben, um die gewünschten Interpolationswerte zu erhalten. Bei dieser Technik werden zunächst für die fehlenden Werte Annäherungswerte eingesetzt, die durch einfache lineare Interpolation in der üblichen Weise erhalten werden, und danach werden die resultierenden Werte benutzt, um eine Zahl von Differenzwerten für jedes Pixel zu erhalten, indem die resultierenden Werte bei unterschiedlichen Farbpaaren subtrahiert werden. Diese Differenzwerte werden dann durch ein einfaches lineares Mittelwertfilter geschickt, um die obigen Farbstreifeneffekte zu vermindern, und dann werden die verschiedenen gefilterten Differenzen kombiniert, um drei Farbwerte an jedem Pixel wieder herzustellen, um sie bei der Reproduktion der Bildszene zu benutzen.
  • Diese Technik ergibt zwar eine beträchtliche Verbesserung, jedoch benötigt jedes verarbeitete Farbbildsignal ein getrenntes Medianfilter von relativ komplexem Aufbau.
  • Demgemäß liegt der Erfindung die Aufgabe zugrunde, die Farbstreifenfehler in der beschriebenen Weise unter Verwendung weniger Mittelwertfilter von weniger komplexem Aufbau zu eliminieren.
  • Gelöst wird die gestellte Aufgabe durch die kombinierten Merkmale des Anspruchs 1, soweit es das Gerät anbetrifft, und durch die kombinierten Merkmale des Anspruchs 6, soweit es das Verfahren anbetrifft.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung repräsentiert daher eine Verbesserung der in der obigen Patentschrift beschriebenen Vorrichtung, und zwar in erster Linie im Hinblick auf die Benutzung weniger Mittelwertfilter mit einem weniger komplexen Aufbau.
  • Zunächst werden bei der Reproduktion einer Dreifarben- Bildszene nur zwei anstelle von drei Differenzsignalen benutzt, die eine Mittelwertfilterung erfordern, um Farbstreifenfehler auszuschalten. Das Bild kann trotz des Fehlens eines Mittelwertfilters, der früher benutzt wurde, in zufriedenstellender Weise rekonstruiert werden. Dieser Aspekt der Erfindung ist unabhängig von dem benutzten Mittelwertfilter und kann demgemäß in Geräten Verwendung finden, die irgendeinen Mittelwertfilter benutzen, der eine Abtastung durch den Mittelwert benachbarter Abtastungen ersetzt.
  • Zweitens ist die Wirkung des in dem erfindungsgemäßen Gerät eingesetzten Mittelwertfilters im wesentlichen so von dem räumlichen Ausmaß der benutzten Pixel abhängig, wie sie von der Zahl der benutzten Pixel abhängt, so daß ein linearer Mittelwertfilter, der sieben Pixel breit ist, aber nur drei Ausdrucke benutzt, nämlich die beiden Endpixel und den mittleren Pixel, dessen Wert durch den Mittelwert der drei Pixel zu ersetzen ist, wenn eine Kombination mit der Tiefpaßfilterung erfolgt, im wesentlichen genauso wirksam ist wie ein elf Pixel breiter Mittelwertfilter, der elf Pixel benutzt.
  • Außerdem wird zur zweidimensionalen Filterung gemäß der Erfindung ein Flächenmittelwertfilter bzw. ein zweidimensionaler Filter benutzt, der nur neun Pixel verwendet, die aus einem Bereich ausgewählt sind, der sieben Pixel breit und fünf Pixel hoch ist. Dieses Filter ist, wenn es mit einem zweidimensionalen Tiefpaßfilter kombiniert ist, vergleichbar mit einem, der das gesamte Feld von fünfunddreißig Pixeln des Bereichs benutzt. Diese Verbesserungen sind in gleicher Weise unabhängig von der Zahl der benutzten Mittelwertfilter.
  • Im einzelnen weist ein Ausführungsbeispiel der vorliegenden Erfindung eine übliche Festkörper-Bildsensorkamera mit CCD auf, bei der ein unterschiedliches Drittel der Gesamtzahl von Pixeln oder diskreten Sensorelementen die Bildszene in jeweils einem der drei verschiedenen Wellenlängenbereiche oder Farben betrachtet, die jeweils mit einem gemessenen Signalwert bei jedem Pixel vorhanden sind. Es wird dann für jedes Pixel ein interpolierter Signalwert für jede der zwei nicht gemessenen Farben vorgesehen, und zwar gleich jenem des gemessenen Bereichs von Wellenlängen. Danach wird für jedes Pixel ein erster Differenzsignalwert erhalten, der ein Maß der Differenz in der Intensität seines Signals für ein Paar von Farben darstellt, und dann ein zweites Differenzsignal, welches ein Maß der Differenz der Intensität seines Signalwertes für ein unterschiedliches Farbpaar darstellt. Danach wird jeder dieser verschiedenen Signalwerte durch eine neuartige Form des Mittelwertfilters geschickt. Bei einer eindimensionalen Filterung ist das Filter vorzugsweise sieben Elemente breit, aber es wird nur das erste, vierte und siebente Element benutzt, um den Wert zu finden, der für den Wert des vierten Elementes zu ersetzen ist. Bei einer zweidimensionalen Filterung ist das Filter vorzugsweise sieben Elemente breit und fünf Elemente hoch, aber es werden nur neun der Elemente benutzt, um den Wert zu finden, der für das Mittelelement zu ersetzen ist.
  • Schließlich werden von diesen beiden gefilterten Differenzsignalwerten und den original gemessenen Signalwerten für jedes Pixel drei Signalwerte rekonstruiert, und zwar jeweils ein Wert für jede der drei verschiedenen Farben. Die rekonstruierten Signalwerte werden dann benutzt, um die Originalbildszene zu reproduzieren.
  • Einzelbeschreibung der Zeichnung
  • Die Erfindung wird deutlicher verständlich aus der Beschreibung eines Ausführungsbeispiels in Verbindung mit der Zeichnung. In der Zeichnung zeigen:
  • Fig. 1 eine schematische Ansicht, welche die Hauptschritte des Interpolationsprozesses nach der Erfindung veranschaulicht,
  • Fig. 2 ein Blockschaltbild eines Ausführungsbeispiels der Erfindung,
  • Fig. 3 ein schematisches Blockschaltbild eines eindimensionalen Mittelwertfilters zur Benutzung bei dem Ausführungsbeispiel nach Fig. 2,
  • Fig. 4 das Maskierungsmuster eines zweidimensionalen Filters zur Benutzung in Verbindung mit dem Ausführungsbeispiel nach Fig. 1.
  • Beschreibung der Ausführungsbeispiele
  • Zunächst wird auf Fig. 1 Bezug genommen. Hier ist schematisch ein Flußdiagramm des Interpolationsverfahrens gemäß der Erfindung dargestellt.
  • Im Rahmen FrA ist ein farbige Szene dargestellt, die als Übereinanderfügung dreier Bilder betrachtet werden kann, von denen ein jedes auf einen der drei Farbbereiche bzw. Wellenlängenbereiche, beispielsweise Gelb, Grün und Cyan, beschränkt ist. Im typischen Falle durchläuft das farbige Szenenlicht ein sich wiederholendes Feld von drei getrennten vertikalen Filtern. Dann wird das gefilterte Szenenlicht durch einen elektronischen Bildsensor abgetastet, beispielsweise auf einer ladungsgekoppelten Einrichtung (CCD), und zwar flächenweise oder zeilenweise. Es ist klar, daß die Farbfilter integral auf dem CCD angeordnet sein können. Bei der üblichen Art und Weise empfängt jedes Pixel des Bildsensors nur eine der drei Farben, und in jedem Triplet von drei horizontal durchgehenden Pixeln empfängt jedes Pixel eine unterschiedliche Farbe. Dies ist in dem Rahmen FrB angedeutet, wo die Szene durch aufeinanderfolgende Pixel eines CCD-Sensors betrachtet wird, wobei jeweils eines eine der drei Farben aufnimmt. Im Rahmen FrC ist die Bildszene dargestellt, die in drei getrennte Szenen aufgeteilt ist, und zwar jeweils in einem Kanal der Farbe C, G und Y, mit Intensitätswerten, die bei jeder Szene nur bei jedem Drittel vorhanden sind, d. h. bei einem Pixel eines Triplets. Ein Intensitätswert bei den anderen beiden Pixeln eines Triplets wird für eine solche Farbe durch eine erste Interpolation erhalten. Da diese erste Interpolation nicht kritisch ist, ist eine einfache Interpolation möglich. Beispielsweise ist es ausreichend, nur den für eine gegebene Farbe bei einem Pixel eines Triplets gemessenen Wert für einen Wert jener Farbe der beiden anderen Pixel des Triplets zu benutzen. Infolgedessen sind die drei Gelbwerte für die drei Pixel eines Triplets die gleichen, die drei Grünwerte sind die gleichen, und auch die drei Cyanwerte sind die gleichen. Dies ist im Rahmen FrD dargestellt.
  • Dann werden die Signale in jedem Farbkanal verstärkt, wobei die relativen Verstärkungen der drei Kanäle derart sind, daß ein neutraler Graulichteingang das gleiche Ansprechen von allen drei Kanälen hat.
  • Dann werden Farbsignalsubtraktionen durch eine Subtraktionsstufe 11 durchgeführt, um Farbsignaldifferenzwerte Y-G und C-G zu liefern. Die Amplitude des Signals im G-Kanal wird von jener des Y-Kanals und des C-Kanals abgezogen. Das Ergebnis dieser Subtraktion ist schematisch in den beiden oberen Kanälen des Rahmens FrE dargestellt. Der dritte und untere Kanal bleibt der gleiche wie im Rahmen FrB.
  • Im Hinblick auf die obigen Merkmale ist das erfindungsgemäße Verfahren das gleiche wie in der erwähnten Patentschrift für Dreifarb-Bilderzeugung angegeben, mit der Ausnahme, daß nur zwei Farbsubtraktionen bei einem Dreifarbensystem gemacht werden im Vergleich mit drei Farbsubtraktionen, die bei dem Verfahren nach dem älteren Patent erforderlich sind.
  • Bei dem gemäß der älteren Patentschrift ausgebildeten Gerät wurden die resultierenden drei Ausgänge der Subtraktionsstufen jeweils einem eindimensionalen, horizontalen, linearen Mittelwertfilter zugeführt, das fünf Elemente breit war und alle fünf Pixel benutzte. Wie in der erwähnten Patentschrift erläutert, ist dieser Schritt wichtig, um die künstlichen Farbstreifen zu vermindern, die sonst vorhanden sind.
  • In der Praxis hat sich jedoch gezeigt, daß diese horizontale lineare Filterung, bei der fünf Pixel benutzt wurden, um solche merklichen Farbsäume zu vermindern, auch eine sehr komplexe Schaltung zur Verwirklichung benötigte. Es hat sich gezeigt, daß das Verfahren und das Gerät gemäß vorliegender Erfindung wenigstens so gut ist, was die erreichbaren Erfolge anbelangt, und daß bei einer beträchtlichen Vereinfachung der Schaltung, wenn eine eindimensionale Mittelwertfilterung mit einem Drei-Pixel-Mittelwertfilter benutzt wird, bei dem die drei Werte den Abtastwert plus zwei Abtastwerte umfassen, die drei Pixel entfernt voneinander in der gleichen Horizontallinie liegen. Außerdem kann eine weitere Verbesserung dadurch erlangt werden, daß ein zweidimensionaler Bereichsmittelwertfilter benutzt wird, der den Mittelwert von neun Pixeln bildet, die so verteilt sind, daß sie fünfunddreißig mögliche Abtastwerte umfassen.
  • Die zwei gefilterten Differenzgruppen von Signalwerten werden bei 13 mit der Originalgruppe von Signalwerten kombiniert, wie durch den Rahmen FrF gekennzeichnet, um drei Farbsignalwerte für jedes Pixel zu erzeugen. Diese Werte werden dann bei 15 kombiniert, um das Originalbild mit den drei additiven Primärfarben Rot, Grün und Blau in der üblichen Weise zu erzeugen, wie dies aus dem Rahmen FrG hervorgeht.
  • Nunmehr wird auf Fig. 2 Bezug genommen. Hier ist ein Gerät 100 im Blockschaltbild dargestellt. Zunächst wird von einem Bildsensor 1, im typischen Fall von einem CCD, ein Signal in serieller Form abgenommen, wobei aufeinanderfolgende Abtastungen die Werte von Ladungen darstellen, die sich an aufeinanderfolgenden Pixeln des Sensors angesammelt haben, wobei jedes Pixel nur durch eine von den drei Farbkomponenten erregt wird, da die Beleuchtung eines jeden Pixels zunächst einen nicht dargestellten vertikalen Zeilenfilter durchlaufen muß, der nur eine der drei Farben durchläßt, wie dies oben erwähnt wurde. Vorzugsweise gibt es ein Feld derartiger Filter in sich wiederholenden Gruppen von drei für Cyan bzw. Grün bzw. Gelb durchlässigen Filtern. Diese sind vorzugsweise so angeordnet, daß Triplets von drei aufeinanderfolgenden Pixeln jeweils einem dieser drei Filter ausgesetzt sind, wie dies bei Farbbildsystemen üblich ist. Dieser gemessene Signalwert eines jeden Pixels wird dann jeweils einer von drei getrennten Sample- und Hold-Schaltungen 12, 14 und 16 zugeführt, von denen jede so ausgebildet ist, daß sie den gemessenen Wert eines von jeweils drei gemessenen Werten eines Triplet speichert. Diese entsprechen jeweils den Kanälen für die gelb-erregten Pixel, die grünerregten Pixel und die cyan-erregten Pixel. Jede Sample- und Hold-Schaltung hält die Abtastung während des Abtastzeitintervalls der nächsten zwei folgenden Pixel, um eine Verarbeitung mit solchen Pixeln durchzuführen, bis eine neue Abtastung von einem Pixel erhalten wird, welches in seiner charakteristischen Farbe erregt wird. Schaltungen zur Verwirklichung dieser Sample- und Hold-Funktion sind auf diesem Gebiet der Technik üblich.
  • Dadurch, daß jede Abtastung über die nächsten beiden folgenden Pixelintervalle gehalten wird, wird der Signalwert im wesentlichen für das nächste Pixel nachgebildet, das den ursprünglich gemessenen Signalwert liefert, sowie für die zwei folgenden Pixel, die ursprünglich frei von Signalwerten für jene Farbe waren. Dies dient der Funktion der linearen Interpolation, die in der erwähnten Patentschrift erläutert ist. Statt dessen kann die in dem älteren Patent beschriebene lineare Interpolation durch eine solche Nachbildungsinterpolation ersetzt werden.
  • Die Ausgänge einer jeden Sample- und Hold-Schaltung 12, 14 und 16 werden Verstärkern 18 bzw. 20 bzw. 22 zugeführt, wo eine Verstärkung erfolgt. Der Verstärkungsgrad der verschiedenen Verstärker wird, wie oben erwähnt, so eingestellt, daß eine neutrale Farbe, beispielsweise Weiß, nach Umwandlung durch die Kamera in drei Signalabtastungen unterschiedlicher Farben Signale gleicher Amplitude an jedem der drei Verstärkerausgänge erzeugt. Im typischen Fall kann dies eine höhere Verstärkung des Verstärkers im grünen Kanal erfordern als bei den anderen Verstärkern, weil beim Filtern in Grün die größeren Verluste auftreten.
  • Danach werden die Ausgänge der Verstärker 18 und 20 einer Subtraktionsstufe 24 zugeführt, die einen Differenzsignalwert Y-G erzeugt, und die Ausgänge der Verstärker 20 und 22 werden einer Subtraktionsstufe 26 zugeführt, um den Differenzsignalwert C-G zu erzeugen, wobei C, G und Y die Signalwerte in den C-, G- bzw. Y-Kanälen sind. Die Subtraktionsstufen können einfach Differentialverstärker mit einem invertierenden und einem nicht invertierenden Eingang sein.
  • Die Differenzsignale, die an den Ausgängen der Subtraktionsstufen 24 und 26 verfügbar sind, durchlaufen vorzugsweise Tiefpaßfilter 28 bzw. 30, um die Signale etwas zu verwischen.
  • Die beiden getrennten Differenzsignale werden dann den Mittelwertfiltern 32 bzw. 34 zugeführt, und dies sind gemäß einem Ausführungsbeispiel der Erfindung vorzugsweise eindimensionale Mittelwertfilter, die sieben Pixel breit sind und nur drei Pixel hiervon benutzen. Bei einem solchen Filter überprüft man die Signalwerte für das erste, vierte und siebente Pixel einer Zeile von sieben Pixeln, und der Mittelwert dieser drei Werte wird als Wert für das vierte Pixel der Zeile ausgewählt.
  • Nunmehr wird auf Fig. 3 Bezug genommen. Hier ist eine Schaltung 200 gemäß der Erfindung dargestellt, die als eindimensionales Mittelwertfilter arbeitet. Sie umfaßt eine Verzögerungsleitung 51, von der ein Ende 52a mit dem zu filternden Signal gespeist wird, während das andere Ende 52b in der charakteristischen Impedanz ZC endet, die reflexionsfrei ist. Die Ziffern 1 bis 7 geben schematisch die sieben Signale längs der Verzögerungsleitung 51 an. Die Anzapfungen 53, 54 und 55 kennzeichnen die Abzapfung der Signale vom ersten, vierten und siebenten Pixel. Die an jeder derartigen Anzapfung zu einer gegebenen Zeit vorhandenen Signale werden drei Eingängen 57, 58 bzw. 59 einer analogen Sortierschaltung 60 zugeführt, die an ihrem Ausgang zu einer vorbestimmten Zeit den Wert des Signals liefert, das den Mittelwert von den drei Werten von Signalen darstellt, die den drei Eingängen zugeführt werden. Für diese Funktion können die verschiedensten Schaltungen benutzt werden. Ein Beispiel einer solchen Schaltung ist auf Seite 72-74 von Electronic Design 2, 18. Januar 1973, unter der Bezeichnung "Analog Sorting Network Ranks Inputs by Amplitude and Allows Selection" beschrieben.
  • Nunmehr wird wieder auf Fig. 2 Bezug genommen. Nach einer solchen Mittelwertfilterung werden die beiden gefilterten Signale vorzugsweise Tiefpaßfiltern 36 und 38 zugeführt. Die Ausgänge dieser Tiefpaßfilter 36 und 38 stellen die verarbeiteten Signale dar.
  • Diese verarbeiteten Signale Y-G und C-G werden ihrerseits einer Rekonstruktionsschaltung 40 zugeführt, die benutzt wird, um die beiden behandelten Signale und das ursprüngliche Signal, welches von der CCD 10 geliefert wird und durch das Verzögerungselement 46 verzögert wurde, für jedes Pixel in einen Signalwert bei jeder der drei Farben umzuformen. Die Schaltung 40 umfaßt mehrere diskrete Addierstufen und Subtrahierstufen, an die geeignete Kombinationen der beiden verarbeiteten Differenzsignale und die ursprünglichen Signale angelegt werden, um die gewünschten Farbsignalwerte zu liefern. Insbesondere werden von der Rekonstruktionsschaltung 40 drei getrennte Farbausgänge rekonstruiert, wie durch die Ausgänge Y, G und C dargestellt ist.
  • Die Schaltung 40 umfaßt drei Gatterkreise 50, 52 und 54, und jeder Gatterkreis 50, 52 und 54 wird selektiv zu unterschiedlichen Zeiten durch eine Taktsignalsteuerung 48 freigeschaltet, um drei Gelb-, Grün- und Cyan-Bildinformationssignale zwischen den entsprechend bezeichneten Anschlüssen abzunehmen. Das Taktsteuersignal von der Schaltung 48 steuert die Gatter 50, 52 und 54 so, daß diese Freischaltung erfolgt: Die Gatterschaltung 50 wird freigeschaltet, wenn Farbinformationssignale von der Verzögerungsstufe 46 für Pixel ausgegeben werden, die gefiltert sind, um grünes Bildszenenlicht zu empfangen; die Gatterschaltung 52 wird freigeschaltet, wenn die Farbinformationssignale von der Verzögerungsstufe 46 für Pixel ausgegeben werden, die gefiltert wurden, um Cyanbildszenenlicht zu empfangen; und die Gatterschaltung 54 wird freigeschaltet, wenn die Farbinformationssignale von der Verzögerungsstufe 46 für Pixel ausgegeben werden, die gefiltert wurden, um gelbes Bildszenenlicht zu empfangen.
  • Demgemäß wird jeder grüne Pixelbildwert vom CCD 10 durch die Verzögerungsstufe 46 in geeigneter Weise verzögert und danach jenem Gatter 50 zugeführt, welches in der vorerwähnten Weise durch die Taktsignalsteuerung 48 freigeschaltet wurde, um ein grünes Bildinformationssignal am Ausgangsanschluß Gout zu liefern. Zur gleichen Zeit wird dem Y-G-Signal durch eine Addierstufe 56 das grüne (G) Pixelbildsignal hinzuaddiert, welches vom CCD 10 über die Verzögerungsstufe 46 empfangen wurde, um einen Gelbsignalwert (YG) zu erhalten, der danach über das freigeschaltete Gatter 50 übertragen wird, um ein gelbes Bildinformationssignal dem Ausgang Yout zugleich mit dem vorerwähnten grünen Informationssignal zu liefern, welches vom Ausgang Gout geliefert wird. Zur gleichen Zeit wird auch das verarbeitete C-G-Signal durch eine Addierstufe 58 dem gleichen Grün(G)-Pixelbildsignal hinzuaddiert, welches vom CCD 10 über die Verzögerungsstufe 46 erhalten wurde, um einen Cyan(CG)-Signalwert zu erhalten, der daraufhin über die freigeschaltete Gatterschaltung 50 übertragen wird, um ein Cyan-Bildinformationssignal am Ausgangsanschluß Cout gleichzeitig mit dem vorerwähnten gelben und grünen Informationssignal zu liefern, welche an den Ausgängen Yout und Gout stehen. Demgemäß bewirkt die Rekonstruktionsschaltung 40, nachdem die Verzögerungsstufe 46 die grünen Farbabtastwerte übertragen hat, grüne Bildinformationssignale entsprechend den grünen Farbabtastwerten, die von dem CCD 10 erfaßt werden, und gelbe und cyan Bildinformationssignale interpoliert in der entsprechenden Weise gemäß der Erfindung für die gleichen Pixel.
  • In gleicher Weise wird jeder Cyan-Pixelbildwert vom CCD 10 in geeigneter Weise durch die Verzögerungsstufe 46 verzögert und danach über das Gatter 52 übertragen, welches in der erwähnten Weise durch die Taktsignalsteuerung 48 freigeschaltet wurde, um ein Cyan-Bildinformationssignal am Ausgangsanschluß Cout zu schaffen. Gleichzeitig wird das verarbeitete C-G-Signal durch die Subtraktionsstufe 60 von dem behandelten Y-G-Signal abgezogen, um ein Y-C-Signal zu liefern. Eine Addierstufe 62 addiert dann das Cyan(C)- Pixelbildsignal, welches vom CCD 10 über die Verzögerungsstufe 46 geliefert wurde, zu dem verarbeiteten Y-C-Signal, um einen Gelbsignalwert (YC) zu erzeugen, der danach über die freigeschaltete Gatterstufe 52 übertragen wird, um ein gelbes Bildinformationssignal am Ausgangsanschluß Yout gleichzeitig mit dem erwähnten Cyan-lnformationssignal am Ausgang Cout zu liefern. Ebenfalls gleichzeitig wird das gleiche Cyan(C)-Pixelbildsignal, welches vom CCD 10 empfangen wurde, über die Verzögerungsstufe 46 durch eine Subtraktionsstufe 64 von dem verarbeiteten C-G-Signal abgezogen, um einen grünen (GC) Signalwert zu schaffen, der anschließend über die freigeschaltete Gatterstufe 52 übertragen wird, um ein grünes Bildinformationssignal am Ausgangsanschluß Gout gleichzeitig mit den erwähnten Cyan- und Gelb-Informationssignalen zu liefern, die an den Ausgängen Cout bzw. Yout auftreten. Auf diese Weise liefert die Rekonstruktionsstufe 40, nachdem die Verzögerungsstufe 46 Cyan-Farbabtastwerte übertragen hat, entsprechende Cyan-Bildinformationssignale entsprechend den Cyan-Farbabtastwerten, die vom CCD 10 geliefert werden, und gelbe und grüne Bildinformationssignale, die in der beschriebenen Weise für die gleichen Pixel interpoliert wurden.
  • Jeder gelbe Pixelbildsignalwert vom CCD 10 wird ebenfalls in geeigneter Weise durch die Verzögerungsstufe 46 verzögert und danach durch das Gatter 54 übertragen, welches in der beschriebenen Weise durch die Taktsignalsteuerung 48 freigeschaltet wurde, um ein gelbes Bildinformationssignal am Ausgangsanschluß Yout zu liefern. Gleichzeitig bewirkt eine Subtraktionsstufe 66 eine Subtraktion des gelben (Y) Pixelbildsignals, welches vom CCD 10 empfangen wurde, durch die Verzögerungsstufe 46 vom verarbeiteten Signal Y-G, um einen grünen (GY) Signalwert zu liefern, der danach über das freigeschaltete Gatter 54 übertragen wird, um ein grünes Bildinformationssignal am Ausgangsanschluß Gout gleichzeitig mit dem erwähnten gelben Informationssignal am Ausgangsanschluß Yout zu liefern. Ebenfalls gleichzeitig bewirkt eine Subtraktionsstufe 68 eine Subtraktion des gleichen gelben (Y) Pixelbildsignals, welches vom CCD 10 über die Verzögerungsstufe 46 erhalten wurde, vom Y-C- Signalausgang der Subtraktionsstufe 60, um einen Cyan(CY)- Signalwert zu schaffen, der anschließend über das freigeschaltete Gatter 54 übertragen wird, um ein Cyan-Bildinformationssignal am Ausgangsanschluß Cout gleichzeitig mit den erwähnten gelben und grünen Informationssignalen zu liefern, die an den Ausgangsanschlüssen Yout bzw. Gout stehen. Auf diese Weise überträgt die Verzögerungsstufe 46 die gelben Farbabtastwerte, und die Rekonstruktionsschaltung liefert gelbe Bildinformationssignale entsprechend den gelben Farbabtastwerten, die vom CCD 10 geliefert werden, und grüne und cyanfarbige Bildinformationssignale, die in der beschriebenen Weise erfindungsgemäß für die gleichen Pixel interpoliert wurden.
  • Auf diese Weise werden für jedes Pixel in dem CCD 10, von dem die drei verschiedenen Farbwerte abgetastet werden, interpolierte Werte für die anderen beiden Farben unter Benutzung von nur zwei Mittelwertfiltern geliefert, was eine beträchtliche Vereinfachung im Vergleich mit der Mittelwertfilter-Interpolationsanordnung des erwähnten US-Patentes bedeutet, bei welchem drei Mittelwertfilter für ein Dreifarbensystem erforderlich sind.
  • Es ist klar, daß Abwandlungen im Verarbeitungsalgorithmus benutzt werden können, ohne vom Rahmen der Erfindung abzuweichen. Insbesondere können komplementäre Differenzsignale von einem oder beiden statt dessen benutzt werden und auch andere Farbfilter, beispielsweise Rotfilter, Grünfilter und Blaufilter.
  • In gewissen Fällen kann eine eindimensionale Mittelwertfilterung die Farbstreifen nicht vollständig entfernen. Wenn dies der Fall ist, kann dieses Filter durch ein zweidimensionales Mittelwertfilter ersetzt werden. Auf diese Weise kann das Filter ebenfalls beträchtlich dadurch vereinfacht werden, daß man die obigen Prinzipien, welche für ein eindimensionales Filter beschrieben wurden, benutzt. Wiederum ist die räumliche Ausdehnung wichtig, und es ist vorteilhaft, die räumliche Erstreckung zu erhöhen, während dichtere Pixel wegfallen, um die Zahl der Abtastungen zu vereinfachen.
  • Nunmehr wird auf Fig. 4 Bezug genommen, wo ein sieben-malfünf-Rechteckfeld 70 mit fünfunddreißig Pixeln dargestellt ist, von denen die neun Werte benutzt werden, die in der zweidimensionalen Filteranordnung durch den Buchstaben P gekennzeichnet sind. Das Pixel 71, dessen Wert durch den Mittelwert von neun Pixeln ersetzt werden soll, ist in der Mitte des Feldes dargestellt. Wie ersichtlich, sind zwei der weiteren acht Pixel auf der gleichen horizontalen Linie, drei Pixel auf jeder Seite entfernt angeordnet, und zwei auf der gleichen Vertikallinie, zwei Pixel auf jeder Seite entfernt, und vier Pixel auf benachbarten Zeilen, jeweils zwei Pixel auf der Horizontalen und ein Pixel auf der Vertikalen entfernt. Es ist klar, daß die Erfindung nicht auf die spezielle Abstandsanordnung für die benutzten Pixel im Mittelwertfilter beschränkt ist.
  • Hierbei erfolgt die Sortierung des Mittelwerts in bekannter Weise im typischen Fall entweder durch einen diesem Spezialzweck angepaßten Mikroprozessor oder einen digitalen Signalprozessor, der in geeigneter Weise programmiert ist.
  • Die Erfindung wurde vorstehend in Verbindung mit einem Gerät beschrieben, welches drei Bereiche von Wellenlängen oder Primärfarben umfaßt, um eine Bilderzeugung und -reproduktion zu bewirken. Die Prinzipien sind jedoch auch anwendbar für Geräte, die mehr als drei Farben benutzen.
  • Die Erfindung wurde primär unter Bezugnahme auf die Verarbeitung analoger Signale beschrieben. Es könnten jedoch bei entsprechender Abwandlung auch digitale Signale benutzt werden, wenn die Analogsignale, die zunächst abgeleitet werden, in digitale Form umgewandelt werden, um verarbeitet und wiedergewonnen zu werden, um analoge Signale zur Erzeugung der Bildszene zu liefern.
  • Es können im Rahmen der folgenden Ansprüche weitere Abwandlungen und Modifikationen getroffen werden.

Claims (10)

1. Elektronisches Bilderzeugungsgerät mit den folgenden Merkmalen:
- es ist ein Bildsensorfeld (10) vorgesehen, welches eine vorbestimmte Zahl diskreter Bildsensorelemente aufweist, die jeweils auf einfallende Strahlung eines Aufnahmegegenstandes ansprechen, um ein elektronisches Informationssignal zu liefern, welches in der Intensität der einfallenden Beleuchtung entspricht;
- es sind Filter für die auf das Bildsensorfeld (10) auftreffende Beleuchtung vorhanden, die so ausgebildet und angeordnet sind, daß wenigstens eine erste Gruppe von Bildsensorelementen die Beleuchtung innerhalb eines ersten Wellenlängenbereichs (Y) empfängt, eine zweite gewählte Gruppe von Bildsensorelementen die Beleuchtung innerhalb eines zweiten gewählten Wellenlängenbereichs (G) empfängt, der von dem ersten gewählten Bereich unterschieden ist, und daß eine dritte gewählte Gruppe von Bildsensorelementen eine Beleuchtung innerhalb eines dritten gewählten Wellenlängenbereichs (C) empfängt, der von dem ersten und zweiten gewählten Bereich unterschieden ist;
- es sind Mittel vorgesehen, um die elektronischen Informationssignale von der ersten Gruppe von Bildsensorelementen zu interpolieren und eine erste Gruppe von elektronischen Informationssignalen zu liefern, die der Intensität der Beleuchtung innerhalb des ersten Bereichs von Wellenlängen (Y) für die zweite und dritte Gruppe von Bildsensorelementen entsprechen, um die elektronischen Informationssignale von der zweiten Gruppe von Bildsensorelementen zu interpolieren, um eine zweite Gruppe von elektronischen Informationssignalen entsprechend der Intensität der Beleuchtung innerhalb des zweiten Wellenlängenbereichs (G) für die erste und dritte Gruppe von Bildsensorelementen zu liefern, und um die elektronischen Informationssignale von der dritten Gruppe von Bildsensorelementen zu interpolieren und eine dritte Gruppe elektronischer Informationssignale zu liefern, entsprechend der Intensität der Beleuchtung innerhalb des dritten Wellenlängenbereichs (C) für die erste und zweite Gruppe von Bildsensorelementen;
- Mittel (24) zur Bestimmung der Differenz zwischen der ersten und der zweiten Gruppe elektronischer Informationssignale, um ein erstes elektronisches Informationsdifferenzsignal (Y-G) zu liefern und um das erste elektronische Informationsdifferenzsignal einer Mittelwertfilterung (32) zu unterwerfen, um ein erstes verarbeitetes elektronisches Informationssignal zu liefern, und es sind Mittel (26) vorgesehen, um die Differenz zwischen der zweiten und dritten Gruppe elektronischer Informationssignale zu bestimmen und um ein zweites elektronisches Informationsdifferenzsignal (C-G) zu erzeugen, wobei dieses zweite elektronische Differenzinformationssignal einer Mittelwertfilterung (34) unterworfen wird und ein zweites verarbeitetes elektronisches Informationssignal liefert;
- Mittel (60) zur Bestimmung der Differenz zwischen dem ersten und zweiten verarbeiteten elektronischen Informationssignal, um ein verarbeitetes elektronisches Differenzinformationssignal (Y-C) zu liefern und um selektiv das erste und zweite verarbeitete elektronische Informationssignal mit dem elektronischen Informationssignal (YGC) zu summieren, welches ursprünglich für jenes gleiche Bildsensorelement in der ersten Gruppe festgestellt wurde, um erste elektronische Informationsausgangssignale zu liefern, die jeweils der Intensität der einfallenden Beleuchtung innerhalb des zweiten und dritten Bereichs der Wellenlängen für jedes Sensorelement der erstens Gruppe entsprechen, wobei selektiv eine Summierung der verarbeiteten elektronischen Differenzinformationssignale und eine Differenz der zweiten verarbeiteten elektronischen Informationssignale gegenüber den elektronischen Informationssignalen bestimmt wird, die ursprünglich für das gleiche Bildsensorelement in der zweiten Gruppe festgestellt werden, um zweite elektronische Ausgangsinformationssignale zu liefern, die jeweils der Intensität der einfallenden Strahlung innerhalb des ersten und dritten Bereichs von Wellenlängen entsprechen, wobei selektiv eine Differenz des verarbeiteten elektronischen Differenzinformationssignals und eine Differenz des ersten verarbeiteten elektronischen Informationssignals gegenüber dem elektronischen Informationssignal bestimmt wird, welches ursprünglich für jenes gleiche Bildsensorelement in der dritten Gruppe festgestellt wurde, um dritte elektronische Informationsausgangssignale zu erzeugen, die jeweils der Intensität der einfallenden Strahlung innerhalb des ersten und zweiten Wellenlängenbereichs für jedes Sensorelement der dritten Gruppe entsprechen;
- eine erste Gatterschaltung (50) empfängt elektronische Informationssignale, die ursprünglich von der ersten Gruppe von Bildsensorelementen abgetastet wurden, sowie die elektronischen Ausgangsinformationssignale, die jeweils der Intensität der einfallenden Strahlung innerhalb des zweiten und dritten Wellenlängenbereichs für jede der ersten Gruppe von Bildsensorelementen entsprechen, wobei eine zweite Gatterschaltung (52) elektronische Informationssignale empfängt, die ursprünglich von der zweiten Gruppe von Bildsensorelementen wahrgenommen wurden, und die elektronischen Ausgangsinformationssignale, die jeweils der Intensität der einfallenden Beleuchtung innerhalb des ersten und dritten Wellenlängenbereichs für alle Bildsensorelemente der zweiten Gruppe entsprechen, und wobei ein dritter Gatterkreis (54) die elektronischen Informationssignale empfängt, die ursprünglich von der dritten Gruppe von Bildsensorelementen abgetastet wurden, und die-elektronischen Informationssignale, die jeweils der Intensität der einfallenden Beleuchtung innerhalb des ersten und zweiten Bereichs von Wellenlängen für jede der dritten Gruppe von Bildsensorelementen entspricht, und wobei die Gatterschaltungen jeweils selektiv freigeschaltet werden können, um sämtliche empfangenen Signale zu übertragen; und
- eine Taktsteuervorrichtung (48), um ein Taktsteuersignal zu liefern und selektiv die Gatterschaltungen jeweils eine zu jedem Zeitpunkt freizuschalten, entsprechend dem Empfang des ursprünglich abgetasteten elektronischen Informationssignals durch einen der freizuschaltenden Gatterkreise;
mit den folgenden Merkmalen:
a. das erste elektronische verarbeitete Informationssignal (Y-G) basiert auf einem Signal, welches durch Subtraktion der zweiten Gruppe von Signalen (G) von der ersten Gruppe von Signalen (Y) erhalten wurde;
b. das zweite elektronische verarbeitete Informationssignal (C-G) basiert auf einem Signal, welches durch Subtraktion der zweiten Gruppe von Signalen (G) von der dritten Gruppe von Signalen (C) erhalten wurde;
c. das verarbeitete elektronische Differenzinformationssignal ist das Ergebnis der Subtraktion des zweiten elektronischen verarbeiteten Informationssignals von dem ersten verarbeiteten elektronischen Informationssignal;
d. der Ausgang der ersten Gruppe von Elementen wird durch das abgetastete Signal für die Gruppe von Elementen gebildet, das erste verarbeitete Signal wird von dem abgetasteten Signal subtrahiert, und das verarbeitete Differenzsignal wird von dem abgetasteten Signal subtrahiert;
e. der Ausgang der zweiten Gruppe von Elementen wird durch das zweite abgetastete Signal für die Gruppe von Elementen gebildet, die Summe des ersten verarbeiteten Signals und des abgetasteten Signals, die Summe des zweiten verarbeiteten Signals und des abgetasteten Signals erhalten;
f. der Ausgang für die dritte Gruppe von Elementen wird durch das abgetastete Signal für diese Gruppe, die Summe von verarbeitetem Differenzsignal und dem abgetasteten Signal und das zweite verarbeitete Signal, welches von dem abgetasteten Signal subtrahiert wird.
2. Gerät nach Anspruch 1, bei dem die Mittel (32; 34) zur Mittelwertfilterung Mittel aufweisen, um das mittlere kombinierte elektronische Informationssignal für jedes Bildsensorelement aus einer gewählten Vielzahl von kombinierten elektronischen Informationssignalen auszuwählen, von denen jedes einer Mehrzahl gewählter Bildsensorelemente entspricht, wobei die ausgewählten Bildsensorelemente in einem Abstand zueinander liegen, der unterschieden ist vom Abstand der nicht gewählten Bildsensorelemente.
3. Gerät nach Anspruch 2, bei welchem die gewählten Bildsensorelemente linear zueinander angeordnet sind und das erste, vierte und siebente Bildsensorelement in einer Linie von sieben aufeinanderfolgenden, im Abstand zueinander angeordneten Bildsensorelementen bilden.
4. Gerät nach Anspruch 2, bei welchem die gewählten Bildsensorelemente Teil eines zweidimensionalen Feldes sind, das aus fünf Zeilen mit je sieben Bildsensorelementen besteht, wobei jede Zeile der gewählten Bildsensorelemente das vierte Bildsensorelement der ersten und fünften Reihe, das zweite und sechste Bildsensorelement der zweiten und vierten Zeile und das erste, vierte und siebente Bildsensorelement der dritten Zeile umfaßt.
5. Gerät nach Anspruch 1, welches Mittel (28, 30; 36, 38) aufweist, um die ersten und zweiten kombinierten elektronischen Informationssignale (Y-G) (C-G) einer Tiefpaßfilterung zu unterwerfen, bevor die Mittelwertfilterung erfolgt, und unmittelbar auf die Mittelwertfilterung folgend.
6. Verfahren zum Abtasten eines Aufnahmegegenstandes und zur Lieferung eines Ausgangs, aus dem ein sichtbares Bild des Aufnahmegegenstandes konstruiert werden kann, mit den folgenden Schritten:
- es wird das Licht von dem Aufnahmegegenstand mit einem Bildsensorfeld (10) abgetastet, das eine vorbestimmte Zahl diskreter Bildsensorelemente enthält, von denen jedes auf die einfallende Beleuchtung vom Aufnahmegegenstand anspricht, um ein elektronisches Informationssignal zu liefern, das der Intensität der darauf auffallenden Beleuchtung entspricht;
- es wird die auf das Bildsensorfeld einfallende Beleuchtung derart gefiltert, daß wenigstens eine erste Gruppe von Bildsensorelementen eine Strahlung innerhalb eines ersten gewählten Wellenlängenbereichs (Y) empfängt, daß eine zweite Gruppe von Bildsensorelementen die Beleuchtung innerhalb eines zweiten gewählten Wellenlängenbereichs (G) empfängt, und daß eine dritte Gruppe von Bildsensorelementen die Beleuchtung innerhalb eines dritten gewählten Wellenlängenbereichs (C) empfängt;
- es werden die elektronischen Informationssignale der ersten Gruppe von Bildsensorelementen interpoliert, um eine erste Gruppe von elektronischen Informationssignalen zu liefern, die der Intensität der Beleuchtung innerhalb des ersten Wellenlängenbereichs für die zweite und dritte Gruppe von Bildsensorelementen entspricht;
- es werden die elektronischen Informationssignale von der zweiten Gruppe von Bildsensorelementen interpoliert, um eine zweite Gruppe von elektronischen Informationssignalen zu liefern, die der Intensität der Beleuchtung innerhalb des zweiten Wellenlängenbereichs für die erste und dritte Gruppe von Bildsensorelementen entspricht;
- es werden die elektronischen Informationssignale von der dritten Gruppe von Bildsensorelementen interpoliert, um eine dritte Gruppe von elektronischen Informationssignalen zu liefern, die der Intensität der Beleuchtung innerhalb des dritten Wellenlängenbereichs für die ersten und zweite Gruppe von Bildsensorelementen entspricht;
- es wird die Differenz zwischen der ersten und der zweiten Gruppe von Ausgängen bestimmt, um ein erstes elektronisches Informationsdifferenzsignal zu liefern;
- es wird der erste Differenzausgang einer Mittelwertfilterung unterworfen, um ein erstes verarbeitetes elektronisches Informationssignal zu liefern, welches dem Mittelwert des ersten elektronischen Informationsdifferenzsignals entspricht;
- es wird die Differenz zwischen der zweiten und dritten Gruppe von Ausgängen bestimmt, um ein zweites elektronisches Informationsdifferenzsignal zu liefern;
- es wird der zweite Differenzausgang einer Mittelwertfilterung unterworfen, um ein zweites verarbeitetes elektronisches Informationssignal zu liefern, welches dem Mittelwert des zweiten elektronischen Informationsdifferenzsignals entspricht;
- es wird die Differenz zwischen dem ersten und zweiten verarbeiteten elektronischen Informationssignal bestimmt, um ein verarbeitetes elektronisches Informationsdifferenzsignal zu liefern, und es werden selektiv das erste und zweite verarbeitete elektronische Informationssignal gegenüber den elektronischen Informationssignalen summiert, die ursprünglich für das gleiche Bildsensorelement in der ersten Gruppe abgetastet wurden, um erste elektronische Ausgangsinformationssignale zu liefern, die jeweils der Intensität der Beleuchtung innerhalb des zweiten und dritten Bereiches von Wellenlängen für jedes Bildsensorelement der ersten Gruppen entsprechen;
- es wird eine Summation des verarbeiteten elektronischen Informationsdifferenzsignals und eine Differenz des zweiten verarbeiteten elektronischen Informationssignals gegenüber den elektronischen Informationssignalen gebildet, die ursprünglich für das gleiche Bildsensorelement in der zweiten Gruppe abgetastet wurden, um zweite elektronische Ausgangsinformationssignale zu liefern, die jeweils der Intensität der Beleuchtung innerhalb des ersten und zweiten Wellenlängenbereichs entsprechen;
- es wird eine Differenz des verarbeiteten elektronischen Informationsdifferenzsignals und eine Differenz des ersten verarbeiteten elektronischen Informationssignals gegenüber dem elektronischen Informationssignal gebildet, das ursprünglich für jenes gleiche Bildsensorelement in der dritten Gruppe abgetastet wurde, um dritte elektronische Informationssignale zu liefern, die jeweils der Intensität der Beleuchtung innerhalb des ersten und zweiten Wellenlängenbereichs entsprechen;
- es werden die elektronischen Informationssignale, die von der ersten Gruppe von Bildsensorelementen abgetastet wurden, und die ersten elektronischen Informationsausgangssignale entsprechend dem Empfang des Ausgangs durchgeschaltet, der ursprünglich durch die erste Gruppe von Bildsensorelementen abgetastet wurde;
- es wird das elektronische Informationssignal, welches ursprünglich von der zweiten Gruppe von Bildsensorelementen abgetastet wurde, und das zweite elektronische Ausgangsinformationssignal gemäß dem Empfang des Ausgangs durchgeschaltet, der ursprünglich durch die zweite Gruppe von Bildsensorelementen abgetastet wurde; und
- es wird der Ausgang, der ursprünglich von der dritten Gruppe von Bildsensorelementen abgetastet wurde, und das dritte elektronische Ausgangsinformationssignal gemäß dem Empfang des ursprünglich von der dritten Gruppe von Bildsensorelementen abgetasteten Ausgangs durchgeschaltet;
wobei die folgenden Schritte durchgeführt werden:
a. das erste elektronische verarbeitete Informationssignal (Y-G) basiert auf einem Signal, welches durch Subtraktion der zweiten Gruppe von Signalen (G) von der ersten Gruppe von Signalen (Y) erhalten wurde;
b. das zweite elektronische verarbeitete Informationssignal (C-G) basiert auf einem Signal, welches durch Subtraktion der zweiten Gruppe von Signalen (G) von der dritten Gruppe von Signalen (C) erhalten wurde;
c. das verarbeitete elektronische Differenzinformationssignal ist das Ergebnis der Subtraktion des zweiten elektronischen verarbeiteten Informationssignals von dem ersten verarbeiteten elektronischen Informationssignal;
d. der Ausgang der ersten Gruppe von Elementen wird durch das abgetastete Signal für die Gruppe von Elementen gebildet, das erste verarbeitete Signal wird von dem abgetasteten Signal subtrahiert, und das verarbeitete Differenzsignal wird von dem abgetasteten Signal subtrahiert;
e. der Ausgang der zweiten Gruppe von Elementen wird durch das zweite abgetastete Signal für die Gruppe von Elementen gebildet, die Summe des ersten verarbeiteten Signals und des abgetasteten Signals, die Summe des zweiten verarbeiteten Signals und des abgetasteten Signals erhalten;
f. der Ausgang für die dritte Gruppe von Elementen wird durch das abgetastete Signal für diese Gruppe, die Summe von verarbeitetem Differenzsignal und dem abgetasteten Signal und das zweite verarbeitete Signal, welches von dem abgetasteten Signal subtrahiert wird.
7. Verfahren nach Anspruch 6, bei welchem jeder der Schritte der Mittelwertfilterung eine Bestimmung des Mittelwertes für jedes Bildsensorelement von einer gewählten Mehrzahl kombinierter Ausgänge umfaßt, von denen jeder jeweils einem meiner Mehrzahl gewählter Bildsensorelemente entspricht, wobei das gewählte Bildsensorelement im Abstand gegenüber jedem anderen nicht gewählten Bildsensorelement angeordnet wird.
8. Verfahren nach Anspruch 7, bei welchem bei der Auswahl der Bildsensorelemente das erste, vierte und siebente Bildsensorelement einer Linie von sieben aufeinanderfolgenden, im Abstand zueinander liegenden Bildsensorelementen gewählt wird.
9. Verfahren nach Anspruch 7, bei welchem zur Auswahl der Bildsensorelemente zunächst ein zweidimensionales Feld mit fünf Zeilen zu je sieben Bildsensorelementen in jeder Zeile gewählt wird und danach das vierte Bildsensorelement der ersten und fünften Zeile, das zweite und sechste Bildsensorelement der zweiten und vierten Zeile und das erste, vierte und siebente Bildsensorelement der dritten Zeile ausgewählt werden.
10. Verfahren nach Anspruch 1, bei welchem die ersten und zweiten kombinierten Ausgänge einer Tiefpaßfilterung unterworfen werden, bevor die Mittelwertfilterung einsetzt und unmittelbar vor dieser Mittelwertfilterung.
DE3851286T 1987-08-24 1988-07-25 Verfahren und Vorrichtung zur Rekonstruktion von fehlenden Farbabtastwerten. Expired - Lifetime DE3851286T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/088,801 US4774565A (en) 1987-08-24 1987-08-24 Method and apparatus for reconstructing missing color samples

Publications (2)

Publication Number Publication Date
DE3851286D1 DE3851286D1 (de) 1994-10-06
DE3851286T2 true DE3851286T2 (de) 1994-12-15

Family

ID=22213563

Family Applications (2)

Application Number Title Priority Date Filing Date
DE3851286T Expired - Lifetime DE3851286T2 (de) 1987-08-24 1988-07-25 Verfahren und Vorrichtung zur Rekonstruktion von fehlenden Farbabtastwerten.
DE198888111966T Pending DE304643T1 (de) 1987-08-24 1988-07-25 Verfahren und vorrichtung zur rekonstruktion von fehlenden farbabtastwerten.

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE198888111966T Pending DE304643T1 (de) 1987-08-24 1988-07-25 Verfahren und vorrichtung zur rekonstruktion von fehlenden farbabtastwerten.

Country Status (5)

Country Link
US (1) US4774565A (de)
EP (1) EP0304643B1 (de)
JP (1) JP2701870B2 (de)
CA (1) CA1287163C (de)
DE (2) DE3851286T2 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4910694A (en) * 1988-01-11 1990-03-20 Eastman Kodak Co Method for approximating a value which is a nonlinear function of the linear average of pixel data
JP2948240B2 (ja) * 1989-10-09 1999-09-13 株式会社日立製作所 信号補間装置
US5172227A (en) * 1990-12-10 1992-12-15 Eastman Kodak Company Image compression with color interpolation for a single sensor image system
FR2670647A1 (fr) * 1990-12-13 1992-06-19 Fort Fibres Optiques Rech Tec Procede de captation et traitement d'images pour video-endoscope couleur et video-endoscope de mise en óoeuvre de ce procede.
US5291293A (en) * 1992-06-01 1994-03-01 Eastman Kodak Company Electronic imaging device with defect correction
US5475769A (en) * 1992-07-13 1995-12-12 Polaroid Corporation Method and apparatus for recovering image data through the use of a color test pattern
KR0146260B1 (ko) * 1993-06-16 1998-09-15 모리시타 요이찌 고체촬상장치
US5509086A (en) * 1993-12-23 1996-04-16 International Business Machines Corporation Automatic cross color elimination
US5572155A (en) * 1994-06-20 1996-11-05 Fuji Photo Film Co., Ltd. CCD signal read-out circuit free from ailiasing of high-frequency noises
EP0886974A1 (de) * 1996-03-14 1998-12-30 Polaroid Corporation Bildaufnehmer mit verschiedenen auflösungen und der möglichkeit zur datenkomprimierung
US7253836B1 (en) 1998-06-30 2007-08-07 Nikon Corporation Digital camera, storage medium for image signal processing, carrier wave and electronic camera
US6958772B1 (en) * 1999-01-20 2005-10-25 Canon Kabushiki Kaisha Image sensing apparatus and image processing method therefor
US6995794B2 (en) * 1999-06-30 2006-02-07 Logitech Europe S.A. Video camera with major functions implemented in host software
CN2567940Y (zh) * 1999-06-30 2003-08-20 罗技电子股份有限公司 摄像机设备
US7009644B1 (en) 1999-12-15 2006-03-07 Logitech Europe S.A. Dynamic anomalous pixel detection and correction
US7133073B1 (en) * 1999-08-19 2006-11-07 Dialog Imaging Systems Gmbh Method and apparatus for color interpolation
WO2001013649A1 (en) * 1999-08-19 2001-02-22 Ymedia Corporation Method and apparatus for color interpolation
US6888568B1 (en) 1999-08-19 2005-05-03 Dialog Semiconductor Gmbh Method and apparatus for controlling pixel sensor elements
US8310577B1 (en) 1999-08-19 2012-11-13 Youliza, Gehts B.V. Limited Liability Company Method and apparatus for color compensation
JP4599672B2 (ja) * 1999-12-21 2010-12-15 株式会社ニコン 補間処理装置および補間処理プログラムを記録した記録媒体
US7133569B1 (en) * 2000-07-31 2006-11-07 Polaroid Corporation Aliasing artifact attenuation system
US6965395B1 (en) 2000-09-12 2005-11-15 Dialog Semiconductor Gmbh Methods and systems for detecting defective imaging pixels and pixel values
US6963355B2 (en) * 2001-02-24 2005-11-08 Eyesee380, Inc. Method and apparatus for eliminating unwanted mirror support images from photographic images
US7053908B2 (en) * 2001-04-12 2006-05-30 Polaroid Corporation Method and apparatus for sensing and interpolating color image data
US7379105B1 (en) * 2002-06-18 2008-05-27 Pixim, Inc. Multi-standard video image capture device using a single CMOS image sensor
US7525584B2 (en) * 2004-01-05 2009-04-28 Lifesize Communications, Inc. Fast edge directed demosaicing
US7568628B2 (en) 2005-03-11 2009-08-04 Hand Held Products, Inc. Bar code reading device with global electronic shutter control
US7770799B2 (en) 2005-06-03 2010-08-10 Hand Held Products, Inc. Optical reader having reduced specular reflection read failures
TWI272016B (en) * 2005-08-09 2007-01-21 Sunplus Technology Co Ltd Method and system for eliminating color noises generated from interpolation
TW200908705A (en) * 2007-08-15 2009-02-16 Asustek Comp Inc Image capturing device with detachable extension unit
JP4474656B2 (ja) * 2007-09-14 2010-06-09 富士ゼロックス株式会社 画像読取装置、画像形成装置およびプログラム
JP5045421B2 (ja) * 2007-12-21 2012-10-10 ソニー株式会社 撮像装置、色ノイズ低減方法および色ノイズ低減プログラム
DE102008063970B4 (de) 2008-12-19 2012-07-12 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Interpolation von Farbwerten an Bildpunkten eines Bildsensors
JP5269718B2 (ja) * 2009-08-18 2013-08-21 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
US10602024B2 (en) 2011-06-07 2020-03-24 Global Scanning Denmark A/S Method for creating and filtering combined sets of lines from scanner to reduce image artefacts
JP5868076B2 (ja) * 2011-08-31 2016-02-24 キヤノン株式会社 画像処理装置及び画像処理方法
JP5818586B2 (ja) * 2011-08-31 2015-11-18 キヤノン株式会社 画像処理装置及び画像処理方法
US9510787B2 (en) 2014-12-11 2016-12-06 Mitsubishi Electric Research Laboratories, Inc. Method and system for reconstructing sampled signals
EP3417758A1 (de) 2017-06-19 2018-12-26 Ambu A/S Verfahren zur verarbeitung von bilddaten mit einem nichtlinearen skalierungsmodell und medizinisches sehhilfesystem

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5690689A (en) * 1979-12-24 1981-07-22 Sony Corp Signal processing circuit for dot-sequential image pickup output signal
US4562470A (en) * 1983-04-07 1985-12-31 Centre De Recherche Industrielle Du Quebec Electrical noise reducer for T.V. signals
US4613986A (en) * 1984-06-14 1986-09-23 Ncr Canada Ltd. Digital filter for enhancement of document images
US4605956A (en) * 1984-09-10 1986-08-12 Eastman Kodak Company Single-chip electronic color camera with color-dependent birefringent optical spatial frequency filter and red and blue signal interpolating circuit
US4630307A (en) * 1984-09-10 1986-12-16 Eastman Kodak Company Signal processing method and apparatus for sampled image signals
US4663655A (en) * 1985-08-05 1987-05-05 Polaroid Corporation Method and apparatus for reconstructing missing color samples
US4682230A (en) * 1986-03-21 1987-07-21 Rca Corporation Adaptive median filter system

Also Published As

Publication number Publication date
CA1287163C (en) 1991-07-30
EP0304643A2 (de) 1989-03-01
US4774565A (en) 1988-09-27
JP2701870B2 (ja) 1998-01-21
EP0304643B1 (de) 1994-08-31
EP0304643A3 (en) 1989-09-20
JPS6459470A (en) 1989-03-07
DE304643T1 (de) 1989-06-22
DE3851286D1 (de) 1994-10-06

Similar Documents

Publication Publication Date Title
DE3851286T2 (de) Verfahren und Vorrichtung zur Rekonstruktion von fehlenden Farbabtastwerten.
DE69127795T2 (de) Vorrichtung zur Bilddetektierung
DE3910035C2 (de)
DE68920134T2 (de) Farbbildaufnahmegerät mit horizontal-farbstreifenfilter zur reduzierung des steigzeitrauschens.
DE3546141C2 (de)
DE69733882T2 (de) Kamera mit einem einzigen bildaufnehmer
DE3789291T2 (de) Videosignalerzeugungsschaltung.
DE3148129C2 (de) Bildverarbeitungsgerät
DE69026434T2 (de) Einzelverarbeitungsverfahren zur erzeugung einer gleichmässigen verarbeitung von horizontalen und vertikalen einzelkomponenten
DE69005991T2 (de) Verfahren und anordnung zur erzeugung eines hochauflösenden elektronischen signals von der zeilenabtastung einer farbvorlage.
DE69124866T2 (de) Bildsignalverarbeitungsvorrichtung
DE2755552C2 (de) Festkörper-Fernsehkamera
DE2905816B2 (de) Festkörper-Farbbildaufnahmeeinrichtung
DE3936242C2 (de)
WO1985005526A1 (en) Method for enhancing the resolution of colour television cameras
DE2719208A1 (de) Festkoerper-fernsehkamera
DE3855846T2 (de) Bildaufnahmegerät mit einem Bildelement-Kompensationskreis
DE69018811T2 (de) Zeilenabtastgerät unter anwendung von versetzten linearsegmenten mit angrenzenden überlappungsgebieten.
DE2740795A1 (de) Einrichtung zur beseitigung von abtastfehlern bei festkoerperfernsehkameras
DE3889941T2 (de) System und Verfahren zur elektronischen Aufzeichnung und Wiedergabe von Videobildern.
DE3527275C2 (de)
DE3304592C2 (de)
DE69830137T2 (de) Farbbildaufnahmegerät
DE3230552C2 (de) Festkörper-Farbbildaufnahmesystem
DE3032886C2 (de) Festkörper-Farbbild-Abtastvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SENSHIN CAPITAL, LLC, WILMINGTON, DEL., US