DE10219132A1 - System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern - Google Patents

System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern

Info

Publication number
DE10219132A1
DE10219132A1 DE10219132A DE10219132A DE10219132A1 DE 10219132 A1 DE10219132 A1 DE 10219132A1 DE 10219132 A DE10219132 A DE 10219132A DE 10219132 A DE10219132 A DE 10219132A DE 10219132 A1 DE10219132 A1 DE 10219132A1
Authority
DE
Germany
Prior art keywords
image
region
value
pixel data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10219132A
Other languages
English (en)
Inventor
Scott Baggs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Publication of DE10219132A1 publication Critical patent/DE10219132A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Ein System und Verfahren zum Reduzieren von Bildartefakten von einem verarbeiteten Bild sind offenbart. Ein Bildverbesserungssystem kann mit einem Speichergerät, einem Bildregionsegmentierer, einem Artefaktdetektor und einem Filter implementiert werden. Der Regionsegmentierer kann konfiguriert sein, um einen Bildrahmen zu unterteilen. Jede Region kann durch den Artefaktdetektor verarbeitet werden, um zu identifizieren, wenn ein Bildartefakt in der Region vorliegt. Die indentifizierten Regionen können zu dem Filter weitergeleitet werden, um die Härte der Bildelementdiskontinuitäten zu glätten. Das Verfahren zum Reduzieren von Bildartefakten in einem komprimierten und dekomprimierten Bild kann allgemein durch die folgenden Schritte zusammengefaßt werden: Empfangen von Bildelementen, die zumindest einem Bildrahmen zugeordnet sind; Segmentieren des zumindest einen Bildrahmens in ein Mehrzahl von Regionen gemäß einem ersten betrachtergewählten Bilderzeugungsparameter; Analysieren der Mehrzahl von segmentierten Regionen, um Regionen zu identifizieren, die ein Bildartefakt enthalten, ansprechend auf einen zweiten betrachtergewählten Bilderzeugungsparameter; Verarbeiten der identifizierten Regionen mit einem Filter, so daß zumindest ein Bildelementdatenparamter eingestellt wird, ansprechend sowohl auf einen dritten als auch einen vierten betrachtergewählten Bilderzeugungsparamter; und Einfügen von eingestellten Bildelementdatenwerten in den zumindest einen Bildrahmen.

Description

Die vorliegende Erfindung bezieht sich auf Systeme und Ver­ fahren zum Verarbeiten von digitalen Bildsignalen. Insbe­ sondere bezieht sich die Erfindung auf ein System und Ver­ fahren, das die Bildqualität durch Reduzieren der Härte von Verzerrungen bei komprimierten digitalen Bildsignalen ver­ bessert.
Ein digitales Bildsignal enthält im allgemeinen Informatio­ nen, die einer Mehrzahl von Bildelementen, z. B. Pixeln, zugeordnet sind. Digitale Bilder enthalten typischerweise große Mengen an Informationen (z. B. Farb- und Helligkeits­ informationen, die auf jedes der Mehrzahl von Pixeln bezo­ gen sind), die benötigt werden, um das Bild zu reproduzie­ ren. Folglich wird häufig eine Datenkomprimierung implemen­ tiert, um die Speichermenge zu reduzieren, die Bilder für die Verarbeitung und Speicherung erfordern. Die Datenkom­ primierung ist nicht nur für die langfristige digitale Speicherung eines Bildes wichtig, sondern auch zum Ermögli­ chen von annehmbaren Datenübertragungsraten über Geräte, die netzwerkverbunden sind.
JPEG ist ein Standardbildkomprimierungsmechanismus. JPEG steht für Joint Photographic Experts Group, der ursprüngli­ che Name des Komitees, das den Standard geschrieben hat. JPEG ist zum Komprimieren von Vollfarb- oder Grauskalendi­ gitalbildern von "natürlichen" echten Szenen entworfen. Die JPEG-Komprimierung funktioniert nicht sehr gut bei nicht­ realistischen Bildern, wie z. B. Cartoons oder Strichzeich­ nungen. Die JPEG-Komprimierung bearbeitet keine Schwarz- Weiß-Bilder (ein Bit pro Pixel) und auch keine Bewegbild­ komprimierung. Verwandte Standards zum Komprimieren dieser Typen von Bildern existieren und werden JBIG bzw. MPEG ge­ nannt. Normales JPEG ist "verlustbehaftet", was bedeutet, daß das Bild, das nach der Dekomprimierung erhalten wird, nicht identisch mit demjenigen ist, was ursprünglich einge­ geben wurde. Der Algorithmus erreicht einen Großteil seiner Komprimierung durch Ausnutzen bekannter Beschränkungen des menschlichen Auges, insbesondere der Tatsache, daß kleine Farbschwankungen nicht so gut wahrgenommen werden wie klei­ ne Helligkeitsschwankungen.
Der JPEG-Komprimierungsprozeß ist ein Mehrparameterkompri­ mierungsprozeß. Durch Einstellen der Parameter kann man die komprimierte Bildgröße gegenüber der rekonstruierten Bild­ qualität über einen sehr großen Bereich abwägen. Im allge­ meinen führt der Basis-JPEG-Komprimierungsprozeß folgende Schritte durch:
  • 1. Übertragen des Bilds in einen geeigneten Farbraum. Dies ist für Grauskalierungsbilder eine Nulloperation. Für Farbbilder werden RGB-Informationen in einen Lumi­ nanz-/Chrominanz-Farbraum (z. B. YCbCr, YUV, usw.) übertragen. Die Luminanzkomponente ist Grauskalierung und die anderen beiden Achsen sind Farbinformationen.
  • 2. (Optional) Abwärtsabtasten jeder Komponente durch Zu­ sammenmitteln von Gruppen von Pixeln. Die Luminanzkom­ ponente wird bei voller Auflösung belassen, während die Farbintensitätskomponenten oft 2 : 1 horizontal re­ duziert werden und entweder 2 : 1 oder 1 : 1 (keine Ände­ rung) vertikal. Bei JPEG werden diese Alternativen normalerweise 2h2v- und 2h1v-Abtastung genannt, aber man kann auch die Begriffe "411"- und "422"-Abtastung sehen. Dieser Schritt reduziert das Datenvolumen un­ mittelbar um die Hälfte oder ein Drittel. In numeri­ scher Hinsicht ist er sehr verlustbehaftet, aber für die meisten Bilder hat er aufgrund der schwächeren Auflösung des Auges für Farbintensitätsinformationen beinahe keinen Einfluß auf die wahrgenommene Qualität. Es ist anzumerken, daß die Abwärtsabtastung bei Grau­ skalierungsdaten nicht anwendbar ist; dies ist ein Grund dafür, daß Farbbilder komprimierbarer sind als Grauskalierung.
  • 3. Gruppieren der Pixelwerte für jede Komponente in 8×8- Blöcke. Umwandeln jedes 8×8-Blocks durch eine diskrete Kosinustransformation (DCT; DCT = discrete cosine transform). Die DCT ist eine Verwandte der Fourier- Transformation und ergibt gleichartig dazu eine Fre­ quenzabbildung mit 8×8-Komponenten. Somit hat man nun Zahlen, die den Durchschnittswert in jedem Block dar­ stellen und nachfolgend höherfrequente Änderungen in­ nerhalb des Blocks. Die Motivation dafür ist, daß man nun Hochfrequenzinformationen wegwerfen kann, ohne Niedrigfrequenzinformationen zu beeinträchtigen (die DCT selbst ist umkehrbar, abgesehen von Abrundungsfeh­ lern).
  • 4. Dividieren jeder der 64 Frequenzkomponenten in jedem Block durch einen getrennten "Quantisierungskoeffi­ zienten" und Abrunden des Ergebnisses auf Ganzzahlen. Dies ist der grundlegende Informationsverlustschritt. Je größer die Quantisierungskoeffizienten sind, um so mehr Daten werden gelöscht. Es ist anzumerken, daß so­ gar der minimal mögliche Quantisierungskoeffizient, 1, einige Informationen verliert, weil die exakten DCT- Ausgangssignale typischerweise keine Ganzzahlen sind. Höhere Frequenzen werden immer weniger genau quanti­ siert (aufgrund größerer Koeffizienten) als niedrige­ re, da sie für das Auge weniger sichtbar sind. Außer­ dem werden die Luminanzdaten typischerweise genauer quantisiert als die Farbintensitätsdaten, durch Ver­ wenden von getrennten 64-Element- Quantisierungstabellen.
  • 5. Codiere die reduzierten Koeffizienten unter Verwendung entweder von Huffman-Codierung oder arithmetischer Co­ dierung.
  • 6. Hänge geeignete Header usw. an und gib das Ergebnis aus. Bei normalen "Austausch"-JPEG-Dateien sind alle Komprimierungsparameter in den Headern enthalten, so daß der Dekomprimierer den Prozeß umkehren kann. Diese Parameter umfassen die Quantisierungstabellen und die Huffman-Codierungstabellen.
(Siehe allgemein Seite 1 bis 2 "Introduction to JPEG", http:/ / www.faq.org/faqs/compression-faq/part2/section- 6.html).
Eine Reihe von digitalen Bildsignalen können verknüpft wer­ den (d. h. aneinandergereiht werden), um ein Video oder ei­ ne Videosequenz zu bilden. Man nehme den Fall einer Video­ sequenz an, bei der sich in der Szene nichts bewegt. Jeder Rahmen des Videos sollte exakt gleich sein wie der vorher­ gehende Rahmen. Bei einem digitalen System sollte es klar sein, daß ein einziger Rahmen und ein Wiederholungszählwert diese Videosequenz darstellen könnten.
Man gehe nun von einem Mann aus, der über die gleiche Szene läuft. Falls Informationen bezüglich der Bewegung des Man­ nes von dem statischen Hintergrund extrahiert werden kön­ nen, kann ein großer Anteil des Speicherungsplatzes einge­ spart werden. Dieser stark vereinfachte Fall zeigt zwei der schwierigsten Probleme bei der Bewegungskompensation: 1) Bestimmen, ob ein Bild stationär ist; und 2) Bestimmen, wie und welcher Abschnitt eines Bildes für den Abschnitt des Bildes, der sich bewegt, extrahiert werden können.
Diese Probleme werden in dem digitalen Video- und Audiokom­ primierungsstandard der "Moving Pictures Experts Group" (MPEG = Standardisierungsgremium für Bewegtbild- Kompression) adressiert. Insbesondere definiert der Stan­ dard einen komprimierten Bitstrom, der implizit einen De­ komprimierer definiert. Der grundlegendste Unterschied zwi­ schen MPEG und JPEG ist die Verwendung einer blockbasierten bewegungskompensierten Vorhersage (MCP; MCP = motion com­ pensated prediction) durch MPEG, eines allgemeinen Verfah­ rens, das ein zeitliches Differentialpulscodemodulations­ schema (DPCM; DPCM = differential pulse code modulation) verwendet.
Normalerweise funktionieren MCP und verwandte blockbasierte Fehlercodiertechniken gut, wenn das Bild lokal als fort­ schreitende Bewegung geformt werden kann. Wenn es jedoch eine komplexe Bewegung oder neue Bilder gibt, funktionieren diese Fehlercodierschemen schlecht und es kann schwerer sein, das Fehlersignal zu codieren als das ursprüngliche Signal. In solchen Fällen ist es manchmal besser, das Feh­ lercodierschema zu unterdrücken und das ursprüngliche Si­ gnal selbst zu codieren. Es kann auf einer Block-um-Block- Basis entschieden werden, ob ein Fehlercodierschema verwen­ det wird, und das Fehlersignal codiert wird, oder einfach das ursprüngliche Signal codiert wird. Dieser Typ von Co­ dierung wird oft als Inter-/Intraverarbeitung bezeichnet, weil der Codierer zwischen Zwischen-(Inter-)bild- und In­ nen-(Intra-)bildverarbeitung wechselt.
Blockbasiertes MCP und Zwischenbild- /Innenbildentscheidungen sind die grundlegenden zeitlichen Verarbeitungselemente für viele herkömmliche Videokompri­ mierungsstandards. Im allgemeinen funktionieren diese blockbasierten zeitlichen Verarbeitungsschemata gut über einen großen Bereich von Bildszenen, ermöglichen eine ein­ fachere Implementierung als andere Lösungsansätze und bil­ den eine relativ gute Schnittstelle mit jeder Block-DCT- Verarbeitung des Fehlersignals.
Für komplexe Szenen und/oder niedrige Bitraten können als Folge von Signalverzerrung von einem Komprimierungssystem eine Anzahl von visuellen Artefakten erscheinen. Die haupt­ sächlichen visuellen Artefakte, die aktuelle Bildkomprimie­ rungssysteme beeinträchtigen, sind Blockbildungseffekte und intermittierende Verzerrungen, oft in der Nähe von Objekt­ grenzen, die oft auch als Moskitorauschen bezeichnet wer­ den. Andere Artefakte umfassen Welligkeit, Konturbildung und einen Auflösungsverlust.
Blockbildungseffekte ergeben sich allgemein aus Diskonti­ nuitäten bei den Charakteristika des wiederhergestellten Signals über Blockgrenzen für ein blockbasiertes Codiersy­ stem, z. B. Block-DCT. Blockbildungseffekte werden erzeugt, weil benachbarte Blöcke in einem Bild unabhängig verarbei­ tet werden und die resultierende unabhängige Verzerrung von Block zu Block bewirkt einen Mangel an Kontinuität zwischen benachbarten Blöcken. Der Mangel an Kontinuität kann in der Form von plötzlichen Änderungen bei der Signalintensität oder dem Signalgradient vorliegen. Außerdem führt Blocktyp­ konturenbildung, die ein spezieller Fall von Blockbildungs­ effekt ist, oft zu Fällen, wo sich die Intensität eines Bildes langsam ändert.
Moskitorauschen ist typischerweise da zu sehen, wo es eine scharfe Kante gibt, z. B. eine Kante innerhalb eines Blocks, der zwei einheitliche, aber getrennte Regionen trennt. Block-DCT-Anwendungen sind beim Darstellen von scharfen Kanten nicht effektiv. Dementsprechend gibt es bei scharfen Kanten eine beträchtliche Verzerrung: die rekon­ struierten Kanten sind nicht so scharf wie normal und die benachbarten Regionen sind nicht so einheitlich, wie sie sein sollten. Moskitorauschen ist besonders offensichtlich bei Bildern, die Text oder Computergraphiken enthalten.
Viele der heute verfügbaren Bildkomprimierungsstandards, z. B. H.261, JPEG, MPEG-1, MPEG-2 und High Definition Tele­ vision (HDTV), basieren auf Block-DCT-Codierung. Somit kön­ nen die meisten reproduzierten Bilder durch Blockbildungs­ effekte und Kantenverzerrung nachteilig beeinträchtigt wer­ den.
Zusätzlich zu den Bildartefakten, die durch Videosignalkom­ primierung und Dekomprimierung eingeführt werden, sehen sich die heutigen Anbieter von Fernsehen über Gemein­ schaftsantenne (CATV; CATV = community antenna television), von Rundfunksatellit (DBS; DBS = digital broadcast satelli­ te) und von Digitalfernsehen (DTV; DTV = digital televisi­ on), und auch andere Lieferanten von komprimierten digita­ len Bildern einer Überfülle von Endverbraucherunterhal­ tungselektroniklösungen zum Darstellen der Bilder gegen­ über. Beispielsweise bieten Hersteller von Unterhaltungs­ elektronik derzeit HDTV (high-definition television = hoch­ auflösendes Fernsehen), DTV und analoge TV-Einheiten an. Außerdem ist ein großer Bereich von personalcomputer-(PC)- basierten TV-Tunerkarten auf dem Markt, die in der Lage sind, vollständige HDTV-Auflösungen auf geeigneten Multis­ can-Monitoren anzuzeigen. In der Tat werden Multiscan- Monitoren mit TV-Tunern sogar noch größer gemacht, um fort­ geschrittene Abtastsignale auf Bildschirmen zu ermöglichen, die wie traditionelle Fernsehgeräte aussehen.
Digitale Fernsehgeräte lassen sich im allgemeinen in drei Hauptkategorien unterteilen: integrierte Hochdefinitionsap­ parate, die einen digitalen Empfänger und eine Anzeige um­ fassen, digitale Set-Top-Boxen, die entwickelt sind, um mit HD- (high definition = Hochdefinition) und Standardauflö­ sungs- (SD; SD = standard definition) Digitalanzeigen zu arbeiten (und in einigen Fällen mit aktuellen analogen Ap­ paraten); und DTV-fähige Anzeigen, die durch das Hinzufügen einer digitalen Set-Top-Box ein vollständiges DTV-System bieten.
Bisher umfassen DTV-Empfänger, die für den Privathaushalt­ filmmarkt entwickelt sind, im allgemeinen eine "digitalbe­ reite" Großbildschirmanzeige und - zu zusätzlichen Kosten - eine getrennte Set-Top-Box, die analoge TV-Signale codiert und die Signale an den DTV-Empfänger liefert. Folglich kön­ nen Verbraucher große, schöne, analog erzeugte Bilder jetzt betrachten und später, wenn mehr digitales Programm verfüg­ bar wird, können sie eine Decoderbox kaufen, um digital er­ zeugte Programme mit HDTV-Auflösungen zu betrachten.
Diese Decoderboxen verlängern außerdem die Lebensdauer von aktuellen, analogen Fernsehgeräten, da Verbraucher in der Lage sein werden, digital erzeugte Programme auf ihrem al­ ten Fernsehgerät zu betrachten (d. h. einem analogen Schwarz-Weiß- und/oder Farbfernseher). Unabhängig davon, ob die Set-Top-Box als ein Codierer oder ein Decodierer arbei­ tet, werden sowohl analoge Fernsehgeräte als auch digitale Fernsehgeräte durch die Bildartefakte, die durch Block-DCT- Codierung eingeführt werden, nachteilig beeinträchtigt.
Es ist die Aufgabe der vorliegenden Erfindung, ein Bildver­ arbeitungssystem für die Nachverarbeitung von komprimierten und dekomprimierten Bildern, ein Verfahren zum Reduzieren von Bildartefakten, ein Verfahren zum Glätten von Datenwer­ ten, die Bildartefakte enthalten, und ein Verfahren zum Identifizieren von Bildartefakten zu schaffen.
Diese Aufgabe wird durch ein System gemäß Anspruch 1 oder 14, ein Verfahren gemäß Anspruch 20, ein Verfahren gemäß Anspruch 24 und ein Verfahren gemäß Anspruch 27 gelöst.
Ansprechend auf diese und andere Nachteile des Stands der Technik bezieht sich die vorliegende Erfindung auf ein Sy­ stem und ein Verfahren für die Nachbearbeitung eines Bit­ stroms, der eine dekomprimierte Darstellung eines kompri­ mierten Bildes oder Videos enthält. Kurz beschrieben kann das System bei der Architektur mit einem Speichergerät, ei­ nem Bildregionsegmentierer, einem Artefaktdetektor und ei­ nem Filter implementiert sein. Der Regionsegmentierer kann konfiguriert sein, um einen Bildrahmen in eine Mehrzahl von Regionen zu unterteilen, die eine Mehrzahl von Bildelemen­ ten enthalten. Jede Region kann durch den Artefaktdetektor verarbeitet werden, um zu identifizieren, ob eine Diskonti­ nuität zwischen benachbarten Bildelementdatenwerten in der Region vorliegt. Diejenigen Regionen, die als eine Bildele­ mentdatendiskontinuität aufweisend identifiziert werden, können zu dem Filter weitergeleitet werden, um die Härte der Bildelementdiskontinuität zu glätten.
Die vorliegende Erfindung kann auch so gesehen werden, daß sie ein Verfahren zum Reduzieren von Bildartefakten in ei­ nem komprimierten und dekomprimierten Bild liefert. In die­ ser Hinsicht kann das Verfahren grob durch die folgenden Schritte zusammengefaßt werden: Empfangen von Bildelement­ daten, die einem Bildrahmen zugeordnet sind; Segmentieren des Bildrahmens in eine Mehrzahl von Regionen; Identifizie­ ren von Regionen innerhalb des Bildrahmens, die ein mögli­ ches Bildartefakt umfassen; Verarbeiten der identifizierten Regionen mit einem Filter, so daß zumindest ein Bildele­ mentdatenparameter eingestellt wird; und Einfügen der ak­ tualisierten Bildelemente in den Bildrahmen.
Die Erfindung ist mit Bezugnahme auf die folgenden Zeich­ nungen besser verständlich. Die Komponenten in den Zeich­ nungen sind nicht notwendigerweise maßstabsgerecht, statt dessen wird der Schwerpunkt auf die klare Darstellung der Prinzipien der vorliegenden Erfindung gelegt. Darüber hin­ aus bezeichnen gleiche Bezugszeichen in den Zeichnungen entsprechende Teile in den verschiedenen Ansichten.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein schematisches Diagramm, das eine mögliche Be­ triebsumgebung für ein Bildverbesserungssystem darstellt;
Fig. 2 ein funktionales Blockdiagramm der Bildverbesse­ rungsvorrichtung von Fig. 1;
Fig. 3A und 3B schematische Diagramme, die den Betrieb eines Re­ gionsegmentierers darstellen, der der Bildverbes­ serungsvorrichtung von Fig. 2 zugeordnet werden kann;
Fig. 4 ein funktionales Blockdiagramm eines Artefaktde­ tektors, der dem Regionsegmentierer zugeordnet werden kann, der in Fig. 2 eingeführt wurde;
Fig. 5 ein funktionales Blockdiagramm eines adaptiven Filters, das dem Artefaktdetektor von Fig. 4 zu­ geordnet sein kann;
Fig. 6 ein Flußdiagramm, das ein Verfahren zum Reduzie­ ren von Bildartefakten von einem Bildrahmen dar­ stellt, das durch die Bildverbesserungseinrich­ tung von Fig. 2 durchgeführt werden kann;
Fig. 7 ein Flußdiagramm, das ein Verfahren zum Erfassen von Bildartefakten in einem regionalen Bereich darstellt, wie es in dem Flußdiagramm von Fig. 6 eingeführt wurde; und
Fig. 8A und 8B Abschnitte eines Flußdiagramms, das ein selekti­ ves Verfahren zum Einstellen von Bildelementda­ tenwerten darstellt, wie es in dem Flußdiagramm von Fig. 6 eingeführt wurde.
Nach der Zusammenfassung von verschiedenen Aspekten der vorliegenden Erfindung wird nun näher auf die Beschreibung der Erfindung, wie sie in den Zeichnungen dargestellt ist, Bezug genommen. Obwohl die Erfindung in Verbindung mit die­ sen Zeichnungen beschrieben wird, soll dieselbe nicht auf das Ausführungsbeispiel oder die Ausführungsbeispiele be­ schränkt sein, die hierin offenbart sind. Im Gegenteil, es ist die Absicht, alle Alternativen, Modifikationen und Äquivalente abzudecken, die innerhalb der Wesensart und des Schutzbereichs der Erfindung liegen, wie sie durch die an­ gehängten Ansprüche definiert sind.
Bei den Zeichnungen, bei denen gleiche Bezugszeichen ent­ sprechende Teile in den Zeichnungen bezeichnen, wird nun auf Fig. 1 Bezug genommen, die ein Schema einer beispiel­ haften Betriebsumgebung zeigt, die für eine Bildverbesse­ rungseinrichtung geeignet ist. In dieser Hinsicht kann eine beispielhafte Betriebsumgebung 10 einen Decoder 12 eines Fernsehens über Gemeinschaftsantenne (CATV; CATV = communi­ ty antenna television), eine Bildverbesserungseinrichtung 100, einen Fernsehempfänger/Bildschirm 14 und eine Mehr­ fachfernbedienung 20 umfassen. Wie es in Fig. 1 dargestellt ist, kann ein Koaxialkabel 2, das mit dem CATV-Netzwerk ge­ koppelt ist, ein Breitbandeingangssignal zu dem CATV- Decoder 12 liefern, das Hunderte von digital codierten und durch Blockdiskretkosinustransformation (DCT) komprimierte Videoeingangssignale enthält. Die komprimierten Videosigna­ le können unter Verwendung des MPEG-2- Videosignalkomprimierungsstandards, anderen Block-DCT- Komprimierungsschemata und auch anderen Digitalverarbei­ tungsverfahren komprimiert werden. Wie es in Fig. 1 gezeigt ist, kann der CATV-Decoder 12 über ein erstes Koaxialkabel 4 mit der Bildverbesserungseinrichtung 100 gekoppelt sein. Gleichartig dazu kann die Bildverbesserungseinrichtung 100 ferner mit dem Fernsehempfänger/Bildschirm 14 über ein zweites Koaxialkabel 6 gekoppelt sein.
Wie es ebenfalls in Fig. 1 dargestellt ist, können sowohl der CATV-Decoder 12, die Bildverbesserungsvorrichtung 100 als auch der Fernsehempfänger/Bildschirm 14 mit einem Kom­ munikationstor 15, 105 bzw. 17 konfiguriert sein. Wie be­ kannt ist, können die Kommunikationstore 15, 105, 17 konfi­ guriert sein, um ein oder mehrere entfernt erzeugte Steuer­ signale 22, 24, 26 von einem oder mehreren kompatibel kon­ figurierten Fernsteuergeräten 20 zu empfangen. Es ist klar, daß die entfernt erzeugten Signale Hochfrequenz, Infrarot­ frequenz oder andere Abschnitte des Frequenzspektrums um­ fassen können. Wie bekannt ist, können die entfernt erzeug­ ten Steuersignale 22, 24 und 26 Ein/Aus, Eingabekanalaus­ wahl, Modusauswahl, Lautstärkeeinstellung und ähnliche Be­ fehle umfassen. In dem speziellen Fall der Bildverbesse­ rungsvorrichtung 100 wird erwägt, daß das der Bildverbesse­ rungseinrichtung zugeordnete Kommunikationstor konfiguriert ist, um zumindest Bypaßmodusauswahl-, Bildartefakterfas­ sungsschwellenwert-, Vergleichender-Einstellungsschwellen­ wert-, Regionsempfindlichkeits- und Blockempfindlichkeits- Befehle von einem entfernten Steuergerät 20 zu empfangen.
Im allgemeinen ist der CATV-Decoder 12 konfiguriert, um se­ lektiv eines oder mehrere komprimierte Videosignale zu de­ multiplexen und die demultiplexten Signale zu dem Eingang eines geeignet konfigurierten Bilddecoders (nicht gezeigt) zu liefern. Falls beispielsweise das gewünschte Videosignal mit einem MPEG-2-Codierer codiert ist, ist der Bilddecoder (nicht gezeigt) ein MPEG-2-Decoder. Es ist klar, daß die Natur des Videosignalwegs, der vorher beschrieben wurde, abhängig von dem spezifischen Entwurf des Fernsehempfän­ gers/Bildschirms 14 und auch allen anderen gewünschten Vi­ deosignalerzeugungsgeräten, die der Betriebsumgebung 10 hinzugefügt werden können, stark variieren kann.
Bei einem ersten Beispiel kann der Fernsehempfän­ ger/Bildschirm 14 ein analoges Fernsehgerät (ATV; ATV = analog television) umfassen. Das ATV kann zusammengesetzte, S-Video- und Komponenteneingangssteckbuchsen liefern, die zum Empfangen gleicher analoger Videoeingangssignale von einer Anzahl von Geräten geeignet sind, wie z. B. einem analogen Videokassettenrekorder (VCR) (nicht gezeigt), ei­ ner Videospielkonsole (nicht gezeigt), einem digitalen Vi­ deoplattenspieler (DVD-Player) (nicht gezeigt) und dem CATV-Decoder 12, aber nicht darauf beschränkt. Bei einem zweiten Beispiel kann der Fernsehempfänger/Bildschirm 14 ein digitales Fernsehgerät umfassen (DTV). Der DTV kann ei­ ne Anzahl von digitalen Eingangssteckbuchsen liefern, die geeignet sind zum Empfangen von digitalen Videoeingangssi­ gnalen von einer Anzahl von Geräten, wie z. B. einem Perso­ nalcomputer, einem digitalen Videoplattenspieler (DVD- Player) mit digitaler Ausgabefähigkeit (nicht gezeigt) und dem CATV-Decoder 12 (vorausgesetzt, die Einheit ist mit ei­ ner digitalen Videoausgangssteckbuchse versehen), aber nicht darauf beschränkt. Bei einem dritten Beispiel kann der Fernsehempfänger/Bildschirm 14 sowohl analoge Eingangs­ steckbuchsen als auch digitale Eingangssteckbuchsen lie­ fern.
Unabhängig von der Konfiguration des Fernsehempfän­ gers/Bildschirms 14 kann in den Fällen, in denen das Video­ komprimierungsschema, das verwendet wird, um das Videosi­ gnal zu verteilen, eine Block-DCT-Technik verwendet hat, das Videoeingangssignal an dem Fernsehempfänger/Bildschirm 14 durch Bildartefakte nachteilig beeinträchtigt werden, wie es vorher beschrieben wurde. Eine Bildverbesserungsein­ richtung 100 gemäß der vorliegenden Erfindung kann in dem Videosignalweg angelegt werden, wie es mit Bezugnahme auf Fig. 1 beschrieben ist, um die Härte der Kantendiskontinui­ täten innerhalb einer Bildregion zu reduzieren, ohne Hoch­ frequenzänderungen in dem Bildinhalt von dem Bildrahmen zu entfernen. Es ist klar, daß die Bildverbesserungseinrich­ tung 100 kein unabhängiges Gerät sein muß und entweder in die Videogeräte, die entworfen sind, um mit dem Fernsehemp­ fänger/Bildschirm 14 (z. B. dem CATV-Decoder 12) eine Schnittstelle zu bilden, oder alternativ in den analogen Empfangssignalweg des Fernsehempfängers/Bildschirms inte­ griert sein kann.
Nachfolgend wird Bezug genommen auf Fig. 2, die ein funk­ tionales Blockdiagramm der Bildverbesserungseinrichtung 100 von Fig. 1 darstellt. In dieser Hinsicht kann die Bildver­ besserungseinrichtung 100 konfiguriert sein, um ein dekom­ primiertes Audioeingangssignal 115 und ein dekomprimiertes Komponentenvideoeingangssignal 125 und auch eine Mehrzahl von Steuersignalen 24 über das Kommunikationstor 105 zu empfangen. Ansprechend auf diese und mögliche andere Ein­ gangssignale kann die Bildverbesserungseinrichtung 100 ein verbessertes Bildausgangssignal 155 und auch ein synchroni­ siertes Audioausgangssignal 145 liefern.
Wie es in Fig. 2 dargestellt ist, kann die Bildverbesse­ rungseinrichtung 100 eine Steuerung 110 umfassen. Die Steuerung 110 kann konfiguriert sein, um eine Mehrzahl von Eingangsbefehlen von dem Kommunikationstor 105 zu empfan­ gen, und kann ansprechend auf die Befehle die Verarbeitung des dekomprimierten Komponentenvideoeingangssignals 125 ko­ ordinieren. Außerdem kann die Steuerung 110 konfiguriert sein, um den Echtzeitfortschritt der Videobildverarbeitung zu überwachen, und kann eines oder mehrere Steuersignale liefern, die geeignet sind, um das dekomprimierte Audioein­ gangssignal 115 mit dem verbesserten Bildausgangssignal 155 zu synchronisieren. Ein Fachmann auf diesem Gebiet wird er­ kennen, daß die Steuerung 110 eine oder mehrere anwendungs­ spezifische integrierte Schaltungen (ASICs; ASICs = appli­ cation-specific integrated circuits), eine Mehrzahl von ge­ eignet konfigurierten Logikgattern und andere gut bekannte elektrische Konfigurationen umfassen kann, die aus einzel­ nen Elementen bestehen, sowohl einzeln als auch in ver­ schiedenen Kombinationen, um den Gesamtbetrieb der Bildver­ besserungseinrichtung 100 zu koordinieren.
Ferner kann die Bildverbesserungseinrichtung 100 mit einem Mikroprozessor und einem oder mehreren Speichergeräten im­ plementiert sein, und auch anderen Hardware- und Software­ komponenten zum Koordinieren des Gesamtbetriebs der ver­ schiedenen Elemente, die geeignet sind, um Bildsignalinfor­ mationen zu verbessern, die an den Fernsehempfän­ ger/Bildschirm 14 geliefert werden können. Zusätzlich ist klar, daß die Bildverbesserungseinrichtung 100 Software um­ fassen kann, die eine geordnete Auflistung von ausführbaren Befehlen zum Implementieren logischer Funktionen umfaßt, die in jedem computerlesbaren Medium enthalten sein können, für die Verwendung durch oder in Verbindung mit einem Be­ fehlsausführungssystem, einer Befehlsausführungsvorrichtung oder einem Befehlsausführungsgerät, wie z. B. einem compu­ terbasierten System, einem prozessorenthaltenden System oder einem anderen System, das die Befehle von dem Be­ fehlsausführungssystem, der Befehlsausführungsvorrichtung oder dem Befehlsausführungsgerät abrufen und ausführen kann. Das computerlesbare Medium kann beispielsweise ein elektronisches, magnetisches, optisches, elektromagneti­ sches, Infrarot- oder Halbleitersystem, eine entsprechende Vorrichtung, ein entsprechendes Gerät oder ein entsprechen­ des Ausbreitungsmedium sein.
Wie es in Fig. 2 dargestellt ist, kann die Bildverbesse­ rungseinrichtung 100 einen Videobypaß- bzw. -umleitsignalweg liefern, der einen Eingangsspeicher 130 umfassen kann, der kommunikativ mit einem Ausgangsspeicher 150 gekoppelt ist. Wie es in dem Blockdiagramm von Fig. 2 gezeigt ist, empfängt der Videobypaßsignalweg das dekompri­ mierte Komponentenvideoeingangssignal 125 an einem Ein­ gangstor, das dem Eingangsspeichergerät 130 zugeordnet ist. Das Eingangsspeichergerät 130 kann einen Rahmenspeicher um­ fassen, der geeignet ist, um Bildelementinformationen zu empfangen und zu verarbeiten, die verwendet werden können, um ein Bild zu erzeugen. Ein Eingangsspeicherausgangssignal 135 kann indirekt mit dem verbesserten Bildausgangssignal 155 gekoppelt werden, um den Videobypaßsignalweg zu ver­ vollständigen. Es ist klar, daß der Videobypaßsignalweg durch ein geeignet konfiguriertes Steuersignal 24 ausge­ wählt werden kann, das durch die Steuerung 110 interpre­ tiert wird und zu einer Antwort führt, die Geräte in einem Videoverarbeitungsweg deaktiviert.
Der Videoverarbeitungsweg, wie er in Fig. 2 dargestellt ist, kann zwischen das Eingangsspeichergerät 130 und den Ausgangsspeicher 150 eingefügt werden, und kann einen Regi­ onsegmentierer 300, einen Artefaktdetektor 400 und ein ad­ aptives Filter 500 umfassen. Sowohl der Regionsegmentierer 300, der Artefaktdetektor 400 als auch das adaptive Filter 500 können mit dem Regionsegmentierer 300 in Reihe geschal­ tet sein, und über das Eingangsspeicherausgangssignal 135 Bildinformationen von dem Eingangsspeicher 130 empfangen. Der Regionsegmentierer wiederum liefert einen Teil des Rah­ mens über ein Regionsegmentiererausgangssignal 305 zu dem Artefaktdetektor. Danach liefert der Artefaktdetektor 400 Bildinformationen, die Regionen zugeordnet sind, die eine Bildelementdatendiskontinuität enthalten, über ein Arte­ faktdetektorausgangssignal 405 zu dem adaptiven Filter 500. Zum Schluß liefert das adaptive Filter aktualisierte Bild­ elementdatenwerte über ein adaptives Filterausgangssignal 505 zu dem Ausgangsspeicher 150.
Betriebsmäßig kann der Videoverarbeitungsweg der Bildver­ besserungseinrichtung 100 wie folgt arbeiten. Der Eingangs­ speicher 130 kann Bildinformationen von dem dekomprimierten Videosignal 125 empfangen. Gemäß einem oder mehreren Steu­ ereingangssignalen von der Steuerung 110 kann der Eingangs­ speicher 130 die Bildinformationen über das Eingangsspei­ cherausgangssignal 135 zu dem Regionsegmentierer 300 lie­ fern. Der Regionsegmentierer 300 kann die Informationen durch Unterteilen der Informationen in eine Mehrzahl von M×M-Bildelementregionen formatieren, ansprechend auf einen Regionsempfindlichkeitswert, M, der über einen Befehl der durch die Fernbedienung 20 (Fig. 1) erzeugt wird, geliefert oder abgeleitet werden kann. Der Regionsempfindlichkeits­ wert, M, kann dann über das Kommunikationstor 105 zu der Steuerung 100 für die weitere Verteilung je nach Bedarf, durch die verschiedenen Elemente der Bildverbesserungsein­ richtung 100 weitergeleitet werden. Es ist klar, daß der Regionsegmentierer 300 mit Definieren eines Bildrahmenrefe­ renzbildelements beginnen kann, und den Bildrahmen durch systematisches Vorbewegen aller M Bildelemente in einer ho­ rizontalen oder vertikalen Richtung über die Bildelemente in eine Mehrzahl von M×M-Regionen unterteilen kann, um ein Referenzbildelement für die nächste M×M-Region zu bestim­ men. Nachdem eine Zeile oder Spalte von Bildelementen been­ det ist, kann der Regionsegmentierer 300 konfiguriert sein, um M Bildelemente vertikal bzw. horizontal vor zu bewegen, abhängig davon, welche Richtung als erste Richtung zum Vor­ bewegen durch das Bildelementarray ausgewählt wurde. Es sollte ferner klar sein, daß es vorzuziehen ist, Werte von M auszuwählen, so daß M ein Faktor sowohl von der Anzahl von Bildelementen in der horizontalen als auch der Anzahl von Bildelementen in der vertikalen Richtung in dem zu ver­ arbeitenden Bildrahmen ist. Auf diese Weise enthält jede der M×M-Regionen die gleiche Anzahl von Bildelementen.
Nachdem der Bildrahmen in eine Mehrzahl von M×M- Regionssegmenten unterteilt wurde, kann der Regionsegmen­ tierer 300 dem Artefaktdetektor 400 über das Regionsegmen­ tiererausgabesignal 305 einen Referenzindikator für jede der Mehrzahl von Regionen liefern, zusammen mit den einzel­ nen Bildelementinformationen, die den Bildelementen zuge­ ordnet sind, die in jeder jeweiligen Region enthalten sind.
Der Artefaktdetektor 400 kann wiederum konfiguriert sein, um jedes M×M-Regionsarray von Bildelementen zu empfangen, und einen oder mehrere statistische Tests auf zumindest ei­ nem Bildelementdatenelement durchzuführen, das jedem der Bildelemente in der Region von Interesse zugeordnet ist. Der Artefaktdetektor 400 kann ferner konfiguriert sein, um die Ergebnisse des einen oder der mehreren statistischen Tests mit einem Bildartefakterfassungsschwellenwert DETTH zu vergleichen, der durch die Steuerung 110 geliefert wer­ den kann, um zu bestimmen, ob es wahrscheinlich ist, daß die Region von Interesse ein Bildartefakt enthält. Wenn ei­ ner oder mehrere der statistischen Tests zu einem Wert füh­ ren, der den Bildartefakterfassungsschwellenwert DETTH überschreitet, kann der Artefaktdetektor 400 konfiguriert werden, um die Region zusammen mit einem Identifizierer, der geeignet ist, die Region innerhalb des Bildrahmens zu finden, über das Artefaktdetektorausgangssignal 405 zu dem adaptiven Filter 500 weiterzuleiten.
Danach kann das adaptive Filter 500 konfiguriert werden, um ursprüngliche Bildelementinformationen von dem gesamten Rahmen von dem Eingangsspeicher 130 zu empfangen, zusammen mit den identifizierten Regionen mit Bildartefakten und den Bildinformationen, die den von Artefakten betroffenen Re­ gionen zugeordnet sind. Zusätzlich kann das adaptive Filter 500 einen Blockempfindlichkeitswert N und einen verglei­ chenden Einstellungsschwellenwert COMPTH empfangen. Es ist wichtig anzumerken, daß der Blockempfindlichkeitswert N der Größe des Blocks von Bildelementen, die von der Standardvi­ deokomprimierungstechnik verwendet werden, um das Videosi­ gnal vor der Einführung in die Bildverbesserungseinrichtung 100 zu komprimieren/dekomprimieren, zugeordnet sein kann oder nicht. Die einzige Beschränkung bei der Größe des Blockempfindlichkeitswert N ist, daß er von der Größe her kleiner ist als der Regionsempfindlichkeitswert M.
Wie nachfolgend bezüglich der Erörterung von Fig. 5, 6 und 8A und 8B näher erklärt wird, kann das adaptive Filter 500 konfiguriert sein, um nach und nach zumindest einen Bild­ elementdatenwert, der jedem der Bildelemente zugeordnet ist, die jede der identifizierten Regionen umfassen, die durch ein Bildartefakt betroffen sind, mit jedem seiner nächsten Nachbarn in einer ersten vergleichenden Bewegungs­ richtung zu vergleichen. Falls das Vergleichsergebnis für einen speziellen Bildelementvergleich den vergleichenden Einstellungsschwellenwert COMPTH überschreitet, und der Bildelementvergleich mit einer N×N-Blockgrenze innerhalb der Region von Interesse zusammenfällt, wird der vorliegen­ de Bildelementdatenwert eingestellt. Andernfalls, falls der Bildelementvergleich zwischen Bildelementen innerhalb eines N×N-Blocks durchgeführt wird, wird das vorliegende zu te­ stende Bildelement nicht eingestellt. Auf diese Weise kön­ nen Bildartefakte, die sich von dem Verlust von Dateninfor­ mationen bei der Bildkomprimierung/-dekomprimierung erge­ ben, gefiltert oder geglättet werden, ohne Hochfrequenz­ bildelementdatenübergänge zu entfernen, die in dem ur­ sprünglichen Bild vorlagen.
Wie es in Fig. 2 dargestellt ist, kann die Bildverbesse­ rungseinrichtung 100 das Ausgangsspeichergerät 150 verwen­ den, um ein verbessertes Bildrahmenausgabesignal 155 zusam­ menzusetzen, das zu dem Fernsehempfänger/Bildschirm 14 (Fig. 1) weitergeleitet werden kann. In dieser Hinsicht kann das Ausgangsspeichergerät 150 konfiguriert werden, um das Eingangsspeicherausgangssignal 135 und auch alle einge­ stellten Bildelemente von dem adaptiven Filter 500 über das adaptive Filterausgangssignal 505 zu empfangen. Der Aus­ gangsspeicher 150 kann konfiguriert werden, um einfach Ori­ ginalbildelementinformationen, die jeweiligen Bildelementen zugeordnet sind, die durch das adaptive Filter 500 einge­ stellt wurden, zu ersetzen.
Nachfolgend wird auf Fig. 3A Bezug genommen, die ein Bei­ spiel einer Bildregion darstellt. In dieser Hinsicht stellt Fig. 3A ein einzelnes Beispiel einer 8×8-Region 310 dar. Wie dargestellt ist, kann die Region 310 durch eine Regi­ onsreferenz 320 definiert sein, die eines der Eckbildele­ mente der Region 310 umfassen kann. Es ist klar, daß ein Eckbildelement bevorzugt wird, um die Region 310 zu identi­ fizieren, um einzelne Bildelementdatenübertragungen und Be­ rechnungen zu vereinfachen. Wie gezeigt ist, können einzel­ ne Bildelemente durch ihre relative Position von der Regi­ onsreferenz 320, durch Verwenden eines horizontalen Zähler­ werts i und eines vertikalen Zählwerts j identifiziert wer­ den. Unter Verwendung dieses Bildelementidentifikations­ schemas kann ein beispielhaftes Bildelement 322 auch als P5,3 bezeichnet werden. Jedes der 63 verbleibenden Bildele­ mente kann auf ähnliche Weise indexiert werden. Es sollte klar sein, daß sich getrennte und bestimmte Regionen 310 in einem zweidimensionalen Array fortsetzen, um den vollstän­ digen Bildrahmen zu bilden.
Nachfolgend wird auf Fig. 3B Bezug genommen, die ein zwei­ tes Beispiel einer 8×8-Region 310 darstellt, und auch zwei Grundkonzepte, die der Bildverbesserungseinrichtung 100 zu­ geordnet sind (Fig. 1 und 2). Wie es in Fig. 3b dargestellt ist, kann ein Abschnitt der Region 310 weiter in eine Mehr­ zahl von N×N-Bildblöcken 330 (zwei 3×3-Blöcke sind nur als Beispiel gezeigt) unterteilt werden. Wie es in Verbindung mit dem adaptiven Filter 500 und dem Verfahren zum Reduzie­ ren von Bildartefakten in einem durch eine diskrete Kosi­ nustransformation (DCT; DCT = discrete cosine transform) komprimierten und dekomprimierten Bild näher erklärt wird, dienen die Bildblöcke 330 dazu, Bildteilregionen zu identifizieren, die ziemlich genaue Bildinformationen umfassen sollten, als eine Folge der Natur von Block-DCT­ basierten Datenkomprimierungs/-dekomprimierungstechniken. Es wird erwartet, daß Bildartefakte am häufigsten an den Kanten von Teilregionen oder Bildblöcken 330 eingeführt werden. Folglich wird erwägt, daß Bildelemente, die eine Kante mit einem Bildblock 330 gemeinschaftlich verwenden, für die Einstellung durch die Bildverbesserungseinrichtung 100 geeignet sein können.
Es sollte klar sein, daß es in der Praxis vorteilhaft sein kann, den Blockempfindlichkeitswert N so einzustellen, daß er äquivalent zu der Blockgröße ist, die bei der Original­ block-DCT-Komprimierungs-/Dekomprimierungstechnik verwendet wird, die verwendet wird, um den Bildrahmen zu erzeugen. Es wird jedoch erwägt, daß es für bestimmte Betrachter und be­ stimmte Typen von Bildinhalt vorteilhaft sein kann, andere Blockempfindlichkeitswerte N auszuwählen, wie es den indi­ viduellen Betrachtungswünschen des Betrachters entsprechen kann.
Zusätzlich zu dem Konzept des Verwendens von Blockkanten, um Bildelemente, die für die Einstellung geeignet sind, se­ lektiv zu identifizieren, stellt Fig. 3B ein zweites funda­ mentales Konzept dar, das der Bildverbesserungseinrichtung 100 (Fig. 1 und 2) zugeordnet ist. In dieser Hinsicht wird die Aufmerksamkeit zu dem Bildelement 322 (d. h. P5,3) ge­ lenkt. Wie es in Fig. 3B gezeigt ist, wird erwägt, daß ein Bildglättungsvergleich für zumindest einen Bildelementda­ tenwert durchgeführt wird, der jedem Bildelement innerhalb der Region 310 und zumindest einem der nächsten Nachbarn des Bildelements 322 zugeordnet ist.
Ein Fachmann auf diesem Gebiet wird erkennen, daß, um ein betriebsmäßig effizientes adaptives Filter 500 aufzubauen, eine Bestimmung durchgeführt werden kann, ob sich ein Bild­ element von Interesse an einem Schnittpunkt zwischen be­ nachbarten Blöcken 330 befindet. Falls das Ergebnis der Be­ stimmung bejahend ist, kann das adaptive Filter fortfahren, einen oder mehrere Datenwerte, die dem Bildelement von In­ teresse zugeordnet sind, zu vergleichen und einzustellen. Auf diese Weise kann die Verarbeitungszeit, die Bildelemen­ ten in dem Inneren eines Bildblocks 330 zugeordnet ist, vermieden werden.
Nachdem die Beziehungen zwischen einer Bildregion 310, den Bildblöcken 330 und den Bildelementen 322 bezüglich Fig. 3A und 3B kurz beschrieben wurden, wird nun auf Fig. 4 Bezug genommen, die ein funktionales Blockdiagramm des Artefakt­ detektors 400 darstellt, der in die Bildverbesserungsein­ richtung 100 von Fig. 2 eingeführt wird. In dieser Hinsicht kann der Artefaktdetektor einen Mittelwertrechner 410, ei­ nen Maximalwertdetektor 420, einen Minimalwertdetektor 430 und einen Regionsdiskontinuitätsidentifizierer 440 umfas­ sen. Wie es in Fig. 4 dargestellt ist, kann das Segmentie­ rerausgangssignal 305 sowohl zu dem Mittelwertrechner 410, dem Maximal-(Max.-)Wertdetektor 420 als auch dem Minimal- (Min.-)Wertdetektor 430 geliefert werden. Daraufhin kann jedes der Geräte ein Ergebnis erzeugen, das einen oder meh­ rere Bildelementdatenwerte anzeigt, die den Bildelementen 322 (Fig. 3A und 3B) zugeordnet sind, die die Region 310 umfassen. Wie es in Fig. 4 dargestellt ist, können ein Mit­ telwertrechnerausgangssignal, ein Max.-Wertdetektoraus­ gangssignal und ein Min.-Wertdetektorausgangssignal zu dem Regionsdiskontinuitätsidentifizierer 440 weitergeleitet werden.
Der Regionsdiskontinuitätsidentifizierer 440 kann kommuni­ kativ mit der Steuerung 110 gekoppelt sein (Fig. 2), um den Bildartefakterfassungsschwellenwert DETTH zu empfangen. Der Regionsdiskontinuitätsidentifizierer 440 kann konfiguriert sein, um den absoluten Wert des Unterschieds sowohl zwi­ schen dem Min.- als auch dem Max.-Bildelementdatenwert in­ nerhalb der Region mit dem Mittelbildelementdatenwert für die Region zu erzeugen. Außerdem kann der Regionsdiskonti­ nuitätsidentifizierer 440 konfiguriert sein, um die Unter­ schiede mit dem Bildartefakterfassungsschwellenwert zu ver­ gleichen, der durch die Steuerung 110 (Fig. 2) geliefert wird. Für die Bildregionen, wo einer der Unterschiede den Artefakterfassungsschwellenwert überschreitet, kann der Re­ gionsdiskontinuitätsidentifizierer konfiguriert sein, um sowohl einen Identifizierer für die Region 310 als auch die Bildelementinformationen, die den einzelnen Bildelementen zugeordnet sind, die in der Region enthalten sind, zu dem Artefaktdetektorausgangssignal 445 weiterzuleiten.
Nachfolgend wird auf Fig. 5 Bezug genommen, die ein funk­ tionales Blockdiagramm eines adaptiven Filters darstellt, das dem Artefaktdetektor von Fig. 4 zugeordnet sein kann. In dieser Hinsicht kann das adaptive Filter 500 eine Fil­ tersteuerung 510, einen Puffer 520, eine Selektivbildele­ menteinstellvorrichtung 530 und einen Regionsspeicher 540 umfassen. Wie es in Fig. 5 dargestellt ist, kann das adap­ tive Filter 500 konfiguriert sein, um das Artefaktdetektor­ ausgangssignal 445 und auch eine Mehrzahl von Eingangssi­ gnalen von der Steuerung 110 zu empfangen (Fig. 2). Nachdem möglicherweise selektiv einer oder mehrere Datenwerte ein­ gestellt wurden, die den individuellen Bildelementen der vorliegenden Region 310 zugeordnet sind (siehe Fig. 3A und 3B), kann das adaptive Filter konfiguriert werden, um ein eingestelltes Bilddatenausgangssignal 505 zu liefern.
Betriebsmäßig kann das adaptive Filter 500 einen Identifi­ zierer speichern, zusammen mit den Bildelementdaten, die einer Region zugeordnet sind, die vorher in dem Artefaktde­ tektor 400 als einen Bildartefakt aufweisend in dem Puffer 520 identifiziert wurde. Die Filtersteuerung 510 kann kon­ figuriert sein, um den Bildelementvergleichsschwellenwert und den Blockempfindlichkeitswert von der Steuerung 110 zu empfangen (Fig. 2). Die Filtersteuerung 510 kann konfigu­ riert sein, um diese Werte zu der Selektivbildelementein­ stellvorrichtung 530 zu liefern. Wie es in dem funktionalen Blockdiagramm von Fig. 5 dargestellt ist, kann die Selek­ tivbildelementeinstellvorrichtung 530 eine Datenregion von dem Puffer 520 empfangen. Nachdem die Steuerung 110 Ein­ gangswerte und eine Region von Bildelementdatenwerten emp­ fangen hat, kann die Selektivbildelementeinstellvorrichtung 530 fortschreiten, um einen Element-um-Element-Vergleich von zumindest einem Bildelementdatenwert der jedem Bildele­ ment zugeordnet ist, und denjenigen seiner nächsten Nach­ barn durchzuführen. Es sollte klar sein, daß der Vergleich nur Bildelemente in einer ausgewählten Beziehung zueinander umfassen kann (z. B. horizontal und benachbart, vertikal und benachbart oder diagonal und benachbart). Es sollte ferner klar sein, daß der Vergleich eine mathematische Kom­ bination zwischen einem Bildelement von Interesse und des­ sen neun benachbarten Bildelementen umfassen kann. Unabhän­ gig von dem durchgeführten Vergleich wird erwägt, daß die Selektivbildelementeinstellvorrichtung nur Bildelemente mo­ difiziert, die eine Schnittstelle zwischen benachbarten Blöcken bilden, wie es durch den Blockempfindlichkeitswert identifiziert wird, und wo der Bildelementvergleich den Bildelementvergleichsschwellenwert überschreitet. Die Bild­ elementmodifikation kann eine mathematische Kombination ei­ nes Bildelements von Interesse und eines oder mehreren be­ nachbarten Bildelementen umfassen.
Wie weiter in Fig. 5 dargestellt ist, können modifizierte Bildelementwerte zu dem Regionsspeicher 540 weitergeleitet werden, wo die Werte temporär zwischengespeichert werden können. Nachdem die Bildelementdatenwerte für die Region durch Fortschreiten in einer ersten Richtung (z. B. hori­ zontal oder vertikal) systematisch analysiert wurden, kann die Selektivbildelementeinstellvorrichtung 530 konfiguriert werden, um die Daten in einer zweiten Richtung, die sich von der ersten Richtung unterscheidet, zu analysieren, un­ ter Verwendung der ursprünglichen Bildelementdatenwerte für Bildelemente, die in der ersten Analyse nicht eingestellt wurden, zusammen mit aktualisierten (d. h. gepufferten) Werten für Bildelemente, die während der ersten Analyse mo­ difiziert wurden. Nachdem Bildartefakte von der Region ge­ glättet wurden, kann das adaptive Filter 500 konfiguriert sein, um die Inhalte des Regionsspeichers 540 über den ad­ aptiven Filterausgang 505 zu dem Ausgangsspeicher 150 wei­ terzuleiten (Fig. 2). Der Ausgangsspeicher 150 kann konfi­ guriert sein, um jede der geglätteten Regionen von dem ad­ aptiven Filter 500 zu empfangen, und einen Bildrahmen zu erzeugen, bei dem die Bildartefakte reduziert sind, indem nur die geglätteten Regionen in dem Bildrahmen ersetzt wer­ den.
Bei einem alternativen Ausführungsbeispiel kann das adapti­ ve Filter 500 durch ein kantenerhaltendes Tiefpaßfilter (nicht gezeigt) ersetzt werden. Das kantenerhaltende Tief­ paßfilter kann angewendet werden, um Konturartefakte zu re­ duzieren, die häufig in Bildbereichen mit geringem Hochfre­ quenzinhalt sichtbar sind, wie z. B. bei einem Hintergrund oder einer Grenze, die so erscheint, als hätte sie eine durchgehende Farbe. Obwohl es so erscheinen kann, daß Bildbereiche eine einzelne durchgehende Farbe aufweisen, wie es vorher beschrieben wurde, können verschiedene Bildkomprimierungs- und Dekomprimierungstechniken in Verbindung mit Nachdekomprimierungsprozessoren Bildartefakte einführen, die innerhalb der betroffenen Bildbereiche sichtbar sind. Ein kantenerhaltendes Tiefpaßfilter kann konfiguriert sein, um Einzelheiten zu erhalten, die einer Grenze oder einer Kante zugeordnet sind, während die Härte zwischen Pixeln, die von Bildartefakt betroffenen sind, geglättet oder reduziert wird.
Nachdem die verschiedenen Elemente einer Bildverbesserungs­ einrichtung 100 bezüglich Fig. 2 bis 5 eingeführt und be­ schrieben wurden, wird nun auf Fig. 6 Bezug genommen, die ein Verfahren zum Reduzieren von Bildartefakten von einem Bildrahmen darstellt, das durch die Bildverbesserungsein­ richtung 100 von Fig. 2 durchgeführt werden kann. Diesbe­ züglich kann ein Verfahren zum Reduzieren von Bildartefak­ ten 600 mit Schritt 602 beginnen, der hierin mit "Start" bezeichnet ist. Danach kann bei einem Systemauslösungs­ schritt das Verfahren zum Reduzieren von Bildartefakten 600 einen Artefakterfassungsschwellenwert, einen Region­ sempfindlichkeits-, einen Blockempfindlichkeits- und einen Bildelementdatenwertvergleichs-Schwellenwert einstellen, wie es im Schritt 604 gezeigt ist. Eine Videoverarbeitungs­ schleife kann mit Schritt 606 beginnen, wo das Verfahren zum Reduzieren von Bildartefakten 600 einen decodierten Bildrahmen empfängt. Danach kann das Verfahren zum Reduzie­ ren von Bildartefakten 600 im Schritt 608 einen regionalen Artefakterfassungsprozeß durchführen, durch Analysieren von Bildelementdatenwerten in einer M×M-Region. Wie vorher mit Bezug auf Fig. 4 beschrieben wurde, kann ein Artefaktdetek­ tor 400 entworfen werden, um eine Mehrzahl von Teilregionen eines größeren Bildrahmens zu identifizieren, die ein Bild­ artefakt umfassen können, durch Durchführen eines oder meh­ rerer statistischer Tests an den Bildelementdatenwerten, die den Bildelementen innerhalb der Region zugeordnet sind.
Sobald Regionen des Bildrahmens, die ein Bildartefakt ent­ halten können, im Schritt 608 identifiziert werden, kann das Verfahren zum Reduzieren von Bildartefakten 600 fort­ schreiten zum Speichern sowohl eines Identifizierers für jede der Regionen zusammen mit den zugeordneten Bildele­ mentdatenwerten für jede der Regionen mit einem Bildarte­ fakt, wie es im Schritt 610 dargestellt ist. Danach kann das Verfahren zum Reduzieren von Bildartefakten 600 einen Pixeleinstellungsprozeß durchführen, wie es im Schritt 612 gezeigt ist. Wie es vorher bezüglich Fig. 5 beschrieben wurde, kann ein adaptives Filter 500 konfiguriert sein, um Bildartefakte durch selektives Einstellen von einem oder mehreren Bildelementdatenwerten, die Bildelementen zugeord­ net sind, die einen Blockübergang definieren, zu glätten. Die Einstellung kann die Form einer mathematischen Kombina­ tion von einem oder mehreren Bildelementdatenwerten anneh­ men, die benachbarten Bildelementen eines speziellen Bild­ elements von Interesse zugeordnet sind.
Beispielsweise kann die mittlere Luminanz der acht benach­ barten Bildelemente bestimmt und gewichtet werden, bevor eine zweite Mittelberechnung zwischen dem Originalbildele­ mentluminanzwert und dem Zwischenergebnis durchgeführt wird. Bei einem anderen Beispiel kann der Luminanzwert ei­ nes speziellen Bildelements von Interesse mit dem Lumi­ nanzwert kombiniert werden, der seinen horizontal oder ver­ tikal benachbarten nächsten Nachbarn zugeordnet ist, wobei der mittlere Luminanzwert der Originalbildelementdatenwerte den Originaldatenwert für das Bildelement von Interesse er­ setzt. Es ist klar, daß die Farbinformationen, die dem ein­ zelnen Bildelement zugeordnet sind, sowohl durch diese als auch durch andere Anordnungen von benachbarten Bildelemen­ ten analysiert werden können.
Nachdem der Bildanalyse- und der -einstellungs-Prozeß im Schritt 612 abgeschlossen ist, kann das Verfahren zum Redu­ zieren von Bildartefakten 600 zum Puffern der modifizierten Bildelemente fortschreiten, wie es im Schritt 614 darge­ stellt ist. Danach kann das Verfahren zum Reduzieren von Bildartefakten 600 die modifizierten und gepufferten Bild­ elemente in die geeigneten Positionen innerhalb des Bild­ rahmens einfügen, wie es im Schritt 616 angezeigt ist. Wie es weiter durch den Flußsteuerpfeil des Flußdiagramms von Fig. 6 dargestellt ist, können die Schritte 606 bis 616 je nach Bedarf wiederholt werden, um jeden nachfolgenden Bild­ rahmen zu verarbeiten, die zusammen ein Video bilden. Nach­ dem ein geeignetes Eingangssignal erfaßt wurde, das einen Verlust von Rahmendaten anzeigt, ein Benutzer die "Aus"- Modus-Anforderung oder dergleichen ausgewählt hat, kann das Verfahren zum Reduzieren von Bildartefakten 600 enden, wie es im Schritt 618 angezeigt ist, der hierin mit "Stop" be­ zeichnet ist.
Nachdem das Verfahren zum Reduzieren von Bildartefakten 600 bezüglich des Flußdiagramms von Fig. 6 eingeführt und kurz beschrieben wurde, wird nun auf Fig. 7 Bezug genommen, die ein Verfahren zum Erfassen von Bildartefakten in einem Re­ gionsbereich darstellt, wie es im Schritt 608 durchgeführt werden kann, der in dem Flußdiagramm von Fig. 6 gezeigt ist. In dieser Hinsicht kann ein Verfahren zum Erfassen von Bildartefakten 608 mit Schritt 700 beginnen, der hierin mit "Start" bezeichnet ist. Im Schritt 702 kann das Verfahren zum Erfassen von Bildartefakten 608 einen regionalen Emp­ findlichkeitswert M und einen Bildartefakterfassungsschwel­ lenwert DETTH wiedergewinnen. Danach kann im Schritt 704 das Verfahren zum Erfassen von Bildartefakten 608 eine vor­ liegende Region von Interesse identifizieren, die durch den regionalen Empfindlichkeitswert M definiert ist. Im Schritt 706 kann das Verfahren zum Erfassen von Bildartefakten 608 ein Bildelementdatenwertmittel für die Region berechnen und auch den/die Bildelementdatenwertextremwert(e) für die Re­ gion identifizieren, wie z. B. einen Bildelementdatenwert­ minimalwert und/oder einen Bildelementdatenwertmaximalwert für die Region.
Das Verfahren zum Erfassen von Bildartefakten 608 kann dann prüfen, ob der absolute Wert des Unterschieds zwischen dem Bildelementdatenwertminimalwert für die Region und dem Mit­ telwert für die Region die Größe des Bildartefakterfas­ sungsschwellenwerts überschreitet, wie es bei der Abfrage von Schritt 708 angezeigt ist. Falls die Bestimmung im Schritt 706 bejahend ist, kann das Verfahren zum Erfassen von Bildartefakten 608 den Schritt 710 durchführen, wo die Regionidentifizierer und die zugeordneten Bildelementdaten­ werte für die Region gepuffert werden können. Andernfalls, falls die Bestimmung im Schritt 706 negativ ist, kann das Verfahren zum Erfassen von Bildartefakten zum Schritt 712 fortschreiten.
Gleichartig dazu kann das Verfahren zum Erfassen von Bild­ artefakten 608 dann prüfen, ob der absolute Wert des Unter­ schieds zwischen dem Bildelementdatenwertmaximum für die Region und dem Mittelwert für die Region die Größe des Bildartefakterfassungsschwellenwerts überschreitet, wie es bei der Abfrage von Schritt 712 angezeigt ist. Falls die Bestimmung im Schritt 712 bejahend ist, kann das Verfahren zum Erfassen von Bildartefakten 608 den Schritt 714 durch­ führen, wo die Regionidentifizierer und die zugeordneten Bildelementdatenwerte für die Region gepuffert werden kön­ nen. Andernfalls, falls das Ergebnis der Abfrage im Schritt 712 negativ ist, kann das Verfahren zum Erfassen von Bild­ artefakten 608 konfiguriert sein, um den Schritt 716 durch­ zuführen, wo, wie dargestellt, der Regionidentifizierer in­ krementiert werden kann.
Das Verfahren zum Erfassen von Bildartefakten 608 kann fortschreiten durch Bestimmen, ob alle Regionen analysiert wurden, wie es bei der Abfrage von Schritt 718 dargestellt ist. Falls die Bestimmung im Schritt 718 negativ ist, kann das Verfahren zum Erfassen von Bildartefakten 608 zurück­ kehren, um die Schritte 706 bis 718 zu wiederholen, wie es erforderlich ist, um den Bildrahmen zu analysieren. Andern­ falls, falls die Bestimmung im Schritt 718 bejahend ist, d. h. alle Bildregionen analysiert wurden, kann das Verfahren zum Erfassen von Bildartefakten 608 beendet werden, wie es im Schritt 720 angezeigt ist, der hierin mit "Stopp" bezeichnet ist.
Nachdem das Verfahren zum Erfassen von Bildartefakten 608 mit Bezugnahme auf das Flußdiagramm von Fig. 7 beschrieben wurde, wird nun auf Fig. 8A und 8B Bezug genommen, die ein Verfahren zum selektiven Einstellen von Bildelementdaten­ werten darstellen, wie es im Schritt 612 des Flußdiagramms von Fig. 6 dargestellt ist. In dieser Hinsicht kann ein Verfahren zum selektiven Einstellen von Bildelementdaten­ werten 612 mit Schritt 800 beginnen, der hierin mit "Start" bezeichnet ist. Im Schritt 802 kann das Verfahren zum se­ lektiven Einstellen von Bildelementdatenwerten 612 einen Glättungsschwellenwert COMPTH und eine gewünschte erste Analyserichtung wiedergewinnen. Danach kann im Schritt 804 das Verfahren zum selektiven Einstellen von Bildelementda­ tenwerten 612 Bildelementdatenwerte wiedergewinnen, die je­ dem der Bildelemente zugeordnet sind, die in einer Region enthalten sind, die vorher als einen Bildartefakt enthal­ tend identifiziert wurde. Im Schritt 806 kann das Verfahren zum selektiven Einstellen von Bildelementdatenwerten 612 Richtungszählwerte und Maximumwerte initialisieren, die der Größe der Region zugeordnet sind.
Das Verfahren zum selektiven Einstellen von Bildelementda­ tenwerten 612 kann im Schritt 808 eine mathematische Kombi­ nation durchführen, um ein vorliegendes Bildelement von In­ teresse mit seinem nächsten Nachbarn in einer ersten Rich­ tung zu vergleichen, wie es durch die Zählwerte im Schritt 806 definiert ist. Im Schritt 810 kann das Ergebnis der ma­ thematischen Kombination, die im Schritt 808 durchgeführt wurde, mit dem Glättungsschwellenwert verglichen werden. Falls die Abfrage von Schritt 810 anzeigt, daß das Ergebnis im Schritt 808 den Glättungsschwellenwert überschreitet, kann das Verfahren zum selektiven Einstellen von Bildele­ mentdatenwerten 612 konfiguriert sein, um eine zweite Ab­ frage durchzuführen, wie es im Schritt 812 dargestellt ist, um zu bestimmen, ob die im Schritt 808 verglichenen Bild­ elemente eine Grenze bilden, die mit einer Blockgrenze zu­ sammenfällt. Falls das Ergebnis der Abfrage im Schritt 812 bejahend ist, kann das vorliegende Bildelement eingestellt werden, wie es im Schritt 814 angezeigt ist. Es ist klar, daß diese Einstellung die Form einer Mittelwertbildung an­ nehmen kann, einschließlich eines gewichteten Durchschnitts des vorliegenden Bildelements und dessen nächster Nachbarn innerhalb der Region, solange die Bedingung zutrifft, daß die verglichenen Bildelemente (siehe Schritt 808) keine Blockgrenze bilden.
Falls entweder die Abfrage vom Schritt 810 oder die Abfrage vom Schritt 812 zu einem negativen Ergebnis führen oder Schritt 814 durchgeführt wurde, wie es in dem Flußdiagramm von Fig. 8A dargestellt ist, kann sich Verfahren zum selek­ tiven Einstellen von Bildelementdatenwerten 612 durch In­ krementieren des ersten Richtzählwerts fortschreiten, wie es im Schritt 816 dargestellt ist.
Nachfolgend wird nun auf Fig. 8B Bezug genommen, die eine Fortsetzung des Verfahrens zum selektiven Einstellen von Bildelementdatenwerten 612 darstellt. In dieser Hinsicht kann das Verfahren zum selektiven Einstellen von Bildele­ mentdatenwerten 612 nach dem Anschluß "A" fortsetzen, durch Durchführen einer Bestimmung, ob alle Bildelemente in der ersten Richtung verarbeitet wurden, wie es im Schritt 818 dargestellt ist. Falls das Ergebnis der Abfrage im Schritt 818 bejahend ist, kann das Verfahren zum selektiven Ein­ stellen von Bildelementdatenwerten 612 eine weitere Abfrage durchführen, um zu bestimmen, ob alle Bildelemente in der Region verarbeitet wurden, wie es im Schritt 822 gezeigt ist. Falls das Ergebnis der Abfrage im Schritt 822 bejahend ist, kann das Verfahren zum selektiven Einstellen von Bild­ elementdatenwerten 612 einen Regionszählwert inkrementieren und über den Anschluß "C" zu Schritt 804 (Fig. 8A) zurück­ kehren, und die Schritte 804 bis 824 können nach Bedarf wiederholt werden. Andernfalls, falls das Ergebnis der Ab­ frage im Schritt 822 negativ ist, kann das Verfahren zum selektiven Einstellen von Bildelementdatenwerten 612 eine Überprüfung durchführen, um zu sehen, ob alle Bildregionen mit Artefakten verarbeitet wurden, wie es bei der Abfrage von Schritt 826 angezeigt ist. Falls das Ergebnis der Ab­ frage im Schritt 826 negativ ist, kann das Verfahren zum selektiven Einstellen von Bildelementdatenwerten 612 über den Anschluß "B" zu Schritt 808 zurückkehren (Fig. 8A) und die Schritte 808 bis 826 können nach Bedarf wiederholt wer­ den. Andernfalls, falls das Ergebnis der Abfrage im Schritt 826 bejahend ist (d. h. alle identifizierten Bildregionen wurden geglättet), kann das Verfahren zum selektiven Ein­ stellen von Bildelementdatenwerten 612 beendet werden, wie es im Schritt 828 angezeigt ist.
Alle Prozeßbeschreibungen oder Blöcke in den Flußdiagrammen von Fig. 6, 7 und 8A-8B sollten so verstanden werden, daß sie Module, Segmente oder Codeabschnitte darstellen, die einen oder mehrere ausführbare Befehle zum Implementieren spezifischer logischer Funktionen oder Schritte in dem zu­ geordneten Prozeß umfassen. Alternative Implementierungen sind in dem Schutzbereich der vorliegenden Erfindung ent­ halten, bei dem Funktionen außerhalb der gezeigten oder er­ örterten Reihenfolge ausgeführt werden können, einschließ­ lich gleichzeitig oder in umgekehrter Reihenfolge, abhängig von der enthaltenen Funktionalität, wie es für einen Durch­ schnittsfachmann auf diesem Gebiet der vorliegenden Erfin­ dung offensichtlich ist.
Obwohl die Bildverbesserungseinrichtung 100 in einer oder mehreren hardwarebasierten Konfigurationen implementiert werden kann, um die notwendige Verarbeitungsgeschwindigkeit zu liefern, um Videobildrahmen mit einer vernünftigen Rah­ menrate zu glätten, ist klar, daß eine Bildverbesserungs­ einrichtung 100 gemäß den Lehren und Konzepten der vorlie­ genden Erfindung in Software implementiert werden kann, die auf einem Computergerät wirksam ist, wie z. B. einem Spezi­ al- oder Allzweck-Digitalcomputer, wie z. B. einem Perso­ nalcomputer (PC; IBM-kompatibel, Apple-kompatibel oder an­ derweitig), einer Workstation, einem Minicomputer oder ei­ nem Großcomputer, ist aber nicht darauf beschränkt.
Wenn die Bildverbesserungseinrichtung 100 in Software im­ plementiert ist, sollte angemerkt werden, daß der Verarbei­ tungsschritt, wie er vorher in Verbindung mit den Flußdia­ grammen von Fig. 6, 7 und 8A-8B beschrieben wurde, auf jedem computerlesbaren Medium gespeichert werden kann, für die Verwendung durch oder in Verbindung mit jedem computer­ bezogenen System oder Verfahren.
Im Zusammenhang dieses Dokuments ist ein computerlesbares Medium ein elektronisches, magnetisches, optisches oder an­ deres physikalisches Gerät oder eine Einrichtung, die ein Computerprogramm enthalten oder speichern kann, für die Verwendung durch oder in Verbindung mit einem computerbezo­ genen System oder Verfahren. Die Bildverbesserungseinrich­ tung 100 kann in jedem computerlesbaren Medium enthalten sein, für die Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, einer Befehlsausführungsvorrich­ tung oder einem Befehlsausführungsgerät, wie z. B. einem computerbasierten System, einem prozessorenthaltenden Sy­ stem oder einem anderen System, das die Befehle von dem Be­ fehlsausführungssystem, der Befehlsausführungsvorrichtung oder dem Befehlsausführungsgerät abrufen und ausführen kann. Das computerlesbare Medium kann beispielsweise ein elektronisches, magnetisches, optisches, elektromagneti­ sches, Infrarot- oder Halbleitersystem, Vorrichtung, Gerät oder Ausbreitungsmedium sein, ist aber nicht darauf be­ schränkt. Spezifischere Beispiele (eine nichterschöpfende Liste) des computerlesbaren Mediums würden die folgenden umfassen: eine elektrische Verbindung (elektronisch) mit einer oder mehreren Leitungen, eine tragbare Computerdis­ kette (magnetisch), einen Direktzugriffsspeicher (RAM; RAM = random access memory) (elektronisch), einen Nur-Lese- Speicher (ROM; ROM = read-only memory) (elektronisch), ei­ nen löschbaren, programmierbaren Nur-Lese-Speicher (EPROM, EEPROM oder Flash-Speicher) (elektronisch), einen Lichtwel­ lenleiter (optisch) und einen tragbaren CD-Nur-Lese- Speicher (CDROM) (optisch). Es ist anzumerken, daß das com­ puterlesbare Medium sogar auch Papier oder ein anderes ge­ eignetes Medium sein könnte, auf dem das Programm gedruckt ist, da das Programm elektronisch erfaßt werden kann, bei­ spielsweise über optisches Scannen des Papiers oder des an­ deren Mediums, das dann kompiliert, interpretiert oder an­ derweitig auf geeignete Weise verarbeitet wird, falls dies notwendig ist, und dann in einem Computerspeicher gespei­ chert wird.

Claims (28)

1. Bildverarbeitungssystem, das für die Nachverarbeitung von komprimierten und dekomprimierten Bildern geeignet ist, wobei das System folgende Merkmale umfaßt:
einen Regionsegmentierer (300), der konfiguriert ist, um Daten, die zumindest einen Bildrahmen darstellen, zu unterteilen, um eine Mehrzahl von Bildregionen zu erzeugen;
einen Artefaktdetektor (400), der konfiguriert ist, um jede der Mehrzahl von Bildregionen auf das Vorliegen eines Bildartefakts hin zu untersuchen, wobei der Ar­ tefaktdetektor ferner konfiguriert ist, um Regionen zu identifizieren, die ein Bildartefakt enthalten;
ein Filter (500), das konfiguriert ist, um eine Anzei­ ge von Bildregionen, die ein Bildartefakt enthalten, von dem Artefaktdetektor zu empfangen, wobei das Fil­ ter (500) zumindest einen Bildelementdatenwert gemäß einem betrachtergewählten Parameter glättet, um modi­ fizierte Bildelementdaten zu erzeugen; und
einen Ausgangsspeicher (150), der kommunikativ mit dem Filter (500) gekoppelt ist, wobei der Ausgangsspeicher (150) einen Bildartefakt-reduzierten Bildrahmen zusam­ menstellt, der unmodifizierte Bildelementdaten von dem zumindest einen Bildrahmen und geglättete Bildelement­ daten umfaßt, um eine Artefakt-reduzierte Darstellung des zumindest einen Bildrahmens zu erzeugen.
2. System gemäß Anspruch 1, bei dem der Regionsegmentie­ rer (300) den zumindest einen Bildrahmen ansprechend auf einen betrachtergewählten Regionsempfindlichkeits­ wert unterteilt.
3. System gemäß Anspruch 1 oder 2, bei dem der Artefakt­ detektor (400) zumindest einen statistischen Test an die Bildelementdatenwerte, die die Region umfaßt, an­ legt, um zu identifizieren, wann die Region ein Bild­ artefakt enthält.
4. System gemäß einem der Ansprüche 1 bis 3, bei dem das Filter (500) selektiv Bildelementdatenwerte, die die Region umfaßt, ansprechend auf einen Blockempfindlich­ keitsparameter und einen Bildelementdatenwertver­ gleichsschwellenwert glättet.
5. System gemäß einem der Ansprüche 1 bis 4, bei dem das Filter (500) ein kantenbewahrendes Tiefpaßfilter um­ faßt.
6. System gemäß einem der Ansprüche 1 bis 5, das ferner folgende Merkmale umfaßt:
ein Kommunikationstor (105), das konfiguriert ist, um den zumindest einen betrachtergewählten Bildparameter zu empfangen; und
eine Steuerung (110), die kommunikativ mit dem Kommu­ nikationstor gekoppelt ist, wobei die Steuerung konfi­ guriert ist, um den Fluß von Bildelementen ansprechend auf den zumindest einen betrachtergewählten Bildpara­ meter zu steuern.
7. System gemäß einem der Ansprüche 1 bis 6, das ferner folgendes Merkmal umfaßt:
ein Verzögerungsmodul (140), das konfiguriert ist, um ein dekomprimiertes Audiosignal zu empfangen, wobei das Verzögerungsmodul den Bildartefakt-reduzierten Bildrahmen mit dem dekomprimierten Audiosignal syn­ chronisiert.
8. System gemäß einem der Ansprüche 2 bis 7, bei dem der betrachtergewählte Regionsempfindlichkeitswert eine Mehrzahl von Bildelementen definiert, die äquivalent zu dem Quadrat des Regionsempfindlichkeitswerts sind.
9. System gemäß einem der Ansprüche 3 bis 8, bei dem der zumindest eine statistische Test einen mittleren Bild­ elementdatenwert umfaßt.
10. System gemäß einem der Ansprüche 4 bis 9, bei dem das Filter Bildelementdatenwerte glättet, wenn der Abso­ lutwert der Differenz zwischen den Bildelementdaten­ werten für benachbarte Bildelemente den Bildelementda­ tenwertvergleichsschwellenwert überschreitet, und bei dem die verglichenen Bildelemente eine Blockgrenze bilden, wie sie durch das Quadrat eines Blockempfind­ lichkeitswerts definiert ist.
11. System gemäß einem der Ansprüche 4 bis 10, bei dem der Blockempfindlichkeitsparameter und der Bildelementda­ tenwertvergleichsschwellenwert betrachtergewählt sind.
12. System gemäß einem der Ansprüche 9 bis 11, bei dem ein Absolutwert der Differenz zwischen dem mittleren Bild­ elementdatenwert und einem maximalen Bildelementdaten­ wert für die Region ein erstes Zwischenergebnis lie­ fert, und bei dem ein absoluter Wert des ersten Zwi­ schenergebnisses mit einem Bildartefakterfassungs­ schwellenwert verglichen wird.
13. System gemäß einem der Ansprüche 9 bis 12, bei dem ein Absolutwert der Differenz zwischen dem mittleren Bild­ elementdatenwert und einem minimalen Bildelementdaten­ wert für die Region ein zweites Zwischenergebnis lie­ fert, und bei dem ein Absolutwert des zweiten Zwi­ schenergebnisses mit einem Bildartefakterfassungs­ schwellenwert verglichen wird.
14. Bildverarbeitungssystem, das für die Nachverarbeitung von komprimierten und dekomprimierten Bildern geeignet ist, wobei das System folgende Merkmale umfaßt:
eine Einrichtung zum Analysieren von Daten, die einer Mehrzahl von Bildelementen zugeordnet sind, die zumin­ dest einen Bildrahmen umfaßt, um Abschnitte des zumin­ dest einen Bildrahmens zu identifizieren, die Bildar­ tefakte enthalten;
eine Einrichtung zum Glätten von zumindest einem Da­ tenwert, der der Mehrzahl von Bildelementen in dem identifizierten Teilabschnitt des zumindest einen Bildrahmens zugeordnet ist; und
eine Einrichtung zum Zusammenstellen eines Bildarte­ fakt-reduzierten Bildes, das geglättete Bildelemente umfaßt.
15. System gemäß Anspruch 14, bei dem die Einrichtung zum Analysieren eine Einrichtung zum Durchführen von zu­ mindest einem statistischen Test an den Bildelementda­ tenwerten an einem Teilabschnitt des zumindest einen Bildrahmens umfaßt.
16. System gemäß Anspruch 14 oder 15, bei dem die Einrich­ tung zum Glätten eine mathematische Kombination eines interessierenden Bildelements mit einem benachbarten Bildelement in einer ersten Richtung, um ein erstes Glättungsergebnis zu bilden, gefolgt von einer mathe­ matischen Kombination des interessierenden Bildele­ ments mit einem benachbarten Bildelement in einer zweiten Richtung unter Verwendung des ersten Glät­ tungsergebnisses für den Datenwert des interessieren­ den Bildelements für diejenigen Fälle, in denen das interessierende Bildelement benachbart zu einem Block ist, wie es durch einen Blockempfindlichkeitswert de­ finiert ist, umfaßt.
17. System gemäß einem der Ansprüche 14 bis 16, bei dem die Einrichtung zum Zusammenstellen ein Rahmenspei­ chergerät umfaßt, das konfiguriert ist, um sowohl un­ modifizierte Bildelementdaten als auch modifizierte Bildelementdaten zu speichern, wobei die modifizierten Bildelementdaten die unmodifizierten Bildelementdaten ersetzen.
18. System gemäß einem der Ansprüche 15 bis 17, bei dem der zumindest eine statistische Test das Bestimmen des mittleren Bildelementdatenwerts auf einem Teilab­ schnitt des zumindest einen Bildrahmens umfaßt.
19. System gemäß einem der Ansprüche 16 bis 18, bei dem die mathematische Kombination eines interessierenden Bildelements mit einem benachbarten Bildelement das Bestimmen des durchschnittlichen Datenwerts des inter­ essierenden Bildelements und des benachbarten Bildele­ ments und das Aktualisieren des Datenwerts des inter­ essierenden Bildelements mit dem bestimmten Durch­ schnitt umfaßt.
20. Verfahren zum Reduzieren von Bildartefakten bei einem komprimierten und dekomprimierten Bild, das folgende Schritte umfaßt:
Empfangen von Bildelementdaten, die zumindest einem Bildrahmen zugeordnet sind (606);
Segmentieren des zumindest einen Bildrahmens in eine Mehrzahl von Regionen gemäß einem ersten betrachterge­ wählten Bilderzeugungsparameter (608);
Analysieren der Mehrzahl von segmentierten Regionen, um Regionen, die ein Bildartefakt enthalten, zu iden­ tifizieren, ansprechend auf einen zweiten betrachter­ gewählten Bilderzeugungsparameter (710, 714);
Verarbeiten der identifizierten Regionen mit einem ad­ aptiven Filter, so daß zumindest ein Bildelementdaten­ parameter ansprechend auf sowohl einen dritten als auch einen vierten betrachterausgewählten Bilderzeu­ gungsparameter (612) eingestellt wird; und
Einfügen von eingestellten Bildelementdatenwerten in den zumindest einen Bildrahmen (616).
21. Verfahren gemäß Anspruch 20, bei dem der erste be­ trachtergewählte Bilderzeugungsparameter (608), der in dem Segmentierschritt angewendet wird, einen Regions­ empfindlichkeitswert umfaßt.
22. Verfahren gemäß Anspruch 20, bei dem der zweite be­ trachtergewählte Bilderzeugungsparameter (710, 714), der bei dem Analysierschritt angewendet wird, einen Bildartefakterfassungsschwellenwert umfaßt.
23. Verfahren gemäß Anspruch 20, bei dem der dritte und der vierte betrachtergewählte Bilderzeugungsparameter (612), die in dem Verarbeitungsschritt angewendet wer­ den, einen Blockempfindlichkeitswert beziehungsweise einen Bildelementvergleichsschwellenwert enthalten.
24. Verfahren zum Glätten von zumindest einem Datenwert, der einer Mehrzahl von Bildelementen zugeordnet ist, die Bildartefakte enthalten, die in einem komprimier­ ten und dekomprimierten Bild eingeführt sind, wobei das Verfahren folgende Schritte umfaßt:
Einstellen einer Mehrzahl von Zählwerten und einer Mehrzahl von Schwellenwerten, ansprechend auf eine Mehrzahl von betrachtergewählten Bilderzeugungsparame­ tern (806);
systematisches Vergleichen von jedem einer Mehrzahl von Bildelementdatenwerten mit einem Datenwert, der einem benachbarten Bildelement in einer ersten Rich­ tung zugeordnet ist, um ein erstes Zwischenergebnis (806) zu erzeugen, ferner Vergleichen des ersten Zwi­ schenergebnisses mit einem ersten betrachtergewählten Bilderzeugungsparameter (810), selektives Modifizieren des Datenwerts für ein interessierendes Bildelement, um einen temporären Bildelementdatenwert zu erzeugen, wenn die verglichenen Bildelemente eine Blockgrenze überqueren, wie es durch einen zweiten betrachterge­ wählten Bilderzeugungsparameter (812) definiert ist;
Einfügen von temporären Bildelementdatenwerten (814); und
systematisches Vergleichen von jedem der Mehrzahl von Bildelementdatenwerten, einschließlich der eingefügten temporären Bildelementdatenwerte mit einem benachbar­ ten Bildelement in einer zweiten Richtung, um ein zweites Zwischenergebnis (808) zu erzeugen, ferner Vergleichen des zweiten Zwischenergebnisses mit einem ersten betrachtergewählten Bilderzeugungsparameter (810), selektives Modifizieren des Datenwerts für ein interessierendes Bildelement, um einen Endbildelement­ datenwert zu erzeugen, wenn die verglichenen Bildele­ mente eine Blockgrenze überqueren, wie sie durch einen zweiten betrachtergewählten Bilderzeugungsparameter (812) definiert ist.
25. Verfahren gemäß Anspruch 24, bei dem die Schritte des Vergleichens auf einen ersten betrachtergewählten Bil­ derzeugungsparameter (810) ansprechen, der einen Glät­ tungsschwellenwert umfaßt.
26. Verfahren gemäß Anspruch 24, bei dem die Schritte des Vergleichens auf einen zweiten betrachtergewählten Bilderzeugungsparameter (812) ansprechen, der einen Blockempfindlichkeitswert umfaßt.
27. Verfahren zum Identifizieren von Bildartefakten, die in einer komprimierten und dekomprimierten Teilregion (330) eines Bilds eingeführt sind, wobei das Verfahren folgende Schritte umfaßt:
Durchführen von zumindest einem statistischen Test über eine Mehrzahl von Bildelementdatenwerten (706), die die Teilregion umfaßt, um ein Testergebnis zu er­ zeugen;
Bestimmen eines Extremelementdatenwerts für die Teil­ region; und
Bestimmen, wenn eine mathematische Kombination des ma­ ximalen Bildelementdatenwerts und des Testergebnisses einen vorbestimmten Schwellenwert (708) überschreitet.
28. Verfahren gemäß Anspruch 27, bei dem der Schritt des Bestimmens, wenn eine mathematische Kombination des maximalen Bildelementdatenwerts und des Testergebnis­ ses einen vorbestimmten Schwellenwert (708) über­ schreitet, das Bestimmen umfaßt, wenn der Absolutwert der Differenz zwischen dem Extrembildelement und dem Testergebnis liegt.
DE10219132A 2001-05-01 2002-04-29 System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern Withdrawn DE10219132A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/846,408 US6983078B2 (en) 2001-05-01 2001-05-01 System and method for improving image quality in processed images

Publications (1)

Publication Number Publication Date
DE10219132A1 true DE10219132A1 (de) 2002-11-14

Family

ID=25297847

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10219132A Withdrawn DE10219132A1 (de) 2001-05-01 2002-04-29 System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern

Country Status (3)

Country Link
US (1) US6983078B2 (de)
DE (1) DE10219132A1 (de)
GB (1) GB2376828B (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4366011B2 (ja) * 2000-12-21 2009-11-18 キヤノン株式会社 文書処理装置及び方法
KR100392449B1 (ko) * 2001-07-16 2003-07-23 삼성전자주식회사 디지털tv신호의 재생시스템 및 그 재생방법
KR100512947B1 (ko) * 2003-01-16 2005-09-07 삼성전자주식회사 출력신호제어가 가능한 콤비네이션 시스템 및 그의 제어방법
US7339601B2 (en) * 2003-07-10 2008-03-04 Samsung Electronics Co., Ltd. Methods of suppressing ringing artifact of decompressed images
US7382366B1 (en) * 2003-10-21 2008-06-03 Nvidia Corporation Method, apparatus, system, and graphical user interface for selecting overclocking parameters of a graphics system
EP1751983A1 (de) * 2004-05-18 2007-02-14 Koninklijke Philips Electronics N.V. Algorithmus zur verringerung von artefakten in decodiertem video
US7362474B2 (en) * 2004-06-07 2008-04-22 Lite-On Technology Corp. Printing quality enhancement via graphic/text detection method in compression (JPEG) image
GB2418093B (en) * 2004-09-09 2007-03-28 Imagination Tech Ltd Method and apparatus for removing visible artefacts in video images
US7433512B2 (en) * 2004-11-09 2008-10-07 Dalsa Corporation Method and apparatus for finding and correcting single-pixel noise defects in a two-dimensional camera pixel field and a camera provided with such an apparatus
JP4457346B2 (ja) * 2004-11-12 2010-04-28 ノーリツ鋼機株式会社 画像ノイズ除去方法
JP4646797B2 (ja) * 2005-02-01 2011-03-09 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US7292248B2 (en) * 2005-02-01 2007-11-06 Mellema John T Technique for storing and displaying computer text
US7885478B2 (en) * 2005-05-19 2011-02-08 Mstar Semiconductor, Inc. Noise reduction method and noise reduction apparatus
US7551795B2 (en) * 2005-11-01 2009-06-23 Samsung Electronics Co., Ltd. Method and system for quantization artifact removal using super precision
US8090210B2 (en) 2006-03-30 2012-01-03 Samsung Electronics Co., Ltd. Recursive 3D super precision method for smoothly changing area
US7738729B2 (en) * 2006-08-02 2010-06-15 Morpho Detection, Inc. Systems and methods for reducing an artifact within an image
US7925086B2 (en) * 2007-01-18 2011-04-12 Samsung Electronics Co, Ltd. Method and system for adaptive quantization layer reduction in image processing applications
JP4416031B2 (ja) * 2007-10-11 2010-02-17 セイコーエプソン株式会社 画像処理装置、画像処理方法及びそれらの機能を実現するためのコンピュータプログラム並びにそのコンピュータプログラムを記録した記録媒体
US8131072B2 (en) * 2007-11-26 2012-03-06 Aptina Imaging Corporation Method and apparatus for reducing image artifacts based on aperture-driven color kill with color saturation assessment
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
US9807424B2 (en) 2011-01-10 2017-10-31 Qualcomm Incorporated Adaptive selection of region size for identification of samples in a transition zone for overlapped block motion compensation
EP2863566B1 (de) 2013-10-18 2020-09-02 Université de Nantes Verfahren zur Rekonstruktion eines Datenblocks und Vorrichtung zur Verwendung davon
US9749686B2 (en) 2015-09-21 2017-08-29 Sling Media Pvt Ltd. Video analyzer
US9693063B2 (en) * 2015-09-21 2017-06-27 Sling Media Pvt Ltd. Video analyzer
US9836664B1 (en) * 2016-05-27 2017-12-05 Intuit Inc. Method and system for identifying and addressing imaging artifacts to enable a software system to provide financial services based on an image of a financial document
KR101946576B1 (ko) * 2016-12-23 2019-02-11 삼성전자주식회사 의료 영상 장치 및 의료 영상 처리 방법
CN112368715A (zh) * 2018-05-15 2021-02-12 蒙纳士大学 用于磁共振成像的运动校正的方法和系统
CN110992342B (zh) * 2019-12-05 2023-04-18 电子科技大学 基于3datv约束的spcp红外弱小目标检测方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799111A (en) 1991-06-14 1998-08-25 D.V.P. Technologies, Ltd. Apparatus and methods for smoothing images
US5675666A (en) * 1995-03-02 1997-10-07 Sony Corportion Image data compression method and apparatus with pre-processing to compensate for the blocky effect
US5933540A (en) * 1995-05-11 1999-08-03 General Electric Company Filter system and method for efficiently suppressing noise and improving edge definition in a digitized image
JP3297293B2 (ja) 1996-03-07 2002-07-02 三菱電機株式会社 動画像復号方法および動画像復号装置
US5796875A (en) 1996-08-13 1998-08-18 Sony Electronics, Inc. Selective de-blocking filter for DCT compressed images
JP3699800B2 (ja) 1997-03-31 2005-09-28 株式会社東芝 ブロックノイズ除去装置
US6285801B1 (en) * 1998-05-29 2001-09-04 Stmicroelectronics, Inc. Non-linear adaptive image filter for filtering noise such as blocking artifacts
US6529622B1 (en) * 1998-10-30 2003-03-04 General Electric Company Method and apparatus for identifying defective regions in a discrete pixel detector
FI107108B (fi) 1998-11-05 2001-05-31 Nokia Mobile Phones Ltd Virheen ilmaiseminen alhaisen bittinopeuden videolähetyksessä
US6529638B1 (en) * 1999-02-01 2003-03-04 Sharp Laboratories Of America, Inc. Block boundary artifact reduction for block-based image compression

Also Published As

Publication number Publication date
US20020164084A1 (en) 2002-11-07
GB2376828B (en) 2005-12-14
US6983078B2 (en) 2006-01-03
GB0209248D0 (en) 2002-06-05
GB2376828A (en) 2002-12-24

Similar Documents

Publication Publication Date Title
DE10219132A1 (de) System und Verfahren zum Verbessern der Bildqualität bei verarbeiteten Bildern
EP1635578B1 (de) Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese sowie Texturverzerrung umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE69831961T2 (de) Bildobjekterzeugungsverfahren für objektbasierte kodierungssysteme unter verwendung von masken und gerundeten mittelwerten
DE69817460T2 (de) Bildsequenzdekodierungsverfahren
DE60104013T2 (de) Transkodierung von progressiv-kodierten i-slice-aufgefrischten mpeg datenströmen für trickmodi
DE69738494T2 (de) Videokodierungs- und Videodekodierungsvorrichtung
DE69634962T2 (de) Extrapolation von Pixelwerten eines in einem Block enthaltenen Videoobjektes
DE69631108T2 (de) Nachfilterung zur Entfernung von Artefakten in DCT-codierten Bildern
DE69937462T2 (de) Effiziente macroblockheaderkodierung zur videokompression
DE60020019T2 (de) Prüfung der Dekodierung von Bitströmen
DE60309375T2 (de) Parametrisierung für verlauf-kompensation
DE69937833T2 (de) Verfahren und vorrichtung zur skalierbaren formkodierung
US20090285308A1 (en) Deblocking algorithm for coded video
DE69915843T2 (de) Teilbandkodierung/-dekodierung
DE60122382T2 (de) Vorrichtung und verfahren zur bereitstellung einer nützlichkeitsmetrik auf der grundlage der codierung von informationen zur verbesserung von videosignalen
DE4330040C2 (de) Aufnahme- und/oder Wiedergabevorrichtung zum Aufnehmen und/oder Wiedergeben von Bilddaten, die gemäß unterschiedlicher Komprimierverfahren komprimiert sind
DE60312456T2 (de) Verfahren zur Grössenanderung eines Bildes mittels einer inversen diskreten Cosinustransformation
DE19652362A1 (de) Verfahren und Vorrichtung zur Kompensation der durch die Verarbeitung von Chrominanz-Signalen entstehenden Luminanzdefekte
EP1116184B1 (de) Verfahren und anordnung zur bearbeitung eines digitalisierten bildes mit bildpunkten
DE60119660T2 (de) Verfahren zur Verarbeitung von Videodateien
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors
DE602004011213T2 (de) Intraframe-komprimierung und dekomprimierung von videosignalen mit fester bitrate
DE60209715T2 (de) Verfahren und dekodierer zur verarbeitung von einem digitalen videosignal
DE102004029086B4 (de) Verfahren zum Entblocken und Umcodieren eines Medienstroms
WO2001049038A1 (de) Verfahren, anordnung und computerprogrammerzeugnis zur prädiktion bei der codierung eines in bildblöcke unterteilten bildes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R011 All appeals rejected, refused or otherwise settled
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141101