DE60020795T2 - Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme - Google Patents

Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme Download PDF

Info

Publication number
DE60020795T2
DE60020795T2 DE60020795T DE60020795T DE60020795T2 DE 60020795 T2 DE60020795 T2 DE 60020795T2 DE 60020795 T DE60020795 T DE 60020795T DE 60020795 T DE60020795 T DE 60020795T DE 60020795 T2 DE60020795 T2 DE 60020795T2
Authority
DE
Germany
Prior art keywords
image signals
processed image
image signal
der
proc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60020795T
Other languages
English (en)
Other versions
DE60020795D1 (de
Inventor
Kevin M. Beaverton Ferguson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tektronix Inc
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of DE60020795D1 publication Critical patent/DE60020795D1/de
Application granted granted Critical
Publication of DE60020795T2 publication Critical patent/DE60020795T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Description

  • STAND DER TECHNIK
  • Die vorliegende Erfindung betrifft die Qualitätsbeurteilung von Videobildern, und im Besonderen betrifft die vorliegende Erfindung die Verhaltungsmodellierung des menschlichen Sehsystems in Echtzeit zur Erzeugung objektiver Größenordnungen zur Einschätzung einer subjektiven Fehlereinstufung in einem Videobildsignal, das über verlustbehaftete Verfahren aufgezeichnet und übertragen wird, wie etwa die Videokomprimierung.
  • Zu den bekannten Verfahren für den Einsatz von Modellen für das menschliche Sehsystem zum Vorhersehen subjektiver Reaktionen von Beobachtern auf Fehler, die in ein Videobildsignal eingeführt werden, das verlustbehafteten Prozessen ausgesetzt ist, wie etwa der Videokomprimierung, zählen rechenintensive Modelle für das menschliche Sehsystem (HVS als englische Abkürzung von Human Vision System), wie sie etwa von J. Lubin in "A Visual Discrimination Model for Imaging System Design and Evaluation", Vision Models for Target Detection and Recognition, World Scientific Publishing, River Edge, NJ, USA, 1995, S. 245 – 283 oder von S. Daly in "The Visible Differences Predictor: An Algorithm for the Assessment of Image Fidelity", Digital Images and Human Vision, MIT Press, Cambridge, MA, USA, 1993, S. 162 – 206 beschrieben werden. Zu Messungen, die für die Vorhersage bzw. Prädiktion subjektiver Beeinträchtigungseinstufungen verwendet werden, die keine Modelle des menschlichen Sehens verwenden, zählen ANSI/IRT-Messungen (siehe "Digital Transport of One-Way Signals-Parameters for Objective Performance Assistance", ANSI T1.801.03-yyy), die allgemein schneller sind, jedoch in Bezug auf eine ausreichend differenzierte Ansammlung von Videobildinhalten keine so gute Korrelation mit subjektiven Einstufungen aufweisen wie die Verfahren, die HVS-Modelle umfassen.
  • Die meisten HVS-Modelle basieren auf Verfahren der Prädiktion wahrnehmbarer Unterscheidungsschwellen, die für gewöhnlich als Unterscheidungsschwellen (englisch: Just Noticeable Differences, kurz JND) bezeichnet werden, wie etwa die Schwellenwerte der Kontrastdetektierung und der Diskriminierung. Da die Modellkomponenten auf der Nachahmung des Verhaltens auf den Schwellenwerten basieren, kann das Verhalten oberhalb der Schwellenwerte, d.h. oberhalb der Empfindungsschwellen, nicht garantiert werden. Die HVS-Modelle weisen allgemein eine oder mehrere Stufen zur Berücksichtigung eines oder mehrerer experimentell bestimmter Verhalten nahe der inkrementalen Kontrastdetektierungs- und Diskriminierungsschwelle auf, die durch die folgenden Parameter beeinflusst werden:
    • – die mittlere Luminanz,
    • – den Winkelwert oder die Größe des Zielbilds auf der Netzhaut,
    • – die Ausrichtung (Drehausrichtung, sowohl des Zielbildmusters als auch der Maske),
    • – die Ortsfrequenz (sowohl des Zielbildmusters als auch der Maske),
    • – die temporale Frequenz (sowohl des Zielbildmusters als auch der Maske),
    • – die Umgebung (oder laterale Maskierungseffekte),
    • – die Exzentrizität (oder den Winkelabstand zu der Mitte des Sehzentrums/der Fovea).
  • Es folgt eine kurze Zusammenfassung der Art und Weise, wie einer oder mehrere der Effekte dieser sieben Parameter in HVS-Modellen berücksichtigt werden.
  • Zuerst soll auf den Ansatz des Aufbaus des dem Stand der Technik entsprechenden Ablaufs der Bildverarbeitung hingewiesen werden. Ein großer Teil der in HVS-Modellen erforderlichen Verarbeitungszeit geht auf zwei gemeinsame Implementierungsstufen zurück:
    • – Filterbank (Bildzerlegung wie etwa Gaußsche Pyramiden)
    • – Kontrastverstärkungsregelung (Kontrastmaskierung, nichtlinear)
  • Filterbänke erfreuen sich großer Beliebtheit für die Bildzerlegung in neurale Bilder oder Kanäle mit optimalem Ansprechverhalten bei verschiedenen Ausrichtungen, Ortsfrequenzbändern, Polaritäten, etc. Für eine praktische Implementierung einer minimalen Zerlegung zweier Ausrichtungen (horizontal, vertikal), erfordern vier Ortsfrequenzbänder und zwei Polaritäten 2·4·2=16 Bilder je Verarbeitungsstufe für das Referenzbildsignal und ebenso für das beeinträchtigte Videobildsignal.
  • Bei einem kennzeichnenden HVS-Modell wird die Ansprechempfindlichkeit als eine Funktion der Ortsfrequenz im Rahmen einer so genannten Kontrastempfindlichkeitsfunktion berücksichtigt. Der Kontrastempfindlichkeitsabschnitt des Modells wird erreicht durch:
    • Berechnen des Kontrasts für jedes Pixel jedes Filterbankkanals, gemäß einer einzigartigen Kombination des Ortsfrequenz-Subbands und der Rotationsausrichtungen sowie dem Verhältnis von Hochfrequenzenergie zu Niederfrequenzenergie (DC) oder einem Äquivalent.
    • • Skalieren der Kontrastwerte abhängig von dem Subband und den Rotationsausrichtungen.
  • Das Berechnen des Kontrasts erfordert zwei verschiedene Filter, Hochpass- und Tiefpassfilter, sowie eine Division für jedes Pixel jedes Kanals. Selbst bei dieser komplexen und einen aufwändigen Algorithmus aufweisenden Stufe wird eine Abweichung der Ortsfrequenz-Empfindlichkeitsfunktion der lokalen durchschnittlichen Luminanz und der Winkelgröße des Segments oder modellunabhängiger Bereiche des Bilds nicht berücksichtigt. Der "lineare Bereich" wird in diesen Modellen nicht dargestellt. Auf Frequenzen, bei denen die Empfindlichkeit allgemein am größten ist, zwischen ein und vier Zyklen je Grad, nimmt die Kontrastempfindlichkeit ungefähr proportional zu der Quadratwurzel der durchschnittlichen Luminanz und in ähnlicher Weise in Bezug auf die Winkelgröße bzw. das Winkelmaß zu. Während der Stand der Technik verhältnismäßig komplexe und rechenintensive Verfahren aufweist, können jedoch durch das Ignorieren der Effekte der Schwellenschätzungen der durchschnittlichen Luminanz und des Winkelmaßes Fehler auftreten, die größer sind als eine Größenordnung. Obwohl somit Modelle für Teile des HVS vorgeschlagen wurden, um Effekten der durchschnittlichen Luminanz und des Winkelmaßes Rechnung zu tragen, sind diese offensichtlich nicht in folgende umfassende HVS-Modelle übernommen worden, scheinbar aufgrund der zusätzlich hinzugefügten Komplexität.
  • Der Abschnitt der Kontrastverstärkungsregelung des Modells basiert allgemein auf den Arbeiten von J. Foley, wie etwa in "Human Luminanz Pattern-Vision Mechanisms: Masking Experiments Require a New Model", Journal of the Optical Society of America, Vo. 11, Nr. 6, Juni 1994, S. 1710 – 1719, wobei zumindest folgende Anforderungen erfüllt sein müssen.
    • • Berechnung der Summe der Energie (im Quadrat) entsprechender Pixel der skalierten Kontrastbilder über alle Kanäle. Kanäle mit geringerer Auflösung werden aufwärts abgetastet, um mit den Kanälen mit höherer Auflösung summiert zu werden. Diese Kanal-Kanal-Umwandlung erhöht den effektiven Durchsatz auf dieser Stufe und gestaltet die Implementierung zunehmend kompliziert.
    • • Eine Addition, zwei nicht ganzzahlige Potenzen und eine Divisionsoperation pro Pixel pro Kanal.
  • M. Cannon hat in "A Multiple Spatial Filter Model for Suprathreshold Contrast Perception", Vision Models for Target Detection and Recognition, World Scientific Publishing, River Edge, NJ, USA, 1995, S. 88 – 117, ein Modell vorgeschlagen, das sich auf den Bereich oberhalb der Empfindungsschwelle erstreckt, in Verbindung mit einer erheblichen Zunahme der Komplexität. Allerdings wurde auch dieses Modell offensichtlich nicht in folgende umfassende HVS-Modelle übernommen, scheinbar aufgrund der zusätzlich hinzugefügten Komplexität.
  • Temporale Effekte auf die Ortsfrequenzempfindlichkeit in diesen Modellen fehlen entweder größtenteils, neigen dazu, nur hinderliche Effekte zu enthalten oder sind verhältnismäßig komplex.
  • Schließlich werden die Effekte der Ausrichtung und der Umgebung nur in dem Ausmaß dargestellt, wie dies den Fähigkeiten der orthogonalen Filter und kreuzpyramidenartigen Pegelmaskierungen entspricht, allgemein ohne gute Abstimmung mit den HVS-Versuchsdaten.
  • Das U.S. Patent US-A-5,818,520 beschreibt eine aktuelle Bildqualitäts-Analysevorrichtung, den PQA-200 Analyzer von Tektronix, Inc., Beaverton, Oregon, USA. Dabei handelt es sich um ein nicht in Echtzeit arbeitendes System auf der Basis des Algorithmus JNDMetrixTM der Sarnoff Corporation, Princeton, New Jersey, USA, Wobei ein Referenzbildsignal mit einem entsprechenden beeinträchtigten Videobildsignal verglichen wird, um Differenzen zu ermitteln, die gemäß einem HVS-Modell verarbeitet werden. Für die Ausführung dieser Beurteilung wird das getestete System im Wesentlichen bis zum Abschluss des Tests außer Betrieb genommen.
  • Wünschenswert ist ein System zur Verhaltungsmodellierung des menschlichen Sehsystems in Echtzeit zur Beurteilung der Videobildqualität, wobei das System ausreichend einfach gestaltet ist, so dass es in einer Echtzeit-Videoumgebung eingesetzt werden kann.
  • KURZE ZUSAMMENFASSUNG DER ERFINDUNG
  • Vorgesehen ist gemäß der vorliegenden Erfindung ein System zur Verhaltungsmodellierung des menschlichen Sehsystems in Echtzeit zur Ausführung einer Analyse der Videobildqualität von Videosystemen in einer Echtzeit-Videoumgebung. Ein Referenzbildsignal und ein aus dem Referenzbildsignal hergeleitetes Testbildsignal werden in separaten Kanälen verarbeitet. Die Bildsignale werden in Luminanz-Bildsignale umgewandelt und durch einen zweidimensionalen Tiefpassfilter gefiltert, um verarbeitete Bildsignale zu erzeugen. Die verarbeiteten Bildsignale werden in Bereiche mit ähnlichen Statistiken unterteilt, und die Segment- oder Bereichsmittelwerte werden von den Pixeln der verarbeiteten Bildsignale subtrahiert, um segmentierte verarbeitete Bildsignale zu erzeugen, die implizit hochpassgefiltert worden sind. Störungen bzw. Rauschen werden bzw. wird in die segmentierten verarbeiteten Bildsignale eingeführt, und Abweichungen für die segmentierten, verarbeiteten Referenzbildsignale berechnet sowie für die Differenzen zwischen den segmentierten, verarbeiteten Test- und Referenzbildsignalen. Die Abweichung für das segmentierte, verarbeitete Differenz-Bildsignal wird durch die Abweichung des segmentierten, verarbeiteten Referenz-Bildsignals normalisiert, und die N-te Wurzel des Ergebnisses wird als Größenordnung für die sichtbare Beeinträchtigung des Testbildsignals bestimmt. Die Größenordnung der sichtbaren Beeinträchtigung kann in entsprechende Einheiten umgewandelt werden, wie zum Beispiel JND, MOS, etc.
  • Die Aufgaben, Vorteile und weitere neuartige Merkmale der vorliegenden Erfindung werden aus der folgenden genauen Beschreibung deutlich, wenn diese in Verbindung mit den anhängigen Ansprüchen und den beigefügten Zeichnungen gelesen wird.
  • KURZE BESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNG
  • Die Abbildung zeigt eine Blockdiagrammansicht eines Systems für die Beurteilung der Qualität eines Videobilds unter Verwendung einer Verhaltensmodellierung des menschlichen Sehsystems in Echtzeit gemäß der vorliegenden Erfindung.
  • GENAUE BESCHREIBUNG DER ERFINDUNG
  • Bei der Untersuchung des Verhaltens des menschlichen Sehsystems durch Daten aus der Literatur in Verbindung mit Belegen für den Einfluss der verschiedenen Störungsquellen in dem menschlichen Sehsystem wurden die folgenden Beobachtungen gemacht:
    • 1. Amplitudenempfindlichkeit im oberen Ortsfrequenzbereich, wobei der lineare Bereich des Luminanzeinflusses auf die Kontrastempfindlichkeitsfunktion auf Veränderungen der durchschnittlichen Luminanz unempfindlich ist, jedoch als Quadrat der Frequenz abfällt. Dies entspricht einem Tiefpassfilter zweiter Ordnung.
    • 2. Die Weber- und Devries-Rose-Bereiche (siehe "Contrast Detection and Discrimination for Visual Models" von Taylor et al und "Visual Pattern Analyzers" von N. Graham, Oxford U. Press 1989) entsprechen beide dem Niederfrequenzbereich, in dem die Amplitudenempfindlichkeit am meisten durch Veränderungen der durchschnittlichen Luminanz beeinflusst wird. Eine Untersuchung der Amplitudenkurve vs. der Frequenzkurve bei unterschiedlicher durchschnittlicher Luminanz offenbart ein Verhalten, das dem eines regelbaren Hochpassfilters ähnlich ist, abhängig von der durchschnittlichen Luminanz. Ein Modell auf der Basis einer ähnlichen Beobachtung wurde von Cornsweet und Yellott in "Intensity-Dependent Spatial Summation", Journal of the Optical Society of America, Vol. 22, Nr. 10, 1985, S. 1769 – 1786, vorgeschlagen. Rohaly und Buchsbaum haben in "Global Spatiochromatic Mechanism Accounting for Luminance Variations in Contrast Sensitivity Functions", Journal of the Optical Society of America, Vol. 6, Februar 1989, S. 312 – 317, haben ein Modell auf der Basis des Kontrasts im Gegensatz zu der Amplitude vorgeschlagen, unter Verwendung eines festen Hochpassfilters und eines variablen Tiefpassfilters. In allen Fällen wird ein Bandpass durch die Kombination oder Kaskadierung eines Tiefpassfilters mit einem Hochpassfilter gebildet, wobei ein Filter unveränderlich ist und der andere eine Funktion der durchschnittlichen Luminanz. Da die Kontrastberechnung zusätzliche Schritte erfordert, ist die Amplitudendarstellung effizienter, welche einen festen Tiefpassfilter und einen variablen Hochpassfilter impliziert.
    • 3. Der Schwarzabhebungseffekt bei der Kontrastunterscheidung zwischen Intensitäten in Schwellennähe stimmt überein mit den Belegen für örtlich stationäre (feste) Störungen – Fehler abhängig von der Fovea-Position, jedoch zeitunabhängig – und andere Störungen in dem menschlichen Sehsystem. Unterhalb des Störungsbodens nimmt die Kontrasterhöhung zur Detektierung mit einer zunehmenden Schwarzabhebungs- bzw. Austastschwelle zu, während sie oberhalb des Störungsbodensmit zunehmender Schwarzabhebungs- bzw. Austastschwelle zunimmt. Andere haben variable Störungen vorgeschlagen, wobei diese offensichtlich noch in ein umfassendes HVS-Modell integriert werden müssen, um die sichtbaren Beeinträchtigungen eines Videobildsignals vorhersagen zu können.
    • 4. Das Verhältnis des Quadratwurzelgesetzes zwischen dem Winkelmaß und den Kontrast- und Diskriminierungsschwellen impliziert, dass jedes Bild in Bereiche mit ähnlichen Statistiken segmentiert werden sollte, wodurch der ganze Bildbereich in kleinere Gruppen in gewisser Weise "kohärenter" Bereiche unterteilt wird. Je größer der Bereich, desto niedriger ist die effektive Kontrastempfindlichkeits-Hochpassgrenzfrequenz, wenn der Mittelwert subtrahiert wird.
    • 5. Eine Höhe der Kontrastunterscheidung aufgrund einer gesenkten durchschnittlichen Luminanz, unterschiedlichen Maskierungssignalen und einer reduzierten Teilfläche impliziert einen Prozess, der der optimalen Signaldetektierung unter Verwendung abgestimmter Filter ähnlich ist. In einem derartigen System können Differenzen durch Subtrahieren von Korrelationskoeffizienten zwischen verarbeiteten Referenz- und Testbildern von Eins gemessen werden.
    • 6. Zwar sorgt das Subtrahieren der Korrelationskoeffizienten von Eins für eine gute Prädiktion der Schwellenwerte und der Diskriminierung bzw. der Unterscheidung, allerdings werden wahrgenommene Differenzen oberhalb der Empfindungsschwellen nicht gut vorhergesehen. Deutlich oberhalb des Schwellenwerts nimmt der wahrgenommene Kontrast ungefähr mit der Quadratwurzel des tatsächlichen Kontrasts zu. Zur gleichzeitigen Anpassung des Verhaltens auf dem Schwellenwert und oberhalb des Schwellenwerts mit einem einfachen mathematischen Eindruck, wird die N-te Wurzel der normalisierten Abweichung der verarbeiteten Bilddifferenzen verwendet, wobei es sich in dem vorliegenden Beispiel um die vierte Wurzel handelt: Empfindlichkeit = K·(var(Itest_proc – Iref_proc)/var(Iref_rpoc))25,wobei Iref_proc und Itest_proc den entsprechenden verarbeiteten, gefilterten und störbehafteten, Referenz- und Testbildern entsprechen und var() der Abweichung bzw. Varianz entspricht.
    • (a) Auf dem Schwellenwert entspricht das gewünschte Verhalten ungefähr: Empfindlichkeit = K·(sum(Itest_proc2+Iref_proc2-2·Itest_proc·Iref_proc)25)/(var(Iref_proc)25 Empfindlichkeit = K·(2-2·Korrelation(Iref_proc,Itest_proc))25 = 1
    • (b) Oberhalb des Schwellenwerts entspricht das gewünschte Verhalten ungefähr: Empfindlichkeit = K·(sum(|Itest_proc – Iref_proc|2)/var(Iref_proc))25 und bei einer Bildreferenz mit flachem Feld, Iref_proc = Rauschen Empfindlichkeit = K·(sum(|Itest_proc|2)/var(noise))25
  • In diesem Fall nimmt die Empfindlichkeit oberhalb des Schwellenwerts auf Kontrast im Verhältnis zu einem Kontrast von Null als die Quadratwurzel des Kontrasts zu. Somit werden sowohl die Bedingungen für den Schwellenwert als auch für oberhalb des Schwellenwerts erfüllt. Praktischerweise muss die N-te Wurzel nicht gezogen werden, bevor das gesamte Bild über Segmentmessungen zusammengefasst worden ist, wobei dies in diesem Beispiel der q-Norm entspricht, mit q=4.
  • Entsprechende Modellkomponenten und sechs Kalibrierungsparameter sind:
    • (a) Zweidimensionale Tiefpassfilter-Kalibrierungsparameter zweiter Ordnung mit unbegrenztem Ansprechverhalten auf einen Impuls umfassen (i) Eingangsskala, die vorzugsweise in dem Anzeigemodell platziert werden können; und (ii) Rückkopplungskoeffizient, der einen doppelten Pol festlegt. Dies kann in einem äquivalenten Filter mit begrenztem Ansprechverhalten implementiert werden, der im Fach allgemein bekannt ist.
    • (b) Die Segmentierung (wachsender Bereich) wird geführt durch (i) den Schwellenwert für Gesamtwerte des Segmentblockmittelwerts und (ii) dem Schwellenwert für die ungefähre Segmentabweichung der Blockabweichung. Neue Berechnung der Blockmittelwerte als Mittelwert der Luminanz in dem Segment unter Verwendung der Blockmittelwerte des Segments und Subtrahieren des lokalen Mittelwerts (Luminanz des entsprechenden Segments) von jedem Pixel.
    • (c) Rauschgenerator und "Verdunkler" (Operator mit dem höchsten Wert) Kalibrierung umfasst die Auswahl der Rauschamplitude. Berechnet wird für jedes Segment die normalisierte Differenzabweichung (Abweichung der verarbeiteten Referenz minus Beeinträchtigung, var(Iref_proc – Itest_proc), dividiert durch die Abweichung des verarbeiteten Referenzbilds, var(Iref_proc)). Für diesen Schritt sind keine Kalibrierungskonstanten erforderlich.
    • (d) Für das ganze Bild wird die Gesamtgröße als N-te Wurzel des Mittelwerts der Segment-normalisierten Differenzabweichungen berechnet, wobei für dieses Beispiel N=4 gilt. Die Gesamtgröße wird mit einem Umwandlungs- oder Skalierungsfaktor (K oberhalb für den Schwellenwert oder JND-Einheiten) in entsprechende Einheiten umgewandelt.
  • In folgendem Bezug auf die Abbildung ist ein Flussdiagramm für eine Vorrichtung zur Bildqualitätsbeurteilung dargestellt, die im Verhältnis zum Stand der Technik dadurch verbessert ist, dass sie den Großteil der Genauigkeit der HVS-Modelle mit der Effizienz vereint, die mit der von nicht-HVS-Modellen vergleichbar ist. Ein Referenzvideosignal und ein beeinträchtiges (Test) Videosignal werden zur Umwandlung in Luminanz-Einheiten in entsprechende Anzeigemodelle 11, 12 eingegeben. Die Ortsfrequenzempfindlichkeit, die den Kontrastempfindlichkeits-Schwellendaten entspricht, wird in Form von entsprechenden zweidimensionalen Tiefpassfiltern 13, 14 und ein impliziter Hochpassfilters implementiert (der lokale Mittelwert (Tiefpass) aus Schritt 15, 16 wird entsprechend in Schritt 17, 18 von jedem einzelnen Pixel subtrahiert). Diese Filterkombination erfüllt die in der Literatur für jede Ausrichtung, die durchschnittliche Luminanz und den Segmentbereich durch die Daten (Kontrastempfindlichkeit vs. Frequenz) vorgeschlagenen Anforderungen. In den folgenden Stufen muss für jedes Bild nur eine Bildausgabe aus dieser Stufe verarbeitet werden, im Gegensatz zu einer Mehrzahl von ausgegebenen Bildern von Filterbänken gemäß dem Stand der Technik. Ein nichtlinearer temporaler Filter kann als nächstes eingefügt werden, um einen Großteil des temporalen Verhaltens des HVS-Modells zu berücksichtigen, wobei dies in dieser Implementierung jedoch nicht dargestellt ist.
  • Blockmittelwerte werden berechnet 15, 16, wie etwa für drei Pixel mal drei Pixelblöcke. In beiden Kanälen wird das Bild auf der Basis des Blockdurchschnittsmittelwertes und anderer einfacher Blockstatistiken segmentiert 20. Zur Vereinfachung und Reduzierung der Rechenressourcen kann der Schritt 20 aber auch weggelassen werden. Zu den in dem aktuellen Segmentierungsalgorithmus verwendeten Blockstatistiken zählen die lokale (Block) Mittelwertluminanz und die vorherige Abweichung. Es können aber auch einfache Maximum- und Minimumwerte für das Bereichswachstum verwendet werden. Für jeden Blockmittelwert wird eine Mittelwertbildung über das Segment vorgenommen, dem es angehört, so dass ein neuer Blockmittelwert erzeugt wird. Diese Mittelwerte werden von jedem Pixel in den entsprechenden Blöcken subtrahiert 17, 18, wodurch der implizite Hochpassfilter fertig gestellt wird.
  • Rauschen von einem Rauschgenerator 24 wird auf jedem Pixel über eine Coring-Operation 21, 22 eingefügt, indem der größere Wert des Absolutwertes des gefilterten Eingangsbilds und des Absolutwertes eines örtlich bzw, räumlich feststehenden Rauschmusters ausgewählt wird, mit: Core(A,B) = |(|A|-|B|) für |A| > |B|; 0 für |A| < |B|)wobei A das Signal und B das Rauschen bezeichnen. Die Segmentabweichung wird für die Referenzbildsegmente berechnet 27, 28, und die Differenz 26 zwischen den Referenz- und den Testbildsegmenten. Die beiden Datengruppen der Kanalsegmentabweichung werden kombiniert 30, indem für jede Segmentnormalisierung (Division) die Testkanalabweichung (Differenz) durch die Referenzabweichung normalisiert wird.
  • Schließlich wird die N-te Wurzel des Durchschnitts jeder normalisierten Abweichung bzw. Varianz des Segments berechnet 32, um eine zusammengefasste Größe zu erzeugen. In diesem Beispiel gilt erneut N=4, wobei N jeden ganzzahligen Wert darstellen kann. Die zusammengefasste Größe kann skaliert oder anderweitig in entsprechende Einheiten umgewandelt werden 34, wie etwa JND, MOS, etc.
  • Vorgesehen ist gemäß der vorliegenden Erfindung somit eine Verhaltensmodellierung des menschlichen Sehsystems in Echtzeit zur Bestimmung der Beeinträchtigung eines Testvideobildsignals aus einem Referenzvideobildsignal durch Verarbeiten der beiden Signale in parallelen Kanälen, wobei eine gemittelte Segmentvarianz für das Referenzbild und für ein Bild mit Differenzbehandlung (Referenz = Test) erhalten wird, wobei die durchschnittlichen Segmentvarianzen normalisiert werden, wobei die N-te Wurzel gezogen wird, um eine Gesamtgröße zu bilden, und wobei das Ergebnis danach in entsprechende Einheiten umgewandelt wird.

Claims (5)

  1. Verfahren zur. Verhaltungsmodellierung des menschlichen Sehsystems in Echtzeit zur Ermittlung einer Größenordnung der sichtbaren Beeinträchtigung eines von einem Referenzbildsignal abgeleiteten Testbildsignals, wobei das Verfahren die folgenden Schritte umfasst: das Filtern jedes der genannten Test- und Referenzbildsignale zur Erzeugung entsprechender verarbeiteter Bildsignale; das Einführen eines Störungssignals in jedes der verarbeiteten Bildsignale; das Berechnen von Abweichungen für das verarbeitete Bildsignal, welches das Referenzbildsignal darstellt und für ein Differenz-verarbeitetes Bildsignal, das die Differenz zwischen den verarbeiteten Bildsignalen aus dem Einführungsschritt darstellt; und das Kombinieren der Abweichungen, so dass eine Größenordnung der. Beeinträchtigung erhalten wird.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Kombinierens die folgenden Schritte umfasst: das Normalisieren der Abweichung des Differenz-verarbeiteten Bildsignals unter Verwendung der Abweichung des Referenz-verarbeiteten Bildsignals, so dass eine normalisierte Abweichung für das Differenz-verarbeitete Bildsignal erzeugt wird; und das Verwenden der N-ten Wurzel der normalisierten Abweichung als die Größenordnung der Beeinträchtigung.
  3. Verfahren nach Anspruch 1, wobei das Verfahren ferner den Schritt des Umwandelns der Größenordnung der Beeinträchtigung in entsprechende Einheiten umfasst.
  4. Verfahren nach Anspruch 1, wobei der Filterschritt die folgenden Schritte umfasst: das Umwandeln der Referenz- und Testbildsignale in entsprechende Luminanz-Bildsignale; das Ausführen einer zweidimensionalen Tiefpassfilteroperation an den entsprechenden Luminanz-Bildsignalen zur Erzeugung der entsprechenden verarbeiteten Bildsignale.
  5. Verfahren nach Anspruch 4, wobei der Filterschritt ferner die folgenden Schritte umfasst: das Segmentieren der entsprechenden verarbeiteten Bildsignale aus dem Ausführungsschritt in Bereiche ähnlicher Statistiken, so dass segmentierte verarbeitete Bildsignale erzeugt werden; das Realisieren einer Blockeinrichtung für jedes der segmentierten verarbeiteten Bildsignale; und das Subtrahieren der entsprechenden Blockeinrichtung von jedem Pixel der entsprechenden verarbeiteten Bildsignale, so dass gefilterte Bildsignale als die verarbeiteten Bildsignale zur Eingabe in den Einführungsschritt erzeugt werden.
DE60020795T 1999-11-11 2000-11-01 Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme Expired - Lifetime DE60020795T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US438697 1999-11-11
US09/438,697 US6678424B1 (en) 1999-11-11 1999-11-11 Real time human vision system behavioral modeling

Publications (2)

Publication Number Publication Date
DE60020795D1 DE60020795D1 (de) 2005-07-21
DE60020795T2 true DE60020795T2 (de) 2006-05-04

Family

ID=23741664

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60020795T Expired - Lifetime DE60020795T2 (de) 1999-11-11 2000-11-01 Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme

Country Status (6)

Country Link
US (1) US6678424B1 (de)
EP (1) EP1100278B1 (de)
JP (1) JP3498842B2 (de)
KR (1) KR100647146B1 (de)
CN (1) CN1183781C (de)
DE (1) DE60020795T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022101854A1 (de) 2021-06-02 2022-12-22 HELLA GmbH & Co. KGaA Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876381B2 (en) * 2001-01-10 2005-04-05 Koninklijke Philips Electronics N.V. System and method for providing a scalable objective metric for automatic video quality evaluation employing interdependent objective metrics
US6941017B2 (en) * 2001-09-18 2005-09-06 Tektronix, Inc. Temporal processing for realtime human vision system behavior modeling
US20040036772A1 (en) * 2001-09-25 2004-02-26 Pugel Michael Anthony Method for optimizing the level of rf signals by comparing quality of the rf signals under different operation modes
US7139035B2 (en) * 2002-12-30 2006-11-21 Texas Instruments Incorporated Video noise floor estimator with impulse noise detection
US20040207643A1 (en) * 2003-04-18 2004-10-21 Bozidar Janko Attention model enhanced video waveform monitor
GB0314161D0 (en) * 2003-06-18 2003-07-23 British Telecomm Edge analysis in video quality assessment
EP1727091A1 (de) * 2004-02-27 2006-11-29 Tdvision Corporation S.A. DE C.V. Verfahren und system zum digitalen codieren von stereoskopischen 3d-videobildern
EP1727090A1 (de) 2004-02-27 2006-11-29 Tdvision Corporation S.A. DE C.V. Verfahren und system zum digitalen decodieren von stereoskopischen 3d-videobildern
US7405747B2 (en) * 2004-04-14 2008-07-29 Tektronix, Inc. Extended K2T measurement of video
US7356195B2 (en) * 2004-04-29 2008-04-08 Hewlett-Packard Development Company, L.P. System and method for estimating image sharpness
US8340177B2 (en) * 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
US8442108B2 (en) * 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
US8374238B2 (en) * 2004-07-13 2013-02-12 Microsoft Corporation Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video
US7715646B2 (en) * 2005-03-25 2010-05-11 Siemens Medical Solutions Usa, Inc. Unified visual measurement of blur and noise distortions in digital images
US7801385B2 (en) * 2005-05-10 2010-09-21 Intel Corporation Perceptual filter support techniques
US8396468B1 (en) 2005-09-15 2013-03-12 At&T Mobility Ii Llc Assessing performance and quality of a mobile communication service
US8620293B2 (en) * 2005-09-15 2013-12-31 At&T Mobility Ii Llc Location-based transmitter selection and handoff
US8587630B1 (en) 2005-09-15 2013-11-19 At&T Mobility Ii Llc Assessing performance and quality of a mobile communication service
US8509761B2 (en) * 2005-09-15 2013-08-13 At&T Mobility Ii Llc Location based services quality assessment
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US20080012856A1 (en) * 2006-07-14 2008-01-17 Daphne Yu Perception-based quality metrics for volume rendering
KR100824264B1 (ko) * 2006-11-23 2008-04-24 주식회사 이노와이어리스 통신망을 거친 영상에 대한 품질측정장치 및 방법
WO2009040417A2 (en) * 2007-09-28 2009-04-02 Oce-Technologies B.V. Method, apparatus and computer program for adaptive compensation of a mtf
US8953673B2 (en) * 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) * 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
JP5708916B2 (ja) * 2008-04-30 2015-04-30 日本電気株式会社 画像評価方法、画像評価システム及びプログラム
WO2009133900A1 (ja) * 2008-04-30 2009-11-05 日本電気株式会社 画質評価システム、方法およびプログラム
WO2009133884A1 (ja) * 2008-04-30 2009-11-05 日本電気株式会社 画質評価方法、画質評価システムおよびプログラム
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US8213503B2 (en) 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
US8760578B2 (en) 2010-04-19 2014-06-24 Dolby Laboratories Licensing Corporation Quality assessment of high dynamic range, visual dynamic range and wide color gamut image and video
PL2508754T3 (pl) 2011-04-04 2016-10-31 System napędowy dla siłowni wiatrowej
US8743291B2 (en) 2011-04-12 2014-06-03 Dolby Laboratories Licensing Corporation Quality assessment for images that have extended dynamic ranges or wide color gamuts
ES2525159T3 (es) 2011-09-26 2014-12-18 Siemens Aktiengesellschaft Sistema de accionamiento para una central eólica
CN102447945B (zh) * 2011-11-22 2013-09-25 河海大学 一种图像亮度的jnd值测定方法
CN103070671B (zh) * 2013-01-31 2014-07-30 郑州大学 啮齿类动物视觉认知行为功能自动化测评系统
CN109285146B (zh) * 2018-08-30 2021-12-10 南京邮电大学 基于恰可觉察失真的全参考图像质量评价方法
CN110399886B (zh) * 2019-07-15 2022-09-30 华侨大学 一种屏幕图像jnd模型构建方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918633A (en) * 1985-11-25 1990-04-17 Eastman Kodak Company Digital image noise reduction method and transmission system
US5010405A (en) * 1989-02-02 1991-04-23 Massachusetts Institute Of Technology Receiver-compatible enhanced definition television system
US5309526A (en) * 1989-05-04 1994-05-03 At&T Bell Laboratories Image processing system
US5313298A (en) * 1992-03-05 1994-05-17 Rubin, Bednarek And Associates, Inc. Video companding method and system
US5446492A (en) 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
US5790717A (en) 1993-10-26 1998-08-04 Bell Communications Research Inc. Apparatus and method for predicting subjective quality of compressed images
US5818520A (en) * 1996-02-12 1998-10-06 Tektronix, Inc. Programmable instrument for automatic measurement of compressed video quality
US5719966A (en) 1996-03-29 1998-02-17 David Sarnoff Research Center, Inc. Apparatus for assessing the visiblity of differences between two image sequences
US5974159A (en) 1996-03-29 1999-10-26 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two image sequences
US6360022B1 (en) * 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
GB9803580D0 (en) 1998-02-21 1998-04-15 Nds Ltd Determining visually noticeable differences between two images
US6285797B1 (en) * 1999-04-13 2001-09-04 Sarnoff Corporation Method and apparatus for estimating digital video quality without using a reference video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022101854A1 (de) 2021-06-02 2022-12-22 HELLA GmbH & Co. KGaA Verfahren zur Analyse einer Leuchtdichteverteilung des von einer Beleuchtungsvorrichtungfür ein Fahrzeug ausgehenden Lichts

Also Published As

Publication number Publication date
JP3498842B2 (ja) 2004-02-23
DE60020795D1 (de) 2005-07-21
US6678424B1 (en) 2004-01-13
CN1296361A (zh) 2001-05-23
EP1100278B1 (de) 2005-06-15
CN1183781C (zh) 2005-01-05
KR100647146B1 (ko) 2006-11-17
JP2001197527A (ja) 2001-07-19
EP1100278A3 (de) 2003-01-22
EP1100278A2 (de) 2001-05-16
KR20010051612A (ko) 2001-06-25

Similar Documents

Publication Publication Date Title
DE60020795T2 (de) Echtzeitmodellierung des Verhaltens menschlicher Sehvermögenssysteme
DE69910358T2 (de) Verfahren und vorrichtung zur objektiven bewertung der videoqualität
DE69726567T2 (de) Verfahren und vorrichtung zur bewertung der sichtbarkeit von unterschieden zwischen zwei bildsequenzen
DE69333846T2 (de) Verfahren zur mischung von bildern und vorrichtung hierzu.
DE10150296B4 (de) Apparat zur Kontrastverstärkung eines Videosignals
DE19827034A1 (de) Iteratives Filtersystem für medizinische Bilder
DE60307967T2 (de) Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes
DE60127866T2 (de) Verringern von aura-artigen effekten bei der bewegungskompensierten interpolation
DE10253370B4 (de) Vorhersage von Subjektiven Videoqualitätsbewertungen
DE102019215460A1 (de) Verfahren und Vorrichtung zur Rauschreduktion von Bildaufnahmen
DE19849090A1 (de) Verfahren zur Verarbeitung eines Eingangsbildes
DE102016122649B3 (de) Biometrisches Verfahren
DE60217243T2 (de) Zeitverarbeitung für eine Echtzeitmodellierung vom Verhalten des menschlichen Sehvermögensystems
DE4124985C1 (de) Bildnachführsystem
DE60029728T2 (de) Detektion von Gauss-Geräusch in Videosignalen
DE102005047539A1 (de) Bildverarbeitungsverfahren zur Fensterung und/oder Dosisregelung für medizinische Diagnostikeinrichtungen
DE19521408C1 (de) Verfahren zum objektiven Bewerten der Bildqualität zwei- oder dreidimensionaler Bilder
DE60023837T2 (de) Vorrichtung und verfahren zur filterung
DE10024374B4 (de) Verfahren und Vorrichtung zum Messen des in einem Bild enthaltenen Rauschens
Pistonesi et al. Structural similarity metrics for quality image fusion assessment: Algorithms
DE102020134755A1 (de) Verarbeiten von videoframes über neuronales faltungsnetzwerk durch verwenden von statistiken vorhergehender frames
DE102005037808A1 (de) Verfahren und Vorrichtung zum Darstellen von Pixeldaten
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
DE69730694T2 (de) Trainingsverfahren für ein signalklassifikationsgerät
CN108898600A (zh) 图像质量评价方法及装置

Legal Events

Date Code Title Description
8364 No opposition during term of opposition