DE10045777A1 - Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung - Google Patents

Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung

Info

Publication number
DE10045777A1
DE10045777A1 DE10045777A DE10045777A DE10045777A1 DE 10045777 A1 DE10045777 A1 DE 10045777A1 DE 10045777 A DE10045777 A DE 10045777A DE 10045777 A DE10045777 A DE 10045777A DE 10045777 A1 DE10045777 A1 DE 10045777A1
Authority
DE
Germany
Prior art keywords
signal
transmission
ref
color
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10045777A
Other languages
English (en)
Inventor
Markus Hermsen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10045777A priority Critical patent/DE10045777A1/de
Priority to EP01971648A priority patent/EP1319310A2/de
Priority to PCT/DE2001/003277 priority patent/WO2002023899A2/de
Publication of DE10045777A1 publication Critical patent/DE10045777A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/507Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Regelung von Signalkomponenten mindestens eines Datensignals (DS), das von einer Signalquelle (102) zu einer Signalsenke (111) übermittelt wird, wobei die Übertragung zu diskreten Zeitpunkten erfolgt, in Abhängigkeit davon, ob und wann sendeseitig Änderungen des Datensignals (DS) vorliegen. DOLLAR A Ein spezielles Ausführungsbeispiel der Erfindung beinhaltet ein Verfahren zur automatischen Einstellung der Luminanz-, Chrominanz- und/oder Farbsättigungswerte bei digitalen Bildübertragungssystemen für Videosignale, zum Beispiel im Fernseh- oder Multimediabereich. Die Erfindung fußt auf einem Verfahren zur Übertragung von Differenzbildern, die durch Subtraktion der YUV-Komponenten von Abtastbildern zu zeitlich aufeinanderfolgenden Abtastzeitpunkten entstehen. Erfindungsgemäß werden diese Differenzbilder zu diskreten Zeitpunkten in unregelmäßigen Abständen übertragen, sofern mindestens ein geeignet festgelegter Zeit-, Y-, U- bzw. V-Schwellwert überschritten wird. Auf diese Weise kann die Redundanz im Übertragungssignal und damit die Datenübertragungsrate im Vergleich zu einer periodisch wiederholten Differenzbildübertragung entscheidend verringert werden.

Description

A. Schilderung des allgemeinen Problems
Die digitale Übertragung von Audio- und Videosignalen wird in der heutigen Zeit immer wichtiger. Sei es, dass im Vergleich zu bisherigen analogen Übertragungen bei gleicher Qualität mehr Programme übertragen werden sollen oder bei gleicher An­ zahl Kanäle eine höhere Qualität geboten werden soll, die Lö­ sung heißt digitale Übertragung. Dabei wird zuerst eine Da­ tenreduktion durchgeführt, weil sonst eine viel zu große Bandbreite für die Übertragung zur Verfügung gestellt werden müsste. Im Rahmen einer Quellenkodierung werden zu diesem Zweck die für die subjektive akustische bzw. optische Wahr­ nehmung irrelevanten bzw. redundanten Daten weggefiltert, so dass bei der Rekonstruktion praktisch kein oder nur ein ak­ zeptierbar kleiner Unterschied zum Originalsignal entsteht. Allerdings wird durch diese Operation das Signal anfälliger für Störungen. Deshalb muss für die meisten Übertragungska­ näle ein entsprechender Fehlerschutz hinzugefügt werden, wo­ durch die Datenmenge wieder leicht größer wird. Das Problem der Datenreduktion besteht einerseits darin, die Bandbreite B und Datenrate R des Übertragungssignals so klein wie möglich zu halten, andererseits dürfen bei der Quellenkodierung nur so viele Signalanteile durch Filterung eliminiert werden, dass das übertragene Signal ohne hörbare bzw. sichtbare Be­ einträchtigungen empfangen werden kann.
Die subjektiv nicht oder kaum wahrnehmbare Reduktion irrele­ vanter bzw. redundanter Signalanteile kann durch eine ge­ schickte Ausnutzung gewisser psychooptischer und psychoakustischer Effekte erreicht werden. Zum Teil werden einige die­ ser Effekte bereits im Bereich der Quellenkodierung ausge­ nutzt. In der Optik sind das unter anderem die folgenden Ef­ fekte:
  • - Mach-Effekt: Kontrastübergänge an Kanten werden vom menschlichen Auge verstärkt wahrgenommen.
  • - Oblique-Effekt: In der Natur sind überwiegend horizontale und vertikale Strukturen anzutreffen. Der Mensch ist des­ halb bei der Orientierung weniger auf diagonale Strukturen angewiesen. Letztere können also bei der Kodierung rudi­ mentär behandelt werden.
  • - Flächenintegration: Je grösser eine einfarbige Fläche ist, desto genauer können Farb- und Helligkeitswerte aufgelöst werden - das Auge kann "integrieren". Der Kodierer muss also große Flächen (das heißt kleine Ortsfrequenzen Ω1 bzw. Ω2 im zweidimensionalen Ortsraum) genauer quantisie­ ren als kleine.
Da akustische bzw. optische Signale über einen hohen Anteil irrelevanter bzw. redundanter Information verfügen, kann bei dieser Art von Signalen eine Quellenkodierung erfolgreich eingesetzt werden. Ein Signal enthält redundante Information, wenn diese durch Kenntnisse der Statistik der Nachrichten­ quelle vorhersagbar ist. Wenn etwa zwei benachbarte Bild­ punkte untereinander korrelieren, spricht man von räumlicher Redundanz, bei korrelierenden Farbflächen oder Frequenzbän­ dern von spektraler Redundanz. Die Ähnlichkeit zweier aufein­ ander folgender Bilder wird als zeitliche Redundanz bezeich­ net. Der Kodierer kann dem Signal redundante Information ent­ ziehen, wenn er die Quellenstatistik kennt. Das Signal kann - abgesehen von Rundungsfehlern - wieder vollständig rekonstruiert werden. Die Redundanz R(X) eines digitalen Signals, das durch die Bitfolge X := {xi|0 < = i < = M - 1} mit den Datenbits xi ∈ {0; 1} repräsentiert wird, liefert also keine zusätzliche Information, ist aber unter Umständen zur Absicherung der Nutzinformation vorteilhaft. Zur Ermöglichung von Algorithmen zur Fehlererkennung und/oder Fehlerkorrektur für ein übertra­ genes Datensignal ist beispielsweise redundante Information in Form von Paritätsbits und Prüfsummen notwendig.
Ein Maß für den Informationsgehalt eines digitalen Signals, das durch die Bitfolge X := {xi|0 < = i < = M - 1} mit den Datenbits xi ∈ {0; 1} repräsentiert wird, ist die Entropie H(X) des Sig­ nals. Die Entropie ist dabei eine untere Schranke für die bestenfalls erreichbare durchschnittliche Kodewortlänge. Der Huffman-Algorithmus kommt dieser Schranke am nächsten. Das Ziel der Redundanzreduktion ist, mittels einer Transformation die Datenrate der Quelle zu verringern, so dass eine effi­ ziente Entropiekodierung möglich wird. Die Signalanteile, die das Auge bzw. das Gehör auf Grund des beschränkten Auflö­ sungsvermögens nicht aufnehmen kann, sind irrelevant und brauchen bei der Kodierung nicht berücksichtigt zu werden, sie sind allerdings durch den Dekodierer nicht wiederher­ stellbar. Auch hier trifft man auf räumliche, spektrale und zeitliche Irrelevanz. Idealerweise sind Verluste, die durch Datenreduktion entstehen, nur messtechnisch und nicht subjek­ tiv erfassbar. In realen Anwendungen jedoch ist es manchmal leider nicht vermeidbar, auch auf Teile der relevanten und nicht redundanten Information zu verzichten, wenn akzeptable Kompressionsfaktoren erreicht werden sollen. Das grundlegende Problem ist also, dass zur Zeit keine vollständige Reduktion irrelevanter bzw. redundanter Daten betrieben werden kann, ohne dass bei der Signalübertragung auch für eine optimale Empfangsqualität relevante und nicht-redundante Signalanteile vernachlässigt werden müssen.
Die digitale Echtzeitübertragung von Audio- und Videodaten stellt bisher noch nicht dagewesene Anforderungen an die Rechenleistung von Prozessoren und die Eigenschaften der Ü­ bertragungsnetze, und es müssen verschiedene Aufgaben gelöst werden, bevor eine befriedigende Lösung weitverbreitet verfügbar wird. Digitales Video stellt dabei bei weitem die höchsten Ansprüche an die Übertragung: Es braucht eine große Bandbreite, es muss mit minimaler Verzögerung übertragen wer­ den und toleriert keine hohe Fehlerrate. Auch nach der Komp­ rimierung und Kodierung benötigt eine Videoübertragung in Broadcastqualität immer noch eine Datenrate von R = 4 Mbit/s bis 10 MBit/s; das ist eine unannehmbar hohe Datenrate für die heute verfügbaren lokalen Netze (LANs) und die meisten größeren Netze (WANs). Verzögerungen bei Videodaten sind des­ halb kritisch, weil die Einzelbilder mit einer Bildwiederhol­ frequenz von fa = 25 (bzw. 30) Bilder/s dargestellt werden müssen. Die digitale Echtzeitübertragung von breitbandigen Signalen bringt also das Problem mit sich, dass einerseits die heute verfügbaren Netze die erforderliche hohe Datenrate nicht bereitstellen können, andererseits aber wegen der ge­ wünschten hohen Signalqualität eine notwendige Mindestdaten­ rate nicht unterschritten werden darf, insbesondere bei der Übertragung digitaler Bildsequenzen im Multimediabereich.
Echtzeitübertragungen von Videosignalen vertragen insbeson­ dere keine Schwankungen der absoluten Verzögerungszeit der einzelnen Abtastbilder (engl.: "Frames"), wie sie aber bei den meisten verfügbaren Netzen üblicherweise auftreten, was ein weiteres Problem darstellt.
Kommunikationsnetze sind außerdem nie fehlerfrei und stören so die Übertragung, indem zum Beispiel einzelne Bits ver­ fälscht werden oder ganze Pakete verloren gehen. Das wirkt sich wiederum störend aus, da das komprimierte Videosignal auf Fehler besonders anfällig ist, weil die örtliche und zeitliche Redundanz zuvor entfernt wurde. Nicht zuletzt sind die unvermeidbaren Störungen im Kommunikationsnetz Ursache für weitere Probleme bei der digitalen Echtzeitübertragung.
Die vom Kommunikationsnetz zur Verfügung gestellte Leistung hängt von verschiedenen Parametern wie Datenrate, Verzöge­ rung, Verzögerungsschwankungen und Fehlerwahrscheinlichkeit ab, die als "Quality of Service"-Parameter (QoS-Parameter) bezeichnet werden. Viele der bestehenden Netze garantieren dem Benutzer aber keine bestimmten Grenzen für die QoS-Para­ meter, was bedeutet, dass diese sich in unvorhersehbarer Wei­ se ändern können. (Eine Ausnahme ist z. B. B-ISDN über ATM, bei dem bei Verbindungsaufbau die QoS-Parameter signalisiert werden.) Um einen zuverlässigen und effektiven Videokommuni­ kationsdienst über diverse Netze anbieten zu können, ist es wichtig, die QoS-Anforderungen von kodierten Videosignalen zu kennen. Nachfolgend werden einige wichtige Aspekte in diesem Zusammenhang herausgestellt, die zeigen, dass es nicht mög­ lich ist, alle Anforderungen zu erfüllen, da sie sich zum Teil widersprechen.
Zuerst sollen daher die "idealen" Übertragungsanforderungen für digitales Video betrachtet werden, also die Höhe der Qualitätsstufe, die die digitalen Netze zur Verfügung stellen sollen.
In einem idealen digitalen Videokommunikationssystem sollte die vom Benutzer wahrgenommene Bildqualität weder vom Kodie­ rer bzw. Dekodierer noch vom Übertragungsmedium abhängen. Das ist jedoch nicht möglich, da diese beiden Faktoren in der Praxis eine Signalverschlechterung erzeugen, die zusätzlich zu den Begrenzungen von Aufnahmespeicherung (Rekorder) und Darstellung (Display, Monitor) auftreten. Unter der Annahme, dass ein solches System die Videoqualität auf einer bestimmten Stufe ansetzt, sollte diese über die gesamte Übertra­ gungsdauer auch konstant sein. Außerdem sollte die darge­ stellte Qualität unabhängig vom Szeneninhalt und vom momenta­ nen Systemzustand sein. In Wirklichkeit kann der Szeneninhalt eine bedeutende Auswirkung auf die momentane Datenrate haben und die Videoqualität kann vom momentanen Zustand des Über­ tragungsnetzes (Verkehrswert) abhängen.
Idealerweise sollte eine dekodierte Videosequenz keine Ver­ schlechterungen zeigen aufgrund von Fehlern oder Verlusten im Kommunikationssystem (zum Beispiel durch Bitfehler infolge von störendem Rauschen, durch verlorene oder fehlgeleitete Pakete etc.). Das menschliche visuelle Wahrnehmungssystem ("Human Visual System", HVS) reagiert sehr empfindlich auf Fehler oder Verschlechterungen in der Bildinformation. Ein Fehler, der nur in einem einzelnen Bild (Frame) auftritt, ist für 1/25 s (bzw. 1/30 s) sichtbar und wird keinen großen Ein­ fluss auf den Zuschauer haben, es sei denn er betrifft einen sehr großen Bildbereich. Wenn viele solcher Einzelfehler in einer Sequenz auftreten, wird es als Flimmern wahrgenommen und wirkt störender. Wirkt sich ein Fehler oder eine Signal­ verschlechterung über mehrere Frames hinweg aus, ist es sehr wahrscheinlich, dass dies vom Betrachter wahrgenommen und auch beanstandet wird. Ein Videokommunikationssystem sollte daher versuchen, das Erscheinen von Fehlern durch die Über­ tragung oder die Datenreduktion im Bild möglichst klein zu halten, besonders bei Fehlern, die sich auf mehrere deko­ dierte Bilder auswirken.
Die Verzögerung ist ein wichtiger Faktor bei der Darstellung von Echtzeitdaten wie digitalem Video und die Gesamtverzöge­ rungszeit des Systems ist besonders bedeutend bei der Zwei­ wegkommunikation (z. B. Videotelefonie). Idealerweise sollten in beide Richtungen keine wahrnehmbaren Verzögerungen auftre­ ten. Jede deutlich merkliche Verzögerung führt zu Kommunikationsschwierigkeiten. Zum Beispiel wird eine normale Unter­ haltung sehr schwierig, wenn die Verzögerung Δtv = 300 ms ü­ berschreitet. Wenn zusätzlich der Ton dem Bild vor- oder nacheilt, verliert der Benutzer die Synchronisation (z. B. die Lippensynchronisation beim Reden). Für viele verwendete oder sich in Planung befindliche Videodienste (Video on Demand, Homeshopping etc.) ist es wichtig, dass keine merkliche Ver­ zögerung zwischen den Steuerbefehlen des Benutzers und der Reaktion des Dienstes auftritt.
Bei Einwegübertragungen (z. B. digitales Satellitenfernsehen) ist die Gesamtverzögerungszeit nicht so bedeutend, umso mehr muss darauf geachtet werden, dass keine Schwankungen der absoluten Verzögerung auftreten. Da jede Bild- und Toninfor­ mation dem Anwender mit einer konstanten Rate präsentiert werden muss, müssen eventuelle Schwankungen vor der Darstel­ lung ausgeglichen werden.
Ein Videoübertragungssystem ist dafür verantwortlich, dass die Videodaten von einem Ende bis zum anderen gelangen. Der QoS bezieht sich auf die Dienstebene, die der Videoanwendung vom Transportsystem zur Verfügung gestellt wird und ist ge­ kennzeichnet durch die Bandbreite, die Fehlerrate und die Verzögerung. Das Transportsystem kann begrifflich in ein un­ terliegendes Netzwerk und ein Ende-zu-Ende Transportprotokoll aufgeteilt werden. Letzteres verbessert den QoS des unterlie­ genden Netzwerks, um den Ansprüchen des Dienstes zu genügen. Dabei ist dessen Komplexität abhängig von der Fehlanpassung des gebotenen und gewünschten QoS. Wenn das Netzwerk schon die geforderten Bedingungen bezüglich QoS erfüllt, benötigt es kein weiteres Transportprotokoll. Zum Beispiel wird inner­ halb des Internets TCP (engl.: "Transmission Control Proto­ col") als Ende-zu-Ende Protokoll verwendet, um den durch das Netzwerk zur Verfügung gestellten QoS an den von den Anwen­ dungen geforderten anzupassen. Wenn Ressourcen für jede Verbindung innerhalb eines paketvermittelten Netzes reserviert werden, ist es möglich, Garantien für die maximale Verzöge­ rung und minimale Bandbreite abzugeben (z. B. bei B-ISDN über ATM).
Die heute verfügbaren Kommunikationsnetze besitzen Begrenzun­ gen beim QoS. Nachfolgend werden die Auswirkungen dieser Grenzen bei der Übertragung von kodierten Videosequenzen kurz näher betrachtet.
Die verfügbare Datenübertragungsrate hat signifikante Auswir­ kungen auf die Qualität der kodierten Videodaten. Gängige Vi­ deokodierverfahren sind üblicherweise verlustbehaftet, was bedeutet, dass zum Teil wichtige Daten bei der Kodierung und Kompression verloren gehen. Bei jedem verlustbehafteten Vi­ deokodierverfahren ist im Allgemeinen die durchschnittliche Bitrate der kodierten Daten proportional zur dekodierten Dar­ stellungsqualität. Bei Kodierern bzw. Dekodierern für Video­ signale, die auf der Diskreten Kosinus-Transformation (DCT) beruhen, zum Beispiel bei MPEG1 und MPEG2 tritt der Quali­ tätsverlust beim Quantisieren auf. Eine gröbere Quantisierung führt zu einer schlechteren Bildqualität nach der Dekodie­ rung, gleichzeitig findet aber auch eine höhere Komprimierung statt und es resultiert eine geringere Datenrate. Somit ist die Quantisierungsauflösung ein Schlüsselparameter für die Kontrolle der Videobitrate.
Die in der Praxis anzutreffenden Kommunikationsnetze verfäl­ schen die zu übertragenden Daten, indem sie Information ver­ ändern oder verlieren. Sogar eine relativ niedrige Fehlerrate oder ein sehr geringer Datenverlust kann eine ernsthafte Aus­ wirkung auf die dekodierten Sequenzen haben. Kompressionsal­ gorithmen entfernen viel von der vorher vorhandenen örtlichen und zeitlichen Redundanz im Signal, was viel schneller zu Problemen führt, wenn das kodierte Signal verfälscht wird (im Vergleich zu einer Verfälschung des unkodierten Signals). In­ nerhalb eines Abtastbildes (engl.: "Frame") von kodierten MPEG-Videodaten werden die quantisierten DCT-Koeffizienten mit variablen Lauflängenkodes (VLCs) kodiert. Der Dekodierer kennt die Länge des aktuellen VLCs nicht von vornherein; wenn jetzt ein VLC beschädigt wird, ist es möglich, dass der Deko­ dierer eine gesamte Subsequenz falsch dekodiert. Zusätzlich werden einige Daten (z. B. DCT-Koeffizienten und Bewegungsvek­ toren bei MPEG) nicht unabhängig (I-Frames) sondern relativ zu vorhergehenden (P-Frames) oder sogar zukünftigen (B-Fra­ mes) Daten kodiert. Somit führt ein Fehler in einem I-Frame auch zu Folgefehlern in davon abhängigen P- und B-Frames. Für solche Fälle sind im kodierten Bitstrom in regelmäßigen Ab­ ständen Markierungen vorhanden, die dem Dekodierer die kor­ rekte Synchronisation ermöglichen. Solch ein Fehler kann quer durch einen Frame seine Auswirkungen haben, bis die nächste Markierung erreicht wird. Bewegungskompensierte zeitliche Prädiktion kann dazu führen, dass sich der Fehler sowohl zeitlich als auch örtlich fortpflanzt. Fehler, die eine wich­ tige Stelle im Bild betreffen oder sich über mehrere Bilder hinweg ausbreiten, sind für einen Betrachter sehr augenfäl­ lig. Aus diesem Grund kann ein kodiertes Videosignal nur eine sehr niedrige Fehlerrate tolerieren, bevor die Qualität merk­ lich abfällt. Eine Fehlerwahrscheinlichkeit von mehr als Pb = 10-6 (das heisst ein Fehler auf M = 106 Bits) kann schon einen bemerkbaren Qualitätsverlust bedeuten.
B. Bekannte Lösung des allgemeinen Problems nach dem aktuellen Stand der Technik
Die Übertragung von Bild- und Tonsignalen orientiert sich be­ reits heute zum Teil an den psychooptischen bzw. psychoakus­ tischen Eigenschaften des Menschen. Beispielsweise sind im Bereich der Bildübertragungstechnik wichtige Parameter wie Bildwiederholfrequenz und Auflösung deshalb so ausgelegt, dass das Auge einen möglichst natürlichen Bildeindruck er­ hält. Im Folgenden soll auf die wichtigsten Aspekte der Kom­ pression, Übertragung und Dekompression von Bildsignalen nach dem derzeitigen Stand der Technik sowie auf die Rezeption und Verarbeitung dieser Signale im Auge des Betrachters kurz ein­ gegangen werden.
Das Auge erkennt die drei Grundfarben Rot (R), Grün (G) und Blau (B) mit farbselektiven Sehzellen. Deshalb nimmt eine Farbkamera diese drei Farben getrennt auf. Allgemein unter­ scheidet man bei der Wahrnehmung einer Farbe zwischen den drei Farbelementen Helligkeit (Luminanz), Farbton (Chromi­ nanz) und Farbsättigung. Diese Elemente spielen auch in der digitalen Bildübertragungs- und Bildverarbeitungstechnik eine wichtige Rolle. Die Luminanz bezeichnet die Lichtenergie, die das Auge erreicht. Eine Farbe mit großer Energie hinterlässt einen hellen Eindruck, die gleiche Farbe mit geringerer Ener­ gie wird dunkler empfunden. Während die Chrominanz die Art der Farbe und damit die Wellenlänge der empfangenen Strahlung definiert, liefert die Farbsättigung eine Aussage über den Weißwert einer bestimmten Farbe. Bei einer absolut reinen Farbe, also einer Strahlung mit nur einer Wellenlänge (mono­ chromatisches Licht), beträgt die Farbsättigung 100%. Bei ei­ ner zur Hälfte mit Weiß gemischten reinen Farbe beträgt sie nur noch 50%.
Die Bild- oder Helligkeitsinformation eines Videosignals wird auch als Luminanz- oder Y-Signal bezeichnet. Dabei werden die unterschiedlichen Helligkeitswerte eines Bildes in analoge bzw. digitale Spannungswerte umgesetzt, die im Videosignal als Amplitudenänderungen erscheinen. Je schneller die Hell- Dunkel-Information der Bildpunkte einer Bildzeile wechselt, je kleiner also zusammenhängende Bildanteile konstanter Hel­ ligkeit sind, desto größer ist die Frequenz der Signalspan­ nung. Da hohe Frequenzen nur schwer übertragen werden können, ist die Darstellung von Bilddetails, die sogenannte Bildauf­ lösung, begrenzt. Durch die CCIR-Norm ist die höchste über­ tragene Signalfrequenz eines Videosignals mit fmax = 5 MHz vorgegeben. Damit sind die Bandbreite und die maximale Bild­ auflösung festgelegt.
Die Farbinformation eines Videosignals wird im Rahmen der Signalaufbereitung nach der PAL-Fernsehnorm durch einen Hel­ ligkeitswert (Luminanz), einen Farbwert (Chrominanz) und die Farbsättigung ausgedrückt. Diese drei Komponenten müssen auch bei der Übertragung eines Farbbildes vorhanden sein. Zur Er­ zeugung eines Farbbildes wandelt eine digitale Farbbild- bzw. Videokamera das durch das Objektiv einfallende farbige Licht in drei elektrische Signalspannungen UR, UG und UB um. Diese drei Signalspannungen entsprechen den Rot-, Grün- und Blauan­ teilen des Bildes. Man bezeichnet diese Signalspannungen als RGB-Signal. Im RGB-Signal sind die Komponenten Luminanz, Chrominanz und Farbsättigung bereits enthalten. Das Luminanz­ signal wird dabei gemäß der Dreifarbentheorie aus den RGB- Signalwerten, also durch additive Überlagerung von Farbsig­ nalanteilen der drei Primärfarben des additiven Farbsystems, gewonnen. Aus der Dreifarbentheorie ist bekannt, dass sich jede sichtbare Farbe durch Farbmischung aus den drei Primär­ farben zusammenstellen lässt. Als Primärfarbe gelten diejeni­ gen Farben, die nicht durch Mischung aus anderen Primärfarben erzeugt werden können. Nach Beschluss durch die Internatio­ nale Beleuchtungskommission (IBK), auch "Commission Interna­ tionale de l'Eclairage" (CIE) genannt, wurden als Primärfar­ ben Rot (R, λ = 700 nm), Grün (G, λ = 546,1 nm) und Blau (B, λ = 435,8 nm) festgelegt. Durch additive Farbmischung der drei Primärfarben kann Licht verschiedenster Farbe erzeugt werden. Um beispielsweise die Farbe Weiß mit 100% Sättigung zu erhalten, werden die Signalspannungen der drei Primärfar­ ben nach der folgenden Formel addiert:
UY = 0,30.UR + 0,59.UG + 0,11.UB
mit den Spannungsamplituden
UY: für die Signalspannung der wahrgenommenen Farbe Weiß,
UR: für die Signalspannung des übertragenen Farbanteils Rot,
UG: für die Signalspannung des übertragenen Farbanteils Grün,
UB: für die Signalspannung des übertragenen Farbanteils Blau.
Die Information für Chrominanz und Farbsättigung erhält man, indem man die Signalspannung UY für den Luminanzwert Y von den Signalspannungen UR, UG bzw. UB des RGB-Signals subtra­ hiert. Es entstehen somit die Farbdifferenzsignale UR-Y, UG-Y bzw. UB-Y. Da das menschliche Auge für Farbunterschiede klei­ ner Bilddetails weniger empfindlich ist als für Helligkeits­ unterschiede dieser Bildausschnitte und das breitbandige Y- Signal separat übertragen wird, kann die Bandbreite B der Farbdifferenzsignals auf B = 1,2 MHz begrenzt werden.
Zur Bildreproduktion im Monitor des Empfängers reichen die drei Komponenten Rot, Grün und Blau aus. Daher genügt es (bei vorhandenem Y-Signal), nur zwei Farbwerte und den Luminanz­ wert zu übertragen. In der Praxis überträgt man deshalb neben dem Y-Signal nur die beiden Farbdifferenzsignale R-Y und B-Y. Das Farbdifferenzsignal G-Y wird nicht übertragen, da es die größte Signalamplitude besitzt und daher am meisten den Sig­ nal-Rausch-Abstand des übertragenen Videosignals beeinflusst. Um weiterhin eine Übermodulation des Senders zu vermeiden, werden die beiden Farbdifferenzsignale R-Y und B-Y in ihrer Amplitude begrenzt. Das begrenzte R-Y-Signal wird dann auch als V-Komponente, das begrenzte B-Y-Signal als U-Komponente bezeichnet. Im Monitor des Empfängers lassen sich die drei Primärfarben Rot (R), Grün (G) und Blau (B) zurückgewinnen, indem man die empfangene Y-Komponente zu den empfangenen Farbdifferenzsignalen R-Y und B-Y addiert, also die folgende Matrix-Vektor-Multiplikation ausführt:
Die Farbe Grün (G) ergibt sich sich so beispielsweise als
G = Y - 0,19.(B-Y) - 0,51.(R-Y) = 1,70.Y - 0,19.B - 0,51.R.
Das europäische PAL-Farbfernsehen stellt eine Weiterentwick­ lung des amerikanischen NTSC-Systems dar. Bei beiden Systemen wird die Farbinformation mit Hilfe einer Quadraturmodulation übertragen, da systembedingt nur ein hochfrequentes Träger­ signal zur Verfügung steht, aber zwei Farbinformationsignale (R-Y und B-Y für die Komponenten V und U) mit demselben Trä­ ger übertragen werden müssen. Das Farbsignal besteht also aus zwei um 90° phasenversetzten modulierten Trägerschwingungen. Die Modulation der V-Komponente erfolgt beim NTSC-System al­ lerdings nur auf der positiven V-Achse. Eine alternierende Umschaltung der Farbträgerphase zur Kompensation von Phasen­ fehlern gibt es in diesem System nicht. Folglich ist das NTSC-System störanfälliger gegenüber Phasenfehlern bei der Übertragung.
Damit eine flüssige Bildfolge entsteht, müssen mindestens 16 Vollbilder pro Sekunde abgetastet und übertragen werden. Um jedoch einen flimmerfreien Eindruck zu erhalten, ist eine Bildwiederholfrequenz von mindestens fa = 50 Hz notwendig. Es reicht allerdings aus, zwei verzahnte Halbbilder mit jeweils 50 Hz zu übertragen, wobei die Bandbreite gleich groß wie bei 25 Vollbildern bleibt. Die Zeilenzahl wurde (bei PAL) mit 625 Zeilen so festgelegt, dass die vertikale Auflösung in etwa der des Auges entspricht. Die horizontale Auflösung wird durch die Videobandbreite bestimmt und wurde der vertikalen angepasst.
Anstelle einer vollständigen Übertragung der drei Grundfarben werden Verfahren angewandt, die mit weniger Bandbreite aus­ kommen. Es werden die Helligkeit (Luminanz oder Y) mit der vollen Bandbreite B = 5 MHz, die Differenzsignale Blau minus Luminanz (B-Y) und Rot minus Luminanz (R-Y) mit der re­ duzierten Bandbreite von je ca. B = 1,3 bis 1,5 MHz gesendet. Die Luminanz ist für die Bildschärfe maßgebend (volle Band­ breite), während die Farbinformation weniger genau übermit­ telt werden muss. Im Basisband-Spektrum des übertragenen Com­ posite-Signals aus Y-, R-Y- und B-Y-Signal belegt die Lumi­ nanz (Y) fast die ganze Kanalbandbreite. Die Farbinformatio­ nen B-Y (U) und R-Y (V) werden einem Träger aufmoduliert, der - um Interferenzen zu vermeiden, Bandbreite zu sparen und kompatibel zum vorhergehenden Schwarz-Weiß-Fernsehsystem zu sein - im Bereich geringer spektraler Energiedichte der Lumi­ nanz liegt. Das Audiosignal wird ebenfalls moduliert und am oberen Rand des Kanalspektrums untergebracht.
Da die Bild- und Tonsignale nach wie vor analog entstehen, müssen sie für eine digitale Weiterverarbeitung zuerst digitalisiert werden. Unter dem Vorgang des Digitalisierens versteht man die drei Schritte Abtastung (unter Einhaltung des Shannon-Theorems zur Vermeidung von Aliasing-Effekten), Quantisierung und Kodierung.
Übertragungskanäle und Speichermedien haben nur beschränkte Kapazitäten, was aus technischen und ökonomischen Gründen ei­ ne Datenreduktion unabdingbar macht. Ein Videosignal hat bei­ spielsweise eine Datenrate von R = 124,5 MBit/s während ein Satellitenkanal der Bandbreite B = 33 MHz bei einer Bandbreiteneffizienz von η = 1,57 Bit/(s.Hz) lediglich eine Datenrate R = B.η ≈ 52 MBit/s übertragen kann.
Die analogen RGB-Komponenten werden nach der Analog-Digital- Wandlung durch eine lineare Matrixtransformation in den YUV- Farbraum konvertiert, was die spektrale Redundanz verringert. Ferner werden so die hohen Frequenzen in der Luminanzkompo­ nente konzentriert, weil das Auge hohe Chrominanzfrequenzen nicht so gut auflösen kann. Nach einer Tiefpassfilterung (zur Vermeidung von Aliasing-Effekten) werden die Chrominanzkompo­ nenten um den Faktor 2 horizontal und vertikal unterabgetas­ tet.
Zwei zeitlich aufeinanderfolgende Bilder eines Videosignals sind - Szenenwechsel ausgenommen - sehr ähnlich und beinhal­ ten zeitliche Redundanz. Wird jedoch nur das Differenzbild kodiert, fällt die Entropie wesentlich günstiger aus. Weitere Verbesserungen lassen sich erzielen, wenn nicht das Diffe­ renzbild, sondern das bewegungskompensierte Residuum und die entsprechenden Bewegungsvektoren kodiert werden: Dabei wird makroblockweise analysiert, in welche Richtung sich der In­ halt eines Blockes verschiebt. Der Dekodierer erhält diese Information in Form von Bewegungsvektoren. Zur Bildrekon­ struktion werden die Blöcke des alten Bildes gemäß der Vekto­ ren verschoben und das Residuum addiert. Es gibt verschiedene Verfahren zur Bewegungsschätzung. Beim sogenannten "Block- Matching"-Verfahren werden die Makroblöcke in einem definier­ ten Suchbereich verschoben und ein Korrelationsfaktor ρ be­ stimmt. Die Genauigkeit des Algorithmus bestimmt den Entro­ piegewinn und damit die Datenrate.
Mit Hilfe der Diskreten Kosinus-Transformation (DCT) kann dem Signal räumliche Redundanz und Irrelevanz entzogen werden.
Die Darstellung der Bilddaten durch DCT-Koeffizienten hat den Vorteil, dass sich die nur im Blockverbund erfassbare räumliche Redundanz (z. B Farbflächen) durch die Transforma­ tion verringert, weil sich die Signalenergie auf wenige Koef­ fizienten konzentriert. Dies sind die Koeffizienten kleiner Frequenzen und vor allem die Grundfrequenz. Mit Hilfe der DCT lässt sich jedoch auch räumliche Irrelevanz bestimmen und e­ liminieren: Aufgrund des Mach- und Obelique-Effektes kann das Auge hohe Frequenzen und insbesondere diagonale weniger fein auflösen. Die entsprechenden Koeffizienten können also gröber quantisiert werden.
Bei der Quantisierung der DCT Koeffizienten, werden die meis­ ten Werte - bis auf wenige in der Umgebung des Gleichsignal­ anteils (DC) - zu Null. Durch ein Auslesen nach der Zick- Zack-Methode werden die Nullen zu einer Nullfolge zusammenge­ legt. Die Lauflängkodierung fasst jeweils die Anzahl der Nul­ len und den ersten nächsten von Null verschiedenen Koeffi­ zienten zu einem Zahlenpaar zusammen. Anschließend werden diese Paare huffmankodiert, indem dessen Auftrittswahrschein­ lichkeiten bei der Vergabe der Kodewortlängen berücksichtigt wird. Die Kombination dieser beiden Kodierungsarten ist hin­ sichtlich der Bitrate sehr effizient und nähert sich der Ent­ ropie auf ein Optimum.
Im Zusammenhang mit der Kompression und Kodierung von Bewegt­ bildsequenzen existiert eine Reihe von Standards, auf die im Folgenden kurz eingegangen werden soll.
M-JPEG (engl.: "Motion JPEG") ist kein eigentlicher Standard, vielmehr gibt es verschiedene Verfahren, wie der JPEG-Stan­ dard auf Bewegtsequenzen angewandt wird. Es handelt sich hierbei um eine reine Intraframe-Kodierung, d. h. es gibt kei­ ne bildübergreifenden Algorithmen zur Reduzierung der Da­ tenrate. Die Kompression erfolgt durch eine 8 × 8-DCT mit anschliessender Quantisierung und Lauflängenkodierung. M-JPEG wird vor allem im Bereich nichtlinearer Videoschnitte verwen­ det und erlaubt prinzipiell Datenraten von wenigen MBit/s bis hin zu der des unkomprimierten Videosignals. Entsprechend ist auch die Bildqualität unterschiedlich: Eine Datenrate von et­ wa R = 1 MBit/s entspricht ungefähr VHS-Aufzeichnungen, eine Datenrate von R = 25 MBit/s ist beinahe Studioqualität.
Zur Erreichung einer möglichst großen Kompressionsrate werden heute verschiedene Techniken angewandt: Zuerst muss eine an­ gemessene Bandbreite für das zu kodierende Signal gewählt werden. Danach verwendet der Algorithmus eine blockbasierte Bewegungskompensation, um die zeitliche Redundanz zu verklei­ nern. Die Bewegungskompensation kann auf drei Arten gesche­ hen: (a) Vorhersage des momentanen Bildes vom vorhergehenden Bild, (b) Vorhersage des momentanen Bildes von einem zukünf­ tigen Bild oder (c) Interpolation von zwei benachbarten Bil­ dern. Danach wird der Vorhersagefehler (Differenzsignal) mit der DCT komprimiert, indem die räumliche Korrelation entfernt und anschliessend quantisiert wird. Zum Schluss werden die Bewegungsvektoren mit der DCT-Information zusammengeführt und mit einem variablen Lauflängenkodierer kodiert. Anschließend ist für die Videodaten eine optionale Fehlerkorrektur vorge­ sehen. MPEG1 wird vor allem für die Speicherung von Videofil­ men auf CD und im Heimcomputerbereich auf CD-ROM verwendet. Die Datenrate (Bild und Ton) liegt nach dem Standard bei R = 1,5 MBit/s, es gibt aber zahlreiche Anwendungen, die auch größere Datenströme nach dem MPEG1-Standard verwenden.
Während MPEG1 im Multimediabereich mit dem Speichermedium CD bei geringen Datenraten von R ≈ 1,15 MBit/s seine Anwendung findet, dient die Erweiterung MPEG2 der Übertragung von Fern­ sehsignalen im Zeilensprungverfahren. MPEG2 sieht Datenraten von bis zu R = 15 MBit/s vor, wobei schon R = 6 MBit/s mit der Qualität der PAL-Norm vergleichbar und R = 9 MBit/s subjektiv kaum vom Original (Studioqualität, RGB) zu unterschei­ den ist (Visuelle Transparenz). Es erreicht seine hohen Kom­ pressionsfaktoren durch Differenzkodierung mit Bewegungs­ schätzung, einer DCT mit adaptiver Quantisierung und an­ schliessender Entropiekodierung.
Die zur Übertragung oder Speicherung eines digitalen Signals bei vorgegebenem Quantisierungsfehler notwendige Datenmenge lässt sich in vielen Fällen deutlich verringern, wenn die statistischen Bindungen zwischen benachbarten Abtastwerten des digitalen Signals berücksichtigt werden. Ein bekanntes Verfahren zur Datenreduktion redundanter und irrelevanter di­ gitaler Bildsignale ist die sogenannte "Differenz-Pulskodemo­ dulation" (DPCM). Im Vergleich zu technisch aufwendigeren Al­ ternativmethoden ist die einfache Methode der DPCM-Kodierung sehr effektiv. Bei DPCM wird der Schätzfehler, also die Dif­ ferenz zwischen Originalsignal und einer durch lineare Filte­ rung erhaltenen Vorhersage eines Prädiktors, anstelle des O­ riginalsignals übertragen. Der erreichbare Grad der Datenre­ duktion hängt dabei von der Güte des Prädiktionsfilters ab. Der Prädiktor ist im einfachsten Fall ein Laufzeitelement, dessen Verzögerungszeit der Abtastperiode Δt des digitalen Signals entspricht; der Vorhersagewert ist dann bis auf den Quantisierungsfehler gleich dem letzten Abtastwert. Eine Ver­ besserung der Prädiktion kann erreicht werden, wenn als Prä­ diktoren Transversalfilter benutzt werden, die den Vorhersa­ gewert als gewichtete Summe über mehrere vorausgehende Ab­ tastwerte bilden. Der bei DPCM-Übertragung erzielbare Gewinn kann wie folgt bestimmt werden: Gegeben sei ein gaußverteil­ tes, gleichanteilfreies Testsignals s(t) mit endlicher Länge und damit endlicher Signalenergie
der Standardabweichung σs und der Sendeleistung Sa = σ 2|s. In der Systemtheorie besitzt s(t) aufgrund der obigen Definition der Signalenergie E die Einheit [s(t)] = √W; in der Praxis handelt es sich bei dem Signal s(t) jedoch um eine reale Sig­ nalspannung u(t) (in V) für t ∈ [t1; t2] an einem Widerstand R (in Ω) bzw. einen realen Signalstrom i(t) (in A), der wäh­ rend der Zeit t ∈ [t1; t2] durch diesen Widerstand R (in Ω) fließt. Die Signalenergie ist dann
für t ∈ [t1; t2]. Nach Abtastung und Quantisierung dieses ana­ logen Signals s(t) (nach der Definition im Sinne der System­ theorie) entsteht das digitale Signal s(n) mit der Autokorre­ lationsfunktion
In diesem Fall kann gezeigt werden, dass die Quantisierungs­ fehlerleistung Nq bei DPCM-Übertragung im Vergleich zu reiner PCM-Übertragung um den Faktor
gesenkt werden kann. Dazu ein Beispiel: Die Luminanzkompo­ nente (Y) von Fernsehbildsignalen wird bei einer Übertragung nach dem Verfahren der normalen "Pulskodemodulation" (PCM) mit einer Abtastrate von fa = 1/Δt = 10 MHz abgetastet und quantisiert, wobei das Signal mit k = 8 Bit/Abtastwert ko­ diert wird. Bei dieser Abtastfrequenz besitzt die Autokorre­ lationsfunktion für unmittelbar benachbarte Bildpunkte den Wert
Bei der einfachsten Form der DPCM-Kodierung, bei der die Dif­ ferenzsignalwerte je zweier unmittelbar benachbarter Abtast­ werte des Originalsignals übertragen werden, kann somit die Quantisierungsfehlerleistung um den Faktor
vermindert werden. Da die Nutzsignalleistung Sa bei DPCM die gleiche wie bei PCM ist, wird auch das Signal-zu-Stör-Ver­ hältnis Sa/Nq um 12 dB verbessert.
Neben den erwähnten Standards ist nach dem heutigen Stand der Technik noch eine Reihe weiterer Standards im Bereich der Bildkodierung üblich.
Zur Regulierung der Helligkeit aufgenommener Bilder werden nach heutigem Stand der Technik Fotoapparate und Videokameras mit automatischen Blendenregelungen, im englischen Sprach­ gebrauch "Auto-Iris-Control" oder "Auto-Lens-Control" (ALC) genannt, eingesetzt. Bei einer durch den zeitvarianten Licht­ strom Φ(t) (in lm) und die zeitvariante Beleuchtungsstärke E(t) (in lx = lm.m-2) gekennzeichneten Umgebungshelligkeit kann die Blendenöffnung durch einen Stellmechanismus verän­ dert und somit die auf den Bildwandler fallende Lichtmenge
bzw. die Belichtung
beeinflusst werden. Die Öffnung der Blende hat somit großen Einfluss auf die Qualität der reproduzierten Bilder. Die Blendenöffnung muss dabei ständig an die jeweilige Aufnahme­ situation angepasst werden. Dazu ist jedoch eine gewisse Ver­ zögerungszeit ΔtvB unvermeidlich. Die automatische Blendenre­ gelung besteht aus einem elektronisch-mechanischen Regel­ kreis, der die Blendenöffnung so regelt, dass vom Bildwandler immer noch ein mittlerer Luminanzpegel abgegeben wird. Das Regelsignal für den Stellmotor der Blende wird dabei aus ei­ ner Rückkopplungsschaltung gewonnen, die von einer hellig­ keitsproportionalen Gleichspannung US ~ UY angesteuert wird. Je nach Aufwand der Regelschaltung können mit der ALC-Schal­ tung Beleuchtungsunterschiede zwischen ΔE = 10 lx und ΔE = 100.000 lx ausgeglichen werden. An die ALC-Schaltung werden hierbei besondere Anforderungen gestellt. So müssen zum Bei­ spiel spontane Helligkeitsänderungen oder starke Helligkeits­ kontraste innerhalb eines Bildbereichs so schnell wie möglich und ohne Regelschwingungen ausgeglichen werden.
Um eine Übersteuerung durch zu hohe Luminanzpegel UY zu ver­ hindern, sind in herkömmlichen Videokameras ferner sogenannte signalverarbeitende "Weiß-Begrenzer-Schaltungen" als Chip in­ tegriert.
C. Unzulänglichkeiten, Auswirkungen und Nachteile der bekann­ ten Lösung
Die heute im Handel erhältlichen Videokameras führen eine au­ tomatische Helligkeitsregulierung sowie einen automatischen Weiß-Abgleich durch. Zur Redundanzreduktion für das zu über­ tragende digitale Videosignal, das im Zeitbereich durch das abgetastete und quantisierte digitale Datensignal
d. h. s(n) ∈ {0, . . ., 0, s0, s1, . . ., sn, . . ., sN, 0, . . ., 0},
gegeben ist, wird dabei sendeseitig ein Verfahren zur Kom­ pression und Kodierung bzw. empfangsseitig ein Verfahren zur Dekompression und Dekodierung eingesetzt, bei dem als Nutz­ signal zu jedem aktuellen Abtastzeitpunkt n Differenzbilder
Δsn+m = sn+m - sn ∀ n ∈ IN mit 0 ≦ n ≦ N - m für m = 1
je zweier zeitlich aufeinanderfolgender Abtastbilder gesendet und - um die für die Übertragung zwischen Signalquelle und Signalsenke benötigte Zeitdauer Δtü verzögert - zum Abtast­ zeitpunkt n+m empfangen werden. Anstelle des Abtastzeitpunk­ tes tn = n.Δt bzw. tm = m.Δt wurde in obigen Formeln jeweils abkürzend n bzw. m geschrieben.
Zur Kodierung und Kompression wird im Allgemeinen eine Dis­ krete Kosinus-Transformation (DCT) in Zusammenhang mit einer Lauflängen- oder Huffman-Kodierung verwendet. Die aktuellen kodierten Differenzbilder werden zu jedem Abtastzeitpunkt n übertragen, unabhängig davon, ob und wie viele Bildpunkte des zu übertragenden Videosignals während einer Abtastperiode Δt (Δt := tn - tn-1) zwischen zwei zeitlich unmittelbar aufeinan­ derfolgenden Abtastzeitpunkten n und n+m eine Änderung in ih­ rer Luminanz (Y), Chrominanz (U,V) und/oder Farbsättigung er­ fahren. Für eine digitale Bildsignalverarbeitung ist diese Methode jedoch nicht geeignet, weil sie eine hohe Auslastung oder sogar Überlastung des Kodierers und trotz Lauflängen- und Huffman-Kodierung eine entsprechend hohe Datenübertra­ gungsrate verursacht. Dieses Problem besteht dabei nicht nur bei Videosignalen, sondern auch bei Audiosignalen. In den handelsüblichen Übertragungssystemen für Bild- bzw. Tonsig­ nale kommen daher heute Methoden der Quellen- und Kanalkodie­ rung zum Einsatz, mit deren Hilfe die Datenübertragungsrate gesenkt werden kann. Dennoch stellen diese Methoden keine be­ friedigende Lösung für das Problem dar, möglichst große Kom­ pressionsfaktoren zu erreichen, ohne dabei die Qualität des empfangenen Bild- bzw. Tonsignals zu beeinträchtigen.
Eine weitere Unzulänglichkeit ist, dass bei dem geschilderten Verfahren zur Übertragung von Differenzsignalen zu jedem Ab­ tastzeitpunkt n die begrenzten Fähigkeiten des auditiven bzw. visuellen Wahrnehmungssystems eines Menschen zur Aufnahme und Verarbeitung von akustischen bzw. optischen Signalen unbe­ rücksichtigt bleiben. Differenzsignale, deren Betrag einen bestimmten Intensitäts-Unterschied ΔIJN bzw. eine bestimmten Frequenz-Unterschied ΔfJN, unterschreiten, können vom mensch­ lichen Gehör bzw. Gesichtssinn nicht wahrgenommen bzw. verar­ beitet werden. Dennoch werden bei den konventionellen Über­ tragungssystemen für Video- bzw. Audiosignale auch Differenz­ signale übertragen, die von Störsignalen in der Umgebung des Signalempfängers überlagert und damit teilweise oder ganz verdeckt werden und folglich vom menschlichen Ohr bzw. Auge nicht wahrgenommen werden können. Daher macht es keinen Sinn, Differenzsignale zu jedem Abtastzeitpunkt n zu senden bzw. zu empfangen, da das menschliche Gehör bzw. der menschliche Ge­ sichtssinn ohnehin nicht in der Lage ist,
  • a) Intensitätsunterschiede ΔI bzw. Frequenzunterschiede Δf, für die ΔI < ΔIJN bzw. Δf < ΔfJN gilt, und
  • b) von Störsignalen in der Umgebung der Signalquelle und/oder Signalsenke vollständig verdeckte Nutzsignalanteile Lnutz(f), für die Lnutz(f) ≦ Lstör(f) gilt,
wahrzunehmen und zu verarbeiten.
Ein weiteres Problem, das im Folgenden geschildert wird, ist nach dem derzeitigen Stand der Technik noch ungelöst. Falls ein Teilbereich einer Bildszene eine Helligkeitsänderung er­ fährt, zum Beispiel bei einem kurzzeitigen Schwenken der Vi­ deokamera gegen die Sonne oder einen stark lichtreflektieren­ den metallischen Gegenstand, führt dies zu einer kurzzeitigen (in der Regel wenige Abtastperioden Δt andauernden) Überbe­ lichtung des Films, da eine automatische Blendenregelung ei­ ner in die Kamera integrierten ALC-Vorrichtung erst nach der Verzögerungszeit ΔtvB (ΔtvB < Δt) wirksam wirksam werden kann. Dies hat zur Konsequenz, dass einzelne Verstärkerstufen auf­ grund dieser Signalspitzen übersteuert werden, und es kommt zu Signalverzerrungen. Nach dem Wirksamwerden des oben er­ wähnten ALC-Verfahrens kann allerdings nur eine Helligkeits­ regulierung für das gesamte Aufnahmebild durchgeführt werden, nicht jedoch für einzelne Teilbereiche des Bildes. Das bedeu­ tet, dass bei Einsatz der automatischen Blendenregelung stets alle Bildpunkte eines Wiedergabebildes eine Helligkeitsände­ rung erfahren, obwohl unter Umständen nur ein kleiner Teilbe­ reich der aufgenommenen Szene heller bzw. dunkler geworden ist. Bei der kurzzeitigen Aufnahme eines Gegenstands bzw. ei­ ner Person vor einem sehr hellen Hintergrund (zum Beispiel bei einer Gegenlichtaufnahme) erscheint der abgebildete Ge­ genstand bzw. die Person auf dem Wiedergabebild, bezogen auf den Hintergrund, als extrem dunkel.
D. Durch die Erfindung zu lösende spezielle Aufgabe
Der vorgelegten Erfindung liegt daher die Aufgabe zugrunde, die bestehende Situation mit technischen Mitteln zu verbes­ sern. Somit widmet sich die Erfindung vorrangig der Aufgabe, ein zuverlässig arbeitendes, verbessertes Verfahren zur Rege­ lung der Kompression und Kodierung bzw. Dekompression und De­ kodierung für die Übertragung von digitalen bzw. analogen Da­ tensignalen, zum Beispiel für Videosignale, bereitzustellen. Auf diese Weise kann der Anteil redundanter bzw. irrelevanter Information reduziert und damit die Datenübertragungsrate R verringert werden.
Diese Aufgabe wird durch ein Gerät mit Merkmalen nach Patent­ anspruch 1 gelöst. Die erfindungsgemäße Lösung ist dabei nicht auf Anwendungen im Bereich der Videoübertragungstechnik beschränkt. Sie kann auch bei der Kompression von Audiosigna­ len erfolgreich eingesetzt werden. Da sowohl Video- als auch Audiosignale einen großen Anteil irrelevanter bzw. redundan­ ter Information aufweisen, können diese Signalanteile bei der Übertragung entfallen, ohne dass eine störende Beeinträchti­ gung des empfangenen Signals durch Fehlen wichtiger Bild- bzw. Tonkomponenten wahrgenommen wird.
E. Erfindungsgemäße Lösung der speziellen Aufgabe gemäß den Patentansprüchen und Vorteile dieser Lösung Zu Patentanspruch 1
Die vorliegende Erfindung betrifft ein Verfahren zur Regelung von Signalkomponenten mindestens eines Datensignals (DS). Zur Vereinfachung der Schreibweise soll im Folgenden nur noch von einem Datensignal (DS) die Rede sein, wobei nicht mehr zwi­ schen dem Datensignal (DS) und Signalkomponenten dieses Da­ tensignals (DS) unterschieden wird. Das Datensignal (DS) kann beispielsweise von einer Signalquelle (102) zu einer Signal­ senke (111) übermittelt werden. Bei der Signalquelle (102) kann es sich beispielsweise um einen Signalsender bzw. um ein Aufnahmegerät für Bewegtbildsignale (Fernsehkamera bzw. Vi­ deokamera) handeln, bei der Signalsenke (111) um ein Emp­ fangsgerät für Bewegtbildsignale (Monitor bzw. Display). Die Regelung kann dabei mit Hilfe mindestens eines digitalen Kor­ rektursignals c(n) (KS) zu diskreten Zeitpunkten erfolgen, in Abhängigkeit davon, ob und wann sendeseitig signifikante Än­ derungen einzelner Komponenten des Datensignals (DS) vorlie­ gen. Mit Hilfe dieses Verfahrens ist es möglich, kurzzeitige Störspitzen bzw. -einbrüche einzelner Komponenten im Daten­ signal (DS) bei der Übertragung zu vernachlässigen. Demzu­ folge kann die Datenübertragungsrate R für die Übertragungs­ strecke zwischen Signalsender (102) und Signalempfänger (111) entscheidend gesenkt werden. Bei dem Datensignal (DS) kann es sich entweder um ein analoges Signal s(t) oder ein digitales Signal s(n) handeln, das man nach Abtastung (unter Einhaltung des Shannon-Theorems) und Quantisierung des analogen Signals s(t) erhält. Die Erfindung kann beispielsweise als Bestand­ teil eines Verfahrens zur Kompression und Kodierung, Übertra­ gung sowie zur Dekodierung und Dekompression digitaler Sig­ nale s(n) eingesetzt werden. Die Übertragung der Signalkompo­ nenten des Datensignals (DS) kann dabei diskontinuierlich (das heißt zu diskreten Zeitpunkten in regelmäßigen oder un­ regelmäßigen Zeitabständen) erfolgen, sobald sendeseitig neue Signalkomponenten vorliegen. Mögliche Anwendungsbeispiele der vorliegenden Erfindung sind beispielsweise die komprimierte Übertragung bzw. Speicherung der Luminanz- (Y) und/oder Chro­ minanz-Signalkomponenten (U,V) eines digitalen Videosignals s(n) (DS) bei digitalen Bildübertragungssystemen oder die komprimierte Übertragung bzw. Speicherung der Lautstärke- (L) und Frequenzkomponenten (f) von Audiosignalen s(n) (DS), etwa im HiFi-, Multimedia- bzw. Telekommunikations-Bereich, insbe­ sondere für UMTS-Anwendungen. Denkbar sind aber auch Anwen­ dungsbeispiele, bei denen Signalsender, Übertragungsstrecke und Signalempfänger in einem Gerät lokalisiert sind, wie zum Beispiel bei der Speicherung der Luminanz bzw. Chrominanz ei­ ner aufgenommenen Bildsequenz in Videokameras (102). Das Sen­ designal (DS) ist in diesem Fall das digitalisierte YUV-Sig­ nal, das an der Ausgangsstufe des Bildaufnehmers (102) nach Umrechnung der RGB- in die YUV-Komponenten ausgegeben wird. Dem Übertragungssignal entspricht in diesem Fall das auf ei­ nem Speichermedium, zum Beispiel einer Videokassette, aufge­ nommene komprimierte und kodierte YUV-Signal. Das Empfangs­ signal ist in diesem Fall das auf einem Bildschirm oder Dis­ play (111), das zum Beispiel in die Videokamera (102) integ­ riert sein kann, ausgegebene RGB-Signal, das man nach Umrech­ nung des dekodierten und dekomprimierten YUV-Signals vom YUV- ins RGB-System erhält.
Zu Patentanspruch 2
Zur Reduzierung der Datenübertragungsrate R auf der Übertra­ gungsstrecke zwischen Signalsender (102) und Signalempfänger (111) kann zweckmäßigerweise ein Verfahren zur Erzeugung, Ü­ bertragung und Verarbeitung eines digitalen Differenzsignals (DDS)
Δs(n+m, m) := s(n+m) - s(n) ∀ n, m ∈ IN mit 0 ≦ n ≦ N - m
eingesetzt werden, das durch Subtraktion des digitalen Daten­ signals s(n) (DS) von einem um m Abtastzeitpunkte verschobe­ nen digitalen Datensignal s(n+m) gewonnen wird. Der mit der sendeseitigen Ermittlung, Übertragung und empfangsseitigen Auswertung der Differenzsignale Δs(n+m, m) (DDS) verbundene Vorgang kann für jeden Abtastzeitpunkt n (mit 0 ≦ n ≦ N - m) die folgenden Schritte beinhalten: 1. Zum Abtastzeitpunkt n+m wird der Wert der Signaländerung mindestens eines digitalen Datensignals s(n) (DS) sendeseitig durch Bildung der Diffe­ renz des aktuellen Abtastwerts sn+m zum Zeitpunkt n+m versus eines zu einem früheren Zeitpunkt n sendeseitig gebildeten Abtastwerts sn ermittelt. 2. Der erhaltene Differenzsignal­ wert
Δsn+m := sn+m - Sn
wird mit Vorzeichen und Betrag zum Abtastzeitpunkt n+m sen­ deseitig zu einer Bitsequenz digital kodiert. 3. Die Bitse­ quenz des aktuellen kodierten Differenzsignalwerts wird zum Abtastzeitpunkt n+m zu mindestens einem Empfänger übertragen. 4. Die übertragene Bitsequenz wird nach Verstreichen der Ü­ bertragungszeit Δtü für die Übertragung des Differenzsignal­ werts Δsn+m vom Signalsender zum Signalempfänger empfangssei­ tig zum Abtastzeitpunkt n+m dekodiert. 5. Der vorzeichenbe­ haftete Betrag der Signalwertänderung des aktuell empfangenen Differenzsignalwerts Δsn+m wird zur Rekonstruktion des Daten­ signal-Abtastwerts sn+m empfangsseitig zum Abtastzeitpunkt n+m zu der entsprechenden Signalkomponente des zum Abtastzeit­ punkt n empfangsseitig ausgegebenen Datensignal-Abtastwert sn addiert. 6. Der berechnete neue Abtastwert
sn+m = sn + Δsn+m
des Datensigmals (DS) wird empfangsseitig zum Abtastzeitpunkt n+m ausgegeben.
Der Schutzumfang der Erfindung beinhaltet dabei auch Ausfüh­ rungsbeispiele, die nur den Sende- bzw. Empfangszweig allein beinhalten, also nur die Schritte 1 bis 3 bzw. nur die Schritte 4 bis 6.
Zu Patentanspruch 3
Mit Hilfe mindestens eines sendeseitig ermittelten digitalen Korrektursignals c(n) (KS) kann in die Übertragung des Diffe­ renzsignals Δs(n+m, m) (DDS) gezielt eingegriffen werden. Die­ se Eingriffe können dabei zu diskreten Zeitpunkten erfolgen, in Abhängigkeit davon, ob und/oder wie lange sendeseitig Än­ derungen des Datensignals (DS) vorliegen. In einer speziellen Ausführungsform der vorliegenden Erfindung ist das Kor­ rektursignal c(n) (KS) eine Konstante, die als mittlerer Lu­ minanz- bzw. Chrominanzwert über alle Bildpunkte des digita­ len Bildsignals s(n) zu einem Zeitpunkt n ermittelt wird; allgemein ist c(n) jedoch eine Funktion f1 des unkorrigierten Sendesignals s(n). Das korrigierte Sendesignal skorr(n) ergibt sich dabei als Funktion f2 des originalen Sendesignals s(n) und dieses Korrektursignals c(n). Zusammengefasst ergibt sich also:
c(n) = f1(s(n)) und
Skorr(n) = f2(s(n),c(n)) = f2(s(n),f1(s(n))).
Zur Vereinfachung der Nomenklatur soll im Folgenden nicht mehr zwischen den Signalen s(n) und skorr(n) unterschieden werden, sondern es soll nur noch von einem Sendesignal s(n) die Rede sein. Eine Übertragung des aus s(n) ermittelten di­ gitalen Differenzsignals (DDS) findet dabei erfindungsgemäß nur dann statt, falls das Datensignal s(n) (DS) zu mindestens einem vorgegebenen Zeitpunkt n wenigstens einen als Reakti­ onsniveau geeignet festgelegten Schwellwert σref über- bzw. unterschreitet. Dieser Schwellwert σref kann idealerweise so festgelegt werden, dass die zum Abtastzeitpunkt (n+m) ermit­ telte Änderung Δsn+m des Signals s(n) von einer beliebigen Person gerade noch registriert werden kann.
Zu Patentanspruch 4
Bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte kann es sich dabei um eine fest vorgegebene Ver­ zögerungszeitdauer Δtv (z. B. Δtv = 5,0 s) handeln, die unter Umständen mehrere hundert Abtastperioden Δt umfassen kann. Durch das Abwarten dieser Zeitdauer vor dem Versenden eines neuen Abtastwerts kann gewährleistet werden, dass keine kurz­ zeitig auftretenden, störungsbedingten Signalspitzen im Dif­ ferenzsignal Δs(n+m, m) übertragen werden, die zu einer Über- Regelung des Empfangsgeräts führen können. Somit werden nur langfristig andauernde Änderungen eines Signals übertragen, also Signaländerungen, die mindestens für die Dauer Δtv nach Versenden eines Abtastwerts sn auf einem näherungsweise kon­ stanten Wert bleiben. Folglich gilt dann
Δtv » Δt bzw. k » 1.
Mit Hilfe dieser Verzögerungszeitdauer kann abgewartet wer­ den, bis kurzzeitig andauernde Störspitzen in einem aufgenom­ menen Signal (zum Beispiel bei einer kurzzeitigen Gegenlicht­ aufnahme eines Bildobjekts mit einer Videokamera) abgeklungen sind. Dadurch kann vermieden werden, dass beispielsweise bei einer kurzzeitigen Übersteuerung bzw. Überbelichtung einzel­ ner Frequenz- bzw. Bildbereiche eines aufgenommenen Audio- bzw. Videosignals durch den Einsatz einer Regelschaltung alle Frequenz- bzw. Bildbereiche in ihrer Intensität herabgesetzt werden.
Zu Patentanspruch 5
Bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte σref kann es sich beispielsweise um den fest vor­ gegebenen Effektivwert sref/√2 einer Amplitude sref, die Fre­ quenz fref und/oder die Phase ϕref eines analogen sinusoidalen Referenzsignals sref(t) = sref.cos(2π.freft + ϕref) handeln. Dabei kann sref(t) beispielsweise ein fest vorgegebenes Wechselspan­ nungssignal uref(t) = Uref.cos(2π.freft + ϕref) mit dem Effektivwert Uref/√2 oder Wechselstromsignal iref(t) = Iref.cos(2π.freft + ϕref) mit dem Effektivwert Iref/√2 sein. Sofern die korrespondie­ renden Amplituden-, Frequenz- bzw. Phasenparameter sn, fn bzw. ϕn eines digitalen Datensignals s(n) mindestens einen dieser Schwellwerte über- bzw. unterschreiten, wird zum Ab­ tastzeitpunkt n+m die Übertragung eines neuen Differenzsig­ nalwerts Δsn+m, Δfn+m bzw. Δϕn+m gegenüber dem Abtastzeitpunkt n freigegeben. Somit kann gewährleistet werden, dass nur die von einem Menschen wahrnehmbaren Signaländerungen gesendet, übertragen und empfangen werden. Handelt es sich bei dem di­ gitalen Datensignal s(n) um ein digitales Video- oder Audio­ signal, kann auf die Übertragung von Δϕn+m verzichtet werden, da das menschliche Wahrnehmungssystem nicht in der Lage ist, Phaseninformationen ϕ(t) bzw. Phasenänderungen Δϕ(t) analo­ ger optischer bzw. akustischer Signale s(t) zu registrieren und zu verarbeiten.
Zu Patentanspruch 6
Ein spezielles Ausführungsbeispiel der Erfindung befasst sich mit einer Anwendung im Bereich der Datenübertragungstechnik für Videosignale. Es fußt auf dem oben beschriebenen Verfah­ ren zur Übertragung von Differenzbildern, die durch Subtrak­ tion der YUV-Komponenten von den Abtastbildern sn+m und sn zu den unmittelbar oder nicht unmittelbar zeitlich aufeinander­ folgenden Abtastzeitpunkten n und n+m entstehen. Dazu müssen der Signalsender und der Signalempfänger über geeignete tech­ nische Komponenten zur Aufnahme (z. B. Videokamera), Zwischen­ speicherung (z. B. Videorekorder und Videokassette) und Wie­ dergabe von Videosignalen (z. B. Bildschirm oder Display) ver­ fügen. Ferner sollte der Signalsender mit Vorrichtungen zur Analog-Digital-Wandlung, Kompression und Kodierung von analo­ gen Videosignalen ausgestattet sein; ebenso sollte der Sig­ nalempfänger zur Dekodierung, Dekompression und Digital-Ana­ log-Wandlung von digitalen Videosignalen tauglich sein. Die Kanalkapazität C des Übertragungskanals, also das Produkt aus Bandbreite B und Übertragungsbitrate R, sollte idealerweise groß genug sein, um bei Einhaltung des Shannon-Theorems soge­ nannte Aliasing-Effekte zu vermeiden und Videosignale in Echtzeit ohne Einbuße an Wiedergabequalität übertragen zu können.
Zu Patentanspruch 7
Bei der fest vorgegebenen Intensität und/oder Frequenz eines Referenzsignals sref(t) kann es sich um mindestens einen Lumi­ nanz- (Yref) und/oder Chrominanzwert (Uref,Vref) eines vorgege­ benen Videosignals handeln, mit dem die Abtastwerte der Lumi­ nanz (Y) bzw. Chrominanz (U,V) eines empfangenen digitalen Videosignals s(n) verglichen werden. Erfindungsgemäß werden diese Differenzbilder diskontinuierlich übertragen, sofern mindestens ein geeignet festgelegter Zeit-, Y-, U- bzw. V- Schwellwert überschritten wird. Bilddaten werden also nur dann gesendet, wenn das neue Abtastbild Bildbereiche mit neu­ en und für den Betrachter nicht irrelevanten bzw. nicht re­ dundanten Informationen enthält. Auf diese Weise kann die im Übertragungssignal enthaltene Irrelevanz bzw. Redundanz und damit die Datenübertragungsrate im Vergleich zu einer pe­ riodisch wiederholten Differenzbildübertragung entscheidend verringert werden. Eine Erneuerung des aktuellen angezeigten Bildes im Endgerät eines Empfängers wird nur für diejenigen Bildbereiche vorgenommen, bei denen relevante Änderungen der Helligkeit, des Farbtons und/oder der Farbsättigung regist­ riert werden. Die Schwellwerte Yref, Uref und Vref können aus den Helligkeits-, Farbton- und/oder Farbsättigungswerten der Bildpunkte des Referenzsignals sref ermittelt werden.
Zu Patentanspruch 8
In fast allen Systemen, die eine Art von Bildkodierung mit Datenreduktion verwenden, ist der schlussendliche Empfänger des wiederhergestellten Bildsignals (Videosignal oder Stand­ bild) das menschliche Auge. Es sollte daher von vorherein klar sein, dass Anstrengungen unternommen werden müssen, ein Modell der Arbeitsweise des menschlichen Sehens ("Human Vi­ sual System", HVS) in die Verarbeitungskette miteinzubezie­ hen. Denn nur so kann sichergestellt werden, dass a) beim Ko­ diervorgang die Bits vorzugsweise denjenigen Teilen im Aus­ gangssignal zugewiesen werden, die denjenigen Strukturen im Bild entsprechen, auf welche das Auge am empfindlichsten rea­ giert, und dass b) ein damit verbundenes psychooptisches Qua­ litätsmaß geschaffen werden kann.
Diese Auswertung ist deswegen notwendig, weil das menschliche Sehvermögen unter bestimmten Umständen, zum Beispiel bei Vor­ handensein einer breitbandigen Störstrahlung großer Intensi­ tät in der Umgebung des Signalempfängers, nicht in der Lage ist, Luminanz- bzw. Chrominanzänderungen eines Nutzsignals wahrzunehmen. Im Folgenden wird daher kurz auf die wichtigs­ ten, aus Sehversuchen an einer großen Anzahl von Versuchsper­ sonen gewonnenen und vielfach bestätigten Erkenntnisse in diesem Zusammenhang eingegangen.
Für subjektive Sehteste werden heute standardisierte Verfah­ ren eingesetzt, die international anerkannt sind, um die Ver­ gleichbarkeit verschiedener Messergebnisse zu gewährleisten. Technische Randbedingungen wie Betrachtungsabstand, Hinter­ grundbeleuchtung, die Art der Präsentation der Testbilder und Testsequenzen, die Fragestellungen und das Beurteilungsver­ fahren sind dabei eindeutig festgelegt. Solche Verfahren wer­ den in der Form von Empfehlungen einer Expertengruppe der "International Telecommunications Union" (ITU) festgelegt. Die technische Entwicklung stellt heute immer wieder neue Anforderungen an die Testverfahren, so dass die vorhandenen Me­ thoden modifiziert und neue Verfahren entwickelt werden müs­ sen.
Die Einbindung des menschlichen Sehvermögens in die Übertra­ gungskette vom Signalsender zum Signalempfänger ist wichtig, damit eine Reduzierung der Irrelevanzinformation sinnvoll auf den menschlichen Gesichtssinn angepasst werden kann. Dazu ist es notwendig, einige wichtige Effekte zu kennen, die beim Se­ hen eine entscheidende Rolle spielen.
Beim Sehen wird das durch Pupille und Linse in das Innere des menschlichen Auges einfallende Licht auf die lichtempfindli­ che und ca. ILN = 17 mm entfernte Netzhaut abgebildet. Die auftreffende Lichtintensität wird dabei mittels einer foto­ chemischen Reaktion durch zwei Arten von Sensoren, Stäbchen und Zapfen, ermittelt. Die Stäbchen besitzen die größere Emp­ findlichkeit, unterscheiden jedoch keine Farben. Dafür arbei­ ten sie noch bei sehr wenig Licht (Nachtsehen bzw. skopti­ sches Sehen). Die Zapfen sind zuständig für stärkere Intensi­ täten (Tagessehen bzw. photopisches Sehen), feine Auflösungen und das Farbensehen. Für den letztgenannten Vorgang sind sie in drei verschiedene Arten aufgeteilt, wobei jede ein Absorp­ tionsmaximum an einer anderen Stelle innerhalb des sichtbaren Spektrums besitzt (bei Rot-Orange, Grün und Blau-Violett). Zusammen erlaubt das System mit zweierlei Sensoren das Sehen über einen Intensitäts- bzw. Leuchtdichtebereich von 12 Grö­ ßenordnungen (L = 10-6 bis 105 cd/m2). Das bedeutet, dass in­ nerhalb der verschiedenen Stufen des Wahrnehmungsprozesses eine Anpassung an die Hintergrundsintensität in einem großen Bereich stattfindet.
Wie bereits erwähnt, ist das Auge in der Lage, einen enorm großen Helligkeitsbereich (ca. 12 Zehnerpotenzen) zu verar­ beiten, von der Intensität des Sternenlichts bis zur Schmerzgrenze (Blendung). Da die Pupille ihren Durchmesser aber nur im Verhältnis 4 : 1 regeln kann, muss eine sehr weiträumige An­ passung an die durchschnittliche Szenenhelligkeit auf Rezep­ torenebene der visuellen Wahrnehmung stattfinden, denn es ist weder möglich, die Erregerfrequenz für die Übertragungsim­ pulse auf den Nervenfasern um einen Faktor 109-1010 zu vari­ ieren, noch ist es in der Praxis notwendig. Für den täglichen Gebrauch ist ein viel geringerer Dynamikumfang ausreichend. Der Dynamikumfang des Auges (bezüglich der Helligkeitsinfor­ mation) umfaßt etwa zwei Zehnerpotenzen. Verschiedene Ver­ suchsergebnisse bestätigen, dass bei gegebener Hintergrund­ helligkeit (für die Adaption des Auges) die Anzahl der unter­ scheidbaren Helligkeitsstufen im Bereich von etwa 150 bis 250 liegt. Aus dem oben beschriebenen Experiment gewinnt man die wichtige Erkenntnis, dass die kleinste wahrnehmbare Hellig­ keitsdifferenz nicht als konstanter Wert erscheint, sondern abhängig vom konstanten Verhältnis der Umgebungsbeleuchtung ist. Das visuelle System reagiert folglich, zumindest an oder in der Nähe der Schwelle, auf geringfügige Veränderungen, was bedeutet, dass die Wahrnehmung der Helligkeit vom Verhältnis der Objekt- zur Umgebungsbeleuchtungen viel mehr abhängt als vom Absolutwert der ersteren. Für die Bildverarbeitungstech­ nik bedeutet dies, dass eine Bildstörung (z. B. durch Übertra­ gungsfehler oder Quantisierungsrauschen) innerhalb dunkler Bildanteile viel stärker bemerkt wird als anderswo. In der Praxis werden durch die immer vorhandene Umgebungsbeleuchtung in der Nähe des Displays sogar eventuelle Verschlechterungen, (z. B. hervorgerufen durch Rauschen) in dunklen Flächen weni­ ger stark wahrgenommen als in helleren Bildanteilen. Es be­ steht somit eine viel komplexere Beziehung zwischen der Wahr­ nehmung direkt an der visuellen Helligkeitunterscheidbar­ keitsschwelle, in Bereichen in der Nähe der Schwelle und in entfernteren Bereichen, als man auf den ersten Blick vermuten könnte.
Es ist offensichtlich, dass feine Strukturen umso schlechter wahrgenommen werden können, je kleiner der Sehwinkel ist, un­ ter dem sie betrachtet werden. Schliesslich können mit stei­ gender Komplexität kleine Details gar nicht mehr separat auf­ gelöst werden. Das festigt die Behauptung, dass der Ortsfre­ quenzgang des Auges zu hohen Ortsfrequenzen (die Anzahl von vollständigen Schwingungen pro Grad eines sinusoidalen Hel­ ligkeitsmusters, die vom Auge unterschieden werden) hin auf vernachlässigbar kleine Werte abfällt. Versuche haben eben­ falls gezeigt, dass die Empfindlichkeit des Auges auf Berei­ che konstanter Helligkeit (d. h. Ortsfrequenz Ω1,2 ≈ 0 m-1) klein ist. Damit der Mensch also überhaupt etwas sehen kann, muss die Anregung in einem beträchtlichen Frequenzbereich zwischen diesen beiden Grenzen liegen. In Bereichen mit fei­ nen Details, die eine große Auflösung benötigen, ist das Auge toleranter gegenüber Abweichungen der absoluten Helligkeit. Der Amplitudenfrequenzgang des Auges wird somit von räumli­ chen Effekten verändert: einerseits vom Einfluss verschiede­ ner Rezeptorgruppen, die auf Hintergrunds- und Umgebungshel­ ligkeit reagieren, andererseits von der Abhängigkeit der Hel­ ligkeitsschwelle vom Sehbereich. Beim Simultankontrast zwi­ schen einem anvisierten Bereich und dem Umgebungsbereich än­ dert sich die wahrgenommene Helligkeit des anvisierten Be­ reichs, wenn die Helligkeit rund um diesen Bereich variiert wird. Dabei erscheint der anvisierte Bereich umso dunkler, je heller der Hintergrund wird. Die Verstärkung dieses Effekts hängt außerdem von der vorhandenen Beleuchtung ab: Ist der Kontrast zwischen dem anvisierten Bereich und dem Hintergrund klein, erhöht eine stärkere Gesamtbeleuchtung die wahrgenom­ mene Bereichshelligkeit und der Kontrast wird geringer. Ist umgekehrt der Kontrast groß, erscheint der Bereich bei stär­ kerer Beleuchtung dunkler. Der zweite Effekt tritt bei einer abrupten Helligkeitsänderung auf und ist dafür verantwort­ lich, dass der Kontrast schärfer erscheint, als er in Wirk­ lichkeit ist. Somit verringert ein Bereich mit großer konstanter Helligkeit die wahrgenomme Helligkeit eines angren­ zenden Bereichs mit kleinerer (aber ebenfalls konstanter) Helligkeit. Das für diese beiden Effekte verantwortliche Phä­ nomen ist als laterale Hemmung bekannt und kann in Bezug auf den Ortsfrequenzgang des Auges als Hochpassfilter modelliert werden, der eine deutlich reduzierte Empfindlichkeit auf Be­ reiche mit konstanter oder sich leicht ändernder Helligkeit besitzt und die gezielte Bestimmung von scharfen Kanten (zum Beispiel den Umriss eines Objekts) erlaubt.
Zur Erstellung von psychooptischen Mess- und Bewertungsmodel­ len, die zum Zweck der datenreduzierenden Bildkodierung nutz­ bar sind, sind tiefgreifende Kenntnisse von der optischen Signalverarbeitung des Auges bis zu den Nervenimpulsen im Ge­ hirn notwendig. Für diese Aufgabe sind schon verschiedene Verfahren vorgeschlagen worden, die mehr oder weniger gut mit der menschlichen Wahrnehmung korrelieren. Das erfolgverspre­ chenste unter ihnen ist das Modell der gerade noch wahrmehm­ baren Unterschiede ("Just Noticible Differences", JND). Al­ lerdings gibt es auch hier Unterschiede, je nachdem welche und wie viele der bisher bekannten psychooptischen Eigen­ schaften des menschlichen Sehens berücksichtigt werden.
Zur Festlegung der Schwellwerte für die kleinste wahrnehmbare Luminanz- (ΔYJN) bzw. Chrominanzänderung (ΔUJN,ΔVJN) des emp­ fangenen Videosignals in Abhängigkeit von den durch (Y,U,V)env charakterisierten Beleuchtungsverhältnissen in der Umgebung des Bildsignalgebers können beispielsweise die psychoopti­ schen Eigenschaften des menschlichen Sehvermögens im Hinblick auf die Amplituden- und/oder Frequenzmodulationsschwelle, die wahrnehmbare Frequenzgruppenbreite ΔfG und die durch die Mas­ kierung von Nutzstrahlung durch Störstrahlung hervorgerufenen Effekte ausgewertet werden.
In diesem Zusammenhang ist es wichtig, auf das Phänomen der "örtlichen Maskierung" zu verweisen, das verwandt ist mit dem Mach-Effekt, aber trotzdem davon abweicht. Die Ausnutzung dieses Maskierungsphänomens ist ein erfolgreiches Beispiel für die Einbeziehung von Eigenschaften des HVS in Bildkodier­ algorithmen. In einer Reihe von Sehtests wurde bei unter­ schiedlichen Versuchspersonen festgestellt, dass die Hellig­ keitsänderungsschwelle empfindlich auf die Anwesenheit eines in der Nähe auftretenden Helligkeitssprungs reagiert. Anders gesagt ist der Schwellwert einer gerade wahrnehmbaren Hellig­ keitsänderung (ΔYJN) höher als er wäre, wenn der Helligkeits­ sprung (ΔY) nicht vorhanden wäre. Deshalb sagt man, der Sprung "maskiert" kleine Helligkeitsunterschiede in seiner Umgebung. Ein weiteres wichtiges Merkmal dieses Maskierungs­ effekts liegt darin, dass er eine Funktion des Gradienten der Hellikeitsänderung ist, gegenüber der er gemessen wird. (In einem typischen Testbild ist er deshalb abhängig vom anvi­ sierten Detail.) Dieser Umstand kann dazu benutzt werden, um Maskierungsfunktionen auf der Basis von gewichteten Ableitun­ gen der Helligkeitsverteilung innerhalb eines einige Pixel umfassenden Bereichs zu definieren. Diese können dazu verwen­ det werden, den Quantisierungsprozess von Kodiersystemen durch Prädiktion zu optimieren.
Über die Grenzen der Sichtbarkeit von Luminanz- (ΔYJN), Chro­ rninanz- (ΔUJN,ΔVJN) bzw. Farbsättigungsschwankungen eines sta­ tionären Empfangssignals geben die Schwellen für sinusoidale Amplituden- und/oder Frequenzmodulation (AM bzw. FM) für mo­ nochromatische bzw. für breitbandige Teststrahlung Auskunft. Unter einer Amplituden- bzw. Helligkeitsmodulationsschwelle versteht man denjenigen Wert des AmplitudenModulationsgrades m, für welchen sich bei sequenzieller Darbietung das amplitu­ denmodulierte vom unmodulierten Empfangssignal sichtbar zu unterscheiden beginnt. Analog versteht man unter einer Frequenz- bzw. Farbartmodulationsschwelle denjenigen Wert des Frequenzhubs Δf, für welchen sich bei sequenzieller Darbie­ tung das frequenzmodulierte vom unmodulierten Empfangssignal sichtbar zu unterscheiden beginnt. Als Grundlage für Sehtests können dazu modulierte Kosinusgitter für die Luminanz (Y), für die Chrominanz (U,V) bzw. für die Farbsättigung einge­ setzt werden. Bei der Betrachtung der Testbilder auf einem Monitor kann die individuelle Modulationsübertragungsfunktion (MÜF) in Abhängigkeit vom Abstand zwischen Monitor und Bet­ rachter direkt gesehen werden als psychooptische Sichtbar­ keitsgrenze der Kosinusgitter. Zur Bestimmung der MÜF für helligkeits- bzw. farbartmodulierte Kosinusgitter werden in einem Sehtest die Punkte, an denen die Kosinusgitter gerade noch zu erkennen sind, von einer Testperson angezeigt und durch Polygonzüge miteinander verbunden. Die mittlere Grenze, an der Testpersonen gerade eben noch die Gitterform der kosi­ nusförmigen Modulation erkennen können, kennzeichnet eine MÜF. Diese Messkurven können für alle Farbwerte, die auf ei­ nem Monitor darstellbar sind, gefunden werden. Allen Messkur­ ven ist eine eindeutig erkennbare Bandpasscharakteristik des menschlichen Gesichtsinns gemeinsam. Für die MÜF m(Ω1, Ω2) helligkeitsmodulierter Gitter gilt, dass bei geringer Farb­ sättigung nur die Mischfarbe "Unbunt" bzw. der jeweilige Farbmittelwert zu sehen ist. Oberhalb von bestimmten Ortsfre­ quenzen (Ω1, Ω2) muss die Farbsättigung ständig erhöht werden, um die Gitter erkennen zu können. Dieser Effekt hängt zusam­ men mit der Beugungsgrenze der optischen Abbildung im Auge für hohe Ortsfrequenzen Ω1 bzw. Ω2.
Betrachtet man die MÜF für helligkeitsmodulierte Gitter im Vergleich zu farbartmodulierten Gittern, so erkennt man, dass das globale Minimum der MÜF m(Ω1, Ω2) für die Luminanz gegen­ über der MÜF Δf(Ω1, Ω2) für die Chrominanz zu höheren Ortsfre­ quenzen (Ω1, Ω2) verschoben ist. Alle farbartmodulierten Gitter zeigen einen streng monotonen Anstieg der MÜF Δf(Ω1, Ω2) der unterhalb von Ω1,2 = 1,5 Linienpaaren/Grad liegt, abhängig von der jeweiligen Farbart. Die Beachtung der unterschiedli­ chen Modulationsübertragungsfunktionen der verschiedenen farbartmodulierten Gitter kann eine gezielte Datenreduzierung bei unterschiedlichen Farbübergängen ermöglichen.
Zu Patentanspruch 9
Bei einem speziellen Ausführungsbeispiel der vorliegenden Er­ findung kann es sich um die Durchführung des Weiß-Abgleichs von Videosignalen s(n) handeln, bei dem Luminanz (Y), Chromi­ nanz (U,V) und/oder Farbsättigung der von einer Videokamera aufgenommenen Bewegtbilder in Abhängigkeit von den Beleuch­ tungsverhältnissen in der Umgebung der Videokamera reguliert werden.
Bei einer Bildübertragung nach den üblichen Standards treten unter bestimmten Voraussetzungen Verfälschungen in der wie­ dergegebenen Luminanz (Y) auf. Bilder, die stark gesättigte Farben und harte Übergänge von den farbigen Bildbereichen zu unbunten Bildbereichen enthalten, werden besonders verfälscht wiedergegeben. Auch bei einer digitalen Bildübertragung nach MPEG2, bei der Luminanz (Y) und Chrominanz (U,V) getrennt quantisiert werden, treten diese Fehler auf, da die Trennung von Helligkeits-, Farbart- und Farbsättigungsinformation nicht vollkommen ist.
Mit Hilfe eines Kompensationsverfahrens zur Regulierung der Luminanz ist es möglich, die durch die Kodierung der Chromi­ nanzsignalkomponenten hervorgerufenen Luminanzdefekte zu kor­ rigieren und damit die Bildqualität zu verbessern.
Die Farbempfindlichkeit der Augen hängt von der Wellenlänge λ bzw. der Frequenz f = cn/λ der sich mit Lichtgeschwindigkeit cn = c/n in einem Medium mit dem Brechungsindex n ausbreiten­ den Strahlung ab. Dabei bezeichnet c die Ausbreitungsge­ schwindigkeit des Lichts im Vakuum; ihr Wert beträgt etwa
c ≈ 3,0108 m/s.
Das für das menschliche Auge sichtbare Spektrum des Lichts befindet sich in einem Wellenlängenbereich zwischen λmin = 380 nm und λmax = 780 nm. Licht mit großer Wellenlänge (nahe λmax) erscheint für das menschliche Auge als Rot, solches mit kur­ zer Wellenlänge (nahe λmin) als Violett.
Weißes Licht enthält alle im sichtbaren Spektralbereich vor­ kommenden Lichtwellen. Das läßt sich nachprüfen, wenn man beispielsweise weißes Sonnenlicht mit Hilfe eines optischen Systems (Prisma) in seine Spektralanteile auflöst. Das als Weiß wahrgenommene Sonnenlicht besteht aus unzähligen einzel­ nen Farbkomponenten, die erst im Auge eines Betrachters zu einem Gesamt-Farbeindruck zusammengesetzt werden. Die unter­ schiedlichen sichtbaren Spektralanteile des Lichts werden vom menschlichen Auge jedoch nicht mit gleicher Empfindlichkeit wahrgenommen. Die Empfindlichkeitskurve des Auges weist ein globales Maximum bei grünem Licht und eine streng monoton fallende Empfindlichkeit in Richtung violetter und roter Strahlung auf. Sind keine elektromagnetischen Strahlen vor­ handen, das heißt wenn alle Wellenlängen des sichtbaren Spektrums von einem Körper absorbiert werden, empfindet das menschliche Auge die Farbe Schwarz.
Der vom Auge wahrgenommene Farbeindruck wird jedoch nicht al­ lein von der Wellenlänge einer Strahlung bestimmt, sondern auch von den Licht- und Beleuchtungsverhältnissen in der Um­ gebung. So leuchtet zum Beispiel die rote Farbe eines Gegenstands bei Sonnenstrahlung anders als in einem abgedunkelten Raum.
Die Empfindlichkeit des menschlichen Gesichtssinns wird durch die Anpassung der Augen an die bestehenden Lichtverhältnisse in der Umgebung beeinflusst. Bei der sogenannten "Helladap­ tion" muss von einer Lichtquelle ausgesendetes blaues oder rotes Licht wesentlich mehr Energie E = h.f = h.cn/λ abstrah­ len, um als genauso hell empfunden zu werden wie gelbes oder grünes Licht. Die Konstante h ist dabei das Plancksche Wir­ kungsquantum; es hat den Wert h ≈ 6,62.10-34 Ws2. Die relative Hellempfindlichkeit - meist mit V(λ) bezeichnet - hat bei Helladaption ein globales Maximum bei λ = 555 nm, bei Dunkel­ adaption liegt ein globales Maximum bei λ = 507 nm vor. Bei der Aufnahme eines Objekts mit einer Farbkamera spielt das Umgebungslicht daher eine wichtige Rolle. Der von einem Ge­ genstand hinterlassene Farbeindruck wird auch von der Umge­ bungshelligkeit beeinflusst, das heißt die Farbe eines Ge­ genstands läßt sich objektiv nur bei konstanter Intensität des Umgebungslichts bestimmen.
Zum Vergleichen von Farben wäre weißes Licht, das man jedoch in der Natur kaum vorfindet, ideal. Um dennoch die Farben verschiedener Lichtquellen miteinander vergleichen zu können, verwendet man als "Bezugslichtquelle" die Strahlung eines so­ genannten "Planckschen Strahlers". Als Planckschen Strahler bezeichnet man einen absolut schwarzen Körper mit einem Ab­ sorptionsgrad von 100%, der, nachdem man ihn erhitzt, Photo­ nen ausstrahlt. Das Spektraldiagramm dieses Lichts hängt hierbei ausschließlich von der Temperatur ab, bis zu der der schwarze Körper erhitzt wird. Aus diesem Grund spricht man von der "Farbtemperatur" des Lichts. Die Farbtemperatur des Lichts ist identisch mit der Wärmetemperatur des schwarzen Körpers, und sie wird als absolute Temperatur T1 in Kelvin (K) angegeben. Bereits bei einer relativ niedrigen Temperatur von T1 ≈ 1.000 K erscheint das ausgestrahlte Licht rötlich. Mit zunehmender Temperatur wechselt die Farbe des Lichts von Rot (T1 ≈ 1.000 K) über Orange, Gelb (T1 ≈ 3.000 K) und Weiß (T1 ≈ 3.200 K) nach Blau (T1 ≈ 5.000 K). Das Maximum der spektralen Energieverteilung verschiebt sich also mit zuneh­ mender Temperatur zu kürzeren Wellenlängen hin.
Die Farbtemperaturbestimmung einer Lichtquelle erfolgt durch einen Vergleich mit dem Licht des erhitzten schwarzen Kör­ pers. Erhitzt man zum Beispiel den schwarzen Körper auf eine Temperatur von T1 ≈ 3.200 K und entspricht das Licht dieses Körpers dem Licht einer strahlenden Glühlampe, so hat das vom Glühfaden der Lampe ausgestrahlte Licht ebenfalls eine Farb­ temperatur von T1 ≈ 3.200 K. Der Vergleich verschiedener Lichtquellen mit Hilfe der Farbtemperatur ist allerdings nur bei thermischen Lichtquellen (Kerzen, Glühlampen, Tageslicht, Licht von Strahlung außendenden Himmelskörpern etc.) für Pho­ tonenstrahlung im sichtbaren Frequenzbereich möglich. Das Licht von Lumineszenzstrahlern (Gasentladungslampen, Leucht­ stoffröhren, Leuchtdioden etc.) zeigt keine glatte Spektral­ verteilung. Licht dieser Art kann daher nicht durch die Farb­ temperatur ausgedrückt werden.
Betrachtet man einen Gegenstand abwechselnd mit unterschied­ lichen Lichtquellen, deren Farborte im IBK-Farbdreieck zwar ziemlich nahe beieinander liegen, deren spektrale Verteilung aber stark differiert (zum Beispiel natürliches Tageslicht bei unbewölktem Himmel und Licht einer Tageslicht-Leucht­ stofflampe), kann es passieren, dass der Gegenstand in einer ganz anderen Farbe erscheint. Daraus lässt sich folgern, dass das menschliche Auge unerwartet empfindlich gegenüber der spektralen Verteilung von Lichtquellen reagiert. Andererseits erkennt das Auge kaum einen Farbunterschied, wenn sich die Farborte des Umgebungslichts stark unterscheiden, zum Bei­ spiel bei der Betrachtung eines Gegenstands mit Tageslicht oder am Abend bei Glühlampenbeleuchtung. Die Gründe hierfür liegen in der Fähigkeit des menschlichen Auges, sich den un­ terschiedlichen Licht- und Beleuchtungsverhältnissen in der Umgebung anpassen zu können (Farbgedächtnis). Dazu ein Bei­ spiel: Eine Freilichtaufnahme eines weißen Gegenstands bei einer Farbtemperatur des Tageslichts von T1 = 6.500 K soll so erfolgen, dass der aufgenommene Gegenstand auch auf einem Mo­ nitor weiß erscheint. Hierzu wird die Kamera so eingestellt, dass die Farbkomponenten Rot (R), Grün (G) und Blau (B) Sig­ nale mit gleicher Amplitude liefern (UR = UG = UB), das heißt die eingestellte Farbtemperatur der Kamera T2 wird auf T2 = 6.500 K eingestellt. Bei der Aufnahme des gleichen Gegens­ tands - jetzt aber im Studio mit einer weißes Licht außenden­ den Fotolampe der Farbtemperatur T1 = 3.200 K und unveränder­ ter Kameraeinstellung auf die Farbtemperatur T2 = 6.500 K durchgeführt - erscheint der aufgenommene Gegenstand auf dem Bildschirm gelblich. Der aufgenommene weiße Gegenstand hat jetzt eine Farbtemperatur von T1 ≈ 3.200 K, was eine Ver­ schiebung des Farbeindrucks zum roten Spektrum hin bedeutet. Der Kameramann hingegen sieht den Gegenstand immer weiß leuchten, da das menschliche Gehirn über ein Farbgedächtnis verfügt. Der auf dem Monitor abgebildete Gegenstand nimmt erst wieder eine weiße Farbe an, wenn die Kamera neu auf das Umgebungslicht eingestellt wird.
Um sicherzugehen, dass ein weißer Gegenstand - aufgenommen bei unterschiedlichen Farbtemperaturen des Umgebungslichts - auf dem Monitor immer weiß erscheint, muss durch die Kamera eine Kompensation der Farbtemperatur ermöglicht werden. Man bezeichnet eine solche Kompensation als Weiß-Abgleich oder Weiß-Balance-Einstellung. Bei der Beleuchtung eines weißen Körpers mit einer Lichtquelle der Farbtemperatur T1 ≈ 6.740 K müssen die drei Ausgangssignale UR, UG und UB der Kamera gleich groß sein. In der Praxis kann der Weiß-Abgleich einer Kamera durch drei verschiedene Methoden durchgeführt werden:
  • - durch ein optisch-mechanisches Verfahren (Kompensations­ filter),
  • - durch ein elektronisches Verfahren (Regelschaltung),
  • - durch eine Kombination aus den beiden genannten Verfahren.
In der Regel arbeiten moderne Videokameras am besten bei ei­ ner Farbtemperatur von T1 = 3.200 K. Bei dieser Beleuchtung ist dann kein Weiß-Abgleich erforderlich. Eine Kompensation der Farbtemperatur mit Farbfiltern wird in der Praxis mit Hilfe eines Umschalters für Außen- oder Innenaufnahmen durch­ geführt ("In-Door"-/"Out-Door"-Umschalter). Hierzu wird ein Farbfilter auf mechanischem Weg vor den Bildaufnehmer ge­ schaltet.
Im Zusammenhang mit Farbtemperatur-Kompensationsfiltern wird die Farbtemperatur T1 einer Lichtquelle bisweilen auch durch die Rechengröße M1 ("Micro-Reciprocal Degrees", MIRED) mit der Einheit µrd zum Ausdruck gebracht, die sich als Kehrwert der Farbtemperatur, multipliziert mit 106, ergibt:
Zur Anpassung der Farbtemperatur mit Hilfe von Farbfiltern arbeitet man mit der folgenden Korrekturformel:
mit
M1: MIRED-Wert für T1 (in µrd),
M2: MIRED-Wert für T1 (in µrd),
ΔM: M2 - M1: Korrekturwert (in µrd),
T1: gegebene Farbtemperatur der Lichtquelle (in K),
T2: eingestellte Farbtemperatur der Kamera (in K) und
ΔT: T2 - T1: Temperaturdifferenz (in K).
Das Ergebnis einer solchen Berechnung kann positiv oder nega­ tiv sein. Ist das Ergebnis ΔM positiv (für T1 < T2), dann ist ein Gelbfilter (d. h. ein wärmerer Farbton) zu wählen; ein ne­ gatives Ergebnis ΔM (für T1 < T2) erfordert ein Blaufilter (d. h. einen kälteren Farbton). Beträgt beispielsweise die Farbtemperatur der Lichtquelle T1 = 4.706 K und die einge­ stellte Farbtemperatur einer Kamera T2 = 3.200 K (Tageslicht an einem unbewölkten Tag kurz vor Sonnenuntergang), so ergibt die Rechnung:
In diesem Fall sollte das Filter also einen Korrekturfaktor von +100 besitzen, das heißt die reziproke Farbtemperatur der Lichtquelle 1/T1, multipliziert mit 106, muss um ΔM = 100 µrd gesenkt werden. Das bedeutet, dass die eingestellte Farbtem­ peratur der Kamera T2 = 3.200 K um ΔT = 1.506 K auf die Farb­ temperatur der Lichtquelle T1 = 4.706 K erhöht werden muss. Ein solches Filter wird auch als W10-Filter bezeichnet. Hier­ bei gibt der Buchstabe in der Filterbezeichnung an, ob die Farbtemperatur der Kamera T2 reduziert (C) oder erhöht (W) werden soll. Die Zahl hinter dem Buchstaben gibt den Umwand­ lungswert in Zehntel-µrd an.
Die Farben des von einer Videokamera erzeugten Videobildes sollen stets den Original-Farbeindruck der Aufnahmeszene wie­ dergeben, unabhängig von der Farbtemperatur der Szenenbe­ leuchtung. Um diese Forderung erfüllen zu können, muss die Kamera so eingestellt werden, dass ein weißer Gegenstand im­ mer weiß abgebildet wird. Diese Adaption an die Farbtempera­ tur der Szenenbeleuchtung wird in der Videotechnik aus als Weiß-Abgleich oder Weiß-Balance-Einstellung bezeichnet. Grundsätzlich sind Videokameras so eingestellt, dass ein bei einer Farbtemperatur von T ≈ 3.200 K (Standard-Lichtquelle) aufgenommenes weißes Objekt auch als weißes Objekt abgebildet wird. Bei jeder Abweichung der Farbtemperatur von diesem Normwert muss der Weiß-Abgleich der Kamera so verändert wer­ den, bis das weiß aufgenommene Objekt wieder weiß abgebildet wird. In der Regel sind bei herkömmlichen Videokameras drei Möglichkeiten einer Weiß-Balance-Einstellung zu finden:
  • - die manuelle Einstellung durch Justierung von Potentiome­ tern (bei älteren Modellen),
  • - die automatische Einstellung für eine vorgegebene Szenen­ beleuchtung und
  • - die automatische Nachführung der Weiß-Balance über einen großen Farbtemperaturbereich.
Grundsätzlich wirkt die Weiß-Balance-Einstellung auf die Ver­ stärkung des Lichts in der Rot- und Blau-Signal-Verarbeitung. Dass dies so sein muss, wird klar, wenn man bedenkt, dass bei einer Farbtemperaturänderung nach höheren Werten (also bei größerer Farbtemperatur T1 einer Lichtquelle) der Blau-An­ teil, bei einer Farbtemperaturänderung nach niedrigeren Wer­ ten (also bei kleinerer Farbtemperatur T1 einer Lichtquelle) der Rot-Anteil des durch das Objektiv einfallenden Lichts an­ steigt.
Die meisten heute im Handel erhältlichen Videokameras besit­ zen die Möglichkeit einer automatischen Weiß-Balance-Einstel­ lung. Hierbei genügt es, einen weißen Gegenstand aufzunehmen und kurz eine Einstelltaste ("Auto-White"- oder "Auto-White- Adjust"-Taste) zu drücken. Durch die Betätigung dieser Taste wird ein Regelvorgang ausgelöst, der die Verstärkung im Rot- und Blau-Signalweg mit Hilfe eines Potentiometers so lange verändert, bis die Rot- und Blau-Signalspannungen UR-Y und UB-Y der Farbdifferenzsignale R-Y und B-Y gleich groß sind. Der Nachteil dieses Verfahrens zur automatischen Weiß-Balance-Re­ gelung ist, dass bei einem Wechsel der Szenenbeleuchtung im­ mer ein neuer Abgleich mit einem weißen Gegenstand erfolgen muss.
Einige neuere Kameramodelle arbeiten mit einer Weiß-Balance- Einstellung, die sich ständig an die neuen tageszeitlichen, wetterabhängigen bzw. durch künstliche Lichtquellen veränder­ ten Umgebungslicht-Bedingungen anpasst. In der Terminologie der Bildverarbeitungstechnik bezeichnet man diese Art der Weiß-Balance-Einstellung mit "Auto-White-Tracking" (AWT). Bei der AWT-Regelung wird die spektrale Verteilung der Szenenbe­ leuchtung ständig durch einen eigenen Sensor, den AWT-Sensor, gemessen. Räumlich befindet sich der AWT-Sensor in der Nähe des Objektivs. Der AWT-Sensor selbst besteht aus einzelnen Fotodioden, denen das einfallende Licht über je ein Rot-, Grün- und Blaufilter zugeführt wird. Bei einer geringen Sze­ nenbeleuchtung ist eine einwandfreie Nachregelung nicht ge­ währleistet. In diesem Fall erkennt ein Detektor die Unter­ belichtung und unterbricht über einen elektronischen Schalter den AWT-Regelkreis. Die Kamera arbeitet dann automatisch bei einem fest vorgegebenen Weiß-Abgleich für eine Farbtemperatur von T2 = 3.200 K.
Zu Patentanspruch 10
Das sendeseitige Umschalten auf den Datensignal-Abtastwert Sn+k kann sofort nach dem Verstreichen einer vorgegebenen Ver­ zögerungszeit Δtv und/oder nach dem Über- bzw. Unterschreiten mindestens eines geeignet festgelegten Schwellwerts σref er­ folgen. Durch dieses "harte" Umschalten kann ein schnelles Reagieren des Signalempfängers auf veränderte Signalwerte ge­ währleistet werden. Ist die Kapazität C des Übertragungska­ nals groß genug und damit die Übertragungszeit Δtü klein ge­ nug, können relevante Änderungen Δs(n+m, m) des Signals s(n) den Signalempfänger nahezu in Echtzeit erreichen.
Zu Patentanspruch 11
Das sendeseitige Umschalten auf den Datensignal-Abtastwert sn+k kann alternativ auch allmählich nach dem Verstreichen ei­ ner vorgegebenen Verzögerungszeit Δtv und/oder nach dem Über- bzw. Unterschreiten mindestens eines geeignet festgelegten Schwellwerts σref erfolgen. Zu diesem Zweck kann beispiels­ weise ein Interpolationsverfahren eingesetzt werden, das ei­ nen sanften, gleitenden Übergang auf den neuen Signalwert sn+k über mehrere Abtastperioden bewerkstelligt. Durch dieses "sanfte" Umschalten kann dafür gesorgt werden, dass das menschliche Wahrnehmungssystem nicht durch ein plötzliches starkes Ansteigen der empfangenen Signalintensität, zum Bei­ spiel durch Lärm infolge eines dröhnened lauten Geräuschs o­ der durch Blendung infolge eines gleißend hellen Lichts, ü­ berfordert bzw. geschädigt wird. So kann es beispielsweise bei der Darbietung plötzlich auftretender lauter akustischer Signale über Kopfhörer leicht zu einer dauerhaften Schädigung des Gehörs kommen. Durch gleitende Übergänge der empfangenen Signalintensität kann es dem menschlichen Wahrnehmungssystem jedoch ermöglicht werden, sich langsam an die veränderten Signalwerte zu gewöhnen, so dass die Gefahr einer Schädigung der menschlichen Sinneszellen durch plötzliches Ansteigen der empfangenen Signalintensität vermindert werden kann.
Zu Patentanspruch 12
Sofern die Dauer Δτ der Änderung des Datensignals (DS) eine vorgegebene Verzögerungszeitdauer Δtv unterschreitet, das heißt sofern
Δτ < Δtv bzw. κ < k bei Δtv ≠ 0 bzw. k ≠ 0 und d = 0
für κ := Δτ/Δt und k := Δtv/Δt (mit k ≧ 1)
gilt, erfolgt erfindungsgemäß keine Regelung der Werte des Datensignals (DS).
Zu Patentanspruch 13
Sofern der Betrag der Amplitude, Frequenz bzw. Phase si des Datensignals (DS) zu mindestens einem Beobachtungszeitpunkt i einen vorgegebenen Amplituden-, Frequenz- bzw. Phasenschwell­ wert unterschreitet, das heißt sofern
|si| < d/2 mit d := 2.Sref/√2 = Sref/√2 bei Δtv = 0
gilt, erfolgt erfindungsgemäß ebenfalls keine Regelung der Werte des Datensignals (DS).
Zu den Patentansprüchen 12 und 13
Lässt man sowohl eine Verzögerungszeitdauer Δtv (Δtv ≠ 0) als auch einen Amplituden-, Frequenz- bzw. Phasenschwellwert d/2 (d ≠ 0) als Schwellwerte zu, erfolgt in den Fällen
  • a) Δτ < Δtv bzw. κ < k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0,
  • b) Δτ < Δtv bzw. κ < k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0 sowie
  • c) Δτ ≧ Δtv bzw. κ ≧ k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0
erfindungsgemä 26636 00070 552 001000280000000200012000285912652500040 0002010045777 00004 26517ß ebenfalls keine Regelung der Werte des Daten­ signals (DS). Eine Regelung dieser Werte findet erfindungsge­ mäß nur dann statt, wenn die Bedingungen
Δτ ≧ Δtv bzw. κ ≧ k für Δtv ≠ 0 bzw. k ≠ 0
und |si| < d/2 für d ≠ 0
eingehalten werden.
Zu Patentanspruch 14
Bei der durch Anwendung dieses Verfahrens geregelten Signal­ komponente des Datensignals (DS) kann es sich beispielsweise um ein Chrominanzsignal (U,V) handeln. Zur Vereinfachung der Schreibweise war in den obigen Formeln jedoch nur noch von einem Datensignal (DS) die Rede, wobei nicht mehr zwischen dem Datensignal (DS) und Signalkomponenten dieses Datensig­ nals (DS) unterschieden wurde.
Zu Patentanspruch 15
Bei der durch Anwendung dieses Verfahrens geregelten Signal­ komponente des Datensignals (DS) kann es sich beispielsweise um ein Luminanzsignal (Y) handeln. Zur Vereinfachung der Schreibweise war in den obigen Formeln jedoch nur noch von einem Datensignal (DS) die Rede, wobei nicht mehr zwischen dem Datensignal (DS) und Signalkomponenten dieses Datensig­ nals (DS) unterschieden wurde.
F. Figurenbeschreibung mit Bezugszeichenliste
Im Folgenden wird die Erfindung anhand bevorzugter Ausfüh­ rungsbeispiele, wie sie in den Fig. 1 bis 8 geschildert sind, näher beschrieben.
Im Detail zeigen
Fig. 1 ein Blockschaltbild zur Veranschaulichung der Sig­ nalübertragung von einem Signalsender zu einem Sig­ nalempfänger im Falle von Bewegtbildsequenzen als Übertragungssignal,
Fig. 2 ein Flussdiagramm zur Veranschaulichung der Ermitt­ lung, Auswertung und Übertragung des Differenzsig­ nals Δs(n+m, m) mit der Verzögerungszeit Δtv,
Fig. 3 ein Beispiel für die Bildung eines Differenzsignals Δs(n+m, m) für eine Verschiebung um m = 5 Abtast­ zeitpunkte und eine Verzögerungszeitdauer von k = 5 Abtastzeitpunkten,
Fig. 4 zwei Fälle für ein persistentes Signal (das heißt s(n) = const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messun­ gen #i und #(i+k) des Signals s(n) zu den Abtast­ zeitpunkten n und n+k,
Fig. 5 zwei Fälle für ein signifikant zunehmendes bzw. ab­ nehmendes Signal (das heißt s(n) + const.) während des Beobachtungszeitraumes, also der Verzögerungs­ zeit Δtv zwischen den Messungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunkten n und n+k,
Fig. 6 einen Fall für ein signifikant ab- und wieder zu­ nehmendes Signal (das heißt s(n) ≠ const.) während des Beobachtungszeitraumes, also der Verzögerungs­ zeit Δtv zwischen den Messungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunkten n und n+k,
Fig. 7 je einen Spezialfall für die Annahme eines per­ sistenten Betrags des Signals s(n) der Signaldauer Δτ ≧ Δtv (also κ < k) bzw. eines nicht persistenten Betrags des Signals s(n) der Signaldauer Δτ < Δtv (also K < k) ohne Berücksichtigung eines Amplitu­ denschwellwerts d/2 (also d = 0) und
Fig. 8 je einen Spezialfall für die Annahme eines signifi­ kanten Betrags des Signals s(n) (also |si| < d/2) bzw. eines nicht signifikanten Betrags des Signals s(n) (also |si| < d/2) ohne Berücksichtigung einer Verzögerungszeit Δtv (also Δtv = 0 bzw. k = 0).
In Fig. 1 ist ein Blockschaltbild skizziert, das die Signal­ übertragungskette vom Signalsender zu einem Signalempfänger zeigt, die aus einem Sendezweig, einem Übertragungskanal und einem Empfangszweig besteht. Bei dem zu übertragenden Signal handelt es sich in diesem Fall um eine Bewegtbildsequenz (101), die von einer analogen Videokamera (102) aufgenommen wurde. Das analoge Ausgangssignal s(t) der Videokamera (102) wird auf den Eingang eines Moduls (103) geführt, das die Durchführung einer Helligkeitsregelung (HR) bzw. die Durch­ führung eines Weiß-Abgleichs (WA) für das analoge Sendesignal s(t) vornimmt. Dadurch kann gewährleistet werden, dass kurz­ zeitige Störspitzen bzw. -einbrüche und/oder nicht signifi­ kante Signaländerungen im Sendesignal s(t) nicht übertragen werden. Das Modul (103) kann beispielsweise als Mikrochip in der Videokamera (102) integriert sein. Nach Abtastung und Quantisierung des analogen Sendesignals s(t) durch den Ana­ log-Digital-Wandler (104) entsteht an dessen Ausgang das di­ gitale Sendesignal
d. h. S (n) ∈ {0, . . ., 0, s0, s1, . . ., sn, . . ., sN, 0, . . ., 0}.
Wird anstelle einer analogen Videokamera eine digitale Video­ kamera verwendet, so kann auf die Komponente 104 verzichtet werden. Dieses Signal wird zum Zweck der Redundanzreduktion im Kodierer (105) digital kodiert, wobei ein Differenzsignal Δs(n+m, m) ermittelt wird, dessen Werte sich durch Subtraktion des digitalen Sendesignals s(n) von einem um einen Abtast­ zeitpunkt (m = 1) verschobenen digitalen Sendesignal s(n+m) ergibt:
Zusätzlich zur Quellenkodierung kann hier auch eine Kanalko­ dierung vorgenommen werden. Soll das Signal Δs(n+m, m) über die Luftschnittstelle übertragen werden, muss es zuvor mit Hilfe eines Modulators (106) einem analogen hochfrequenten Trägersignal aufmoduliert werden. Der Übertragungskanal ist in diesem Fall analog und kann durch Addition (107) eines weißen gaußverteilten Rauschsignals r(t) modelliert werden (AWGN-Kanal). Zur Vereinfachung der Formeln soll im Folgenden angenommen werden, der Übertragungskanal sei ideal, das heißt r(t) = 0. In diesem Fall kann das Differenzsignal Δs(n+m, m) am Ausgang des Demodulator (108) im Signalempfänger vollstän­ dig und fehlerfrei rekonstruiert werden. Wird das Differenz­ signal Δs(n+m, m) nicht über die Luftschnittstelle, sondern drahtgebunden übertragen, entfallen die Komponenten 106, 107 und 108 in der skizzierten Signalübertragungskette. Der Über­ tragungskanal, also die leitende Verbindung zwischen dem sen­ deseitigen Kodierer (105) und dem empfangsseitigen Dekodierer (109) ist dann digital. Nach der Dekodierung (109) und Digi­ tal-Analog-Wandlung (110) kann die Bewegtbildsequenz auf ei­ nem Bildschirm oder einem Display (111) angezeigt und vom Au­ ge eines Betrachters (112) wahrgenommen werden. Wird anstelle eines analogen Bildschrims bzw. eines analogen Displays ein digitaler Bildschirm bzw. ein digitales Display verwendet, so kann auf die Komponente 110 verzichtet werden.
Neben der skizzierten Version der Signalübertragungskette ist auch eine Version vorstellbar, bei der das Modul (103) zur Durchführung der Helligkeitsregulierung (HR) bzw. zur Durch­ führung des Weiß-Abgleichs (WA) für das analoge Sendesignal s(t) hinter dem Ausgang des Kodierers (105) angeordnet ist. Bei dieser Version erfolgt die Helligkeitsregulierung bzw. der Weiß-Abgleich nach abgeschlossener Ermittlung des Diffe­ renzsignals Δs(n+m, m), also für Signale in digitaler Form. Die Abbildungen in den folgenden Fig. 2 bis 8 sind auf diese Version bezogen.
In Fig. 2 ist der erfindungsgemäße Ablauf der Ermittlung, Auswertung und Übertragung des Differenzsignals Δs(n+m, m) mit der Verzögerungszeit Δtv in einem Flussdiagramm dargestellt. Vor Beginn der hier dargestellten Prozedur liegt dabei ein digitales Signal s(n) vor, das durch Abtastung mit der Ab­ tastperiode Δt, unter Einhaltung des Shannon-Theorems
Δt < 1/(2.B),
und Quantisierung eines analogen Nutzsignals s(t) der Band­ breite B gewonnen wurde. Bei dieser Schreibweise wird die Nummer n des jeweiligen Abtastzeitpunktes tn = n.Δt abkürzend für diesen Zeitpunkt notiert. Aus zeichentechnischen Gründen ist jedoch in Fig. 2 nur ein unterabgetastetes Signal s(n) dargestellt, also ein Signal, für das das Shannon-Theorem nicht erfüllt ist.
Nach der Initialisierung des Zählers ZA für die Abtastzeit­ punkte n durch die Zuweisung n := 0 und der Initialisierung des Zählers ZM für die Messzeitpunkte i mit Hilfe der Zuwei­ sung i := 0 (Schritt 201) erfolgt auf der Seite des Signal­ senders eine erste Messung (Messung #i) und Speicherung des aktuellen Signalwerts von s(n) zum Abtastzeitpunkt n (Schritt 202). Dieser gemessene Abtastwert des digitalen Signals s(n) sei im Folgenden mit si := sn bezeichnet. Wurde eine Verzöge­ rungszeit Δtv abgewartet (Schritt 203), die einige Abtastpe­ rioden Δt umfassen kann (Δtv ≧ Δt), wird eine Inkrementierung des Zählers ZA für die Abtastzeitpunkte n durch Ausführung der Zuweisung n := n+k mit der Verschiebung
k := Δtv/Δt ≧ 1,
eine Inkrementierung des Zählers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k (Schritt 204) sowie eine Messung und Speicherung des aktuellen Signalwerts von s(n+k) zum Abtastzeitpunkt n+k (Schritt 205) im Signalsender vorgenommen (Messung #(i+k)). Während der Verzögerungszeit Δt~ werden zu allen Abtastzeitpunkten weitere Messungen und Speicherungen abgetasteter Signalwerte si+1 := sn+1, si+2 := sn+2 bis si+k-1 := sn+k-1 (Messungen # (i+1) bis # (i+k-1)) vorgenom­ men. Der abgetastete Signalwert zum Zeitpunkt der (i+k)-ten Merssung sei im Folgenden mit si+k := sn+k bezeichnet.
Das zu übertragende Differenzsignal Δs(n+m, m) wird allgemein als vorzeichenbehaftete Differenz des um m Abtastzeitpunkte verzögerten Nutzsignals s(n+m) gegenüber dem im Signalsender gemessenen Originalsignal s(n) nach der Vorschrift
berechnet. Die zum Zeitpunkt n+k zu übertragende Signalände­ rung Δsi+k wird demgemäß nach der Formel
ermittelt (Schritt 106). Als Nächstes wird anhand einer Ab­ frage (Schritt 107) getestet, ob bereits im Abstand m zwei Abtastwerte des Signals s(n) vorliegen, die miteinander ver­ glichen werden können. Wurden mindestens zwei Abtastwerte des Originalsignals s(n) abgewartet, gilt also
n+m ≧ 2.m ↔ n ≧ m,
kann ein Vergleich jeweils zweier Abtastwerte si+j und si+j-1 (für j = 1, 2, 3, . . ., k) des Signals s(n) zu den Zeitpunkten n+1, n+2, n+3 bis n+k zur Bildung eines Differenzsignalwerts
Δsi+j := si+j - si+j-1
vorgenommen werden ("Ja"-Fall). Andernfalls erfolgt ein Rück­ sprung zu Schritt 103 ("Nein"-Fall). Im "Ja"-Fall gilt es bei dem oben genannten Vergleich zu untersuchen, ob die zu den Abtastzeitpunkten n, n+1, n+2, n+3 bis n+k ermittelten Sig­ nalwerte si, si+1, si+2 bis si+k einen vorgegebenen Schwellwert +Sref/√2 bzw. -Sref/√2 über- bzw. unterschreiten, also die Ungleichung
|s(n)| < Sref/√2 für n, n + 1, n + 2, . . ., n + k (*)
also |si| < Sref/√2 ∧ |si+1| < Sref/√2 ∧ . . . ∧ |si+k| < Sref/√2
erfüllt ist. Der Betrag des Abstands zwischen dem oberen Amp­ litudenschwellwert +Sref/√2 und dem unteren Amplituden­ schwellwert -Sref/√2 im Folgenden mit
d := 2.Sref/√2 = Sref/√2
bezeichnet. Ob die obigen Ungleichungen (*) zutreffen oder nicht, wird mit Hilfe einer Abfrage (Schritt 108) getestet. Treffen sie zu ("Ja"-Fall), kann zum Abtastzeitpunkt n+k eine Übertragung des Differenzsignalwerts Δsi+k vom Signalsender zum Signalempfänger erfolgen. Andernfalls erfolgt ein Rück­ sprung zu Schritt 103 ("Nein"-Fall). Auf der Seite des Emp­ fängers wird nach Verstreichen der Übertragungszeit Δtü der Abtastwert des erhaltenen Differenzsignals Δsi+k vorzeichen­ richtig zum letzten vorliegenden Abtastwert si des Signals s(n) addiert, um zum Abtastzeitpunkt n+k den Signalwert
si+k = si + Δsi+k
zu erhalten. Falls die Übertragung des kompletten Differenz­ signals Δs(n+m, m) beendet ist, also die Ungleichung
n < N - m
erfüllt ist, ist die Übertragung abgeschlossen. Andernfalls beginnt die Prozedur von Neuem mit Schritt 101.
In Fig. 3 wird anhand eines aus drei Abbildungen bestehenden Beispiels gezeigt, wie die Differenzsignale Δs(n+m, m) ermittelt werden. Als Ausgangssignal wird in Abb. 1 die ana­ loge Signalspannung s(t) betrachtet, deren momentane Ampli­ tude beispielsweise einen proportionalen Wert zur momentanen Helligkeit bzw. Lautstärke eines aufgenommenen Bild- bzw. Tonsignals angibt. Nach der Abtastung des analogen Nutzsig­ nals s(t) mit der Abtastperiode Δt (normalerweise unter Ein­ haltung des Shannon-Theorems, hier jedoch aus zeichentechni­ schen Gründen in einer unterabgetasteten Darstellung) und der Quantisierung des abgetasteten Signals liegt das Nutzsignal in digitaler Form s(n) vor, wie in Abb. 2 dargestellt. Um die Datenrate R der Signalübertragung vom Signalsender zum Signalempfänger zu reduzieren, wird nicht das Signal s(n), sondern das um m Abtastzeitpunkte) verzögerte Differenzsignal Δs(n+m, m) übertragen. In Abb. 3 ist das ermittelte Dif­ ferenzsignal Δs(n+m, m) für die Verschiebung m = 5 skizziert. Die Verzögerung der Übertragung von Δs(n+m, m) ist außerdem notwendig, um kurzzeitig auftretende Störspitzen im Original­ signal s(n) vernachlässigen zu können, die innerhalb der betreffenden k Abtastzeitpunkte möglicherweise auftreten. Verhält sich das Signal s(n) während dieser Zeitspanne quasi­ stationär, gilt also
erfolgt eine Übertragung des Differenzsignalswerts von Δs(n+m, m) zum Zeitpunkt n+k nur dann, wenn s(n) zu diesem Zeitpunkt dem Betrage nach einen geeignet festgelegten Schwellwert Sref/√2 überschreitet. Dieser Schwellwert kann etwa durch ein Gleichspannungssignal sref(t) = const. oder durch den Effekivwert der Amplitude eines sinusoidalen Wech­ selspannungssignals sref(t) repräsentiert werden, das als Re­ ferenzsignal dient.
Fig. 4 veranschaulicht bildhaft zwei Fälle für ein per­ sistentes Signal (s(n) = const.) während des Beobachtungs­ zeitraumes, also der Verzögerungszeit Δtv zwischen den Mes­ sungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunk­ ten n = 15 bis n+k = 20.
In Fall a) wird ein Beispiel gezeigt, bei dem der Betrag der Signalamplitude von s(n) für die besagten (k+1) Abtastzeit­ punkte einen konstanten Wert oberhalb eines vorgegebenen Schwellwerts annimmt. Für die Entscheidung, ob der aktuelle Abtastwert Si+k des Signals s(n) zum Abtastzeitpunkt n+k = 20 übertragen werden soll, interessieren jedoch nur die ermit­ telten Werte des Signals s(n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n = 15 bis n+k = 20. Da in Fall a) die Bedingung
|s(n)| < Sref/√2
zu den Zeitpunkten n = 15 bis n+k = 20 (**)
erfüllt ist, kann zum Zeitpunkt n+k = 20 die Übertragung des Differenzsignalwerts Δsi+k erfolgen.
In Fall b) wird ein Beispiel gezeigt, bei dem der Betrag der Signalamplitude von s(n) für die besagten (k+1) Abtastzeit­ punkte einen konstanten Wert unterhalb eines vorgegebenen Schwellwerts annimmt, und zwar den Wert Null. Für die Ent­ scheidung, ob der aktuelle Abtastwert Δsi+k des Differenzsig­ nals zum Abtastzeitpunkt n+k = 20 übertragen werden soll, inte­ ressieren jedoch wieder nur die ermittelten Werte des Signals s(n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n = 15 bis n+k = 20. Da in Fall b) die Bedin­ gung (**) nicht erfüllt ist, kann zum Zeitpunkt n+k = 20 keine Übertragung des Differenzsignalwerts Δsi+k erfolgen.
Fig. 5 zeigt zwei Fälle für ein signifikant zunehmendes bzw. abnehmendes Signal (s(n) ≠ const.) während des Beobachtungs­ zeitraumes, also der Verzögerungszeit Δtv zwischen den Mes­ sungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunk­ ten n = 15 bis n+k = 20. Die Bezeichnung "signifikant" bedeutet in diesem Zusammenhang, dass der Betrag der Signalamplitude von s(n) innerhalb der besagten (k+1) Abtastzeitpunkte einen vorgegebener Schwellwert über- bzw. unterschreitet. In Fall c) ist eine signifikante Zunahme der betragsmäßigen Signalän­ derung |s(n)| während dieses Zeitraums dargestellt, in Fall d) eine signifikante Abnahme von |s(n)|. Das Signal s(n) nimmt dabei während dieses Zeitraums Werte an, für die
S (n) < + Sref/√2 bzw. 0 ≦ s(n) < + Sref/√2
gilt, wobei es zu einer Über- bzw. Unterschreitung des Schwellwerts +Sref/√2 kommt. Möglich sind aber auch Fälle, bei denen das Signal s(n) während dieses Zeitraums Werte an­ nimmt, für die
S (n) < -Sref/√2 bzw. 0 ≧ s(n) < -Sref/√2
gilt, wobei es zu einer Unter- bzw. Überschreitung des Schwellwerts -Sref/√2 kommt. Für die Entscheidung, ob der Differenzsignalwert Δsi+k zum Abtastzeitpunkt n+k = 20 übertra­ gen werden soll, interessieren jedoch wieder nur die ermit­ telten Werte des Signals s(n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n = 15 bis n+k = 20. Da in Fall c) die Bedingung (**) nicht erfüllt ist, kann zum Zeitpunkt n+k keine Übertragung des Differenzsignalwerts Δsi+k erfolgen. In Fall d) ist die Bedingung (**) auch nicht er­ füllt, so dass auch hier zum Zeitpunkt n+k = 20 die Übertragung des Differenzsignalwerts Δsi+k nicht erfolgen kann.
Der in Fig. 6 abgebildete Fall e) zeigt ein Beispiel für ein signifikant abnehmendes und wieder signifikant zunehmendes Signal (s(n) + const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunkten n = 15 und n+k = 20. Für die Entscheidung, ob der Differenzsignalwert Δsi+k zum Abtastzeitpunkt n+k = 20 übertragen werden soll, interes­ sieren wieder nur die ermittelten Werte des Signals s(n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtast­ zeitpunkten n = 15 bis n+k = 20. Da in Fall e) die Bedingung (**) erfüllt ist, kann zum Zeitpunkt n+k die Übertragung des Dif­ ferenzsignalwerts Δsi+k erfolgen, unabhängig davon, welche Werte s(n) für die dazwischen liegenden Abtastzeitpunkte n+1 = 16 bis n+k-1 = 19 annimmt.
In Fig. 7 sind zwei Spezialfälle skizziert, bei denen nur die Verzögerungszeit Δtv, jedoch kein Amplitudenwert d/2 als Schwellwert zugelassen wird; es gilt also d = 0. Falls das Signal s(n) für die Signaldauer Δτ bzw. κ := Δτ/Δt mit
Δτ ≧ Δtv bzw. mit κ ≧ k bei d = 0 (Annahme 1)
persistent ist, erfolgt eine Übertragung des Differenzsignal­ werts Δsi+k zum Abtastzeitpunkt n+k = 20. Gilt jedoch für die Signaldauer
Δτ < Δtv bzw. κ < k bei d = 0 (Annahme 2),
so findet keine Übertragung des Differenzsignalwerts Δsi+k zum Abtastzeitpunkt n+k = 20 statt.
In Fig. 8 sind zwei Spezialfälle skizziert, bei denen nur der Amplitudenwert d/2, jedoch keine Verzögerungszeit Δtv, als Schwellwert zugelassen wird; es gilt also Δtv = 0. Falls der Betrag eines Signalwerts si einen Amplitudenwert d/2 über­ schreitet, also
|si| < d/2 bei Δtv = 0 (Annahme 3)
gilt, erfolgt eine Übertragung des Differenzsignalwerts Δsi+k zum Abtastzeitpunkt n+k = 20. Gilt jedoch für die Signaldauer
|si| < d/2 bei Δtv = 0 (Annahme 4),
so findet keine Übertragung des Differenzsignalwerts Δsi+k zum Abtastzeitpunkt n+k = 20 statt.
Die Bedeutung der in den Fig. 1 und 2 mit Ziffern bezeich­ neten Symbole kann der nachfolgenden Bezugszeichenliste ent­ nommen werden.
Bezugszeichenliste
101
Häuserblock mit Gehweg als aufgenommene Bildszene einer Bewegtbildsequenz
102
Videokamera als Signalaufnehmer zur Aufnahme von Bewegt­ bildsequenzen mit dem analogen Ausgangssignal s(t) als Sendesignal
103
Modul zur Durchführung einer Helligkeitsregelung (HR) bzw. zur Durchführung eines Weiß-Abgleichs (WA) für das analoge Sendesignal s(t)
104
Analog-Digital-Wandler zur Abtastung und Quantisierung des analogen Sendesignals s(t) mit dem digitalen Sende­ signal s(n) am Ausgang
105
Kodierer zur Durchführung der Quellen- und/oder Kanalko­ dierung des digitalen Sendesignals s(n) mit dem Diffe­ renzsignal
106 Modulator zur Trägerung des zu übertragenden Differenz­ signals Δs(n+m, m) mit dem Ausgangssignal Δsmod(t)
107 Addierer zur Modellierung der Störung des zu übertragen­ den Signals Δsmod(t) durch ein additives weißes gaußförmi­ ges Rauschen r(t)
(Zur Vereinfachung der Formeln gelte im Folgenden die An­ nahme, der Übertragungskanal sei ideal, also r(t) = 0.)
108 Demodulator zur Rückgewinnung des zu übertragenden Diffe­ renzsignals Δs(n+m, m)
109 Dekodierer zur Durchführung der Quellen- und/oder Kanal­ dekodierung zur Gewinnung des digitalen Sendesignals
s(n+m) = Δs(n+m, m) + s(n)
am Ausgang des Dekodierers
110 Digital-Analog-Wandler zur Rekonstruktion des analogen Sendesignals s(t)
111 Bildschirm bzw. Display als Signalempfänger zur Anzeige der aufgenommenen Bewegtbildsequenzen
112 Wahrnehmung der empfangenen Bewegtbildsequenzen im Auge des Betrachters
201 Aktionen: Initialisierung des Zählers ZA für die Abtast­ zeitpunkte n durch die Zuweisung n := 0 und Initialisie­ rung des Zählers ZM für die Messzeitpunkte i durch die Zuweisung i := 0
202 Aktionen: Messung des abgetasteten Signalwerts si := sn eines digitalen Nutzsignals s(n) zum Abtastzeitpunkt n im Signalsender (Messung #i) und Speicherung dieses Werts
203 Aktionen: Abwarten einer mehrere Abtastzeitpunkte umfas­ senden Verzögerungszeit Δtv (Δtv ≧ Δt) unter Durchführung weiterer Messungen abgetasteter Signalwerte si+1 := sn+1 bis si+k-1 := Sn+k-1 (Messungen #(i+1) bis #(i+k-1)) und Speicherung dieser Werte
204 Aktionen: Inkrementierung des Zählers ZA für die Abtast­ zeitpunkte n durch die Zuweisung n := n+k mit der Ver­ schiebung k := Δtv/Δt ≧ 1 und Inkrementierung des Zäh­ lers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k
205 Aktionen: Messung des abgetasteten Signalwerts si+k := Sn+k des Nutzsignals s(n) zum Abtastzeitpunkt n+k im Signal­ sender (Messung #(i+k)) und Speicherung dieses Werts
206 Aktion: Ermittlung der zu übertragenden aktuellen Signal­ änderung
Δsi+k := si+k - si
des Signalwerts si+k von s(n) zum Abtastzeitpunkt n+k ge­ genüber dem Signalwert si von s(n) zum Abtastzeitpunkt n im Signalsender
207 Abfrage: Wurden mindestens zwei Abtastwerte des Original­ signals s(n) abgewartet, gilt also n+m ≧ 2.m ↔ n ≧ m?
208 Abfrage: Über- bzw. unterschreiten die zu den Abtastzeit­ punkten n, n+1, n+2, ..., n+k ermittelten Signalwerte si, si+1, si+2, . . .,. si+k einen gegebenen Schwellwert +Sref/√2 bzw. -Sref/√2, gilt also die Ungleichung |si+j| < Sref/√2, das heißt |si+j| < d/2 für j = 0, 1, 2, . ., k?
209 Aktion: Übertragung der aktuellen Signaländerung Δsi+k vom Signalsender zum Signalempfänger zum Abtastzeitpunkt n+k und Durchführung der Addition
si+k = si + Δsi+k
210 Abfrage: Ist die Übertragung des kompletten Differenzsig­ nals Δs(n+m, m) beendet, gilt also n < N - m?

Claims (15)

1. Verfahren zur Regelung von zumindest einer Signalkompo­ nente mindestens eines Datensignals (DS), dadurch gekennzeichnet, dass die Regelung mittels mindes­ tens eines Korrektursignals (KS) zu diskreten Zeitpunkten erfolgt, in Abhängigkeit von Amplitude bzw. Dauer der Än­ derungen von zumindest einer Signalkomponente des Daten­ signals (DS).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Übermittlung des Daten­ signals (DS) von einer Signalquelle (102) zu einer Signal­ senke (111) mittels einer Übertragung von Differenz-Daten­ signalen (DDS) erfolgt.
3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Datensignal (DS) im Ver­ lauf der Regelung seinen aktuellen Wert ändert, sofern die Werte des Datensignals (DS) wenigstens einen als Reakti­ onsniveau geeignet festgelegten Schwellwert σref über- bzw. unterschreiten.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass es sich bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte σref um eine fest vorgegebene Verzögerungszeitdauer Δtv handelt.
5. Verfahren nach einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, dass es sich bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte σref um einen Amplituden-, Frequenz- und/oder Phasenwert handelt.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass es sich bei dem Datensignal (DS) um ein Videosignal (VS) handelt.
7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass es sich bei der als Schwell­ wert vorgegebenen Intensität und/oder Frequenz um mindes­ tens einen Luminanz- (Yref) und/oder Chrominanzwert (U­ ref,Vref) handelt, mit dem die Werte der Luminanz (Y) bzw. Chrominanz (U,V) eines empfangenen digitalen Videosignals (VS) verglichen werden.
8. Verfahren nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass zur Festlegung der Schwell­ werte für die kleinste wahrnehmbare Luminanz- (ΔYJN) bzw. Chrominanzänderung (ΔUJN,ΔVJN) des empfangenen Videosignals (VS) in Abhängigkeit von den durch (Y,U,V)env charakteri­ sierten Beleuchtungsverhältnissen in der Umgebung des Bildsignalgebers die psychooptischen Eigenschaften des menschlichen Sehvermögens im Hinblick auf die Amplituden- und/oder Frequenzmodulationsschwelle, die wahrnehmbare Frequenzgruppenbreite ΔfG und die durch die Maskierung von Nutzstrahlung durch Störstrahlung im Zeit- und/oder Fre­ quenzbereich hervorgerufenen Effekte ausgewertet werden.
9. Verfahren nach einem der Ansprüche 3 bis 8, dadurch gekennzeichnet, dass es sich dabei um die Durch­ führung des Weiß-Abgleichs von Videosignalen (VS) handelt, bei dem Helligkeit, Farbton und/oder Farbsättigung der von einer Videokamera (102) aufgenommenen Bewegtbilder (101) in Abhängigkeit von den Beleuchtungsverhältnissen in der Umgebung der Videokamera (102) reguliert werden.
10. Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass nach dem Verstreichen einer Verzögerungszeit Δtv und/oder nach dem Über- bzw. Unter­ schreiten mindestens eines geeignet festgelegten Schwell­ werts σref sendeseitig ein sofortiges Umschalten auf den neuen Wert des Korrektursignals (KS) erfolgt.
11. Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass nach dem Verstreichen einer Verzögerungszeit Δtv und/oder dem Über- bzw. Unterschrei­ ten mindestens eines geeignet festgelegten Schwellwerts σref mittels eines Interpolationsverfahrens sendeseitig ein allmähliches Umschalten auf den neuen Wert des Korrektur­ signals (KS) erfolgt.
12. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Regelung nicht erfolgt, wenn die Dauer der Änderung des Datensignals (DS) eine vorgegebene Verzögerungszeitdauer (Δtv) unterschreitet.
13. Verfahren nach einem der Ansprüche 1 oder 12, dadurch gekennzeichnet, dass eine Regelung nicht erfolgt, wenn der Betrag der Amplitude, Frequenz bzw. Phase des Da­ tensignals (DS) einen vorgegebenen Amplituden-, Frequenz- bzw. Phasenschwellwert unterschreitet.
14. Verfahren nach einem der Ansprüche 12 oder 13, bei dem es sich bei der Signalkomponente um ein Chromi­ nanzsignal handelt.
15. Verfahren nach einem der Ansprüche 12 bis 14, bei dem es sich bei der Signalkomponente um ein Luminanz­ signal handelt.
DE10045777A 2000-09-15 2000-09-15 Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung Withdrawn DE10045777A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10045777A DE10045777A1 (de) 2000-09-15 2000-09-15 Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung
EP01971648A EP1319310A2 (de) 2000-09-15 2001-08-28 Verfahren zur diskontinuierlichen regelung und übertragung der luminanz- und/oder chrominanzkomponente in der digitalen bildsignalübertragung
PCT/DE2001/003277 WO2002023899A2 (de) 2000-09-15 2001-08-28 Verfahren zur diskontinuierlichen regelung und übertragung der luminanz- und/oder chrominanzkomponente in der digitalen bildsignalübertragung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10045777A DE10045777A1 (de) 2000-09-15 2000-09-15 Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung

Publications (1)

Publication Number Publication Date
DE10045777A1 true DE10045777A1 (de) 2002-04-11

Family

ID=7656393

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10045777A Withdrawn DE10045777A1 (de) 2000-09-15 2000-09-15 Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung

Country Status (3)

Country Link
EP (1) EP1319310A2 (de)
DE (1) DE10045777A1 (de)
WO (1) WO2002023899A2 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335278B2 (en) * 2019-01-03 2022-05-17 Guangdong Xiaye Household Electrical Appliances Co., Ltd. Self-adaptive adjustment method based on ambient light distribution field

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8502924D0 (en) * 1985-02-05 1985-03-06 British Telecomm Image encoding
US4932066A (en) * 1985-10-15 1990-06-05 Canon Kabushiki Kaisha Information signal transmission system
US5245679A (en) * 1990-05-11 1993-09-14 Hewlett-Packard Company Data field image compression
US5388182A (en) * 1993-02-16 1995-02-07 Prometheus, Inc. Nonlinear method and apparatus for coding and decoding acoustic signals with data compression and noise suppression using cochlear filters, wavelet analysis, and irregular sampling reconstruction
US6477553B1 (en) * 1999-01-13 2002-11-05 Philip Druck Measurement scale for non-uniform data sampling in N dimensions

Also Published As

Publication number Publication date
EP1319310A2 (de) 2003-06-18
WO2002023899A3 (de) 2002-12-27
WO2002023899A2 (de) 2002-03-21

Similar Documents

Publication Publication Date Title
JP6822121B2 (ja) 画像処理装置、画像処理方法及びプログラム
US6269217B1 (en) Multi-stage electronic motion image capture and processing system
CN108205796B (zh) 一种多曝光图像的融合方法及装置
US6867717B1 (en) Digital encoder and method of encoding high dynamic range video images
CN109716758B (zh) 使用复合滤波法的监控相机和采用其的视频监控系统
US20120127334A1 (en) Adaptive spatial sampling using an imaging assembly having a tunable spectral response
US8629919B2 (en) Image capture with identification of illuminant
DE2619027C2 (de) Fernsehaufnahmesystem
JP6822123B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6822122B2 (ja) 画像処理装置、画像処理方法及びプログラム
Ward Digital video camerawork
KR100230860B1 (ko) 비디오 신호 잡음 감소 시스템
WO2007055389A2 (en) Image signal processing apparatus
US20040062316A1 (en) Method for pre-suppressing noise of image
JP6826208B2 (ja) 視程状態の変化にロバストな複合フィルタリング基盤のオートフォーカシング機能を有する監視カメラ及びそれが適用された映像監視システム
DE69705063T2 (de) Verfahren und vorrichtung zur kompensierung von durch chrominanzsignalverarbeitung verursachten luminanzdefekten
Froehlich et al. Content aware quantization: Requantization of high dynamic range baseband signals based on visual masking by noise and texture
US5075778A (en) Backlight correction system
US6760474B1 (en) Frequency-based video data substitution for increased video compression ratios
DE10045777A1 (de) Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung
JPS62253285A (ja) カラ−ビデオ信号の処理方法及び装置
US6124887A (en) Specal effects camera and system including such a camera
JP2004187036A (ja) 輪郭補正システム
JP4765240B2 (ja) 圧縮符号化方法,圧縮符号化プログラムを記録した記録媒体,および圧縮符号化方法を実施する電子カメラ
US7050492B1 (en) Matching of a reduced spectrum lighting source with video encoding program variables for increased data compression ratios

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee