DE10045777A1 - Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung - Google Patents
Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen BildsignalübertragungInfo
- Publication number
- DE10045777A1 DE10045777A1 DE10045777A DE10045777A DE10045777A1 DE 10045777 A1 DE10045777 A1 DE 10045777A1 DE 10045777 A DE10045777 A DE 10045777A DE 10045777 A DE10045777 A DE 10045777A DE 10045777 A1 DE10045777 A1 DE 10045777A1
- Authority
- DE
- Germany
- Prior art keywords
- signal
- transmission
- ref
- color
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/507—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zur Regelung von Signalkomponenten mindestens eines Datensignals (DS), das von einer Signalquelle (102) zu einer Signalsenke (111) übermittelt wird, wobei die Übertragung zu diskreten Zeitpunkten erfolgt, in Abhängigkeit davon, ob und wann sendeseitig Änderungen des Datensignals (DS) vorliegen. DOLLAR A Ein spezielles Ausführungsbeispiel der Erfindung beinhaltet ein Verfahren zur automatischen Einstellung der Luminanz-, Chrominanz- und/oder Farbsättigungswerte bei digitalen Bildübertragungssystemen für Videosignale, zum Beispiel im Fernseh- oder Multimediabereich. Die Erfindung fußt auf einem Verfahren zur Übertragung von Differenzbildern, die durch Subtraktion der YUV-Komponenten von Abtastbildern zu zeitlich aufeinanderfolgenden Abtastzeitpunkten entstehen. Erfindungsgemäß werden diese Differenzbilder zu diskreten Zeitpunkten in unregelmäßigen Abständen übertragen, sofern mindestens ein geeignet festgelegter Zeit-, Y-, U- bzw. V-Schwellwert überschritten wird. Auf diese Weise kann die Redundanz im Übertragungssignal und damit die Datenübertragungsrate im Vergleich zu einer periodisch wiederholten Differenzbildübertragung entscheidend verringert werden.
Description
Die digitale Übertragung von Audio- und Videosignalen wird in
der heutigen Zeit immer wichtiger. Sei es, dass im Vergleich
zu bisherigen analogen Übertragungen bei gleicher Qualität
mehr Programme übertragen werden sollen oder bei gleicher An
zahl Kanäle eine höhere Qualität geboten werden soll, die Lö
sung heißt digitale Übertragung. Dabei wird zuerst eine Da
tenreduktion durchgeführt, weil sonst eine viel zu große
Bandbreite für die Übertragung zur Verfügung gestellt werden
müsste. Im Rahmen einer Quellenkodierung werden zu diesem
Zweck die für die subjektive akustische bzw. optische Wahr
nehmung irrelevanten bzw. redundanten Daten weggefiltert, so
dass bei der Rekonstruktion praktisch kein oder nur ein ak
zeptierbar kleiner Unterschied zum Originalsignal entsteht.
Allerdings wird durch diese Operation das Signal anfälliger
für Störungen. Deshalb muss für die meisten Übertragungska
näle ein entsprechender Fehlerschutz hinzugefügt werden, wo
durch die Datenmenge wieder leicht größer wird. Das Problem
der Datenreduktion besteht einerseits darin, die Bandbreite B
und Datenrate R des Übertragungssignals so klein wie möglich
zu halten, andererseits dürfen bei der Quellenkodierung nur
so viele Signalanteile durch Filterung eliminiert werden,
dass das übertragene Signal ohne hörbare bzw. sichtbare Be
einträchtigungen empfangen werden kann.
Die subjektiv nicht oder kaum wahrnehmbare Reduktion irrele
vanter bzw. redundanter Signalanteile kann durch eine ge
schickte Ausnutzung gewisser psychooptischer und psychoakustischer
Effekte erreicht werden. Zum Teil werden einige die
ser Effekte bereits im Bereich der Quellenkodierung ausge
nutzt. In der Optik sind das unter anderem die folgenden Ef
fekte:
- - Mach-Effekt: Kontrastübergänge an Kanten werden vom menschlichen Auge verstärkt wahrgenommen.
- - Oblique-Effekt: In der Natur sind überwiegend horizontale und vertikale Strukturen anzutreffen. Der Mensch ist des halb bei der Orientierung weniger auf diagonale Strukturen angewiesen. Letztere können also bei der Kodierung rudi mentär behandelt werden.
- - Flächenintegration: Je grösser eine einfarbige Fläche ist, desto genauer können Farb- und Helligkeitswerte aufgelöst werden - das Auge kann "integrieren". Der Kodierer muss also große Flächen (das heißt kleine Ortsfrequenzen Ω1 bzw. Ω2 im zweidimensionalen Ortsraum) genauer quantisie ren als kleine.
Da akustische bzw. optische Signale über einen hohen Anteil
irrelevanter bzw. redundanter Information verfügen, kann bei
dieser Art von Signalen eine Quellenkodierung erfolgreich
eingesetzt werden. Ein Signal enthält redundante Information,
wenn diese durch Kenntnisse der Statistik der Nachrichten
quelle vorhersagbar ist. Wenn etwa zwei benachbarte Bild
punkte untereinander korrelieren, spricht man von räumlicher
Redundanz, bei korrelierenden Farbflächen oder Frequenzbän
dern von spektraler Redundanz. Die Ähnlichkeit zweier aufein
ander folgender Bilder wird als zeitliche Redundanz bezeich
net. Der Kodierer kann dem Signal redundante Information ent
ziehen, wenn er die Quellenstatistik kennt. Das Signal kann -
abgesehen von Rundungsfehlern - wieder vollständig rekonstruiert
werden. Die Redundanz R(X) eines digitalen Signals,
das durch die Bitfolge X := {xi|0 < = i < = M - 1} mit den Datenbits
xi ∈ {0; 1} repräsentiert wird, liefert also keine zusätzliche
Information, ist aber unter Umständen zur Absicherung der
Nutzinformation vorteilhaft. Zur Ermöglichung von Algorithmen
zur Fehlererkennung und/oder Fehlerkorrektur für ein übertra
genes Datensignal ist beispielsweise redundante Information
in Form von Paritätsbits und Prüfsummen notwendig.
Ein Maß für den Informationsgehalt eines digitalen Signals,
das durch die Bitfolge X := {xi|0 < = i < = M - 1} mit den Datenbits
xi ∈ {0; 1} repräsentiert wird, ist die Entropie H(X) des Sig
nals. Die Entropie ist dabei eine untere Schranke für die
bestenfalls erreichbare durchschnittliche Kodewortlänge. Der
Huffman-Algorithmus kommt dieser Schranke am nächsten. Das
Ziel der Redundanzreduktion ist, mittels einer Transformation
die Datenrate der Quelle zu verringern, so dass eine effi
ziente Entropiekodierung möglich wird. Die Signalanteile, die
das Auge bzw. das Gehör auf Grund des beschränkten Auflö
sungsvermögens nicht aufnehmen kann, sind irrelevant und
brauchen bei der Kodierung nicht berücksichtigt zu werden,
sie sind allerdings durch den Dekodierer nicht wiederher
stellbar. Auch hier trifft man auf räumliche, spektrale und
zeitliche Irrelevanz. Idealerweise sind Verluste, die durch
Datenreduktion entstehen, nur messtechnisch und nicht subjek
tiv erfassbar. In realen Anwendungen jedoch ist es manchmal
leider nicht vermeidbar, auch auf Teile der relevanten und
nicht redundanten Information zu verzichten, wenn akzeptable
Kompressionsfaktoren erreicht werden sollen. Das grundlegende
Problem ist also, dass zur Zeit keine vollständige Reduktion
irrelevanter bzw. redundanter Daten betrieben werden kann,
ohne dass bei der Signalübertragung auch für eine optimale
Empfangsqualität relevante und nicht-redundante Signalanteile
vernachlässigt werden müssen.
Die digitale Echtzeitübertragung von Audio- und Videodaten
stellt bisher noch nicht dagewesene Anforderungen an die
Rechenleistung von Prozessoren und die Eigenschaften der Ü
bertragungsnetze, und es müssen verschiedene Aufgaben
gelöst werden, bevor eine befriedigende Lösung weitverbreitet
verfügbar wird. Digitales Video stellt dabei bei weitem die
höchsten Ansprüche an die Übertragung: Es braucht eine große
Bandbreite, es muss mit minimaler Verzögerung übertragen wer
den und toleriert keine hohe Fehlerrate. Auch nach der Komp
rimierung und Kodierung benötigt eine Videoübertragung in
Broadcastqualität immer noch eine Datenrate von R = 4 Mbit/s
bis 10 MBit/s; das ist eine unannehmbar hohe Datenrate für
die heute verfügbaren lokalen Netze (LANs) und die meisten
größeren Netze (WANs). Verzögerungen bei Videodaten sind des
halb kritisch, weil die Einzelbilder mit einer Bildwiederhol
frequenz von fa = 25 (bzw. 30) Bilder/s dargestellt werden
müssen. Die digitale Echtzeitübertragung von breitbandigen
Signalen bringt also das Problem mit sich, dass einerseits
die heute verfügbaren Netze die erforderliche hohe Datenrate
nicht bereitstellen können, andererseits aber wegen der ge
wünschten hohen Signalqualität eine notwendige Mindestdaten
rate nicht unterschritten werden darf, insbesondere bei der
Übertragung digitaler Bildsequenzen im Multimediabereich.
Echtzeitübertragungen von Videosignalen vertragen insbeson
dere keine Schwankungen der absoluten Verzögerungszeit der
einzelnen Abtastbilder (engl.: "Frames"), wie sie aber bei
den meisten verfügbaren Netzen üblicherweise auftreten, was
ein weiteres Problem darstellt.
Kommunikationsnetze sind außerdem nie fehlerfrei und stören
so die Übertragung, indem zum Beispiel einzelne Bits ver
fälscht werden oder ganze Pakete verloren gehen. Das wirkt
sich wiederum störend aus, da das komprimierte Videosignal
auf Fehler besonders anfällig ist, weil die örtliche und
zeitliche Redundanz zuvor entfernt wurde. Nicht zuletzt sind
die unvermeidbaren Störungen im Kommunikationsnetz Ursache
für weitere Probleme bei der digitalen Echtzeitübertragung.
Die vom Kommunikationsnetz zur Verfügung gestellte Leistung
hängt von verschiedenen Parametern wie Datenrate, Verzöge
rung, Verzögerungsschwankungen und Fehlerwahrscheinlichkeit
ab, die als "Quality of Service"-Parameter (QoS-Parameter)
bezeichnet werden. Viele der bestehenden Netze garantieren
dem Benutzer aber keine bestimmten Grenzen für die QoS-Para
meter, was bedeutet, dass diese sich in unvorhersehbarer Wei
se ändern können. (Eine Ausnahme ist z. B. B-ISDN über ATM,
bei dem bei Verbindungsaufbau die QoS-Parameter signalisiert
werden.) Um einen zuverlässigen und effektiven Videokommuni
kationsdienst über diverse Netze anbieten zu können, ist es
wichtig, die QoS-Anforderungen von kodierten Videosignalen zu
kennen. Nachfolgend werden einige wichtige Aspekte in diesem
Zusammenhang herausgestellt, die zeigen, dass es nicht mög
lich ist, alle Anforderungen zu erfüllen, da sie sich zum
Teil widersprechen.
Zuerst sollen daher die "idealen" Übertragungsanforderungen
für digitales Video betrachtet werden, also die Höhe der
Qualitätsstufe, die die digitalen Netze zur Verfügung stellen
sollen.
In einem idealen digitalen Videokommunikationssystem sollte
die vom Benutzer wahrgenommene Bildqualität weder vom Kodie
rer bzw. Dekodierer noch vom Übertragungsmedium abhängen. Das
ist jedoch nicht möglich, da diese beiden Faktoren in der
Praxis eine Signalverschlechterung erzeugen, die zusätzlich
zu den Begrenzungen von Aufnahmespeicherung (Rekorder) und
Darstellung (Display, Monitor) auftreten. Unter der Annahme,
dass ein solches System die Videoqualität auf einer bestimmten
Stufe ansetzt, sollte diese über die gesamte Übertra
gungsdauer auch konstant sein. Außerdem sollte die darge
stellte Qualität unabhängig vom Szeneninhalt und vom momenta
nen Systemzustand sein. In Wirklichkeit kann der Szeneninhalt
eine bedeutende Auswirkung auf die momentane Datenrate haben
und die Videoqualität kann vom momentanen Zustand des Über
tragungsnetzes (Verkehrswert) abhängen.
Idealerweise sollte eine dekodierte Videosequenz keine Ver
schlechterungen zeigen aufgrund von Fehlern oder Verlusten
im Kommunikationssystem (zum Beispiel durch Bitfehler infolge
von störendem Rauschen, durch verlorene oder fehlgeleitete
Pakete etc.). Das menschliche visuelle Wahrnehmungssystem
("Human Visual System", HVS) reagiert sehr empfindlich auf
Fehler oder Verschlechterungen in der Bildinformation. Ein
Fehler, der nur in einem einzelnen Bild (Frame) auftritt, ist
für 1/25 s (bzw. 1/30 s) sichtbar und wird keinen großen Ein
fluss auf den Zuschauer haben, es sei denn er betrifft einen
sehr großen Bildbereich. Wenn viele solcher Einzelfehler in
einer Sequenz auftreten, wird es als Flimmern wahrgenommen
und wirkt störender. Wirkt sich ein Fehler oder eine Signal
verschlechterung über mehrere Frames hinweg aus, ist es sehr
wahrscheinlich, dass dies vom Betrachter wahrgenommen und
auch beanstandet wird. Ein Videokommunikationssystem sollte
daher versuchen, das Erscheinen von Fehlern durch die Über
tragung oder die Datenreduktion im Bild möglichst klein zu
halten, besonders bei Fehlern, die sich auf mehrere deko
dierte Bilder auswirken.
Die Verzögerung ist ein wichtiger Faktor bei der Darstellung
von Echtzeitdaten wie digitalem Video und die Gesamtverzöge
rungszeit des Systems ist besonders bedeutend bei der Zwei
wegkommunikation (z. B. Videotelefonie). Idealerweise sollten
in beide Richtungen keine wahrnehmbaren Verzögerungen auftre
ten. Jede deutlich merkliche Verzögerung führt zu Kommunikationsschwierigkeiten.
Zum Beispiel wird eine normale Unter
haltung sehr schwierig, wenn die Verzögerung Δtv = 300 ms ü
berschreitet. Wenn zusätzlich der Ton dem Bild vor- oder
nacheilt, verliert der Benutzer die Synchronisation (z. B. die
Lippensynchronisation beim Reden). Für viele verwendete oder
sich in Planung befindliche Videodienste (Video on Demand,
Homeshopping etc.) ist es wichtig, dass keine merkliche Ver
zögerung zwischen den Steuerbefehlen des Benutzers und der
Reaktion des Dienstes auftritt.
Bei Einwegübertragungen (z. B. digitales Satellitenfernsehen)
ist die Gesamtverzögerungszeit nicht so bedeutend, umso
mehr muss darauf geachtet werden, dass keine Schwankungen der
absoluten Verzögerung auftreten. Da jede Bild- und Toninfor
mation dem Anwender mit einer konstanten Rate präsentiert
werden muss, müssen eventuelle Schwankungen vor der Darstel
lung ausgeglichen werden.
Ein Videoübertragungssystem ist dafür verantwortlich, dass
die Videodaten von einem Ende bis zum anderen gelangen. Der
QoS bezieht sich auf die Dienstebene, die der Videoanwendung
vom Transportsystem zur Verfügung gestellt wird und ist ge
kennzeichnet durch die Bandbreite, die Fehlerrate und die
Verzögerung. Das Transportsystem kann begrifflich in ein un
terliegendes Netzwerk und ein Ende-zu-Ende Transportprotokoll
aufgeteilt werden. Letzteres verbessert den QoS des unterlie
genden Netzwerks, um den Ansprüchen des Dienstes zu genügen.
Dabei ist dessen Komplexität abhängig von der Fehlanpassung
des gebotenen und gewünschten QoS. Wenn das Netzwerk schon
die geforderten Bedingungen bezüglich QoS erfüllt, benötigt
es kein weiteres Transportprotokoll. Zum Beispiel wird inner
halb des Internets TCP (engl.: "Transmission Control Proto
col") als Ende-zu-Ende Protokoll verwendet, um den durch das
Netzwerk zur Verfügung gestellten QoS an den von den Anwen
dungen geforderten anzupassen. Wenn Ressourcen für jede Verbindung
innerhalb eines paketvermittelten Netzes reserviert
werden, ist es möglich, Garantien für die maximale Verzöge
rung und minimale Bandbreite abzugeben (z. B. bei B-ISDN über
ATM).
Die heute verfügbaren Kommunikationsnetze besitzen Begrenzun
gen beim QoS. Nachfolgend werden die Auswirkungen dieser
Grenzen bei der Übertragung von kodierten Videosequenzen kurz
näher betrachtet.
Die verfügbare Datenübertragungsrate hat signifikante Auswir
kungen auf die Qualität der kodierten Videodaten. Gängige Vi
deokodierverfahren sind üblicherweise verlustbehaftet, was
bedeutet, dass zum Teil wichtige Daten bei der Kodierung und
Kompression verloren gehen. Bei jedem verlustbehafteten Vi
deokodierverfahren ist im Allgemeinen die durchschnittliche
Bitrate der kodierten Daten proportional zur dekodierten Dar
stellungsqualität. Bei Kodierern bzw. Dekodierern für Video
signale, die auf der Diskreten Kosinus-Transformation (DCT)
beruhen, zum Beispiel bei MPEG1 und MPEG2 tritt der Quali
tätsverlust beim Quantisieren auf. Eine gröbere Quantisierung
führt zu einer schlechteren Bildqualität nach der Dekodie
rung, gleichzeitig findet aber auch eine höhere Komprimierung
statt und es resultiert eine geringere Datenrate. Somit ist
die Quantisierungsauflösung ein Schlüsselparameter für die
Kontrolle der Videobitrate.
Die in der Praxis anzutreffenden Kommunikationsnetze verfäl
schen die zu übertragenden Daten, indem sie Information ver
ändern oder verlieren. Sogar eine relativ niedrige Fehlerrate
oder ein sehr geringer Datenverlust kann eine ernsthafte Aus
wirkung auf die dekodierten Sequenzen haben. Kompressionsal
gorithmen entfernen viel von der vorher vorhandenen örtlichen
und zeitlichen Redundanz im Signal, was viel schneller zu
Problemen führt, wenn das kodierte Signal verfälscht wird (im
Vergleich zu einer Verfälschung des unkodierten Signals). In
nerhalb eines Abtastbildes (engl.: "Frame") von kodierten
MPEG-Videodaten werden die quantisierten DCT-Koeffizienten
mit variablen Lauflängenkodes (VLCs) kodiert. Der Dekodierer
kennt die Länge des aktuellen VLCs nicht von vornherein; wenn
jetzt ein VLC beschädigt wird, ist es möglich, dass der Deko
dierer eine gesamte Subsequenz falsch dekodiert. Zusätzlich
werden einige Daten (z. B. DCT-Koeffizienten und Bewegungsvek
toren bei MPEG) nicht unabhängig (I-Frames) sondern relativ
zu vorhergehenden (P-Frames) oder sogar zukünftigen (B-Fra
mes) Daten kodiert. Somit führt ein Fehler in einem I-Frame
auch zu Folgefehlern in davon abhängigen P- und B-Frames. Für
solche Fälle sind im kodierten Bitstrom in regelmäßigen Ab
ständen Markierungen vorhanden, die dem Dekodierer die kor
rekte Synchronisation ermöglichen. Solch ein Fehler kann quer
durch einen Frame seine Auswirkungen haben, bis die nächste
Markierung erreicht wird. Bewegungskompensierte zeitliche
Prädiktion kann dazu führen, dass sich der Fehler sowohl
zeitlich als auch örtlich fortpflanzt. Fehler, die eine wich
tige Stelle im Bild betreffen oder sich über mehrere Bilder
hinweg ausbreiten, sind für einen Betrachter sehr augenfäl
lig. Aus diesem Grund kann ein kodiertes Videosignal nur eine
sehr niedrige Fehlerrate tolerieren, bevor die Qualität merk
lich abfällt. Eine Fehlerwahrscheinlichkeit von mehr als Pb =
10-6 (das heisst ein Fehler auf M = 106 Bits) kann schon einen
bemerkbaren Qualitätsverlust bedeuten.
Die Übertragung von Bild- und Tonsignalen orientiert sich be
reits heute zum Teil an den psychooptischen bzw. psychoakus
tischen Eigenschaften des Menschen. Beispielsweise sind im
Bereich der Bildübertragungstechnik wichtige Parameter wie
Bildwiederholfrequenz und Auflösung deshalb so ausgelegt,
dass das Auge einen möglichst natürlichen Bildeindruck er
hält. Im Folgenden soll auf die wichtigsten Aspekte der Kom
pression, Übertragung und Dekompression von Bildsignalen nach
dem derzeitigen Stand der Technik sowie auf die Rezeption und
Verarbeitung dieser Signale im Auge des Betrachters kurz ein
gegangen werden.
Das Auge erkennt die drei Grundfarben Rot (R), Grün (G) und
Blau (B) mit farbselektiven Sehzellen. Deshalb nimmt eine
Farbkamera diese drei Farben getrennt auf. Allgemein unter
scheidet man bei der Wahrnehmung einer Farbe zwischen den
drei Farbelementen Helligkeit (Luminanz), Farbton (Chromi
nanz) und Farbsättigung. Diese Elemente spielen auch in der
digitalen Bildübertragungs- und Bildverarbeitungstechnik eine
wichtige Rolle. Die Luminanz bezeichnet die Lichtenergie, die
das Auge erreicht. Eine Farbe mit großer Energie hinterlässt
einen hellen Eindruck, die gleiche Farbe mit geringerer Ener
gie wird dunkler empfunden. Während die Chrominanz die Art
der Farbe und damit die Wellenlänge der empfangenen Strahlung
definiert, liefert die Farbsättigung eine Aussage über den
Weißwert einer bestimmten Farbe. Bei einer absolut reinen
Farbe, also einer Strahlung mit nur einer Wellenlänge (mono
chromatisches Licht), beträgt die Farbsättigung 100%. Bei ei
ner zur Hälfte mit Weiß gemischten reinen Farbe beträgt sie
nur noch 50%.
Die Bild- oder Helligkeitsinformation eines Videosignals wird
auch als Luminanz- oder Y-Signal bezeichnet. Dabei werden die
unterschiedlichen Helligkeitswerte eines Bildes in analoge
bzw. digitale Spannungswerte umgesetzt, die im Videosignal
als Amplitudenänderungen erscheinen. Je schneller die Hell-
Dunkel-Information der Bildpunkte einer Bildzeile wechselt,
je kleiner also zusammenhängende Bildanteile konstanter Hel
ligkeit sind, desto größer ist die Frequenz der Signalspan
nung. Da hohe Frequenzen nur schwer übertragen werden können,
ist die Darstellung von Bilddetails, die sogenannte Bildauf
lösung, begrenzt. Durch die CCIR-Norm ist die höchste über
tragene Signalfrequenz eines Videosignals mit fmax = 5 MHz
vorgegeben. Damit sind die Bandbreite und die maximale Bild
auflösung festgelegt.
Die Farbinformation eines Videosignals wird im Rahmen der
Signalaufbereitung nach der PAL-Fernsehnorm durch einen Hel
ligkeitswert (Luminanz), einen Farbwert (Chrominanz) und die
Farbsättigung ausgedrückt. Diese drei Komponenten müssen auch
bei der Übertragung eines Farbbildes vorhanden sein. Zur Er
zeugung eines Farbbildes wandelt eine digitale Farbbild- bzw.
Videokamera das durch das Objektiv einfallende farbige Licht
in drei elektrische Signalspannungen UR, UG und UB um. Diese
drei Signalspannungen entsprechen den Rot-, Grün- und Blauan
teilen des Bildes. Man bezeichnet diese Signalspannungen als
RGB-Signal. Im RGB-Signal sind die Komponenten Luminanz,
Chrominanz und Farbsättigung bereits enthalten. Das Luminanz
signal wird dabei gemäß der Dreifarbentheorie aus den RGB-
Signalwerten, also durch additive Überlagerung von Farbsig
nalanteilen der drei Primärfarben des additiven Farbsystems,
gewonnen. Aus der Dreifarbentheorie ist bekannt, dass sich
jede sichtbare Farbe durch Farbmischung aus den drei Primär
farben zusammenstellen lässt. Als Primärfarbe gelten diejeni
gen Farben, die nicht durch Mischung aus anderen Primärfarben
erzeugt werden können. Nach Beschluss durch die Internatio
nale Beleuchtungskommission (IBK), auch "Commission Interna
tionale de l'Eclairage" (CIE) genannt, wurden als Primärfar
ben Rot (R, λ = 700 nm), Grün (G, λ = 546,1 nm) und Blau (B,
λ = 435,8 nm) festgelegt. Durch additive Farbmischung der
drei Primärfarben kann Licht verschiedenster Farbe erzeugt
werden. Um beispielsweise die Farbe Weiß mit 100% Sättigung
zu erhalten, werden die Signalspannungen der drei Primärfar
ben nach der folgenden Formel addiert:
UY = 0,30.UR + 0,59.UG + 0,11.UB
mit den Spannungsamplituden
UY: für die Signalspannung der wahrgenommenen Farbe Weiß,
UR: für die Signalspannung des übertragenen Farbanteils Rot,
UG: für die Signalspannung des übertragenen Farbanteils Grün,
UB: für die Signalspannung des übertragenen Farbanteils Blau.
UY: für die Signalspannung der wahrgenommenen Farbe Weiß,
UR: für die Signalspannung des übertragenen Farbanteils Rot,
UG: für die Signalspannung des übertragenen Farbanteils Grün,
UB: für die Signalspannung des übertragenen Farbanteils Blau.
Die Information für Chrominanz und Farbsättigung erhält man,
indem man die Signalspannung UY für den Luminanzwert Y von
den Signalspannungen UR, UG bzw. UB des RGB-Signals subtra
hiert. Es entstehen somit die Farbdifferenzsignale UR-Y, UG-Y
bzw. UB-Y. Da das menschliche Auge für Farbunterschiede klei
ner Bilddetails weniger empfindlich ist als für Helligkeits
unterschiede dieser Bildausschnitte und das breitbandige Y-
Signal separat übertragen wird, kann die Bandbreite B der
Farbdifferenzsignals auf B = 1,2 MHz begrenzt werden.
Zur Bildreproduktion im Monitor des Empfängers reichen die
drei Komponenten Rot, Grün und Blau aus. Daher genügt es (bei
vorhandenem Y-Signal), nur zwei Farbwerte und den Luminanz
wert zu übertragen. In der Praxis überträgt man deshalb neben
dem Y-Signal nur die beiden Farbdifferenzsignale R-Y und B-Y.
Das Farbdifferenzsignal G-Y wird nicht übertragen, da es die
größte Signalamplitude besitzt und daher am meisten den Sig
nal-Rausch-Abstand des übertragenen Videosignals beeinflusst.
Um weiterhin eine Übermodulation des Senders zu vermeiden,
werden die beiden Farbdifferenzsignale R-Y und B-Y in ihrer
Amplitude begrenzt. Das begrenzte R-Y-Signal wird dann auch
als V-Komponente, das begrenzte B-Y-Signal als U-Komponente
bezeichnet. Im Monitor des Empfängers lassen sich die drei
Primärfarben Rot (R), Grün (G) und Blau (B) zurückgewinnen,
indem man die empfangene Y-Komponente zu den empfangenen
Farbdifferenzsignalen R-Y und B-Y addiert, also die folgende
Matrix-Vektor-Multiplikation ausführt:
Die Farbe Grün (G) ergibt sich sich so beispielsweise als
G = Y - 0,19.(B-Y) - 0,51.(R-Y) = 1,70.Y - 0,19.B - 0,51.R.
Das europäische PAL-Farbfernsehen stellt eine Weiterentwick
lung des amerikanischen NTSC-Systems dar. Bei beiden Systemen
wird die Farbinformation mit Hilfe einer Quadraturmodulation
übertragen, da systembedingt nur ein hochfrequentes Träger
signal zur Verfügung steht, aber zwei Farbinformationsignale
(R-Y und B-Y für die Komponenten V und U) mit demselben Trä
ger übertragen werden müssen. Das Farbsignal besteht also aus
zwei um 90° phasenversetzten modulierten Trägerschwingungen.
Die Modulation der V-Komponente erfolgt beim NTSC-System al
lerdings nur auf der positiven V-Achse. Eine alternierende
Umschaltung der Farbträgerphase zur Kompensation von Phasen
fehlern gibt es in diesem System nicht. Folglich ist das
NTSC-System störanfälliger gegenüber Phasenfehlern bei der
Übertragung.
Damit eine flüssige Bildfolge entsteht, müssen mindestens 16
Vollbilder pro Sekunde abgetastet und übertragen werden. Um
jedoch einen flimmerfreien Eindruck zu erhalten, ist eine
Bildwiederholfrequenz von mindestens fa = 50 Hz notwendig. Es
reicht allerdings aus, zwei verzahnte Halbbilder mit jeweils
50 Hz zu übertragen, wobei die Bandbreite gleich groß wie bei
25 Vollbildern bleibt. Die Zeilenzahl wurde (bei PAL) mit 625
Zeilen so festgelegt, dass die vertikale Auflösung in etwa
der des Auges entspricht. Die horizontale Auflösung wird
durch die Videobandbreite bestimmt und wurde der vertikalen
angepasst.
Anstelle einer vollständigen Übertragung der drei Grundfarben
werden Verfahren angewandt, die mit weniger Bandbreite aus
kommen. Es werden die Helligkeit (Luminanz oder Y) mit der
vollen Bandbreite B = 5 MHz, die Differenzsignale Blau
minus Luminanz (B-Y) und Rot minus Luminanz (R-Y) mit der re
duzierten Bandbreite von je ca. B = 1,3 bis 1,5 MHz gesendet.
Die Luminanz ist für die Bildschärfe maßgebend (volle Band
breite), während die Farbinformation weniger genau übermit
telt werden muss. Im Basisband-Spektrum des übertragenen Com
posite-Signals aus Y-, R-Y- und B-Y-Signal belegt die Lumi
nanz (Y) fast die ganze Kanalbandbreite. Die Farbinformatio
nen B-Y (U) und R-Y (V) werden einem Träger aufmoduliert, der
- um Interferenzen zu vermeiden, Bandbreite zu sparen und
kompatibel zum vorhergehenden Schwarz-Weiß-Fernsehsystem zu
sein - im Bereich geringer spektraler Energiedichte der Lumi
nanz liegt. Das Audiosignal wird ebenfalls moduliert und am
oberen Rand des Kanalspektrums untergebracht.
Da die Bild- und Tonsignale nach wie vor analog entstehen,
müssen sie für eine digitale Weiterverarbeitung zuerst
digitalisiert werden. Unter dem Vorgang des Digitalisierens
versteht man die drei Schritte Abtastung (unter Einhaltung
des Shannon-Theorems zur Vermeidung von Aliasing-Effekten),
Quantisierung und Kodierung.
Übertragungskanäle und Speichermedien haben nur beschränkte
Kapazitäten, was aus technischen und ökonomischen Gründen ei
ne Datenreduktion unabdingbar macht. Ein Videosignal hat bei
spielsweise eine Datenrate von R = 124,5 MBit/s während ein
Satellitenkanal der Bandbreite B = 33 MHz bei einer Bandbreiteneffizienz
von η = 1,57 Bit/(s.Hz) lediglich eine Datenrate
R = B.η ≈ 52 MBit/s übertragen kann.
Die analogen RGB-Komponenten werden nach der Analog-Digital-
Wandlung durch eine lineare Matrixtransformation in den YUV-
Farbraum konvertiert, was die spektrale Redundanz verringert.
Ferner werden so die hohen Frequenzen in der Luminanzkompo
nente konzentriert, weil das Auge hohe Chrominanzfrequenzen
nicht so gut auflösen kann. Nach einer Tiefpassfilterung (zur
Vermeidung von Aliasing-Effekten) werden die Chrominanzkompo
nenten um den Faktor 2 horizontal und vertikal unterabgetas
tet.
Zwei zeitlich aufeinanderfolgende Bilder eines Videosignals
sind - Szenenwechsel ausgenommen - sehr ähnlich und beinhal
ten zeitliche Redundanz. Wird jedoch nur das Differenzbild
kodiert, fällt die Entropie wesentlich günstiger aus. Weitere
Verbesserungen lassen sich erzielen, wenn nicht das Diffe
renzbild, sondern das bewegungskompensierte Residuum und die
entsprechenden Bewegungsvektoren kodiert werden: Dabei wird
makroblockweise analysiert, in welche Richtung sich der In
halt eines Blockes verschiebt. Der Dekodierer erhält diese
Information in Form von Bewegungsvektoren. Zur Bildrekon
struktion werden die Blöcke des alten Bildes gemäß der Vekto
ren verschoben und das Residuum addiert. Es gibt verschiedene
Verfahren zur Bewegungsschätzung. Beim sogenannten "Block-
Matching"-Verfahren werden die Makroblöcke in einem definier
ten Suchbereich verschoben und ein Korrelationsfaktor ρ be
stimmt. Die Genauigkeit des Algorithmus bestimmt den Entro
piegewinn und damit die Datenrate.
Mit Hilfe der Diskreten Kosinus-Transformation (DCT) kann dem
Signal räumliche Redundanz und Irrelevanz entzogen werden.
Die Darstellung der Bilddaten durch DCT-Koeffizienten hat den
Vorteil, dass sich die nur im Blockverbund erfassbare
räumliche Redundanz (z. B Farbflächen) durch die Transforma
tion verringert, weil sich die Signalenergie auf wenige Koef
fizienten konzentriert. Dies sind die Koeffizienten kleiner
Frequenzen und vor allem die Grundfrequenz. Mit Hilfe der DCT
lässt sich jedoch auch räumliche Irrelevanz bestimmen und e
liminieren: Aufgrund des Mach- und Obelique-Effektes kann das
Auge hohe Frequenzen und insbesondere diagonale weniger fein
auflösen. Die entsprechenden Koeffizienten können also gröber
quantisiert werden.
Bei der Quantisierung der DCT Koeffizienten, werden die meis
ten Werte - bis auf wenige in der Umgebung des Gleichsignal
anteils (DC) - zu Null. Durch ein Auslesen nach der Zick-
Zack-Methode werden die Nullen zu einer Nullfolge zusammenge
legt. Die Lauflängkodierung fasst jeweils die Anzahl der Nul
len und den ersten nächsten von Null verschiedenen Koeffi
zienten zu einem Zahlenpaar zusammen. Anschließend werden
diese Paare huffmankodiert, indem dessen Auftrittswahrschein
lichkeiten bei der Vergabe der Kodewortlängen berücksichtigt
wird. Die Kombination dieser beiden Kodierungsarten ist hin
sichtlich der Bitrate sehr effizient und nähert sich der Ent
ropie auf ein Optimum.
Im Zusammenhang mit der Kompression und Kodierung von Bewegt
bildsequenzen existiert eine Reihe von Standards, auf die im
Folgenden kurz eingegangen werden soll.
M-JPEG (engl.: "Motion JPEG") ist kein eigentlicher Standard,
vielmehr gibt es verschiedene Verfahren, wie der JPEG-Stan
dard auf Bewegtsequenzen angewandt wird. Es handelt sich
hierbei um eine reine Intraframe-Kodierung, d. h. es gibt kei
ne bildübergreifenden Algorithmen zur Reduzierung der Da
tenrate. Die Kompression erfolgt durch eine 8 × 8-DCT mit anschliessender
Quantisierung und Lauflängenkodierung. M-JPEG
wird vor allem im Bereich nichtlinearer Videoschnitte verwen
det und erlaubt prinzipiell Datenraten von wenigen MBit/s bis
hin zu der des unkomprimierten Videosignals. Entsprechend ist
auch die Bildqualität unterschiedlich: Eine Datenrate von et
wa R = 1 MBit/s entspricht ungefähr VHS-Aufzeichnungen, eine
Datenrate von R = 25 MBit/s ist beinahe Studioqualität.
Zur Erreichung einer möglichst großen Kompressionsrate werden
heute verschiedene Techniken angewandt: Zuerst muss eine an
gemessene Bandbreite für das zu kodierende Signal gewählt
werden. Danach verwendet der Algorithmus eine blockbasierte
Bewegungskompensation, um die zeitliche Redundanz zu verklei
nern. Die Bewegungskompensation kann auf drei Arten gesche
hen: (a) Vorhersage des momentanen Bildes vom vorhergehenden
Bild, (b) Vorhersage des momentanen Bildes von einem zukünf
tigen Bild oder (c) Interpolation von zwei benachbarten Bil
dern. Danach wird der Vorhersagefehler (Differenzsignal) mit
der DCT komprimiert, indem die räumliche Korrelation entfernt
und anschliessend quantisiert wird. Zum Schluss werden die
Bewegungsvektoren mit der DCT-Information zusammengeführt und
mit einem variablen Lauflängenkodierer kodiert. Anschließend
ist für die Videodaten eine optionale Fehlerkorrektur vorge
sehen. MPEG1 wird vor allem für die Speicherung von Videofil
men auf CD und im Heimcomputerbereich auf CD-ROM verwendet.
Die Datenrate (Bild und Ton) liegt nach dem Standard bei R =
1,5 MBit/s, es gibt aber zahlreiche Anwendungen, die auch
größere Datenströme nach dem MPEG1-Standard verwenden.
Während MPEG1 im Multimediabereich mit dem Speichermedium CD
bei geringen Datenraten von R ≈ 1,15 MBit/s seine Anwendung
findet, dient die Erweiterung MPEG2 der Übertragung von Fern
sehsignalen im Zeilensprungverfahren. MPEG2 sieht Datenraten
von bis zu R = 15 MBit/s vor, wobei schon R = 6 MBit/s mit
der Qualität der PAL-Norm vergleichbar und R = 9 MBit/s subjektiv
kaum vom Original (Studioqualität, RGB) zu unterschei
den ist (Visuelle Transparenz). Es erreicht seine hohen Kom
pressionsfaktoren durch Differenzkodierung mit Bewegungs
schätzung, einer DCT mit adaptiver Quantisierung und an
schliessender Entropiekodierung.
Die zur Übertragung oder Speicherung eines digitalen Signals
bei vorgegebenem Quantisierungsfehler notwendige Datenmenge
lässt sich in vielen Fällen deutlich verringern, wenn die
statistischen Bindungen zwischen benachbarten Abtastwerten
des digitalen Signals berücksichtigt werden. Ein bekanntes
Verfahren zur Datenreduktion redundanter und irrelevanter di
gitaler Bildsignale ist die sogenannte "Differenz-Pulskodemo
dulation" (DPCM). Im Vergleich zu technisch aufwendigeren Al
ternativmethoden ist die einfache Methode der DPCM-Kodierung
sehr effektiv. Bei DPCM wird der Schätzfehler, also die Dif
ferenz zwischen Originalsignal und einer durch lineare Filte
rung erhaltenen Vorhersage eines Prädiktors, anstelle des O
riginalsignals übertragen. Der erreichbare Grad der Datenre
duktion hängt dabei von der Güte des Prädiktionsfilters ab.
Der Prädiktor ist im einfachsten Fall ein Laufzeitelement,
dessen Verzögerungszeit der Abtastperiode Δt des digitalen
Signals entspricht; der Vorhersagewert ist dann bis auf den
Quantisierungsfehler gleich dem letzten Abtastwert. Eine Ver
besserung der Prädiktion kann erreicht werden, wenn als Prä
diktoren Transversalfilter benutzt werden, die den Vorhersa
gewert als gewichtete Summe über mehrere vorausgehende Ab
tastwerte bilden. Der bei DPCM-Übertragung erzielbare Gewinn
kann wie folgt bestimmt werden: Gegeben sei ein gaußverteil
tes, gleichanteilfreies Testsignals s(t) mit endlicher Länge
und damit endlicher Signalenergie
der Standardabweichung σs und der Sendeleistung Sa = σ 2|s. In
der Systemtheorie besitzt s(t) aufgrund der obigen Definition
der Signalenergie E die Einheit [s(t)] = √W; in der Praxis
handelt es sich bei dem Signal s(t) jedoch um eine reale Sig
nalspannung u(t) (in V) für t ∈ [t1; t2] an einem Widerstand R
(in Ω) bzw. einen realen Signalstrom i(t) (in A), der wäh
rend der Zeit t ∈ [t1; t2] durch diesen Widerstand R (in Ω)
fließt. Die Signalenergie ist dann
für t ∈ [t1; t2]. Nach Abtastung und Quantisierung dieses ana
logen Signals s(t) (nach der Definition im Sinne der System
theorie) entsteht das digitale Signal s(n) mit der Autokorre
lationsfunktion
In diesem Fall kann gezeigt werden, dass die Quantisierungs
fehlerleistung Nq bei DPCM-Übertragung im Vergleich zu reiner
PCM-Übertragung um den Faktor
gesenkt werden kann. Dazu ein Beispiel: Die Luminanzkompo
nente (Y) von Fernsehbildsignalen wird bei einer Übertragung
nach dem Verfahren der normalen "Pulskodemodulation" (PCM)
mit einer Abtastrate von fa = 1/Δt = 10 MHz abgetastet und
quantisiert, wobei das Signal mit k = 8 Bit/Abtastwert ko
diert wird. Bei dieser Abtastfrequenz besitzt die Autokorre
lationsfunktion für unmittelbar benachbarte Bildpunkte den
Wert
Bei der einfachsten Form der DPCM-Kodierung, bei der die Dif
ferenzsignalwerte je zweier unmittelbar benachbarter Abtast
werte des Originalsignals übertragen werden, kann somit die
Quantisierungsfehlerleistung um den Faktor
vermindert werden. Da die Nutzsignalleistung Sa bei DPCM die
gleiche wie bei PCM ist, wird auch das Signal-zu-Stör-Ver
hältnis Sa/Nq um 12 dB verbessert.
Neben den erwähnten Standards ist nach dem heutigen Stand der
Technik noch eine Reihe weiterer Standards im Bereich der
Bildkodierung üblich.
Zur Regulierung der Helligkeit aufgenommener Bilder werden
nach heutigem Stand der Technik Fotoapparate und Videokameras
mit automatischen Blendenregelungen, im englischen Sprach
gebrauch "Auto-Iris-Control" oder "Auto-Lens-Control" (ALC)
genannt, eingesetzt. Bei einer durch den zeitvarianten Licht
strom Φ(t) (in lm) und die zeitvariante Beleuchtungsstärke
E(t) (in lx = lm.m-2) gekennzeichneten Umgebungshelligkeit
kann die Blendenöffnung durch einen Stellmechanismus verän
dert und somit die auf den Bildwandler fallende Lichtmenge
bzw. die Belichtung
beeinflusst werden. Die Öffnung der Blende hat somit großen
Einfluss auf die Qualität der reproduzierten Bilder. Die
Blendenöffnung muss dabei ständig an die jeweilige Aufnahme
situation angepasst werden. Dazu ist jedoch eine gewisse Ver
zögerungszeit ΔtvB unvermeidlich. Die automatische Blendenre
gelung besteht aus einem elektronisch-mechanischen Regel
kreis, der die Blendenöffnung so regelt, dass vom Bildwandler
immer noch ein mittlerer Luminanzpegel abgegeben wird. Das
Regelsignal für den Stellmotor der Blende wird dabei aus ei
ner Rückkopplungsschaltung gewonnen, die von einer hellig
keitsproportionalen Gleichspannung US ~ UY angesteuert wird.
Je nach Aufwand der Regelschaltung können mit der ALC-Schal
tung Beleuchtungsunterschiede zwischen ΔE = 10 lx und ΔE =
100.000 lx ausgeglichen werden. An die ALC-Schaltung werden
hierbei besondere Anforderungen gestellt. So müssen zum Bei
spiel spontane Helligkeitsänderungen oder starke Helligkeits
kontraste innerhalb eines Bildbereichs so schnell wie möglich
und ohne Regelschwingungen ausgeglichen werden.
Um eine Übersteuerung durch zu hohe Luminanzpegel UY zu ver
hindern, sind in herkömmlichen Videokameras ferner sogenannte
signalverarbeitende "Weiß-Begrenzer-Schaltungen" als Chip in
tegriert.
Die heute im Handel erhältlichen Videokameras führen eine au
tomatische Helligkeitsregulierung sowie einen automatischen
Weiß-Abgleich durch. Zur Redundanzreduktion für das zu über
tragende digitale Videosignal, das im Zeitbereich durch das
abgetastete und quantisierte digitale Datensignal
d. h. s(n) ∈ {0, . . ., 0, s0, s1, . . ., sn, . . ., sN, 0, . . ., 0},
gegeben ist, wird dabei sendeseitig ein Verfahren zur Kom pression und Kodierung bzw. empfangsseitig ein Verfahren zur Dekompression und Dekodierung eingesetzt, bei dem als Nutz signal zu jedem aktuellen Abtastzeitpunkt n Differenzbilder
gegeben ist, wird dabei sendeseitig ein Verfahren zur Kom pression und Kodierung bzw. empfangsseitig ein Verfahren zur Dekompression und Dekodierung eingesetzt, bei dem als Nutz signal zu jedem aktuellen Abtastzeitpunkt n Differenzbilder
Δsn+m = sn+m - sn ∀ n ∈ IN mit 0 ≦ n ≦ N - m für m = 1
je zweier zeitlich aufeinanderfolgender Abtastbilder gesendet
und - um die für die Übertragung zwischen Signalquelle und
Signalsenke benötigte Zeitdauer Δtü verzögert - zum Abtast
zeitpunkt n+m empfangen werden. Anstelle des Abtastzeitpunk
tes tn = n.Δt bzw. tm = m.Δt wurde in obigen Formeln jeweils
abkürzend n bzw. m geschrieben.
Zur Kodierung und Kompression wird im Allgemeinen eine Dis
krete Kosinus-Transformation (DCT) in Zusammenhang mit einer
Lauflängen- oder Huffman-Kodierung verwendet. Die aktuellen
kodierten Differenzbilder werden zu jedem Abtastzeitpunkt n
übertragen, unabhängig davon, ob und wie viele Bildpunkte des
zu übertragenden Videosignals während einer Abtastperiode Δt
(Δt := tn - tn-1) zwischen zwei zeitlich unmittelbar aufeinan
derfolgenden Abtastzeitpunkten n und n+m eine Änderung in ih
rer Luminanz (Y), Chrominanz (U,V) und/oder Farbsättigung er
fahren. Für eine digitale Bildsignalverarbeitung ist diese
Methode jedoch nicht geeignet, weil sie eine hohe Auslastung
oder sogar Überlastung des Kodierers und trotz Lauflängen-
und Huffman-Kodierung eine entsprechend hohe Datenübertra
gungsrate verursacht. Dieses Problem besteht dabei nicht nur
bei Videosignalen, sondern auch bei Audiosignalen. In den
handelsüblichen Übertragungssystemen für Bild- bzw. Tonsig
nale kommen daher heute Methoden der Quellen- und Kanalkodie
rung zum Einsatz, mit deren Hilfe die Datenübertragungsrate
gesenkt werden kann. Dennoch stellen diese Methoden keine be
friedigende Lösung für das Problem dar, möglichst große Kom
pressionsfaktoren zu erreichen, ohne dabei die Qualität des
empfangenen Bild- bzw. Tonsignals zu beeinträchtigen.
Eine weitere Unzulänglichkeit ist, dass bei dem geschilderten
Verfahren zur Übertragung von Differenzsignalen zu jedem Ab
tastzeitpunkt n die begrenzten Fähigkeiten des auditiven bzw.
visuellen Wahrnehmungssystems eines Menschen zur Aufnahme und
Verarbeitung von akustischen bzw. optischen Signalen unbe
rücksichtigt bleiben. Differenzsignale, deren Betrag einen
bestimmten Intensitäts-Unterschied ΔIJN bzw. eine bestimmten
Frequenz-Unterschied ΔfJN, unterschreiten, können vom mensch
lichen Gehör bzw. Gesichtssinn nicht wahrgenommen bzw. verar
beitet werden. Dennoch werden bei den konventionellen Über
tragungssystemen für Video- bzw. Audiosignale auch Differenz
signale übertragen, die von Störsignalen in der Umgebung des
Signalempfängers überlagert und damit teilweise oder ganz
verdeckt werden und folglich vom menschlichen Ohr bzw. Auge
nicht wahrgenommen werden können. Daher macht es keinen Sinn,
Differenzsignale zu jedem Abtastzeitpunkt n zu senden bzw. zu
empfangen, da das menschliche Gehör bzw. der menschliche Ge
sichtssinn ohnehin nicht in der Lage ist,
- a) Intensitätsunterschiede ΔI bzw. Frequenzunterschiede Δf, für die ΔI < ΔIJN bzw. Δf < ΔfJN gilt, und
- b) von Störsignalen in der Umgebung der Signalquelle und/oder Signalsenke vollständig verdeckte Nutzsignalanteile Lnutz(f), für die Lnutz(f) ≦ Lstör(f) gilt,
wahrzunehmen und zu verarbeiten.
Ein weiteres Problem, das im Folgenden geschildert wird, ist
nach dem derzeitigen Stand der Technik noch ungelöst. Falls
ein Teilbereich einer Bildszene eine Helligkeitsänderung er
fährt, zum Beispiel bei einem kurzzeitigen Schwenken der Vi
deokamera gegen die Sonne oder einen stark lichtreflektieren
den metallischen Gegenstand, führt dies zu einer kurzzeitigen
(in der Regel wenige Abtastperioden Δt andauernden) Überbe
lichtung des Films, da eine automatische Blendenregelung ei
ner in die Kamera integrierten ALC-Vorrichtung erst nach der
Verzögerungszeit ΔtvB (ΔtvB < Δt) wirksam wirksam werden kann.
Dies hat zur Konsequenz, dass einzelne Verstärkerstufen auf
grund dieser Signalspitzen übersteuert werden, und es kommt
zu Signalverzerrungen. Nach dem Wirksamwerden des oben er
wähnten ALC-Verfahrens kann allerdings nur eine Helligkeits
regulierung für das gesamte Aufnahmebild durchgeführt werden,
nicht jedoch für einzelne Teilbereiche des Bildes. Das bedeu
tet, dass bei Einsatz der automatischen Blendenregelung stets
alle Bildpunkte eines Wiedergabebildes eine Helligkeitsände
rung erfahren, obwohl unter Umständen nur ein kleiner Teilbe
reich der aufgenommenen Szene heller bzw. dunkler geworden
ist. Bei der kurzzeitigen Aufnahme eines Gegenstands bzw. ei
ner Person vor einem sehr hellen Hintergrund (zum Beispiel
bei einer Gegenlichtaufnahme) erscheint der abgebildete Ge
genstand bzw. die Person auf dem Wiedergabebild, bezogen auf
den Hintergrund, als extrem dunkel.
Der vorgelegten Erfindung liegt daher die Aufgabe zugrunde,
die bestehende Situation mit technischen Mitteln zu verbes
sern. Somit widmet sich die Erfindung vorrangig der Aufgabe,
ein zuverlässig arbeitendes, verbessertes Verfahren zur Rege
lung der Kompression und Kodierung bzw. Dekompression und De
kodierung für die Übertragung von digitalen bzw. analogen Da
tensignalen, zum Beispiel für Videosignale, bereitzustellen.
Auf diese Weise kann der Anteil redundanter bzw. irrelevanter
Information reduziert und damit die Datenübertragungsrate R
verringert werden.
Diese Aufgabe wird durch ein Gerät mit Merkmalen nach Patent
anspruch 1 gelöst. Die erfindungsgemäße Lösung ist dabei
nicht auf Anwendungen im Bereich der Videoübertragungstechnik
beschränkt. Sie kann auch bei der Kompression von Audiosigna
len erfolgreich eingesetzt werden. Da sowohl Video- als auch
Audiosignale einen großen Anteil irrelevanter bzw. redundan
ter Information aufweisen, können diese Signalanteile bei der
Übertragung entfallen, ohne dass eine störende Beeinträchti
gung des empfangenen Signals durch Fehlen wichtiger Bild-
bzw. Tonkomponenten wahrgenommen wird.
Die vorliegende Erfindung betrifft ein Verfahren zur Regelung
von Signalkomponenten mindestens eines Datensignals (DS). Zur
Vereinfachung der Schreibweise soll im Folgenden nur noch von
einem Datensignal (DS) die Rede sein, wobei nicht mehr zwi
schen dem Datensignal (DS) und Signalkomponenten dieses Da
tensignals (DS) unterschieden wird. Das Datensignal (DS) kann
beispielsweise von einer Signalquelle (102) zu einer Signal
senke (111) übermittelt werden. Bei der Signalquelle (102)
kann es sich beispielsweise um einen Signalsender bzw. um ein
Aufnahmegerät für Bewegtbildsignale (Fernsehkamera bzw. Vi
deokamera) handeln, bei der Signalsenke (111) um ein Emp
fangsgerät für Bewegtbildsignale (Monitor bzw. Display). Die
Regelung kann dabei mit Hilfe mindestens eines digitalen Kor
rektursignals c(n) (KS) zu diskreten Zeitpunkten erfolgen, in
Abhängigkeit davon, ob und wann sendeseitig signifikante Än
derungen einzelner Komponenten des Datensignals (DS) vorlie
gen. Mit Hilfe dieses Verfahrens ist es möglich, kurzzeitige
Störspitzen bzw. -einbrüche einzelner Komponenten im Daten
signal (DS) bei der Übertragung zu vernachlässigen. Demzu
folge kann die Datenübertragungsrate R für die Übertragungs
strecke zwischen Signalsender (102) und Signalempfänger (111)
entscheidend gesenkt werden. Bei dem Datensignal (DS) kann es
sich entweder um ein analoges Signal s(t) oder ein digitales
Signal s(n) handeln, das man nach Abtastung (unter Einhaltung
des Shannon-Theorems) und Quantisierung des analogen Signals
s(t) erhält. Die Erfindung kann beispielsweise als Bestand
teil eines Verfahrens zur Kompression und Kodierung, Übertra
gung sowie zur Dekodierung und Dekompression digitaler Sig
nale s(n) eingesetzt werden. Die Übertragung der Signalkompo
nenten des Datensignals (DS) kann dabei diskontinuierlich
(das heißt zu diskreten Zeitpunkten in regelmäßigen oder un
regelmäßigen Zeitabständen) erfolgen, sobald sendeseitig neue
Signalkomponenten vorliegen. Mögliche Anwendungsbeispiele der
vorliegenden Erfindung sind beispielsweise die komprimierte
Übertragung bzw. Speicherung der Luminanz- (Y) und/oder Chro
minanz-Signalkomponenten (U,V) eines digitalen Videosignals
s(n) (DS) bei digitalen Bildübertragungssystemen oder die
komprimierte Übertragung bzw. Speicherung der Lautstärke- (L)
und Frequenzkomponenten (f) von Audiosignalen s(n) (DS), etwa
im HiFi-, Multimedia- bzw. Telekommunikations-Bereich, insbe
sondere für UMTS-Anwendungen. Denkbar sind aber auch Anwen
dungsbeispiele, bei denen Signalsender, Übertragungsstrecke
und Signalempfänger in einem Gerät lokalisiert sind, wie zum
Beispiel bei der Speicherung der Luminanz bzw. Chrominanz ei
ner aufgenommenen Bildsequenz in Videokameras (102). Das Sen
designal (DS) ist in diesem Fall das digitalisierte YUV-Sig
nal, das an der Ausgangsstufe des Bildaufnehmers (102) nach
Umrechnung der RGB- in die YUV-Komponenten ausgegeben wird.
Dem Übertragungssignal entspricht in diesem Fall das auf ei
nem Speichermedium, zum Beispiel einer Videokassette, aufge
nommene komprimierte und kodierte YUV-Signal. Das Empfangs
signal ist in diesem Fall das auf einem Bildschirm oder Dis
play (111), das zum Beispiel in die Videokamera (102) integ
riert sein kann, ausgegebene RGB-Signal, das man nach Umrech
nung des dekodierten und dekomprimierten YUV-Signals vom YUV-
ins RGB-System erhält.
Zur Reduzierung der Datenübertragungsrate R auf der Übertra
gungsstrecke zwischen Signalsender (102) und Signalempfänger
(111) kann zweckmäßigerweise ein Verfahren zur Erzeugung, Ü
bertragung und Verarbeitung eines digitalen Differenzsignals
(DDS)
Δs(n+m, m) := s(n+m) - s(n) ∀ n, m ∈ IN mit 0 ≦ n ≦ N - m
eingesetzt werden, das durch Subtraktion des digitalen Daten
signals s(n) (DS) von einem um m Abtastzeitpunkte verschobe
nen digitalen Datensignal s(n+m) gewonnen wird. Der mit der
sendeseitigen Ermittlung, Übertragung und empfangsseitigen
Auswertung der Differenzsignale Δs(n+m, m) (DDS) verbundene
Vorgang kann für jeden Abtastzeitpunkt n (mit 0 ≦ n ≦ N - m)
die folgenden Schritte beinhalten: 1. Zum Abtastzeitpunkt n+m
wird der Wert der Signaländerung mindestens eines digitalen
Datensignals s(n) (DS) sendeseitig durch Bildung der Diffe
renz des aktuellen Abtastwerts sn+m zum Zeitpunkt n+m versus
eines zu einem früheren Zeitpunkt n sendeseitig gebildeten
Abtastwerts sn ermittelt. 2. Der erhaltene Differenzsignal
wert
Δsn+m := sn+m - Sn
wird mit Vorzeichen und Betrag zum Abtastzeitpunkt n+m sen
deseitig zu einer Bitsequenz digital kodiert. 3. Die Bitse
quenz des aktuellen kodierten Differenzsignalwerts wird zum
Abtastzeitpunkt n+m zu mindestens einem Empfänger übertragen.
4. Die übertragene Bitsequenz wird nach Verstreichen der Ü
bertragungszeit Δtü für die Übertragung des Differenzsignal
werts Δsn+m vom Signalsender zum Signalempfänger empfangssei
tig zum Abtastzeitpunkt n+m dekodiert. 5. Der vorzeichenbe
haftete Betrag der Signalwertänderung des aktuell empfangenen
Differenzsignalwerts Δsn+m wird zur Rekonstruktion des Daten
signal-Abtastwerts sn+m empfangsseitig zum Abtastzeitpunkt n+m
zu der entsprechenden Signalkomponente des zum Abtastzeit
punkt n empfangsseitig ausgegebenen Datensignal-Abtastwert sn
addiert. 6. Der berechnete neue Abtastwert
sn+m = sn + Δsn+m
des Datensigmals (DS) wird empfangsseitig zum Abtastzeitpunkt
n+m ausgegeben.
Der Schutzumfang der Erfindung beinhaltet dabei auch Ausfüh
rungsbeispiele, die nur den Sende- bzw. Empfangszweig allein
beinhalten, also nur die Schritte 1 bis 3 bzw. nur die
Schritte 4 bis 6.
Mit Hilfe mindestens eines sendeseitig ermittelten digitalen
Korrektursignals c(n) (KS) kann in die Übertragung des Diffe
renzsignals Δs(n+m, m) (DDS) gezielt eingegriffen werden. Die
se Eingriffe können dabei zu diskreten Zeitpunkten erfolgen,
in Abhängigkeit davon, ob und/oder wie lange sendeseitig Än
derungen des Datensignals (DS) vorliegen. In einer speziellen
Ausführungsform der vorliegenden Erfindung ist das Kor
rektursignal c(n) (KS) eine Konstante, die als mittlerer Lu
minanz- bzw. Chrominanzwert über alle Bildpunkte des digita
len Bildsignals s(n) zu einem Zeitpunkt n ermittelt wird;
allgemein ist c(n) jedoch eine Funktion f1 des unkorrigierten
Sendesignals s(n). Das korrigierte Sendesignal skorr(n) ergibt
sich dabei als Funktion f2 des originalen Sendesignals s(n)
und dieses Korrektursignals c(n). Zusammengefasst ergibt sich
also:
c(n) = f1(s(n)) und
Skorr(n) = f2(s(n),c(n)) = f2(s(n),f1(s(n))).
Zur Vereinfachung der Nomenklatur soll im Folgenden nicht
mehr zwischen den Signalen s(n) und skorr(n) unterschieden
werden, sondern es soll nur noch von einem Sendesignal s(n)
die Rede sein. Eine Übertragung des aus s(n) ermittelten di
gitalen Differenzsignals (DDS) findet dabei erfindungsgemäß
nur dann statt, falls das Datensignal s(n) (DS) zu mindestens
einem vorgegebenen Zeitpunkt n wenigstens einen als Reakti
onsniveau geeignet festgelegten Schwellwert σref über- bzw.
unterschreitet. Dieser Schwellwert σref kann idealerweise so
festgelegt werden, dass die zum Abtastzeitpunkt (n+m) ermit
telte Änderung Δsn+m des Signals s(n) von einer beliebigen
Person gerade noch registriert werden kann.
Bei mindestens einem der als Reaktionsniveau verwendeten
Schwellwerte kann es sich dabei um eine fest vorgegebene Ver
zögerungszeitdauer Δtv (z. B. Δtv = 5,0 s) handeln, die unter
Umständen mehrere hundert Abtastperioden Δt umfassen kann.
Durch das Abwarten dieser Zeitdauer vor dem Versenden eines
neuen Abtastwerts kann gewährleistet werden, dass keine kurz
zeitig auftretenden, störungsbedingten Signalspitzen im Dif
ferenzsignal Δs(n+m, m) übertragen werden, die zu einer Über-
Regelung des Empfangsgeräts führen können. Somit werden nur
langfristig andauernde Änderungen eines Signals übertragen,
also Signaländerungen, die mindestens für die Dauer Δtv nach
Versenden eines Abtastwerts sn auf einem näherungsweise kon
stanten Wert bleiben. Folglich gilt dann
Δtv » Δt bzw. k » 1.
Mit Hilfe dieser Verzögerungszeitdauer kann abgewartet wer
den, bis kurzzeitig andauernde Störspitzen in einem aufgenom
menen Signal (zum Beispiel bei einer kurzzeitigen Gegenlicht
aufnahme eines Bildobjekts mit einer Videokamera) abgeklungen
sind. Dadurch kann vermieden werden, dass beispielsweise bei
einer kurzzeitigen Übersteuerung bzw. Überbelichtung einzel
ner Frequenz- bzw. Bildbereiche eines aufgenommenen Audio-
bzw. Videosignals durch den Einsatz einer Regelschaltung alle
Frequenz- bzw. Bildbereiche in ihrer Intensität herabgesetzt
werden.
Bei mindestens einem der als Reaktionsniveau verwendeten
Schwellwerte σref kann es sich beispielsweise um den fest vor
gegebenen Effektivwert sref/√2 einer Amplitude sref, die Fre
quenz fref und/oder die Phase ϕref eines analogen sinusoidalen
Referenzsignals sref(t) = sref.cos(2π.freft + ϕref) handeln. Dabei
kann sref(t) beispielsweise ein fest vorgegebenes Wechselspan
nungssignal uref(t) = Uref.cos(2π.freft + ϕref) mit dem Effektivwert
Uref/√2 oder Wechselstromsignal iref(t) = Iref.cos(2π.freft + ϕref)
mit dem Effektivwert Iref/√2 sein. Sofern die korrespondie
renden Amplituden-, Frequenz- bzw. Phasenparameter sn, fn
bzw. ϕn eines digitalen Datensignals s(n) mindestens einen
dieser Schwellwerte über- bzw. unterschreiten, wird zum Ab
tastzeitpunkt n+m die Übertragung eines neuen Differenzsig
nalwerts Δsn+m, Δfn+m bzw. Δϕn+m gegenüber dem Abtastzeitpunkt
n freigegeben. Somit kann gewährleistet werden, dass nur die
von einem Menschen wahrnehmbaren Signaländerungen gesendet,
übertragen und empfangen werden. Handelt es sich bei dem di
gitalen Datensignal s(n) um ein digitales Video- oder Audio
signal, kann auf die Übertragung von Δϕn+m verzichtet werden,
da das menschliche Wahrnehmungssystem nicht in der Lage ist,
Phaseninformationen ϕ(t) bzw. Phasenänderungen Δϕ(t) analo
ger optischer bzw. akustischer Signale s(t) zu registrieren
und zu verarbeiten.
Ein spezielles Ausführungsbeispiel der Erfindung befasst sich
mit einer Anwendung im Bereich der Datenübertragungstechnik
für Videosignale. Es fußt auf dem oben beschriebenen Verfah
ren zur Übertragung von Differenzbildern, die durch Subtrak
tion der YUV-Komponenten von den Abtastbildern sn+m und sn zu
den unmittelbar oder nicht unmittelbar zeitlich aufeinander
folgenden Abtastzeitpunkten n und n+m entstehen. Dazu müssen
der Signalsender und der Signalempfänger über geeignete tech
nische Komponenten zur Aufnahme (z. B. Videokamera), Zwischen
speicherung (z. B. Videorekorder und Videokassette) und Wie
dergabe von Videosignalen (z. B. Bildschirm oder Display) ver
fügen. Ferner sollte der Signalsender mit Vorrichtungen zur
Analog-Digital-Wandlung, Kompression und Kodierung von analo
gen Videosignalen ausgestattet sein; ebenso sollte der Sig
nalempfänger zur Dekodierung, Dekompression und Digital-Ana
log-Wandlung von digitalen Videosignalen tauglich sein. Die
Kanalkapazität C des Übertragungskanals, also das Produkt aus
Bandbreite B und Übertragungsbitrate R, sollte idealerweise
groß genug sein, um bei Einhaltung des Shannon-Theorems soge
nannte Aliasing-Effekte zu vermeiden und Videosignale in
Echtzeit ohne Einbuße an Wiedergabequalität übertragen zu
können.
Bei der fest vorgegebenen Intensität und/oder Frequenz eines
Referenzsignals sref(t) kann es sich um mindestens einen Lumi
nanz- (Yref) und/oder Chrominanzwert (Uref,Vref) eines vorgege
benen Videosignals handeln, mit dem die Abtastwerte der Lumi
nanz (Y) bzw. Chrominanz (U,V) eines empfangenen digitalen
Videosignals s(n) verglichen werden. Erfindungsgemäß werden
diese Differenzbilder diskontinuierlich übertragen, sofern
mindestens ein geeignet festgelegter Zeit-, Y-, U- bzw. V-
Schwellwert überschritten wird. Bilddaten werden also nur
dann gesendet, wenn das neue Abtastbild Bildbereiche mit neu
en und für den Betrachter nicht irrelevanten bzw. nicht re
dundanten Informationen enthält. Auf diese Weise kann die im
Übertragungssignal enthaltene Irrelevanz bzw. Redundanz und
damit die Datenübertragungsrate im Vergleich zu einer pe
riodisch wiederholten Differenzbildübertragung entscheidend
verringert werden. Eine Erneuerung des aktuellen angezeigten
Bildes im Endgerät eines Empfängers wird nur für diejenigen
Bildbereiche vorgenommen, bei denen relevante Änderungen der
Helligkeit, des Farbtons und/oder der Farbsättigung regist
riert werden. Die Schwellwerte Yref, Uref und Vref können aus
den Helligkeits-, Farbton- und/oder Farbsättigungswerten der
Bildpunkte des Referenzsignals sref ermittelt werden.
In fast allen Systemen, die eine Art von Bildkodierung mit
Datenreduktion verwenden, ist der schlussendliche Empfänger
des wiederhergestellten Bildsignals (Videosignal oder Stand
bild) das menschliche Auge. Es sollte daher von vorherein
klar sein, dass Anstrengungen unternommen werden müssen, ein
Modell der Arbeitsweise des menschlichen Sehens ("Human Vi
sual System", HVS) in die Verarbeitungskette miteinzubezie
hen. Denn nur so kann sichergestellt werden, dass a) beim Ko
diervorgang die Bits vorzugsweise denjenigen Teilen im Aus
gangssignal zugewiesen werden, die denjenigen Strukturen im
Bild entsprechen, auf welche das Auge am empfindlichsten rea
giert, und dass b) ein damit verbundenes psychooptisches Qua
litätsmaß geschaffen werden kann.
Diese Auswertung ist deswegen notwendig, weil das menschliche
Sehvermögen unter bestimmten Umständen, zum Beispiel bei Vor
handensein einer breitbandigen Störstrahlung großer Intensi
tät in der Umgebung des Signalempfängers, nicht in der Lage
ist, Luminanz- bzw. Chrominanzänderungen eines Nutzsignals
wahrzunehmen. Im Folgenden wird daher kurz auf die wichtigs
ten, aus Sehversuchen an einer großen Anzahl von Versuchsper
sonen gewonnenen und vielfach bestätigten Erkenntnisse in
diesem Zusammenhang eingegangen.
Für subjektive Sehteste werden heute standardisierte Verfah
ren eingesetzt, die international anerkannt sind, um die Ver
gleichbarkeit verschiedener Messergebnisse zu gewährleisten.
Technische Randbedingungen wie Betrachtungsabstand, Hinter
grundbeleuchtung, die Art der Präsentation der Testbilder und
Testsequenzen, die Fragestellungen und das Beurteilungsver
fahren sind dabei eindeutig festgelegt. Solche Verfahren wer
den in der Form von Empfehlungen einer Expertengruppe der
"International Telecommunications Union" (ITU) festgelegt.
Die technische Entwicklung stellt heute immer wieder neue Anforderungen
an die Testverfahren, so dass die vorhandenen Me
thoden modifiziert und neue Verfahren entwickelt werden müs
sen.
Die Einbindung des menschlichen Sehvermögens in die Übertra
gungskette vom Signalsender zum Signalempfänger ist wichtig,
damit eine Reduzierung der Irrelevanzinformation sinnvoll auf
den menschlichen Gesichtssinn angepasst werden kann. Dazu ist
es notwendig, einige wichtige Effekte zu kennen, die beim Se
hen eine entscheidende Rolle spielen.
Beim Sehen wird das durch Pupille und Linse in das Innere des
menschlichen Auges einfallende Licht auf die lichtempfindli
che und ca. ILN = 17 mm entfernte Netzhaut abgebildet. Die
auftreffende Lichtintensität wird dabei mittels einer foto
chemischen Reaktion durch zwei Arten von Sensoren, Stäbchen
und Zapfen, ermittelt. Die Stäbchen besitzen die größere Emp
findlichkeit, unterscheiden jedoch keine Farben. Dafür arbei
ten sie noch bei sehr wenig Licht (Nachtsehen bzw. skopti
sches Sehen). Die Zapfen sind zuständig für stärkere Intensi
täten (Tagessehen bzw. photopisches Sehen), feine Auflösungen
und das Farbensehen. Für den letztgenannten Vorgang sind sie
in drei verschiedene Arten aufgeteilt, wobei jede ein Absorp
tionsmaximum an einer anderen Stelle innerhalb des sichtbaren
Spektrums besitzt (bei Rot-Orange, Grün und Blau-Violett).
Zusammen erlaubt das System mit zweierlei Sensoren das Sehen
über einen Intensitäts- bzw. Leuchtdichtebereich von 12 Grö
ßenordnungen (L = 10-6 bis 105 cd/m2). Das bedeutet, dass in
nerhalb der verschiedenen Stufen des Wahrnehmungsprozesses
eine Anpassung an die Hintergrundsintensität in einem großen
Bereich stattfindet.
Wie bereits erwähnt, ist das Auge in der Lage, einen enorm
großen Helligkeitsbereich (ca. 12 Zehnerpotenzen) zu verar
beiten, von der Intensität des Sternenlichts bis zur Schmerzgrenze
(Blendung). Da die Pupille ihren Durchmesser aber nur
im Verhältnis 4 : 1 regeln kann, muss eine sehr weiträumige An
passung an die durchschnittliche Szenenhelligkeit auf Rezep
torenebene der visuellen Wahrnehmung stattfinden, denn es ist
weder möglich, die Erregerfrequenz für die Übertragungsim
pulse auf den Nervenfasern um einen Faktor 109-1010 zu vari
ieren, noch ist es in der Praxis notwendig. Für den täglichen
Gebrauch ist ein viel geringerer Dynamikumfang ausreichend.
Der Dynamikumfang des Auges (bezüglich der Helligkeitsinfor
mation) umfaßt etwa zwei Zehnerpotenzen. Verschiedene Ver
suchsergebnisse bestätigen, dass bei gegebener Hintergrund
helligkeit (für die Adaption des Auges) die Anzahl der unter
scheidbaren Helligkeitsstufen im Bereich von etwa 150 bis 250
liegt. Aus dem oben beschriebenen Experiment gewinnt man die
wichtige Erkenntnis, dass die kleinste wahrnehmbare Hellig
keitsdifferenz nicht als konstanter Wert erscheint, sondern
abhängig vom konstanten Verhältnis der Umgebungsbeleuchtung
ist. Das visuelle System reagiert folglich, zumindest an oder
in der Nähe der Schwelle, auf geringfügige Veränderungen, was
bedeutet, dass die Wahrnehmung der Helligkeit vom Verhältnis
der Objekt- zur Umgebungsbeleuchtungen viel mehr abhängt als
vom Absolutwert der ersteren. Für die Bildverarbeitungstech
nik bedeutet dies, dass eine Bildstörung (z. B. durch Übertra
gungsfehler oder Quantisierungsrauschen) innerhalb dunkler
Bildanteile viel stärker bemerkt wird als anderswo. In der
Praxis werden durch die immer vorhandene Umgebungsbeleuchtung
in der Nähe des Displays sogar eventuelle Verschlechterungen,
(z. B. hervorgerufen durch Rauschen) in dunklen Flächen weni
ger stark wahrgenommen als in helleren Bildanteilen. Es be
steht somit eine viel komplexere Beziehung zwischen der Wahr
nehmung direkt an der visuellen Helligkeitunterscheidbar
keitsschwelle, in Bereichen in der Nähe der Schwelle und in
entfernteren Bereichen, als man auf den ersten Blick vermuten
könnte.
Es ist offensichtlich, dass feine Strukturen umso schlechter
wahrgenommen werden können, je kleiner der Sehwinkel ist, un
ter dem sie betrachtet werden. Schliesslich können mit stei
gender Komplexität kleine Details gar nicht mehr separat auf
gelöst werden. Das festigt die Behauptung, dass der Ortsfre
quenzgang des Auges zu hohen Ortsfrequenzen (die Anzahl von
vollständigen Schwingungen pro Grad eines sinusoidalen Hel
ligkeitsmusters, die vom Auge unterschieden werden) hin auf
vernachlässigbar kleine Werte abfällt. Versuche haben eben
falls gezeigt, dass die Empfindlichkeit des Auges auf Berei
che konstanter Helligkeit (d. h. Ortsfrequenz Ω1,2 ≈ 0 m-1)
klein ist. Damit der Mensch also überhaupt etwas sehen kann,
muss die Anregung in einem beträchtlichen Frequenzbereich
zwischen diesen beiden Grenzen liegen. In Bereichen mit fei
nen Details, die eine große Auflösung benötigen, ist das Auge
toleranter gegenüber Abweichungen der absoluten Helligkeit.
Der Amplitudenfrequenzgang des Auges wird somit von räumli
chen Effekten verändert: einerseits vom Einfluss verschiede
ner Rezeptorgruppen, die auf Hintergrunds- und Umgebungshel
ligkeit reagieren, andererseits von der Abhängigkeit der Hel
ligkeitsschwelle vom Sehbereich. Beim Simultankontrast zwi
schen einem anvisierten Bereich und dem Umgebungsbereich än
dert sich die wahrgenommene Helligkeit des anvisierten Be
reichs, wenn die Helligkeit rund um diesen Bereich variiert
wird. Dabei erscheint der anvisierte Bereich umso dunkler, je
heller der Hintergrund wird. Die Verstärkung dieses Effekts
hängt außerdem von der vorhandenen Beleuchtung ab: Ist der
Kontrast zwischen dem anvisierten Bereich und dem Hintergrund
klein, erhöht eine stärkere Gesamtbeleuchtung die wahrgenom
mene Bereichshelligkeit und der Kontrast wird geringer. Ist
umgekehrt der Kontrast groß, erscheint der Bereich bei stär
kerer Beleuchtung dunkler. Der zweite Effekt tritt bei einer
abrupten Helligkeitsänderung auf und ist dafür verantwort
lich, dass der Kontrast schärfer erscheint, als er in Wirk
lichkeit ist. Somit verringert ein Bereich mit großer konstanter
Helligkeit die wahrgenomme Helligkeit eines angren
zenden Bereichs mit kleinerer (aber ebenfalls konstanter)
Helligkeit. Das für diese beiden Effekte verantwortliche Phä
nomen ist als laterale Hemmung bekannt und kann in Bezug auf
den Ortsfrequenzgang des Auges als Hochpassfilter modelliert
werden, der eine deutlich reduzierte Empfindlichkeit auf Be
reiche mit konstanter oder sich leicht ändernder Helligkeit
besitzt und die gezielte Bestimmung von scharfen Kanten (zum
Beispiel den Umriss eines Objekts) erlaubt.
Zur Erstellung von psychooptischen Mess- und Bewertungsmodel
len, die zum Zweck der datenreduzierenden Bildkodierung nutz
bar sind, sind tiefgreifende Kenntnisse von der optischen
Signalverarbeitung des Auges bis zu den Nervenimpulsen im Ge
hirn notwendig. Für diese Aufgabe sind schon verschiedene
Verfahren vorgeschlagen worden, die mehr oder weniger gut mit
der menschlichen Wahrnehmung korrelieren. Das erfolgverspre
chenste unter ihnen ist das Modell der gerade noch wahrmehm
baren Unterschiede ("Just Noticible Differences", JND). Al
lerdings gibt es auch hier Unterschiede, je nachdem welche
und wie viele der bisher bekannten psychooptischen Eigen
schaften des menschlichen Sehens berücksichtigt werden.
Zur Festlegung der Schwellwerte für die kleinste wahrnehmbare
Luminanz- (ΔYJN) bzw. Chrominanzänderung (ΔUJN,ΔVJN) des emp
fangenen Videosignals in Abhängigkeit von den durch (Y,U,V)env
charakterisierten Beleuchtungsverhältnissen in der Umgebung
des Bildsignalgebers können beispielsweise die psychoopti
schen Eigenschaften des menschlichen Sehvermögens im Hinblick
auf die Amplituden- und/oder Frequenzmodulationsschwelle, die
wahrnehmbare Frequenzgruppenbreite ΔfG und die durch die Mas
kierung von Nutzstrahlung durch Störstrahlung hervorgerufenen
Effekte ausgewertet werden.
In diesem Zusammenhang ist es wichtig, auf das Phänomen der
"örtlichen Maskierung" zu verweisen, das verwandt ist mit dem
Mach-Effekt, aber trotzdem davon abweicht. Die Ausnutzung
dieses Maskierungsphänomens ist ein erfolgreiches Beispiel
für die Einbeziehung von Eigenschaften des HVS in Bildkodier
algorithmen. In einer Reihe von Sehtests wurde bei unter
schiedlichen Versuchspersonen festgestellt, dass die Hellig
keitsänderungsschwelle empfindlich auf die Anwesenheit eines
in der Nähe auftretenden Helligkeitssprungs reagiert. Anders
gesagt ist der Schwellwert einer gerade wahrnehmbaren Hellig
keitsänderung (ΔYJN) höher als er wäre, wenn der Helligkeits
sprung (ΔY) nicht vorhanden wäre. Deshalb sagt man, der
Sprung "maskiert" kleine Helligkeitsunterschiede in seiner
Umgebung. Ein weiteres wichtiges Merkmal dieses Maskierungs
effekts liegt darin, dass er eine Funktion des Gradienten der
Hellikeitsänderung ist, gegenüber der er gemessen wird. (In
einem typischen Testbild ist er deshalb abhängig vom anvi
sierten Detail.) Dieser Umstand kann dazu benutzt werden, um
Maskierungsfunktionen auf der Basis von gewichteten Ableitun
gen der Helligkeitsverteilung innerhalb eines einige Pixel
umfassenden Bereichs zu definieren. Diese können dazu verwen
det werden, den Quantisierungsprozess von Kodiersystemen
durch Prädiktion zu optimieren.
Über die Grenzen der Sichtbarkeit von Luminanz- (ΔYJN), Chro
rninanz- (ΔUJN,ΔVJN) bzw. Farbsättigungsschwankungen eines sta
tionären Empfangssignals geben die Schwellen für sinusoidale
Amplituden- und/oder Frequenzmodulation (AM bzw. FM) für mo
nochromatische bzw. für breitbandige Teststrahlung Auskunft.
Unter einer Amplituden- bzw. Helligkeitsmodulationsschwelle
versteht man denjenigen Wert des AmplitudenModulationsgrades
m, für welchen sich bei sequenzieller Darbietung das amplitu
denmodulierte vom unmodulierten Empfangssignal sichtbar zu
unterscheiden beginnt. Analog versteht man unter einer Frequenz-
bzw. Farbartmodulationsschwelle denjenigen Wert des
Frequenzhubs Δf, für welchen sich bei sequenzieller Darbie
tung das frequenzmodulierte vom unmodulierten Empfangssignal
sichtbar zu unterscheiden beginnt. Als Grundlage für Sehtests
können dazu modulierte Kosinusgitter für die Luminanz (Y),
für die Chrominanz (U,V) bzw. für die Farbsättigung einge
setzt werden. Bei der Betrachtung der Testbilder auf einem
Monitor kann die individuelle Modulationsübertragungsfunktion
(MÜF) in Abhängigkeit vom Abstand zwischen Monitor und Bet
rachter direkt gesehen werden als psychooptische Sichtbar
keitsgrenze der Kosinusgitter. Zur Bestimmung der MÜF für
helligkeits- bzw. farbartmodulierte Kosinusgitter werden in
einem Sehtest die Punkte, an denen die Kosinusgitter gerade
noch zu erkennen sind, von einer Testperson angezeigt und
durch Polygonzüge miteinander verbunden. Die mittlere Grenze,
an der Testpersonen gerade eben noch die Gitterform der kosi
nusförmigen Modulation erkennen können, kennzeichnet eine
MÜF. Diese Messkurven können für alle Farbwerte, die auf ei
nem Monitor darstellbar sind, gefunden werden. Allen Messkur
ven ist eine eindeutig erkennbare Bandpasscharakteristik des
menschlichen Gesichtsinns gemeinsam. Für die MÜF m(Ω1, Ω2)
helligkeitsmodulierter Gitter gilt, dass bei geringer Farb
sättigung nur die Mischfarbe "Unbunt" bzw. der jeweilige
Farbmittelwert zu sehen ist. Oberhalb von bestimmten Ortsfre
quenzen (Ω1, Ω2) muss die Farbsättigung ständig erhöht werden,
um die Gitter erkennen zu können. Dieser Effekt hängt zusam
men mit der Beugungsgrenze der optischen Abbildung im Auge
für hohe Ortsfrequenzen Ω1 bzw. Ω2.
Betrachtet man die MÜF für helligkeitsmodulierte Gitter im
Vergleich zu farbartmodulierten Gittern, so erkennt man, dass
das globale Minimum der MÜF m(Ω1, Ω2) für die Luminanz gegen
über der MÜF Δf(Ω1, Ω2) für die Chrominanz zu höheren Ortsfre
quenzen (Ω1, Ω2) verschoben ist. Alle farbartmodulierten Gitter
zeigen einen streng monotonen Anstieg der MÜF Δf(Ω1, Ω2)
der unterhalb von Ω1,2 = 1,5 Linienpaaren/Grad liegt, abhängig
von der jeweiligen Farbart. Die Beachtung der unterschiedli
chen Modulationsübertragungsfunktionen der verschiedenen
farbartmodulierten Gitter kann eine gezielte Datenreduzierung
bei unterschiedlichen Farbübergängen ermöglichen.
Bei einem speziellen Ausführungsbeispiel der vorliegenden Er
findung kann es sich um die Durchführung des Weiß-Abgleichs
von Videosignalen s(n) handeln, bei dem Luminanz (Y), Chromi
nanz (U,V) und/oder Farbsättigung der von einer Videokamera
aufgenommenen Bewegtbilder in Abhängigkeit von den Beleuch
tungsverhältnissen in der Umgebung der Videokamera reguliert
werden.
Bei einer Bildübertragung nach den üblichen Standards treten
unter bestimmten Voraussetzungen Verfälschungen in der wie
dergegebenen Luminanz (Y) auf. Bilder, die stark gesättigte
Farben und harte Übergänge von den farbigen Bildbereichen zu
unbunten Bildbereichen enthalten, werden besonders verfälscht
wiedergegeben. Auch bei einer digitalen Bildübertragung nach
MPEG2, bei der Luminanz (Y) und Chrominanz (U,V) getrennt
quantisiert werden, treten diese Fehler auf, da die Trennung
von Helligkeits-, Farbart- und Farbsättigungsinformation
nicht vollkommen ist.
Mit Hilfe eines Kompensationsverfahrens zur Regulierung der
Luminanz ist es möglich, die durch die Kodierung der Chromi
nanzsignalkomponenten hervorgerufenen Luminanzdefekte zu kor
rigieren und damit die Bildqualität zu verbessern.
Die Farbempfindlichkeit der Augen hängt von der Wellenlänge λ
bzw. der Frequenz f = cn/λ der sich mit Lichtgeschwindigkeit
cn = c/n in einem Medium mit dem Brechungsindex n ausbreiten
den Strahlung ab. Dabei bezeichnet c die Ausbreitungsge
schwindigkeit des Lichts im Vakuum; ihr Wert beträgt etwa
c ≈ 3,0108 m/s.
Das für das menschliche Auge sichtbare Spektrum des Lichts
befindet sich in einem Wellenlängenbereich zwischen λmin = 380 nm
und λmax = 780 nm. Licht mit großer Wellenlänge (nahe λmax)
erscheint für das menschliche Auge als Rot, solches mit kur
zer Wellenlänge (nahe λmin) als Violett.
Weißes Licht enthält alle im sichtbaren Spektralbereich vor
kommenden Lichtwellen. Das läßt sich nachprüfen, wenn man
beispielsweise weißes Sonnenlicht mit Hilfe eines optischen
Systems (Prisma) in seine Spektralanteile auflöst. Das als
Weiß wahrgenommene Sonnenlicht besteht aus unzähligen einzel
nen Farbkomponenten, die erst im Auge eines Betrachters zu
einem Gesamt-Farbeindruck zusammengesetzt werden. Die unter
schiedlichen sichtbaren Spektralanteile des Lichts werden vom
menschlichen Auge jedoch nicht mit gleicher Empfindlichkeit
wahrgenommen. Die Empfindlichkeitskurve des Auges weist ein
globales Maximum bei grünem Licht und eine streng monoton
fallende Empfindlichkeit in Richtung violetter und roter
Strahlung auf. Sind keine elektromagnetischen Strahlen vor
handen, das heißt wenn alle Wellenlängen des sichtbaren
Spektrums von einem Körper absorbiert werden, empfindet das
menschliche Auge die Farbe Schwarz.
Der vom Auge wahrgenommene Farbeindruck wird jedoch nicht al
lein von der Wellenlänge einer Strahlung bestimmt, sondern
auch von den Licht- und Beleuchtungsverhältnissen in der Um
gebung. So leuchtet zum Beispiel die rote Farbe eines Gegenstands
bei Sonnenstrahlung anders als in einem abgedunkelten
Raum.
Die Empfindlichkeit des menschlichen Gesichtssinns wird durch
die Anpassung der Augen an die bestehenden Lichtverhältnisse
in der Umgebung beeinflusst. Bei der sogenannten "Helladap
tion" muss von einer Lichtquelle ausgesendetes blaues oder
rotes Licht wesentlich mehr Energie E = h.f = h.cn/λ abstrah
len, um als genauso hell empfunden zu werden wie gelbes oder
grünes Licht. Die Konstante h ist dabei das Plancksche Wir
kungsquantum; es hat den Wert h ≈ 6,62.10-34 Ws2. Die relative
Hellempfindlichkeit - meist mit V(λ) bezeichnet - hat bei
Helladaption ein globales Maximum bei λ = 555 nm, bei Dunkel
adaption liegt ein globales Maximum bei λ = 507 nm vor. Bei
der Aufnahme eines Objekts mit einer Farbkamera spielt das
Umgebungslicht daher eine wichtige Rolle. Der von einem Ge
genstand hinterlassene Farbeindruck wird auch von der Umge
bungshelligkeit beeinflusst, das heißt die Farbe eines Ge
genstands läßt sich objektiv nur bei konstanter Intensität
des Umgebungslichts bestimmen.
Zum Vergleichen von Farben wäre weißes Licht, das man jedoch
in der Natur kaum vorfindet, ideal. Um dennoch die Farben
verschiedener Lichtquellen miteinander vergleichen zu können,
verwendet man als "Bezugslichtquelle" die Strahlung eines so
genannten "Planckschen Strahlers". Als Planckschen Strahler
bezeichnet man einen absolut schwarzen Körper mit einem Ab
sorptionsgrad von 100%, der, nachdem man ihn erhitzt, Photo
nen ausstrahlt. Das Spektraldiagramm dieses Lichts hängt
hierbei ausschließlich von der Temperatur ab, bis zu der der
schwarze Körper erhitzt wird. Aus diesem Grund spricht man
von der "Farbtemperatur" des Lichts. Die Farbtemperatur des
Lichts ist identisch mit der Wärmetemperatur des schwarzen
Körpers, und sie wird als absolute Temperatur T1 in Kelvin
(K) angegeben. Bereits bei einer relativ niedrigen Temperatur
von T1 ≈ 1.000 K erscheint das ausgestrahlte Licht rötlich.
Mit zunehmender Temperatur wechselt die Farbe des Lichts von
Rot (T1 ≈ 1.000 K) über Orange, Gelb (T1 ≈ 3.000 K) und Weiß
(T1 ≈ 3.200 K) nach Blau (T1 ≈ 5.000 K). Das Maximum der
spektralen Energieverteilung verschiebt sich also mit zuneh
mender Temperatur zu kürzeren Wellenlängen hin.
Die Farbtemperaturbestimmung einer Lichtquelle erfolgt durch
einen Vergleich mit dem Licht des erhitzten schwarzen Kör
pers. Erhitzt man zum Beispiel den schwarzen Körper auf eine
Temperatur von T1 ≈ 3.200 K und entspricht das Licht dieses
Körpers dem Licht einer strahlenden Glühlampe, so hat das vom
Glühfaden der Lampe ausgestrahlte Licht ebenfalls eine Farb
temperatur von T1 ≈ 3.200 K. Der Vergleich verschiedener
Lichtquellen mit Hilfe der Farbtemperatur ist allerdings nur
bei thermischen Lichtquellen (Kerzen, Glühlampen, Tageslicht,
Licht von Strahlung außendenden Himmelskörpern etc.) für Pho
tonenstrahlung im sichtbaren Frequenzbereich möglich. Das
Licht von Lumineszenzstrahlern (Gasentladungslampen, Leucht
stoffröhren, Leuchtdioden etc.) zeigt keine glatte Spektral
verteilung. Licht dieser Art kann daher nicht durch die Farb
temperatur ausgedrückt werden.
Betrachtet man einen Gegenstand abwechselnd mit unterschied
lichen Lichtquellen, deren Farborte im IBK-Farbdreieck zwar
ziemlich nahe beieinander liegen, deren spektrale Verteilung
aber stark differiert (zum Beispiel natürliches Tageslicht
bei unbewölktem Himmel und Licht einer Tageslicht-Leucht
stofflampe), kann es passieren, dass der Gegenstand in einer
ganz anderen Farbe erscheint. Daraus lässt sich folgern, dass
das menschliche Auge unerwartet empfindlich gegenüber der
spektralen Verteilung von Lichtquellen reagiert. Andererseits
erkennt das Auge kaum einen Farbunterschied, wenn sich die
Farborte des Umgebungslichts stark unterscheiden, zum Bei
spiel bei der Betrachtung eines Gegenstands mit Tageslicht
oder am Abend bei Glühlampenbeleuchtung. Die Gründe hierfür
liegen in der Fähigkeit des menschlichen Auges, sich den un
terschiedlichen Licht- und Beleuchtungsverhältnissen in der
Umgebung anpassen zu können (Farbgedächtnis). Dazu ein Bei
spiel: Eine Freilichtaufnahme eines weißen Gegenstands bei
einer Farbtemperatur des Tageslichts von T1 = 6.500 K soll so
erfolgen, dass der aufgenommene Gegenstand auch auf einem Mo
nitor weiß erscheint. Hierzu wird die Kamera so eingestellt,
dass die Farbkomponenten Rot (R), Grün (G) und Blau (B) Sig
nale mit gleicher Amplitude liefern (UR = UG = UB), das heißt
die eingestellte Farbtemperatur der Kamera T2 wird auf T2 =
6.500 K eingestellt. Bei der Aufnahme des gleichen Gegens
tands - jetzt aber im Studio mit einer weißes Licht außenden
den Fotolampe der Farbtemperatur T1 = 3.200 K und unveränder
ter Kameraeinstellung auf die Farbtemperatur T2 = 6.500 K
durchgeführt - erscheint der aufgenommene Gegenstand auf dem
Bildschirm gelblich. Der aufgenommene weiße Gegenstand hat
jetzt eine Farbtemperatur von T1 ≈ 3.200 K, was eine Ver
schiebung des Farbeindrucks zum roten Spektrum hin bedeutet.
Der Kameramann hingegen sieht den Gegenstand immer weiß
leuchten, da das menschliche Gehirn über ein Farbgedächtnis
verfügt. Der auf dem Monitor abgebildete Gegenstand nimmt
erst wieder eine weiße Farbe an, wenn die Kamera neu auf das
Umgebungslicht eingestellt wird.
Um sicherzugehen, dass ein weißer Gegenstand - aufgenommen
bei unterschiedlichen Farbtemperaturen des Umgebungslichts -
auf dem Monitor immer weiß erscheint, muss durch die Kamera
eine Kompensation der Farbtemperatur ermöglicht werden. Man
bezeichnet eine solche Kompensation als Weiß-Abgleich oder
Weiß-Balance-Einstellung. Bei der Beleuchtung eines weißen
Körpers mit einer Lichtquelle der Farbtemperatur T1 ≈ 6.740 K
müssen die drei Ausgangssignale UR, UG und UB der Kamera
gleich groß sein. In der Praxis kann der Weiß-Abgleich einer
Kamera durch drei verschiedene Methoden durchgeführt werden:
- - durch ein optisch-mechanisches Verfahren (Kompensations filter),
- - durch ein elektronisches Verfahren (Regelschaltung),
- - durch eine Kombination aus den beiden genannten Verfahren.
In der Regel arbeiten moderne Videokameras am besten bei ei
ner Farbtemperatur von T1 = 3.200 K. Bei dieser Beleuchtung
ist dann kein Weiß-Abgleich erforderlich. Eine Kompensation
der Farbtemperatur mit Farbfiltern wird in der Praxis mit
Hilfe eines Umschalters für Außen- oder Innenaufnahmen durch
geführt ("In-Door"-/"Out-Door"-Umschalter). Hierzu wird ein
Farbfilter auf mechanischem Weg vor den Bildaufnehmer ge
schaltet.
Im Zusammenhang mit Farbtemperatur-Kompensationsfiltern wird
die Farbtemperatur T1 einer Lichtquelle bisweilen auch durch
die Rechengröße M1 ("Micro-Reciprocal Degrees", MIRED) mit
der Einheit µrd zum Ausdruck gebracht, die sich als Kehrwert
der Farbtemperatur, multipliziert mit 106, ergibt:
Zur Anpassung der Farbtemperatur mit Hilfe von Farbfiltern
arbeitet man mit der folgenden Korrekturformel:
mit
M1: MIRED-Wert für T1 (in µrd),
M2: MIRED-Wert für T1 (in µrd),
ΔM: M2 - M1: Korrekturwert (in µrd),
T1: gegebene Farbtemperatur der Lichtquelle (in K),
T2: eingestellte Farbtemperatur der Kamera (in K) und
ΔT: T2 - T1: Temperaturdifferenz (in K).
M1: MIRED-Wert für T1 (in µrd),
M2: MIRED-Wert für T1 (in µrd),
ΔM: M2 - M1: Korrekturwert (in µrd),
T1: gegebene Farbtemperatur der Lichtquelle (in K),
T2: eingestellte Farbtemperatur der Kamera (in K) und
ΔT: T2 - T1: Temperaturdifferenz (in K).
Das Ergebnis einer solchen Berechnung kann positiv oder nega
tiv sein. Ist das Ergebnis ΔM positiv (für T1 < T2), dann ist
ein Gelbfilter (d. h. ein wärmerer Farbton) zu wählen; ein ne
gatives Ergebnis ΔM (für T1 < T2) erfordert ein Blaufilter
(d. h. einen kälteren Farbton). Beträgt beispielsweise die
Farbtemperatur der Lichtquelle T1 = 4.706 K und die einge
stellte Farbtemperatur einer Kamera T2 = 3.200 K (Tageslicht
an einem unbewölkten Tag kurz vor Sonnenuntergang), so ergibt
die Rechnung:
In diesem Fall sollte das Filter also einen Korrekturfaktor
von +100 besitzen, das heißt die reziproke Farbtemperatur der
Lichtquelle 1/T1, multipliziert mit 106, muss um ΔM = 100 µrd
gesenkt werden. Das bedeutet, dass die eingestellte Farbtem
peratur der Kamera T2 = 3.200 K um ΔT = 1.506 K auf die Farb
temperatur der Lichtquelle T1 = 4.706 K erhöht werden muss.
Ein solches Filter wird auch als W10-Filter bezeichnet. Hier
bei gibt der Buchstabe in der Filterbezeichnung an, ob die
Farbtemperatur der Kamera T2 reduziert (C) oder erhöht (W)
werden soll. Die Zahl hinter dem Buchstaben gibt den Umwand
lungswert in Zehntel-µrd an.
Die Farben des von einer Videokamera erzeugten Videobildes
sollen stets den Original-Farbeindruck der Aufnahmeszene wie
dergeben, unabhängig von der Farbtemperatur der Szenenbe
leuchtung. Um diese Forderung erfüllen zu können, muss die
Kamera so eingestellt werden, dass ein weißer Gegenstand im
mer weiß abgebildet wird. Diese Adaption an die Farbtempera
tur der Szenenbeleuchtung wird in der Videotechnik aus als
Weiß-Abgleich oder Weiß-Balance-Einstellung bezeichnet.
Grundsätzlich sind Videokameras so eingestellt, dass ein bei
einer Farbtemperatur von T ≈ 3.200 K (Standard-Lichtquelle)
aufgenommenes weißes Objekt auch als weißes Objekt abgebildet
wird. Bei jeder Abweichung der Farbtemperatur von diesem
Normwert muss der Weiß-Abgleich der Kamera so verändert wer
den, bis das weiß aufgenommene Objekt wieder weiß abgebildet
wird. In der Regel sind bei herkömmlichen Videokameras drei
Möglichkeiten einer Weiß-Balance-Einstellung zu finden:
- - die manuelle Einstellung durch Justierung von Potentiome tern (bei älteren Modellen),
- - die automatische Einstellung für eine vorgegebene Szenen beleuchtung und
- - die automatische Nachführung der Weiß-Balance über einen großen Farbtemperaturbereich.
Grundsätzlich wirkt die Weiß-Balance-Einstellung auf die Ver
stärkung des Lichts in der Rot- und Blau-Signal-Verarbeitung.
Dass dies so sein muss, wird klar, wenn man bedenkt, dass bei
einer Farbtemperaturänderung nach höheren Werten (also bei
größerer Farbtemperatur T1 einer Lichtquelle) der Blau-An
teil, bei einer Farbtemperaturänderung nach niedrigeren Wer
ten (also bei kleinerer Farbtemperatur T1 einer Lichtquelle)
der Rot-Anteil des durch das Objektiv einfallenden Lichts an
steigt.
Die meisten heute im Handel erhältlichen Videokameras besit
zen die Möglichkeit einer automatischen Weiß-Balance-Einstel
lung. Hierbei genügt es, einen weißen Gegenstand aufzunehmen
und kurz eine Einstelltaste ("Auto-White"- oder "Auto-White-
Adjust"-Taste) zu drücken. Durch die Betätigung dieser Taste
wird ein Regelvorgang ausgelöst, der die Verstärkung im Rot-
und Blau-Signalweg mit Hilfe eines Potentiometers so lange
verändert, bis die Rot- und Blau-Signalspannungen UR-Y und UB-Y
der Farbdifferenzsignale R-Y und B-Y gleich groß sind. Der
Nachteil dieses Verfahrens zur automatischen Weiß-Balance-Re
gelung ist, dass bei einem Wechsel der Szenenbeleuchtung im
mer ein neuer Abgleich mit einem weißen Gegenstand erfolgen
muss.
Einige neuere Kameramodelle arbeiten mit einer Weiß-Balance-
Einstellung, die sich ständig an die neuen tageszeitlichen,
wetterabhängigen bzw. durch künstliche Lichtquellen veränder
ten Umgebungslicht-Bedingungen anpasst. In der Terminologie
der Bildverarbeitungstechnik bezeichnet man diese Art der
Weiß-Balance-Einstellung mit "Auto-White-Tracking" (AWT). Bei
der AWT-Regelung wird die spektrale Verteilung der Szenenbe
leuchtung ständig durch einen eigenen Sensor, den AWT-Sensor,
gemessen. Räumlich befindet sich der AWT-Sensor in der Nähe
des Objektivs. Der AWT-Sensor selbst besteht aus einzelnen
Fotodioden, denen das einfallende Licht über je ein Rot-,
Grün- und Blaufilter zugeführt wird. Bei einer geringen Sze
nenbeleuchtung ist eine einwandfreie Nachregelung nicht ge
währleistet. In diesem Fall erkennt ein Detektor die Unter
belichtung und unterbricht über einen elektronischen Schalter
den AWT-Regelkreis. Die Kamera arbeitet dann automatisch bei
einem fest vorgegebenen Weiß-Abgleich für eine Farbtemperatur
von T2 = 3.200 K.
Das sendeseitige Umschalten auf den Datensignal-Abtastwert
Sn+k kann sofort nach dem Verstreichen einer vorgegebenen Ver
zögerungszeit Δtv und/oder nach dem Über- bzw. Unterschreiten
mindestens eines geeignet festgelegten Schwellwerts σref er
folgen. Durch dieses "harte" Umschalten kann ein schnelles
Reagieren des Signalempfängers auf veränderte Signalwerte ge
währleistet werden. Ist die Kapazität C des Übertragungska
nals groß genug und damit die Übertragungszeit Δtü klein ge
nug, können relevante Änderungen Δs(n+m, m) des Signals s(n)
den Signalempfänger nahezu in Echtzeit erreichen.
Das sendeseitige Umschalten auf den Datensignal-Abtastwert
sn+k kann alternativ auch allmählich nach dem Verstreichen ei
ner vorgegebenen Verzögerungszeit Δtv und/oder nach dem Über-
bzw. Unterschreiten mindestens eines geeignet festgelegten
Schwellwerts σref erfolgen. Zu diesem Zweck kann beispiels
weise ein Interpolationsverfahren eingesetzt werden, das ei
nen sanften, gleitenden Übergang auf den neuen Signalwert sn+k
über mehrere Abtastperioden bewerkstelligt. Durch dieses
"sanfte" Umschalten kann dafür gesorgt werden, dass das
menschliche Wahrnehmungssystem nicht durch ein plötzliches
starkes Ansteigen der empfangenen Signalintensität, zum Bei
spiel durch Lärm infolge eines dröhnened lauten Geräuschs o
der durch Blendung infolge eines gleißend hellen Lichts, ü
berfordert bzw. geschädigt wird. So kann es beispielsweise
bei der Darbietung plötzlich auftretender lauter akustischer
Signale über Kopfhörer leicht zu einer dauerhaften Schädigung
des Gehörs kommen. Durch gleitende Übergänge der empfangenen
Signalintensität kann es dem menschlichen Wahrnehmungssystem
jedoch ermöglicht werden, sich langsam an die veränderten
Signalwerte zu gewöhnen, so dass die Gefahr einer Schädigung
der menschlichen Sinneszellen durch plötzliches Ansteigen der
empfangenen Signalintensität vermindert werden kann.
Sofern die Dauer Δτ der Änderung des Datensignals (DS) eine
vorgegebene Verzögerungszeitdauer Δtv unterschreitet, das
heißt sofern
Δτ < Δtv bzw. κ < k bei Δtv ≠ 0 bzw. k ≠ 0 und d = 0
für κ := Δτ/Δt und k := Δtv/Δt (mit k ≧ 1)
für κ := Δτ/Δt und k := Δtv/Δt (mit k ≧ 1)
gilt, erfolgt erfindungsgemäß keine Regelung der Werte des
Datensignals (DS).
Sofern der Betrag der Amplitude, Frequenz bzw. Phase si des
Datensignals (DS) zu mindestens einem Beobachtungszeitpunkt i
einen vorgegebenen Amplituden-, Frequenz- bzw. Phasenschwell
wert unterschreitet, das heißt sofern
|si| < d/2 mit d := 2.Sref/√2 = Sref/√2 bei Δtv = 0
gilt, erfolgt erfindungsgemäß ebenfalls keine Regelung der
Werte des Datensignals (DS).
Lässt man sowohl eine Verzögerungszeitdauer Δtv (Δtv ≠ 0) als
auch einen Amplituden-, Frequenz- bzw. Phasenschwellwert d/2
(d ≠ 0) als Schwellwerte zu, erfolgt in den Fällen
- a) Δτ < Δtv bzw. κ < k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0,
- b) Δτ < Δtv bzw. κ < k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0 sowie
- c) Δτ ≧ Δtv bzw. κ ≧ k für Δtv ≠ 0 bzw. k ≠ 0 und |si| < d/2 für d ≠ 0
erfindungsgemä 26636 00070 552 001000280000000200012000285912652500040 0002010045777 00004 26517ß ebenfalls keine Regelung der Werte des Daten
signals (DS). Eine Regelung dieser Werte findet erfindungsge
mäß nur dann statt, wenn die Bedingungen
Δτ ≧ Δtv bzw. κ ≧ k für Δtv ≠ 0 bzw. k ≠ 0
und |si| < d/2 für d ≠ 0
und |si| < d/2 für d ≠ 0
eingehalten werden.
Bei der durch Anwendung dieses Verfahrens geregelten Signal
komponente des Datensignals (DS) kann es sich beispielsweise
um ein Chrominanzsignal (U,V) handeln. Zur Vereinfachung der
Schreibweise war in den obigen Formeln jedoch nur noch von
einem Datensignal (DS) die Rede, wobei nicht mehr zwischen
dem Datensignal (DS) und Signalkomponenten dieses Datensig
nals (DS) unterschieden wurde.
Bei der durch Anwendung dieses Verfahrens geregelten Signal
komponente des Datensignals (DS) kann es sich beispielsweise
um ein Luminanzsignal (Y) handeln. Zur Vereinfachung der
Schreibweise war in den obigen Formeln jedoch nur noch von
einem Datensignal (DS) die Rede, wobei nicht mehr zwischen
dem Datensignal (DS) und Signalkomponenten dieses Datensig
nals (DS) unterschieden wurde.
Im Folgenden wird die Erfindung anhand bevorzugter Ausfüh
rungsbeispiele, wie sie in den Fig. 1 bis 8 geschildert
sind, näher beschrieben.
Im Detail zeigen
Fig. 1 ein Blockschaltbild zur Veranschaulichung der Sig
nalübertragung von einem Signalsender zu einem Sig
nalempfänger im Falle von Bewegtbildsequenzen als
Übertragungssignal,
Fig. 2 ein Flussdiagramm zur Veranschaulichung der Ermitt
lung, Auswertung und Übertragung des Differenzsig
nals Δs(n+m, m) mit der Verzögerungszeit Δtv,
Fig. 3 ein Beispiel für die Bildung eines Differenzsignals
Δs(n+m, m) für eine Verschiebung um m = 5 Abtast
zeitpunkte und eine Verzögerungszeitdauer von k = 5
Abtastzeitpunkten,
Fig. 4 zwei Fälle für ein persistentes Signal (das heißt
s(n) = const.) während des Beobachtungszeitraumes,
also der Verzögerungszeit Δtv zwischen den Messun
gen #i und #(i+k) des Signals s(n) zu den Abtast
zeitpunkten n und n+k,
Fig. 5 zwei Fälle für ein signifikant zunehmendes bzw. ab
nehmendes Signal (das heißt s(n) + const.) während
des Beobachtungszeitraumes, also der Verzögerungs
zeit Δtv zwischen den Messungen #i und #(i+k) des
Signals s(n) zu den Abtastzeitpunkten n und n+k,
Fig. 6 einen Fall für ein signifikant ab- und wieder zu
nehmendes Signal (das heißt s(n) ≠ const.) während
des Beobachtungszeitraumes, also der Verzögerungs
zeit Δtv zwischen den Messungen #i und #(i+k) des
Signals s(n) zu den Abtastzeitpunkten n und n+k,
Fig. 7 je einen Spezialfall für die Annahme eines per
sistenten Betrags des Signals s(n) der Signaldauer
Δτ ≧ Δtv (also κ < k) bzw. eines nicht persistenten
Betrags des Signals s(n) der Signaldauer Δτ < Δtv
(also K < k) ohne Berücksichtigung eines Amplitu
denschwellwerts d/2 (also d = 0) und
Fig. 8 je einen Spezialfall für die Annahme eines signifi
kanten Betrags des Signals s(n) (also |si| < d/2)
bzw. eines nicht signifikanten Betrags des Signals
s(n) (also |si| < d/2) ohne Berücksichtigung einer
Verzögerungszeit Δtv (also Δtv = 0 bzw. k = 0).
In Fig. 1 ist ein Blockschaltbild skizziert, das die Signal
übertragungskette vom Signalsender zu einem Signalempfänger
zeigt, die aus einem Sendezweig, einem Übertragungskanal und
einem Empfangszweig besteht. Bei dem zu übertragenden Signal
handelt es sich in diesem Fall um eine Bewegtbildsequenz
(101), die von einer analogen Videokamera (102) aufgenommen
wurde. Das analoge Ausgangssignal s(t) der Videokamera (102)
wird auf den Eingang eines Moduls (103) geführt, das die
Durchführung einer Helligkeitsregelung (HR) bzw. die Durch
führung eines Weiß-Abgleichs (WA) für das analoge Sendesignal
s(t) vornimmt. Dadurch kann gewährleistet werden, dass kurz
zeitige Störspitzen bzw. -einbrüche und/oder nicht signifi
kante Signaländerungen im Sendesignal s(t) nicht übertragen
werden. Das Modul (103) kann beispielsweise als Mikrochip in
der Videokamera (102) integriert sein. Nach Abtastung und
Quantisierung des analogen Sendesignals s(t) durch den Ana
log-Digital-Wandler (104) entsteht an dessen Ausgang das di
gitale Sendesignal
d. h. S (n) ∈ {0, . . ., 0, s0, s1, . . ., sn, . . ., sN, 0, . . ., 0}.
Wird anstelle einer analogen Videokamera eine digitale Video
kamera verwendet, so kann auf die Komponente 104 verzichtet
werden. Dieses Signal wird zum Zweck der Redundanzreduktion
im Kodierer (105) digital kodiert, wobei ein Differenzsignal
Δs(n+m, m) ermittelt wird, dessen Werte sich durch Subtraktion
des digitalen Sendesignals s(n) von einem um einen Abtast
zeitpunkt (m = 1) verschobenen digitalen Sendesignal s(n+m)
ergibt:
Zusätzlich zur Quellenkodierung kann hier auch eine Kanalko
dierung vorgenommen werden. Soll das Signal Δs(n+m, m) über
die Luftschnittstelle übertragen werden, muss es zuvor mit
Hilfe eines Modulators (106) einem analogen hochfrequenten
Trägersignal aufmoduliert werden. Der Übertragungskanal ist
in diesem Fall analog und kann durch Addition (107) eines
weißen gaußverteilten Rauschsignals r(t) modelliert werden
(AWGN-Kanal). Zur Vereinfachung der Formeln soll im Folgenden
angenommen werden, der Übertragungskanal sei ideal, das heißt
r(t) = 0. In diesem Fall kann das Differenzsignal Δs(n+m, m)
am Ausgang des Demodulator (108) im Signalempfänger vollstän
dig und fehlerfrei rekonstruiert werden. Wird das Differenz
signal Δs(n+m, m) nicht über die Luftschnittstelle, sondern
drahtgebunden übertragen, entfallen die Komponenten 106, 107
und 108 in der skizzierten Signalübertragungskette. Der Über
tragungskanal, also die leitende Verbindung zwischen dem sen
deseitigen Kodierer (105) und dem empfangsseitigen Dekodierer
(109) ist dann digital. Nach der Dekodierung (109) und Digi
tal-Analog-Wandlung (110) kann die Bewegtbildsequenz auf ei
nem Bildschirm oder einem Display (111) angezeigt und vom Au
ge eines Betrachters (112) wahrgenommen werden. Wird anstelle
eines analogen Bildschrims bzw. eines analogen Displays ein
digitaler Bildschirm bzw. ein digitales Display verwendet, so
kann auf die Komponente 110 verzichtet werden.
Neben der skizzierten Version der Signalübertragungskette ist
auch eine Version vorstellbar, bei der das Modul (103) zur
Durchführung der Helligkeitsregulierung (HR) bzw. zur Durch
führung des Weiß-Abgleichs (WA) für das analoge Sendesignal
s(t) hinter dem Ausgang des Kodierers (105) angeordnet ist.
Bei dieser Version erfolgt die Helligkeitsregulierung bzw.
der Weiß-Abgleich nach abgeschlossener Ermittlung des Diffe
renzsignals Δs(n+m, m), also für Signale in digitaler Form.
Die Abbildungen in den folgenden Fig. 2 bis 8 sind auf
diese Version bezogen.
In Fig. 2 ist der erfindungsgemäße Ablauf der Ermittlung,
Auswertung und Übertragung des Differenzsignals Δs(n+m, m) mit
der Verzögerungszeit Δtv in einem Flussdiagramm dargestellt.
Vor Beginn der hier dargestellten Prozedur liegt dabei ein
digitales Signal s(n) vor, das durch Abtastung mit der Ab
tastperiode Δt, unter Einhaltung des Shannon-Theorems
Δt < 1/(2.B),
und Quantisierung eines analogen Nutzsignals s(t) der Band
breite B gewonnen wurde. Bei dieser Schreibweise wird die
Nummer n des jeweiligen Abtastzeitpunktes tn = n.Δt abkürzend
für diesen Zeitpunkt notiert. Aus zeichentechnischen Gründen
ist jedoch in Fig. 2 nur ein unterabgetastetes Signal s(n)
dargestellt, also ein Signal, für das das Shannon-Theorem
nicht erfüllt ist.
Nach der Initialisierung des Zählers ZA für die Abtastzeit
punkte n durch die Zuweisung n := 0 und der Initialisierung
des Zählers ZM für die Messzeitpunkte i mit Hilfe der Zuwei
sung i := 0 (Schritt 201) erfolgt auf der Seite des Signal
senders eine erste Messung (Messung #i) und Speicherung des
aktuellen Signalwerts von s(n) zum Abtastzeitpunkt n (Schritt
202). Dieser gemessene Abtastwert des digitalen Signals s(n)
sei im Folgenden mit si := sn bezeichnet. Wurde eine Verzöge
rungszeit Δtv abgewartet (Schritt 203), die einige Abtastpe
rioden Δt umfassen kann (Δtv ≧ Δt), wird eine Inkrementierung
des Zählers ZA für die Abtastzeitpunkte n durch Ausführung
der Zuweisung n := n+k mit der Verschiebung
k := Δtv/Δt ≧ 1,
eine Inkrementierung des Zählers ZM für die Messzeitpunkte i
unter Durchführung der Zuweisung i := i+k (Schritt 204) sowie
eine Messung und Speicherung des aktuellen Signalwerts von
s(n+k) zum Abtastzeitpunkt n+k (Schritt 205) im Signalsender
vorgenommen (Messung #(i+k)). Während der Verzögerungszeit
Δt~ werden zu allen Abtastzeitpunkten weitere Messungen und
Speicherungen abgetasteter Signalwerte si+1 := sn+1, si+2 := sn+2
bis si+k-1 := sn+k-1 (Messungen # (i+1) bis # (i+k-1)) vorgenom
men. Der abgetastete Signalwert zum Zeitpunkt der (i+k)-ten
Merssung sei im Folgenden mit si+k := sn+k bezeichnet.
Das zu übertragende Differenzsignal Δs(n+m, m) wird allgemein
als vorzeichenbehaftete Differenz des um m Abtastzeitpunkte
verzögerten Nutzsignals s(n+m) gegenüber dem im Signalsender
gemessenen Originalsignal s(n) nach der Vorschrift
berechnet. Die zum Zeitpunkt n+k zu übertragende Signalände
rung Δsi+k wird demgemäß nach der Formel
ermittelt (Schritt 106). Als Nächstes wird anhand einer Ab
frage (Schritt 107) getestet, ob bereits im Abstand m zwei
Abtastwerte des Signals s(n) vorliegen, die miteinander ver
glichen werden können. Wurden mindestens zwei Abtastwerte des
Originalsignals s(n) abgewartet, gilt also
n+m ≧ 2.m ↔ n ≧ m,
kann ein Vergleich jeweils zweier Abtastwerte si+j und si+j-1
(für j = 1, 2, 3, . . ., k) des Signals s(n) zu den Zeitpunkten
n+1, n+2, n+3 bis n+k zur Bildung eines Differenzsignalwerts
Δsi+j := si+j - si+j-1
vorgenommen werden ("Ja"-Fall). Andernfalls erfolgt ein Rück
sprung zu Schritt 103 ("Nein"-Fall). Im "Ja"-Fall gilt es bei
dem oben genannten Vergleich zu untersuchen, ob die zu den
Abtastzeitpunkten n, n+1, n+2, n+3 bis n+k ermittelten Sig
nalwerte si, si+1, si+2 bis si+k einen vorgegebenen Schwellwert
+Sref/√2 bzw. -Sref/√2 über- bzw. unterschreiten, also die
Ungleichung
|s(n)| < Sref/√2 für n, n + 1, n + 2, . . ., n + k (*)
also |si| < Sref/√2 ∧ |si+1| < Sref/√2 ∧ . . . ∧ |si+k| < Sref/√2
also |si| < Sref/√2 ∧ |si+1| < Sref/√2 ∧ . . . ∧ |si+k| < Sref/√2
erfüllt ist. Der Betrag des Abstands zwischen dem oberen Amp
litudenschwellwert +Sref/√2 und dem unteren Amplituden
schwellwert -Sref/√2 im Folgenden mit
d := 2.Sref/√2 = Sref/√2
bezeichnet. Ob die obigen Ungleichungen (*) zutreffen oder
nicht, wird mit Hilfe einer Abfrage (Schritt 108) getestet.
Treffen sie zu ("Ja"-Fall), kann zum Abtastzeitpunkt n+k eine
Übertragung des Differenzsignalwerts Δsi+k vom Signalsender
zum Signalempfänger erfolgen. Andernfalls erfolgt ein Rück
sprung zu Schritt 103 ("Nein"-Fall). Auf der Seite des Emp
fängers wird nach Verstreichen der Übertragungszeit Δtü der
Abtastwert des erhaltenen Differenzsignals Δsi+k vorzeichen
richtig zum letzten vorliegenden Abtastwert si des Signals
s(n) addiert, um zum Abtastzeitpunkt n+k den Signalwert
si+k = si + Δsi+k
zu erhalten. Falls die Übertragung des kompletten Differenz
signals Δs(n+m, m) beendet ist, also die Ungleichung
n < N - m
erfüllt ist, ist die Übertragung abgeschlossen. Andernfalls
beginnt die Prozedur von Neuem mit Schritt 101.
In Fig. 3 wird anhand eines aus drei Abbildungen bestehenden
Beispiels gezeigt, wie die Differenzsignale Δs(n+m, m) ermittelt
werden. Als Ausgangssignal wird in Abb. 1 die ana
loge Signalspannung s(t) betrachtet, deren momentane Ampli
tude beispielsweise einen proportionalen Wert zur momentanen
Helligkeit bzw. Lautstärke eines aufgenommenen Bild- bzw.
Tonsignals angibt. Nach der Abtastung des analogen Nutzsig
nals s(t) mit der Abtastperiode Δt (normalerweise unter Ein
haltung des Shannon-Theorems, hier jedoch aus zeichentechni
schen Gründen in einer unterabgetasteten Darstellung) und der
Quantisierung des abgetasteten Signals liegt das Nutzsignal
in digitaler Form s(n) vor, wie in Abb. 2 dargestellt.
Um die Datenrate R der Signalübertragung vom Signalsender zum
Signalempfänger zu reduzieren, wird nicht das Signal s(n),
sondern das um m Abtastzeitpunkte) verzögerte Differenzsignal
Δs(n+m, m) übertragen. In Abb. 3 ist das ermittelte Dif
ferenzsignal Δs(n+m, m) für die Verschiebung m = 5 skizziert.
Die Verzögerung der Übertragung von Δs(n+m, m) ist außerdem
notwendig, um kurzzeitig auftretende Störspitzen im Original
signal s(n) vernachlässigen zu können, die innerhalb der
betreffenden k Abtastzeitpunkte möglicherweise auftreten.
Verhält sich das Signal s(n) während dieser Zeitspanne quasi
stationär, gilt also
erfolgt eine Übertragung des Differenzsignalswerts von
Δs(n+m, m) zum Zeitpunkt n+k nur dann, wenn s(n) zu diesem
Zeitpunkt dem Betrage nach einen geeignet festgelegten
Schwellwert Sref/√2 überschreitet. Dieser Schwellwert kann
etwa durch ein Gleichspannungssignal sref(t) = const. oder
durch den Effekivwert der Amplitude eines sinusoidalen Wech
selspannungssignals sref(t) repräsentiert werden, das als Re
ferenzsignal dient.
Fig. 4 veranschaulicht bildhaft zwei Fälle für ein per
sistentes Signal (s(n) = const.) während des Beobachtungs
zeitraumes, also der Verzögerungszeit Δtv zwischen den Mes
sungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunk
ten n = 15 bis n+k = 20.
In Fall a) wird ein Beispiel gezeigt, bei dem der Betrag der
Signalamplitude von s(n) für die besagten (k+1) Abtastzeit
punkte einen konstanten Wert oberhalb eines vorgegebenen
Schwellwerts annimmt. Für die Entscheidung, ob der aktuelle
Abtastwert Si+k des Signals s(n) zum Abtastzeitpunkt n+k = 20
übertragen werden soll, interessieren jedoch nur die ermit
telten Werte des Signals s(n) zum Zeitpunkt der Messungen #i
bis #(i+k), also zu den Abtastzeitpunkten n = 15 bis n+k = 20. Da
in Fall a) die Bedingung
|s(n)| < Sref/√2
zu den Zeitpunkten n = 15 bis n+k = 20 (**)
erfüllt ist, kann zum Zeitpunkt n+k = 20 die Übertragung des Differenzsignalwerts Δsi+k erfolgen.
erfüllt ist, kann zum Zeitpunkt n+k = 20 die Übertragung des Differenzsignalwerts Δsi+k erfolgen.
In Fall b) wird ein Beispiel gezeigt, bei dem der Betrag der
Signalamplitude von s(n) für die besagten (k+1) Abtastzeit
punkte einen konstanten Wert unterhalb eines vorgegebenen
Schwellwerts annimmt, und zwar den Wert Null. Für die Ent
scheidung, ob der aktuelle Abtastwert Δsi+k des Differenzsig
nals zum Abtastzeitpunkt n+k = 20 übertragen werden soll, inte
ressieren jedoch wieder nur die ermittelten Werte des Signals
s(n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den
Abtastzeitpunkten n = 15 bis n+k = 20. Da in Fall b) die Bedin
gung (**) nicht erfüllt ist, kann zum Zeitpunkt n+k = 20 keine
Übertragung des Differenzsignalwerts Δsi+k erfolgen.
Fig. 5 zeigt zwei Fälle für ein signifikant zunehmendes bzw.
abnehmendes Signal (s(n) ≠ const.) während des Beobachtungs
zeitraumes, also der Verzögerungszeit Δtv zwischen den Mes
sungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunk
ten n = 15 bis n+k = 20. Die Bezeichnung "signifikant" bedeutet
in diesem Zusammenhang, dass der Betrag der Signalamplitude
von s(n) innerhalb der besagten (k+1) Abtastzeitpunkte einen
vorgegebener Schwellwert über- bzw. unterschreitet. In Fall
c) ist eine signifikante Zunahme der betragsmäßigen Signalän
derung |s(n)| während dieses Zeitraums dargestellt, in Fall
d) eine signifikante Abnahme von |s(n)|. Das Signal s(n)
nimmt dabei während dieses Zeitraums Werte an, für die
S (n) < + Sref/√2 bzw. 0 ≦ s(n) < + Sref/√2
gilt, wobei es zu einer Über- bzw. Unterschreitung des
Schwellwerts +Sref/√2 kommt. Möglich sind aber auch Fälle,
bei denen das Signal s(n) während dieses Zeitraums Werte an
nimmt, für die
S (n) < -Sref/√2 bzw. 0 ≧ s(n) < -Sref/√2
gilt, wobei es zu einer Unter- bzw. Überschreitung des
Schwellwerts -Sref/√2 kommt. Für die Entscheidung, ob der
Differenzsignalwert Δsi+k zum Abtastzeitpunkt n+k = 20 übertra
gen werden soll, interessieren jedoch wieder nur die ermit
telten Werte des Signals s(n) zum Zeitpunkt der Messungen #i
bis #(i+k), also zu den Abtastzeitpunkten n = 15 bis n+k = 20. Da
in Fall c) die Bedingung (**) nicht erfüllt ist, kann zum
Zeitpunkt n+k keine Übertragung des Differenzsignalwerts Δsi+k
erfolgen. In Fall d) ist die Bedingung (**) auch nicht er
füllt, so dass auch hier zum Zeitpunkt n+k = 20 die Übertragung
des Differenzsignalwerts Δsi+k nicht erfolgen kann.
Der in Fig. 6 abgebildete Fall e) zeigt ein Beispiel für ein
signifikant abnehmendes und wieder signifikant zunehmendes
Signal (s(n) + const.) während des Beobachtungszeitraumes,
also der Verzögerungszeit Δtv zwischen den Messungen #i und
#(i+k) des Signals s(n) zu den Abtastzeitpunkten n = 15 und
n+k = 20. Für die Entscheidung, ob der Differenzsignalwert Δsi+k
zum Abtastzeitpunkt n+k = 20 übertragen werden soll, interes
sieren wieder nur die ermittelten Werte des Signals s(n) zum
Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtast
zeitpunkten n = 15 bis n+k = 20. Da in Fall e) die Bedingung (**)
erfüllt ist, kann zum Zeitpunkt n+k die Übertragung des Dif
ferenzsignalwerts Δsi+k erfolgen, unabhängig davon, welche
Werte s(n) für die dazwischen liegenden Abtastzeitpunkte
n+1 = 16 bis n+k-1 = 19 annimmt.
In Fig. 7 sind zwei Spezialfälle skizziert, bei denen nur
die Verzögerungszeit Δtv, jedoch kein Amplitudenwert d/2 als
Schwellwert zugelassen wird; es gilt also d = 0. Falls das
Signal s(n) für die Signaldauer Δτ bzw. κ := Δτ/Δt mit
Δτ ≧ Δtv bzw. mit κ ≧ k bei d = 0 (Annahme 1)
persistent ist, erfolgt eine Übertragung des Differenzsignal
werts Δsi+k zum Abtastzeitpunkt n+k = 20. Gilt jedoch für die
Signaldauer
Δτ < Δtv bzw. κ < k bei d = 0 (Annahme 2),
so findet keine Übertragung des Differenzsignalwerts Δsi+k zum
Abtastzeitpunkt n+k = 20 statt.
In Fig. 8 sind zwei Spezialfälle skizziert, bei denen nur
der Amplitudenwert d/2, jedoch keine Verzögerungszeit Δtv, als
Schwellwert zugelassen wird; es gilt also Δtv = 0. Falls der
Betrag eines Signalwerts si einen Amplitudenwert d/2 über
schreitet, also
|si| < d/2 bei Δtv = 0 (Annahme 3)
gilt, erfolgt eine Übertragung des Differenzsignalwerts Δsi+k
zum Abtastzeitpunkt n+k = 20. Gilt jedoch für die Signaldauer
|si| < d/2 bei Δtv = 0 (Annahme 4),
so findet keine Übertragung des Differenzsignalwerts Δsi+k zum
Abtastzeitpunkt n+k = 20 statt.
Die Bedeutung der in den Fig. 1 und 2 mit Ziffern bezeich
neten Symbole kann der nachfolgenden Bezugszeichenliste ent
nommen werden.
101
Häuserblock mit Gehweg als aufgenommene Bildszene einer
Bewegtbildsequenz
102
Videokamera als Signalaufnehmer zur Aufnahme von Bewegt
bildsequenzen mit dem analogen Ausgangssignal s(t) als
Sendesignal
103
Modul zur Durchführung einer Helligkeitsregelung (HR)
bzw. zur Durchführung eines Weiß-Abgleichs (WA) für das
analoge Sendesignal s(t)
104
Analog-Digital-Wandler zur Abtastung und Quantisierung
des analogen Sendesignals s(t) mit dem digitalen Sende
signal s(n) am Ausgang
105
Kodierer zur Durchführung der Quellen- und/oder Kanalko
dierung des digitalen Sendesignals s(n) mit dem Diffe
renzsignal
106 Modulator zur Trägerung des zu übertragenden Differenz
signals Δs(n+m, m) mit dem Ausgangssignal Δsmod(t)
107 Addierer zur Modellierung der Störung des zu übertragen den Signals Δsmod(t) durch ein additives weißes gaußförmi ges Rauschen r(t)
(Zur Vereinfachung der Formeln gelte im Folgenden die An nahme, der Übertragungskanal sei ideal, also r(t) = 0.)
108 Demodulator zur Rückgewinnung des zu übertragenden Diffe renzsignals Δs(n+m, m)
109 Dekodierer zur Durchführung der Quellen- und/oder Kanal dekodierung zur Gewinnung des digitalen Sendesignals
s(n+m) = Δs(n+m, m) + s(n)
am Ausgang des Dekodierers
110 Digital-Analog-Wandler zur Rekonstruktion des analogen Sendesignals s(t)
111 Bildschirm bzw. Display als Signalempfänger zur Anzeige der aufgenommenen Bewegtbildsequenzen
112 Wahrnehmung der empfangenen Bewegtbildsequenzen im Auge des Betrachters
201 Aktionen: Initialisierung des Zählers ZA für die Abtast zeitpunkte n durch die Zuweisung n := 0 und Initialisie rung des Zählers ZM für die Messzeitpunkte i durch die Zuweisung i := 0
202 Aktionen: Messung des abgetasteten Signalwerts si := sn eines digitalen Nutzsignals s(n) zum Abtastzeitpunkt n im Signalsender (Messung #i) und Speicherung dieses Werts
203 Aktionen: Abwarten einer mehrere Abtastzeitpunkte umfas senden Verzögerungszeit Δtv (Δtv ≧ Δt) unter Durchführung weiterer Messungen abgetasteter Signalwerte si+1 := sn+1 bis si+k-1 := Sn+k-1 (Messungen #(i+1) bis #(i+k-1)) und Speicherung dieser Werte
204 Aktionen: Inkrementierung des Zählers ZA für die Abtast zeitpunkte n durch die Zuweisung n := n+k mit der Ver schiebung k := Δtv/Δt ≧ 1 und Inkrementierung des Zäh lers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k
205 Aktionen: Messung des abgetasteten Signalwerts si+k := Sn+k des Nutzsignals s(n) zum Abtastzeitpunkt n+k im Signal sender (Messung #(i+k)) und Speicherung dieses Werts
206 Aktion: Ermittlung der zu übertragenden aktuellen Signal änderung
Δsi+k := si+k - si
des Signalwerts si+k von s(n) zum Abtastzeitpunkt n+k ge genüber dem Signalwert si von s(n) zum Abtastzeitpunkt n im Signalsender
207 Abfrage: Wurden mindestens zwei Abtastwerte des Original signals s(n) abgewartet, gilt also n+m ≧ 2.m ↔ n ≧ m?
208 Abfrage: Über- bzw. unterschreiten die zu den Abtastzeit punkten n, n+1, n+2, ..., n+k ermittelten Signalwerte si, si+1, si+2, . . .,. si+k einen gegebenen Schwellwert +Sref/√2 bzw. -Sref/√2, gilt also die Ungleichung |si+j| < Sref/√2, das heißt |si+j| < d/2 für j = 0, 1, 2, . ., k?
209 Aktion: Übertragung der aktuellen Signaländerung Δsi+k vom Signalsender zum Signalempfänger zum Abtastzeitpunkt n+k und Durchführung der Addition
si+k = si + Δsi+k
210 Abfrage: Ist die Übertragung des kompletten Differenzsig nals Δs(n+m, m) beendet, gilt also n < N - m?
107 Addierer zur Modellierung der Störung des zu übertragen den Signals Δsmod(t) durch ein additives weißes gaußförmi ges Rauschen r(t)
(Zur Vereinfachung der Formeln gelte im Folgenden die An nahme, der Übertragungskanal sei ideal, also r(t) = 0.)
108 Demodulator zur Rückgewinnung des zu übertragenden Diffe renzsignals Δs(n+m, m)
109 Dekodierer zur Durchführung der Quellen- und/oder Kanal dekodierung zur Gewinnung des digitalen Sendesignals
s(n+m) = Δs(n+m, m) + s(n)
am Ausgang des Dekodierers
110 Digital-Analog-Wandler zur Rekonstruktion des analogen Sendesignals s(t)
111 Bildschirm bzw. Display als Signalempfänger zur Anzeige der aufgenommenen Bewegtbildsequenzen
112 Wahrnehmung der empfangenen Bewegtbildsequenzen im Auge des Betrachters
201 Aktionen: Initialisierung des Zählers ZA für die Abtast zeitpunkte n durch die Zuweisung n := 0 und Initialisie rung des Zählers ZM für die Messzeitpunkte i durch die Zuweisung i := 0
202 Aktionen: Messung des abgetasteten Signalwerts si := sn eines digitalen Nutzsignals s(n) zum Abtastzeitpunkt n im Signalsender (Messung #i) und Speicherung dieses Werts
203 Aktionen: Abwarten einer mehrere Abtastzeitpunkte umfas senden Verzögerungszeit Δtv (Δtv ≧ Δt) unter Durchführung weiterer Messungen abgetasteter Signalwerte si+1 := sn+1 bis si+k-1 := Sn+k-1 (Messungen #(i+1) bis #(i+k-1)) und Speicherung dieser Werte
204 Aktionen: Inkrementierung des Zählers ZA für die Abtast zeitpunkte n durch die Zuweisung n := n+k mit der Ver schiebung k := Δtv/Δt ≧ 1 und Inkrementierung des Zäh lers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k
205 Aktionen: Messung des abgetasteten Signalwerts si+k := Sn+k des Nutzsignals s(n) zum Abtastzeitpunkt n+k im Signal sender (Messung #(i+k)) und Speicherung dieses Werts
206 Aktion: Ermittlung der zu übertragenden aktuellen Signal änderung
Δsi+k := si+k - si
des Signalwerts si+k von s(n) zum Abtastzeitpunkt n+k ge genüber dem Signalwert si von s(n) zum Abtastzeitpunkt n im Signalsender
207 Abfrage: Wurden mindestens zwei Abtastwerte des Original signals s(n) abgewartet, gilt also n+m ≧ 2.m ↔ n ≧ m?
208 Abfrage: Über- bzw. unterschreiten die zu den Abtastzeit punkten n, n+1, n+2, ..., n+k ermittelten Signalwerte si, si+1, si+2, . . .,. si+k einen gegebenen Schwellwert +Sref/√2 bzw. -Sref/√2, gilt also die Ungleichung |si+j| < Sref/√2, das heißt |si+j| < d/2 für j = 0, 1, 2, . ., k?
209 Aktion: Übertragung der aktuellen Signaländerung Δsi+k vom Signalsender zum Signalempfänger zum Abtastzeitpunkt n+k und Durchführung der Addition
si+k = si + Δsi+k
210 Abfrage: Ist die Übertragung des kompletten Differenzsig nals Δs(n+m, m) beendet, gilt also n < N - m?
Claims (15)
1. Verfahren zur Regelung von zumindest einer Signalkompo
nente mindestens eines Datensignals (DS),
dadurch gekennzeichnet, dass die Regelung mittels mindes
tens eines Korrektursignals (KS) zu diskreten Zeitpunkten
erfolgt, in Abhängigkeit von Amplitude bzw. Dauer der Än
derungen von zumindest einer Signalkomponente des Daten
signals (DS).
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, dass eine Übermittlung des Daten
signals (DS) von einer Signalquelle (102) zu einer Signal
senke (111) mittels einer Übertragung von Differenz-Daten
signalen (DDS) erfolgt.
3. Verfahren nach einem der Ansprüche 1 oder 2,
dadurch gekennzeichnet, dass das Datensignal (DS) im Ver
lauf der Regelung seinen aktuellen Wert ändert, sofern die
Werte des Datensignals (DS) wenigstens einen als Reakti
onsniveau geeignet festgelegten Schwellwert σref über- bzw.
unterschreiten.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet, dass es sich bei mindestens einem
der als Reaktionsniveau verwendeten Schwellwerte σref um
eine fest vorgegebene Verzögerungszeitdauer Δtv handelt.
5. Verfahren nach einem der Ansprüche 3 oder 4,
dadurch gekennzeichnet, dass es sich bei mindestens einem
der als Reaktionsniveau verwendeten Schwellwerte σref um
einen Amplituden-, Frequenz- und/oder Phasenwert handelt.
6. Verfahren nach einem der Ansprüche 1 bis 5,
dadurch gekennzeichnet, dass es sich bei dem Datensignal
(DS) um ein Videosignal (VS) handelt.
7. Verfahren nach einem der Ansprüche 3 bis 6,
dadurch gekennzeichnet, dass es sich bei der als Schwell
wert vorgegebenen Intensität und/oder Frequenz um mindes
tens einen Luminanz- (Yref) und/oder Chrominanzwert (U
ref,Vref) handelt, mit dem die Werte der Luminanz (Y) bzw.
Chrominanz (U,V) eines empfangenen digitalen Videosignals
(VS) verglichen werden.
8. Verfahren nach einem der Ansprüche 3 bis 7,
dadurch gekennzeichnet, dass zur Festlegung der Schwell
werte für die kleinste wahrnehmbare Luminanz- (ΔYJN) bzw.
Chrominanzänderung (ΔUJN,ΔVJN) des empfangenen Videosignals
(VS) in Abhängigkeit von den durch (Y,U,V)env charakteri
sierten Beleuchtungsverhältnissen in der Umgebung des
Bildsignalgebers die psychooptischen Eigenschaften des
menschlichen Sehvermögens im Hinblick auf die Amplituden-
und/oder Frequenzmodulationsschwelle, die wahrnehmbare
Frequenzgruppenbreite ΔfG und die durch die Maskierung von
Nutzstrahlung durch Störstrahlung im Zeit- und/oder Fre
quenzbereich hervorgerufenen Effekte ausgewertet werden.
9. Verfahren nach einem der Ansprüche 3 bis 8,
dadurch gekennzeichnet, dass es sich dabei um die Durch
führung des Weiß-Abgleichs von Videosignalen (VS) handelt,
bei dem Helligkeit, Farbton und/oder Farbsättigung der von
einer Videokamera (102) aufgenommenen Bewegtbilder (101)
in Abhängigkeit von den Beleuchtungsverhältnissen in der
Umgebung der Videokamera (102) reguliert werden.
10. Verfahren nach einem der Ansprüche 3 bis 9,
dadurch gekennzeichnet, dass nach dem Verstreichen einer
Verzögerungszeit Δtv und/oder nach dem Über- bzw. Unter
schreiten mindestens eines geeignet festgelegten Schwell
werts σref sendeseitig ein sofortiges Umschalten auf den
neuen Wert des Korrektursignals (KS) erfolgt.
11. Verfahren nach einem der Ansprüche 3 bis 9,
dadurch gekennzeichnet, dass nach dem Verstreichen einer
Verzögerungszeit Δtv und/oder dem Über- bzw. Unterschrei
ten mindestens eines geeignet festgelegten Schwellwerts
σref mittels eines Interpolationsverfahrens sendeseitig ein
allmähliches Umschalten auf den neuen Wert des Korrektur
signals (KS) erfolgt.
12. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, dass eine Regelung nicht erfolgt,
wenn die Dauer der Änderung des Datensignals (DS) eine
vorgegebene Verzögerungszeitdauer (Δtv) unterschreitet.
13. Verfahren nach einem der Ansprüche 1 oder 12,
dadurch gekennzeichnet, dass eine Regelung nicht erfolgt,
wenn der Betrag der Amplitude, Frequenz bzw. Phase des Da
tensignals (DS) einen vorgegebenen Amplituden-, Frequenz-
bzw. Phasenschwellwert unterschreitet.
14. Verfahren nach einem der Ansprüche 12 oder 13,
bei dem es sich bei der Signalkomponente um ein Chromi
nanzsignal handelt.
15. Verfahren nach einem der Ansprüche 12 bis 14,
bei dem es sich bei der Signalkomponente um ein Luminanz
signal handelt.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10045777A DE10045777A1 (de) | 2000-09-15 | 2000-09-15 | Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung |
EP01971648A EP1319310A2 (de) | 2000-09-15 | 2001-08-28 | Verfahren zur diskontinuierlichen regelung und übertragung der luminanz- und/oder chrominanzkomponente in der digitalen bildsignalübertragung |
PCT/DE2001/003277 WO2002023899A2 (de) | 2000-09-15 | 2001-08-28 | Verfahren zur diskontinuierlichen regelung und übertragung der luminanz- und/oder chrominanzkomponente in der digitalen bildsignalübertragung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10045777A DE10045777A1 (de) | 2000-09-15 | 2000-09-15 | Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10045777A1 true DE10045777A1 (de) | 2002-04-11 |
Family
ID=7656393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10045777A Withdrawn DE10045777A1 (de) | 2000-09-15 | 2000-09-15 | Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP1319310A2 (de) |
DE (1) | DE10045777A1 (de) |
WO (1) | WO2002023899A2 (de) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11335278B2 (en) * | 2019-01-03 | 2022-05-17 | Guangdong Xiaye Household Electrical Appliances Co., Ltd. | Self-adaptive adjustment method based on ambient light distribution field |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8502924D0 (en) * | 1985-02-05 | 1985-03-06 | British Telecomm | Image encoding |
US4932066A (en) * | 1985-10-15 | 1990-06-05 | Canon Kabushiki Kaisha | Information signal transmission system |
US5245679A (en) * | 1990-05-11 | 1993-09-14 | Hewlett-Packard Company | Data field image compression |
US5388182A (en) * | 1993-02-16 | 1995-02-07 | Prometheus, Inc. | Nonlinear method and apparatus for coding and decoding acoustic signals with data compression and noise suppression using cochlear filters, wavelet analysis, and irregular sampling reconstruction |
US6477553B1 (en) * | 1999-01-13 | 2002-11-05 | Philip Druck | Measurement scale for non-uniform data sampling in N dimensions |
-
2000
- 2000-09-15 DE DE10045777A patent/DE10045777A1/de not_active Withdrawn
-
2001
- 2001-08-28 EP EP01971648A patent/EP1319310A2/de not_active Withdrawn
- 2001-08-28 WO PCT/DE2001/003277 patent/WO2002023899A2/de not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
EP1319310A2 (de) | 2003-06-18 |
WO2002023899A3 (de) | 2002-12-27 |
WO2002023899A2 (de) | 2002-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6822121B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US6269217B1 (en) | Multi-stage electronic motion image capture and processing system | |
CN108205796B (zh) | 一种多曝光图像的融合方法及装置 | |
US6867717B1 (en) | Digital encoder and method of encoding high dynamic range video images | |
CN109716758B (zh) | 使用复合滤波法的监控相机和采用其的视频监控系统 | |
US20120127334A1 (en) | Adaptive spatial sampling using an imaging assembly having a tunable spectral response | |
US8629919B2 (en) | Image capture with identification of illuminant | |
DE2619027C2 (de) | Fernsehaufnahmesystem | |
JP6822123B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6822122B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
Ward | Digital video camerawork | |
KR100230860B1 (ko) | 비디오 신호 잡음 감소 시스템 | |
WO2007055389A2 (en) | Image signal processing apparatus | |
US20040062316A1 (en) | Method for pre-suppressing noise of image | |
JP6826208B2 (ja) | 視程状態の変化にロバストな複合フィルタリング基盤のオートフォーカシング機能を有する監視カメラ及びそれが適用された映像監視システム | |
DE69705063T2 (de) | Verfahren und vorrichtung zur kompensierung von durch chrominanzsignalverarbeitung verursachten luminanzdefekten | |
Froehlich et al. | Content aware quantization: Requantization of high dynamic range baseband signals based on visual masking by noise and texture | |
US5075778A (en) | Backlight correction system | |
US6760474B1 (en) | Frequency-based video data substitution for increased video compression ratios | |
DE10045777A1 (de) | Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen Bildsignalübertragung | |
JPS62253285A (ja) | カラ−ビデオ信号の処理方法及び装置 | |
US6124887A (en) | Specal effects camera and system including such a camera | |
JP2004187036A (ja) | 輪郭補正システム | |
JP4765240B2 (ja) | 圧縮符号化方法,圧縮符号化プログラムを記録した記録媒体,および圧縮符号化方法を実施する電子カメラ | |
US7050492B1 (en) | Matching of a reduced spectrum lighting source with video encoding program variables for increased data compression ratios |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |