-
BESCHREIBUNG
-
Die vorliegende Erfindung betrifft
ein Verfahren zur Übertragung
von Daten, das verlustfreie Komprimierungstechniken im Hinblick
darauf verwendet, die Verwendung verfügbarer Übertragungswege zu optimieren.
-
Das Verfahren gemäß der Erfindung findet vor
allem auf dem Gebiet der seismischen Forschung Anwendungen, wo es
notwendig ist, zu einer zentralen Station wie einen Laboratoriumslastwagen
eine häufig
beträchtliche
Masse von Daten zu überführen. Signale
werden durch eine sehr große
Anzahl von Empfängern wie
Geophonen aufgenommen, die mit einer zu untersuchenden geologischen
Formation angeordnet und verbunden sind, in Erwiderung auf Erschütterungen,
die durch eine seismische Quelle ausgesandt werden und durch die
unterirdischen Diskontinuitäten
bzw. Verwerfungen zurückgesandt
werden. Die erfassten Signale werden durch lokale Aufnahmeeinneiten
gesammelt, die manchmal über
eine Distanz von mehreren Kilometern verteilt sind und jede dazu
vorgesehen ist, die durch einen oder mehrere Empfänger empfangenen
Signale zu sammeln, sie zu digitalisieren, auf sie mehr oder weniger
komplexe Vorbearbeitungen anzuwenden und sie in einem lokalen Speicher
vor deren Übertragung
in Realzeit oder Zeitverschoben zu einer Sammelstation über einen Übertragungsweg
wie einem Kabel, einer optischen Faser, einem Radiokanal usw. zu
speichern.
-
Stand der
Technik
-
Verschiedene Übertragungssysteme von seismischen
Daten werden verwendet, um lokale Aufnahmeeinheiten mit einer zentralen
Station entweder direkt oder über
Zwischenstationen zu verbinden, die mit mehr oder weniger komplexen
Funktionen zur Konzentration oder Regelung der lokalen Einheiten
versehen sind. Die Verbindungen können mit Kakeln, Radioverbindungen, über eines
oder mehrere eventuelle Relais sichergestellt werden oder auch die
Verbindungen durch Kabel und durch Radiover bindung kombinieren wie
zum Beispiel in den Patenten FR 2 720 518, FR 2 696 839, 2.608.780,
2.599.533, 2.538.561, 2.511.772 oder 2.627.652 des Anmelders gezeigt.
-
Durch das Patent FR-A-2 608 780 des
Anmelders ist es vor allem bekannt, seismische Aufnahme- bzw. Erfassungsboxen
(im folgenden Aufnahmeboxen genannt) zu verwenden, die mit zwei Übertragungswegen
versehen sind, der eine mit relativ hohem Übertragungsdurchsatz, der andere
bei einer Bandbreite, die relativ breit sein kann, gemäß der lokalen
Verfügbarkeit
der Übertragungsfrequenzen,
die leichter im Rahmen der gülitigen
radioelektrischen Emissionsregelungen verfügbar sind. Die bei den aufeinander
olgenden Zyklen gesammelten seismischen Daten werden in einem Massenspeicher
in jeder der Boxen gespeichert und mit Unterbrechungen zu einer
zentralen Station zur Steuerung und Aufnahme übertragen. Um es dem Anwender
in der zentralen Station zu ermöglichen,
zu überprüfen, dass
die Aufnahme der Daten durch jede Aufnahmebox normal abläuft, nimmt
man eine Übertragung
der partiellen Daten vor, was einen Übertragungsweg mit relativ breiter
Bandbreite gut anpasst.
-
Durch die Patente FR-A- 2 692 384,
2 757 641 und die Patentanmeldung FR 97/09.547 des Anmelders ist
es gleichermaßen
bekannt, seismische Aufnahmeboxen zu verwenden, die vor allem mit
in der Überarbeitung
der Signale spezialisierten Bearbeitungsmitteln versehen sind, auf
die man zahlreiche Regelungen der Geophone und Elementen der Aufnahmekette,
der Vorbearbeitungen der seismischen Spuren, welche vorher bei der
zentralen Station nach Übertragung
verwirklicht wird, durchführen,
welche gleichermaßen
angepasst sind, um auf die zu übertragenden
seismischen Daten Komprimierungsalgorithmen anzuwenden, wobei alle Vorbehandlungen
darauf abzielen, das zu der zentralen Station zurückzuführende Datenvolumen
beträchtlich zu
vermindern.
-
Die aktuelle Tendenz, vor allem im
Rahmen der sogenannten 3D-seismischen Untersuchungsverfahren ist
es, über
eine zu erforschende Zone auf dem Boden, im Meer oder in Küstenzonen,
häufig über mehrere Kilometer,
seismische Empfänger
zu Hunderten, sogar zu Tausenden zu verteilen. Das Volumen der zu
sammelnden und zu übertragenden
Daten hört
nicht auf zu wachsen. Um zu vermeiden, dass die Übertragungsprobleme keine Bremse
für die
Entwicklung der seismischen Systeme bilden, ist es die Tendenz,
zu Komprimierungsvertahren von Daten zurückzukom men, welche ausgewählt sind,
um kompatibel mit den jeweiligen Anforderungen der Geophysiker zu
sein.
-
Die Komprimierung der seismischen
Daten kann gleichzeitig einen wünschenswerten
Platzgewinn auf den Massenspeichermodulen in den lokalen Aufnahmeboxen
und/oder den lokalen Regelstationen und Konzentrationsstationen
und auch einen beträchtlichen Übertragungszeitgewinn
mit sich bringen.
-
Die bekannten Datenkomprimierungsverfahren
können
in zwei Familien klassifiziert werden, a) Verfahren zur Komprimierung
ohne Informationsverlust und b) Verfahren, die zu einem Informationsverlust
führen, wobei
die wiederhergestellten Daten einen mehr oder weniger großen Teil
von deren Präzision
verlieren.
-
Vor allem in der Geophysik ist es
unabdingbar, dass die Verluste aufgrund der. Komprimierung geringstmöglich bleiben,
da die wichtigsten Informationen häufig von sehr geringer Amplitude
sind und vom Grundrauschen nur durch eine über mehrere Spuren durchgeführte numerische
Bearbeitung isoliert werden können.
Eventuelle Präzisionsverluste
sind nur in ganz bestimmten Fällen
tolerierbar, wenn z. B. die übertragene
Information nur zum Regeln des guten Betriebs des Materials und
zum Visualisieren des "Verhaltens" der probegenommenen
Spuren dienen muss.
-
Unter den Verfahren der ersten Familie
kann man die Verfahren nennen, welche darauf abzielen, die Redundanz
der Daten zu entfernen oder die sogenannten Wörterbuchverfahren, wobei jedes
Wort durch seinen Index in einer Referenztabelle ersetzt wird, welche
umso interessanter sind, wenn die zu komprimierenden Ordner viel
Redundanz enthalten, die Verfahren vom Typ RLE für "Run-Length Encoding", die Verfahren zum vom statistischen
Codierungstyp, wo man versucht, die Daten durch einen Code mit der
gleichen Bedeutung zu ersetzen, aber welcher weniger Platz besetzt,
die Verfahren vom arithmetischen Codierungstyp, welche darauf abzielen,
eine variable Anzahl von Daten durch eine konstante Anzahl von Bits
darzustellen.
-
Eine bekannte Komprimierungstechnik,
genannt "LPC" für "Linear Predictive
Coding" ist gut
auf die Komprimierung der akustischen oder seismischen Wellen angepasst.
-
Sie besteht im Wesentlichen darin,
eine Signalprobe s(t) durch eine Vorhersage zu ersetzen, die aus p
vorhergehenden Proben gemacht ist, indem angenommen wird, dass das
Signal stationär
ist. Anstatt die Probe s(t) zu übertragen, überträgt man die
Vorhersage ŝ(t),
das heißt
die Vorhersagekoeffizienten sowie die Residuen e(t), d. h. die Differenz
zwischen dem reellen Wert und der Vorhersage, die davon zur Zeit
t gemacht wird, was es ermöglicht,
bei der Dekomprimierung den Wert s(t) = ŝ(t) + e(t) wiederzufinden.
Wenn die Vorhersage gut ist, sind die Residuen gering und besetzen
einen geringeren Platz als jenen der Anfangswerte s(t). Die Anzahl
von Koeffizienten, die dazu dienen, ŝ(t) zu berechnen, ist im allgemeinen
gering und sie besetzen wenig Platz im Verhältnis zu s(t).
-
Hingegen ist es mit diesem Codierungstyp üblich, Proben
aufeinanderfolgender Spuren in Pufferspeichern ("buffers") mit definierter Größe zurückzustellen und Vorhersagekoeffizienten
zu berechnen, die für
alle Proben einer gleichen Gruppe verwendet werden. Es erweist sich
in der Praxis, dass dieser Umwandlungstyp schlecht auf Signale mit
großer
Dynamik angepasst ist, wie es die seismischen Signale sein können, die
durch Impulsquellen (z. B. Dynamitladungen) ausgesandt werden, und
dass die Codierungstehler aufgrund der Tatsache auftreten, dass
die Vorhersagekoeffizienten nicht gut repräsentativ gewählt werden.
-
Das Verfahren gemäß der Erfindung ermöglicht ein
verlustfreies Komprimieren von Signalen mit großer Dynamik, wie seismischen
Signalen, in Hinblick auf deren Übertragung.
-
Das Verfahren umfasst die Probenentnahme
der Signale und deren Digitalisierung und die Verwendung einer Vorhersagecodierungstechnik.
-
Es ist dadurch gekennzeichnet, dass
es die Bestimmung eines Amplitudenbereichs, abhängig von wenigstens einem das
Gros der Vorhersageresiduen umfassenden Schwellenwert (S), die Codierung
der Vorhersageresiduen durch binäre
Worte, die eine bestimmte Anzahl n von Bits haben, die ausreichend
für die
Codierung dieses Bereichs ist, und die Codierung der Vorhersageresiduen,
deren Amplitude außerhalb
des Bereichs liegt, durch binäre
Worte mit einer festgelegten Anzahl von Bits größer als n und die Übertragung
allein der Vorhersageresiduen (die Vorhersagekoeffizienten werden
nicht übertragen
sondern zurückgerechnet)
umfasst.
-
Nach einer Ausführungsform kann das Verfahren
die Bestimmung eines Schätzfaktors
(Ŝ) von
einem optimalen Schwellenwert umfassen, der einem Mittel entspricht,
das aus der Position der Bits mit starken Gewichtungen bezüglich einer
Folge von N aufeinanderfolgend bestimmten Vorhersageresiduen gemacht
ist.
-
Nach einer anderen Ausführungsform
kann das Verfahren auch die Bestimmung mehrerer Amplitudenbereiche
abhängig
von mehreren unterschiedlichen Schwellenwerten umfassen.
-
Das Verfahren kann auch eine getrennte
Codierung der Bits mit geringen Gewichtungen und der Bits mit starken
Gewichtungen der Signalproben umfassen.
-
Nach einer bevorzugten Ausführungsform
umfasst das Verfahren eine Bestimmung der Vorhersageresiduen für jede neue
Signalprobe.
-
Das Verfahren gemäß der Erfindung ist in seinen
zwei Schritten, getrennt oder vorzugsweise in Kombination genommen,
vorteilhaft.
- a) die Bestimmung, die man von
der höchstens
notwendigen Anzahl von Bits zum Codieren des größten Teils der Fehler durchführt, ermöglicht es,
einen sehr großen
Komprimierungsgrad zu erhalten, selbst wenn man die spezielle Bearbeitung
berücksichtigt,
zur deren Durchführung
man geführt
wird, um die verbleibenden untypischen Fehler zu codieren (weniger
zahlreich wenn der Codierungsbereich gut gewählt ist);
- b) die Codierung ist hier perfekt adaptiv, da die Vorhersagekoeffizienten
bei jeder Probe berechnet werden, was eine Stabilität der Ergebnisse
garantiert.
-
Andere Merkmale und Vorteile des
Verfahrens gemäß der Erfindung
werden beim Lesen der nachfolgenden Beschreibung von einem nicht
begrenzenden Ausführungsbeispiel
unter Bezug auf die anliegenden Zeichnungen hervortreten, wobei:
-
die 1 eine
bekannte statistische Vorhersagetechnik des Probenwerts eines Signals
veranschaulicht;
-
die 2 die
Komprimierungsvorgänge
von einem Signal schematisiert;
-
die 3 die
Vorgänge
einer symmetrischen Dekomprimierung eines Signals schematisiert;
und
-
die 4 in
dem Fall einer Codierung mit einer Schwelle einen Amplitudenbereich
S zeigt, der gewählt
ist, um das Gros der Vorhersageresiduen zu enthalten.
-
DETAILLIERTE
BESCHREIBUNG
-
I) Adaptives Codieren
-
Das Verfahren gemäß der Erfindung umfasst die
Anwendung einer verlustlosen Komprimierung auf die zu übertragenden
Daten unter Verwendung der sogenannten LPC-Vorhersageechnik, wo
die Amplitude s(t) einer Signalprobe zu einem Zeitpunkt t (1) durch eine Vorhersage
berechnet wird, die ausgehend von einer bestimmten Anzahl p von
Proben zu den Zeiten (t-1 ), (t-2), (t-3), ... (t-p) gemacht wird
und der vorhergesagte Wert in Übereinstimmung
mit der folgenden Gleichung berechnet wird.
-
-
Anstatt die Probe zu übertragen,
berechnet man direkt angeschlossen die Vorhersagekoeffizienten und
man überträgt die Residuen
e(t), d. h. die Differenz, welche man zwischen dem reellen Wert
s(t) und der Vorhersage ŝ(t)
berechnet, die zur Zeit t gemacht wird, was es ermöglicht,
den Wert s(t) = ŝ(t)
+ e(t) (2) wiederzufinden.
-
Zur Zeit t sind die Werte s bei den
zahlenmäßig niedrigeren
Zeiten bereits berechnet worden, man kannte daher s(t-j) für j ∊ [1,
p]. Die Werte s(t-j) der Gleichung (1), die für t ∊ [0, p-1] bekannt
sind, werden durch den Wert 0 ersetzt. Die Differenz zwischen dem
berechneten Modell und dem reellen Signal (im folgenden Vorhersagefehler
oder Residue genannt) wird derart codiert, dass die mittlere, jeder
Probe zugewiesene Größe (im Verhältnis zu
24 anfänglichen
Bits) vermindert wird und eine Komprimierung durchgeführt wird.
Wenn die Vorhersage gut ist, sind die Residuen gering und können mit
binären
Worten codiert werden, die eine Anzahl von Bits haben, die wenigstens
im Mittel im allgemeinen deutlich unter jener liegt, die dazu dient,
jede Probe s(t) zu codieren (zum Beispiel 24 Bits).
-
Beim Dekomprimierungsschritt (
3) wird das Signal gemäß der folgenden
Formel wiederhergestellt:
-
Die komprimierten Residuen e(i) des
Anfangsordners werden dekomprimiert und man rechnet die Vorhersagekoeffizienten
a(k) für
jede Probe zurück.
-
Vorzugsweise führt man eine adaptive Vorhersage
durch: die Vorhersagekoeffizienten a1, a2, ..., ap des Auswertefilters
werden für
jede neue Probe berechnet, um die Dynamik zu berücksichtigen, welche von den seismischen
Signalen häufig
sehr groß ist.
-
Das Verfahren gemäß der Erfindung bietet die
Möglichkeit,
in substantieller Weise die Größe der binären Codierungsworte
dieser Residuen zu vermindern. Man wird hiernach ein Codierungsverfahren
mit einer einzigen Schwelle beschreiben, das es ermöglicht,
einen Amplitudenbereich zu definieren, der das Gros der Vorhersageresiduen
enthält.
-
II) Codierung der Residuen:
Verfahren mit einer Schwelle
-
Wenn man annimmt, dass die Fehler
als Absolutwert über
Nmax Bits codiert werden können und
dass Nmax < 23,
verwirklicht man einen Gewinn, indem man jeden Fehler über Nmax + 1 Bits codiert, darin eingerechnet
das Bezeichnungsbit. Bei großen
Variationen der Merkmale des Signals können sehr stark dynamische Vorhersagefehler
aufkommen, aber sie sind weniger häufig. Man versucht daher, eine
Schwelle S( 4) zu definieren,
derart, dass für
den Großteil
der Vorhersagefehler e innerhalb eines symmetrischen Wertebereichs liegt,
der als Grenzen ± 2s (–2s << 2s)
hat. Die Fehler oder Vorhersageresiduen in dem Bereich können über S +
1 Bits (einschließlich
Bezeichnung) codiert werden. Der komprimierte Ordner enthält zwei
Oktetts, die jeweils Nmax und S codieren,
und dann
- – Beispiel:
wenn man Nmax = 7,S = 4,e0 =
18,e1 = –7 und e2 =
14, 1e hat, die geringen Fehler über
S + 1 Bits;
- – die
großen
Fehler über
Nmax + 1 Bits, vorangegangen durch einen vorher festgelegten Code,
derentspricht.
-
Ein komprimierter Ordner wird mit
der folgenden Sequenz beginnen:
-
-
Ohne einfache Modellierung der Fehlerverteilung,
ist es schwierig, von vornherein den optimalen Wert von S festzulegen
und die Leistungsfähigkeiten
können
beträchtlich
durch eine schlechte Wahl in dieses letzteren vermindert sein. Da
man keine Abfrage aller möglichen
Werte für
S vorsehen kann, versucht man eine gute Schätzung dieses Wertes. Der Schätzfunktion Ŝ, der zurückbehalten
ist so in folgender Weise definiert: man nennt Nb(e) die Anzahl
von Bits, die eine positive ganze Zahl e (ohne Bezeichnung) besetzt
oder auch die Position von seinem Bit mit starker Gewichtung. Per
Konvention gilt dann, dass Nb(0) = 1.
-
-
Man wählt daher:
dessen Endausdruck das Mittel
der Größen (in
Bit) der Vorhersagefehler (Absolutwert) ist. Dieser Wert ist partiell
intuitiv bzw. experimentell. Er gibt den optimalen Parameter in
95% der getesteten Fälle
an und wenn nicht, einen Wert, der um eine Einheit abweicht. Man
berechnet diese Schätzfunktion "beiläufig" so schnell wie die Ankunft
der Fehler.
-
Vorteile
-
Dieser Codierungsalgorithmus weist
die folgenden Vorteile auf:
- – Leistungsfähigkeiten
bei Komprimierung: die auf terrestrischen Daten (Dynamit) durchgeführten Tests
erzeugen bei gleichen Vorhersagegrößenordnungen bessere Ergebnisse
als jene der anderen getesteten Methoden und vor allem stabiler,
mit Komprimierungsgraden, die zwischen 50 und 70% liegen (im Mittel
um 60%). Für
auf Hochsee aufgenommene Daten ("air
guns") sind die
Leistungsfähigkeiten
leicht über
jenen anderer Verfahren mit Komprimierungsgraden zwischen 65 und
90%. Darüber
hinaus zeigt der gewählte Algorithmus
eine schwächere
Variabilität über einen
vorgegebenen Schuss: die Differenz zwischen den extremen Komprimierungsgraden
verbleibt gering;
- – Einfachheit
der Ausführung:
es umfasst wenige externe zu regulierende Parameter;
- – Einfachheit
des Codierens und Decodierens: es genügt, den Fehler zu übertragen,
um die seismische Spur exakt wieder zusammenzusetzen, während die
konkurrierenden Algorithmen häufig
ein spezifisches Codieren und die Übertragung der Vorhersagekoeffizienten
erfordern; die übertragenen
Daten sind homogen;
- – der
Decodierungsalgorithmus ist fast identisch zu jenem einer Codierung,
was die Durchführung
vereinfacht, und die beiden Arbeiten "beiläufig" auf den Proben so
schnell wie deren Ankunft;
- – die
Schritte des Modellierungsalgorithmus sind einfach und routiniert
und die Codierungsergebnisse erfordern wenig Speicher;
- – der
Algorithmus erzeugt seine eigenen Codierungsparameter des Fehlers,
obwohl es nicht notwendig ist, in diesem Schritt aufwändige Optimierungsiterationen
zu praktizieren.
-
Ergebnisse
-
Für
einige tausend "Schüsse", die jeder einige
hundert Spuren auslösen,
welche jede für
zwei seismische Aufnahmekampagnen, die mit Explosivstoffen (auf
der Erde) und Luftkanonen (im Meer) durchgeführt werden, umfasst jede Spur
jeweils 3000 bis 4000 Proben, man hat z. B. die folgenden Ergebnisse
erhalten (Ordnung der Vorhersage 8):
-
Man hat ein Codierungsverfahren mit
einer einzigen Schwelle S beschrieben. Wohlgemerkt würde man
den Rahmen der Erfindung nicht verlassen, indem man eine Codierung
mit mehreren unterschiedlichen, jeweils durch mehrere Worte festgelegter
Größen mit
Bewertung der Größe des Wortes
codierbaren Schwellenwerten wählen würde, welche
Bewertung ausreichend ist, um zu jedem Zeitpunkt die Vorhersageresiduen zu
codieren.
-
Um die Ergebnisse zu verbessern,
ist es zum Beispiel auch möglich:
- a) die Ordnung der Vorhersage zu erhöhen (z.
B. bis auf 15);
- b) das Fehlercodierungsverfahren zu verfeinern, indem getrennt
die Bits mit geringen Gewichtungen (von 1 bis 4) und die Bits mit
starken Gewichtungen des Signals codiert werden.