-
TECHNISCHES GEBIET
-
Die vorliegende Erfindung betrifft
ein künstliches
Intelligenzsystem zur Klassifizierung von Ereignissen, Objekten
oder Situationen aufgrund von Signalen und Unterscheidungsparametern,
die von Modellen stammen.
-
Die Erfindung betrifft insbesondere
die Klassifizierung von seismischen Ereignissen. Eine solche Klassifizierung
wird in der nachfolgenden Beschreibung anhand eines nicht einschränkenden
Beispiels betrachtet.
-
STAND DER TECHNIK
-
Die automatische Klassifizierung
seismischer Ereignisse
-
Die automatische Klassifizierung
seismischer Ereignisse ist ein relativ neues Problem, das erst in
den Jahren um 1980 als solches erkannt wurde. Diese Arbeiten sind
hauptsächlich
auf die Untersuchung von Unterscheidungsparametern (das heißt solchen,
die die Klassifizierung ermöglichen)
in den seismischen Signalen ausgerichtet. Zahlreiche potentielle
Charakteristika sind hinsichtlich einer zukünftigen automatischen Klassifizierung
vorgeschlagen worden. Ab 1990 finden sich in den veröffentlichen
Artikeln Versuche automatischer Klassifizierung sowohl durch neuronale
Techniken als auch durch Systeme, die auf Regeln basieren. Diese
Arbeiten versuchen, die Beben mit natürlicher Ursache von den Explosionen
zu trennen. Keiner dieser Artikel behandelt die Unterscheidungsmerkmale
von Mineneinbrüchen
("Gebirgsschlag").
-
Wegen der Komplexität des Problems
unterstreichen diese Artikel deutlich die Notwendigkeit, automatische
lernfähige
Systeme zu entwickeln. Es wurden daher zur automatischen Unterscheidung
von seismischen Ereignissen oft die neuronalen Methoden vorgeschlagen,
aber mit Einschränkungen,
die weiter unten analysiert werden. Die am häufigsten vorgeschlagenen Modelle
sind die Multischicht-Perzeptrone mit kompletten Verbindungen zwischen
sukzessiven Schichten.
-
Alle diese Artikel versuchen, den
Ursprung eines Bebens aufgrund von Charakteristika zu bestimmen, die
nur den Signalen entnommen werden. Die Daten höheren Niveaus (Datum, Stunde,
Breitengrad, Längengrad,
Magnitude oder Stärke
...) werden für
die Klassifizierung nie benutzt. Nun ist aber den Seismologen die Schwierigkeit
bekannt, die seismischen Signale nur durch Verarbeitungen auf niedrigem
Niveau zu unterscheiden.
-
Die Arbeiten von Baumgardt und seinen
Mitarbeitern, beschrieben in dem Bezugsdokument [1], sind ohne Zweifel
diejenigen, welche bei der Suche nach Entscheidungsparametern die
größten Fortschritte
gebracht haben.
-
Oft werden die Veränderungen
der inversen Fouriertransformierten des Logarithmus der Fouriertransformierten
eines Signals x (le cepstre d'un
signal x) benutzt. Man kann folglich zeigen, dass die inverse Fouriertransformierte
des Logarithmus der Fouriertransformierten eines Signals x (le cepstre
d'un signal x) ermöglicht,
das Phänomen
der Mikroverzögerungen
bei den Erschütterungsschusssignalen
zu visualisieren, die durch eine breitere Varianz charakterisiert
sind. Auch das Bezugsdokument [2] vermerkt diese Eigenschaft, wobei
jedoch signalisiert wird, dass das Fehlen dieser Charakteristik
keine Ableitung bezüglich
der Klasse des Ereignisses zulässt.
-
Die Verhältnisse der Amplituden der
verschiedenen Wellentypen können
auch als Unterscheidungsmerkmale dienen. Das Bezugsdokument (2)
untersucht eine ganze Serie von Amplitudenverhältnissen (Pn/Lg, Pg/Lg,
Lg/Rg). Von diesen Verhältnissen
wird gesagt, dass sie eine gute Unterscheidung ermöglichen
können.
-
Dieselben Autoren führen auch
die Verhältnisse
der spektralen Leistungsdichten der verschiedenen detektierten Wellentypen
ein. Wie bei den Amplitudenverhältnissen,
werden diese Unterscheidungsmerkmale bei allen Untersuchungen benutzt,
die Unterscheidungsmerkmale in den seismischen Signalen suchen.
Um Explosionen zu charakterisieren, hat man auch die spektralen
Leistungsdichten eines Wellentyps, hier S, in verschiedenen Frequenzbändern benutzt,
das heißt,
das Verhältnis
der spektralen Leistungsdichte von S in dem Bereich 1-2 Hz zu der
spektralen Leistungsdichte dieser selben Phase in dem 7-20Hz-Band.
Das Verhältnis
zwischen spektralen Leistungsdichten der Welle S unter und über 10 Hz
wird ebenfalls als ein guter Separator präsentiert, um Explosionen von
Erdbeben zu unterscheiden.
-
Das Bezugsdokument [4] stellt fest,
dass die Ausbreitungszeit der von einer Mine bzw. einem Bergwerk
stammenden Signale für
eine bestimmte Aufzeichnungsstation eine konstante Zeit tS
g-tPg hat.
Diese Ausbreitungszeit wird für
ein Bergwerk als eine potentielle Charakteristik präsentiert,
ist jedoch weniger zuverlässig
als die vorhergehenden Charakteristika.
-
Das Bezugsdokument [5] schlägt vor,
das Vorhandensein der Oberflächenwelle
der Erdbeben zu benutzen, um sie bei regionalen Distanzen von den
Nuklearexplosionen zu unterscheiden. Die Charakterisierung des Vorhandenseins
einer Oberflächenwelle
erfolgt indirekt, indem die Stärken
oder Magnituden mb und MS verglichen
werden. Bei zwei seismischen Ereignissen mit derselben Stärke mb ist die Magnitude der Oberflächenwelle
MS im Falle eines Erdbebens im Allgemeinen
höher als
im Falle einer Explosion. Die Rayleigh-Erdkrustenwelle beeinflusst nämlich die
Berechnung der Magnitude MS, und ihre Präsenz unterliegt
dem Scherkraft-Phänomen,
das im Falle der Nuklearexplosionen entfällt. Die Darstellung des Unterschieds
(mb-M5) in Abhängigkeit
von mb ermöglicht, diese Hypothese zu
verifizieren. Nichtsdestotrotz hängt
die Berechnung der Magnitude Ms von der
Periodizität
des aufgezeichneten Signals ab, und ist nicht ohne weiteres auf
regionale Ereignisse übertragbar.
Vielmehr charakterisiert die Präsenz
einer Oberflächenwelle,
die einer sedimentären Raleigh-Welle in ähnlichen
seismischen Signalen entspricht, Ereignisse künstlicher Art. Eine Detektionsmethode
dieses zweiten Oberflächenwellentyps
besteht darin, seine Präsenz
direkt in dem Spektrogramm des Signals zu suchen, da seine Frequenz
bekannt ist (zwischen 0,5 und 1,5 Hz) und seine vermutliche Eintreffzeit berechnet
werden kann aufgrund seiner mittleren Ausbreitungsgeschwindigkeit
und des Abstands zwischen dem Epizentrum und der Aufzeichnungsstation.
-
Die Einsatzfähigkeit der in den Dokumenten
des Stands der Technik beschriebenen Systeme ist aus mehreren Gründen nicht
glaubwürdig:
- – die
von Geophysikern durchgeführten
Untersuchungen, meist reich und detailliert bezüglich Vorschlägen von
Unterscheidungsparametern, schlagen kein zuverlässiges Verfahren für die automatische
Auswertung dieser Parameter vor.
- – Die
von Informatikern durchgeführten
Untersuchungen schlagen Systeme vor, die der Komplementarität der Größen und
der geophysikalischen Kenntnisse nicht genug Rechnung tragen.
-
Die meisten Untersuchungen des Stands
der Technik benutzen Datenbanken von seismischen Ereignissen von
geringer Größe, was
zur Folge hat, dass ein statistisch korrektes Lernen nicht möglich ist.
Die Klassifizierung erfolgt meistens in Datenbanken mit weniger
als hundert Ereignissen, wie beschrieben in den Bezugsdokumenten
[2] und [6]. Eine der größten in
den Dokumenten des Stands der Technik gefundenen Datenbanken enthält nur 312
Ereignisse, wie beschrieben in dem Dokument [4]. Die direkte Folge
davon ist, dass die Fehlermargen bei den präsentierten Ergebnissen sehr
hoch sind, was nicht erlaubt, diesen Ergebnissen viel Vertrauen
entgegenzubringen.
-
Die geographische Verteilung der
Beispiele der Datenbanken ist ein sehr wichtiges Element. Die meisten
Datenbanken fassen Ereignisse zusammen, die in Regionen von beschränkter Größe stattfinden
(einige zehn Kilometer Seitenlänge),
wo die geologischen Eigenschaften des Untergrunds nur wenig unterschiedlich sind.
Die Suche nach allgemeinen Unterscheidungsmerkmalen ist folglich
verzerrt, da die Unterscheidungsmerkmale nur auf eine bestimmte
Region zutreffen.
-
Zudem, wie beschrieben in dem Bezugsdokument
[1], können
die Ereignisse von zwei zu unterscheidenden Klassen aus zwei geographisch
deutlich verschiedenen Regionen stammen, die manchmal mehrere hundert
Kilometer voneinander entfernt sind. Es ist dann unmöglich, zu
wissen, in welchem Maße
dies nicht die "Kolorierung" der Signale durch
die durchquerten geologischen Schichten ist, welche die Unterscheidung ermöglicht,
als die Signale selbst. Die Seismologen wissen aber, dass diese "Kolorierung" ganz und gar nicht zu
vernachlässigen
ist, und dass die Lokalisierungsinformation sehr wichtig ist.
-
Meist wird nur eine sehr begrenzte
Anzahl von Aufzeichnungsstationen benutzt. Die Signale werden durch
maximal zwei oder drei Stationen aufgezeichnet, aber oft begnügt man sich
mit einer einzigen Station. Das seismische Ereignis wird dann durch
ein einziges Signal dargestellt, was die verwertbare Information
erheblich reduziert.
-
Die in der Datenbank integrierten
Ereignisse werden sehr allgemein nach einem vorher festgelegten Kriterium
selektiert: Magnitude größer als
ein Schwellenwert und Rauschabstand größer als ein Schwellenwert,
wie beschrieben in dem Bezugsdokument [2]. Aber diese Selektion
verzerrt natürlich
die Ergebnisse total.
-
Auch wenn die Untersuchungen des
Stands der Technik viele zur Klassifizierung potentiell nutzbare Unterscheidungsmerkmale
liefern, hat es sich wegen der großen Anzahl unterschiedlicher
Typen von Erschütterungsschüssen und
Beben als sehr schwierig erwiesen, global effiziente Unterscheidungsmerkmale
zu finden.
-
Die Klassifizierer erwiesen sich
meist als ineffizient, da zu einfach (lineare Separatoren), oder
als nicht regel- bzw. einstellbar, da zu komplex. Sie erfordern
einen enormen Vorverarbeitungsaufwand bei den Daten, so dass die
vorgeschlagenen Systeme nicht allgemein einsetzbar sind.
-
Seismisches Überwachungsbeispiel
-
Das Laboratorium für Detektion
und Geophysik (LDG) der Atomenergiekommission (CEA) überwacht die
seismische Aktivität
der Erde seit 1962. Wenn an einer Stelle des Globus ein seismisches
Ereignis stattfindet, wird es im französischen Mutterland durch ein
Netzwerk von 42 Vertikal-Seismometern geortet, wie dargestellt in
der 1. Die CP-Stationen
sind Kurzperioden-Stationen und die LP-Stationen Langperioden-Stationen.
Eine detaillierte Beschreibung des Seismometer-Netzwerks und der
Ausbreitung der seismischen Wellen in Frankreich ist in dem Dokument
[7] enthalten.
-
Dieses Netzwerk, das seit seiner
Gründung
als Übertragungsmittel
den Funk benutzt, ging kürzlich
zu einer digitalen Satellitenübertragung über. Ein
Filtern und eine angepasste Verstärkung des Signals ermöglichen,
die nahen Beben sowie die entfernten Beben mit längerer Periode, auch Fernbeben
genannt, zu detektieren. Das Einstellen der Filter- und Verstärkungsparameter
muss ermöglichen,
einen Kompromiss zu finden zwischen der Detektion des seismischen
Ereignisses von relativ geringer Stärke und dem Hintergrundgeräusch.
-
Die 2 zeigt
die durch die Seismometer des Laboratoriums LDG aufgezeichneten
Signale, die zwischen 84 und 146 km (also SBF: 84 km; PGF: 110 km;
FRF: 127 km; LMR: 136 km und LRG: 148 km) vom geschätzten Epizentrum
eines Bebens der Stärke
1,9 entfernt sind, geortet 10 km südlich von Imperia in Italien am
9. Mai 1996 (Zeit: 1 Stunde 0 Minuten 59 Sekunden; Breite: 43,34;
Länge:
8,19, Stärke:
1,9).
-
Bei jedem Signal werden verschiedene
seismische Phasen aufgezeichnet, die dann zur detaillierten Analyse
des seismischen Ereignisses dienen.
-
Jedes Jahr werden ungefähr 9000
seismische Ereignisse detektiert, wovon 800 bis 1200 natürliche Beben
sind.
-
Die Seismologen des Laboratoriums
LDG analysieren täglich
die durch die Stationen des französischen Netzwerks aufgezeichneten
Daten. Sie veröffentlichen
ein wöchentliches
Bulletin, das die Gesamtheit der natürlichen Beben enthält, die
sich in Frankreich oder den angrenzenden Gebieten ereignen. Ein ähnliches Bulletin
wird für
die Fernbeben veröffentlicht.
Die Tabelle 1, zu Beschreibungszwecken angegeben, ist ein Auszug
aus dem Bulletin, das die Periode vom 9. zum 15. September 1998
betrifft. In dieser Tabelle gibt es die folgenden Angaben:
Stunde:
Anfangszeit (Weltzeit);
Breite: Breitengrad des Epizentrums;
Länge: Längengrad
des Epizentrums;
Stärke:
lokale bzw. örtliche
Stärke;
RMS:
mittlerer quadratischer Rest (s) (résidu quadratique moyen (s)).
-
Diese Tabelle umfasst also die Gesamtheit
der während
dieser Woche detektierten Nahbeben und die Charakteristika jedes
Ereignisses: Datum und Anfangszeit, Lage und Tiefe des Epizentrums,
Stärke,
mittlerer quadratischer Lokalisierungs-Rest und abgeleitete Lokalisationsregion.
-
Wegen des großen Ungleichgewichts zwischen
der Anzahl künstlicher
Ereignisse und der Anzahl natürlicher
Ereignisse (in Frankreich sind die seismischen Ereignisse mit künstlicher
Ursache zehnmal häufiger als
die seismischen Ereignisse mit natürlicher Ursache) werden nur
die Ereignisse, die für
Beben gehalten werden, oder die Ereignisse unbestimmter Klasse durch
die Seismologen aus dem Hintergrundgeräusch extrahiert, um anschließend durch
eine Lokalisierungs-Software genauer analysiert zu werden. Die anderen
Signale (meist künstliche
Ereignisse) werden für
sechs Monate archiviert.
-
Das Signalauswertungsverfahren besteht
aus einer schon automatisierten Lokalisierung, gefolgt von einer
Charakterisierungsphase (Bestimmung des den Signalen zugrunde liegenden
Ereignisses).
-
Die Auswertung der Signale erfolgt
mit Hilfe des in der 3 dargestellten
globalen Systems.
-
Das Bezugsdokument [11] illustriert
ein Erstankunfts-Kontrollverfahren, das ein Formerkennungsverfahren
ist, in der seismischen Datenverarbeitung. Dieses Verfahren benutzt
hier unscharfe Logiksysteme. Es berücksichtigt seismische Attribute
als Charakteristika.
-
Das Bezugsdokument [12] beschreibt
ein Anwendungsverfahren eines Expertensystems, das auf einem direkt
wirkenden Neuronennetzwerk mit kontinuierlichem Schulungs- bzw.
Lernzustand (à état continue entrainé) basiert.
Dieses Netzwerk umfasst eine Schicht von Eingangsverarbeitungselementen,
repräsentativ für Eingangsvariable,
eine Schicht von Ausgangsverarbeitungselementen, repräsentativ
für Ausgangsvariable, und
eine oder mehrere Cache-Verarbeitungselemente-Schichten.
-
Das Bezugselement [13] beschreibt
ein neuartiges Multi-Experten-System zur seismischen Einsatzüberwachung,umfassend:
- a) die Wahl, die Entscheidungen zu treffen,
indem man Informationen mit unterschiedlichem Status fusioniert
bzw. verschmilzt: Indizes niedrigen Niveaus (Entscheidungsmerkmale,
durch Lernen aus seismischen Ereignissen extrahiert) und Indizes
höheren
Niveaus, berechnet durch geophysikalische Modelle (Zeit des Ereignisses,
Lage des Epizentrums, Stärke
...);
- b) die Fähigkeit
des Systems, im Falle von unvollkommenen (unvollständigen;
ungenauen ...) Daten zu funktionieren. Zu diesem Zweck wurde eine
spezifische Codierung der Daten entwickelt, welche die effiziente
Auswertung unvollständiger
und ungenauer Daten ermöglicht;
- c) die Möglichkeit
für den
Benutzer, die durch das System getroffenen Entscheidungen mittels
eines interaktiven unscharfen Expertensystems zu interpretieren,
das automatisch verständliche
Entscheidungsregeln erzeugt.
-
Die Erfindung hat die Aufgabe, die
Nachteile der Systeme nach dem Stand der Technik zu beseitigen, und
sie empfiehlt zu diesem Zweck ein neuartiges künstliches Intelligenzsystem
zur Klassifizierung von Ereignissen, Objekten oder Situationen aufgrund
von Signalen und Unterscheidungsparametern, die von Modellen stammen.
-
DARSTELLUNG DER ERFINDUNG
-
Die vorliegende Erfindung betrifft
ein künstliches
Intelligenzsystem zur Klassifizierung von Ereignissen, Objekten
oder Situationen aufgrund von Signalen und Unterscheidungsparametern,
die von Modellen stammen, und umfasst wenigstens einen Verarbeitungszweig
mit einem unscharfen Expertensystem (SEF), das eine Entscheidung
aufgrund von Eigenschaften hohen Niveaus und diskriminierenden Parametern
niedrigeren Niveaus trifft, die es aus Signalen durch Verfahren
des Typs Signalverarbeitung extrahiert und dabei fähig ist,
seine Entscheidung dem Benutzer mittels Regeln zu erklären. Dabei
ist dieses System dadurch gekennzeichnet, dass diese Regeln nach
der Reihenfolge ihrer Anwendbarkeit sortiert werden, wobei ein solches
Sortieren möglich
gemacht wird durch ein Aktivierungskriterium jeder Regel, geliefert
durch das unscharfe Expertensystem, das ermöglicht, ihre Adäquatheit
mit dem verarbeiteten Fall zu bewerten. Bei dem unscharfen Expertensystem
führt man
eine Gradientenreduzierung bei folgenden Parametern durch:
x
= y/σ
s
= In(2σ2)
r = In(ρ)
d
mit:
y :
Position der unscharfen Komplexe der Prämissen
σ : Breite
der unscharfen Komplexe der Prämissen
p
: Gewichtung der Regeln
d : Aktivierungsgrad jeder Klasse für jede Regel.
-
Vorteilhafterweise ist das erfindungsgemäße System
ein Multiexpertensystem, gebildet durch wenigstens zwei unabhängige Verarbeitungszweige,
die sich durch statistisches Lernen in Datenbanken automatisch konfigurieren,
besondere Eigenschaften haben und durch ein Entscheidungssystem
hohen Niveaus zusammengeschlossen sind.
-
Vorteilhafterweise umfasst ein Zweig
einen neuro-unscharfen Klassifizierer (CNF-Experte) umfasst, der seine Entscheidungen
trifft aufgrund von Eigenschaften hohen Niveaus und diskriminierenden
Parametern niedrigeren Niveaus, extrahiert aus Signalen durch Verfahren
des Typs Signalverarbeitung. Vorteilhafterweise umfasst ein anderer
Zweig ein neuronales Netzwerk mit lokalen Verbindungen und geteilten
Gewichtungen (TDNN-Experte), gebildet durch Bänke bzw. Reihen von nichtlinearen
adaptiven Filtern, das selbst aus den entsprechenden Signalen diskriminierende
Zeit-Frequenz-Darstellungsinformationen extrahiert.
-
Überwachung geophysikalischer
Ereignisse
-
Das System dient dann der Analyse
aller geophysikalischen Ereignisse, die durch Signale beobachtet werden
können,
die die Station empfängt:
- – seismische
Signale;
- – Infraschall;
- - hydro-akustische Wellen.
-
Diese Ereignisse können nahe
Ereignisse (Regionalereignisse genannt) oder ferne Ereignisse (zum Beispiel
Fernbeben) sein.
-
Die durchzuführende Aufgabe kann sein:
- – ein
Filtern, um die unerheblichen Ereignisse vor einer weiteren Verarbeitung
zu eliminieren;
- – das
Detektieren erheblicher Ereignisse;
- – eine
erschöpfende
Klassifizierung in einem System von Gruppen von Ereignissen derselben
Art.
-
Industrielle Überwachung
und Kontrolle
-
Das System dient auch der Analyse
von Objekten oder von industriellen Prozessen, sofern man über von
Sensoren empfangene Signale oder Bilder vertilgt. Dazu folgende
Beispiele:
- – Kontrolle der Qualität von Objekten
oder hergestellten Produkten: das Ziel ist, die Form und/oder die
Position von Objekten zu kontrollieren und Fehler zu detektieren
und zu charakterisieren. Die CNF- und SEF-Experten benutzen durch
Bildverarbeitung realisierte
- – Messungen.
Der TDNN-Experte benutzt ein oder mehrere Bilder des Teils. Vorausschauende
Ausrüstungswartung:
Ziel ist es, eine zukünftigen
Ausfall von Maschinen, Computern, elektronischen Vorrichtungen,
Sensoren vorauszusehen, um den Alarm auszulösen und vor dem Ausfall eine
Korrekturprozedur vorzunehmen. Die CNF- und SEF-Experten benutzen Messungen von Koeffizienten
hohen Niveaus, Korrelationen. Der TDNN-Experte benutzt Signale.
- – Überwachung
komplexer Verfahren: das Ziel besteht darin, das gute Funktionieren
einer Fertigungskette bzw. eines Fließbands zu überwachen. Die CNF- und SEF-Experten benutzen
Messungen von Koeffizienten hohen Niveaus. Der TDNN-Experte benutzt
Messungen von Koeffizienten niedrigen Niveaus.
-
Auf dem geophysikalischen Gebiet
können
die Eigenschaften hohen Niveaus die Lokalisierung, die Stärke, die
Zeit und das Datum sein. Das System der Erfindung ermöglicht die
automatischen Klassifizierung seismischer Ereignisse in drei Gruppen:
- - natürliche
Beben;
- – Explosionen
(Bohrlochschüsse
bzw. Bergwerksprengungen und militärische Versuche);
- – Gebirgsschlag
(Mineneinbrüche).
-
Das System ist integriert in eine
automatische Verarbeitungskette, um eine Filterfunktion der seismischen
Ereignisse durchzuführen.
Seine Hauptmerkmale sind:
- – maximale Zuverlässigkeit:
das System ist fähig,
Entscheidungen selbst aufgrund verschlechterter oder ungenauer Daten
zu treffen, sogar bei Fehlen bestimmter Informationen;
- – Zugriff
auf die Entscheidungserläuterung,
um einen eventuellen Zweifel an einer Entscheidung aufzuheben.
-
KURZBESCHREIBUNG DER FIGUREN
-
Die 1 zeigt
das Seismometer-Netzwerk des Laboratoriums für Detektion und Geophysik (LDG) der
Atomenergiekommission (CEA) im Jahre 1998.
-
Die 2 zeigt
Beispiele seismischer Signale, aufgezeichnet durch das Netzwerk
der 1.
-
Die 3 zeigt
ein globales Auswertungssystem geophysikalischer Signale nach dem
Stand der Technik.
-
Die 4 zeigt
das Prinzipschema des erfindungsgemäßen Multiexpertensystems zur
Unterscheidung seismischer Ereignisse.
-
Die 5 zeigt
das allgemeine Schema des Lernens aufgrund von Beispielen des erfindungsgemäßen Systems.
-
Die 6 zeigt
ein künstliches
Neuron.
-
Die 7 zeigt
ein Netzwerk künstlicher
Neuronen.
-
Die 8 zeigt
einen neuro-unscharfen Klassifizierer.
-
Die 9 zeigt
einen Codierzellen-Aktivierungsmechanismus.
-
Die 10 zeigt
Codierzellenaktivierungs-Beispiele.
-
Die 11 zeigt
ein unscharfes Expertensystem zur Unterscheidung seismischer Ereignisse.
-
Die 12A bis 12D zeigen aufeinanderfolgende
Vorverarbeitungen, angewendet bei einem seismischen Signal.
-
Die 13 ist
eine Architektur eines Neuronennetzwerks mit lokalen Verbindungen
und geteilte bzw. verteilten Gewichtungen.
-
Die 14 zeigt
die Darstellung der Epizentren der seismischen Ereignisse von 1962
bis 1996.
-
DETAILLIERTE DARSTELLUNG
VON AUSFÜHRUNGSARTEN
-
Allgemeine Beschreibung
des Systems
-
Das System der Erfindung umfasst
wenigstens einen ein unscharfes Expertensystem enthaltenden Verarbeitungszweig.
-
Multiexperten-Entscheidung
-
Das Prinzip der Multiexperten-Entscheidung,
die eine der Realisierungsarten der Erfindung ist, besteht in der
Auswertung der Synergie zwischen mehreren komplementären Verarbeitungszweigen.
Diese Komplementarität
beruht auf:
- A – den allgemeinen Leistungen:
ein Zweig ist eher Generalist (ziemlich gute Leistungen in den meisten Fällen), ein
anderer ist eher Spezialist (sehr gute Leistungen in bestimmten,
sehr schwierigen Fällen,
höhere
Fehlerrate in den außerhalb
seiner Kompetenz liegenden Fällen);
- B – den
Leistungen gemäß dem verarbeiteten
Fall: ein Zweig kann besser als ein anderer zur Verarbeitung eines
speziellen Falles fähig
sein;
- C – der
Art der Eingänge
(Signale oder Daten hohen Niveaus);
- D – der
Art der Ausgänge
(einfache Größe bzw.
Angabe der Klasse, Bewertung der Entscheidungsgewissheit, formelle
Erläuterung
der Entscheidung).
-
Die 4 zeigt
das Prinzipschema des erfindungsgemäßen Multiexpertensystems zur
Unterscheidung seismischer Ereignisse. Dieses System wird durch
mehrere unabhängige
Verarbeitungszweige gebildet, von denen jeder spezielle Eigenschaften
hat und die durch ein Entscheidungssystem hohen Niveaus verschmolzen
sind.
-
Diese Zweige sind:
- – ein neuro-unscharfer
Klassifizierer, CNF genannt, der seine Entscheidungen trifft aufgrund
von Ereignis-Eigenschaften hohen Niveaus (bei den seismischen Ereignissen
zum Beispiel: Lokalisierung, Magnitude bzw. Stärke, Zeit, Wochentag) und Parametern
niedrigeren Niveaus, extrahiert aus Signalen durch Verfahren des
Signalverarbeitungstyps;
- – ein
unscharfes Expertensystem, SEF genannt, das seine Entscheidungen
unabhängig
aufgrund derselben Informationen trifft und das fähig ist,
seine Entscheidung dem Benutzer mittels Regeln zu erklären, die entsprechend
dem Grad der Anwendbarkeit auf das verarbeitete Ereignis sortiert
sind;
- – ein
Neuronennetzwerk mit lokalen Verbindungen und geteilten bzw. verteilten
Gewichtungen, TDNN genannt, gebildet durch Bänke bzw. Reihen von nichtlinearen
angepassten Filtern, das selbst aus den entsprechenden Signalen
wichtige Zeit-Frequenz-Darstellungsinformationen
extrahiert.
-
Diese drei Zweige konfigurieren sich
automatisch durch statistisches Lernen in den Datenbanken von seismischen
Ereignissen.
-
Lernen mit Hilfe von
Beispielen
-
Das Lernen mit Hilfe von Beispielen
besteht dann, durch progressive Anpassung von Parametern aufgrund
von Daten ein Modell des Entscheidungssystems zu konstruieren. Dieses
Modell muss fähig
sein, die richtige Entscheidung (Ausgang) einer Gruppe von Daten
bzw. Größen zuzuordnen,
die den verarbeiteten Fall beschreiben (Eingänge). Dies erfolgt progressiv,
durch iterative Präsentation
der in der Beispielbank am Eingang des Systems verfügbaren Fälle. Eine
solche Prozedur ist in dem Organigramm der 5 dargestellt.
-
In der Erfindung kann das Modell,
das lernt, entweder ein Netzwerk künstlicher Neuronen oder ein
unscharfes Expertensystem sein.
-
Sobald das System seine Lernphase
beendet hat, werden seine internen Parameter festgeschrieben und
das System ist zur Benutzung bereit.
-
Neuronennetzwerk des
Typs "Multischichten-Wahrnehmung"
-
Ein solches künstliches Neuronennetzwerk
des Typs "Mehrschichten-Wahrnehmung" ist ein spezielles Modell
des Neuronennetzwerks, das als Entscheidungssystem benutzt werden
kann. Es wird gebildet durch ein Netzwerk einfacher Rechenautomaten,
den "künstlichen
Neuronen".
-
Ein Neuron N
j,
wie dargestellt in der
6,
ist eine durch einen Gewichtungsvektor W
j={w
ij} und eine nichtlineare Transferfunktion Φ gebildete
Entität.
Es empfängt
als Eingang einen Vektor X-{x
j} und führt eine Transformation
folgenden Typs durch:
-
Infolge der Ähnlichkeit mit dem in der Neurophysiologie
benutzten Vokabular sagt man, dass jeder Eingang xi mit
dem Neuron Nj durch eine synaptische Verbindung
verbunden ist.
-
Bei einem künstlichen Neuronennetzwerk,
wie dargestellt in der 7,
sind die Neuronen in sukzessiven Schichten zusammengefasst. Eine
Schicht wird definiert als eine Gruppe von Neuronen, die keine Verbindung
untereinander haben, aber Verbindungen mit Neuronen der vorhergehenden
(Eingänge)
oder nachfolgenden (Ausgänge)
haben können.
Im Allgemeinen verbindet man nur Neuronen sukzessiver Schichten.
-
Das Lernen besteht darin, dass man
progressiv die Werte der Gewichtungen wij modifiziert,
bis zu den Ausgängen
des Netzwerks, das durch eine bestimmte Anzahl von Neuronenschichten
gebildet wird, entsprechend den erwünschten Ausgängen.
-
Dazu definiert man einen Klassifizierungsfehler,
den man zu minimieren wünscht.
Der am häufigsten benutzte
bzw. vorkommende Fehler ist der quadratische Fehler, definiert durch
-
Das Verfahren besteht darin, durch
die Gleichung Δwij=–αδE/δwij eine Gradientenneigung bei den Gewichtungen
zu realisieren. Diese Gleichung liefert, wenn man sie entwickelt,
die Korrekturformel für
jede Gewichtung des Netzwerks.
-
Unscharfes Expertensystem
-
Ein unscharfes Expertensystem ist
ein weiteres bzw. anderes Modell des Entscheidungssystems. Es hat
gegenüber
dem Neuronennetzwerk den Vorteil, eine Erläuterungsform seiner Entscheidungen
zu liefern. Es wird gebildet durch ein System von Recheneinheiten,
den "Unscharf-Schlussfolgerungs-Regeln".
-
Eine Unscharf-Schlussfolgerungs-Regel
ist eine Entität
der Form "wenn < Prämisse > dann < Konklusion >". Die Prämisse ist der Teil, den man
versucht, in Übereinstimmung
mit den Eingangsdaten zu bringen.
-
Ein unscharfer Komplex ist nämlich ein
Komplex, dessen Grenzen progressiv sind, im Gegensatz zu einem klassischen
Komplex, dessen Grenzen scharf sind. Ein Element ist also mehr oder
weniger Teil jedes unscharfen Komplexes. Wenn die Daten die Dimension
1 aufweisen, kann ein klassischer Komplex durch ein Rechteck dargestellt
werden (Zugehörigkeit
bzw. Enthaltensein = 1 innerhalb, 0 außerhalb), während ein unscharfer Komplex
ein Dreieck, ein Trapez, eine Gaußsche Glockenkurve ... sein
kann.
-
Ebenso wie oben besteht das Lernen
darin, die Werte der Parameter progressiv zu modifizieren, bis die
Ausgänge
des unscharfen Expertensystems den erwünschten Ausgängen entsprechen.
-
Vier Arten von Parametern werden
durch Lernen berechnet: die Position und die Breite der unscharfen Komplexe
der Prämissen,
die Gewichtungen der Regeln und der Aktivitätsgrad jeder Klasse für jede Regel.
-
In der operationellen Benutzungsphase
liefert das unscharfe Expertensystem zusätzlich zu der dem seismischen
Ereignis zugeteilten Klasse die Liste der anwendbaren Regeln in
abnehmender Wichtigkeitsreihenfolge. Einige dieser Regeln können im
Widerspruch zu den anderen stehen, was ermöglicht, die alternativen Lösungen zu
prüfen,
es ist aber die Aggregation des Resultats alle Regeln, welche das
Gesamtresultat liefert.
-
Der Benutzer hat also zu seiner Verfügung:
- – die
Roh-Entscheidung (Erdbeben, Explosion, Gebirgsschlag;
- – die
Liste der anwendbaren Regeln;
- - die Liste der Regeln, die einen Widerspruch zu dieser Entscheidung
tiefem;
- – den
Grund der Entscheidung jeder Regel (durch Prüfung der Kohärenz zwischen
den Daten und den entsprechenden unscharfen Komplexen).
-
Ein durch das System gefundenes Entscheidungsregel-Beispiel
ist das folgende:
wenn (Zeit Mitte_Nachmittag ist)
wenn
(Breitengrad sehr_nahe bei 43,5° N
ist)
wenn (Längengrad
sehr_nahe bei 5,5° 0
ist)
wenn (Stärke
ist ungefähr
2,7)
wenn (Datum ist vorzugsweise Samstag)
dann (mit Vertrauensniveau
= 0,8)
(ist Beben unwahrscheinlich)
(ist Explosion wahrscheinlich)
(ist
Gebirgsschlag unwahrscheinlich).
-
In der Erfindung wird aus Gründen der
schwierigen Konvergenz diese Gradientenneigung parametriert, indem
Zwischenvariable eingeführt
werden. Wenn man eine Gradientenneigung bei einem Parameter p mit
p=Φ bewirken
will, wobei Φ eine
strikt monotone, ableitbare Funktion ist, unabhängig von p und Werten der zum
Lernen dienenden Beispiele, bekommt man dieselben finalen Lösungen,
indem man eine Gradientenneigung bei s bewirkt. Der Vorteil einer
solchen Variablenänderung
besteht darin, dass es möglich
wird, die Art, die Lösung
zu erzielen, zu wechseln bzw. zu ändern, und insbesondere die
Konvergenz bei den schwierigen Fällen
zu erleichtern.
-
In der Erfindung optimiert man die
folgenden Parameter:
- (1) Die Position y der
unscharfen Komplexe der Prämissen:
wenn die Gradientenneigung direkt bei diesem Parameter angewendet
wird, erhält
man im Allgemeinen eine schwierige Konvergenz. Dies erklärt sich durch
die Tatsache, dass die Variation bzw. Änderung der Position y der
unscharfen Komplexe der Prämissen
keine steigende Funktion der Distanz nach dem Beispiel ist. Man
korrigiert dieses Phänomen,
indem man x=y/σ setzt.
- (2) Die Breite σ der
unscharfen Komplexe der Prämissen:
wenn die Daten in Gruppen mit sehr unterschiedlichen Größen strukturiert
sind, kann der Algorithmus nicht konvergieren. Indem man die relative
Variation bzw. Änderung Δσ/σ untersucht,
entdeckt man, dass sie nicht begrenzt ist (das heißt dass
nichts sie daran hindert, gegen unendliche Werte zu tendieren).
Wenn die Daten sehr gruppiert sind, nimmt diese Variation bzw. Änderung
effektiv sehr hohe Werte an. Um eine kleinere relative Modifikation
zu erhalten, wenn die Daten ähnlich
sind, setzt man s=1n(2σ2).
- (3) Die Gewichtungen p der Regeln: es ist der am schwierigsten
zu regelnde Parameter. Bei einer direkten Gradientenneigung nehmen
die kleinsten Gewichtungen ab und werden negativ, so dass sie jegliche
Bedeutung verlieren und den Algorithmus divergieren lässt. Man
wählt folglich
eine positive Aktivierungsfunktion, indem man eine zusätzlichen
Zwang vorschreibt: für
verschiedene Beispiele mit dem gleichen Aktivierungsniveau der Regel
muss die Variation bzw. Änderung
dieses Niveaus die gleiche sein, wenn die Konklusionen gleich sind.
Die Konsequenz ist, dass die relative Variation bzw. Änderung
der Gewichtungen der Regeln konstant sein muss, wenn die Beispiele
denselben Zugehörigkeitsgrad
zu den unscharfen Komplexen haben. Dies wird realisiert, indem man
r=In(ρ)
setzt.
- (4) Der Aktivierungsgrad d jeder Klasse für jede Regel. Die Gradientenneigung
wird also nicht bei yσ und ρ realisiert,
sondern bei:
x = y/σ
s
= In(2σ2)
r = In(ρ)
-
Für
d realisiert man keine Variablenänderung.
Diese Variablenänderungen
sichern eine sehr gute Qualität
der Konvergenz und ermöglichen,
sehr effiziente Expertensysteme zu erlangen.
-
Beispiele-Bank und Prüfung
-
Die benutzte Beispiele-Bank muss
zwei Grundprinzipien verifizieren:
- – qualitativ
repräsentativ
zu sein für
das reelle Problem (der reellen Verteilung entsprechende Verteilung der
Beispiele;
- – quantitativ
repräsentativ
zu sein für
das Problem (ausreichende Anzahl von Beispielen, um eine befriedigende
Muster- bzw. Probennahme zu bilden).
-
Es existieren mehrere Lern- und Prüfmethodologien.
Bei der einfachsten Prozedur teilt man die Beispiele-Bank in zwei
getrennte Banken: die Lernbank und die Testbank. Man trainiert das
System durch Lernen in der ersten und prüft sein gutes Funktionieren
in der zweiten. Eine Beispiele-Bank, die nicht gleichzeitig die beiden
oben genannten Eigenschaften prüft,
birgt die Gefahr, zu einem System zu führen, das nicht fähig ist, korrekt
zu generalisieren, das heißt
bei neuen, in der Lernphase nicht vorhandenen Beispielen zu funktionieren.
-
Unabhängig davon, ob es sich nun
um die künstlichen
Neuronennetzwerke, die unscharfen Expertensysteme oder allgemeiner
um irgend ein durch statistisches Lernen an Versuchsdaten konzipiertes
System handelt, ist es immer wichtig, eine qualitativ und quantitativ
ausreichende Beispiele-Bank zu benutzen und das entwickelte System
durch rigorose Prozeduren zu prüfen.
-
Detaillierte Beschreibung
-
Beschreibung eines seismischen
Ereignisses
-
Ein zu identifizierendes seismisches
Ereignis kann beschrieben werden durch:
- - die
Daten der von dem seismischen Netzwerk stammenden Signale, oder
- – Eigenschaften
höheren
Niveaus, direkt durch geophysikalische Modelle messbar oder berechenbar.
Man kann zum Beispiel die Lokalisierung des Ereignisses (Breitengrad
oder Längengrad)
sowie seine Stärke und
den Zeitpunkt, wo es stattgefunden hat (Stunde und Wochentag), benutzen.
Die Informationen hohen Niveaus sind zum Beispiel folgende: Donnerstag
7. April 1966 um 12 Uhr hat sich ein Beben der Stärke 1,4 mit östlicher
Länge 02°35'06'' und nördlicher Breite 49°12'25'' ereignet.
-
Der neuro-unscharfe Klassifizieren
-
Der neuro-unscharfe Klassifizierer
(CNF-Experte), wie dargestellt in der 8,
wird gebildet durch eine neuro-unscharfe Codierung der Daten, gefolgt
von einem Multischicht-Perzeptron. Er wird bei Daten hohen Niveaus
angewendet.
-
Die neuro-unscharfe Codierung besteht
darin, jeder Eingangsvariablen (oder Variablengruppe) mehrere Zellen
zuzuordnen, wobei jede Zelle einen Einflussbereich hat, der durch
eine Funktion modelliert wird, die ihren Aktivierungsmechanismus
definiert. Die Präsentation
eines Wertevektors erzeugt dann ein Aktivierungsschema der zugeordneten
Codierungszellen.
-
Die 9 zeigt
diesen Aktivierungsmechanismus der Codierungszellen. Die Darstellung
eines Werts erzeugt ein Aktivierungsschema, das der Impulsreaktion
jeder Aktivierungsfunktion mit dem dargestellten Wert entspricht.
Die den Zentren der Zellen zugeordneten Grauniveaus geben ihr Aktivierungsniveau
an, das enthalten ist zwischen 0 und 1 (schwarz: 1, weiß: 0).
-
Die 10 zeigt
Beispiele von Aktivierungsschemas, erzeugt durch die Darstellung
von typischen Werten. Es handelt sich um eine Codierung des Cursor-Typs.
Die kleinen (bzw. großen)
Werte aktivieren bevorzugt die Zellen links (bzw. rechts).
-
Der Vorteil dieser Codierung ist
mehrfach:
- – schon
aufgrund ihrer Art, die ermöglicht,
unvollständige,
ungenaue oder unsichere Daten darzustellen und sie effizient für die Entscheidung
zu nutzen;
- – durch
ihre Eigenschaften der nichtlinearen Konditionierung der Daten erleichtert
sie die späteren
Verarbeitungen (hier die Klassifizierung).
-
Die neuro-unscharfe Codierung erfolgt
in mehreren sukzessiven Schritten: Definition der Untergruppen der
Charakteristika, Wahl und Anordnung der Codierungszellen in jeder
Gruppe, Bestimmung der Parameter des Einflussbereichs jeder Zelle.
Die Details dieser Prozedur sind in dem Bezugsdokument [8] dargestellt.
-
Sobald die Daten codiert sind, werden
sie durch das Multischicht-Perzeptron analysiert, das ihre Klasse
berechnet.
-
Das unscharfe Expertensystem
-
Bei einer Ausführungsart umfasst das erfindungsgemäße System
einen einzigen Verarbeitungszweig, der auf einem solchen unscharfen
Expertensystem basiert.
-
Das unscharfe Expertensystem (SEF)
findet auch bei den Daten hohen Niveaus Anwendung.
-
In der 11 ist
ein unscharfes Expertensystem mit fünf Regeln dargestellt (eine
Regel pro Zeile).
-
In jeder Zeile stellen die fünf linken
Spalten die Prämissen
dar und entsprechen fünf
Eingängen:
Zeit, Breitengrad, Längengrad,
Stärke
und Datum. Die Prämissen
werden gebildet durch unscharfe Komplexe mit der Form von Gaußschen Glockenkurven,
die die Bereiche der Eingangsvariablen bedecken, die zu einer Verstärkung der
Aktivität
der Regel führt.
-
Vier Typen von Parametern werden
durch Lernen berechnet: die Position und die Breite der unscharfen
Komplexe der Prämissen
(Spalten 1 bis 5), die Gewichtungen der Regeln
(Spalte 6), was ermöglicht,
den Wichtigkeitsgrad jeder Regel in dem Entscheidungsprozess sowie
den Aktivierungsgrad jeder Klasse (natürliches Beben, Explosion oder
Gebirgsschlag) für
jede Regel (Spalten 7 bis 9) zu spezifizieren.
-
Bei jeder Präsentation eines zu klassifizierenden
Beispiels berechnet man den Inhalt der Spalte 10 und der
Spalte 6:
- – Die Spalte 10 gibt
die Aktivierung jeder Regel an (und ermöglicht folglich, ihre Adäquation
mit dem behandelten Fall zu ermitteln;
- – Die
Spalte 6 ist die Synthese der Entscheidungen der fünf Regeln
und liefert die globale Antwort des unscharfen Expertensystems (hier
ist die Entscheidung "Explosion"). Diese Synthese
wird realisiert, indem man den Schwerpunkt der Entscheidungen aller
Regeln (7 bis 9) berechnet, gewichtet durch das
entsprechende Aktivierungsniveau (Spalte 10). In der 11 wird die Position des
Schwerpunkts für
jede Klasse symbolisiert durch einen vertikalen Strich in Zeile 6,
Spalten 7 bis 9.
-
Das Lernen erfolgt in zwei Phasen:
- – einer
ersten Phase, in der die unscharfen Komplexe (Zentren und Breiten)
positioniert werden, zum Beispiel mittels eines der sogenannten
unscharfen C-Mittelwerte-Algorithmus, wie beschrieben in dem Bezugsdokument
[9];
- – einer
zweiten Phase, bestehend aus der Realisierung einer Gradientenneigung
bei den vier Parametertypen.
-
Das Neuronennetzwerk
mit lokalen Verbindungen und geteilten bzw. verteilten Gewichtungen
-
Im Gegensatz zu den beiden vorhergehenden
Zweigen akzeptiert das Neuronennetzwerk mit lokalen Verbindungen
und geteilten bzw. verteilten Gewichtungen (TDNN-Experte) als Eingang
die seismischen Signale selbst, und lernt das Extrahieren nicht
nur der Entscheidungsprozedur sondern auch der Entscheidungsparameter,
die dieser Entscheidung als Basis dienen. Dieses Neuronennetzwerk
ist vom Typ Multischicht-Perzeptron
mit lokalen Verbindungen und geteilter bzw. verteilter Gewichtung
mit, als Eingang, den vorverarbeiteten Spektrogrammen der seismischen
Signale, wie beschrieben in dem Bezugsdokument [10]. Diese Spektrogramme
erhält
man durch Anwendung einer Fouriertransformierten mit Gleitfenster
auf dem Signal.
-
Die 12A bis 12D zeigen die bei jedem
seismischen Signal angewendeten sukzessiven Vorverarbeitungen, in
einem Endspektrogramm mit 15 Frequenzbändern mündend, wobei die 12A das Anfangssignal zeigt,
die 12B das von dem
Signal mit 50 Frequenzbändern
abgeleitete Spektrogramm zeigt, die 12C das "entrauschte" Spektrogramm zeigt
und die 12D das Spektrogramm
nach Reduzierung von 50 auf 15 Bändern
zeigt.
-
Das erlangte Spektrogramm wird anschließend vorverarbeitet
und dann in ein Neuronennetzwerk des TDNN-Typs eingespeist. Jedes
Netzwerk ist spezialisiert auf die Verarbeitung der durch eine bestimmte
Station aufgezeichneten Signale.
-
Die 13 zeigt
die Architektur eines TDNN-Netzwerks, spezialisiert auf die Klassifizierung
der Spektrogramme, die von den Signalen eines bestimmten Seismographen
abgeleitet werden, wobei dieses Netzwerk vier Neuronenschichten
umfasst. Die Eingangsschicht hat lokale Verbindungen und geteilten
bzw. verteilte Gewichtungen (4 Datenblöcke (trames) mit einer Verschiebung
von 2 Datenblöcken)
mit der ersten Cache-Schicht.
Diese hat ebenso lokale Verbindungen mit verteilten Gewichtungen
(9 Datenblöcke
(trames) mit einer Verschiebung von 2 Datenblöcken) mit der zweiten Cache-Schicht,
die mit der letzten Schicht total verbunden ist.
-
Die verteilten bzw. geteilten Gewichtungen
machen die Architektur robuster für die kleinen Verschiebungen
der Kontrollen der Phasen oder fehlenden oder falschen Datenblöcke. Jedoch,
wegen der Ausbreitungsgeschwindigkeit der Wellen P (Druck) und S
(Scherung) variiert die Dauer zwischen dem Eintreffen der Phase
P und der Phase S in Abhängigkeit
von dem Abstand zwischen der Aufzeichnungsstation und dem Epizentrum
des Ereignisses, was das Lernen kompliziert. Die angenommene Lösung besteht
dann, die Kontrolle der Phase P auf den 10. Datenblock auszurichten
und die der Phase S auf den 60. Datenblock.
-
Die finale Entscheidung
-
Um die finale Entscheidung zu treffen,
geht man davon aus, dass alle Ausgänge in dem reellen Intervall
enthalten sind [-1,1]. Diese Entscheidung besteht aus einer Assoziation
der durch die drei Zweige gelieferten Antworten, um die Zuverlässigkeit
zu erhöhen.
Sie kann durch eine Berechnung des arithmetischen Mittels an den
homologen Ausgängen
von jedem der drei Zweige realisiert werden. Für jeden der drei Ausgänge Si des
Gesamtsystems bekommt man dann:
-
Die Sicherheit bzw. Gewissheit bezüglich der
Antwort wird durch einen Koeffizienten bewertet, der nur berechenbar
ist, wenn das System sich in einer Entscheidungssituation befindet
(das heißt
wenn einen und nur einen einzigen strikt positiven Ausgang gibt).
Dieser Koeffizient ist dann gleich dem Durchschnitt der absoluten
Werte der Ausgänge:
K < 0,2 : Zweifel
K ∊ ]0.2,0.4]:
Vorsicht
K ∊ ]0.4,0.6]: vernünftige Sicherheit
K ∊ ]0.6,0.8]:
große
Sicherheit
K > 0,8
: quasi absolute Sicherheit
-
Man kann also zum Beispiel bekommen:
-
Anwendungsbeispiel der
Erfindung
-
Unterscheidung regionaler
seismischer Ereignisse
-
Lokalisierung des Ereignisses
-
Die Unterscheidung "natürliches
Ereignis/künstliches
Ereignis" ist ein
Hauptschritt der seismischen Überwachung,
der während
der Lektüre
des Signal in der Prüfungsphase
schnell ausgeführt
und dann im Laufe jeder neuen Verarbeitung verfeinert wird. Man
bewertet die Zeit, die Analysten benötigen, bis sie wirklich einsatzbereit
sind, mit sieben Jahren. Da diese Analysten wahre Experten sind,
ist es schwierig, ihre Denkmethoden, die zugleich auf Expertenwissen
und auf einer Fall-bezogenen Beurteilung beruhen, klar darzustellen.
-
Die Lokalisierung eines seismischen
Ereignisses erhält
man, indem man mehrmals nacheinander zwei Phasen durchläuft:
- – die
Kontrolle der verschiedenen seismischen Phasen, durchgeführt an den
durch die Stationen aufgezeichneten Signalen, die das Ereignis detektiert
haben, und die Berechnung der Stärke;
- – die
Lokalisierung selbst, realisiert mit Hilfe eines durch die Seismologen
entwickelten mathematischen Modells.
-
Am Ende der Kontrollphase kann die
Lokalisierung des Ereignisses mit Hilfe einer dem Fachmann bekannten
Simulations-Software erfolgen. Sie greift zurück auf seismische Modelle,
die Informationen über
die Geschwindigkeit der Wellen, die verschiedenen Wellentypen und
ihr Ausbreitungsmodus, Höhenkorrekturen je
nach Station ... enthalten. Mehrere Lokalisierungs-Hypothesen werden
vorgeschlagen, verbunden mit einem Kohärenzgrad der Daten. Wenn diese
dem Experten nicht zusagen, modifiziert er die Punkte der Phasen
und startet eine neue Lokalisierung. Dieser Zyklus wird widerholt,
bis zur Erlangung eines als zufriedenstellend beurteilten Resultats.
-
Die Qualität der Lokalisierung hängt von
der Anzahl der Qualität
der Stationen ab, die zur Lokalisierung des Ereignisses gedient
haben, sowie von ihrer azimutalen Verteilung. Die in Frankreich
stattfindenden Ereignisse werden also im Allgemeinen besser lokalisiert
als die ausländischen
Ereignisse. Um die Lokalisierung in diesem letzteren Fall zu verfeinern,
greifen die Experten regelmäßig auf
ausländische
Daten zu. Mit ausschließlich
den französischen
Daten beträgt
die Genauigkeit der Lokalisierung der in Frankreich stattfindenden Ereignisse
durchschnittliche fünf
Kilometer. Sie wird im optimalen Fall auf ungefähr einen Kilometer geschätzt.
-
Die Tabelle II am Ende der Beschreibung
ist ein Beispiel für
durch die Lokalisierungsprozedur gelieferten Resultate. Der obere
Teil resümiert
die erhaltenen Resultate: jedem ursprünglichen Wert der Zeit, der
Stärke
und der Lokalisierung (Breitengrad-Längengrad)
ist das geschätzte
Ungenauigkeitsniveau zugeordnet. Der untere Teil liefert die Stationen,
die der Lokalisierung gedient haben, und die mittleren quadratischen
Fehler (MRS), erhalten in Abhängigkeit
von der Tiefenannahme des Epizentrums. Im Falle der Gebirgsschläge wird die
Tiefe arbiträr
mit einem Kilometer festgelegt.
-
Charakterisierung des
Ereignisses
-
Man interessiert sich hier für die lokalen
und regionalen Ereignisse, das heißt denen, die im französischen
Mutterland und in den angrenzenden Regionen stattfinden. Diese Ereignisse
werden oft als nah charakterisiert, im Gegensatz zu fernen Beben,
deren Epizentren mehrere tausend Kilometer vom Seismometer entfernt
sind.
-
Drei Typen von seismischen Ereignisse
muss man unterscheiden:
- - die Erdbeben, also
seismische Ereignisse mit natürlicher
Ursache;
- – die
Explosionen in der Erde (Sprengungen in Bergwerken, Steinbrüchen, Baustellen...)
oder im Meer (Entminung, Waffenversuche...);
- – die
Gebirgsschläge,
die dem Einsturz einer Bergwerkschicht entsprechen und mit der Ausbeutung
des Bergwerks verbunden sind.
-
Die Analyse des Stands der Technik
hat gezeigt, dass Lösungsansätze, die
auf einer Unterscheidung aufgrund ausschließlich seismischer Signale beruhen,
falsch sind. Es wird folglich die Gesamtheit der verfügbaren Daten
ausgewertet, indem man eine Lösung
wählt,
die auf der Multiexperten- und Multiquellenfusion beruht. Die Konzeption
des Systems zur automatischen Unterscheidung seismischer Ereignisse
beruht auf drei Modulen:
- – die beiden ersten (CNF- und
SNF-Experten) sind Module, die eine Unterscheidung ausschließlich aufgrund
von Daten hohen Niveaus treffen, abgeleitet durch das bzw. von dem
Umkehrmodell des Laboratonums LDG. Auf diesem Niveau wird also kein
seismisches Signal berücksichtigt;
- - der dritte (TDNN-Experte) basiert auf der Analyse der seismischen
Signale.
-
Benutzte Daten
-
Geographische Verteilung
der Ereignisse
-
Jedes seismische Ereignis ist durch
folgende Daten gekennzeichnet: Datum und die Weltzeit des Ereignisses,
seine Stärke
und Breiten- und Längengrad
des Epizentrums.
-
Die Zeit und das Datum werden festgehalten
wegen Regeln, nach denen die Steinbruch- und Bergwerkssprengungen
in Frankreich verwaltet werden und die Sprengungen während der
Nacht oder an Wochenenden und an Feiertagen verbieten. Jedoch haben
bestimmte Baustellen Ausnahmegenehmigungen, zum Beispiel um Verkehrsprobleme
zu vermeiden.
-
Die Stärke wird festgehalten bzw.
in Betracht gezogen, weil Gebirgsschläge nach den Seismologen eine
typische Stärke
haben (ungefähr
3). Zudem können
nur die Erdbeben die größten Stärken verursachen. Mehrere
Stärkenwerte
werden berücksichtigt,
wenn sie verfügbar
sind.
-
Die Lokalisierung des Epizentrums,
gekennzeichnet durch seinen Breitengrad und seinen Längengrad,
ist ebenfalls ein Hauptmerkmal. Jedoch existieren Bergwerke, die
sich in Regionen mit starker seismischer Aktivität befinden und wo infolgedessen
Gebirgsschläge
stattfinden können.
-
Daten niederen Niveaus
-
Die Daten niederen Niveaus sind die
Signale, die von den 42 seismischen Stationen des Laboratoriums
LDG stammen (s. 1).
Die Vorverarbeitungen betreffen im Wesentlichen die Erzeugung der
Spektrogramme der seismischen Signale, die nicht-stationär sind.
Diese Spektrogramme erhält
man durch Anwendung einer Fouriertransformierten mit Gleitfenster
auf dem Signal. In einer ersten Zeit wird das mit 50 Hz abgetastete
Signal segmentiert in Datenblöcke
(trames) von zwei Sekunden, verschoben bzw. versetzt um eine Sekunde
durch ein Hamming-Fenster. Man berechnet anschließend die
Energiespektraldichte in 50 Frequenzbändern mit Eliminierung der
kontinuierlichen Komponente. Dann wendet man eine logarithmische
Transformation mit Subtraktion des Rauschens, deren Modell – angenommen – logarithmisch
ist, in jedem Band nach der Gleichung max(In(1+x)– μ(Rauschen)-σ(Rauschen),0),
wo μ(Rauschen)
und σ(Rauschen)
dem Durchschnitt und dem typischen Rauschabstand entsprechen, ermittelt über eine
Periode vor der Kontrolle der Welle P. Schließlich reduziert man durch eine
pseudo-logarithmische Kompression der hohen Frequenzen die Anzahl
der Frequenzbänder
von 50 auf 15.
-
Erhaltene Resultate
-
Das oben beschriebene System klassifiziert
die regionalen seismischen Ereignisse Frankreichs mit folgenden
Leistungen:
- - 86 % der Erdbeben;
- - 91 % der Explosionen;
- - mehr als 99% der Gebirgsschläge.
-
Die Gesamtleistungen betragen ungefähr 90%.
-
TABELLE
I
NAH-BULLETIN VOM 09.09.1998 BIS ZUM 15.09.1998 P 1998-037
NAH-BEBEN – RESÜMEE – ANZAHL
EREIGNISSE: 31
-
-
BEZUGSDOKUMENTE
-
- [1] D.R. Baumgardt and K.A. Ziegler, "Spectral evidence
for source multiplicity in explosions: application to regional discrimination
of earthquake and explosion" (Bulletin
of Seismological) Society of America, Vol. 78, Seiten 1772–1795, 1988.
- [2] P.S. Dysart and J.J. Pulli, "Regional seismic classification at the
NORESS array: seismological measurement and the use of trained neural
networks" (Bulletin
of Seismological Society of America, Vol. 80, Seiten 1910–1933, 1990).
- [3] P.W. Pomeroy, W.J. Best and T.V. McEvilly, "Test ban treaty verification
with regional data: a review" (Bulletin of
Seismological Society of America, Vol. 72, Nr. 6, Seiten S89–S129).
- [4] M. Musil and A. Plesinger, "Discrimination between local microearthquakes
and quarry blasts by multilayer perceptions and Kohonen maps" (Bulletin of Seismological
Society of America, Vol. 86, Nr. 4, Seiten 1077–1090, 1996).
- [5] S.R. Taylor, "Discrimination
between nuclear explosions and earthquakes" (Energy and Earth Sciences, Seiten
56-57, 1990).
- [6] F.U. Dowla, S.R. Taylor and R.W. Anderson, "Seismic discrimination
with artificial neural networks: preliminary results with spectral
data" (Bulletin
of Seismological Society of America, Vol. 80, Nr. 5, Seiten 1346–1373, 1990).
- [7] M. Nicolas, J.-P. Santiore and P.-Y. Delpech, "Intraplate seismicity:
new seismotectonic data in western europ" (Tectonophysics, Nr. 179, Seiten 27–53, 1990).
- [8] S. Muller, P. Garda, J.-D. Muller, Y. Cansi, " Seismic events discrimination
by neuro-fuzzy merging of signal and catalogue features" (Physics Chemistry
of The Earth (A), Vol. 24, Nr. 3, Seiten 201–206, 1999).
- [9] B.T.W. Cheng, D.B. Goldgof, L.O. Hall, "Fast fuzzy clustering" (Fuzzy Sets and
Systems 93, 49–56,
1998).
- [10] A. Klaassen, X. Driancourt, S. Muller, J.-D. Muller, "Classifying regional
seismic signals using TDNN-alike neural networks" (International Conference On Artificial
Neural Networks '98,
Skövde,
Schweden, 2.–4.
September 1998).
- [11] Chu et al.: "First
break refraction event picking using fuzzy logic systems" (IEEE Transactions
on Fuzzy Systems, US, IEEE Inc. New York, Vol. 2, Nr. 4, 1. November
1994, Seiten 255-266).
- [12] EP-A-0 468 229.
- [13] J.D. Muller, Y. Cansi and S. Muller, "RAMSES, ein Multiexperten-System zur
operationellen seismischen Überwachung" (ISA '99, Juni 1999).