DE102021130642B4 - Erdbebenerkennung und -reaktion über eine verteilte visuelle eingabe - Google Patents

Erdbebenerkennung und -reaktion über eine verteilte visuelle eingabe Download PDF

Info

Publication number
DE102021130642B4
DE102021130642B4 DE102021130642.6A DE102021130642A DE102021130642B4 DE 102021130642 B4 DE102021130642 B4 DE 102021130642B4 DE 102021130642 A DE102021130642 A DE 102021130642A DE 102021130642 B4 DE102021130642 B4 DE 102021130642B4
Authority
DE
Germany
Prior art keywords
earthquake
cameras
input
visual input
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021130642.6A
Other languages
English (en)
Other versions
DE102021130642A1 (de
Inventor
Carlo SIEBENSCHUH
Conrad M. Albrecht
Johannes Walter Schmude
Hendrik F. Hamann
Siyuan Lu
Oki Gunawan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE102021130642A1 publication Critical patent/DE102021130642A1/de
Application granted granted Critical
Publication of DE102021130642B4 publication Critical patent/DE102021130642B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/01Measuring or predicting earthquakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/282Application of seismic models, synthetic seismograms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/30Analysis
    • G01V1/307Analysis for determining seismic attributes, e.g. amplitude, instantaneous phase or frequency, reflection strength or polarity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V2210/00Details of seismic processing or analysis
    • G01V2210/60Analysis
    • G01V2210/63Seismic attributes, e.g. amplitude, polarity, instant phase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Geophysics (AREA)
  • Multimedia (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

Datenverarbeitungseinheit, die aufweist:einen Prozessor (1104);eine Speichereinheit (1106, 1108), die mit dem Prozessor verbunden ist;eine Erdbebensteuerkomponente (1140), wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor die Datenverarbeitungseinheit so konfiguriert, dass sie Aktionen ausführt, die aufweisen:Empfangen einer visuellen Eingabe (40) eines Ortes von jeder einer Mehrzahl von Kameras (20) über ein Netzwerk (102, 104);für jede visuelle Eingabe von der Mehrzahl von Kameras:Durchführen einer Kopplungskorrektur (1142) zwischen einer Erschütterung der Kamera und der visuellen Eingabe, indem Geschwindigkeitsvektoren der Mehrzahl von Kameras von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden, um eine verarbeitete Eingabe bereitzustellen; undErmitteln, ob eine Erschütterung, die in der verarbeiteten Eingabe erkannt wird, über einem vorgegebenen Schwellenwert liegt, auf Grundlage der verarbeiteten Eingabe, wodurch eine oder mehrere Anomalien erkannt (1146) werden; undRückschließen (1150) aus der einen oder den mehreren Anomalien auf einen Ort und/oder eine Magnitude und/oder eine Tiefe eines Erdbebens auf Grundlage der Erschütterung, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft allgemein Erdbebenerkennungssysteme und -verfahren und insbesondere
  • Systeme und Verfahren zum Messen von Erdbebenmagnituden und - intensitäten.
  • Beschreibung der verwandten Technik
  • Erdbeben (EBs) treten rund um den Globus auf und verursachen tausende von Todesopfern und Schäden in Milliardenhöhe (z.B. Indonesien (2004): 227.000; 8,71 Mrd. oder Japan (2011): 15.000, 360 Mrd.) Ein EB ist charakterisiert durch den Ort (Epizentrum), die Tiefe sowie seine Schwere, ausgedrückt durch die Magnitude (durch die Richter-Skala) und Intensität (z.B. durch die modifizierte Mercalli-Skala). Die Magnitude stellt die freigesetzte seismische Energie dar und wird durch ein dichtes Netz kostenintensiver Seismografen aufgezeichnet. Die Intensität ist die beobachtete Wirkung auf der Erdoberfläche von einer wahrgenommenen Erschütterung bis zu strukturellen Bauwerksschäden. Die Intensität ist das eigentlich interessierende Merkmal für die Katastrophenreaktion, da die Magnitude nicht die EB-Auswirkungen betrifft. Intensitätsmessungen beruhen auf einer willkürlichen Einstufung und werden anhand von Fragebögen bewertet, die lange nach dem EB versandt werden. Eine Intensitätsmessung in Echtzeit ermöglicht Frühwarnmeldungen und bestimmt Evakuierungs- und Rettungseinsätze. Ein genaues Vorhersagen eines Erdbebens gilt unter Experten als praktisch unmöglich mit derzeitigen Verfahren und derzeitiger Technologie. Für die Magnitude stellen Erdbebenwarnsysteme (EWS) eine frühzeitige Erkennung bereit, um innerhalb von Sekunden Warnungen auszusenden.
  • Im Stand der Technik offenbart US 2011 / 0 292 220 A1 die Benutzung einer Computer-Videokamera zum Erkennen von Erdbeben. JP 2005- 37 273 A offenbart eine Vorrichtung, ein Verfahren und ein Programm zur Erkennung von Videobildverwacklungen sowie eine Videobildauswahlvorrichtung einer Kamera. KR 10 2018 0 136 671 A offenbart ein System zur Steuerung von Erdbebenüberwachungsmaßnahmen mithilfe von Bildanalyseverfahren.
  • KURZDARSTELLUNG
  • Gemäß verschiedenen Ausführungsformen werden ein nichttransitorisches durch Computer lesbares Speichermedium, ein durch Computer realisiertes Verfahren und ein Computerprogrammprodukt bereitgestellt, die während eines Erdbebens eine anomale Erschütterung über mehrere Kameras erkennen, die mit der Cloud verbunden sind. Aus jeder einer Mehrzahl von Kameras wird über ein Netzwerk eine visuelle Eingabe von einem Ort empfangen. Für jede visuelle Eingabe aus der Mehrzahl von Kameras wird eine Kopplungskorrektur zwischen einer Erschütterung der Kamera und der visuellen Eingabe durchgeführt, indem Geschwindigkeitsvektoren der Mehrzahl von Kameras von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden, um eine verarbeitete Eingabe bereitzustellen. Auf Grundlage der verarbeiteten Eingabe wird ermittelt, ob eine Erschütterung, die in der verarbeiteten Eingabe erkannt wird, über einem vorgegebenen Schwellenwert liegt, wodurch eine oder mehrere Anomalien erkannt werden. Aus der einen oder den mehreren Anomalien wird auf einen Ort und/oder eine Magnitude und/oder eine Tiefe eines Erdbebens auf Grundlage der Erschütterung rückgeschlossen, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
  • Bei einer Ausführungsform wird eine Intensität des Erdbebens auf Grundlage der Erschütterung ermittelt, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
  • Bei einer Ausführungsform umfasst das Rückschließen auf den Ort und/oder die Magnitude und/oder die Tiefe ein Extrahieren und Aggregieren lokaler Näherungen von einer Phasenverzögerung zwischen einem vorgegebenen maximalen Pixelwert, die auf jede Pixelstelle in der visuellen Eingabe angewandt wird, und/oder einer Amplitude eines maximalen Wertes einer Pixelstelle über eine Gesamtheit der visuellen Eingabe.
  • Bei einer Ausführungsform wird die Erschütterung durch eine oder mehrere pixelweise Änderungen der verarbeiteten Eingabe gemessen.
  • Bei einer Ausführungsform wird bei mindestens einer visuellen Eingabe aus der Mehrzahl von Kameras eine Spektralanalyse im Zeitverlauf an jeder der pixelweisen Änderungen in mindestens einem Bild der visuellen Eingabe durchgeführt. Eine Spektralzerlegung des mindestens einen Bildes der visuellen Eingabe wird ermittelt.
  • Bei einer Ausführungsform wird ein Modell künstlicher Intelligenz (KI) trainiert, um Parameter eines Erdbebens auf Grundlage der visuellen Eingabe aus der Mehrzahl von Kameras zu erkennen. Das trainierte KI-Modell wird auf die visuelle Eingabe aus einem anderen Satz einer Mehrzahl von Kameras an einem separaten Ort angewandt.
  • Bei einer Ausführungsform werden nach Abschluss eines erkannten Erdbebens Indikatoren von einer Magnitude und/oder einem Ort und/oder einer Tiefe des erkannten Erdbebens in einem vorgegebenen Speicher gespeichert.
  • Bei einer Ausführungsform wird eine Kalibrierung der Mehrzahl von Kameras über Daten eines externen seismischen Sensors verfeinert.
  • Die hierin beschriebenen Techniken können in einer Reihe von Möglichkeiten realisiert werden. Beispielhafte Realisierungen werden nachstehend unter Bezugnahme auf die folgenden Figuren bereitgestellt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Zeichnungen stellen veranschaulichende Ausführungsformen dar. Sie veranschaulichen nicht alle Ausführungsformen. Zusätzlich oder stattdessen können andere Ausführungsformen genutzt werden. Einzelheiten, die offensichtlich oder unnötig sind, können weggelassen sein, um Platz zu sparen oder für eine wirkungsvollere Veranschaulichung. Einige Ausführungsformen können mit zusätzlichen Komponenten oder Schritten und/oder ohne alle der veranschaulichten Komponenten oder Schritte in die Praxis umgesetzt werden. Wenn dieselbe Zahl in verschiedenen Zeichnungen erscheint, bezieht sie sich auf dieselben oder ähnliche Komponenten oder Schritte.
    • 1 veranschaulicht einen Ort eines Erdbebens, das seismische Wellen zu einer Bodenoberfläche aussendet und eine Erschütterung von Strukturen verursacht, entsprechend einer veranschaulichten Ausführungsform.
    • 2 ist ein vereinfachter Prozessablaufplan für ein Erdbebenerkennungs- und -reaktionssystem über eine verteilte visuelle Eingabe entsprechend einer veranschaulichten Ausführungsform.
    • 3 ist eine detaillierte Version des Prozessablaufplans von 2 für ein Erdbebenerkennungs- und -reaktionssystem über eine verteilte visuelle Eingabe entsprechend einer veranschaulichten Ausführungsform.
    • 4 ist ein Blockschaubild für die Zustände vor einem Erdbeben und ein grafisches veranschaulichendes Merkmalsschaubild des Erdbebenerkennungs- und -reaktionssystems über eine verteilte visuelle Eingabe entsprechend einer veranschaulichten Ausführungsform.
    • 5 ist ein konzeptuelles Blockschaubild des Überwachens eines Ortes und Erkennens einer anomalen Erschütterung während eines Erdbebens entsprechend einer veranschaulichten Ausführungsform.
    • 6 ist ein konzeptuelles Blockschaubild einer Korrektur pixelweiser Änderungen in einem Bild während eines Auftretens eines Erdbebens entsprechend einer veranschaulichten Ausführungsform.
    • 7 ist ein konzeptuelles Blockschaubild eines Rückschließens auf eine Magnitude, einen Ort und eine Tiefe eines Erdbebens über seismische Inversion entsprechend einer veranschaulichten Ausführungsform.
    • 8 ist ein konzeptuelles Blockschaubild einer Bewertung einer Intensität eines Erdbebens während des Erdbebens entsprechend einer veranschaulichten Ausführungsform.
    • 9 ist ein konzeptuelles Blockschaubild des Bereitstellens einer Bewertung einer Intensität eines Erdbebens während des Erdbebens entsprechend einer veranschaulichten Ausführungsform.
    • 10 ist ein konzeptuelles Blockschaubild einer Verfeinerung einer Kalibrierung einer Mehrzahl von Kameras über Daten externer seismischer Sensoren und zusätzlichen Bewertung der Erdbebenintensität entsprechend einer veranschaulichten Ausführungsform.
    • 11 ist eine Veranschaulichung eines funktionellen Blockschaubildes einer Computerhardware-Plattform, die dazu dienen kann, eine besonders konfigurierte Datenverarbeitungseinheit zu realisieren, die die Erdbebenerkennungssteuerkomponente hosten kann.
    • 12 stellt eine Cloud-Computing-Umgebung entsprechend einer veranschaulichenden Ausführungsform dar.
    • 13 stellt Schichten eines Abstraktionsmodells entsprechend einer beispielhaften Ausführungsform dar.
  • DETAILLIERTE BESCHREIBUNG
  • Überblick
  • In der folgenden detaillierten Beschreibung werden zahlreiche bestimmte Einzelheiten durch Beispiele dargelegt, um ein gründliches Verständnis der einschlägigen Lehren bereitzustellen. Es sollte jedoch ersichtlich sein, dass die vorliegenden Lehren ohne solche Einzelheiten in die Praxis umgesetzt werden können. In anderen Fällen wurden allgemein bekannte Verfahren, Prozeduren, Komponenten und/oder Schaltungsanordnungen auf einer relativ übergeordneten Ebene ohne Einzelheiten beschrieben, um ein unnötiges Verunklaren von Aspekten der vorliegenden Lehren zu vermeiden.
  • Vor einem Erdbeben stellt eine Mehrzahl von Internet Protocol- (IP-)Kameras, die sich zur Überwachung oder meteorologischen Beobachtung über einem bestimmten Gebiet oder Ort befinden, Videoströme und Koordinaten bereit, die online über das Internet oder an ein zweckbestimmtes Netzwerk übermittelt werden. Aufnahmen aus diesen Kameras werden im Allgemeinen kostenlos für die Öffentlichkeit bereitgestellt. Für die Lehren hierin werden Informationen aus solchen Kameras gesammelt, und sie stellen sinnvolle Erkenntnisse über eine seismische Aktivität an einem oder mehreren Orten bereit.
  • Nach einem Aspekt wird während eines Erdbebens eine anomale Erschütterung einer erfassten Szene über eine Mehrzahl von Internet Protocol- (IP-)Kameras hinweg erkannt, die eine verteilte visuelle Eingabe eines Ortes über eine Verbindung mit einer Cloud oder einem zweckbestimmten Netzwerk bereitstellen, wodurch sie mindestens als Teil eines Systems zur Erdbebenerkennung definiert sind.
  • Die verschiedenen Ausführungsformen umfassen Schritte zum Durchführen oder Anweisungen zum Ausführen oder Realisieren eines Messens einer Erschütterung eines Ortes durch pixelweise Änderungen mindestens eines Bildes, das auf mindestens einer der Mehrzahl von Kameras erscheint. Ein Koppeln der pixelweisen Änderungen natürlicher Objekte oder künstlicher Objekte oder natürlicher und künstlicher Objekte wird in dem mindestens einen Bild aus den pixelweisen Änderungen korrigiert, die durch das Erschüttern der mindestens einen der Mehrzahl von Kameras herbeigeführt wird. Auf eine Magnitude und/oder einen Ort und/oder eine Tiefe des Erdbebens kann rückgeschlossen werden. Dann kann eine Bewertung der Intensität des Erdbebens bereitgestellt werden.
  • Bei einer Ausführungsform wird eine Spektralanalyse der pixelweisen Änderungen im Zeitverlauf in dem mindestens einen Bild durchgeführt, damit sich eine Spektralzerlegung ergibt. Die Spektralanalyse kann im Zeitverlauf der pixelweisen Änderungen durch Phasenverzögerung, Frequenzverschiebung und Amplitude in eine erste Gruppe, die eine Szene auf dem mindestens einen Bild repräsentiert, und in eine zweite Gruppe, die die mindestens eine der Mehrzahl von Kameras repräsentiert, entkoppelt werden. Es sei angemerkt, dass in der vorliegenden Offenbarung ein Betrachter ebenfalls eine Kamera repräsentiert.
  • Bei einer Ausführungsform werden lokale Näherungen der Phasenverzögerung, Frequenzverschiebung und Amplitude extrahiert und aggregiert, um auf eine Magnitude und/oder eine Intensität des Erdbebens rückzuschließen. Lokale Näherungen der Phasenverzögerung, Frequenzverschiebung und Amplitude werden als lokale Auswirkung eines Erdbebens betrachtet, wie sie an der Position einer Kamera erzeugt werden, wie von einem Server berechnet, der unter einer Gruppe oder Mehrzahl von Kameras zentral positioniert ist. Auf einen Ort und eine Tiefe des Erdbebens kann rückgeschlossen werden.
  • Ein Rückschließen auf die Eigenschaften eines EB (Y) aus der Eingabe verschiedener Kameras (X) ist ein überwachtes Regressionsproblem mit einer nichtbeobachtbaren Funktion f, während X und Y beobachtet werden. Da jedoch die IP-Kameras ähnlich sind, wird das Modell auf dem zentralen Server neu kalibriert. Der zentrale Server hat ein Modell (f_Schätzung), das idealerweise die visuelle Eingabe mit einem EB-Ereignis in Beziehung setzt, d.h. f_Schätzung(X) = Y_Schätzung.
  • Nachdem ein EB aufgetreten ist (X und Y sind verfügbar), wird nahezu perfekt auf einen EB-Ort usw. rückgeschlossen, da Y wie vorliegend von einem seismischen Netzwerk stammt, und der (in Y zusammengefasste) Modellfehler (Y_Schätzung - Y) kann bewertet werden. Der Server (z.B. die Erdbebenanalytiksteuerkomponente, die auf dem Server läuft) kann das Modell zu f_Schätzung_neu derart neu kalibrieren, so dass f_Schätzung_neu(X) sich Y stärker annähert.
  • Nach einem Erdbeben können Indikatoren von einer Magnitude und/oder einem Ort und/oder einer Tiefe des Erdbebens sowie eine Bewertung der Erdbebenintensität in einem geeigneten Speicher gespeichert werden. Ferner kann die Systemkalibrierung verfeinert werden. Beispielsweise kann der zentrale Server das gelernte EB-Rückschlussmodell über Daten externer seismischer Sensoren und eine zusätzliche Bewertung der Erdbebenintensität verfeinern. Außerdem können mehr IP-Kameras in Positionen eingesetzt werden, in denen IP-Kameras im Gebiet nur so spärlich vorhanden sind, dass dem vorhandenen Modell Eingaben aus dem zuvor vorhandenen Netzwerk von IP-Kameras fehlen.
  • Nach jedem EB (und einigen Nicht-EB-„Ereignissen“) wird der Trainingsdatensatz angehängt, und die bereits vorhandene KI wird gemäß den neu verfügbaren Daten neu trainiert. Dies ändert die Parameterwerte der KI (,kalibriert' sie ,neu'). Jedoch bleiben die Modellarchitektur, ihre Eingabe und ihr Code gleich. Darüber hinaus kann dies automatisiert werden, damit es periodisch stattfindet.
  • Wie oben gesagt, befindet sich vor einem Erdbeben die Mehrzahl von IP-Kameras über einem bestimmten Gebiet oder Ort zur Überwachung oder meteorologischen Beobachtung. Videoströme und Koordinaten werden online über das Internet oder an ein zweckbestimmtes Netzwerk übermittelt. Die verschiedenen Ausführungsformen der Offenbarung werden durch Videoströme aus der Mehrzahl von IP-Kameras ermöglicht.
  • Mittels der hierin erörterten Konzepte erfolgt eine Nutzung der seismografischen und Intensitätsindikatoren, die bereits vor einem Auftreten eines Erdbebens vorhanden sind. Während eines Erdbebens können die Bilder, die von den IP-Kameras bereitgestellt werden, entkoppelt werden, und ein Computer-Visionsalgorithmus wird erzeugt. Ein Signal vom zweckbestimmten Netzwerk seismischer Sensoren wird durch ein Netzwerk künstlicher Intelligenz (KI) verarbeitet, das die Heuristik der Mercalli-Skala der Erdbebenintensitätsmessung übersetzt und verbessert.
  • Das KI-Modell kann trainiert oder zu einer neuen geschlossenen Videoüberwachung (closed-circuit television - CCTV) erweitert werden, um so eine Erkennungsfähigkeit von einer bereits vorhandenen CCTV auf die neue CCTV zu übertragen. Bei einer Ausführungsform kann es sein, dass eine einzelne Kamera, die schwarz wird, keine ausreichenden Informationen in Bezug auf die Erdbebenerkennung bereitstellt, da sie fehlerhaft funktionieren, deinstalliert sein könnte usw. Jedoch kann eine Mehrzahl von Kameras, die schwarz werden (z.B. in einer Stadt), während andere Kameras um den Ort herum bei einem EB-Ereignis aufnehmen, darauf hinweisen, dass ein EB stattgefunden hat, das vielleicht einen Stromausfall in der Stadt verursacht (und dadurch viele der Kameras ausschaltet). Bei einer Ausführungsform zeigt sogar ein Signalverlust (wenn er zeitlich und räumlich eng korreliert ist und andere funktionierende Kameras eine Erschütterung aufnehmen) ein Erdbeben an.
  • Die Erschütterung der Kamera genauso wie jedes Objekts in ihrem Blickfeld kann von der Gesamtfrequenz des Erdbebens leicht abweichen. Ein Algorithmus erkennt die anomale Erschütterung und die Magnitude der Erschütterung über ein Deep-Learning-System. Bei einer Ausführungsform dient eine Triangulation zwischen den Kameras dazu, ein Erschütterungsniveau zu erkennen. Die Triangulation wird vom KI-System impliziert gelernt. Das KI-System ist fähig, Eingaben von verschiedenen geografischen Orten in einem System in Beziehung zu setzen.
  • Man betrachte beispielsweise eine Bildfolge von IP-Kameras, die durch KI (z.B. durch ein tiefes neuronales Netz (DNN)) auf einen Einbettungsvektor abgebildet werden. Dieser Einbettungsvektor, der ein paar hundert Gleitkommazahlen umfassen kann, ist eine nichtlineare, niedrigdimensionale Speicherdarstellung dessen, was im Video vor sich geht. Diese Einbettungsvektoren (plus Breite/Länge) werden als gemeinsame (anschließende) Eingabe in die eigentliche EB-Erkennung zusammengeführt.
  • Da jedoch solche Kl-Systeme „Ende-zu-Ende“ gelernt sind, werden das eingebettete Lernen und die tatsächliche EB-Erkennung gemeinsam in einem KI-System zusammengeführt. Deshalb wird bei einer Ausführungsform kein expliziter Triangulationsalgorithmus verwendet. Das System lernt selbst aus den Einbettungsvektoren und der Breite und Länge. Das Modell setzt automatisch die Eingabe der IP-Kameras aus derselben Umgebung in Beziehung, wenn es an jenem ungefähren Ort auf ein EB-Ereignis rückschließt.
  • Seismische Netzwerke stellen die Bodenwahrheit (ground truth) der EB-Eigenschaften (Magnitude usw.) bereit, wie durch Y bezeichnet. Als Beispiel sei eine Videoaufnahme mit einer zeitlichen Dauer von 1 Minute während eines Erdbebens angenommen. Auf den Ort wird zu der Zeit t=30 Sekunden, dem Vektorwert Y +/- 10 Sekunden rückgeschlossen, die den Wert, die Magnitude, den Ort über eine Spektralzerlegung aneinanderreihen. Ein zweites Video wird darübergelegt, um X Tilde (X~) zu bestimmen. Es sei angemerkt, dass X die endogene Modelleingabe ist, d.h., die Videoeingabe X ist die originale Videoeingabe. Das X- ist eine abgeleitete Eingabe durch Berechnen der Spektralzerlegung entlang der Videobilder. Deshalb ermöglicht gerade die Hinzufügung von Merkmalen der Kl, ein Erdbeben genauer und schneller zu erkennen. Entsprechend wird die Variable X, wie hierin verwendet, als die gesamte Eingabe verstanden: rohe plus abgeleitete Merkmale, d.h. X := (X, X~).
  • Ein Rückschließen auf die Eigenschaften eines EB (Y) aus der Eingabe verschiedener Kameras (X) ist ein überwachtes Regressionsproblem mit einer nichtbeobachtbaren Funktion f, während X und Y beobachtet werden. Da jedoch die IP-Kameras gleich sind, wird das Modell auf dem zentralen Server neu kalibriert. Der zentrale Server hat ein Modell (f_Schätzung), das idealerweise die visuelle Eingabe mit einem EB-Ergebnis in Beziehung setzt, d.h. f_Schätzung(X) = Y_Schätzung. Nachdem ein EB aufgetreten ist (X und Y sind verfügbar), wird nahezu perfekt auf einen EB-Ort usw. rückgeschlossen, da Y wie vorliegend von einem seismischen Netzwerk stammt, und man kann (in Y zusammengefasst) den Modellfehler (Y_Schätzung - Y) bewerten. Dann kann der Server das Modell zu f_Schätzung_neu derart neu kalibrieren, so dass f_Schätzung_neu (X) sich Y stärker annähert. Die Erschütterung im Bild einer Kamera kann einfach ein verrauschter Schätzer der Stärke/des Ortes eines EB sein.
  • Seismische Sensoren sind zwar gut kalibriert, sind aber teuer, spärlich vorhanden und erfordern zusätzliches Wissen (z.B. über die geologischen Eigenschaften der Umgebung). In dieser Hinsicht sind IP-Kameras nicht nur ein verrauschter Schätzer seismischer Aktivitäten, sondern ein sehr lokaler, da nun Wissen außerhalb des Anzeigerahmens bereitgestellt wird. Außerdem sind IP-Kameras erheblich häufiger vorhanden. Je mehr Kameras eingesetzt werden, desto mehr Eingaben sind für eine KI verfügbar, die automatisch lernt, aus der verteilten visuellen Eingabe auf EB-Eigenschaften rückzuschließen.
  • Wie hierin verwendet, bezeichnet Spektralzerlegung vereinfachende spektral motivierte, feste Transformationen, die auf Kamerabilder angewandt werden, um das Eingangssignal zu verstärken. Es ist keine explizite physikalische Formulierung eingebettet. Bei einer Ausführungsform führt das KI-Modell keine physikalischen Manipulationen wie etwa eine seismische Inversion durch.
  • Bei einer Ausführungsform behandelt das KI-Modell die EB-Erkennung als ein Ende-zu-Ende-Regressionsproblem mit (z.B. verstärkter) Videoeingabe (X) und EB-Eigenschaften (Y). Kopplungskorrektur/Anomalieerkennung wie hierin definiert, bezieht sich auf die innere Funktionsweise moderner Kl, nicht explizit definierte/modulare Komponenten der Kl, wobei „X“ die endogene Modelleingabe ist, d.h. die Videoeingabe, und „Y“ die exogene Ausgabe ist (als Bodenwahrheit angegeben), d.h. die Eigenschaften des Erdbebens (Breite, Länge, Tiefe, Magnitude und Intensität). Kurz gesagt: bei einer Ausführungsform ist Y ein 5-dimensionaler Vektor.
  • Bei einer Ausführungsform wird Y durch ein Netzwerk seismischer Sensoren geschätzt, was Minuten dauern kann. Wenn das EB einsetzt, ist Y nicht verfügbar, da sich die seismischen Sensoren noch im Prozess der seismischen Inversion befinden, um Y zu erhalten. Jedoch kann die KI-Erdbebenanalytiksteuerkomponente eine Vermutung aus den Videoeingaben berechnen, was jenes Y (Eigenschaften des EB) sein könnte, und eine Warnung bereitstellen, wenn ein vorgegebener (Magnituden-)Schwellenwert als überschritten gilt.
  • Bei einer Ausführungsform wendet die Erdbebenanalytiksteuerkomponente Deep Learning über ein neuronales Faltungsnetzwerk an, um Erschütterungen herauszufiltern, was Y eine Selbstkalibrierung ermöglicht. Die Kamera hat ein bestimmtes Erschütterungsmuster. Zwar wird ein neuronales Faltungsnetzwerk als Beispiel angeführt, aber die Lehren hierin sind nicht darauf beschränkt.
  • Selbstkalibrierung bezeichnet nur einen Schritt des Neutrainierens des Modells, da die Bodenwahrheit Y des EB Stunden/Tage später genutzt und mit Y_Schätzung aus dem EQ-Modell verglichen wird, d.h., sie bezeichnet ein Anwenden eines stochastischen Gradientenabstiegs (stochastic gradient descent - SGD) auf die Daten mit einer neuen Beobachtung, nämlich X und Y des zuletzt beobachteten EB.
  • 1 veranschaulicht einen Ort 10 eines Erdbebens EB, das seismische Wellen SW1...SWn zu einer Bodenoberfläche 15 aussendet, auf der sich eine erste Struktur 21 und eine zweite Struktur 22 befinden.
  • Eine IP-Kamera 30 ist an der zweiten Struktur 22 in einer Höhe H über der Bodenoberfläche 20 montiert. Während des Erdbebens (EB) schwingt die IP-Kamera 20 senkrecht in Richtung des Doppelpfeils A-A, während die erste Struktur 21 senkrecht in Richtung des Doppelpfeils A'-A' schwingt, wodurch ein von der IP-Kamera 20 aufgenommenes verzerrtes Bild erzeugt wird.
  • Als eine sehr vereinfachte Veranschaulichung der Anwendung einer Kopplungskorrektur und der Erdbebenanalytiksteuerkomponente wird das verzerrte Bild, das von der IP-Kamera 20 gesendet wird, über den Algorithmus, der von der Erdbebenanalytiksteuerkomponente angewandt wird, einer Kopplungskorrektur unterzogen, was später detaillierter erörtert wird. Die IP-Kamera 20 hat ein Blickfeld 25, das die erste Struktur 21 umfasst. Während des Erdbebens EQ hat die erste Struktur 21 einen Geschwindigkeitsvektor VS in Richtung des Pfeils A'-A', während die IP-Kamera 20 einen Geschwindigkeitsvektor VC in Richtung des Pfeils A-A hat. Deshalb wird die Kopplungskorrektur angewandt, indem der Geschwindigkeitsvektor VC der Kamera vom Geschwindigkeitsvektor VS der Struktur subtrahiert wird, wobei eine Referenzebene wie etwa die Bodenoberfläche 15 am Ort 10 geschaffen wird. Jedes Pixel im Bild, das von der IP-Kamera 20 erfasst wird, hat üblicherweise seinen eigenen unterscheidbaren Geschwindigkeitsvektor aufgrund der Unterschiede in den Kräften, die vom EB ausgeübt werden. Unterschiede in der Winkelgeschwindigkeit und horizontale und schräge Schwingungen beeinflussen ebenfalls das Bild und die Kopplungskorrekturanforderungen. Solche Überlegungen können durch Deep Learning und das neuronale Faltungsnetzwerk oder alternative Techniken mit zusätzlicher Anwendung der Spektralzerlegung berücksichtigt werden. Die Spektralzerlegung ist eine Technik, die im Fachgebiet der seismischen Analyse insbesondere für Erdölbohrungen bekannt ist. Entsprechend ist der Prozess hierin in den Figuren nicht detaillierter grafisch veranschaulicht, da der Fachmann die Verarbeitung in Anbetracht der Offenbarung versteht.
  • 2 ist ein vereinfachter Prozessablaufplan für ein Erdbebenerkennungs- und -reaktionssystem 100 über eine verteilte visuelle Eingabe gemäß Ausführungsformen der Offenbarung.
  • 3 ist ein Prozessablaufplan eines Erdbebenerkennungs- und -reaktionssystems über eine verteilte visuelle Eingabe entsprechend einer veranschaulichten Ausführungsform. Eine Mehrzahl von IP-Kameras 20a...20n ist an einem Ort, der auf das Auftreten von Erdbeben überwacht werden soll, vor einem Erdbeben und vor der Installation der Ausführungsformen der Offenbarung vorpositioniert. Jedoch kann die Mehrzahl von IP-Kameras 20a...20n gleichzeitig mit oder nach der Installation einer Erdbebenanalytiksteuerkomponente/einem Server 110 (siehe 2) positioniert werden und dafür zweckbestimmt sein, einen Ort zu betrachten, der auf das Auftreten von Erdbeben überwacht werden soll. Tatsächlich gilt dieser Zeitpunkt des Positionierens der Erdbebenanalytiksteuerkomponente/des Servers 110 in Bezug auf Verbindungen zu externer Software und Hardware für verschiedenen Funktionen wie etwa ein Erdbebenwarnsystem, eine Katastrophenreaktionsverwaltung und das seismische Netzwerk, die in 2 und 3 veranschaulicht sind. Die Erdbebenanalytiksteuerkomponente/der Server 110 wird hierin als Erdbebenanalytiksteuerkomponente 110 bezeichnet.
  • Die Mehrzahl von IP-Kameras 20a...20n stehen in Verbindung mit dem Internet, der Cloud 102 und zusätzlich oder alternativ mit einem zweckbestimmten Netzwerk 104. Die IP-Kameras 20a...20n senden Bilddaten 40a...40n an die Internet-Cloud 102 oder an das zweckbestimmte Netzwerk 104. Die Internet-Cloud 102 oder das zweckbestimmte Netzwerk 104 sendet die entsprechenden Orte und Videoströme 40a'...40n' an die Erdbebenanalytiksteuerkomponente 110. Bei verschiedenen Ausführungsformen kann es sich bei der Erdbebenanalytiksteuerkomponente 110 um ein Softwarepaket handeln, das auf einem zweckbestimmten Server und/oder in der Cloud läuft. Die Erdbebenanalytiksteuerkomponente 110 führt eine Kopplungskorrektur 44 der Orte und Videoströme 40a'...40n' durch, um verarbeitete Videoströme 42a...42n für die entsprechenden Orte zu erzeugen, und wandelt die verarbeiteten Videoströme für die entsprechenden Orte 42a...42n in entsprechende numerische Indikatoren oder Maßzahlen 44a...44n für die Videoströme jeder entsprechenden Kamera und jedes entsprechenden Ortes um.
    Die Kopplungskorrektur 44 bezeichnet die Fähigkeit von Algorithmen der künstlichen Intelligenz (KI) (vor allem, aber nicht ausschließlich neuronale Faltungsnetzwerke), verschiedene Arten von Bildstörungen (zum Beispiel: Erschütterung, geänderte Perspektive usw.) für Bilderkennungsaufgaben (zum Beispiel Objekterkennung, Segmentierung usw.) herauszufiltern. Im überwachten Lernproblem des Rückschließens auf Erdbebeneigenschaften aus verteilten visuellen Eingaben passen sich Faltungen im Modelltrainingsprozess an, um wirksam solche Störungen herauszufiltern, und lernen einen niedrigerdimensionalen Einbettungsvektor, der für Bildstörungen wie etwa eine Erschütterung der Kamera annähernd invariant ist. Da Internet-Protocol- (IP-)Kameras (normalerweise fest) außen oder innen an einem Gebäude befestigt sind, ist die Amplitude ihrer Erschütterung im Zeitverlauf ziemlich konstant während eines Erdbebenereignisses, während (nichtbefestigte) Objekte im Bild mit verschiedenem Gewicht, verschiedener Robustheit und Festigkeit in variierendem Ausmaß erschüttert werden, und verschiedene Kl-Algorithmen finden es leicht, die Erschütterung der Kamera selbst von der Auswirkung des Erdbebens auf die Objekte im Bild automatisch zu entkoppeln. Es sei jedoch darauf hingewiesen, dass diese Kopplungskorrektur nicht exakt ist, d.h. nicht von jedem Objekt ist die Bewegung im Bild vollständig nachverfolgbar. Jedoch ist dies ohnehin nicht das Ziel oder die Funktion dieses Systems, da es N Kameraeingaben braucht, um auf mehrere wichtige Erdbebeneigenschaften nur rückzuschließen. Für diese Aufgabe genügt die (ungefähre) Kopplungskorrektur, um aus der verteilten visuellen Eingabe zuverlässig auf das Erdbebenereignis rückzuschließen.
  • Wie oben in Bezug auf 1 angegeben, wird die Kopplungskorrektur 44 angewandt, um eine Kopplung der Mehrzahl von Kameras 20, 20a...20n und der von der Mehrzahl von Kameras abgebildeten Szene für eine genauere Bewertung der seismischen Energie zu korrigieren. Die Kopplungskorrektur 44 wird angewandt, indem Geschwindigkeitsvektoren VC der Kamera von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden. Zur Durchführung der Kopplungskorrektur werden Anwendungen wie etwa neuronale Faltungsnetzwerke und Spektralzerlegung angewandt. Die Spektralzerlegung umfasst eine Spektralanalyse der Änderung der Pixel im Zeitverlauf für einen bestimmten Videostrom. Durch Phasenverzögerung, Frequenzverschiebung und Amplitude wird ein Entkoppeln der Spektren der Pixel in zwei separate Gruppen durchgeführt: die Szene, die von Betrachter, d.h. der Kamera, abgebildet wird, und die Kamera selbst.
  • Jede Bezugnahme auf spektral hierin bezeichnet einfach eine festgelegte vorgeschlagene feste Transformation eines Eingabevideos (eines Bildes), um die visuelle Eingabe für die Kl, der sie anschließend zugeführt wird, zu verstärken, und stellt somit pixelweise Änderungen dar, wie hierin in der Offenbarung angewandt.
  • Die verarbeiteten Videoströme 42a...42n und Maßzahlen 44a...44n werden dann durch die Erdbebenanalytiksteuerkomponente 110 einer Anomalieerkennung 46 unterzogen. Wenn eine oder mehrere Anomalien erkannt werden, führt die Erdbebenanalytiksteuerkomponente 110 die Funktionen der Erdbebenerkennung 120 und Datenspeicherung 130 durch, und die Erdbebenanalytiksteuerkomponente 110 tritt intern in einen Betriebsmodus des Auftretens eines Erdbebens. Das Erdbebenerkennungssystem 120 führt über die Erdbebenanalytiksteuerkomponente 110 dann eine seismische Inversion 122 für die Magnitude, den Ort und die Tiefe und eine Intensitätsmessung 124 durch, um die Schwere des Erdbebens EB und die Intensität des durch das Erdbeben EQ verursachten Schadens zu bewerten.
  • Es ist wichtig zu erkennen, dass das hierin beschriebene Erdbebenerkennungs- und -reaktionssystem 100 Merkmale umfasst, die effektiv Teilsysteme sind, deren Funktionen durch die Erdbebenanalytiksteuerkomponente 110 ausgeführt werden. Deshalb wird beispielsweise das Erdbebenerkennungssystem 120 als System bezeichnet, kann aber in der Realität als Teilsystem eines gesamten Erdbebenerkennungs- und -reaktionssystems 100 betrachtet werden. Sonstige Funktionen wie etwa beispielsweise die seismische Inversion 122 und die Intensitätsmessung 124 können ebenfalls als Teilsysteme des Erdbebenerkennungs- und -reaktionssystems 100 betrachtet werden.
  • Die Analyseergebnisse sowohl der seismischen Inversion 122 als auch der Intensitätsmessung 124 werden an ein Erdbebenfrühwarn- oder -reaktionssystem 140, ein Reaktionsverwaltungssystem 150 und an ein vorhandenes seismografisches Netzwerk 160 weitergeleitet. Die Videoströme 126 und Erdbebenindikatorwerte 128 werden ebenfalls aus dem Datenspeicher 130 an das Erdbebenfrühwarn- oder -reaktionssystem 140, das Reaktionsverwaltungssystem 150 und an das vorhandenes seismografisches Netzwerk 160 weitergeleitet.
  • Im Anschluss an das Erdbeben leitet das vorhandene seismografische Netzwerk 160 die seismografische Analytik 48 an die Erdbebenanalytiksteuerkomponente 110 für eine Neukalibrierungsverarbeitung 170 weiter, die wiederum die neukalibrierte Analytik 50 an das Erdbebenerkennungssystem 120 und an die Anomalieerkennung 46 weiterleitet, um eine Korrektur für bevorstehende Nachbeben und zukünftige Erdbeben vorzunehmen.
  • Beispielarchitektur
  • 4 bis 10 sind kombinierte Blockschaubilder eines Verfahrens des Erdbebenerkennungs- und -reaktionssystems 100 über eine verteilte visuelle Eingabe entsprechend einer veranschaulichten Ausführungsform für die Zustände vor, während und nach einem Erdbeben. Insbesondere ist 4 ein kombiniertes Blockschaubild für die Zustände vor einem Erdbeben vor der Aktivierung des Erdbebenerkennungs- und - reaktionssystems 100 über eine verteilte visuelle Eingabe gemäß Ausführungsformen der Offenbarung, wobei sich vor einem Erdbeben EB die Mehrzahl von IP-Kameras 20a...20n zur Überwachung oder meteorologischen Beobachtung über einem bestimmten Gebiet oder Ort L befindet und Bilddaten 40a...40n an die Internet-Cloud 102 oder an das zweckbestimmte Netzwerk 104 sendet. Die Videoströme und Koordinaten der Kameraorte 42a...42n werden online über das Internet 102 oder durch das zweckbestimmte Netzwerk 104 übermittelt, im Allgemeinen ohne direkte Gebühr für die Öffentlichkeit. Die verschiedenen Ausführungsformen der Offenbarung werden durch die Videoströme der Orte 42a...42n aus der Mehrzahl von IP-Kameras 20a...20n ermöglicht. Die Orte der verschiedenen bereits vorhandenen Kameras entsprechen annähernd einer möglichen Spannbreite des Erdbebenerkennungssystems 100 über eine verteilte visuelle Eingabe. Für praktische Zwecke kann auf ein Erdbeben EB rückgeschlossen werden, wenn sein Ort innerhalb eines solches Netzwerks von IP-Kameras (nicht weit außerhalb des Netzwerks von IP-Kameras 20a...20n) liegt. Je dichter ein Gebiet mit IP-Kameras bestückt ist, desto zuverlässiger werden die rückgeschlossenen Eigenschaften eines Erdbebenereignisses sein. Ungeachtet dessen gibt es keinen erforderlichen Schwellenwert für die Anzahl von Kameras oder die Kameradichte in einem Gebiet, um eine sinnvolle Erdbebenerkennung über eine verteilte Eingabe zu ermöglichen. Deshalb kann das zuvor trainierte EB-Erkennungssystem (von einem Gebiet auf dem Globus) genutzt werden, um auf ein Erdbebenereignis von einer einzelnen IP-Kameras auf der anderen Seite der Welt rückzuschließen - auch wenn dies alles andere als ideal ist, da die Erdbebeneigenschaften nur grob geschätzt werden.
  • Darüber hinaus spielt eine feste räumliche Auflösung keine Rolle. Ein System von IP-Kameras kann eine Stadt, ein Land/eine Provinz, eine gesamte Nation oder den Globus umspannen. 4 und 5 stellen einen Teilsatz der IP-Kameras dar, für die ein Erdbebenereignis EB durch das Erdbebenerkennungssystem 120 erkannt wurde. Die gezeigten Bilder zeigen ein beschädigtes Gebiet in derselben Umgebung (obwohl die Eingabe von jeder IP \ vom EB-Erkennungssystem 120 berücksichtigt wird).
  • Auf ähnliche Weise wie 4 veranschaulicht 5 ein Auftreten eines Erdbebens EB, wobei die Erdbebenanalytiksteuerkomponente 110 eine anomale Erschütterung über die Mehrzahl von Kameras 20a...20n hinweg erkennt, die eine verteilte visuelle Eingabe des Ortes L bereitstellen. Die Videoströme 42a0...42n0 stellen die visuelle Eingabe am Ort L zur Zeit t0 dar, während die Videoströme 42a1...42n1 die visuelle Eingabe am Ort L zur Zeit t1 darstellen.
  • 6 ist ein konzeptuelles Blockschaubild einer Korrektur pixelweiser Änderungen in einem Bild während eines Auftretens eines Erdbebens entsprechend einer veranschaulichten Ausführungsform. Während des Auftretens eines Erdbebens EB korrigiert die Erdbebenanalytiksteuerkomponente 110 beispielsweise die Kopplung (Bezeichnung 44) der pixelweisen Änderungen natürlicher Objekte oder künstlicher Objekte oder sowohl natürlicher als auch künstlicher Objekte in dem mindestens einen Bild 42a1...42n1 gegenüber pixelweisen Änderungen, die durch die Erschütterung der mindestens einen der Mehrzahl von Kameras 20a...20n herbeigeführt wurden, um Indikatoren 44a...44n zu erhalten, die als Bilder 46a...46n an die Anomalieerkennung 46 weitergeleitet werden.
  • Nun wird auf 7 Bezug genommen, das ein konzeptuelles Blockschaubild eines Rückschließens auf eine Magnitude, einen Ort und eine Tiefe eines Erdbebens EB über seismische Inversion entsprechend einer veranschaulichenden Ausführungsform ist. Bei einer Ausführungsform wird in Bezug auf die Anomalieerkennung 46 die Kopplungskorrektur 44, die durch die Erdbebenanalytiksteuerkomponente 110 durchgeführt wird, ferner ein Entkoppeln der Spektralanalyse im Zeitverlauf der pixelweisen Änderungen durch Phasenverzögerung, Frequenzverschiebung und Amplitude in eine erste Gruppe, die eine Szene auf dem mindestens einen Bild 40a...40n repräsentiert, und in eine zweite Gruppe, die die mindestens eine der Mehrzahl von Kameras 20a...20n repräsentiert, umfassen.
  • Ein Entkoppeln der Spektralanalyse im Zeitverlauf bezeichnet das Übertragen des Lernens, nämlich, dass ein Satz von IP-Kameras 20a...20n mit einer trainierten KI vorliegt und die trainierte KI auf einen neuen Satz von IP-Kameras angewandt wird (d.h. in einem völlig anderen Gebiet der Welt). Das Modell aus dem ersten Gebiet (mit der ersten ,Gruppe' von Kameras) könnte im neuen Gebiet (das eine zweite ,Gruppe' von IP-Kameras hat) genutzt werden. Jedoch wird das Modell neu trainiert (d.h. nachdem EB-Ereignisse aufgetreten sind).
  • Die Phasenverzögerung (in Sekunden) wie hierin definiert ist die Zeitverzögerung zwischen den maximalen Pixelwerten (die auf jede Pixelstelle in einem vordefinierten Video angewandt wird). Die Amplitude wie hierin definiert ist der maximale Wert einer Pixelstelle über die Gesamtheit des Eingabevideos hinweg.
  • Bei einer Ausführungsform bezüglich der Anomalieerkennung 46 kann die Erdbebenanalytiksteuerkomponente 110 ferner ein Extrahieren und Aggregieren lokaler Näherungen der Phasenverzögerung, Frequenzverschiebung und Amplitude umfassen, um zumindest auf die Magnitude 122 und die Intensität 124 des Erdbebens EB rückzuschließen. Weiter bezüglich der Anomalieerkennung 46 kann die Erdbebenanalytiksteuerkomponente 110 ferner ein Rückschließen auf den Ort und die Tiefe 122 des Erdbebens EB umfassen. Die Anomalieerkennung 46 genau wie die Entkopplungskorrektur 44 wird vom Modell implizit gelernt. Auf dieselbe Weise, wie die verteilte Eingabe X und X~ dazu dient, die Erdbebeneigenschaften Y im Fall eines Erdbebenereignisses zu lernen, schließt das Modell jederzeit durch die visuellen Eingabe X und X~ auf das Nichtvorhandensein eines Erdbebens durch eine Schätzung von Y (Magnitude 0, Tiefe 0, beliebige Breite, Länge). Deshalb bezieht sich die Anomalieerkennung 46 nur auf das Vorhandensein ungewöhnlicher Werte der jeweiligen Merkmale. Anders als bei seismischen Sensoren gibt es keine physikalische Ableitung beteiligter Merkmale (Geschwindigkeitsvektoren usw.), da die visuellen Eingaben aus den IP-Kameras 20a...20n in Verbindung mit ihren Orten Ende zu Ende gelernt werden, um auf das Vorhandensein/Nichtvorhandensein eines Erdbebens zu schließen.
  • 9 ist ein konzeptuelles Blockschaubild einer Bewertung einer Intensität eines Erdbebens (EB) nach einem Erdbeben entsprechend einer veranschaulichten Ausführungsform. Beispielsweise speichert die Erdbebenanalytiksteuerkomponente 110 nach einem Erdbeben (EB) die Indikatoren 122 als wichtige Videoströme 126 und Erdbebenindikatorwerte 128 von der Magnitude und/oder dem Ort und/oder der Tiefe des Erdbebens EB und die Bewertung der Erdbebenintensität 124 (siehe 2 und 3).
  • 10 ist ein konzeptuelles Blockschaubild einer Verfeinerung einer Kalibrierung (siehe 2 und 3 Neukalibrierungsverarbeitung 170 und neukalibrierte Analytik 50) einer Mehrzahl von Kameras 20a...20n über Daten externer seismischer Sensoren und zusätzliche Bewertung der Erdbebenintensität entsprechend einer veranschaulichten Ausführungsform. Beispielsweise bewahrt die Erdbebenanalytiksteuerkomponente 110 nach einem Erdbeben die KI-Modellarchitekturen und visuellen Eingaben in einem festen Zustand. Jedoch bewirkt die Erdbebenanalytiksteuerkomponente 110 dann, dass die Parameter des Kl-Modells durch einen Neutrainingsschritt, d.h. die Neukalibrierungsverarbeitung 170, neu bewertet werden. Dabei wird an die vorherigen, historischen Aufzeichnungen der visuellen Eingabe und der Eigenschaften von Erdbebenereignissen nun das neue Paar aus visueller Eingabe und Erdbebeneigenschaften angefügt. Dieser Schritt des Neutrainierens des KI-Modells kann periodisch erfolgen und automatisch mit einer festgelegten Periodizität (z.B. täglich, wöchentlich, monatlich) erfolgen. Die historische Aufzeichnung umfasst nicht nur Erdbebenereignisse, sondern Nichterdbebenereignisse (mit einem Magnitudenwert 0, einem Intensitätswert 0 und einer beliebigen Breite/Lände), so dass das Erdbebenerkennungssystem 120 in der Lage ist, zwischen Erdbeben- und Nichterdbebenereignissen für verschiedene Arten verteilter visueller Eingabe zu unterscheiden.
  • Beispielhafte Computer-Plattform
  • Wie oben erörtert können Funktionen zum Erkennen einer anomalen Erschütterung während eines Erdbebens über eine Mehrzahl von Internet-Protocol- (IP-) Kameras hinweg, die eine verteilte Eingabe eines Ortes über eine Verbindung mit einer Cloud oder einem zweckbestimmten Netzwerk bereitstellen, wie in 1 bis 10 gezeigt, unter Nutzung einer oder mehrerer Datenverarbeitungseinheiten, die über eine drahtlose oder drahtgebundene Datenübertragung zur Datenübertragung verbunden sind, durchgeführt werden. 11 ist eine Veranschaulichung eines funktionellen Blockschaubildes einer Computerhardware-Plattform, die mit mehreren vernetzten Komponenten Daten austauschen kann, wie etwa mit vernetzten IP-Kameras, der Cloud usw. Insbesondere veranschaulicht 11 ein Netzwerk oder eine Host-Computerplattform 1100, wie sie zur Realisierung eines Servers wie etwa der Erdbebenanalytiksteuerkomponente 110 von 2 eingesetzt werden kann.
  • Die Computerplattform 1100 kann eine Zentraleinheit (CPU) 1104, ein Festplattenlaufwerk (HDD) 1106, einen Direktzugriffsspeicher (RAM) und/oder einen Nur-Lese-Speicher (ROM) 1108, eine Tastatur 1110, eine Maus 1112, eine Anzeige 1114 und eine Datenübertragungsschnittstelle 1116 umfassen, die mit einem Systembus 1102 verbunden sind.
  • Bei einer Ausführungsform hat die HDD 1106 Fähigkeiten, die das Speichern eines Programms einschließen, das verschiedene Prozesse wie etwa die Erdbebenanalytiksteuerkomponente 1140 auf eine hierin beschriebene Weise ausführen kann. Die Erdbebenanalytiksteuerkomponente 1140 kann verschiedene Module haben, die so konfiguriert sind, dass sie verschiedene Funktionen ausführen. Beispielsweise kann ein Kopplungskorrekturmodul 1142 vorliegen, das angewandt wird, um Geschwindigkeitsvektoren einer Kamera von den Geschwindigkeitsvektoren von Pixeln zu subtrahieren, die die visuelle Eingabe für das von der Kamera angezeigte Bild definieren. Die Kopplungskorrektur kann über ein neuronales Faltungsnetzwerk und eine Spektralzerlegung erfolgen, die vom Kopplungskorrekturmodul 1142 ausgeführt werden.
  • Es kann ein Videoverarbeitungs- und Indikatormodul 1144 vorliegen, das die Videoströme verarbeitet, die der Kopplungskorrektur unterzogen wurden, und die kopplungskorrigierten Videoströme in Indikatoren der Bewegung umwandelt, die an dem Ort und zu der Zeit jedes einzelnen Bildes in den Videoströmen aufgetreten ist.
  • Es kann ein Anomalieerkennungsmodul 1146 vorhanden sein, das die verarbeiteten Videoströme und Indikatoren analysiert, um das Auftreten einer anomalen Bewegung der von den Kameras abgebildeten Struktur oder Strukturen festzustellen. Eine solche anomale Bewegung wird dann durch das Modul 1146 als Anomalie erkannt.
  • Es kann ein Erdbebenerkennungsmodul 1148 vorhanden sein, das die eine oder mehreren Anomalien, die vom Anomalieerkennungsmodul empfangen wurden, verarbeitet und eine seismische Inversion und Intensitätsbewertung durchführt.
  • Es kann ein Modul für seismische Inversion und Intensitätsbewertung 1150 vorhanden sein, das die Magnitude, den Ort und die Tiefe des Erdbebens berechnet und eine Intensitätsbewertung durchführt. Diese Informationen werden dann an ein Erdbebenfrühwarnsystem und eine Katastrophenreaktionsverwaltung übertragen.
  • Es kann ein Datenspeichermodul 1152 vorhanden sein, das Anomalien speichert, die vom Anomalieerkennungsmodul 1146 erkannt und empfangen wurden.
  • Es kann ein Modul für wichtige Videoströme und Erdbebenindikatorwerte 1154 vorhanden sein, das Videoströme und Erdbebenindikatoren höherer Priorität vom Datenspeichermodul 1152 empfängt und dann die Videoströme und Indikatorwerte an das Erdbebenfrühwarnsystem oder die Katastrophenreaktionsverwaltung überträgt.
  • Es kann ein Modul eines vorhandenen seismografischen Netzwerks 1156 vorhanden sein, das Daten aus dem Modul für seismische Inversion und Intensitätsbewertung 1150 und aus dem Modul für wichtige Videoströme und Erdbebenindikatorwerte 1154 empfängt, das die Daten für eine Neukalibrierung nach dem Erdbeben weiterleiten kann.
  • Es kann ein Neukalibrierungsmodul 1158 vorhanden sein, das die Daten aus dem Modul für seismische Inversion und Intensitätsbewertung 1150 und aus dem Modul für wichtige Videoströme und Erdbebenindikatorwerte 1154 neu kalibriert und dann die Ergebnisse an das Anomalieerkennungsmodul 1146 und an das Erdbebenerkennungsmodul 1148 weiterleitet, um die Genauigkeit für bevorstehende Nachbeben und zukünftige Erdbeben zu verbessern.
  • Beispielhafte Cloud-Plattform
  • Wie oben erörtert, können Funktionen zur Erdbebenerkennung und Reaktion über eine verteilte visuelle Eingabe eine Cloud 102 oder ein Netzwerk 104 umfassen (siehe 2). Es sei von vornherein klargestellt, dass das Umsetzen der hierin angeführten Lehren nicht auf eine Cloud-Computing-Umgebung beschränkt ist, obwohl diese Offenbarung eine ausführliche Beschreibung von Cloud-Computing enthält. Stattdessen können Ausführungsformen der vorliegenden Offenbarung gemeinsam mit jeder beliebigen Art von jetzt bekannter oder später erfundener Datenverarbeitungsumgebung umgesetzt werden.
  • Cloud-Computing ist ein Servicebereitstellungsmodell zum Ermöglichen eines problemlosen bedarfsgesteuerten Netzwerkzugriffs auf einen gemeinsam genutzten Pool von konfigurierbaren Datenverarbeitungsressourcen (z.B. Netzwerke, Netzwerkbandbreite, Server, Verarbeitung, Hauptspeicher, Speicher, Anwendungen, virtuelle Maschinen und Dienste), die mit minimalem Verwaltungsaufwand bzw. minimaler Interaktion mit einem Anbieter des Service schnell bereitgestellt und freigegeben werden können. Dieses Cloud-Modell kann mindestens fünf Eigenschaften enthalten, mindestens drei Dienstmodelle und mindestens vier Implementierungsmodelle.
  • Bei den Eigenschaften handelt es sich um die Folgenden:
    • On-Demand Self-Service: Ein Cloud-Nutzer kann einseitig automatisch nach Bedarf für Datenverarbeitungsfunktionen wie Serverzeit und Netzwerkspeicher sorgen, ohne dass eine menschliche Interaktion mit dem Anbieter der Dienste erforderlich ist.
  • Broad Network Access: Es sind Funktionen über ein Netzwerk verfügbar, auf die durch Standardmechanismen zugegriffen wird, welche die Verwendung durch heterogene Thin- oder Thick-Client-Plattformen (z.B. Mobiltelefone, Laptops und PDAs) unterstützen.
  • Resource-Pooling: Die Datenverarbeitungsressourcen des Anbieters werden zusammengeschlossen, um mehreren Nutzern unter Verwendung eines Multi-Tenant-Modells zu dienen, wobei verschiedene physische und virtuelle Ressourcen dynamisch nach Bedarf zugewiesen und neu zugewiesen werden. Es gibt eine gefühlte Standortunabhängigkeit, da der Nutzer allgemein keine Kontrolle bzw. Kenntnis über den genauen Standort der bereitgestellten Ressourcen hat, aber in der Lage sein kann, einen Standort auf einer höheren Abstraktionsebene festzulegen (z.B. Land, Staat oder Rechenzentrum).
  • Rapid Elasticity: Funktionen können für eine schnelle horizontale Skalierung (scale out) schnell und elastisch bereitgestellt werden, in einigen Fällen auch automatisch, und für ein schnelles Scale-in schnell freigegeben werden. Für den Nutzer erscheinen die für das Bereitstellen verfügbaren Funktionen häufig unbegrenzt und sie können jederzeit in jeder beliebigen Menge gekauft werden.
  • Measured Service: Cloud-Systeme steuern und optimieren die Verwendung von Ressourcen automatisch, indem sie eine Messfunktion auf einer gewissen Abstraktionsebene nutzen, die für die Art von Dienst geeignet ist (z.B. Speicher, Verarbeitung, Bandbreite sowie aktive Benutzerkonten). Die Nutzung von Ressourcen kann überwacht, gesteuert und gemeldet werden, wodurch sowohl für den Anbieter als auch für den Nutzer des verwendeten Dienstes Transparenz geschaffen wird.
  • Bei den Dienstmodellen handelt es sich um die Folgenden:
    • Software as a Service (SaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, die in einer Cloud-Infrastruktur laufenden Anwendungen des Anbieters zu verwenden. Die Anwendungen sind über eine Thin-Client-Schnittstelle wie einen Web-Browser (z.B. auf dem Web beruhende E-Mail) von verschiedenen Client-Einheiten her zugänglich. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter das Netzwerk, Server, Betriebssysteme, Speicher bzw. sogar einzelne Anwendungsfunktionen, mit der möglichen Ausnahme von eingeschränkten benutzerspezifischen Anwendungskonfigurationseinstellungen.
  • Platform as a Service (PaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, durch einen Nutzer erstellte bzw. erhaltene Anwendungen, die unter Verwendung von durch den Anbieter unterstützten Programmiersprachen und Tools erstellt wurden, in der Cloud-Infrastruktur einzusetzen. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter Netzwerke, Server, Betriebssysteme bzw. Speicher, hat aber die Kontrolle über die eingesetzten Anwendungen und möglicherweise über Konfigurationen des Application Hosting Environment.
  • Infrastructure as a Service (laaS): Die dem Nutzer bereitgestellte Funktion besteht darin, das Verarbeiten, Speicher, Netzwerke und andere grundlegende Datenverarbeitungsressourcen bereitzustellen, wobei der Nutzer in der Lage ist, beliebige Software einzusetzen und auszuführen, zu der Betriebssysteme und Anwendungen gehören können. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, hat aber die Kontrolle über Betriebssysteme, Speicher, eingesetzte Anwendungen und möglicherweise eine eingeschränkte Kontrolle über ausgewählte Netzwerkkomponenten (z.B. Host-Firewalls).
  • Bei den Einsatzmodellen handelt es sich um die Folgenden:
    • Private Cloud: Die Cloud-Infrastruktur wird einzig und allein für eine Organisation betrieben. Sie kann durch die Organisation oder einen Dritten verwaltet werden und kann sich in den eigenen Räumen oder in fremden Räumen befinden.
  • Community Cloud: Die Cloud-Infrastruktur wird von mehreren Organisationen gemeinsam genutzt und unterstützt eine spezielle Benutzergemeinschaft, die gemeinsame Angelegenheiten hat (z.B. Mission, Sicherheitsanforderungen, Richtlinien sowie Überlegungen bezüglich der Einhaltung von Vorschriften). Sie kann durch die Organisationen oder einen Dritten verwaltet werden und kann in den eigenen Räumen oder fremden Räumen stehen.
  • Public Cloud: Die Cloud-Infrastruktur wird der allgemeinen Öffentlichkeit oder einer großen Industriegruppe zur Verfügung gestellt und sie gehört einer Cloud-Dienste verkaufenden Organisation.
  • Hybrid Cloud: Die Cloud-Infrastruktur ist eine Zusammensetzung aus zwei oder mehreren Clouds (privat, Benutzergemeinschaft oder öffentlich), die zwar einzelne Einheiten bleiben, aber durch eine standardisierte oder proprietäre Technologie miteinander verbunden sind, die Daten- und Anwendungsportierbarkeit ermöglicht (z.B. Cloud-Zielgruppenverteilung für den Lastenausgleich zwischen Clouds).
  • Eine Cloud-Computing-Umgebung ist dienstorientiert mit Fokus auf Statusunabhängigkeit, geringer Kopplung, Modularität und semantischer Interoperabilität. Im Herzen von Cloud-Computing liegt eine Infrastruktur, die ein Netzwerk aus zusammengeschalteten Knoten umfasst.
  • Nun unter Bezugnahme auf 12 ist eine veranschaulichende Cloud-Computing-Umgebung 1200 abgebildet. Wie gezeigt ist, umfasst die Cloud-Computing-Umgebung 1200 einen oder mehrere Cloud-Computing-Knoten 1210, mit denen von Cloud-Nutzern verwendete lokale Datenverarbeitungseinheiten wie der elektronische Assistent (PDA, personal digital assistant) oder das Mobiltelefon 1254A, der Desktop-Computer 1254B, der Laptop-Computer 1254C und/oder das Automobil-Computer-System 1254N Daten austauschen können. Die Knoten 1210 können miteinander Daten austauschen. Sie können physisch oder virtuell in ein oder mehrere Netzwerke wie private, Benutzergemeinschafts-, öffentliche oder hybride Clouds gruppiert werden (nicht gezeigt), wie vorstehend beschrieben wurde, oder in eine Kombination daraus. Dies ermöglicht es der Cloud-Computing-Umgebung 1250, Infrastruktur, Plattformen und/oder Software als Dienste anzubieten, für die ein Cloud-Nutzer keine Ressourcen auf einer lokalen Datenverarbeitungseinheit vorhalten muss. Es versteht sich, dass die Arten von in 12 gezeigten Datenverarbeitungseinheiten 1254A bis N lediglich veranschaulichend sein sollen und dass die Datenverarbeitungsknoten 1210 und die Cloud-Computing-Umgebung 1250 über eine beliebige Art Netzwerk und/oder über eine beliebige Art von über ein Netzwerk aufrufbarer Verbindung (z.B. unter Verwendung eines Web-Browsers) mit einer beliebigen Art von computergestützter Einheit Daten austauschen können.
  • Nun unter Bezugnahme auf 13 wird ein Satz von funktionalen Abstraktionsschichten gezeigt, die durch die Cloud-Computing-Umgebung 1250 (12) bereitgestellt werden. Es sollte von vornherein klar sein, dass die in 13 gezeigten Komponenten, Schichten und Funktionen lediglich veranschaulichend sein sollen und Ausführungsformen der Erfindung nicht darauf beschränkt sind. Wie dargestellt ist, werden die folgenden Schichten und entsprechenden Funktionen bereitgestellt:
  • Eine Hardware- und Software-Schicht 1360 enthält Hardware- und Software-Komponenten. Zu Beispielen für Hardware-Komponenten gehören: Mainframe-Computer 1361; auf der RISC- (Reduced Instruction Set Computer) Architektur beruhende Server 1362; Server 1363; Blade-Server 1364; Speichereinheiten 1365; und Netzwerke sowie Netzwerkkomponenten 1366. Bei einigen Ausführungsformen beinhalten Software-Komponenten eine Netzwerk-Anwendungsserver-Software 1367 und eine Datenbank-Software 1368.
  • Die Virtualisierungsschicht 1370 stellt eine Abstraktionsschicht bereit, aus der die folgenden Beispiele für virtuelle Einheiten bereitgestellt werden können: virtuelle Server 1371, virtueller Speicher 1372, virtuelle Netzwerke 1373, darunter virtuelle private Netzwerke, virtuelle Anwendungen und Betriebssysteme 1374; und virtuelle Clients 1375.
  • In einem Beispiel kann die Verwaltungsschicht 1380 die nachfolgend beschriebenen Funktionen bereitstellen. Eine Ressourcen-Bereitstellung 1381 stellt die dynamische Beschaffung von Datenverarbeitungsressourcen sowie anderen Ressourcen bereit, die zum Durchführen von Aufgaben innerhalb der Cloud-Computing-Umgebung verwendet werden. Ein Messen und eine Preisfindung 1382 stellen die Kostenverfolgung beim Verwenden von Ressourcen innerhalb der Cloud-Computing-Umgebung sowie die Abrechnung oder Rechnungsstellung für die Inanspruchnahme dieser Ressourcen bereit. In einem Beispiel können diese Ressourcen Anwendungs-Software-Lizenzen umfassen. Die Sicherheit stellt die Identitätsüberprüfung für Cloud-Nutzer und Aufgaben sowie Schutz für Daten und andere Ressourcen bereit. Ein Benutzerportal 1383 stellt Nutzern und Systemadministratoren den Zugang zu der Cloud-Computing-Umgebung bereit. Eine Verwaltung des Dienstumfangs 1384 stellt die Zuordnung und Verwaltung von Cloud-Computing-Ressourcen bereit, so dass die benötigten Dienstziele erreicht werden. Ein Planen und Erfüllen von Vereinbarungen zum Dienstumfang (SLA, Service Level Agreement) 1385 stellt die Anordnung vorab und die Beschaffung von Cloud-Computing-Ressourcen, für die eine zukünftige Anforderung vorausgesehen wird, gemäß einem SLA bereit.
  • Eine Arbeitslastschicht 1390 stellt Beispiele für die Funktionalität bereit, für welche die Cloud-Computing-Umgebung verwendet werden kann. Zu Beispielen für Arbeitslasten und Funktionen, die von dieser Schicht bereitgestellt werden können, gehören: Abbildung und Navigation 1391; Software-Entwicklung und Lebenszyklusverwaltung 1392; Bereitstellung von Ausbildung in virtuellen Klassenzimmern 1393; Datenanalytikverarbeitung 1394; Transaktionsverarbeitung 1395; und Erdbebenanalytiksteuerkomponente wie hierin erörtert.
  • Schluss
  • Die Beschreibungen der verschiedenen Ausführungsformen der vorliegenden Lehren wurden für Veranschaulichungszwecke dargestellt, sollen aber nicht erschöpfend oder auf die offenbarten Ausführungsformen beschränkt sein. Viele Modifikationen und Variationen werden für den Fachmann offensichtlich sein, ohne vom Umfang und Geist der beschriebenen Ausführungsformen abzuweichen. Die hier verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung oder technische Verbesserung gegenüber am Markt befindlichen Technologien am besten zu erläutern oder Fachleute zu befähigen, die hier offenbarten Ausführungsformen zu verstehen.
  • Zwar wurden in den obigen Ausführungen der angenommen beste Zustand und/oder sonstige Beispiele beschrieben, doch versteht es sich, dass verschiedene Modifikation darin vorgenommen werden können und der hierin offenbarte Gegenstand in verschiedenen Formen und Beispielen realisiert werden kann und dass die Lehren in verschiedenen Anwendungen, von denen nur einige hierin beschrieben wurden, angewandt werden können. Durch die folgenden Ansprüche ist beabsichtigt, jedwede Anwendungen, Modifikation und Variationen, die innerhalb des wahren Umfangs der vorliegenden Lehren fallen, zu beanspruchen.
  • Die Komponenten, Schritte, Merkmale, Objekte, Vorzüge und Vorteile, die hierin erörtert wurden, sind nur veranschaulichend. Keine davon, noch die Erörterungen im Zusammenhang damit sollen den Schutzumfang einschränken. Es wurden zwar verschiedene Vorteile hierin erörtert, doch versteht es sich, dass nicht alle Ausführungsformen zwangsläufig alle Vorteile umfassen. Sofern nicht anders angegeben, sind alle Messungen, Werte, Bewertungen, Positionen, Magnituden, Größen und sonstige Spezifikationen, die in dieser Spezifikation einschließlich der folgenden Ansprüche dargelegt sind, annähernd, nicht genau. Für sie ist ein angemessener Bereich vorgesehen, der den damit zusammenhängenden Funktionen und dem Üblichen in dem Fachgebiet, zu dem sie gehören, entspricht.
  • Es werden auch zahlreiche andere Ausführungsformen erwogen. Dazu gehören Ausführungsformen, die weniger, zusätzliche und/oder andere Komponenten, Schritte, Merkmale, Objekte, Vorzüge und Vorteile haben. Dazu gehören auch Ausführungsformen, bei denen die Komponenten und/oder Schritte anders angeordnet und/oder geordnet sind.
  • Aspekte der vorliegenden Offenbarung sind hierin unter Bezugnahme auf Anrufablaufpläne und/oder Blockschaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der vorliegenden Offenbarung beschrieben. Es wird darauf hingewiesen, dass jeder Schritt der Ablaufplanveranschaulichungen und/oder der Blockschaubilder sowie Kombinationen von Blöcken in den Anrufablaufplänen und/oder den Blockschaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Computers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. - schaubilder festgelegten Funktionen/Aktionen erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt aufweist, darunter Anweisungen, welche Aspekte der in dem Block bzw. den Blöcken der Anrufablaufpläne und/oder der Blockschaltbilder bzw. -schaubilder angegebenen Funktion/Handlung umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um ein Ausführen einer Reihe von Prozessschritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken der Ablaufpläne und/oder der Blockschaltbilder bzw. -schaubilder festgelegten Funktionen/Aktionen umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. -schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Anrufablaufplänen oder Blockschaltbildern bzw. -schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zum Ausführen der bestimmten logischen Funktion(en) aufweisen. Bei einigen alternativen Ausführungen können die in den Blöcken angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. -schaubilder und/oder der Anrufablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. -schaubildern und/oder den Anrufablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Zwar wurden obigen Ausführungen in Verbindung mit beispielhaften Ausführungsformen beschrieben, doch es versteht sich, dass der Ausdruck „beispielhaft“ nur als Beispiel gedacht ist, nicht als das Beste oder Optimale. Mit Ausnahme des direkt zuvor Gesagten, ist nichts von dem, was ausgesagt oder veranschaulicht wurde, als Widmung einer Komponente, eines Schrittes, Merkmals, Objekts, Vorzugs, Vorteils oder etwas Äquivalentes an die Öffentlichkeit beabsichtigt oder als Veranlassung einer solchen auszulegen, ungeachtet dessen, ob er/sie/es in den Ansprüchen aufgeführt ist.
  • Es versteht sich, dass die hierin gebrauchten Bezeichnungen und Ausdrücke die gewöhnliche Bedeutung haben, die solchen Bezeichnungen und Ausdrücken in Bezug auf ihre entsprechenden jeweiligen Forschungs- und Untersuchungsgebiete beigemessen wird, außer dort, wo bestimmte Bedeutungen hierin sonst dargelegt sind. Beziehungsausdrücke wie etwa erste(r/s) und zweite(r/s) und dergleichen können nur gebraucht werden, um eine Einheit oder Aktion von einer anderen zu unterscheiden, ohne unbedingt eine tatsächliche solche Beziehung oder Reihenfolgen zwischen solchen Einheiten oder Aktionen anzudeuten. Die Ausdrücke „weist auf“, „aufweisend“ oder eine beliebige sonstige Variation davon sollen einen nichtausschließlichen Einschluss bezeichnen, so dass ein Prozess, ein Verfahren, ein Artikel oder eine Vorrichtung, die eine Liste von Elementen aufweist, nicht nur jene Elemente umfasst, sondern andere Elemente umfassen kann, die nicht ausdrücklich aufgeführt sind oder einem solchen Prozess, Verfahren, Artikel oder einer solchen Vorrichtung innewohnt. Ein Element, dem „ein“ oder „eine“ vorausgeht, schließt ohne weitere Vorgaben nicht das Vorhandensein zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Artikel oder der Vorrichtung, der/die das Element aufweist, aus.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um das Wesen der technischen Offenbarung schnell zu erfassen. Sie wird in dem Verständnis eingereicht, dass sie nicht dazu verwendet wird, den Umfang oder die Bedeutung der Ansprüche auszulegen oder einzuschränken. Außerdem ist aus der vorstehenden detaillierten Beschreibung ersichtlich, dass die verschiedenen Merkmale zum Zweck der Straffung der Offenbarung in verschiedene Ausführungsformen gruppiert sind. Dieses Verfahren der Offenbarung ist nicht so auszulegen, als gebe es eine Absicht wieder, dass die beanspruchten Ausführungsformen mehr Merkmale haben, als ausdrücklich in jedem Anspruch angeführt wird. Stattdessen liegt der erfindungsgemäße Gegenstand, wie die folgenden Ansprüche zeigen, in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung eingebracht, wobei jeder Anspruch eigenständig als separat beanspruchter Gegenstand steht.

Claims (10)

  1. Datenverarbeitungseinheit, die aufweist: einen Prozessor (1104); eine Speichereinheit (1106, 1108), die mit dem Prozessor verbunden ist; eine Erdbebensteuerkomponente (1140), wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor die Datenverarbeitungseinheit so konfiguriert, dass sie Aktionen ausführt, die aufweisen: Empfangen einer visuellen Eingabe (40) eines Ortes von jeder einer Mehrzahl von Kameras (20) über ein Netzwerk (102, 104); für jede visuelle Eingabe von der Mehrzahl von Kameras: Durchführen einer Kopplungskorrektur (1142) zwischen einer Erschütterung der Kamera und der visuellen Eingabe, indem Geschwindigkeitsvektoren der Mehrzahl von Kameras von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden, um eine verarbeitete Eingabe bereitzustellen; und Ermitteln, ob eine Erschütterung, die in der verarbeiteten Eingabe erkannt wird, über einem vorgegebenen Schwellenwert liegt, auf Grundlage der verarbeiteten Eingabe, wodurch eine oder mehrere Anomalien erkannt (1146) werden; und Rückschließen (1150) aus der einen oder den mehreren Anomalien auf einen Ort und/oder eine Magnitude und/oder eine Tiefe eines Erdbebens auf Grundlage der Erschütterung, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
  2. Datenverarbeitungseinheit nach Anspruch 1, wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor ferner die Datenverarbeitungseinheit so konfiguriert, dass sie eine Handlung durchführt, die ein Ermitteln (1148) einer Intensität des Erdbebens auf Grundlage der Erschütterung aufweist, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
  3. Datenverarbeitungseinheit nach Anspruch 2, wobei das Rückschließen auf den Ort und/oder die Magnitude und/oder die Tiefe ein Extrahieren und Aggregieren lokaler Näherungen von einer Phasenverzögerung zwischen einem vorgegebenen maximalen Pixelwert, die auf jede Pixelstelle in der visuellen Eingabe angewandt wird, und/oder einer Amplitude eines maximalen Wertes einer Pixelstelle über eine Gesamtheit der visuellen Eingabe aufweist.
  4. Datenverarbeitungseinheit nach Anspruch 1, wobei die Erschütterung durch eine oder mehrere pixelweise Änderungen der verarbeiteten Eingabe gemessen wird.
  5. Datenverarbeitungseinheit nach Anspruch 4, wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor ferner die Datenverarbeitungseinheit so konfiguriert, dass sie Aktionen durchführt, die für mindestens eine visuelle Eingabe von der Mehrzahl von Kameras aufweisen: Durchführen einer Spektralanalyse im Zeitverlauf an jeder der pixelweisen Änderungen in mindestens einem Bild der visuellen Eingabe; und Ermitteln einer Spektralzerlegung des mindestens einen Bildes der visuellen Eingabe.
  6. Datenverarbeitungseinheit nach Anspruch 5, wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor ferner die Datenverarbeitungseinheit so konfiguriert, dass sie Aktionen durchführt, die aufweisen: Trainieren eines Modells künstlicher Intelligenz (Kl), um Parameter eines Erdbebens auf Grundlage der visuellen Eingabe aus der Mehrzahl von Kameras zu erkennen; und Anwenden des trainierten KI-Modells auf die visuelle Eingabe aus einem anderen Satz einer Mehrzahl von Kameras an einem separaten Ort.
  7. Datenverarbeitungseinheit nach Anspruch 1, wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor ferner die Datenverarbeitungseinheit so konfiguriert, dass sie eine Handlung durchführt, die nach einem Abschluss eines erkannten Erdbebens ein Speichern von Indikatoren von der Magnitude und/oder des Ortes und/oder der Tiefe des erkannten Erdbebens aufweist.
  8. Datenverarbeitungseinheit nach Anspruch 1, wobei ein Ausführen der Erdbebensteuerkomponente durch den Prozessor ferner die Datenverarbeitungseinheit so konfiguriert, dass sie eine Handlung durchführt, die ein Verfeinern einer Kalibrierung der Mehrzahl von Kameras über Daten externer seismischer Sensoren aufweist.
  9. Nichttransitorisches durch Computer lesbares Speichermedium, das materiell einen durch Computer lesbaren Programmcode mit durch Computer lesbaren Anweisungen verkörpert, die beim Ausführen eine Datenverarbeitungseinheit veranlassen, ein Verfahren zum Erkennen eines Erdbebens durchzuführen, wobei das Verfahren aufweist: Empfangen einer visuellen Eingabe (40) eines Ortes von jeder einer Mehrzahl von Kameras (20) über ein Netzwerk (102, 104); für jede visuelle Eingabe von der Mehrzahl von Kameras: Durchführen einer Kopplungskorrektur (1142) zwischen einer Erschütterung der Kamera und der visuellen Eingabe, indem Geschwindigkeitsvektoren der Mehrzahl von Kameras von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden, um eine verarbeitete Eingabe bereitzustellen; und Ermitteln, ob eine Erschütterung, die in der verarbeiteten Eingabe erkannt wird, über einem vorgegebenen Schwellenwert liegt, auf Grundlage der verarbeiteten Eingabe, wodurch eine oder mehrere Anomalien erkannt (1146) werden; und Rückschließen (1150) aus der einen oder den mehreren Anomalien auf einen Ort und/oder eine Magnitude und/oder eine Tiefe eines Erdbebens auf Grundlage der Erschütterung, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
  10. Durch Computer umgesetztes Verfahren, das aufweist: Empfangen einer visuellen Eingabe (40) eines Ortes von jeder einer Mehrzahl von Kameras (20) über ein Netzwerk (102, 104); für jede visuelle Eingabe von der Mehrzahl von Kameras: Durchführen einer Kopplungskorrektur (1142) zwischen einer Erschütterung der Kamera und der visuellen Eingabe, indem Geschwindigkeitsvektoren der Mehrzahl von Kameras von Geschwindigkeitsvektoren der Pixel, die die visuelle Eingabe definieren, subtrahiert werden, um eine verarbeitete Eingabe bereitzustellen; und Ermitteln, ob eine Erschütterung, die in der verarbeiteten Eingabe erkannt wird, über einem vorgegebenen Schwellenwert liegt, auf Grundlage der verarbeiteten Eingabe, wodurch eine oder mehrere Anomalien erkannt (1146) werden; und Rückschließen (1150) aus der einen oder den mehreren Anomalien auf einen Ort und/oder eine Magnitude und/oder eine Tiefe eines Erdbebens auf Grundlage der Erschütterung, die in der verarbeiteten Eingabe jeder der Mehrzahl von Kameras erkannt wurde.
DE102021130642.6A 2020-12-22 2021-11-23 Erdbebenerkennung und -reaktion über eine verteilte visuelle eingabe Active DE102021130642B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/131,452 US11874415B2 (en) 2020-12-22 2020-12-22 Earthquake detection and response via distributed visual input
US17/131,452 2020-12-22

Publications (2)

Publication Number Publication Date
DE102021130642A1 DE102021130642A1 (de) 2022-06-23
DE102021130642B4 true DE102021130642B4 (de) 2024-03-21

Family

ID=80081006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021130642.6A Active DE102021130642B4 (de) 2020-12-22 2021-11-23 Erdbebenerkennung und -reaktion über eine verteilte visuelle eingabe

Country Status (5)

Country Link
US (1) US11874415B2 (de)
JP (1) JP2022099267A (de)
CN (1) CN114721034A (de)
DE (1) DE102021130642B4 (de)
GB (1) GB2605482A (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115616665B (zh) * 2022-09-30 2023-07-21 中国科学院地质与地球物理研究所 卷积神经网络的处理方法、装置和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110292220A1 (en) 2010-05-25 2011-12-01 Sony Corporation Using computer video camera to detect earthquake
KR20180136671A (ko) 2017-06-15 2018-12-26 주식회사 와이즈박스 영상분석 기법을 이용한 지진감시 대응 안내시스템

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4262023B2 (ja) 2003-07-16 2009-05-13 日本放送協会 映像揺れ検出装置、その方法及びそのプログラム、並びに、カメラ映像選択装置
IL172289A (en) * 2005-11-30 2011-07-31 Rafael Advanced Defense Sys Limited bandwidth surveillance system and method with rotation among monitors
KR100872578B1 (ko) * 2007-05-31 2008-12-08 (주)에이케이지씨 지진감지센서 교정 장치 및 방법
JP2009002914A (ja) * 2007-06-25 2009-01-08 Nippon Telegr & Teleph Corp <Ntt> 施設被災監視装置及び施設被災監視方法
JP5213613B2 (ja) 2008-09-26 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法及び撮像装置及びプログラム
US8395708B2 (en) * 2009-07-21 2013-03-12 Qualcomm Incorporated Method and system for detection and enhancement of video images
US9406336B2 (en) 2010-08-26 2016-08-02 Blast Motion Inc. Multi-sensor event detection system
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US8620841B1 (en) 2012-08-31 2013-12-31 Nest Labs, Inc. Dynamic distributed-sensor thermostat network for forecasting external events
CN103676917B (zh) 2014-01-05 2016-10-12 辽宁省地震局 带有地震设备控制器的远程监控中心及其控制操作方法
WO2015185991A2 (en) * 2014-06-02 2015-12-10 Cgg Services Sa Spectral analysis and processing of seismic data using orthogonal image gathers
JP6592335B2 (ja) 2015-11-05 2019-10-16 キヤノン株式会社 像ブレ補正装置及び方法
JP6582926B2 (ja) 2015-11-27 2019-10-02 カシオ計算機株式会社 移動情報取得装置、移動情報取得方法、及び、プログラム
CN106254826A (zh) 2016-08-05 2016-12-21 宁波工程学院 一种基于视频分析的地震烈度评估方法
KR101970149B1 (ko) * 2018-05-30 2019-04-22 주식회사 나노켐 가속도 센서를 이용한 지진 감지 장치 및 방법
WO2020096099A1 (ko) 2018-11-09 2020-05-14 주식회사 루닛 기계 학습 방법 및 장치
US11551344B2 (en) * 2019-12-09 2023-01-10 University Of Central Florida Research Foundation, Inc. Methods of artificial intelligence-assisted infrastructure assessment using mixed reality systems
KR102528547B1 (ko) 2020-02-07 2023-05-04 포항공과대학교 산학협력단 조기 지진 감지 장치 및 방법
US20240210330A1 (en) * 2020-05-08 2024-06-27 Raspect Intelligent Inspection Limited Systems and methods for artificial intelligence powered inspections and predictive analyses
CN111983676A (zh) * 2020-07-07 2020-11-24 东华理工大学 一种基于深度学习的地震监测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110292220A1 (en) 2010-05-25 2011-12-01 Sony Corporation Using computer video camera to detect earthquake
KR20180136671A (ko) 2017-06-15 2018-12-26 주식회사 와이즈박스 영상분석 기법을 이용한 지진감시 대응 안내시스템

Also Published As

Publication number Publication date
US11874415B2 (en) 2024-01-16
JP2022099267A (ja) 2022-07-04
GB2605482A (en) 2022-10-05
GB202117422D0 (en) 2022-01-19
DE102021130642A1 (de) 2022-06-23
CN114721034A (zh) 2022-07-08
US20220196860A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
DE202016007816U1 (de) Das Entdecken von Unternehmen aus Bildern
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE112019004076T5 (de) Dezentralisiertes verteiltes deep learning
DE112020003380B4 (de) Ermittlung des zustands der infrastruktur in einem interessierenden bereich
DE112016004534T5 (de) Nicht überwachtes Abgleichen in feinkörnigen Datensätzen zur Einzelansicht-Objektrekonstruktion
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
DE112021000243T5 (de) Bestimmung von kulturpflanzentyp und/oder aussaattermin
DE202015009182U1 (de) Ausrichten von Panoramaaufnahmen und Luftaufnahmen
DE112013007532T5 (de) Echtzeitrisikovorhersage während des Bohrbetriebs
DE112021002820T5 (de) Dynamische automatisierung einer auswahl von pipeline-artefakten
DE112021001566T5 (de) Ermitteln von abhängigkeiten multivariater zeitreihendaten
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
DE102020118241A1 (de) Videotiefenschätzung auf der grundlage der temporalen aufmerksamkeit
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
DE102021130642B4 (de) Erdbebenerkennung und -reaktion über eine verteilte visuelle eingabe
WO2013037344A1 (de) Verfahren zur automatisierten echtzeit-erfassung von marinen säugern
DE102021125856A1 (de) Erkennen von feindlichen angriffen auf ein tiefes neuronales netz (deep neural network (dnn))
DE102020132238A1 (de) Verfahren, systeme, herstellungsgegenstände und einrichtungen zum weiterentwickeln von bildtiefenvertrauenskarten
DE102018220892A1 (de) Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
DE112021004225T5 (de) Detektieren und verwalten von anomalien in erdverlegten sensoren fürlandwirtschaftliche anwendungen
DE112020007472T5 (de) Lernnutzungssystem, nutzungsvorrichtung, lernvorrichtung, programm und lernnutzungsverfahren
DE102016225806A1 (de) Verfahren zur Erfassung und Klassifizierung von Objekten
DE112019001822B4 (de) Änderung und Darstellung von Audio- und Video-Multimedia
DE112020003213T5 (de) Bakterienklassifizierung
CH719269B1 (de) Verfahren zur Identifizierung eines Zielobjekts und Modell- und Sensororchestrierungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division