DE102022208684A1 - Verfahren und einrichtung für resilienz mithilfe digitaler zwillinge - Google Patents

Verfahren und einrichtung für resilienz mithilfe digitaler zwillinge Download PDF

Info

Publication number
DE102022208684A1
DE102022208684A1 DE102022208684.8A DE102022208684A DE102022208684A1 DE 102022208684 A1 DE102022208684 A1 DE 102022208684A1 DE 102022208684 A DE102022208684 A DE 102022208684A DE 102022208684 A1 DE102022208684 A1 DE 102022208684A1
Authority
DE
Germany
Prior art keywords
circuitry
recommendation
network equipment
network
perform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208684.8A
Other languages
English (en)
Inventor
Arvind Merwaday
Kathiravetpillai Sivanesan
Satish Chandra Jha
Vesh Raj Sharma Banjade
S. M. Iftekharul Alam
Leonardo Gomes Baltar
Kuilin Clark Chen
Suman Sehra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102022208684A1 publication Critical patent/DE102022208684A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0686Hybrid systems, i.e. switching and simultaneous transmission
    • H04B7/0695Hybrid systems, i.e. switching and simultaneous transmission using beam selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/16Performing reselection for specific purposes
    • H04W36/165Performing reselection for specific purposes for reducing network power consumption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/24Reselection being triggered by specific parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/15Setup of multiple wireless link connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/19Connection re-establishment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/08Reselecting an access point
    • H04W36/087Reselecting an access point between radio units of access points

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Verfahren, Einrichtungen, Systeme und Herstellungsartikel für Resilienz mithilfe digitaler Zwillinge sind offenbart. Ein beispielhaftes Verfahren beinhaltet Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten; Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken; Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken; Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung; und Bereitstellen der Empfehlung an die Netzwerkausrüstung in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt.

Description

  • GEBIET DER OFFENBARUNG
  • Diese Offenbarung betrifft allgemein digitale Zwillinge und insbesondere Verfahren und Einrichtungen für Resilienz mithilfe digitaler Zwillinge.
  • HINTERGRUND
  • Es wird erwartet, dass Drahtlosnetze der nächsten Generation diverse und fortschrittliche Anwendungen unterstützen, die intelligente Städte, Stromnetz, autonome Fahrzeuge usw. beinhalten, die höhere Zuverlässigkeit, geringere Latenz und drahtlose Konnektivität mit höherer Geschwindigkeit erfordern. Resilienz ist eine wichtige Charakteristik von Drahtlosnetzwerken der nächsten Generation, die entscheidend für die Erfüllung von Anwendungsanforderungen ist. Resiliente Netzwerke sollten in der Lage sein, Faktoren zu überwinden, die Dienstunterbrechungen (z.B. Kanalschwankungen, Benutzermobilität, Interferenz usw.) verursachen können, um Verfügbarkeit und Zuverlässigkeit der drahtlosen Links zu maximieren. Über die vergangenen Jahrzehnte haben sich Drahtlosnetzwerke signifikant entwickelt, um diese Probleme über fortschrittliche Drahtlossignalverarbeitungstechniken, Rahmenstruktur, Protokolldesign, Fähigkeit zu dualer Multi-RAT-Konnektivität usw. zu überwinden. Aktuelle Methoden erfüllen jedoch die Anforderungen von Anwendungen der nächsten Generation mitunter nicht.
  • Figurenliste
    • 1 veranschaulicht eine Übersicht über eine Edge-Cloud-Konfiguration für Edge-Computing.
    • 2 veranschaulicht Betriebsschichten zwischen Endpunkten, eine Edge-Cloud und Cloud-Computing-Umgebungen.
    • 3 veranschaulicht einen beispielhaften Ansatz für Vernetzung und Dienste in einem Edge-Computing-System.
    • 4 veranschaulicht einen Rechen- und Kommunikationsanwendungsfall, der Mobilzugriff auf Anwendungen in einem Edge-Computing System beinhaltet.
    • 5 veranschaulicht eine beispielhafte Mobil-Edge-System-Referenzarchitektur, die gemäß einer ETSI-Mehrfachzugriff-Edge-Computing- (MEC-) Spezifikation eingerichtet ist;
    • 6 veranschaulicht eine beispielhafte MEC-Dienstarchitektur.
    • 7A stellt einen Überblick über Beispielkomponenten zur Berechnung bereit, die an einem Rechenknoten in einem Edge-Computing-System eingesetzt werden.
    • 7B stellt einen weiteren Überblick über beispielhafte Komponenten innerhalb einer Rechenvorrichtung in einem Edge-Computing-System bereit.
    • 8 ist ein Blockdiagramm, das eine beispielhafte Architektur veranschaulicht, die gemäß den Lehren dieser Offenbarung implementiert wird.
    • 9 ist ein Blockdiagramm, das Beziehungen zwischen funktionalen Entitäten innerhalb des MEC-Systems aus 8 und einen Datenfluss zwischen diesen Entitäten veranschaulicht.
    • 10 ist ein Blockdiagramm einer beispielhaften Implementierung der beispielhaften Digital-Twin-Schaltungsanordnung aus 8 und/oder 9.
    • 11 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen und/oder beispielhafte Operationen darstellt, die durch eine Prozessorschaltungsanordnung ausgeführt und/oder instanziiert werden können, um eine Empfehlung zu erzeugen.
    • 12 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen und/oder beispielhafte Operationen darstellt, die durch eine Prozessorschaltungsanordnung ausgeführt und/oder instanziiert werden können, um in Reaktion auf eine Empfehlung einen Handoff durchzuführen.
    • 13 ist ein Kommunikationsdiagramm, das ein proaktive Mobilitätsverwaltung veranschaulicht, um Handover-Ausfälle zu reduzieren.
    • 14 ist ein Kommunikationsdiagramm, das ein proakive Mobilitätsverwaltung unter Verwendung einer bedingten Handover-Empfehlung veranschaulicht.
    • 15 ist ein Kommunikationsdiagramm, das eine Verwendung der Digital-Twin-Schaltungsanordnung für intelligente Strahlverwaltung veranschaulicht.
    • 16 ist ein beispielhaftes Kommunikationsdiagramm, das die Verwendung der Digital-Twin-Schaltungsanordnung für Strahlverwaltung veranschaulicht.
    • 17 ist ein beispielhaftes Kommunikationsdiagramm, das die Verwendung der Digital-Twin-Schaltungsanordnung für Anwendungsmobilität veranschaulicht.
    • 18 ist ein Blockdiagramm einer beispielhaften Verarbeitungsplattform, die eine Prozessorschaltungsanordnung beinhaltet, die zum Ausführen der beispielhaften maschinenlesbaren Anweisungen aus 11 zum Implementieren der beispielhaften Digital-Twin-Schaltungsanordnung aus 8 strukturiert ist.
    • 19 ist ein Blockdiagramm einer beispielhaften Implementierung der Prozessorschaltungsanordnung aus 18.
    • 20 ist ein Blockdiagramm einer weiteren beispielhaften Implementierung der Prozessorschaltungsanordnung aus 18.
    • 21 ist ein Blockdiagramm einer beispielhaften Softwareverteilungsplattform (z.B. eines oder mehrerer Server) zum Verteilen von Software (z.B. Software, die den beispielhaften maschinenlesbaren Anweisungen von 11 entspricht) an Client-Vorrichtungen, die mit Endbenutzern und/oder Konsumenten (z.B. zur Lizenz, zum Verkauf und/oder zur Verwendung) assoziiert sind, Einzelhändlern (z.B. zum Verkauf, Weiterverkauf, Lizenz und/oder Unterlizenz) und/oder Originalgeräteherstellern (OEMs) (z.B. zur Aufnahme in Produkte, die zum Beispiel an Einzelhändler und/oder an andere Endbenutzer, wie etwa Direktkaufkunden, verteilt werden sollen).
  • Die Figuren sind nicht maßstabsgetreu. Im Allgemeinen werden in allen Zeichnungen und in der beigefügten schriftlichen Beschreibung dieselben Bezugszeichen verwendet, um auf dieselben oder ähnliche Teile Bezug zu nehmen.
  • Sofern nicht spezifisch anders angegeben, werden hierin Deskriptoren, wie etwa „erstes“, „zweites“, „drittes“ usw. verwendet, ohne irgendeine Bedeutung von Priorität, physischer Reihenfolge, Anordnung in einer Liste und/oder Ordnung auf irgendeine Weise zu imputieren oder anderweitig anzugeben, sondern werden lediglich als Bezeichnungen und/oder willkürliche Namen verwendet, um Elemente zum einfachen Verständnis der offenbarten Beispiele zu unterscheiden. In einigen Beispielen kann der Deskriptor „erstes“ verwendet werden, um auf ein Element in der ausführlichen Beschreibung zu verweisen, während auf dasselbe Element in einem Anspruch mit einem unterschiedlichen Deskriptor, wie „zweites“ oder „drittes“, verwiesen wird. In derartigen Fällen versteht es sich, dass derartige Deskriptoren lediglich zum eindeutigen Identifizieren dieser Elemente verwendet werden, die zum Beispiel ansonsten einen gleichen Namen teilen könnten.
  • Wie hierin verwendet, beziehen sich „ungefähr“ und „etwa“ auf Abmessungen, die aufgrund von Herstellungstoleranzen und/oder anderen praktischen Fehlern möglicherweise nicht exakt sind. Wie hier verwendet, verweist „im Wesentlichen Echtzeit“ auf ein Auftreten auf eine nahezu augenblickliche Weise, wobei erkannt wird, dass es in der Praxis Verzögerungen für Rechenzeit, Übertragung usw. geben kann. Sofern nichts anderes angegeben ist, bezieht sich deshalb „im Wesentlichen Echtzeit“ somit auf Echtzeit +/- 1 Sekunde.
  • Wie hier verwendet, umfasst der Ausdruck „in Kommunikation“, einschließlich Variationen davon, direkte Kommunikation und/oder indirekte Kommunikation über eine oder mehrere Zwischenkomponenten und erfordert keine direkte physische (z.B. drahtgebundene) Kommunikation und/oder konstante Kommunikation, sondern beinhaltet stattdessen zusätzlich eine gezielte Kommunikation in periodischen Intervallen, geplanten Intervallen, aperiodischen Intervallen und/oder einmalige Ereignissen.
  • Vorliegend ist „Prozessorschaltungsanordnung“ so definiert, dass sie (i) eine oder mehrere elektrische Spezialschaltungen beinhaltet, die zum Durchführen einer oder mehrerer spezifischer Operationen strukturiert sind und eine oder mehrere halbleiterbasierte Logikvorrichtungen (z.B. elektrische Hardware, die durch einen oder mehrere Transistoren implementiert wird) beinhalten, und/oder (ii) eine oder mehrere halbleiterbasierte elektrische Universalschaltungen beinhaltet, die mit Anweisungen zum Durchführen spezifischer Operationen programmiert sind und eine oder mehrere halbleiterbasierte Logikvorrichtungen (z.B. elektrische Hardware, die durch einen oder mehrere Transistoren implementiert wird) beinhalten. Beispiele für Prozessorschaltungsanordnungen beinhalten programmierte Mikroprozessoren, feldprogrammierbare Gatearrays (FPGAs), die Anweisungen instanziieren können, Zentralprozessoreinheiten (CPUs), Grafikprozessoreinheiten (GPUs), Digitalsignalprozessoren (DSPs), XPUs oder Mikrocontroller und integrierte Schaltungen, wie etwa anwendungsspezifische integrierte Schaltungen (ASICs). Zum Beispiel kann eine XPU durch ein heterogenes Rechensystem implementiert werden, das mehrere Arten von Prozessorschaltungsanordnung (z.B. ein oder mehrere FPGAs, eine oder mehrere CPUs, eine oder mehrere GPUs, einen oder mehrere DSPs usw., und/oder eine Kombination aus diesen) und Anwendungsprogrammierungsschnittstelle(n) (API(s)) beinhaltet, die Rechenaufgabe(n) jedem der mehreren Typen von Verarbeitungsschaltungsanordnung zuweisen können, die am besten zum Ausführen der Rechenaufgabe(n) geeignet ist/sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Mit dem Aufkommen von Edge-Computing besitzen die Drahtlosnetzwerke der nächsten Generation die Verfügbarkeit leistungsfähiger Rechenressourcen nahe oder innerhalb eines Drahtloszugangsnetzwerks. Neuere Forschungen im Bereich Edge-Computing haben sich darauf konzentriert, den Benutzern Dienste mit niedriger Latenz und/oder hoher Bandbreitenanforderung bereitzustellen. Jedoch wurden Methoden zum Verbessern der Widerstandsfähigkeit eines Drahtlosnetzwerks (gegenüber natürlichen/menschlich induzierten Unterbrechungen wie Benutzermobilität, Signalstörung, Kanalblockierung usw.) durch Nutzung der Edge-Computing-Ressourcen nicht untersucht.
  • Der digitale Zwilling (digital twin, DT) ist eine aufkommende Technologie und ist ein Schlüsselelement zur Ermöglichung einer Reihe fortgeschrittener Anwendungen. In intelligenten Transportsystemen kann DT zum Beispiel eine Reihe von Sicherheits- und verkehrseffizienzbezogenen Anwendungen ermöglichen. Somit kann DT-Technologie in MEC- (Multi-Access Edge Computing, Mehrfachzugriff-Edge-Computing) Systemen neben den Drahtlosnetzwerken der nächsten Generation eingesetzt werden. In vorliegend offenbarten Beispielen sind Methoden offenbart, die DT-Technologie anwenden, um die Resilienz von Drahtlosnetzwerken zu verbessern. Allgemein kann DT an verschiedenen Schichten eines Drahtlosprotokollstapels angewendet werden, um dessen Resilienzmerkmale zu verbessern. DT-basierte Methoden können, ohne jedoch hierauf eingeschränkt zu sein, proaktive Mobilitätsverwaltung zum Minimieren von Handover-Ausfällen (HOFS) und Funkverbindungsausfällen (RLFs), robuste und intelligente Strahlverwaltung in Bändern oberhalb von 6 GHz (z.B. mmWave) zum Mindern der unerwünschten Effekte einer physischen Blockierung, beschleunigte Anwendungsmobilität in MEC-Systemen, um Dienstunterbrechungen für die Benutzer zu minimieren, präemptiven Lastausgleich zwischen verschiedenen Zellen usw. beinhalten.
  • Bei Netzentwürfen nach dem Stand der Technik (5G, LTE usw.) werden Handover- und/oder Handoff- (HO-) Entscheidungen für ein Benutzergerät (UEs) hauptsächlich basierend auf Kanalmessungen (empfangene Signalstärke, Signal-Interferenz-Plus-Rausch-Verhältnis usw.) getroffen, die durch die UEs gemeldet werden. Es gibt bestimmte Wahrscheinlichkeiten eines Handover-Ausfalls (HOFs) und von Pingpong-Effekten aufgrund unerwarteter Szenarien, insbesondere für Hochgeschwindigkeits-UEs. Ein Beispiel dafür ist ein abrupter Wechsel eines Hochgeschwindigkeits-UE aufgrund eines physischen Hindernisses (z.B. eines Gebäudes) von Sichtlinie (LoS) auf keine Sichtlinie (NLoS). Diese Probleme beeinflussen die Resilienz des Netzwerks.
  • Für Bänder oberhalb von 6 GHz verfügt 3GPP über Prozeduren für die Detektion eines Strahlausfalls an UE und eine Strahlausfall-Wiederherstellungs- (beam failure recovery, BFR) Prozedur, durch die das UE versucht, erneut eine Verbindung mit derselben Zelle über einen alternativen Strahl herzustellen. Dieser Prozess kann einige 10 ms beanspruchen und bei manchen Szenarien können auch die alternativen Strahlen beeinträchtigt sein, was aufgrund mehrerer Versuche zu weiteren Verzögerungen des Strahlausfall-Wiederherstellungsprozesses führt. Somit ist der Erfolg einer solchen Prozedur nicht garantiert. Bei einem Versagen des Wiederherstellungsprozesses wird das UE gezwungen sein, eine Funkverbindungsausfall- (RLF) Prozedur und Zellneuauswahl zu initiieren, was zu einer erheblichen Dauer einer Kommunikationsunterbrechung führt.
  • Ein API-basiertes Framework für Anwendungsmobilitätsdienst (application mobility service, AMS) kann verwendet werden, wobei die Anwendungsverschiebung und der Kontexttransfer über MEC-Plattformmanager (MEPMs) und einen MEC-Orchestrator (MEO) durchgeführt werden können. Dabei basiert der Auslöser für die Anwendungsmobilität auf den Informationen einer UE-Bewegung zu einer neuen versorgenden Zelle, die durch Netzwerkfunktionen wie Netzwerkoffenlegungsfunktion (network exposure function, NEF) und Funknetzinformations- (radio network information, RNI) Dienst bereitgestellt werden. Bei einem derartigen Design wäre die Anwendungsmobilität stets gegenüber der Mobilität des Benutzers verzögert, da die Anwendungsverlagerung einige Zeit bis zum Abschluss benötigt. Dies kann zu Verzögerungen und/oder Unterbrechungen von Diensten führen, die den Mobilbenutzern bereitgestellt werden.
  • In vorliegend offenbarten Beispielen werden Methoden offenbart, in denen DT-Methodenverwendet werden, um Mobilitätsverwaltung und Resilienz eines Netzwerks zu unterstützen. Wie vorstehend angemerkt, können solche DT-Methoden, ohne jedoch hierauf eingeschränkt zu sein, proaktive Mobilitätsverwaltung zum Minimieren von Handover-Ausfällen (HOFs) und Funkverbindungsausfällen (RLFs), robuste und intelligente Strahlverwaltung in Bändern oberhalb von 6 GHz (z.B. mmWave) zum Mindern der unerwünschten Effekte einer physischen Blockierung, beschleunigte Anwendungsmobilität in MEC-Systemen, um Dienstunterbrechungen für die Benutzer zu minimieren, präemptiven Lastausgleich zwischen verschiedenen Zellen usw. beinhalten. Auch wenn solche Beispiele vorliegend offenbart sind, ist die Verwendung von DT-Techniken generisch und kann auf verschiedene Arten von drahtlosen Netzwerken wie 5G und darüber hinaus, LTE usw. angewendet werden. Die Implementierungen in solchen Szenarien können unterschiedlich sein (z.B. je nach Netzwerktyp). Vorliegend offenbarte Beispiele sind im Kontext eines 5G-Drahtlosnetzwerks erläutert, können aber gleichermaßen auf beliebige andere vergangene, gegenwärtige und/oder zukünftige Netzwerktechnologien anwendbar sein.
  • 1 ist ein Blockdiagramm 100, das eine Übersicht über eine Konfiguration für Edge-Computing zeigt, die eine Verarbeitungsschicht aufweist, die in vielen der folgenden Beispiele als eine „Edge-Cloud“ bezeichnet wird. Wie gezeigt, befindet sich die Edge-Cloud 110 gemeinsam an einem Edge-Ort, wie etwa einem Zugangspunkt oder einer Basisstation 140, einem lokalen Verarbeitungs-Hub 150 oder einer Zentrale 120, und kann somit mehrere Entitäten, Vorrichtungen und Geräteinstanzen beinhalten. Die Edge-Cloud 110 befindet sich viel näher an den Endpunkt- (Konsumenten- und Produzenten-) Datenquellen 160 (z.B. autonome Fahrzeuge 161, Benutzergeräte 162, Unternehmens- und Industriegeräte 163, Videoaufnahmevorrichtungen 164, Drohnen 165, intelligente Städte und Gebäudevorrichtungen 166, Sensoren und IoT-Vorrichtungen 167 usw.) als das Cloud-Datenzentrum 130. Rechen-, Speicher- und Speicherungsressourcen, die an den Edges in der Edge-Cloud 110 angeboten werden, sind kritisch für das Bereitstellen von Antwortzeiten mit ultraniedriger Latenz für Dienste und Funktionen, die durch die Endpunktdatenquellen 160 verwendet werden, sowie für das Reduzieren von Netzwerk-Backhaul-Verkehr von der Edge-Cloud 110 zu dem Cloud-Datenzentrum 130, wodurch Energieverbrauch und Gesamtnetzwerkverwendungen unter anderen Vorteilen verbessert werden.
  • Berechnung, Speicher und Speicherung sind knappe Ressourcen und nehmen im Allgemeinen in Abhängigkeit von dem Edge-Ort ab (wobei z.B. weniger Verarbeitungsressourcen an Verbraucherendpunktvorrichtungen verfügbar sind als an einer Basisstation, als an einer Zentrale). Je näher sich der Edge-Standort jedoch am Endpunkt (z.B. dem Benutzergerät (UE)) befindet, desto mehr sind Raum und Leistung häufig eingeschränkt. Somit versucht Edge-Computing die Menge an Ressourcen, die für Netzwerkdienste benötigt werden, durch die Verteilung von mehr Ressourcen, die sich sowohl geografisch als auch in der Netzwerkzugriffszeit näher befinden, zu reduzieren. Auf diese Weise versucht Edge-Computing, die Rechenressourcen gegebenenfalls zu den Arbeitslastdaten zu bringen oder die Arbeitslastdaten zu den Rechenressourcen zu bringen.
  • Das Folgende beschreibt Aspekte einer Edge-Cloud-Architektur, die mehrere potentielle Einsätze abdeckt und Einschränkungen adressiert, die manche Netzwerkbetreiber oder Dienstanbieter in ihren eigenen Infrastrukturen aufweisen können. Diese beinhalten die Variation von Konfigurationen basierend auf dem Edge-Ort (weil Edges auf einer Basisstationsebene zum Beispiel weiter eingeschränkte Leistungsfähigkeit und Fähigkeiten in einem mandantenfähigen Szenario aufweisen können); Konfigurationen basierend auf der Art der Berechnung, des Speichers, der Speicherung, der Fabric, der Beschleunigung oder ähnlichen Ressourcen, die für Edge-Orte, Ebenen von Orten oder Gruppen von Orten verfügbar sind; die Dienst-, Sicherheits- und Verwaltungs- und Orchestrierungsfähigkeiten; und verwandte Ziele, um Nutzbarkeit und Leistungsfähigkeit von Enddiensten zu erreichen. Diese Einsätze können die Verarbeitung in Netzwerkschichten bewerkstelligen, die in Abhängigkeit von Latenz-, Abstands- und Timing-Charakteristiken als Schichten „Near Edge“, „Close Edge“, „Local Edge“, „Middle Edge“ oder „Far Edge“ betrachtet werden können.
  • Edge-Computing ist ein sich entwickelndes Paradigma, bei dem das Computing an oder näher am „Edge“ (Rand) eines Netzwerks durchgeführt wird, typischerweise durch die Verwendung einer Rechenplattform (z.B. x86- oder ARM-Rechenhardwarearchitektur), die an Basisstationen, Gateways, Netzwerkroutern oder anderen Vorrichtungen implementiert ist, die sich viel näher an Endpunktvorrichtungen befinden, die die Daten erzeugen und verbrauchen. Edge-Gateway-Server können zum Beispiel mit Pools von Seicher- und Speicherungsressourcen ausgestattet sein, um eine Berechnung in Echtzeit für Verwendungsfälle mit niedriger Latenz (z.B. autonomes Fahren oder Videoüberwachung) für verbundene Client-Vorrichtungen durchzuführen. Oder als ein Beispiel können Basisstationen mit Rechen- und Beschleunigungsressourcen erweitert werden, um Dienstarbeitslasten für verbundene Benutzergeräte direkt zu verarbeiten, ohne weiter Daten über Backhaul-Netzwerke zu kommunizieren. Oder als weiteres Beispiel kann zentrale Büronetzwerkverwaltungshardware durch standardisierte Rechenhardware ersetzt werden, die virtualisierte Netzwerkfunktionen durchführt und Rechenressourcen für die Ausführung von Diensten und Verbraucheranwendungen für angebundene Vorrichtungen bietet. Innerhalb von Edge-Computing-Netzwerken kann es Szenarien in Diensten geben, in denen die Rechenressource zu den Daten „bewegt“ wird, sowie Szenarien, in denen die Daten zu der Rechenressource „bewegt“ werden. Oder als ein Beispiel können Basisstationsberechnungs-, Beschleunigungs- und Netzwerkressourcen Dienste bereitstellen, um die Arbeitslastanforderungen nach Bedarf durch Aktivieren ruhender Kapazität (Subskription, Kapazität nach Bedarf) zu skalieren, um Eckfälle, Notfälle zu verwalten oder Langlebigkeit für eingesetzte Ressourcen über einen wesentlich längeren umgesetzten Lebenszyklus bereitzustellen.
  • 2 veranschaulicht Betriebsschichten zwischen Endpunkten, eine Edge-Cloud und Cloud-Computing-Umgebungen. Insbesondere stellt 2 Beispiele für Rechenanwendungsfälle 205 dar, die die Edge-Cloud 110 unter mehreren veranschaulichenden Schichten der Netzwerkberechnung nutzen. Die Schichten beginnen an einer Endpunkt-Schicht (Vorrichtungen und Dinge) 200, die auf die Edge-Cloud 110 zugreift, um Datenerzeugungs-, Analyse- und Datenverwendungsaktivitäten durchzuführen. Die Edge-Cloud 110 kann mehrere Netzwerkschichten überspannen, wie etwa eine Edge-Vorrichtungsschicht 210 mit Gateways, On-Premise-Servern oder Netzwerkgeräten (Knoten 215), die sich in physisch nahen Edge-Systemen befinden; eine Netzwerkzugangsschicht 220, umfassend Basisstationen, Funkverarbeitungseinheiten, Netzwerk-Hubs, regionale Datenzentren (DC) oder lokales Netzwerkgerät (Gerät 225); und beliebige Geräte, Vorrichtungen oder Knoten, die sich dazwischen befinden (in Schicht 212, nicht ausführlich veranschaulicht). Die Netzwerkkommunikationen innerhalb der Edge-Cloud 110 und zwischen den verschiedenen Schichten können über eine beliebige Anzahl drahtgebundener oder drahtloser Medien stattfinden, einschließlich über Konnektivitätsarchitekturen und - technologien, die nicht abgebildet sind.
  • Beispiele für Latenz, die aus Netzwerkkommunikationsdistanz- und Verarbeitungszeitbeschränkungen resultieren, können von weniger als einer Millisekunde (ms), wenn unter der Endpunktschicht 200, unter 5 ms an der Edge-Vorrichtungsschicht 210, sogar zwischen 10 und 40 ms, wenn mit Knoten an der Netzwerkzugangsschicht 220 kommuniziert, reichen. Jenseits der Edge-Cloud 110 befinden sich Schichten des Kernnetzwerks 230 und des Cloud-Datenzentrums 240, jeweils mit zunehmender Latenz (z.B. zwischen 50-60 ms an der Kernnetzwerkschicht 230 bis 100 oder mehr ms an der Cloud-Datenzentrumsschicht). Infolgedessen werden Operationen in einem Kernnetzwerk-Datenzentrum 235 oder einem Cloud-Datenzentrum 245 mit Latenzen von mindestens 50 bis 100 ms oder mehr nicht in der Lage sein, viele zeitkritische Funktionen der Anwendungsfälle 205 zu realisieren. Jeder dieser Latenzwerte wird zu Veranschaulichungs- und Kontrastzwecken bereitgestellt; es versteht sich, dass die Verwendung anderer Zugangsnetzwerkmedien und -technologien die Latenzen weiter reduzieren kann. In einigen Beispielen können jeweilige Abschnitte des Netzwerks relativ zu einer Netzwerkquelle und einem Netzwerkziel als „Close Edge“-, „Local Edge“-, „Near Edge“-, „Middle Edge“- oder „Far Edge“-Schichten kategorisiert werden. Beispielsweise kann aus der Perspektive des Kernnetz-Datenzentrums 235 oder eines Cloud-Datenzentrums 245 ein Zentralen- oder Inhaltsdatennetzwerk als innerhalb einer „Near Edge“-Schicht („nahe“ an der Cloud, mit hohen Latenzwerten beim Kommunizieren mit den Vorrichtungen und Endpunkten der Anwendungsfälle 205) befindlich betrachtet werden, wohingegen ein Zugangspunkt, eine Basisstation, ein On-Premise-Server oder ein Netzwerk-Gateway als innerhalb einer „Far Edge“-Schicht („fern“ von der Cloud, mit niedrigen Latenzwerten beim Kommunizieren mit den Vorrichtungen und Endpunkten der Anwendungsfälle 205) befindlich betrachtet werden können. Es versteht sich, dass andere Kategorisierungen einer speziellen Netzwerkschicht als eine „Close“, „Local“, „Near“, „Middle“ oder „Far“ Edge bildend auf der Latenz, dem Abstand, der Anzahl von Netzwerk-Hops oder anderen messbaren Charakteristiken basieren können, wie sie von einer Quelle in einer beliebigen der Netzwerkschichten 200 - 240 gemessen werden.
  • Die diversen Verwendungsfälle 205 können aufgrund mehrerer Dienste, die die Edge-Cloud nutzen, auf Ressourcen unter Verwendungsdruck von eingehenden Strömen zugreifen. Um Ergebnisse mit niedriger Latenz zu erzielen, gleichen die Dienste, die innerhalb der Edge-Cloud 110 ausgeführt werden, variierende Anforderungen in Bezug auf Folgendes aus: (a) Priorität (Durchsatz oder Latenz) und Dienstqualität (QoS) (z.B. kann der Verkehr für ein autonomes Auto eine höhere Priorität hinsichtlich der Antwortzeitanforderung als ein Temperatursensor aufweisen; oder eine Empfindlichkeit bzw. eine Engstelle der Leistungsfähigkeit kann an einer Rechen-Beschleuniger-, Speicher-, Speicherungs- oder Netzwerkressource je nach Anwendung vorhanden sein); (b) Zuverlässigkeit und Widerstandsfähigkeit (z.B. muss auf manche Eingangsströme reagiert und der Verkehr mit missionskritischer Zuverlässigkeit geroutet werden, wohingegen manche anderen Eingangsströme je nach Anwendung eine gelegentliche Störung tolerieren können); und (c) physikalische Beschränkungen (z.B. Leistung, Kühlung und Formfaktor usw.).
  • Die Ende-zu-Ende-Dienstansicht für diese Anwendungsfälle beinhaltet den Begriff eines Dienstflusses und ist einer Transaktion zugeordnet. Die Transaktion gibt die Gesamtdienstanforderung für die Entität an, die den Dienst in Anspruch nimmt, sowie die zugehörigen Dienste für die Ressourcen, Workloads, Arbeitsabläufe und Unternehmensfunktions- und Unternehmensebenenanforderungen. Die Dienste, die mit den beschriebenen „Begriffen“ ausgeführt werden, können auf jeder Schicht auf eine Weise verwaltet werden, dass Echtzeit- und Laufzeitvertragskonformität für die Transaktion während des Lebenszyklus des Dienstes sichergestellt wird. Wenn eine Komponente in der Transaktion ihre vereinbarte Dienstgütevereinbarung (SLA, Service Level Agreement) verfehlt, kann das System als Ganzes (Komponenten in der Transaktion) die Fähigkeit bereitstellen, (1) die Auswirkung der SLA-Verletzung zu verstehen und (2) andere Komponenten in dem System zu erweitern, um die gesamte Transaktions-SLA wiederaufzunehmen, und (3) Schritte zu implementieren, um Abhilfe zu schaffen.
  • Dementsprechend kann unter Berücksichtigung dieser Variationen und Dienstleistungsmerkmale Edge-Computing innerhalb der Edge-Cloud 110 die Fähigkeit bereitstellen, mehrere Anwendungen der Verwendungsfälle 205 (z.B. Objektverfolgung, Videoüberwachung, verbundene Autos usw.) in Echtzeit oder nahezu Echtzeit zu bedienen und auf diese zu reagieren und Anforderungen an ultraniedrige Latenz für diese mehreren Anwendungen zu erfüllen. Diese Vorteile ermöglichen eine ganz neue Klasse von Anwendungen (z.B. Virtual Network Functions (VNFs), Function as a Service (FaaS), Edge as a Service (EaaS), Standardprozesse usw.), die herkömmliches Cloud-Computing aufgrund von Latenz oder anderen Einschränkungen nicht nutzen können.
  • Mit den Vorteilen von Edge-Computing ergeben sich jedoch die folgenden Vorbehalte. Die Vorrichtungen, die sich an der Edge befinden, sind häufig derart ressourcenbeschränkt, dass Druck auf die Nutzung von Edge-Ressourcen besteht. Typischerweise wird dies durch das Pooling von Speicher und Speicherungsressourcen zur Verwendung durch mehrere Benutzer (Mandanten) und Vorrichtungen adressiert. Die Edge kann hinsichtlich Leistung und Kühlung eingeschränkt sein, sodass der Leistungsverbrauch durch die Anwendungen berücksichtigt werden muss, die die meiste Leistung verbrauchen. Es kann bei diesen gepoolten Speicherressourcen inhärente Leistung-Performanz-Kompromisse geben, da viele von ihnen wahrscheinlich entstehende Speichertechnologien verwenden, bei welchen mehr Leistung eine größere Speicherbandbreite benötigt. Gleichermaßen sind verbesserte Sicherheit von Hardware und vertrauenswürdigen Root-of-Trust-Funktionen ebenfalls erforderlich, da Edge-Orte unbemannt sein können und sogar zugelassenen Zugriff benötigen können (z.B. wenn sie an einem Standort eines Dritten untergebracht sind). Solche Probleme vergrößern sich in der Edge-Cloud 110 bei einer Multi-Mandanten-, Multi-Eigentümer- oder Multi-Zugriffseinstellung, bei der Dienste und Anwendungen von vielen Benutzern angefordert werden, insbesondere da die Netzwerkverwendung dynamisch schwankt und sich die Zusammensetzung der mehreren Stakeholder, Anwendungsfälle und Dienste ändert.
  • Auf einer generischeren Ebene kann ein Edge-Computing-System so beschrieben werden, dass es eine beliebige Anzahl von Einsätzen an den zuvor erläuterten Schichten umfasst, die in der Edge-Cloud 110 (Netzwerkschichten 200-240) arbeiten, die eine Koordination von Client- und verteilten Rechenvorrichtungen bereitstellen. Ein oder mehrere Edge-Gateway-Knoten, ein oder mehrere Edge-Aggregationsknoten und ein oder mehrere Kerndatenzentren können über Schichten des Netzwerks verteilt sein, um eine Implementierung des Edge-Computing-Systems durch oder im Auftrag eines Telekommunikationsdienstanbieters („telco“ oder „TSP“), Internet-der-Dinge-Dienstanbieters, Cloud-Dienstanbieters (CSP), einer Unternehmensentität oder einer beliebigen anderen Anzahl von Entitäten bereitzustellen. Verschiedene Implementierungen und Konfigurationen des Edge-Computing-Systems können dynamisch bereitgestellt werden, wie etwa, wenn sie orchestriert sind, um Dienstziele zu erfüllen.
  • Im Einklang mit den hierin bereitgestellten Beispielen kann ein Client-Rechenknoten als eine beliebige Art von Endpunktkomponente, -vorrichtung, -gerät oder anderem Ding ausgebildet sein, die bzw. das fähig ist, als ein Erzeuger oder Verbraucher von Daten zu kommunizieren. Ferner bedeutet die Kennzeichnung „Knoten“ oder „Vorrichtung“, wie sie im Edge-Computing-System verwendet wird, nicht notwendigerweise, dass ein derartiger Knoten oder eine derartige Vorrichtung in einer Client- oder Agent-/Minion-/Followerrolle betrieben wird; vielmehr bezeichnen beliebige der Knoten oder Vorrichtungen im Edge-Computing-System einzelne Entitäten, Knoten oder Subsysteme, die diskrete oder verbundene Hardware- oder Softwarekonfigurationen aufweisen, um die Edge-Cloud 110 zu ermöglichen oder zu verwenden.
  • Von daher ist die Edge-Cloud 110 aus Netzwerkkomponenten und funktionalen Merkmalen gebildet, die durch und innerhalb von Edge-Gateway-Knoten, Edge-Aggregationsknoten oder anderen Edge-Rechenknoten unter den Netzwerkschichten 210-230 betrieben werden. Die Edge-Cloud 110 kann somit als eine beliebige Art von Netzwerk umgesetzt sein, das Edge-Computing- und/oder Speicherungsressourcen bereitstellt, die sich nahe an funkzugangsnetz- (RAN-) fähigen Endpunktvorrichtungen (z.B. Mobilrechenvorrichtungen, IoT-Vorrichtungen, intelligente Vorrichtungen usw.) befinden, die hier erläutert werden. Mit anderen Worten kann die Edge-Cloud 110 als eine „Edge“ vorgesehen sein, die Endpunktvorrichtungen und herkömmliche Netzwerkzugangspunkte verbindet, die als ein Eintrittspunkt in Dienstanbieterkernnetzwerke dienen, einschließlich Mobilträgernetzwerken (z.B. GSM- (Global System for Mobile Communications) Netzwerke, LTE- (Long Term Evolution) Netzwerke, 5G/6G-Netzwerke usw.), während auch Speicherungs- und/oder Rechenfähigkeiten bereitgestellt werden. Andere Arten und Formen des Netzwerkzugangs (z.B. Wi-Fi, Long-Range-Wireless, drahtgebundene Netzwerke einschließlich optischer Netzwerke) können ebenfalls anstelle von oder in Kombination mit solchen 3GPP-Betreibernetzwerken genutzt werden.
  • Die Netzwerkkomponenten der Edge-Cloud 110 können Server, Multi-Mandanten-Server, Geräterechenvorrichtungen und/oder eine beliebige andere Art von Rechenvorrichtungen sein. Zum Beispiel kann die Edge-Cloud 110 eine Geräterechenvorrichtung beinhalten, die eine eigenständige elektronische Vorrichtung einschließlich eines Gehäuses, eines Chassis, einer Hülle oder einer Ummantelung ist. Unter Umständen kann das Gehäuse zur Transportierbarkeit derart dimensioniert sein, dass es von einem Menschen getragen und/oder versendet werden kann. Beispielhafte Gehäuse können Materialien beinhalten, die eine oder mehrere Außenoberflächen bilden, die den Inhalt des Geräts teilweise oder vollständig schützen, wobei der Schutz Wetterschutz, Schutz vor gefährlichen Umgebungen (z.B. elektromagnetische Interferenz (EMI), Vibration, extreme Temperaturen usw.) beinhalten und/oder Eintauchfähigkeit ermöglichen kann. Beispielhafte Gehäuse können Leistungsschaltungsanordnungen beinhalten, um Leistung für stationäre und/oder portable Implementierungen bereitzustellen, wie etwa Wechselstrom- (AC-) Leistungseingänge, Gleichstrom- (DC-) Leistungseingänge, AC/DC-Wandler, DC/AC-Wandler, DC/DC-Wandler, Leistungsregler, Transformatoren, Ladeschaltungsanordnungen, Batterien, drahtgebundene Eingänge und/oder drahtlose Leistungseingänge. Beispielhafte Gehäuse und/oder Oberflächen davon können Montagehardware beinhalten oder damit verbunden sein, um Befestigung an Strukturen, wie etwa Gebäuden, Telekommunikationsstrukturen (z.B. Masten, Antennenstrukturen usw.) und/oder Racks (z.B. Server-Racks, Blade-Halterungen usw.), zu ermöglichen. Beispielhafte Gehäuse oder Oberflächen davon können einen oder mehrere Sensoren (z.B. Temperatursensoren, Vibrationssensoren, Lichtsensoren, Akustiksensoren, kapazitive Sensoren, Näherungssensoren, Infrarot- oder andere visuell-thermische Sensoren usw.) unterstützen. Ein oder mehrere derartige Sensoren können in der Oberfläche enthalten, von dieser getragen oder anderswie eingebettet und/oder an der Oberfläche des Geräts montiert sein. Beispielhafte Gehäuse und/oder Oberflächen davon können mechanische Konnektivität unterstützen, wie etwa Antriebshardware (z.B. Räder, Rotoren, wie etwa Propeller usw.) und/oder Gelenkhardware (z.B. Roboterarme, schwenkbare Fortsätze usw.). Unter Umständen können die Sensoren eine beliebige Art von Eingabevorrichtungen beinhalten, wie etwa Benutzerschnittstellenhardware (z.B. Tasten, Schalter, Wählscheiben, Schieber, Mikrofone usw.). Unter Umständen beinhalten beispielhafte Gehäuse Ausgabeeinrichtungen, die in diesen enthalten, durch diese getragen, in diese eingebettet und/oder an diesen angebracht sind. Ausgabevorrichtungen können Anzeigen, Touchscreens, Leuchten, Leuchtdioden (LEDs), Lautsprecher, Eingabe/Ausgabe- (E/A-) Ports (z.B. Universal Serial Bus (USB)) usw. beinhalten. Unter Umständen sind Edge-Vorrichtungen Vorrichtungen, die in dem Netzwerk für einen spezifischen Zweck (z.B. eine Ampel) ausgestellt werden, können aber Verarbeitungs- oder andere Kapazitäten aufweisen, die für andere Zwecke genutzt werden können. Solche Edge-Vorrichtungen können unabhängig von anderen vernetzten Vorrichtungen sein und können mit einem Gehäuse bereitgestellt sein, das einen Formfaktor aufweist, der für ihren primären Zweck geeignet ist, aber dennoch für andere Rechenaufgaben verfügbar sein, die ihre primäre Aufgabe nicht stören. Edge-Vorrichtungen beinhalten Vorrichtungen des Internets der Dinge. Die Geräterechenvorrichtung kann Hardware- und Softwarekomponenten aufweisen, um lokale Faktoren, wie etwa Vorrichtungstemperatur, Vibration, Ressourcenauslastung, Aktualisierungen, Leistungsaspekte, physische und Netzwerksicherheit usw. zu verwalten. Beispielhafte Hardware zum Implementieren einer Geräterechenvorrichtung ist in Verbindung mit 7B beschrieben. Die Edge-Cloud 110 kann auch einen oder mehrere Server und/oder einen oder mehrere mandantenfähige Server beinhalten. Ein solcher Server kann ein Betriebssystem aufweisen und eine virtuelle Datenverarbeitungsumgebung implementieren. Eine virtuelle Rechenumgebung kann einen Hypervisor beinhalten, der eine oder mehrere virtuelle Maschinen, einen oder mehrere Container usw. verwaltet (z.B. spawnt, einsetzt, in Betrieb setzt, zerstört, außer Betrieb setzt usw.). Solche virtuellen Rechenumgebungen stellen eine Ausführungsumgebung bereit, in der eine oder mehrere Anwendungen oder andere Software, anderer Code oder andere Skripte ausgeführt werden können, während sie von einer oder mehreren anderen Anwendungen, Software, Code oder Skripten isoliert sind.
  • In 3 tauschen verschiedene Client-Endpunkte 310 (in der Form von Mobilvorrichtungen, Computern, autonomen Fahrzeugen, Geschäftsrechenanlagen, industriellen Verarbeitungsanlagen) Anfragen und Antworten aus, die für den Typ der Endpunktnetzwerkaggregation spezifisch sind. Beispielsweise können Client-Endpunkte 310 Netzwerkzugang über ein drahtgebundenes Breitbandnetzwerk erhalten, indem Anfragen und Antworten 322 durch ein Vor-Ort-Netzwerksystem 332 ausgetauscht werden. Manche Client-Endpunkte 310, wie etwa mobile Rechenvorrichtungen, können Netzwerkzugang über ein drahtloses Breitbandnetzwerk erhalten, indem sie Anfragen und Antworten 324 durch einen Zugangspunkt (z.B. einen Mobilfunkturm) 334 austauschen. Manche Client-Endpunkte 310, wie etwa autonome Fahrzeuge, können Netzwerkzugang für Anfragen und Antworten 326 über ein drahtloses Fahrzeugnetzwerk durch ein auf Straßen angeordnetes Netzwerksystem 336 erhalten. Unabhängig von der Art des Netzwerkzugangs kann der TSP jedoch Aggregationspunkte 342, 344 innerhalb der Edge-Cloud 110 einsetzen, um Verkehr und Anfragen zu aggregieren. Somit kann der TSP innerhalb der Edge-Cloud 110 verschiedene Rechen- und Speicherungsressourcen einsetzen, wie etwa an Edge-Aggregationsknoten 340, um angeforderten Inhalt bereitzustellen. Die Edge-Aggregationsknoten 340 und andere Systeme der Edge-Cloud 110 sind mit einer Cloud oder einem Datenzentrum 360 verbunden, das ein Backhaul-Netzwerk 350 verwendet, um Anfragen mit höherer Latenz von einer Cloud/einem Datenzentrum für Websites, Anwendungen, Datenbankserver usw. zu erfüllen. Zusätzliche oder konsolidierte Instanzen der Edge-Aggregationsknoten 340 und der Aggregationspunkte 342, 344, einschließlich jener, die in einem einzigen Server-Framework eingesetzt werden, können auch innerhalb der Edge-Cloud 110 oder anderer Bereiche der TSP-Infrastruktur vorhanden sein.
  • Es versteht sich, dass die hierin besprochenen Edge-Rechensysteme und - Anordnungen in verschiedenen Lösungen, Diensten und/oder Anwendungsfällen anwendbar sein können, die Mobilität einbeziehen. Als ein Beispiel zeigt 4 einen vereinfachten Fahrzeugberechnungs- und Kommunikationsverwendungsfall, der einen mobilen Zugriff auf Anwendungen in einem Edge-Rechensystem 400 involviert, das eine Edge-Cloud 110 implementiert. In diesem Anwendungsfall können die jeweiligen Client-Rechenknoten 410 als fahrzeuginterne Rechensysteme (z.B. fahrzeuginterne Navigations- und/oder Infotainmentsysteme) ausgebildet sein, die sich in entsprechenden Fahrzeugen befinden, die mit den Edge-Gatewayknoten 420 während des Durchfahrens einer Straße kommunizieren. Beispielsweise können sich die Edge-Gatewayknoten 420 in einem Schrank am Straßenrand oder einer anderen Einhausung befinden, die in eine Struktur eingebaut ist, die einen anderen, separaten, mechanischen Nutzen aufweist und entlang der Straße, an Kreuzungen der Straße oder anderen Standorten nahe der Straße platziert werden kann. Wenn jeweilige Fahrzeuge entlang der Straße fahren, kann die Verbindung zwischen ihrem Client-Rechenknoten 410 und einer ermittelten Edge-Gateway-Vorrichtung 420 propagieren, sodass eine konsistente Verbindung und ein konsistenter Kontext für den Client-Rechenknoten 410 aufrechterhalten werden. Gleichermaßen können mobile Edge-Knoten an den Diensten mit hoher Priorität oder gemäß den Durchsatz- oder Latenzauflösungsanforderungen für den oder die zugrundeliegenden Dienste aggregieren (z.B. im Fall von Drohnen). Die jeweiligen Edge-Gateway-Vorrichtungen 420 beinhalten eine Menge an Verarbeitungs- und Speicherungsfähigkeiten, und daher können etwas Verarbeitung und/oder Speicherung von Daten für die Client-Rechenknoten 410 auf einem oder mehreren der Edge-Gateway-Vorrichtungen 420 durchgeführt werden.
  • Die Edge-Gateway-Vorrichtungen 420 können mit einem oder mehreren Edge-Ressourcenknoten 440 kommunizieren, die veranschaulichend als Rechenserver, Geräte oder Komponenten umgesetzt sind, die sich an oder in einer Kommunikationsbasisstation 442 (z.B. einer Basisstation eines Mobilfunknetzes) befinden. Wie vorstehend besprochen, beinhalten die jeweiligen Edge-Ressourcenknoten 440 eine Menge an Verarbeitungs- und Speicherungsfähigkeiten, und somit kann ein Teil der Verarbeitung und/oder Speicherung von Daten für die Client-Rechenknoten 410 auf dem Edge-Ressourcenknoten 440 durchgeführt werden. Zum Beispiel kann die Verarbeitung von Daten, die weniger dringend oder wichtig sind, durch den Edge-Ressourcenknoten 440 durchgeführt werden, während die Verarbeitung von Daten, die eine höhere Dringlichkeit oder Wichtigkeit aufweisen, durch die Edge-Gateway-Knoten 420 durchgeführt werden kann (in Abhängigkeit von zum Beispiel den Fähigkeiten jeder Komponente oder Informationen in der Anfrage, die die Dringlichkeit oder Wichtigkeit angeben). Basierend auf Datenzugriff, Datenposition oder Latenz kann die Arbeit auf Edge-Ressourcenknoten fortgesetzt werden, wenn sich die Verarbeitungsprioritäten während der Verarbeitungsaktivität ändern. Gleichermaßen können konfigurierbare Systeme oder Hardwareressourcen selbst aktiviert werden (z.B. durch einen lokalen Orchestrator), um zusätzliche Ressourcen bereitzustellen, um den neuen Bedarf zu erfüllen (z.B. Anpassen der Rechenressourcen an die Arbeitslastdaten).
  • Der eine oder die mehreren Edge-Ressourcenknoten 440 kommunizieren auch mit dem Kerndatenzentrum 450, das Rechenserver, -geräte und/oder andere Komponenten beinhalten kann, die sich an einem Zentralort (z.B. einer Zentrale eines zellularen Kommunikationsnetzes) befinden. Das Kerndatenzentrum 450 kann ein Gateway zu der globalen Netzwerk-Cloud 460 (z.B. dem Internet) für die Operationen der Edge-Cloud 110 bereitstellen, die durch den einen oder die mehreren Edge-Ressourcenknoten 440 und die Edge-Gateway-Knoten 420 gebildet werden. Zusätzlich kann das Kerndatenzentrum 450 in einigen Beispielen eine Reihe von Verarbeitungs- und Speicherungsfähigkeiten beinhalten, und somit kann ein Teil der Verarbeitung und/oder der Speicherung von Daten für die Client-Rechenvorrichtungen auf dem Kerndatenzentrum 450 durchgeführt werden (z.B. Verarbeitung mit niedriger Dringlichkeit oder Wichtigkeit oder hoher Komplexität).
  • Die Edge-Gateway-Knoten 420 oder die Edge-Ressourcenknoten 440 können die Verwendung zustandsorientierter Anwendungen 432 und einer geografisch verteilten Datenbank 434 anbieten. Auch wenn die Anwendungen 432 und die Datenbank 434 als horizontal auf einer Schicht der Edge-Cloud 110 verteilt veranschaulicht sind, versteht es sich, dass Ressourcen, Dienste oder andere Komponenten der Anwendung vertikal über die Edge-Cloud verteilt sein können (einschließlich eines Teils der Anwendung, der an dem Client-Rechenknoten 410 ausgeführt wird, anderer Teile an den Edge-Gateway-Knoten 420 oder den Edge-Ressourcenknoten 440 usw.). Zusätzlich dazu kann es, wie zuvor angegeben, Peer-Beziehungen auf einer beliebigen Ebene geben, um Dienstziele und Verpflichtungen zu erfüllen. Ferner können sich die Daten für einen speziellen Client oder eine spezielle Anwendung basierend auf sich ändernden Bedingungen von Edge zu Edge bewegen (z.B. basierend auf Beschleunigungsressourcenverfügbarkeit, Folgen der Autobewegung usw.). Beispielsweise kann basierend auf der „Abklingrate“ des Zugangs eine Vorhersage getroffen werden, um den nächsten Eigentümer zum Fortsetzen zu identifizieren, oder wann die Daten oder der rechnerische Zugang nicht mehr praktikabel sein werden. Diese und andere Dienste können genutzt werden, um die Arbeit abzuschließen, die notwendig ist, um die Transaktion konform und verlustfrei zu halten.
  • In weiteren Szenarien kann ein Container 436 (oder ein Pod von Containern) flexibel von einem Edge-Knoten 420 zu anderen Edge-Knoten (z.B. 420, 440 usw.) migriert werden, sodass der Container mit einer Anwendung und Arbeitslast nicht rekonstituiert, neu kompiliert, neu interpretiert werden muss, damit die Migration funktioniert. In derartigen Szenarien können jedoch einige abhelfende oder „Swizzling“-Übersetzungsoperationen angewendet werden. Zum Beispiel kann sich die physische Hardware am Knoten 440 vom Edge-Gateway-Knoten 420 unterscheiden, und daher wird die Hardware-Abstraktionsschicht (HAL), die die untere Edge des Containers bildet, erneut auf die physische Schicht des Ziel-Edge-Knotens abgebildet. Dies kann irgendeine Form einer späten Bindungstechnik beinhalten, wie etwa binäre Übersetzung der HAL von dem nativen Containerformat in das physische Hardwareformat, oder kann eine Abbildung von Schnittstellen und Operationen beinhalten. Eine Pod-Steuerung kann verwendet werden, um das Schnittstellen-Mapping als Teil des Containerlebenszyklus anzusteuern, was Migration zu/von unterschiedlichen Hardwareumgebungen beinhaltet.
  • Die Szenarien, die von 4 umfasst sind, können verschiedene Arten von mobilen Edge-Knoten nutzen, wie etwa einen Edge-Knoten, der in einem Fahrzeug (Auto/Lastkraftwagen/Straßenbahn/Zug) gehostet wird, oder andere mobile Einheiten, da sich der Edge-Knoten zu anderen geografischen Orten entlang der Plattform, die ihn hostet, bewegen wird. Bei Fahrzeug-zu-Fahrzeug-Kommunikationen können einzelne Fahrzeuge sogar als Netzwerk-Edge-Knoten für andere Autos fungieren (z.B. um Caching, Berichterstellung, Datenaggregation usw. durchzuführen). Somit versteht es sich, dass die Anwendungskomponenten, die in verschiedenen Edge-Knoten bereitgestellt sind, in statischen oder mobilen Einstellungen verteilt sein können, einschließlich Koordination zwischen einigen Funktionen oder Operationen an einzelnen Endpunktvorrichtungen oder den Edge-Gateway-Knoten 420, einigen anderen an dem Edge-Ressourcenknoten 440 und anderen in dem Kerndatenzentrum 450 oder der globalen Netzwerk-Cloud 460.
  • In weiteren Konfigurationen kann das Edge-Rechensystem FaaS-Rechenfähigkeiten durch die Verwendung jeweiliger ausführbarer Anwendungen und Funktionen implementieren. In einem Beispiel schreibt ein Entwickler Funktionscode (hier z.B. „Computercode“), der eine oder mehrere Computerfunktionen repräsentiert, und der Funktionscode wird auf eine FaaS-Plattform hochgeladen, die zum Beispiel durch einen Edge-Knoten oder ein Datenzentrum bereitgestellt wird. Ein Auslöser, wie beispielsweise ein Dienstanwendungsfall oder ein Edge-Verarbeitungsereignis, initiiert die Ausführung des Funktionscodes mit der FaaS-Plattform.
  • Bei einem Beispiel für FaaS wird ein Container verwendet, um eine Umgebung bereitzustellen, in der Funktionscode (z.B. eine Anwendung, die durch einen Drittanbieter bereitgestellt werden kann) ausgeführt wird. Der Container kann eine beliebige Entität mit isolierter Ausführung sein, wie etwa ein Prozess, ein Docker- oder Kubernete-Container, eine virtuelle Maschine usw. Innerhalb des Edge-Rechensystems werden verschiedene Rechenzenten-, Edge- und Endpunktvorrichtungen (einschließlich Mobilvorrichtungen) verwendet, um Funktionen „hochzufahren“ (z.B. Funktionsaktionen zu aktivieren und/oder zuzuweisen), die auf Abruf skaliert werden. Der Funktionscode wird auf der physischen Infrastrukturvorrichtung (z.B. Edge-Rechenknoten) und zugrundeliegenden virtualisierten Containern ausgeführt. Schließlich werden die eine oder die mehreren Funktionen in Reaktion darauf, dass die Ausführung abgeschlossen ist, auf der Infrastruktur „heruntergefahren“ (z.B. deaktiviert und/oder freigegeben).
  • Weitere Aspekte von FaaS können eine Bereitstellung von Edge-Funktionen als Dienst ermöglichen, einschließlich Unterstützung jeweiliger Funktionen, die Edge-Computing als Dienst unterstützen (Edge-as-a-Service oder „EaaS“). Zusätzliche Merkmale von FaaS können beinhalten: eine granuläre Abrechnungskomponente, die Kunden (z.B. Computercodeentwicklern) ermöglicht, nur zu bezahlen, wenn ihr Code ausgeführt wird; gemeinsame Datenspeicherung zum Speichern von Daten zur Wiederverwendung durch eine oder mehrere Funktionen; Orchestrierung und Verwaltung zwischen einzelnen Funktionen; Funktionsausführungsverwaltung, Parallelität und Konsolidierung; Verwaltung von Container- und Funktionsspeicherplätzen; Koordination von Beschleunigungsressourcen, die für Funktionen verfügbar sind; und Verteilung von Funktionen zwischen Containern (einschließlich „warmer“ Container, die bereits eingesetzt oder betrieben werden, versus „kalter“ Container, die eine Initialisierung, Bereitstellung oder Konfiguration erfordern).
  • Das Edge-Computing-System 400 kann einen Edge-Bereitstellungsknoten 444 beinhalten oder mit diesem in Kommunikation stehen. Der Edge-Bereitstellungsknoten 444 kann Software, wie etwa die beispielhaften maschinen- (z.B. computer-) lesbaren Anweisungen 782 von 7B, an verschiedene Empfangsteilnehmer zum Implementieren eines beliebigen der hierin beschriebenen Verfahren verteilen. Der beispielhafte Edge-Bereitstellungsknoten 444 kann durch einen beliebigen Computerserver, einen Heimserver, ein Inhaltslieferungsnetzwerk, einen virtuellen Server, ein Softwareverteilungssystem, eine zentrale Anlage, eine Speicherungsvorrichtung, Speicherungsplatten, einen Speicherungsknoten, eine Datenanlage, einen Cloud-Dienst usw. implementiert werden, der/die/das in der Lage ist, Softwareanweisungen (z.B. Code, Skripte, ausführbare Binärcodes, Container, Pakete, komprimierte Dateien und/oder Ableitungen davon) zu speichern und/oder an andere Rechenvorrichtungen zu übertragen. Eine oder mehrere Komponenten des beispielhaften Edge-Bereitstellungsknotens 444 können sich in einer Cloud, in einem lokalen Netzwerk, in einem Edge-Netzwerk, in einem Fernnetz, im Internet und/oder an einem beliebigen anderen Standort befinden, der kommunikativ an die eine oder mehreren Empfangsparteien gekoppelt ist. Die Empfangsparteien können Kunden, Clients, Teilhaber, Benutzer usw. der Entität sein, die den Edge-Bereitstellungsknoten 444 besitzt und/oder betreibt. Beispielsweise kann die Entität, die den Edgebereitstellungsknoten 444 besitzt und/oder betreibt, ein Entwickler, ein Verkäufer und/oder ein Lizenzgeber (oder ein Kunde und/oder Verbraucher davon) von Softwareanweisungen, wie etwa die beispielhaften computerlesbaren Anweisungen 782 aus 3, sein. Die Empfangsteilnehmer können Verbraucher, Dienstanbieter, Benutzer, Einzelhändler, OEMs usw. sein, die die Softwareanweisungen zur Verwendung und/oder zum Weiterverkauf und/oder zum Sublizenzieren erwerben und/oder lizenzieren.
  • In einem Beispiel beinhaltet der Edge-Bereitstellungsknoten 644 einen oder mehrere Server und eine oder mehrere Speichervorrichtungen/-platten. Die Speichervorrichtungen und/oder Speicherplatten hosten computerlesbare Anweisungen, wie etwa die beispielhaften computerlesbaren Anweisungen 782 von 7B, wie nachstehend beschrieben. Ähnlich den oben beschriebenen Edge-Gateway-Vorrichtungen 420 stehen der eine oder die mehreren Server des Edge-Bereitstellungsknotens 444 in Kommunikation mit einer Basisstation 442 oder einer anderen Netzwerkkommunikationsentität. In einigen Beispielen reagieren der eine oder die mehreren Server auf Anfragen, die Softwareanweisungen als Teil einer kommerziellen Transaktion an einen anfragenden Teilnehmer zu übertragen. Die Zahlung für die Lieferung, den Verkauf und/oder die Lizenz der Softwareanweisungen kann durch den einen oder die mehreren Server der Softwareverteilungsplattform und/oder über eine Drittanbieter-Zahlungsentität gehandhabt werden. Die Server ermöglichen Käufern und/oder Lizenzgebern, die computerlesbaren Anweisungen 782 von dem Edge-Bereitstellungsknoten 444 herunterzuladen. Zum Beispiel können die Softwareanweisungen, die den beispielhaften computerlesbaren Anweisungen 1282 von 7B entsprechen können, auf die eine oder die mehreren beispielhaften Prozessorplattformen heruntergeladen werden, die die computerlesbaren Anweisungen ausführen sollen, um die hierin beschriebenen Verfahren zu implementieren.
  • In einigen Beispielen können sich die Prozessorplattform(en), die die computerlesbaren Anweisungen 782 ausführen, physisch an verschiedenen geografischen Standorten, in verschiedenen gesetzlichen Zuständigkeitsbereichen usw. befinden. In manchen Beispielen bieten, übertragen und/oder erzwingen ein oder mehrere Server des Edge-Bereitstellungsknotens 444 periodisch Aktualisierungen der Softwareanweisungen (z.B. der beispielhaften computerlesbaren Anweisungen 782 von 7B), um sicherzustellen, dass Verbesserungen, Patches, Aktualisierungen usw. verteilt und auf die Softwareanweisungen angewendet werden, die an den Endbenutzervorrichtungen implementiert sind. In einigen Beispielen können unterschiedliche Komponenten der computerlesbaren Anweisungen 1282 von unterschiedlichen Quellen und/oder an unterschiedliche Prozessorplattformen verteilt sein; zum Beispiel können unterschiedliche Bibliotheken, Plug-ins, Komponenten und andere Typen von Rechenmodulen, ob kompiliert oder interpretiert, von unterschiedlichen Quellen und/oder an unterschiedliche Prozessorplattformen verteilt sein. Zum Beispiel kann ein Teil der Softwareanweisungen (z.B. ein Skript, das für sich nicht ausführbar ist) aus einer ersten Quelle verteilt werden, während ein Interpreter (der in der Lage ist, das Skript auszuführen) aus einer zweiten Quelle verteilt werden kann.
  • 5 veranschaulicht eine Mobil-Edge-System-Referenzarchitektur (oder MEC-Architektur) 500, wie sie durch ETSI-MEC-Spezifikationen angegeben ist. 5 veranschaulicht insbesondere eine MEC-Architektur 500 mit MEC-Hosts 502 und 504, die Funktionalitäten gemäß der ETSI-GS MEC-003-Spezifikation bereitstellen. Gemäß einigen Aspekten können Verbesserungen an der MEC-Plattform 532 und dem MEC-Plattformmanager 506 verwendet werden, um spezifische Rechenfunktionen innerhalb der MEC-Architektur 500 bereitzustellen.
  • Unter Bezugnahme auf 5 kann die MEC-Netzwerkarchitektur 500 MEC-Hosts 502 und 504, einen Virtualisierungsinfrastrukturmanager (VIM) 508, einen MEC-Plattform-Manager 506, einen MEC-Orchestrator 510, ein Betriebsunterstützungssystem 512, einen Benutzerapp-Proxy 514, eine UE-APP 518, die auf dem UE 520 läuft, und ein CFS-Portal 516 beinhalten. Der MEC-Host 502 kann eine MEC-Plattform 532 mit Filterregelsteuerkomponente 540, eine DNS-Handhabungskomponente 542, ein Dienstregister 538 und MEC-Dienste 536 umfassen. Die MEC-Dienste 536 können mindestens einen Scheduler beinhalten, der verwendet werden kann, um Ressourcen zum Instanziieren von MEC-Apps (oder NFVs) 526, 527 und 528 auf der Virtualisierungsinfrastruktur 522 auszuwählen. Die MEC-Apps 526 und 528 können dazu ausgelegt sein, Dienste 530 und 531 bereitzustellen, die Verarbeiten von Netzwerkkommunikationsverkehr unterschiedlicher Typen umfassen können, die mit einer oder mehreren drahtlosen Verbindungen (z.B. Verbindungen zu einer oder mehreren RAN- oder Telekernnetzwerkentitäten) assoziiert sind. Die MEC-App 505, die innerhalb des MEC-Hosts 504 instanziiert ist, kann den MEC-Apps 526-7728, die innerhalb des MEC-Hosts 502 instanziiert sind, ähnlich sein. Die Virtualisierungsinfrastruktur 522 weist eine Datenebene 524 auf, die über eine MP2-Schnittstelle mit der MEC-Plattform gekoppelt ist. Zusätzliche Schnittstellen zwischen verschiedenen Netzwerkentitäten der MEC-Architektur 500 sind in 5 veranschaulicht.
  • Der MEC-Plattform-Manager 506 kann eine MEC-Plattformelementverwaltungskomponente 544, eine MEC-App-Regel- und Anforderungsverwaltungskomponente 546 und eine MEC-App-Lebenszyklusverwaltungskomponente 548 aufweisen. Die verschiedenen Entitäten innerhalb der MEC-Architektur 500 können Funktionalitäten durchführen, wie durch die ETSI-GS MEC-003-Spezifikation offenbart. Bei einigen Aspekten ist die Fernanwendung (oder App) 550 dazu konfiguriert, mit dem MEC-Host 502 (z.B. mit den MEC-Apps 526-528) über den MEC-Orchestrator 510 und den MEC-Plattform-Manager 506 zu kommunizieren.
  • 6 veranschaulicht eine beispielhafte MEC-Dienstarchitektur 600. Die MEC-Dienstarchitektur 600 beinhaltet den MEC-Dienst 605, eine Mehrfachzugriff-Edge-(ME-) Plattform 610 (die der MEC-Plattform 532 entspricht) und Anwendungen (Apps) 1 bis N (wobei N eine Zahl ist). Als ein Beispiel kann die App 1 ein(e) Inhaltslieferungsnetzwerk-(Content Delivery Network, CDN) App/Dienst sein, die/der 1, ..., n Sitzungen hostet (wobei n eine Zahl ist, die gleich oder anders als N ist), App 2 kann ein(e) Gaming-App/Dienst sein, die/der als zwei Sitzungen hostend gezeigt ist, und App N kann irgendein(e) andere(r) App/Dienst sein, die/der als eine einzelne Instanz gezeigt ist (z.B. keine Sitzungen hostend). Jede App kann eine verteilte Anwendung sein, die Aufgaben und/oder Arbeitslasten zwischen Ressourcenanbietern (z.B. Servern, wie etwa der ME-Plattform 610) und Konsumenten (z.B. UEs, Benutzer-Apps, die von einzelnen UEs instanziiert werden, anderen Servern/Diensten, Netzwerkfunktionen, Anwendungsfunktionen usw.) partitioniert. Jede Sitzung repräsentiert einen interaktiven Informationsaustausch zwischen zwei oder mehr Elementen, wie etwa einer clientseitigen App und ihrer entsprechenden serverseitigen App, einer Benutzerapp, die durch ein UE instanziiert wird, und einer MEC-App, die durch die MEC-Plattform 610 instanziiert wird, und/oder dergleichen. Eine Sitzung kann beginnen, wenn die App-Ausführung gestartet oder initiiert wird, und endet, wenn die App die Ausführung verlässt oder beendet. Zusätzlich oder alternativ kann eine Sitzung beginnen, wenn eine Verbindung aufgebaut ist, und enden, wenn die Verbindung beendet wird. Jede App-Sitzung kann einer aktuell laufenden App-Instanz entsprechen. Zusätzlich oder alternativ kann jede Sitzung einer Protokolldateneinheiten- (PDU-) Sitzung oder einer Mehrfachzugriff- (MA-) PDU-Sitzung entsprechen. Eine PDU-Sitzung ist eine Assoziierung zwischen einem UE und einem DN, das einen PDU-Konnektivitätsdienst bereitstellt, der ein Dienst ist, der den Austausch von PDUs zwischen einem UE und einem Datennetzwerk bereitstellt. Eine MA-PDU-Sitzung ist eine PDU-Sitzung, die einen PDU-Konnektivitätsdienst bereitstellt, der jeweils ein Zugangsnetzwerk oder ein 3GPP-Zugangsnetzwerk und ein Nicht-3GPP-Zugangsnetzwerk gleichzeitig verwenden kann. Ferner kann jede Sitzung mit einer Sitzungskennung (ID) assoziiert sein, die Daten sind, die eindeutig eine Sitzung identifizieren, und jede App (oder App-Instanz) kann mit einer App-ID (oder APP-Instanz-ID) assoziiert sein, die Daten sind, die eindeutig eine App (oder App-Instanz) identifizieren.
  • Der MEC-Dienst 605 stellt MEC-Dienstkonsumenten (zum Beispiel Apps 1 bis N) einen oder mehrere MEC-Dienste 536 bereit. Der MEC-Dienst 605 kann optional als Teil der Plattform (zum Beispiel ME-Plattform 610) oder als Anwendung (zum Beispiel ME-App) laufen. Unterschiedliche Apps 1 bis N, unabhängig davon, ob sie eine einzelne Instanz oder mehrere Sitzungen (z.B. ein CDN) verwalten, können spezifische Dienstinfo gemäß ihren Anforderungen für die gesamte Anwendungsinstanz oder unterschiedliche Anforderungen pro Sitzung anfordern. Der MEC-Dienst 605 kann alle Anfragen aggregieren und auf eine Weise agieren, die helfen wird, die BW-Nutzung zu optimieren und Erlebnisqualität (QoE) für Anwendungen zu verbessern.
  • Der MEC-Dienst 605 stellt eine MEC-Dienst-API bereit, die sowohl Anfragen als auch Subskriptionen (zum Beispiel Pub/Sub-Mechanismus) unterstützt, die über eine Representational-State-Transfer-API („REST“ oder „RESTful“-API) oder über alternative Transporte, wie etwa einen Nachrichtenbus, verwendet werden. Für den RESTful-Architekturstil enthalten die MEC-APIs die HTTP-Protokollbindungen für Verkehrsverwaltungsfunktionalität.
  • Jede Hypertext-Transfer-Protocol- (HTTP-) Nachricht ist entweder eine Anfrage oder eine Antwort. Ein Server hört eine Verbindung auf eine Anfrage hin ab, parst jede empfangene Nachricht, interpretiert die Nachrichtensemantik in Bezug auf das identifizierte Anfrageziel und beantwortet diese Anfrage mit einer oder mehreren Antwortnachrichten. Ein Client konstruiert Anfragenachrichten, um spezifische Absichten zu kommunizieren, untersucht empfangene Antworten, um zu sehen, ob die Absichten ausgeführt wurden, und ermittelt, wie die Ergebnisse interpretiert werden sollen. Das Ziel einer HTTP-Anfrage wird als „Ressource“ bezeichnet. Zusätzlich oder alternativ ist eine „Ressource“ ein Objekt mit einem Typ, assoziierten Daten, einem Satz von Verfahren, die darauf arbeiten, und Beziehungen zu anderen Ressourcen, falls anwendbar. Jede Ressource wird von mindestens einem Uniform Ressource Identifier (URI) identifiziert, und ein Ressourcen-URI identifiziert maximal eine Ressource. Ressourcen werden von der RESTful-API mit HTTP-Verfahren (zum Beispiel POST, GET, PUT, DELETE usw.) bearbeitet. Bei jedem HTTP-Verfahren wird ein Ressourcen-URI in der Anfrage zur Adressierung einer bestimmten Ressource übermittelt. Operationen an Ressourcen beeinflussen den Zustand der entsprechenden verwalteten Entitäten.
  • In Anbetracht dessen, dass eine Ressource beliebig sein könnte, und dass die einheitliche Schnittstelle, die von HTTP bereitgestellt wird, einem Fenster ähnlich ist, durch das ein derartiges Ding nur durch die Kommunikation von Nachrichten an irgendeinem unabhängigen Akteur auf der anderen Seite beobachten und darauf einwirken kann, ist eine Abstraktion erforderlich, um den aktuellen oder gewünschten Zustand dieses Dings in unserer Kommunikation darzustellen („an dessen Stelle zu treten“). Diese Abstraktion wird als eine Repräsentation bezeichnet. Für die Zwecke von HTTP ist eine „Repräsentation“ Informationen, die einen vergangenen, aktuellen oder gewünschten Zustand einer gegebenen Ressource in einem Format widerspiegeln soll, das leicht über das Protokoll kommuniziert werden kann. Eine Darstellung umfasst einen Satz von Repräsentationsmetadaten und einen potenziell unbegrenzten Strom von Repräsentationsdaten. Zusätzlich oder alternativ ist eine Ressourcenrepräsentation eine Serialisierung eines Ressourcenzustands in einem bestimmten Inhaltsformat.
  • Einem Ursprungsserver könnten mehrere Repräsentationen bereitgestellt werden oder er könnte in der Lage sein, mehrere Repräsentationen zu erzeugen, die jeweils den aktuellen Zustand einer Zielressource widerspiegeln sollen. In solchen Fällen wird ein Algorithmus vom Ursprungsserver verwendet, um eine dieser Repräsentationen als für eine gegebene Anfrage am besten anwendbar auszuwählen, üblicherweise basierend auf Inhaltsverhandlung. Diese „ausgewählte Repräsentation“ wird verwendet, um die Daten und Metadaten zum Bewerten bedingter Anfragen bereitzustellen, die Nutzlast für Antwortnachrichten konstruieren (zum Beispiel 200 OK, 304 Nicht-Modifiziert-Antworten auf GET, und dergleichen). Eine Ressourcenrepräsentation ist im Nutzdatenrumpf einer HTTP-Anfrage- oder Antwortnachricht enthalten. Ob eine Repräsentation in einer Anfrage erforderlich ist oder nicht erlaubt ist, hängt vom verwendeten HTTP-Verfahren ab (siehe z.B. Fielding et al., „Hypertext Transfer Protocol (HTTP/1.1): Semantics and Content“, IETF RFC 7231 (Juni 2014)).
  • Die Universal Resource Indicators (URIs) für MEC-API-Ressourcen sind in verschiedenen ETSI-MEC-Standards erörtert, wie etwa den hierin erwähnten. Die MTS-API unterstützt zusätzliche anwendungsbezogene Fehlerinformationen, die in der HTTP-Antwort bereitgestellt werden sollen, wenn ein Fehler auftritt (siehe z.B. Klausel 6.15 von ETSI GS MEC 009 V2.1.1 (2019-01) („[MEC009]“)). Die Syntax jeder Ressourcen-URI folgt [MEC009] sowie Berners-Lee et al., „Uniform Resource Identifier (URI): Generic Syntax“, IETF Network Working Group, RFC 3986 (Januar 2005), und/oder Nottingham, „URI Design and Ownership“, IETF RFC 8820 (Juni 2020). In den RESTful-MEC-Dienst-APIs, einschließlich der VIS-API, weist die Ressourcen-URI-Struktur für jede API die folgende Struktur auf:
    • {apiRoot}/{apiName}/{apiVersion}/{apiSpecificSuffixes}
  • Hier beinhaltet „apiRoot“ das Schema („https“), den Host und den optionalen Port sowie eine optionale Präfixzeichenfolge. Der „apiName“ definiert den Namen der API (zum Beispiel MTS-API, RNI-API usw.). „apiVersion“ stellt die Version der API dar, und die „apiSpecificSuffixes“ definieren den Baum von Ressourcen-URIs in einer bestimmten API. Die Kombination von „apiRoot“, „apiName“ und „apiVersion“ wird als Stamm-URI bezeichnet. „apiRoot“ steht unter der Kontrolle Bereitstellung, während die übrigen Teile des URI unter der Kontrolle der API-Spezifikation stehen. In der obigen Wurzel werden „apiRoot“ und „apiName“ unter Verwenden der Dienstregistrierungsdatenbank (siehe zum Beispiel Dienstregistrierungsdatenbank 538 in 5) entdeckt. Es beinhaltet das Schema („http“ oder „https“), den Host und den optionalen Port sowie eine optionale Präfixzeichenfolge. Für eine gegebene MEC-API kann der „apiName“ auf „mec“ gesetzt werden, und „apiVersion“ kann auf eine geeignete Versionsnummer gesetzt werden (zum Beispiel „v1“ für Version 1). Die MEC-APIs unterstützen HTTP über TLS (auch als HTTPS bekannt). Alle Ressourcen-URIs in den MEC-API-Prozeduren werden relativ zum oben genannten Root-URI definiert.
  • Das JSON-Inhaltsformat kann ebenfalls unterstützt werden. Das JSON-Format wird durch den Inhaltstyp „application/json“ signalisiert. Die MTS-API kann den OAuth-2.0-Client-Berechtigungsnachweiserteilungstyp mit Träger-Tokens verwenden (siehe z.B. [MEC009]). Der Token-Endpunkt kann als Teil der in [MEC009] definierten Dienstverfügbarkeitsabfrageprozedur entdeckt werden. Die Client-Berechtigungsnachweise können unter Verwendung bekannter Bereitstellungsmechanismen in der MEC-App bereitgestellt werden.
  • In weiteren Beispielen können jegliche der Rechenknoten oder -vorrichtungen, die unter Bezugnahme auf die vorliegenden Edge-Computing-Systeme und die vorliegende Umgebung erörtert wurden, basierend auf den Komponenten, die in 7A und 7B dargestellt sind, abgewickelt werden. Jeweilige Edge-Rechenknoten können als eine Art von Vorrichtung, Gerät, Computer oder einem anderem „Ding“ umgesetzt sein, der/die/das in der Lage ist, mit anderen Edge-, Vernetzungs- oder Endpunkt-Komponenten zu kommunizieren. Zum Beispiel kann eine Edge-Rechenvorrichtung als ein Personalcomputer, ein Server, ein Smartphone, eine mobile Rechenvorrichtung, ein Smart-Gerät, ein fahrzeuginternes Rechensystem (z.B. ein Navigationssystem), eine eigenständige Vorrichtung mit einem Außengehäuse, einer Ummantelung usw. oder eine andere Vorrichtung oder ein anderes System, das in der Lage ist, die beschriebenen Funktionen durchzuführen, umgesetzt sein.
  • In dem in 7A dargestellten vereinfachten Beispiel beinhaltet ein Edge-Rechenknoten 700 eine Rechen-Engine (hier auch als „Rechenschaltungsanordnung“ bezeichnet) 702, ein Eingabe/Ausgabe-(E/A-) Teilsystem (hier auch als „E/A-Schaltungsanordnung“ bezeichnet) 708, eine Datenspeicherung (hier auch als „Datenspeicherungsschaltungsanordnung“ bezeichnet) 710, ein Kommunikationsschaltungsanordnungs-Teilsystem 712 und optional eine oder mehrere Peripherievorrichtungen (hier auch als „Peripherievorrichtungsschaltungsanordnung“ bezeichnet) 714. In anderen Beispielen können jeweilige Recheneinrichtungen andere oder zusätzliche Komponenten umfassen, wie diejenigen, die üblicherweise in einem Computer zu finden sind (z.B. eine Anzeige, periphere Einrichtungen usw.). Zusätzlich können bei einigen Beispielen eine oder mehrere der veranschaulichenden Komponenten in eine andere Komponente integriert sein oder anderswie einen Teil davon bilden.
  • Der Rechenknoten 700 kann als eine beliebige Art von Engine, Vorrichtung oder Sammlung von Vorrichtungen ausgebildet sein, die in der Lage sind, verschiedene Rechenfunktionen durchzuführen. In einigen Beispielen kann der Rechenknoten 700 als eine einzige Vorrichtung ausgeführt sein, wie etwa eine integrierte Schaltung, ein eingebettetes System, ein frei programmierbares Gate-Array (FPGA), ein Ein-Chip-System (SOC) oder ein anderes integriertes System oder eine andere integrierte Vorrichtung. Bei dem veranschaulichenden Beispiel beinhaltet der Rechenknoten 700 einen Prozessor (hier auch als „Prozessorschaltungsanordnung“ bezeichnet) 704 und einen Speicher (hier auch als „Speicherschaltungsanordnung“ bezeichnet) 706 auf oder ist als dieser ausgeführt. Der Prozessor 704 kann als eine beliebige Art von Prozessor(en) umgesetzt sein, der/die zum Durchführen der hier beschriebenen Funktionen (z.B. Ausführen einer Anwendung) in der Lage ist/sind. Der Prozessor 704 kann zum Beispiel als ein oder mehrere Mehrkernprozessoren, ein Mikrocontroller, eine Verarbeitungseinheit, eine spezialisierte oder Spezial-Verarbeitungseinheit oder ein anderer Prozessor oder eine andere Verarbeitungs-/Steuerschaltung umgesetzt sein.
  • Bei einigen Beispielen kann der Prozessor 704 als ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), eine neu konfigurierbare Hardware oder Hardwareschaltungsanordnung oder eine andere spezialisierte Hardware ausgebildet sein, diese enthalten oder an diese gekoppelt sein, um eine Durchführung der hierin beschriebenen Funktionen zu ermöglichen. In einigen Beispielen kann der Prozessor 704 auch als eine spezialisierte x-Verarbeitungseinheit (xPU) ausgebildet sein, die auch als eine Datenverarbeitungseinheit (DPU), eine Infrastrukturverarbeitungseinheit (IPU) oder eine Netzwerkverarbeitungseinheit (NPU) bekannt ist. Eine solche XPU kann als eine eigenständige Schaltung oder ein eigenständiges Schaltungspaket umgesetzt sein, innerhalb eines SOC integriert sein oder mit einer Vernetzungsschaltungsanordnung (z.B. in einer SmartNIC oder erweiterten SmartNIC), einer Beschleunigungsschaltungsanordnung, Speicherungsvorrichtungen, Speicherungsplatten oder KI-Hardware (z.B. GPUs, programmierte FPGAs oder ASICs, die dazu angepasst sind, ein KI-Modell, wie etwa ein neuronales Netzwerk, zu implementieren) integriert sein. Eine solche xPU kann dazu ausgelegt sein, eine Programmierung zu empfangen, abzurufen und/oder anderweitig zu erhalten, um einen oder mehrere Datenströme zu verarbeiten und spezifische Aufgaben und Aktionen für die Datenströme (wie etwa Hosten von Mikrodiensten, Durchführen einer Dienstverwaltung oder Orchestrierung, Organisieren oder Verwalten von Server- oder Datenzentrums-Hardware, Verwalten von Dienstnetzen oder Erheben und Verteilen von Telemetrie) außerhalb der CPU oder Allzweckverarbeitungshardware durchzuführen. Es versteht sich jedoch, dass eine xPU, ein SoC, eine CPU und andere Varianten des Prozessors 704 koordiniert miteinander arbeiten können, um viele Arten von Operationen und Anweisungen innerhalb des Rechenknotens 700 oder für diesen auszuführen.
  • Der Arbeitsspeicher 706 kann als ein beliebiger Typ von flüchtigem (z.B. dynamischem Direktzugriffsspeicher (DRAM) usw.) oder nichtflüchtigem Speicher oder Datenspeicher ausgebildet sein, der fähig ist, die hier beschriebenen Funktionen durchzuführen. Flüchtiger Speicher kann ein Speicherungsmedium sein, das Energie erfordert, um den Zustand von vom Medium gespeicherten Daten zu bewahren. Nicht einschränkende Beispiele von flüchtigem Speicher können verschiedene Arten von Direktzugriffsspeicher (RAM) wie DRAM oder statischen Direktzugriffsspeicher (SRAM) umfassen. Eine bestimmte Art von DRAM, die in einem Speichermodul verwendet werden kann, ist synchroner dynamischer Direktzugriffsspeicher (SDRAM).
  • In einem Beispiel ist die Speichervorrichtung (z.B. die Speicherschaltungsanordnung) eine beliebige Anzahl von blockadressierbaren Speichervorrichtungen, wie etwa jene, die auf NAND- oder NOR-Technologien basieren (zum Beispiel XXX-Pegel-Zellen, wie etwa Single-Level-Cell („SLC“), Multi-Level-Cell („MLC“), Quad-Level-Cell („QLC““), Tri-Level-Cell („TLC“) oder irgendein anderes NAND). In manchen Beispielen beinhaltet/beinhalten die Speichervorrichtung(en) eine byteadressierbare dreidimensionale Write-in-Place-Crosspoint-Speichervorrichtung oder andere byteadressierbare nichtflüchtige Write-in-Place-Speichervorrichtungen (NVM), wie etwa Ein- oder Mehrpegelphasenwechselspeicher (PCM) oder Phasenwechselspeicher mit einem Schalter (PCMS), NVM-Vorrichtungen, die Chalkogenid-Phasenwechselmaterial (zum Beispiel Chalkogenidglas) verwenden, resistiven Speicher einschließlich Metalloxidbasis, Sauerstoffleerstellenbasis und Leitbrücken-Direktzugriffsspeicher (CB-RAM), Nanodrahtspeicher, ferroelektrischen Transistor-Direktzugriffsspeicher (FeTRAM), magnetoresistiven Direktzugriffsspeicher (MRAM) mit Memristortechnologie, STT- (spin transfer torque) MRAM, eine auf spintronischem Magnetübergangsspeicher basierende Vorrichtung, eine auf Magnettunnelkontakt (MTJ) basierende Vorrichtung, eine auf Domänenwand (DW) und SOT (Spin-Orbit-Übertragung) basierende Vorrichtung, eine auf Thyristor basierende Speichervorrichtung, eine Kombination aus beliebigen der vorstehenden oder einen anderen geeigneten Speicher beinhalten. Eine Speichervorrichtung kann auch eine 3D-Koppelpunkt-Speichervorrichtung (z.B. Intel® 3D XPoint™-Speicher) oder andere byteadressierbare nichtflüchtige Write-in-Place-Speichervorrichtungen beinhalten. Die Speichervorrichtung kann den Chip selbst und/oder ein verpacktes Speicherprodukt bezeichnen. In einigen Beispielen kann der 3D-Koppelpunktspeicher (z.B. Intel® 3D XPoint™-Speicher) eine transistorlose stapelbare Crosspoint-Architektur beinhalten, bei der Speicherzellen am Schnittpunkt von Wortleitungen und Bitleitungen sitzen und einzeln adressierbar sind und bei der die Bitspeicherung auf einer Änderung des Bahnwiderstands basiert. In einigen Beispielen kann der gesamte oder ein Teil des Speichers 706 in den Prozessor 704 integriert sein. Der Speicher 706 kann verschiedene Software und Daten speichern, die während des Betriebs verwendet werden, wie etwa eine oder mehrere Anwendungen, Daten, die durch die Anwendung(en) bearbeitet werden, Bibliotheken und Treiber.
  • In manchen Beispielen beinhalten widerstandsbasierte und/oder transistorlose Speicherarchitekturen Phasenwechselspeicher- bzw. PCM- (phase-change memory, Phasenwechselspeicher) im Nanometermaßstab, in denen sich ein Volumen an Phasenwechselmaterial zwischen mindestens zwei Elektroden befindet. Teile des beispielhaften Phasenwechselmaterials zeigen variierende Grade an kristallinen Phasen und amorphen Phasen auf, wobei variierende Grade an Widerstand zwischen den wenigstens zwei Elektroden gemessen werden können. In einigen Beispielen ist das Phasenwechselmaterial ein Chalkogenid-basiertes Glasmaterial. Solche resistiven Speichervorrichtungen werden manchmal als memristive Vorrichtungen bezeichnet, die sich an die Vorgeschichte des Stroms erinnern, der zuvor durch sie geflossen ist. Gespeicherte Daten werden von beispielhaften PCM-Vorrichtungen abgerufen, indem der elektrische Widerstand gemessen wird, wobei die kristallinen Phasen einen oder mehrere relativ niedrigere Widerstandswerte (z.B. logisch „0“) im Vergleich zu den amorphen Phasen mit einem oder mehreren relativ höheren Widerstandswerten (z.B. logisch „1“) aufweisen.
  • Beispielhafte PCM-Vorrichtungen speichern Daten für lange Zeiträume (z.B. etwa 10 Jahre bei Raumtemperatur). Schreiboperationen in beispielhafte PCM-Vorrichtungen (z.B. Setzen auf logisch „0“, Setzen auf logisch „1“, Setzen auf einen Zwischenwiderstandswert) werden durch Anlegen eines oder mehrerer Strompulse an die mindestens zwei Elektroden erreicht, wobei die Impulse eine bestimmte Stromstärke und - dauer aufweisen. Beispielsweise bewirkt ein langer niedriger Stromimpuls (SET), der an die wenigstens zwei Elektroden angelegt wird, dass sich die beispielhafte PCM-Vorrichtung in einem kristallinen Zustand mit niedrigem Widerstand befindet, während ein vergleichsweise kurzer hoher Stromimpuls (RESET), der an die wenigstens zwei Elektroden angelegt wird, bewirkt, dass sich die beispielhafte PCM-Vorrichtung in einem amorphen Zustand mit hohem Widerstand befindet.
  • In manchen Beispielen ermöglicht die Implementierung von PCM-Vorrichtungen Nicht-von-Neumann-Computing-Architekturen, die In-Memory-Computing-Fähigkeiten ermöglichen. Allgemein gesprochen beinhalten herkömmliche Rechenarchitekturen eine Zentralverarbeitungseinheit (CPU), die über einen Bus kommunikativ mit einer oder mehreren Speichervorrichtungen verbunden ist. Von daher wird eine endliche Energiemenge und Zeit verbraucht, um Daten zwischen der CPU und dem Speicher zu übertragen, was ein bekannter Engpass von von-Neumann-Rechenarchitekturen ist. PCM-Vorrichtungen minimieren und eliminieren jedoch in manchen Fällen Datentransfers zwischen der CPU und dem Speicher, indem manche Rechenoperationen speicherintern durchgeführt werden. Anders ausgedrückt speichern PCM-Vorrichtungen nicht nur Informationen, sondern führen auch Rechenaufgaben aus. Solche Nicht-von-Neumann-Rechenarchitekturen können Vektoren mit einer relativ hohen Dimensionalität implementieren, um hyperdimensionales Berechnen zu ermöglichen, wie etwa Vektoren mit 10000 Bits. Vektoren mit relativ großer Bitbreite ermöglichen Berechnungsparadigmen, die nach dem menschlichen Gehirn modelliert sind, das auch zu breiten Bitvektoren analoge Informationen verarbeitet.
  • Die Rechenschaltungsanordnung 702 ist über das E/A-Teilsystem 708 kommunikativ an andere Komponenten des Rechenknotens 700 gekoppelt, das als Schaltungsanordnung und/oder Komponenten umgesetzt sein kann, um Eingabe/Ausgabe-Operationen mit der Rechenschaltungsanordnung 702 (z.B. mit dem Prozessor 704 und/oder dem Hauptspeicher 706) und anderen Komponenten der Rechenschaltungsanordnung 702 zu ermöglichen. Das E/A-Teilsystem 708 kann beispielsweise als Speichersteuerungshubs, Eingabe/Ausgabe-Steuerungshubs, integrierte Sensorhubs, Firmwarevorrichtungen, Kommunikationsverbindungen (z.B. Punkt-zu-Punkt-Verknüpfungen, Busverbindungen, Drähte, Kabel, Lichtleiter, Bahnen auf gedruckten Leiterplatten usw.) und/oder andere Komponenten und Subsysteme ausgebildet sein oder diese anderweitig enthalten, um die Eingabe/Ausgabe-Operationen zu ermöglichen. In einigen Beispielen kann das E/A-Teilsystem 708 einen Teil eines Ein-Chip-Systems (SoC) bilden und zusammen mit dem Prozessor 704 und/oder dem Speicher 706 und/oder anderen Komponenten der Rechenschaltungsanordnung 702 in die Rechenschaltungsanordnung 702 integriert sein.
  • Die eine oder mehreren veranschaulichenden Datenspeicherungsvorrichtungen/Datenspeicherungsplatten 710 können als ein oder mehrere beliebige Typen von physischen Vorrichtungen ausgebildet sein, die zur kurzfristigen oder langfristigen Speicherung von Daten konfiguriert sind, wie zum Beispiel Speichervorrichtungen, Speicher, Schaltungsanordnungen, Speicherkarten, Flashspeicher, Festplattenlaufwerke (HDDs), Festkörperlaufwerke (SSDs) und/oder andere Datenspeicherungsvorrichtungen/-platten. Individuelle Datenspeicherungsvorrichtungen/- platten 710 können eine Systempartition beinhalten, die Daten und Firmwarecode für die Datenspeicherungsvorrichtung/-platte 710 speichert. Individuelle Datenspeicherungsvorrichtungen/-platten 710 können auch eine oder mehrere Betriebssystempartitionen beinhalten, die Dateien und ausführbare Dateien für Betriebssysteme in Abhängigkeit von zum Beispiel dem Typ des Rechenknotens 700 speichern.
  • Die Kommunikationsschaltungsanordnung 712 kann als eine beliebige Kommunikationsschaltung, -vorrichtung oder -sammlung davon umgesetzt sein, die in der Lage ist, Kommunikationen über ein Netzwerk zwischen der Rechenschaltungsanordnung 702 und einer anderen Rechenvorrichtung (z.B. einem Edge-Gateway eines implementierenden Edge-Computing-Systems) zu ermöglichen. Die Kommunikationsschaltungsanordnung 712 kann ausgelegt sein, eine oder mehrere beliebige Kommunikationstechnologien (z.B. drahtgebundene oder drahtlose Kommunikationen) und assoziierte Protokolle (z.B. ein Mobilfunkvernetzungsprotokoll, wie etwa einen 3GPP-4G- oder 5G-Standard, ein drahtloses lokales Netzwerkprotokoll, wie etwa IEEE 802.11/Wi-Fi®, ein drahtloses Funkfernnetzprotokoll, Ethernet, Bluetooth®, Bluetooth Low Energy, ein IoT-Protokoll, wie etwa IEEE 802.15.4 oder ZigBee®, Niedrigenergieweitverkehrnetz- (LPWAN- ) oder Low-Power-Wide-Area- (LPWA-) Protokolle usw.) zu verwenden, um eine derartige Kommunikation zu bewirken.
  • Die veranschaulichende Kommunikationsschaltungsanordnung 712 beinhaltet eine Netzwerkschnittstellensteuerung (NIC) 720, die auch als eine Host-Fabric-Schnittstelle (HFI) bezeichnet werden kann. Die NIC 720 kann als eine oder mehrere Zusatzplatinen, Tochterkarten, Netzwerkschnittstellenkarten, Controller-Chips, Chipsätze oder andere Vorrichtungen, die von dem Rechenknoten 700 verwendet werden können, ausgeführt sein, um sich mit einer anderen Rechenvorrichtung (z.B. einem Edge-Gateway-Knoten) zu verbinden. In einigen Beispielen kann die NIC 720 als ein Teil eines Ein-Chip-Systems (SoC) ausgebildet sein, das einen oder mehrere Prozessoren beinhaltet, oder in einem Mehrchipgehäuse enthalten sein, das auch einen oder mehrere Prozessoren beinhaltet. In einigen Beispielen kann die NIC 720 einen lokalen Prozessor (nicht gezeigt) und/oder einen lokalen Speicher (nicht gezeigt) enthalten, die beide lokal zur NIC 720 sind. In derartigen Beispielen kann der lokale Prozessor der NIC 720 fähig sein, eine oder mehrere der Funktionen der hierin beschriebenen Rechenschaltungsanordnung 702 durchzuführen. Zusätzlich oder alternativ kann der lokale Speicher der NIC 720 in derartigen Beispielen in eine oder mehrere Komponenten des Client-Rechenknotens auf Platinenebene, Sockelebene, Chipebene und/oder anderen Ebenen integriert sein.
  • Zusätzlich kann in manchen Beispielen ein jeweiliger Computerknoten 700 eine oder mehrere Peripherievorrichtungen 714 beinhalten. Derartige Peripherievorrichtungen 714 können eine beliebige Art von Peripherievorrichtung beinhalten, die in einer Rechenvorrichtung oder einem Server zu finden ist, wie etwa Audioeingabevorrichtungen, eine Anzeige, andere Eingabe/Ausgabevorrichtungen, Schnittstellenvorrichtungen und/oder andere Peripherievorrichtungen, in Abhängigkeit von der speziellen Art des Rechenknotens 700. In weiteren Beispielen kann der Rechenknoten 700 durch einen jeweiligen Edge-Rechenknoten (einerlei ob Client-, Gateway- oder Aggregationsknoten) in einem Edge-Computing-System oder ähnlichen Formen von Geräten, Computern, Teilsystemen, Schaltungsanordnungen oder anderen Komponenten umgesetzt sein.
  • In einem detaillierteren Beispiel veranschaulicht 7B ein Blockdiagramm eines Beispiels für Komponenten, die in einem Edge-Computing-Knoten 750 zum Implementieren der hierin beschriebenen Methoden (z.B. Operationen, Prozesse, Verfahren und Vorgehensweisen) vorhanden sein können. Dieser Edge-Computing-Knoten 750 stellt eine nähere Ansicht der jeweiligen Komponenten des Knotens 700 bereit, wenn er als eine Rechenvorrichtung (z.B. als eine mobile Vorrichtung, eine Basisstation, ein Server, ein Gateway usw.) oder als Teil einer solchen implementiert wird. Der Edge-Computing-Knoten 750 kann beliebige Kombinationen der hier referenzierten Hardware oder logischen Komponenten beinhalten, und er kann eine beliebige Vorrichtung beinhalten oder mit dieser koppeln, die mit einem Edge-Kommunikationsnetzwerk oder einer Kombination solcher Netzwerke verwendbar ist. Die Komponenten können als integrierte Schaltungen (ICs: Integrated Circuits), Teile davon, diskrete elektronische Vorrichtungen oder andere Module, Befehlssätze, programmierbare Logik oder Algorithmen, Hardware, Hardwarebeschleuniger, Software, Firmware oder eine Kombination davon, die in dem Edge-Computing-Knoten 750 angepasst sind, oder als Komponenten, die anderweitig in einem Chassis eines größeren Systems integriert sind, implementiert sein.
  • Die Edge-Computing-Vorrichtung 750 kann Verarbeitungsschaltungsanordnungen in Form eines Prozessors 752 umfassen, der ein Mikroprozessor, ein Mehrkernprozessor, ein Multithreadprozessor, ein Ultraniederspannungsprozessor, ein eingebetteter Prozessor, eine xPU/DPU/IPU/NPU, eine Sonderzwecklverarbeitungseinheit, eine spezialisierte Verarbeitungseinheit oder ein anderes bekanntes Verarbeitungselement sein kann. Der Prozessor 752 kann ein Teil eines Ein-Chip-Systems (SoC) sein, in dem der Prozessor 752 und andere Komponenten in einer einzigen integrierten Schaltung oder einem einzigen Package gebildet sind, wie etwa die Edison™- oder Galileo™-SoC-Platinen der Intel Corporation, Santa Clara, Kalifornien. Als ein Beispiel kann der Prozessor 752 einen auf Intel® Architecture Core™ basierenden CPU-Prozessor, wie etwa einen Quark™-, einen Atom™-, einen i3-, einen i5-, einen i7-, einen i9- oder einen MCU-Klasse-Prozessor oder einen anderen solchen Prozessor, der von Intel® verfügbar ist, beinhalten. Eine beliebige Anzahl anderer Prozessoren kann jedoch verwendet werden, wie etwa erhältlich von der Firma Advanced Micro Devices, Inc. (AMD®) aus Sunnyvale, Kalifornien, USA, ein MIPS®-basiertes Design der Firma MIPS Technologies, Inc. aus Sunnyvale, Kalifornien, USA, ein ARM®-basiertes Design, lizenziert von ARM Holdings, Ltd. oder ein Kunde davon, oder deren Lizenznehmer oder Anwender. Die Prozessoren können Einheiten beinhalten, wie etwa einen A5-13-Prozessor von Apple® Inc., einen Snapdragon™-Prozessor von Qualcomm® Technologies, Inc., oder einen OMAP™-Prozessor von Texas Instruments, Inc. Der Prozessor 752 und die begleitende Schaltungsanordnung können in einem einzigen Sockelformfaktor, mehreren Sockelformfaktoren oder einer Vielfalt anderer Formate bereitgestellt sein, einschließlich in beschränkten Hardwarekonfigurationen oder Konfigurationen, die weniger als alle der in 7B gezeigten Elemente beinhalten.
  • Der Prozessor 752 kann über eine Zwischenverbindung 756 (z.B. einen Bus) mit einem Systemspeicher 754 kommunizieren. Eine beliebige Anzahl an Speichervorrichtungen kann verwendet werden, um eine gegebene Menge an Systemspeicher bereitzustellen. Als Beispiele kann der Speicher Direktzugriffsspeicher (RAM) gemäß einem JEDEC-Design (JEDEC: Joint Electron Devices Engineering Council) sein, wie etwa den DDR- oder Mobil-DDDR-Standards (z.B. LPDDR, LPDDR2, LPDDR3 oder LPDDR4). In ermittelten Beispielen kann eine Speicherkomponente einen von JEDEC veröffentlichten DRAM-Standard erfüllen, wie JESD79F für DDR-SDRAM, JESD79-2F für DDR2-SDRAM, JESD79-3F für DDR3-SDRAM, JESD79-4A für DDR4-SDRAM, JESD209 für Niedrigenergie-DDR (LPDDR), JESD209-2 für LPDDR2, JESD209-3 für LPDDR3 und JESD209-4 für LPDDR4. Derartige Standards (und ähnliche Standards) können als DDRbasierte Standards bezeichnet werden und Kommunikationsschnittstellen der Speicherungsvorrichtungen, die derartige Standards implementieren, können als DDRbasierte Schnittstellen bezeichnet werden. In verschiedenen Implementierungen können die individuellen Speichervorrichtungen aus einer beliebigen Anzahl von verschiedenen Gehäusetypen sein, wie ein Ein-Rohchip-Gehäuse (SDP), Doppel-Rohchip-Gehäuse (DDP) oder Quad-Rohchip-Gehäuse (Q17P). Diese Vorrichtungen können in einigen Beispielen direkt auf eine Hauptplatine gelötet sein, um eine Lösung mit niedrigerem Profil zu bieten, während die Vorrichtungen in anderen Beispielen als ein oder mehrere Speichermodule ausgelegt sind, die wiederum durch ein bestimmtes Verbindungsstück an die Hauptplatine koppeln. Eine beliebige Anzahl anderer Speicherimplementierungen kann verwendet werden, wie etwa andere Typen von Speichermodulen, z.B. Dual-Inline-Speichermodule (DIMMs) verschiedener Varianten, einschließlich unter anderem microDIMMs oder MiniDIMMs.
  • Um eine dauerhafte Speicherung von Informationen, wie etwa Daten, Anwendungen, Betriebssystemen und so weiter, bereitzustellen, kann eine Speicherung 758 auch über die Verschaltung 756 mit dem Prozessor 752 gekoppelt sein. Bei einem Beispiel kann der Datenspeicher 758 über ein Solid-State-Plattenlaufwerk (SSDD) implementiert sein. Andere Vorrichtungen, die für den Datenspeicher 758 verwendet werden können, beinhalten Flashspeicherkarten, wie etwa Secure-Digital- (SD-) Karten, MikroSD-Karten, eXtreme-Digital- (XD-) Bildkarten und dergleichen und Universal-Serial-Bus- (USB-) Flash-Laufwerke. Bei einem Beispiel kann die Speichervorrichtung Speichervorrichtungen sein oder beinhalten, die Chalkogenidglas, einen NAND-Flash-Speicher mit mehreren Schwellenebenen, einen NOR-Flash-Speicher, einen Ein- oder Mehrebenen-Phasenwechselspeicher (PCM), einen resistiven Speicher, einen Nanodrahtspeicher, einen Direktzugriffsspeicher mit ferroelektrischem Transistor (FeTRAM), einen antiferroelektrischen Speicher, einen magnetoresistiven Direktzugriffsspeicher (MRAM), einen Speicher, der eine Memristor-Technologie einsetzt, einen resistiven Speicher, der die Metalloxid-Basis oder die Sauerstoff-Leerstellen-Basis beinhaltet, und den Direktzugriffsspeicher mit leitender Brücke (CB-RAM) oder STT-MRAM (MRAM mit Spin-Übertragungsmoment, STT) umfasst, eine Vorrichtung auf der Basis eines Spintronik-Magnetübergangs, eine Vorrichtung auf der Basis eines Magnet-Tunnelübergangs (MTJ), eine DW-basierte (Domain Wall) und SOT-basierte (Spin Orbit Transfer) Vorrichtung, eine Thyristor-basierte Speichervorrichtung oder eine Kombination beliebiger der oben genannten oder einen anderen Speicher verwenden.
  • Bei Niedrigleistungsimplementierungen kann die Speicherung 758 ein chipinterner Speicher oder Register sein, die mit dem Prozessor 752 assoziiert sind. In einigen Beispielen kann die Speicherung 758 jedoch unter Verwendung eines Mikrofestplattenlaufwerks (HDD) implementiert sein. Ferner kann eine beliebige Anzahl neuer Technologien für die Speicherung 758 zusätzlich zu oder anstelle der beschriebenen Technologien verwendet werden, wie unter anderem Widerstandsänderungsspeicher, Phasenwechselspeicher, holographische Speicher oder chemische Speicher.
  • Die Komponenten können über die Zwischenverbindung 756 kommunizieren. Die Zwischenverbindung 756 kann eine beliebige Anzahl von Technologien beinhalten, einschließlich Industriestandardarchitektur (ISA), erweiterte ISA (EISA), Peripheral Component Interconnect (PCI), Peripheral Component Interconnect Extended (PCIx), PCI Express (PCIe) oder eine beliebige Anzahl anderer Technologien. Die Zwischenverbindung 756 kann ein herstellereigener Bus sein, der zum Beispiel in einem SoC-basierten System verwendet wird. Andere Bussysteme können enthalten sein, wie etwa unter anderem eine Inter-Integrated-Circuit- (I2C-) Schnittstelle, eine Serial Peripheral Interface- (SPI-) Schnittstelle, Punkt-zu-Punkt-Schnittstellen und ein Strombus.
  • Die Zwischenverbindung 756 kann den Prozessor 752 mit einem Sendeempfänger 766 zur Kommunikation mit den verbundenen Edge-Vorrichtungen 762 koppeln. Der Sendeempfänger 766 kann eine beliebige Anzahl von Frequenzen und Protokollen verwenden, wie etwa unter anderem Übertragungen auf 2,4 Gigahertz (GHz) unter dem IEEE 802.15.4-Standard unter Verwendung des Bluetooth@-Niederenergie- (BLE-) Standards, wie durch die Bluetooth® Special Interest Group definiert, oder des ZigBee®-Standards. Eine beliebige Anzahl von Funkgeräten, die für ein bestimmtes Drahtloskommunikationsprotokoll konfiguriert sind, kann für die Verbindungen zu den verbundenen Edge-Vorrichtungen 762 verwendet werden. Zum Beispiel kann eine Drahtlos-Lokalnetz- (WLAN-) Einheit verwendet werden, um Wi-Fi®-Kommunikationen gemäß dem 802.11-Standard des Institute of Electrical and Electronic Engineers (IEEE) zu implementieren. Außerdem können Funkfernnetzkommunikationen, z.B. in Übereinstimmung mit einem Mobilfunk- oder anderen Funkfernnetzprotokoll über eine Funkfernnetz- (WWAN-) Einheit stattfinden.
  • Der Drahtlosnetzwerk-Sendeempfänger 766 (oder mehrere Sendeempfänger) kann unter Verwendung mehrerer Standards oder Funkgeräte für Kommunikationen in einer anderen Reichweite kommunizieren. Beispielsweise kann der Edge-Computing-Knoten 750 mit nahen Vorrichtungen, z.B. innerhalb von etwa 10 Metern, unter Verwendung eines lokalen Sendeempfängers basierend auf Bluetooth Low Energy (BLE) oder eines anderen Niederleistungsfunkgeräts kommunizieren, um Leistung zu sparen. Entferntere verbundene Edge-Vorrichtungen 762, z.B. innerhalb von etwa 50 Metern, können über ZigBee® oder andere Mittelleistungsfunkgeräte erreicht werden. Beide Kommunikationstechniken können über ein einziges Funkgerät mit unterschiedlichen Leistungspegeln erfolgen oder können über separate Sendeempfänger erfolgen, zum Beispiel einen lokalen Sendeempfänger, der BLE verwendet, und einen separaten Mesh-Sendeempfänger, der ZigBee® verwendet.
  • Ein Drahtlosnetzwerk-Sendeempfänger 766 (z.B. ein Funksendeempfänger) kann enthalten sein, um mit Vorrichtungen oder Diensten in einer Cloud (z.B. einer Edge-Cloud 795) über lokale oder Weitbereichsnetzwerkprotokolle zu kommunizieren. Der Drahtlosnetzwerk-Sendeempfänger 766 kann ein Niederleistungs-Weitbereichs- bzw. LPWA-Sendeempfänger sein, der unter anderem den Standards IEEE 802.15.4 oder IEEE 802.15.4g folgt. Der Edge-Rechenknoten 750 kann über einen weiten Bereich unter Verwendung von LoRaWAN™ (Long Range Wide Area Network), das von Semtech entwickelt wurde, und der LoRa-Alliance kommunizieren. Die hierin beschriebenen Techniken sind nicht auf diese Technologien beschränkt, sondern können mit einer beliebigen Anzahl von anderen Cloud-Sendeempfängern verwendet werden, die Kommunikationen mit großer Reichweite und niedriger Bandbreite implementieren, wie etwa Sigfox und andere Technologien. Ferner können andere Kommunikationstechniken, wie Kanalsprung mit Zeitschlitzen, beschrieben in der Spezifikation IEEE 802.15.4e, verwendet werden.
  • Eine beliebige Anzahl anderer Funkkommunikationen und Protokolle kann zusätzlich zu den für den Drahtlosnetzwerk-Sendeempfänger 766 erwähnten Systemen verwendet werden, wie hierin beschrieben. Der Sendeempfänger 1766 kann zum Beispiel einen zellularen Sendeempfänger beinhalten, der Kommunikationen mit gespreiztem Spektrum (SPA/SAS-Kommunikationen) zum Umsetzen von Hochgeschwindigkeitskommunikationen verwendet. Ferner kann eine beliebige Anzahl anderer Protokolle verwendet werden, wie etwa Wi-Fi®-Netzwerke für Mittelgeschwindigkeitskommunikationen und Bereitstellung von Netzwerkkommunikationen. Der Sendeempfänger 766 kann Funkgeräte umfassen, die mit einer beliebigen Anzahl von 3GPP- (Third Generation Partnership Project) Spezifikationen kompatibel sind, wie etwa Long Term Evolution (LTE) und Kommunikationssysteme der 5. Generation (5G), die am Ende der vorliegenden Offenbarung ausführlicher erörtert werden. Eine Netzwerkschnittstellensteuerung (NIC) 768 kann beinhaltet sein, um eine drahtgebundene Kommunikation zu Knoten der Edge-Cloud 795 oder zu anderen Vorrichtungen, wie etwa den verbundenen Edge-Vorrichtungen 762 (z.B. die in einem Netz arbeiten), bereitzustellen. Die drahtgebundene Kommunikation kann eine Ethernet-Verbindung bereitstellen oder kann auf anderen Arten von Netzwerken basieren, wie Controller Area Network (CAN), Local Interconnect Network (LIN), DeviceNet, ControlNet, Data Highway+, PROFIBUS oder PROFINET unter vielen anderen. Eine zusätzliche NIC 768 kann enthalten sein, um das Verbinden mit einem zweiten Netzwerk zu ermöglichen, wobei zum Beispiel eine erste NIC 768 Kommunikationen mit der Cloud über Ethernet bereitstellt und eine zweite NIC 768 Kommunikationen mit anderen Vorrichtungen über einen anderen Typ von Netzwerk bereitstellt.
  • Angesichts der Vielfalt von Typen anwendbarer Kommunikationen von der Vorrichtung zu einer anderen Komponente oder einem anderen Netzwerk können anwendbare Kommunikationsschaltungsanordnungen, die von der Vorrichtung verwendet werden, eine beliebige oder mehrere beliebige der Komponenten 764, 766, 768 oder 770 beinhalten oder durch diese realisiert sein. Dementsprechend können in verschiedenen Beispielen anwendbare Mittel zum Kommunizieren (z.B. Empfangen, Übertragen usw.) durch eine derartige Kommunikationsschaltungsanordnung ausgebildet sein.
  • Der Edge-Computing-Knoten 750 kann eine Beschleunigungsschaltungsanordnung 764 beinhalten oder an eine solche gekoppelt sein, die umgesetzt sein kann durch einen oder mehrere Beschleuniger mit künstlicher Intelligenz (KI), einen neuronalen Rechenstick, neuromorphe Hardware, ein FPGA, eine Anordnung von GPUs, eine Anordnung von xPUs/DPUs/IPU/NPUs, ein oder mehrere SoCs, eine oder mehrere CPUs, einen oder mehrere digitale Signalprozessoren, dedizierte ASICs oder andere Formen spezialisierter Prozessoren oder Schaltungsanordnungen, die zum Erfüllen einer oder mehrerer spezialisierter Aufgaben ausgelegt sind. Diese Aufgaben können KI-Verarbeitung (einschließlich Operationen für Maschinenlernen, Training, Inferenz und Klassifizierung), visuelle Datenverarbeitung, Netzwerkdatenverarbeitung, Objektdetektion, Regelanalyse oder dergleichen beinhalten. Zu diesen Aufgaben können auch die an anderer Stelle in diesem Dokument erörterten spezifischen Edge-Computing-Aufgaben für Dienstverwaltung und Dienstbetrieb gehören.
  • Die Zwischenverbindung 756 kann den Prozessor 752 mit einem Sensorhub oder einer externen Schnittstelle 770 koppeln, der/die zum Verbinden zusätzlicher Vorrichtungen oder Teilsysteme verwendet wird. Die Vorrichtungen können Sensoren 772, wie etwa Beschleunigungsmesser, Pegelsensoren, Strömungssensoren, optische Lichtsensoren, Kamerasensoren, Temperatursensoren, Sensoren eines globalen Navigationssystems (z.B. GPS), Drucksensoren, barometrische Drucksensoren und dergleichen beinhalten. Der Hub oder die Schnittstelle 770 können ferner verwendet werden, um den Edge-Computing-Knoten 750 mit Stellgliedern 774, wie Leistungsschaltern, Ventilstellgliedern, einem Generator für hörbaren Ton, einer visuellen Warnvorrichtung und dergleichen, zu verbinden.
  • In einigen optionalen Beispielen können verschiedene Eingabe/Ausgabe-(E/A-) Vorrichtungen innerhalb des Edge-Computing-Knotens 750 vorhanden oder mit diesem verbunden sein. Beispielsweise kann eine Anzeige oder eine andere Ausgabevorrichtung 784 enthalten sein, um Informationen, wie etwa Sensormesswerte oder Aktuatorposition, zu zeigen. Eine Eingabevorrichtung 786, wie beispielsweise ein Touchscreen oder ein Tastenfeld, kann enthalten sein, um Eingaben anzunehmen. Eine Ausgabevorrichtung 784 kann eine beliebige Anzahl von Formen einer Audio- oder visuellen Anzeige umfassen, einschließlich einfacher visueller Ausgaben, wie etwa binärer Statusindikatoren (z.B. Leuchtdioden (LEDs)) und visueller Mehrzeichenausgaben, oder komplexerer Ausgaben, wie etwa Anzeigebildschirme (z.B. Flüssigkristallanzeige-(LCD-) Bildschirme), wobei die Ausgabe von Zeichen, Grafiken, Multimediaobjekten und dergleichen aus dem Betrieb des Edge-Computing-Knotens 750 produziert oder erzeugt wird. Eine Anzeige- oder Konsolenhardware kann im Kontext des vorliegenden Systems verwendet werden, um eine Ausgabe bereitzustellen und eine Eingabe eines Edge-Computing-Systems zu empfangen; Komponenten oder Dienste eines Edge-Computing-Systems zu verwalten; einen Zustand einer Edge-Computing-Komponente oder eines Edge-Computing-Dienstes zu identifizieren; oder eine beliebige andere Anzahl von Verwaltungs- oder Administrationsfunktionen oder Dienstverwendungsfällen durchzuführen.
  • Eine Batterie 776 kann den Edge-Rechenknoten 750 mit Strom versorgen, obwohl sie in Beispielen, in denen der Edge-Rechenknoten 750 an einem festen Ort montiert ist, eine Stromversorgung aufweisen kann, die mit einem Stromnetz gekoppelt ist, oder die Batterie als Ausfallsicherheit oder für temporäre Funktionen verwendet werden kann. Die Batterie 776 kann eine Lithiumionenbatterie oder eine Metall-Luft-Batterie, wie etwa eine Zink-Luft-Batterie, eine Aluminium-Luft-Batterie, eine Lithium-Luft-Batterie und dergleichen, sein.
  • Eine Batterieüberwachungs-/-ladevorrichtung 778 kann in dem Edge-Rechenknoten 750 beinhaltet sein, um den Ladezustand (SoCh - State of Charge) der Batterie 776, falls beinhaltet, zu verfolgen. Die Batterieüberwachungs-/-ladevorrichtung 778 kann verwendet werden, um andere Parameter der Batterie 776 zu überwachen, um Ausfallvorhersagen bereitzustellen, wie etwa den Gesundheitszustand (SoH) und den Funktionszustand (SoF) der Batterie 776. Die Batterieüberwachungs-/-ladevorrichtung 778 kann eine integrierte Batterieüberwachungsschaltung aufweisen, wie etwa eine LTC4020 oder eine LT5990 von Linear Technologies, eine ADT7488A von ON Semiconductor aus Phoenix, Arizona, oder eine IC der UCD90xxx-Familie von Texas Instruments aus Dallas, TX. Die Batterieüberwachungs-/-ladevorrichtung 778 kann die Informationen über die Batterie 776 über die Zwischenverbindung 756 an den Prozessor 752 kommunizieren. Die Batterieüberwachungs-/-ladevorrichtung 778 kann auch einen Analog-Digital-Wandler (ADC) umfassen, der es dem Prozessor 752 ermöglicht, die Spannung der Batterie 776 oder den Stromfluss von der Batterie 776 direkt zu überwachen. Die Batterieparameter können verwendet werden, um Aktionen zu bestimmen, die der Edge-Rechenknoten 750 durchführen kann, wie etwa Übertragungsfrequenz, Mesh-Netzwerk-Betrieb, Erfassungsfrequenz und dergleichen.
  • Ein Leistungsblock 780 oder eine andere Leistungsversorgung, die an ein Stromnetz gekoppelt ist, kann mit der Batterieüberwachungs-/-ladevorrichtung 778 gekoppelt werden, um die Batterie 776 zu laden. In manchen Beispielen kann der Leistungsblock 780 durch einen Drahtlosleistungsempfänger ersetzt werden, um die Leistung drahtlos, zum Beispiel durch eine Schleifenantenne in dem Edge-Rechenknoten 750, zu erhalten. Eine Drahtlosbatterieladeschaltung, wie unter anderem ein LTC4020-Chip von Linear Technologies aus Milpitas, Kalifornien, kann in der Batterieüberwachungs-/- ladevorrichtung 778 enthalten sein. Die spezifischen Ladeschaltungen können basierend auf der Größe der Batterie 776 und somit dem erforderlichen Strom ausgewählt werden. Das Laden kann unter anderem unter Verwendung des von der Airfuel Alliance veröffentlichten Standards Airfuel, des vom Wireless Power Consortium veröffentlichten Drahtlosladestandards Qi oder des von der Alliance for Wireless Power veröffentlichten Ladestandards Rezence durchgeführt werden.
  • Die Speicherung 758 kann Anweisungen 782 in der Form von Software, Firmware oder Hardwarebefehlen zum Implementieren der hierin beschriebenen Methoden beinhalten. Auch wenn derartige Anweisungen 782 als Codeblöcke gezeigt sind, die in dem Speicher 754 und der Speicherung 758 enthalten sind, versteht es sich, dass beliebige der Codeblöcke durch festverdrahtete Schaltungen ersetzt werden können, die zum Beispiel in einer anwendungsspezifischen integrierten Schaltung (ASIC) eingebaut sind.
  • In einem Beispiel können die Anweisungen 782, die über den Speicher 754, die Speicherung 758 oder den Prozessor 752 bereitgestellt werden, als ein nichttransientes, maschinenlesbares Medium 760 umgesetzt sein, das Code umfasst, um den Prozessor 752 anzuweisen, elektronische Operationen in dem Edge-Computing-Knoten 750 durchzuführen. Der Prozessor 752 kann über die Zwischenverbindung 756 auf das nichttransiente maschinenlesbare Medium 760 zugreifen. Beispielsweise kann das nichttransiente maschinenlesbare Medium 760 durch Vorrichtungen umgesetzt sein, die für die Speicherung 758 beschrieben sind, oder kann spezifische Speichereinheiten beinhalten, wie etwa Speichervorrichtungen und/oder Speicherplatten, die optische Platten (z.B. Digital Versatile Disk (DVD), Compact Disk (CD), CD-ROM, Blu-Ray-Disk), Flash-Laufwerke, Floppy-Disks, Festplatten (z.B. SSDs) oder eine beliebige Anzahl anderer Hardware-Vorrichtungen, in denen Informationen für eine beliebige Dauer (z.B. für längere Zeiträume, dauerhaft, für kurze Fälle, zum temporären Puffern und/oder Caching) gespeichert sind, beinhaltet. Das nichttransiente, maschinenlesbare Medium 760 kann Anweisungen umfassen, um den Prozessor 752 anzuweisen, eine spezifische Sequenz oder einen spezifischen Fluss von Aktionen durchzuführen, wie zum Beispiel mit Bezug auf das Flussdiagramm bzw. die Flussdiagramme und das Blockdiagramm bzw. die Blockdiagramme von Operationen und Funktionalität, die oben dargestellt sind, beschrieben. Vorliegend sind die Ausdrücke „maschinenlesbares Medium“ und „computerlesbares Medium“ austauschbar. Vorliegend wird der Begriff „nichttransientes computerlesbares Medium“ ausdrücklich so definiert, dass er eine beliebige Art von computerlesbarer Datenspeichervorrichtung und/oder Datenträger beinhaltet und das Propagieren von Signalen ausschließt sowie Übertragungsmedien ausschließt.
  • Auch in einem spezifischen Beispiel können die Anweisungen 782 auf dem Prozessor 752 (separat oder in Kombination mit den Anweisungen 782 des maschinenlesbaren Mediums 760) die Ausführung oder den Betrieb einer vertrauenswürdigen Ausführungsumgebung (Trusted Execution Environment, TEE) 790 konfigurieren. In einem Beispiel arbeitet die TEE 790 als ein geschützter Bereich, der für den Prozessor 752 zur sicheren Ausführung von Anweisungen und zum sicheren Zugriff auf Daten zugänglich ist. Verschiedene Implementierungen der TEE 790 und eines zugehörigen sicheren Bereichs im Prozessor 752 oder dem Speicher 754 können beispielsweise durch die Verwendung von Intel® Software Guard Extensions (SGX) oder ARM® TrustZone® Hardwaresicherheitserweiterungen, Intel® Management Engine (ME) oder Intel® Converged Security Manageability Engine (CSME) bereitgestellt werden. Andere Aspekte von Sicherheitshärtung, Hardware-Vertrauensankern und vertrauenswürdigen oder geschützten Operationen können in der Vorrichtung 750 durch die TEE 790 und den Prozessor 752 implementiert sein.
  • Auch wenn die veranschaulichten Beispiele von 7A und 7B Beispielkomponenten für einen Rechenknoten bzw. eine Rechenvorrichtung beinhalten, sind hier offenbarte Beispiele nicht darauf beschränkt. Wie hier verwendet, kann ein „Computer“ manche oder alle der Beispielkomponenten der 7A und/oder 7B in verschiedenen Arten von Rechenumgebungen beinhalten. Beispielhafte Rechenumgebungen beinhalten Edge-Computing-Vorrichtungen (z.B. Edge-Computer) in einer verteilten Vernetzungsanordnung, so dass bestimmte teilnehmende Edge-Computing-Vorrichtungen heterogene oder homogene Vorrichtungen sind. Wie hier verwendet, kann ein „Computer“ einen Personalcomputer, einen Server, ein Benutzergerät, einen Beschleuniger usw. beinhalten, einschließlich beliebiger Kombinationen davon. In einigen Beispielen beinhaltet verteilte Vernetzung und/oder verteiltes Rechnen eine beliebige Anzahl solcher Edge-Computing-Vorrichtungen, wie in 7A und/oder 7B veranschaulicht ist, die jeweils unterschiedliche Subkomponenten, unterschiedliche Speicherkapazitäten, E/A-Fähigkeiten usw. beinhalten können. Weil zum Beispiel einige Implementierungen von verteilter Vernetzung und/oder verteiltem Rechnen mit der bestimmten gewünschten Funktionalität assoziiert sind, beinhalten hier offenbarte Beispiele unterschiedliche Kombinationen von Komponenten, die in 7A und/oder 7B veranschaulicht sind, um Funktionsziele verteilter Rechenaufgaben zu erfüllen. In manchen Beispielen beinhaltet der Begriff „Rechenknoten“ oder „Computer“ nur Beispiele für den Prozessor 704, den Speicher 706 und das E/A-Teilsystem 708 von 7A. In einigen Beispielen hängen eine oder mehrere Zielfunktionen einer/von Verteiltes-Computing-Aufgabe(en) von einer oder mehreren alternativen Vorrichtungen/Strukturen ab, die sich in verschiedenen Teilen einer Edge-Vernetzungsumgebung befinden, wie etwa Vorrichtungen zum Unterbringen von Datenspeicherung (z.B. die beispielhafte Datenspeicherung 710), Eingabe/Ausgabe-Fähigkeiten (z.B. die beispielhafte(n) Peripherievorrichtung(en) 714) und/oder Netzwerkkommunikationsfähigkeiten (z.B. die beispielhafte NIC 720).
  • In einigen Beispielen sind Computer, die in einer verteilten Rechen- und/oder verteilten Vernetzungsumgebung (z.B. einem Edge-Netzwerk) arbeiten, dafür strukturiert, bestimmte Zielfunktionalität auf eine Weise unterzubringen, die Rechenverschwendung reduziert. Weil beispielsweise ein Computer eine Teilmenge der in 7A und 7B offenbarten Komponenten beinhaltet, erfüllen solche Computer die Ausführung von verteilten Rechenzielfunktionen, ohne eine Rechenstruktur zu beinhalten, die ansonsten ungenutzt und/oder unternutzt wäre. Somit schließt der Begriff „Computer“, wie hier verwendet, eine beliebige Kombination der Struktur von 7A und/oder 7B ein, die in der Lage ist, Zielfunktionen von verteilten Rechenaufgaben zu erfüllen und/oder anderweitig auszuführen. In einigen Beispielen sind Computer auf eine Weise strukturiert, die entsprechenden Zielfunktionen des verteilten Rechnens entspricht, auf eine Weise, die in Verbindung mit dynamischem Bedarf herabskaliert oder hochskaliert. In einigen Beispielen werden unterschiedliche Computer aufgrund ihrer Fähigkeit, eine oder mehrere Aufgaben der Anfrage(n) für verteiltes Rechnen zu verarbeiten, aufgerufen und/oder anderweitig instanziiert, so dass jeder Computer, der in der Lage ist, die Aufgaben zu erfüllen, mit einer solchen Rechenaktivität fortfährt.
  • In den veranschaulichten Beispielen aus 7A und 7B umfassen Datenverarbeitungsvorrichtungen Betriebssysteme. Wie hier verwendet, ist ein „Betriebssystem“ Software zum Steuern beispielhafter Computing-Vorrichtungen, wie etwa des beispielhaften Edge-Rechenknotens 700 von 7A und/oder des beispielhaften Edge-Rechenknotens 750 von 7B. Beispielhafte Betriebssysteme beinhalten unter anderem konsumentenbasierte Betriebssysteme (z.B. Microsoft® Windows® 10, Google® Android® OS, Apple® Mac® OS usw.). Beispielhafte Betriebssysteme beinhalten unter anderem auch industriefokussierte Betriebssysteme, wie etwa Echtzeitbetriebssysteme, Hypervisoren usw. Ein beispielhaftes Betriebssystem auf einem ersten Edge-Rechenknoten kann das gleiche oder ein anderes als ein beispielhaftes Betriebssystem auf einem zweiten Edge-Rechenknoten sein. In einigen Beispielen ruft das Betriebssystem alternative Software auf, um eine oder mehrere Funktionen und/oder Operationen zu ermöglichen, die nicht nativ für das Betriebssystem sind, wie etwa bestimmte Kommunikationsprotokolle und/oder -interpreter. In einigen Beispielen instanziiert das Betriebssystem verschiedene Funktionalitäten, die für das Betriebssystem nicht nativ sind. In einigen Beispielen beinhalten Betriebssysteme variierende Komplexitäts- und/oder Fähigkeitsgrade. Beispielsweise beinhaltet ein erstes Betriebssystem, das einem ersten Edge-Rechenknoten entspricht, ein Echtzeitbetriebssystem, das bestimmte Leistungsfähigkeitserwartungen des Ansprechens auf dynamische Eingabebedingungen aufweist, und ein zweites Betriebssystem, das einem zweiten Edge-Rechenknoten entspricht, beinhaltet grafische Benutzeroberflächenfähigkeiten, um Endbenutzer-E/A zu ermöglichen.
  • 8 ist ein Blockdiagramm, das eine beispielhafte Architektur veranschaulicht, die gemäß den Lehren dieser Offenbarung implementiert wird. Insbesondere zeigt 8 eine übergeordnete Architektur 800 des hierin offenbarten Frameworks, auf der die auf digitalen Zwillingen basierenden Vorhersagen verwendet werden können, um die Robustheit von Funknetzwerken zu verbessern. Das veranschaulichte Beispiel aus 8 zeigt einen 5G-Kern 810 in Kommunikation mit einem MEC-System 820. Hier ist die Integration des MEC-Systems 820 mit 5G-Kern 810 als ein Beispiel gezeigt und wird zur Erklärung von Ideen in dieser gesamten Offenbarung herangezogen. Die Methoden dieser Offenbarung können jedoch auf andere Netzwerke wie LTE, über 5G hinaus usw. angewendet werden. In solchen Beispielen könnten die Schnittstelle(n) zum MEC-System 820 unterschiedlich sein. In dem veranschaulichten Beispiel aus 8 beinhaltet das MEC-System 820 einen MEC-Orchestrator 825, eine Digital-Twin-Schaltungsanordnung 830, einen Funknetzinformations- (RNI-) Dienst 835, einen Standortdienst 840, einen Umgebungswahrnehmungsdienst 845, einen Funknetzwerktempfehlungsdienst 850, einen Kartendienst 855, einen Vorhersagedienst, eine oder mehrere Straßenrandeinheiten (RSUs) 865 und einen oder mehrere Sensoren 870. In dem veranschaulichten Beispiel aus 8 beinhalten der eine oder die mehreren Sensoren 870 eine oder mehrere Kameras, Lidars usw. Der 5G-Kern 810 steht in Kommunikation mit einem g node b (gNB) 890 und einem UE 895.
  • 9 ist ein Blockdiagramm, das Beziehungen zwischen funktionalen Entitäten innerhalb des MEC-Systems 820 aus 8 und einen Datenfluss zwischen diesen Entitäten veranschaulicht. Wie in dem veranschaulichten Beispiel aus 9 gezeigt, empfängt die Digital-Twin-Schaltungsanordnung Informationen von den Prognosediensten 860 und/oder dem Umgebungswahrnehmungsdienst 845 und/oder dem RNI-Dienst 835 und/oder den RSUs 865. Die beispielhafte Digital-Twin-Schaltungsanordnung 830 stellt Empfehlungsnachrichten an den Funknetzwerkempfehlungsdienst 850 und/oder die RSUs 865 und/oder den MEC-Orchestrator 825 bereit.
  • Der Umgebungswahrnehmungsdienst (EPS) 845 empfängt und/oder sammelt Informationen von dem Kartendienst 855 und/oder den Sensoren 870 und/oder dem Standortdienst 840 und/oder den RSUs 865. Der EPS 845 sammelt Live-Informationen über die Umgebung aus verschiedenen Quellen, wie etwa verbundenen Sensoren 870 (drahtgebunden oder drahtlos), RSUs 865 und Standortdienst 840. Der EPS 845 erhält zudem statische Informationen der Umgebung, wie etwa Gebäude, Straßeninfrastruktur usw., über hochauflösende (HD-) Karten, die durch den Kartendienst 855 bereitgestellt werden. Der EPS 845 verarbeitet die empfangenen und/oder gesammelten Daten zum Beispiel unter Verwendung von Sensorfusionsverfahren, um ein Kontextverständnis der Umgebung zu entwickeln. Neuere Fortschritte auf dem Gebiet autonomer Systeme ermöglichen Echtzeit-Umgebungswahrnehmungsfähigkeiten mit genauen semantischen und kinematischen Details. Der EPS 845 liefert die semantischen und kinematischen Informationen an die DT-Schaltungsanordnung 830. Während in dem veranschaulichten Beispiel aus 9 der EPS 845 solche empfangenen und/oder gesammelten Informationen zur Erzeugung der semantischen und kinematischen Informationen verarbeitet, kann in einigen Beispielen die DT-Schaltungsanordnung 830 selbst die empfangenen und/oder gesammelten Informationen verarbeiten.
  • Damit der EPS 845 die wahrgenommenen Objekte (Fahrzeuge, Fußgänger usw.) auf die UE-IDs (netzwerkkonfigurierte IDs) von Drahtlosnetzwerken abbildet, gleicht der EPS 845 die durch die UEs (über ein Netzwerk) gemeldeten Standorte mit den geschätzten Standorten der wahrgenommenen Objekte ab. Das EPS-Modul kann standortbezogene Informationen über die UEs und andere Netzwerkknoten von dem Standortdienst 840 erhalten. Der Standortdienst 840 ruft wiederum die Standortinformationen aus dem 5G-System ab, das sowohl 3GPP- als auch Nicht-3GPP-Technologien unterstützt, um höhere Positionsbestimmungsgenauigkeiten zu erreichen. In einigen Beispielen liefern die RSUs 865 zudem Standortinformationen an den EPS, die durch die UEs durch periodische Broadcast-Nachrichten, wie etwa Basissicherheitsnachricht (basic safety message, BSM), Kollektivwahrnehmungsnachricht (collective perception message, CPM) usw., gemeldet werden
  • Wie vorstehend angemerkt, ist ein digitaler Zwilling eine virtuelle Echtzeit-Repräsentation einer physischen Entität, wie etwa eines Objekts, eines Systems oder eines Prozesses. Unter Verwendung verbundener Sensoren ermöglicht diese cyber-physische Technologie Konnektivität und Synchronisation zwischen den physischen Komponenten und ihren digitalen Gegenstücken. Ferner kann ein Digital-Twin-System durch Analysen und Simulationen unter Verwendung eines digitalen Modells (das z.B. unter Verwendung der DT-Schaltungsanordnung 830 implementiert wird) zukünftige Vorhersagen mit umfangreichen Einsichten über die physische Entität erzeugen.
  • Die in 8 gezeigte DT-Schaltungsanordnung 830 erzeugt eine virtuelle Umgebung eines physischen Szenarios, in dem die physischen Entitäten in dem realen Szenario (z.B. Fahrzeuge, Fußgänger, Gebäude, Straßeninfrastruktur usw.) als digitale Akteure (z.B. Modelle) in der virtuellen Umgebung dargestellt werden. Die DT-Schaltungsanordnung 830 erhält Live-Informationen der semantischen und kinematischen Parameter der physischen Entitäten in der Umgebung vom Umgebungswahrnehmungsdienst 845. Die semantischen Parameter liefern Informationen über den Typ einer Entität, wie etwa Person, Auto, Fahrradfahrer, Gebäude, Straße usw., während die kinematischen Parameter Informationen über die Mobilität einer Entität bereitstellen, die Position, Geschwindigkeitsvektor, Kursrichtung usw. beinhalten. Die DT-Schaltungsanordnung 830 kann drahtloszugangsnetzbezogene Informationen über den RNI-Dienst 835 erhalten, der Einzelheiten, wie etwa Funknetzbedingungen und -messungen, Informationen über verbundene UEs, Funkzugangsträger usw. bereitstellt. Zusätzlich kann die DT-Schaltungsanordnung 830 auch drahtlosnetzwerkbezogene Informationen bezüglich der RSUs 865 erhalten, die direkt mit dem MEC-System 820 verbunden sind. Die DT-Schaltungsanordnung 830 kann auch Informationen über die lokalen Umgebungsbedingungen (wie etwa Regen, Nebel, Sichtverhältnisse usw.) durch die externen Vorhersagedienste 860 erhalten.
  • Das DT-Modul synchronisiert kontinuierlich die digitalen Modelle (Aktoren) in einer virtuellen Umgebung mit ihren jeweiligen physischen Entitäten durch die Live-Informationen, die von Quellen wie EPS 845, RNI 835, RSUs 865 usw. erhalten werden. Dann führt die DT-Schaltungsanordnung 830 Analysen und Simulationen unter Verwendung der digitalen Modelle durch, um zukünftige Vorhersagen (z.B. in Echtzeit) der Parameter von Interesse zu erzeugen, wie etwa zukünftige Positionen von Aktoren, Drahtloskanalzustand, Blockierung von LoS-Links, usw. Der Umfang der Simulationen deckt die Parameter von Interesse, wie Orte und Geschwindigkeitsvektoren von Benutzern, Kanalbedingungen (empfangene Signalstärke, SINR usw.) an den UEs usw. ab. Die Simulationen in der DT-Schaltungsanordnung 830 können auf deterministischen und/oder KI-basierten Algorithmen basieren, um die zukünftigen Vorhersagen zu erzeugen. Die durch die DT-Schaltungsanordnung 830 empfangenen, live gemessenen Parameter, wie etwa UE-Standorte, SINR usw., können als Ground-Truth- (Bodenwahrheits-) Daten verwendet werden, um die KI-Modelle kontinuierlich zu trainieren und die Vorhersagegenauigkeiten zu verbessern.
  • Basierend auf den Einsichten, die aus zukünftigen Vorhersagen erhalten werden, erzeugt die DT-Schaltungsanordnung 830 proaktiv Empfehlungsnachrichten, die verwendet werden können, um die Resilienz des Netzwerks und der Dienste und die Robustheit der drahtlosen Links zu verbessern. Die Empfehlungsnachrichten, die durch die DT-Schaltungsanordnung 830 erzeugt werden, können Vorschläge bezüglich eines UE-Handovers (HO), MEC-Anwendungsmobilität, Kommunikationen und Rechenressourcenzuweisungen, Strahlverwaltung, Netzwerkroutingpfade usw. beinhalten. Die DT-Schaltungsanordnung 830 kann die Empfehlungsnachrichten zum Beispiel an das 5G-Netzwerk über den vorgeschlagenen Funknetzempfehlungs- (RNR-) Dienst, die Verwaltungsebenen der verbundenen RSUs über das lokale Netzwerk des MEC-Hosts und/oder den MEC-Orchestrator senden.
  • Der beispielhafte Funknetzempfehlungs- (RNR-) Dienst 850 ermöglicht, dass Empfehlungen an das Kernnetz und gNBs geliefert werden. In einigen Beispielen können die Empfehlungen in Form von Konfigurationen und/oder anderen Parametern vorliegen. Auf diese Weise verwendet die DT-Schaltungsanordnung 830 den RNR-Dienst 850, um Empfehlungsnachrichten an das 5G-Netzwerk 810 aus 8 übermitteln.. Der RNR-Dienst greift über den MEC-Orchestrator 825 auf die Dienste zu, die durch relevante 5G-Kernnetzfunktionen bereitgestellt werden, um die Empfehlung der DT-Schaltungsanordnung 830 zu vermitteln.
  • 10 ist ein Blockdiagramm einer beispielhaften Implementierung der beispielhaften Digital-Twin-Schaltungsanordnung 830 aus 8 und/oder 9. Die beispielhafte Digital-Twin-Schaltungsanordnung 830 beinhaltet eine Informationszugriffsschaltungsanordnung 1010, eine Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020, einen Speicher für virtuelle Umgebungen 1030, eine Simulationsschaltungsanordnung 1040, eine Empfehlungserzeugungsschaltungsanordnung 1050, eine Empfehlungsverwaltungsschaltungsanordnung 1060 und eine Empfehlungsbereitstellungsschaltungsanordnung 1070.
  • Die beispielhafte Informationszugriffsschaltungsanordnung 1010 des veranschaulichten Beispiels aus 10 greift auf semantische und kinematische Statistikinformationen aus dem EPS 845 zu. Die beispielhafte Informationszugriffsschaltungsanordnung 1010 greift auf Netzwerkinformations- und Messberichte von dem RNI-Dienst 835 und/oder den RSUs 865 zu. In einigen Beispielen greift die Informationszugriffsschaltungsanordnung 1010 auch auf Informationen von den Vorhersagediensten 860 zu.
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Zugreifen. Zum Beispiel können die Mittel zum Zugreifen durch die Informationszugriffsschaltungsanordnung 1010 implementiert werden. Bei manchen Beispielen kann die Informationszugriffsschaltungsanordnung 1010 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Blöcke 1110 und 1120 von 11 implementiert werden, die durch eine Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 von 18, die beispielhafte Prozessorschaltungsanordnung 1900 von 19 und/oder die beispielhafte frei programmierbare Gate-Array- (FPGA-) Schaltungsanordnung 2000 von 20 implementiert werden kann. In anderen Beispielen ist die Informationszugriffsschaltungsanordnung 1010 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Zum Beispiel kann die Informationszugriffsschaltungsanordnung 1010 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. Prozessorschaltlogik, diskrete und/oder integrierte analoge und/oder digitale Schaltlogik, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation durchzuführen, ohne Software oder Firmware auszuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Die beispielhafte virtuelle Umgebungsverwaltungsschaltungsanordnung 1020 des veranschaulichten Beispiels von 10 aktualisiert eine virtuelle Umgebung, die in dem Speicher für virtuelle Umgebungen 1030 gespeichert ist, basierend auf den abgerufenen Informationen. Auf diese Weise spiegelt die virtuelle Umgebung die physische Umgebung wider (ist z.B. ein digitaler Zwilling davon).
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Aktualisieren. Die Mittel zum Aktualisieren können zum Beispiel durch die Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020 implementiert werden. In einigen Beispielen kann die Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Block 1130 aus 11 implementiert werden, die durch die Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 aus 18, die beispielhafte Prozessorschaltungsanordnung 1900 aus 19 und/oder die beispielhafte feldprogrammierbare Gate-Array- bzw. FPGA-Schaltungsanordnung 2000 aus 20 implementiert werden kann. In anderen Beispielen ist die Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Zum Beispiel kann die Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. Prozessorschaltlogik, diskrete und/oder integrierte analoge und/oder digitale Schaltlogik, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation durchzuführen, ohne Software oder Firmware auszuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Der beispielhafte Speicher für virtuelle Umgebungen 1030 des veranschaulichten Beispiels aus 10 wird durch einen beliebigen Speicher, eine beliebige Speicherorrichtung und/oder eine beliebige Speicherplatte zum Speichern von Daten implementiert, wie etwa zum Beispiel Flash-Speicher, magnetische Medien, optische Medien, Festkörperspeicher, Festplatte(n), USB-Stick(s) usw. Des Weiteren können die in dem beispielhaften Speicher für virtuelle Umgebungen 1030 gespeicherten Daten in einem beliebigen Datenformat vorliegen, wie etwa zum Beispiel Binärdaten, kommabegrenzte Daten, Tab-begrenzte Daten, SQL- (Structured Query Language) Strukturen usw. Wenngleich in dem veranschaulichten Beispiel der Speicher für virtuelle Umgebungen 1030 als eine einzige Vorrichtung veranschaulicht ist, können der beispielhafte Speicher für virtuelle Umgebungen 1030 und/oder beliebige andere vorliegend beschriebene Datenspeichervorrichtungen durch eine beliebige Anzahl und/oder Art(en) von Speichern implementiert werden. In dem veranschaulichten Beispiel aus 10 speichert der beispielhafte Speicher für virtuelle Umgebungen 1030 eine virtuelle Darstellung eines Zustands von Entitäten in der physischen Umgebung, einschließlich beider Entitäten (z.B. Vorrichtungen), die mit dem Netzwerk in Kommunikation stehen, sowie Entitäten (z.B. Objekte), die nicht mit dem Netzwerk in Kommunikation stehen.
  • Die beispielhafte Simulationsschaltungsanordnung 1040 des veranschaulichten Beispiels aus 10 simuliert Änderungen an der Umgebung, die durch den Speicher für virtuelle Umgebungen 1030 dargestellt wird. Solche Änderungen können zum Beispiel auf den semantischen und kinematischen Statistiken und/oder den Netzwerkinformationen und Messberichten basieren, auf die durch die Informationszugriffsschaltungsanordnung 1010 zugegriffen wird. Auf diese Weise repräsentieren die simulierten Änderungen mögliche Änderungen an der virtuellen Umgebung und infolgedessen mögliche Änderungen an der physischen Umgebung. In Reaktion auf solche potenziellen Änderungen können verschiedene Aufgaben für die Zuverlässigkeit und/oder Resilienz des Netzwerks vorteilhaft sein, einschließlich zum Beispiel Durchführen einer Handover-Operation und/oder Initialisieren von Ressourcen in Erwartung einer Handover-Operation.
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Simulieren. Die Mittel zum Simulieren können zum Beispiel durch die Simulationsschaltungsanordnung 1040 implementiert werden. In einigen Beispielen kann die Schaltungsanordnung für virtuelle Simulationen 1040 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Block 1140 aus 11 implementiert werden, die durch die Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 aus 18, die beispielhafte Prozessorschaltungsanordnung 1900 aus 19 und/oder die beispielhafte feldprogrammierbare Gate-Array- bzw. FPGA-Schaltungsanordnung 2000 aus 20 implementiert werden kann. In anderen Beispielen ist die Simulationsschaltungsanordnung 234 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Beispielsweise kann die Simulationsschaltungsanordnung 1040 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. eine Prozessorschaltungsanordnung, diskrete und/oder integrierte analoge und/oder digitale Schaltungsanordnung, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), einen Logikschaltkreis usw.) implementiert sein, die strukturiert sind, die entsprechende Operation ohne Ausführen von Software oder Firmware durchzuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Die beispielhafte Empfehlungserzeugungsschaltungsanordnung 1050 des veranschaulichten Beispiels aus 10 erzeugt eine oder mehrere Empfehlungen. Solche Empfehlungen können zum Beispiel eine Durchführung einer Handover-Operation und/oder Initialisieren von Ressourcen in Erwartung einer Handover-Operation beinhalten.
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Erzeugen. Beispielsweise können die Mittel zum Erzeugen durch die Empfehlungserzeugungsschaltungsanordnung 1050 implementiert werden. In einigen Beispielen kann die Empfehlungserzeugungsschaltungsanordnung 1050 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Block 1150 aus 11 implementiert werden, die durch die Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 aus 18, die beispielhafte Prozessorschaltungsanordnung 1900 aus 19 und/oder die beispielhafte feldprogrammierbare Gate-Array- bzw. FPGA-Schaltungsanordnung 2000 aus 20 implementiert werden kann. In anderen Beispielen wird die Empfehlungserzeugungsschaltungsanordnung 1050 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Zum Beispiel kann die Empfehlungserzeugungsschaltungsanordnung 1050 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. Prozessorschaltlogik, diskrete und/oder integrierte analoge und/oder digitale Schaltlogik, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation durchzuführen, ohne Software oder Firmware auszuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Die beispielhafte Empfehlungsverwaltungsschaltungsanordnung 1060 des veranschaulichten Beispiels aus 10 bestimmt, ob Empfehlungen ein Schwellenkonfidenzniveau erfüllen. In einigen Beispielen können mehrere unterschiedliche Empfehlungen das Schwellenkonfidenzniveau erfüllen. In einem solchen Beispiel werden die nicht widersprüchlichen Empfehlungen mit der höchsten Konfidenz den geeigneten Entitäten bereitgestellt. Zwei Empfehlungen können widersprüchlich sein, wenn diese Empfehlungen Aktionen bewirken würden, die miteinander in Konflikt stehen würden.
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Verwalten. Zum Beispiel können die Mittel zum Verwalten durch die Empfehlungsverwaltungsschaltungsanordnung 1060 implementiert werden. In einigen Beispielen kann die Empfehlungsverwaltungsschaltungsanordnung 1060 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Block 1160 aus 11 implementiert werden, die durch die Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 aus 18, die beispielhafte Prozessorschaltungsanordnung 1900 aus 19 und/oder die beispielhafte feldprogrammierbare Gate-Array- bzw. FPGA-Schaltungsanordnung 2000 aus 20 implementiert werden kann. In anderen Beispielen wird die Empfehlungsverwaltungsschaltungsanordnung 1060 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Zum Beispiel kann die Empfehlungsverwaltungsschaltungsanordnung 1060 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. Prozessorschaltlogik, diskrete und/oder integrierte analoge und/oder digitale Schaltlogik, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation durchzuführen, ohne Software oder Firmware auszuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Die beispielhafte Empfehlungsbereitstellungsschaltungsanordnung 1070 des veranschaulichten Beispiels aus 10 stellt Empfehlungsinformationen an verschiedene andere Netzwerkgeräte bereit. In einigen Beispielen kommuniziert die Empfehlungsbereitstellungsschaltungsanordnung 1070 mit dem Funknetzempfehlungsdienst 850, um Funknetzempfehlungen für Elemente innerhalb des 5G-Kerns 810 bereitzustellen (z.B. um einem gNB direkt zu empfehlen, eine Aufgabe durchzuführen). In einigen Beispielen kommuniziert die Empfehlungsbereitstellungsschaltungsanordnung 1070 mit einer oder mehreren RSUs, um Empfehlungen bezüglich der Strahlbildung zu ermöglichen. In einigen Beispielen kommuniziert die Empfehlungsbereitstellungsschaltungsanordnung 1070 mit dem MEC-Orchestrator 825, um Mobilitätsverwaltung zu ermöglichen.
  • In einigen Beispielen beinhaltet die Digital-Twin-Schaltungsanordnung 830 Mittel zum Bereitstellen. Das Mittel zum Bereitstellen kann zum Beispiel durch die Empfehlungsbereitstellungsschaltungsanordnung 1070 implementiert werden. In einigen Beispielen kann die Empfehlungsbereitstellungsschaltungsanordnung 1070 durch maschinenausführbare Anweisungen implementiert werden, wie etwa jene, die durch mindestens Block 1170 aus 11 implementiert werden, die durch die Prozessorschaltungsanordnung ausgeführt werden, die durch die beispielhafte Prozessorschaltungsanordnung 1812 aus 18, die beispielhafte Prozessorschaltungsanordnung 1900 aus 19 und/oder die beispielhafte feldprogrammierbare Gate-Array- bzw. FPGA-Schaltungsanordnung 2000 aus 20 implementiert werden kann. In anderen Beispielen wird die Empfehlungsbereitstellungsschaltungsanordnung 1070 durch andere Hardwarelogikschaltungsanordnungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige andere Kombination von Hardware, Software und/oder Firmware implementiert. Zum Beispiel kann die Empfehlungsbereitstellungsschaltungsanordnung 1070 durch mindestens eine oder mehrere Hardwareschaltungen (z.B. Prozessorschaltlogik, diskrete und/oder integrierte analoge und/oder digitale Schaltlogik, ein FPGA, eine anwendungsspezifische integrierte Schaltung (ASIC), einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation durchzuführen, ohne Software oder Firmware auszuführen, aber andere Strukturen sind ebenfalls geeignet.
  • Während in 10 eine beispielhafte Art und Weise zum Implementieren der Digital-Twin-Schaltungsanordnung 830 von 8 veranschaulicht ist, können eines oder mehrere der in 10 veranschaulichten Elemente, Prozesse und/oder Vorrichtungen auf beliebige andere Weise kombiniert, aufgeteilt, umgeordnet, weggelassen, eliminiert und/oder implementiert werden. Ferner können die beispielhafte Informationszugriffsschaltungsanordnung 1010, die beispielhafte Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020, die beispielhafte Simulationsschaltungsanordnung 1040, die beispielhafte Empfehlungserzeugungsschaltungsanordnung 1050, die beispielhafte Empfehlungsverwaltungsschaltungsanordnung 1060, die beispielhafte Empfehlungsbereitstellungsschaltungsanordnung 1070 und/oder allgemeiner die beispielhafte Digital-Twin-Schaltungsanordnung 830 aus 8 implementiert werden durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware. Somit könnte zum Beispiel eine beliebige der beispielhaften Informationszugriffsschaltungsanordnung 1010, der beispielhaften Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020, der beispielhaften Simulationsschaltungsanordnung 1040, der beispielhaften Empfehlungserzeugungsschaltungsanordnung 1050, der beispielhaften Empfehlungsverwaltungsschaltungsanordnung 1060, der beispielhaften Empfehlungsbereitstellungsschaltungsanordnung 1070 und/oder allgemeiner der beispielhaften Digital-Twin-Schaltungsanordnung 830 aus 8 durch eine Prozessorschaltungsanordnung, (eine) analoge Schaltung(en), digitale Schaltung(en), Logikschaltung(en), (einen) programmierbare(n) Prozessor(en), programmierbare(n) Mikrocontroller, (eine) Grafikverarbeitungseinheit(en) (GPU(s)), (einen) Digitalsignalprozessor(en) (DSP(s)), (eine) anwendungsspezifische integrierte Schaltung(en) (ASIC(s)), programmierbare Logikvorrichtung(en) (PLD(s)) und/oder frei programmierbare Logikvorrichtung(en) (FPLD(s)), wie etwa frei programmierbare Gate Arrays (FPGAs), implementiert werden. Wenn zu lesen ist, dass beliebige der Vorrichtungs- oder Systemansprüche dieses Patents eine reine Software - und/oder Firmware-Implementierung abdecken, ist/sind die beispielhafte Informationszugriffsschaltungsanordnung 1010, und/oder die beispielhafte Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020 und/oder die beispielhafte Simulationsschaltungsanordnung 1040 und/oder die beispielhafte Empfehlungserzeugungsschaltungsanordnung 1050 und/oder die beispielhafte Empfehlungsverwaltungsschaltungsanordnung 1060 und/oder die beispielhafte Empfehlungsbereitstellungsschaltungsanordnung 1070 und/oder allgemeiner die beispielhafte Digital-Twin-Schaltungsanordnung aus 8 hiermit ausdrücklich so definiert, dass sie eine nichttransiente computerlesbare Speicherungsvorrichtung oder Speicherungsplatte beinhalten, wie etwa einen Speicher, eine DVD (Digital Versatile Disk), eine CD (Compact Disk), eine Blu-Ray-Disk usw., die die Software und/oder Firmware beinhalten. Darüber hinaus kann die beispielhafte Digital-Twin-Schaltungsanordnung 830 von FIG: 8 zusätzlich zu oder statt des bzw. der in 10 veranschaulichten einen oder mehreren Elemente, Prozesse und/oder Vorrichtungen enthalten und/oder kann mehr als eines von beliebigen oder allen der veranschaulichten Elemente, Prozesse und Vorrichtungen enthalten.
  • Ein Flussdiagramm, das eine beispielhafte Hardwarelogikschaltungsanordnung, maschinenlesbare Anweisungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige Kombination davon zum Implementieren der Digital-Twin-Schaltungsanordnung 830 aus 10 darstellt, ist in 11 gezeigt. Die maschinenlesbaren Anweisungen können ein oder mehrere ausführbare Programme oder Teil(e) eines ausführbaren Programms zur Ausführung durch eine Prozessorschaltungsanordnung sein, wie etwa die Prozessorschaltungsanordnung 1812, die in der nachstehend in Verbindung mit 18 besprochenen beispielhaften Prozessorplattform 1800 gezeigt ist, und/oder die nachstehend in Verbindung mit 19 und/oder 20 besprochenen beispielhafte Prozessorschaltungsanordnung. Das Programm kann in Software umgesetzt sein, die auf einem oder mehreren nichttransienten computerlesbaren Speicherungsmedien gespeichert ist, wie etwa einer CD, einer Diskette, einem Festplattenlaufwerk (HDD), einer DVD, einer Blu-Ray-Disk, einem flüchtigen Speicher (z.B. Direktzugriffsspeicher (RAM) eines beliebigen Typs usw.) oder einem nichtflüchtigen Speicher (z.B. FLASH-Speicher, HDD usw.), die einer Prozessorschaltungsanordnung zugeordnet sind, die sich in einer oder mehreren Hardware-Vorrichtungen befindet, jedoch könnten alternativ das gesamte Programm und/oder Teile davon durch eine oder mehrere andere Hardware-Vorrichtungen als die Prozessorschaltungsanordnung ausgeführt werden und/oder in Firmware oder dedizierter Hardware umgesetzt werden. Die maschinenlesbaren Anweisungen können über mehrere Hardwarevorrichtungen verteilt und/oder durch zwei oder mehr Hardwarevorrichtungen (z.B. eine Server- und eine Client-Hardwarevorrichtung) ausgeführt werden. Die Client-Hardware-Vorrichtung kann zum Beispiel durch eine Endpunkt-Client-Hardware-Vorrichtung (z.B. eine Hardware-Vorrichtung, die einem Benutzer zugeordnet ist) oder eine Zwischen-Client-Hardware-Vorrichtung (z.B. ein Funkzugangsnetz- (radio access network, RAN-) Gateway, das Kommunikation zwischen einem Server und einer Endpunkt-Client-Hardware-Vorrichtung ermöglichen kann) implementiert werden. Gleichermaßen können die nichttransienten computerlesbaren Speicherungsmedien ein oder mehrere Medien beinhalten, die sich in einer oder mehreren Hardwarevorrichtungen befinden. Ferner können, auch wenn das Beispielprogramm unter Bezugnahme auf das in 18 dargestellte Flussdiagramm beschrieben wird, auch viele andere Verfahren zur Implementierung der beispielhaften Digital-Twin-Schaltungsanordnung 830 verwendet werden. Zum Beispiel kann die Ausführungsreihenfolge der Blöcke geändert werden und/oder einige der beschriebenen Blöcke können geändert, eliminiert oder kombiniert werden. Zusätzlich oder alternativ können beliebige oder alle der Blöcke durch eine oder mehrere Hardware-Schaltungen (z.B. Prozessorschaltungsanordnung, diskrete und/oder integrierte analoge und/oder digitale Schaltungsanordnung, ein FPGA, eine ASIC, einen Komparator, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die strukturiert sind, um die entsprechende Operation ohne Ausführen von Software oder Firmware durchzuführen. Die Prozessorschaltungsanordnung kann an unterschiedlichen Netzwerkstandorten verteilt und/oder lokal zu einer oder mehreren Hardwarevorrichtungen sein (z.B. ein Einzelkernprozessor (z.B. eine Einzelkern-Zentralprozessoreinheit (CPU)), ein Mehrkernprozessor (z.B. eine Mehrkern-CPU) usw.) in einer einzigen Maschine, mehrere Prozessoren, die über mehrere Server eines Server-Racks verteilt sind, mehrere Prozessoren, die über ein oder mehrere Server-Racks verteilt sind, eine CPU und/oder ein FPGA, die sich in demselben Package (z.B. demselben IC- (integrierte Schaltung) Package oder in zwei oder mehr separaten Gehäusen usw. befinden).
  • Die hierin beschriebenen maschinenlesbaren Anweisungen können in einem komprimierten Format und/oder einem verschlüsselten Format und/oder einem fragmentierten Format und/oder einem kompilierten Format und/oder einem ausführbaren Format und/oder einem verpackten Format usw. gespeichert sein. Die hierin beschriebenen maschinenlesbaren Anweisungen können als Daten oder Datenstruktur (z.B. als Teile von Anweisungen, Code, Repräsentationen von Code usw.) gespeichert sein, die genutzt werden können, um maschinenlesbare Anweisungen zu erstellen, herzustellen und/oder zu erzeugen. Zum Beispiel können die maschinenlesbaren Anweisungen fragmentiert und auf einer oder mehreren Speicherungsvorrichtungen und/oder Rechenvorrichtungen (z.B. Servern) gespeichert sein, die sich an denselben oder unterschiedlichen Orten eines Netzwerks oder einer Sammlung von Netzwerken (z.B. in der Cloud, in Edge-Vorrichtungen usw.) befinden. Die maschinenlesbaren Anweisungen können eines oder mehrere von Installation, Modifikation, Anpassung, Aktualisierung, Kombinierung, Ergänzung, Konfigurierung, Entschlüsselung, Dekomprimierung, Entpackung, Verteilung, Neuzuordnung, Kompilierung usw. erfordern, um sie direkt durch eine Rechenvorrichtung und/oder eine andere Maschine lesbar, interpretierbar und/oder ausführbar zu machen. Zum Beispiel können die maschinenlesbaren Anweisungen in mehreren Teilen gespeichert sein, die einzeln komprimiert, verschlüsselt und/oder auf separaten Rechenvorrichtungen gespeichert sind, wobei die Teile, wenn sie entschlüsselt, dekomprimiert und/oder kombiniert werden, einen Satz maschinenausführbarer Anweisungen bilden, die eine oder mehrere Operationen implementieren, die zusammen ein Programm, wie etwa das hierin beschriebene, bilden können.
  • In einem anderen Beispiel können die maschinenlesbaren Anweisungen in einem Zustand gespeichert sein, in dem sie durch eine Prozessorschaltungsanordnung gelesen werden können, aber ein Hinzufügen einer Bibliothek (z.B. einer Dynamic Link Library (DLL)), eines Softwareentwicklungskits (SDK), einer Anwendungsprogrammierungsschnittstelle (API) usw. erfordern, um die maschinenlesbaren Anweisungen auf einer bestimmten Rechenvorrichtung oder einer anderen Vorrichtung auszuführen. In einem anderen Beispiel müssen die maschinenlesbaren Anweisungen möglicherweise konfiguriert werden (z.B. Einstellungen gespeichert, Daten eingegeben, Netzwerkadressen aufgezeichnet werden usw.), bevor die maschinenlesbaren Anweisungen und/oder das (die) entsprechende(n) Programm(e) vollständig oder teilweise ausgeführt werden können. Somit können maschinenlesbare Medien, wie hier verwendet, maschinenlesbare Anweisungen und/oder Programm(e) unabhängig von dem bestimmten Format oder Zustand der maschinenlesbaren Anweisungen und/oder Programm(e), wenn sie gespeichert sind oder sich anderweitig im Ruhe- oder im Transportzustand befinden, beinhalten.
  • Die hierin beschriebenen maschinenlesbaren Anweisungen können durch eine beliebige vergangene, aktuelle oder zukünftige Befehlssprache, Skriptsprache, Programmiersprache usw. repräsentiert sein. Beispielsweise können die maschinenlesbaren Anweisungen unter Verwendung beliebiger der folgenden Sprachen repräsentiert sein: C, C++, Java, C#, Perl, Python, JavaScript, HyperText Markup Language (HTML), Structured Query Language (SQL), Swift usw.
  • Wie vorstehend erwähnt, können die beispielhaften Operationen aus 11 unter Verwendung ausführbarer Anweisungen (z.B. computer- und/oder maschinenlesbarer Anweisungen) implementiert werden, die auf einem oder mehreren nichtflüchtigen computer- und/oder maschinenlesbaren Medien gespeichert sind, wie etwa optischen Speicherungsvorrichtungen, magnetischen Speicherungsvorrichtungen, einem HDD, einem Flash-Speicher, einem Nur-Lese-Speicher (ROM), einer CD, einer DVD, einem Cache, einem RAM eines beliebigen Typs, einem Register und/oder einer beliebigen anderen Speicherungsvorrichtung oder Speicherungsplatte, auf der Informationen für eine beliebige Dauer (z.B. für längere Zeiträume, permanent, für kurze Vorgänge, zum temporären Puffern und/oder zum Cachen der Informationen) gespeichert sind. Wie hierin verwendet, sind die Begriffe „nichttransientes computerlesbares Medium“ und „nichttransientes computerlesbares Speichermedium“ ausdrücklich so definiert, dass sie jede Art von computerlesbarer Vorrichtung und/oder Speicherplatte aufweisen und die Übertragung von Signalen und die Übertragung von Medien ausschließen.
  • „Beinhaltend“ und „umfassend“ (und alle Formen und Zeitformen davon) werden hier als offene Begriffe verwendet. Wann auch immer ein Anspruch eine beliebige Form von „beinhalten“ oder „umfassen“ (z.B. umfasst, beinhaltet, umfassend, beinhaltend, aufweisend usw.) als eine Präambel oder innerhalb einer Anspruchsrezitation einer beliebigen Art einsetzt, versteht es sich somit, dass zusätzliche Elemente, Begriffe usw. vorhanden sein können, ohne außerhalb des Schutzumfangs des entsprechenden Anspruchs oder der entsprechenden Rezitation zu fallen. Wie hier verwendet, ist, wenn der Ausdruck „mindestens“ als der Übergangsterm in zum Beispiel einer Präambel eines Anspruchs verwendet wird, er auf die gleiche Weise offen, wie der Ausdruck „umfassend“ und „einschließend“ offen sind. Der Begriff „und/oder“, wenn er zum Beispiel in einer Form wie etwa A, B und/oder C verwendet wird, bezieht sich auf eine beliebige Kombination oder Teilmenge von A, B, C, wie etwa (1) A allein, (2) B allein, (3) C allein, (4) A mit B, (5) A mit C, (6) B mit C oder (7) A mit B und mit C. Wie hier im Zusammenhang mit der Beschreibung von Strukturen, Komponenten, Gegenständen, Objekten und/oder Dingen verwendet, soll sich der Ausdruck „mindestens eines von A und B“ auf Implementierungen beziehen, die beliebige von (1) mindestens einem A, (2) mindestens einem B oder (3) mindestens einem A und mindestens einem B beinhalten. Ähnlich, wie hier im Kontext der Beschreibung von Strukturen, Komponenten, Elementen, Objekten und/oder Dingen verwendet, soll sich der Ausdruck „mindestens eines von A oder B“ auf Implementierungen beziehen, die beliebige von (1) mindestens einem A, (2) mindestens einem B oder (3) mindestens einem A und mindestens einem B beinhalten. Wie hierin im Kontext der Beschreibung der Leistungsfähigkeit oder Ausführung von Prozessen, Anweisungen, Aktionen, Aktivitäten und/oder Schritten verwendet, soll sich der Ausdruck „mindestens eines von A und B“ auf Implementierungen beziehen, die beliebige von (1) mindestens einem A, (2) mindestens einem B oder (3) mindestens einem A und mindestens einem B beinhalten. Ähnlich, wie hierin im Zusammenhang mit der Beschreibung der Leistungsfähigkeit oder Ausführung von Prozessen, Anweisungen, Handlungen, Aktivitäten und/oder Schritten verwendet, soll sich der Ausdruck „mindestens eines von A oder B“ auf Implementierungen beziehen, die beliebige von (1) mindestens einem A, (2) mindestens einem B oder (3) mindestens einem A und mindestens einem B beinhalten.
  • Wie hier verwendet, schließen singuläre Referenzen (z.B. „ein“, „eine“, „erste“, „zweite“ usw.) mehrere nicht aus. Der Ausdruck „ein“ Objekt, wie hier verwendet, verweist auf eines oder mehrere dieses Objekts. Der Ausdruck „ein“ (oder „eine“), „ein oder mehrere“ und „mindestens ein“ werden hier austauschbar verwendet. Wenngleich einzeln aufgelistet, können ferner eine Vielzahl von Mitteln, Elementen oder Verfahrensaktionen durch z.B. dieselbe Entität oder dasselbe Objekt implementiert werden. Auch wenn einzelne Merkmale in unterschiedlichen Beispielen oder Ansprüchen enthalten sein können, können diese zudem möglicherweise kombiniert werden und die Aufnahme in unterschiedlichen Beispielen oder Ansprüchen impliziert nicht, dass eine Kombination von Merkmalen nicht machbar und/oder vorteilhaft ist.
  • 11 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen und/oder beispielhafte Operationen 1100 darstellt, die durch eine Prozessorschaltungsanordnung ausgeführt und/oder instanziiert werden können, um eine Empfehlung zu erzeugen. Die maschinenlesbaren Anweisungen und/oder Operationen 1100 aus 11 beginnen bei Block 1110, bei dem die Informationszugriffsschaltungsanordnung 1010 auf semantische und kinematische Statistikinformationen vom EPS 845 zugreift. (Block 1110). Die beispielhafte Informationszugriffsschaltungsanordnung 1010 greift auf Netzwerkinformations- und Messberichte von dem RNI-Dienst 835 und/oder den RSUs 865 zu. (Block 1120). In einigen Beispielen greift die Informationszugriffsschaltungsanordnung 1010 zudem auf aktuelle und zukünftige lokale Umgebungsbedingungen von den Prognosediensten 860 zu. (Block 1125). In einigen Beispielen können die aktuellen und zukünftigen lokalen Umgebungsbedingungen aktuelle und/oder vorhergesagte Wetterbedingungen darstellen, einschließlich beispielsweise Temperatur, Regen, Schnee, Nebel usw. In vorliegend offenbarten Beispielen können die semantischen und kinematischen statistischen Informationen und die Netzwerkinformationen und Messberichte generisch als Betriebsstatistiken bezeichnet werden.
  • Die Verwaltungsschaltung für virtuelle Umgebungen 1020 aktualisiert den Speicher für virtuelle Umgebungen 1030 basierend auf den abgerufenen Informationen. (Block 1130). Auf diese Weise repräsentiert der Speicher für virtuelle Umgebungen 1030 eine virtuelle Umgebung, die die physische Umgebung widerspiegelt (z.B. ein digitaler Zwilling davon ist). Die beispielhafte Simulationsschaltungsanordnung 1040 simuliert Änderungen an der Umgebung, die durch den Speicher für virtuelle Umgebungen 1030 dargestellt wird. (Block 1140). Solche Änderungen können zum Beispiel auf den semantischen und kinematischen Statistiken und/oder den Netzwerkinformationen und Messberichten basieren, die in den Blöcken 1110 bzw. 1120 empfangen werden. Auf diese Weise repräsentieren die simulierten Änderungen mögliche Änderungen an der virtuellen Umgebung und infolgedessen mögliche Änderungen an der physischen Umgebung. Falls sich zum Beispiel ein UE mit einer Geschwindigkeit bewegt, die bald bewirken würde, dass das UE übergeht von Sichtlinie (LoS) mit einem gNB zu keiner LoS mit dem gNB, kann eine Simulation einer solchen Änderung verwendet werden, um einen Handover von dem gNB zu einem anderen gNB zu beginnen, bevor das UE keine LoS mehr mit dem gNB aufweist.
  • Basierend auf den simulierten Änderungen erzeugt der Empfehlungsgenerator 1050 eine oder mehrere Empfehlungen. (Block 1150). In einigen Beispielen können mehrere unterschiedliche Änderungen simuliert werden und diese unterschiedlichen Änderungen können variierende Konfidenzgrade aufweisen, dass diese Änderungen wahrscheinlich auftreten werden. In einigen Beispielen können mehrere unterschiedliche Situationsänderungen zu einer gleichen Empfehlung führen (z.B. Durchführen eines Handoff von einem ersten gNB zu einem zweiten gNB). Zum Beispiel kann es unter Berücksichtigung des obigen LoS-Beispiels eine Wahrscheinlichkeit von 50 % geben, dass sich das UE auf seinem aktuellen Fortbewegungsweg mit seiner aktuellen Geschwindigkeitsrate weiterbewegt, eine Wahrscheinlichkeit von 25 %, dass das UE die Bewegung stoppt, und eine Wahrscheinlichkeit von 25 %, dass sich das UE auf seinem aktuellen Fortbewegungsweg mit einer erhöhten Geschwindigkeitsrate weiterbewegt. In beiden Situationen, in denen sich das UE auf seinem aktuellen Weg weiterbewegt (z.B. insgesamt mit einer Wahrscheinlichkeit von 75 %), kann ein Handover empfohlen werden, wohingegen in der Situation, in der das UE aufhört, sich zu bewegen, kein Handover empfohlen wird. Die Empfehlungsverwaltungsschaltungsanordnung 1060 evaluiert die Konfidenz(en) variierender Situationsänderungen und aggregiert Ergebnisse, um eine Konfidenz für jede Empfehlung zuzuordnen. (Block 1160). Unter Fortsetzung des obigen Beispiels kann es daher eine Konfidenz von 75 % geben, dass ein Handover initiiert werden sollte.
  • Die beispielhafte Empfehlungsverwaltungsschaltungsanordnung 1060 bestimmt, ob Empfehlungen ein Schwellenkonfidenzniveau erfüllen. (Block 1165). Falls das Schwellenkonfidenzniveau erfüllt ist (z.B. gibt Block 1165 ein Ergebnis JA zurück), wird die Empfehlung (z.B. die Empfehlung mit der Schwellenkonfidenz) dem relevanten Empfänger durch die Empfehlungsbereitstellungsschaltungsanordnung 1070 bereitgestellt. (Block 1170). In einigen Beispielen können mehrere unterschiedliche Empfehlungen das Schwellenkonfidenzniveau erfüllen. In einem solchen Beispiel werden die nicht widersprüchlichen Empfehlungen mit der höchsten Konfidenz den geeigneten Entitäten bereitgestellt. Zwei Empfehlungen können widersprüchlich sein, wenn diese Empfehlungen Aktionen bewirken würden, die miteinander in Konflikt stehen würden. Falls es zum Beispiel eine erste Empfehlung gab, ein UE von einem Ursprungsknoten an einen ersten Zielknoten zu übergeben, und eine zweite Empfehlung, das UE von dem Ursprungsknoten an einen zweiten Zielknoten zu übergeben, würde die Empfehlung mit der höheren Konfidenz ausgewählt werden, da das UE nicht sowohl dem ersten als auch dem zweiten Knoten übergeben werden kann.
  • Nach dem Bereitstellen der Empfehlung(en) an die geeignete(n) Entität(en) endet der beispielhafte Prozess 1100 von 11. Der beispielhafte Prozess aus 11 kann jedoch periodisch (z.B. alle einhundert Millisekunden, jede Sekunde, jede Minute usw.) und/oder periodisch (z.B. in Reaktion auf den Empfang aktualisierter semantischer und/oder kinematischer Informationen, in Reaktion auf den Empfang aktualisierter Netzwerkinformationen und/oder aktualisierter Messberichte) wiederholt werden.
  • 12 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen und/oder beispielhafte Operationen 1100 darstellt, die durch eine Prozessorschaltungsanordnung ausgeführt und/oder instanziiert werden können, um in Reaktion auf eine Empfehlung einen Handoff durchzuführen. In existierenden 5G-Systemen werden die HO-Entscheidungen allein basierend auf Messungen getroffen, die durch die UEs gemeldet werden. In dem Basis-HO-Prozess wird ein UE im verbundenen Modus durch gNB dazu konfiguriert, bestimmte Messereignisse zu melden, basierend darauf, welcher der gNB HO-Entscheidungen trifft. Wenn der gNB entscheidet, ein HO eines UE an einen Ziel-gNB durchzuführen, initiiert das UE eine HO-Vorbereitungsphase mit dem Ziel-gNB und sendet danach einen Befehl an das UE, den HO-Prozess auszuführen. In Abhängigkeit von der Umgebung und dem Geschwindigkeitsvektor des UE bestehen jedoch gewisse Wahrscheinlichkeiten für HoF- und Pingpong-Effekte. Beispielsweise dann, wenn der Link eines Hochgeschwindigkeits-UE aufgrund der Blockierung durch ein Gebäude abrupt von LoS zu NLoS wechselt. Es gibt bestimmte HO-bezogene Parameter, wie RSRP/RSRQ/SINR-Schwellen, Hysterese, Offset usw., die angemessen angepasst werden können, um HoF zu reduzieren. Aufgrund von Ungewissheiten in der Umgebung und der Dynamik des Verhaltens eines UE können an den UEs jedoch signifikante Funkverbindungsausfälle (RLFs) und HoFs infolge eines zu frühen oder zu späten HO auftreten.
  • Die maschinenlesbaren Anweisungen und/oder Operationen 1200 aus 12 beginnen bei Block 1210, bei dem der gNB 890 eine Handoff-Empfehlung von einer anderen Entität als dem UE 895 empfängt. (Block 1210). Das heißt, im Gegensatz zu existierenden Ansätzen, bei denen das UI die HO-Vorbereitung initiiert, wird die Empfehlung zum Initiieren des HO durch eine andere Entität, wie etwa zum Beispiel die Digital-Twin-Schaltungsanordnung 830, bereitgestellt. Der beispielhafte gNB bestimmt, ob die HO-Ressourcen verfügbar sind (Block 1220), und initiiert, falls dies der Fall ist, eine Handoff-Prozedur für das UE. (Block 1230). Wenn die HO-Ressourcen nicht verfügbar sind (z.B. gibt Block 1220 ein Ergebnis NEIN zurück), wird keine Aktion unternommen.
  • 13 ist ein Kommunikationsdiagramm 1300, das proaktive Mobilitätsverwaltung veranschaulicht, um Handover-Ausfälle zu reduzieren. In dem veranschaulichten Beispiel aus 13 sammelt die DT-Schaltungsanordnung 830 semantische und kinematische Informationen sowie Netzwerkinformationen und Messberichte. Unter Verwendung dieser Informationen simuliert die DT-Schaltungsanordnung 830 eine virtuelle Umgebung und erzeugt eine Empfehlungsnachricht. In dem veranschaulichten Beispiel aus 13 ist die Empfehlungsnachricht eine Handover-Empfehlungsnachricht.
  • In vorliegend offenbarten Beispielen beinhaltet die HO-Empfehlungsnachricht eine Liste von HO-Empfehlungsstrukturen, die jeweils einem UE entsprechen, das in naher Zukunft HO erfordern kann. Jede Empfehlungsstruktur beinhaltet zum Beispiel eine Empfehlungs-ID, eine Netzwerk-ID für das UE, einen Empfehlungstyp (z.B. neu, aktualisieren, widerrufen usw.), einen Zeitstempel, der eine empfohlene zukünftige Zeit angibt, zu der der Ursprungs-gNB eine HO-Vorbereitung beginnen kann, einen Zeitstempel, der eine zukünftige Zeit angibt, bevor die HO-Ausführung abgeschlossen werden sollte, um einen HoF oder RLF zu vermeiden, einen empfohlenen HO-Typ (z.B. HO, CHO, duale Konnektivität usw.), eine (im Fall von HO/CHO/DC) oder mehrere (im Fall von CHO) Empfehlungen. Die Empfehlung beinhaltet zum Beispiel eine empfohlene Zielzellen-/gNB-ID für HO und einen Konfidenzwert der Empfehlung.
  • Da die HO-Empfehlungen für zukünftige Zeitpunkte sind, könnten sich die Vorhersagen an der DT-Schaltungsanordnung 830 basierend auf aktualisierten Informationen aus Sensoren und Messberichten ändern. In solchen Fällen kann die DT Änderungen an den zuvor gesendeten Empfehlungen senden, indem das Empfehlungstypfeld auf „Aktualisieren“ und die Empfehlungs-ID auf die vorherige ID gesetzt werden, für die die Aktualisierung gesendet wird. Die DT-Schaltungsanordnung 830 kann zudem eine zuvor gesendete Empfehlung aufheben/widerrufen, indem das Empfehlungstypfeld auf „widerrufen“ gesetzt wird.
  • Ein gNB (z.B. gNB 1320) verwendet typischerweise bestimmte Kriterien für die Messungen, die durch ein UE 1310 gemeldet werden, um HO-Entscheidungen zu treffen. In vorliegend offenbarten Beispielen nutzt der gNB 1320 zusätzlich Empfehlungen von der DT-Schaltungsanordnung 830 als zusätzliche Kriterien im HO-Entscheidungsprozess. Zum Beispiel kann der gNB 1320 eine HO-Vorbereitung mit dem Ziel-gNB 1330 zu dem Zeitpunkt gemäß der Empfehlungsnachricht von der DT-Schaltungsanordnung 1320 beginnen. Dann kann der Ursprungs-gNB 1320 die HO-Prozedur ausführen, indem Messberichte von dem UE 1310 und die Empfehlungskonfidenz von der DT-Schaltungsanordnung 830 berücksichtigt werden.
  • 14 ist ein Kommunikationsdiagramm, das ein proakive Mobilitätsverwaltung unter Verwendung einer bedingten Handover-Empfehlung veranschaulicht. 3GPP hat eine verbesserte Mobilitätsverwaltungsprozedur spezifiziert, die als bedingter Handover (conditional handover, CHO) bezeichnet wird, bei dem ein HO durch ein UE 1410 ausgeführt wird, wenn eine oder mehrere HO-Ausführungsbedingungen erfüllt sind. Bei dieser Prozedur sendet ein Ursprungs-gNB 1420 eine CHO-Konfiguration an das UE 1410, die eine oder mehrere CHO-Zielzellen und Ausführungsbedingungen enthält. Dann bewertet das UE 1410 kontinuierlich CHO-Bedingungen, und wenn eine Bedingung erfüllt ist, führt das UE 1410 HO (ohne HO-Befehl von gNB 1420) an die entsprechende Zielzelle 1430, 1435 aus. Es hat sich gezeigt, dass der CHO HoFs und RLFs reduziert, der Hauptnachteil der CHO-Prozedur besteht jedoch darin, dass der Ursprungs-gNB 1420 eine oder mehrere Zielzellen 1430, 1435 für HO eines UE 1410 vorbereiten und Ressourcen (Funkressourcen, UE-Kennungen, RACH-Ressourcen usw.) in dieser (diesen) Zelle(n) reservieren muss, was zu einer ineffizienten Nutzung von Ressourcen führt. Darüber hinaus ist es möglich, dass das UE 1410 möglicherweise keinen HO für eine dieser Zielzellen durchführt. Daher muss der gNB 1420 die CHO-Zielzellen sorgfältig auswählen, um Redundanz zu minimieren und die Ressourcennutzungseffizienz zu verbessern.
  • In vorliegend offenbarten Beispielen wird eine DT-basierte proaktive HO-Prozedur offenbart, bei der die DT-Schaltungsanordnung 830 die gNBs 1420, 1430, 1435 unterstützt, indem HO-bezogene Vorschläge basierend auf den Vorhersagen bereitgestellt werden, die durch Simulationen erzeugt werden. In vorliegend offenbarten Beispielen synchronisiert die DT-Schaltungsanordnung 830 die digitalen Modelle von UEs kontinuierlich mit den semantischen und kinematischen Informationen des EPS und den Messberichten vom RNI-Dienst. Die DT-Schaltungsanordnung 830 führt Simulationen durch und sagt voraus, ob irgendwelche UEs in naher Zukunft HOs erfordern könnten. Basierend auf den Vorhersagen der UEs sendet die DT-Schaltungsanordnung 830 HO-Empfehlungsnachrichten an die jeweiligen gNBs 1420, 1430, 1435, die die Details für gNBs enthalten, um proaktive HO-Entscheidungen zu treffen, um HOFs und RLFs zu vermeiden.
  • 14 zeigt die CHO-Prozedur in 5G zusammen mit der vorgeschlagenen Signalisierung von der DT-Schaltungsanordnung 830 an den gNB 1420. Wie zuvor erwähnt, wählt der gNB 1420 während der CHO-Entscheidung die CHO-Zielzellen sorgfältig aus, um Redundanz zu minimieren und eine Ressourcennutzungseffizienz zu verbessern. In vorliegend offenbarten Beispielen enthält die DT-Empfehlungsnachricht eine Liste empfohlener Zielzellen/gNBs, die durch den Quellen-gNB für CHO verwendet werden können.
  • In vorliegend offenbarten Beispielen kann die DT-basierte Empfehlung zusätzlich verwendet werden, um Pingpongs zu vermeiden. Falls die DT-Schaltungsanordnung 830 bis zu einer ausreichenden zukünftigen Zeit simulieren kann, können solche Simulationen verwendet werden, um vorherzusagen, ob Pingpong-HOs für ein UE (UE-HO an eine Zielzelle und nach einer kurzen Zeit HO zurück an die vorherige versorgende Zelle) vorliegen. In einem solchen Fall kann die DT-Schaltungsanordnung 830 einen doppelkonnektivitätsbasierten HO für das UE empfehlen. Der versorgende gNB 1420 kann dann dem UE befehlen, eine zusätzliche Verbindung mit einer Zielzelle zu initiieren, ohne die Verbindung mit der versorgenden Zelle aufzuheben. Es sei angemerkt, dass das UE 1410 eine derartige Doppelkonnektivität unterstützen muss, damit dieser Ansatz funktioniert. Der versorgende gNB 1410 kann dann basierend auf bestimmten Kriterien eine Verbindung entweder mit der versorgenden Zelle oder mit einer Zielzelle aufheben. Zum Beispiel basierend auf einer vordefinierten Dauer und/oder den Trends von Signalstärken von versorgenden und Zielzellen im Zeitverlauf. Der Vorteil dieses Ansatzes ist, dass, wenn ein UE eine neue Verbindung mit der Zielzelle hinzufügt und nach einer kurzen Zeit die Verbindung mit der Zielzelle aufhebt (Pingpong), keine Overhead-Signalisierung vorhanden ist, die notwendig ist, um zu der versorgenden Zelle zurückzuwechseln. Dies unterscheidet sich von der typischen HO-Prozedur, die zusätzlichen Signalisierungsaufwand erfordert, wenn ein UE in Pingpong-Manövern von der Zielzelle zurück zur versorgenden Zelle wechselt.
  • Wie vorstehend angemerkt, können eine Modellierung und/oder Simulation, die durch die Digital-Twin-Schaltungsanordnung 830 durchgeführt wird, verwendet werden, um Empfehlungen für andere Arten von Systemen und/oder Zwecken zu erzeugen. 15 ist ein Kommunikationsdiagramm, das die Verwendung der Digital-Twin-Schaltungsanordnung 830 zur intelligenten Strahlverwaltung veranschaulicht. Die in 5G-NR unterstützten Frequenzbänder oberhalb von 6GHz sind aufgrund der Verwendung stark direktionaler Übertragungsstrahlen gegenüber einer physischen Blockierung von Funkverbindungen (wenn ein Objekt den LoS-Weg blockiert) empfindlich. Die Blockierung kann auf die sich bewegenden Objekte in einer Kommunikationsumgebung (dynamische Blockierung) oder darauf zurückzuführen sein, dass die statischen Objekte die Strahlen aufgrund der Mobilität des UE (geometrieinduzierte Blockierung) abfangen. Für ein UE 1510 im verbundenen Modus kann die Blockierung zu einem Strahlausfall führen und eine abrupte Kommunikationsunterbrechung verursachen. 3GPP hat eine Prozedur für die Detektion eines Strahlausfalls am UE 1510 und eine Strahlausfallbehebungs- (beam failure recovery, BFR) Prozedur definiert, durch die das UE 1510 versucht, eine Verbindung mit derselben Zelle über einen alternativen Strahl wieder herzustellen. Dieser Prozess kann einige 10 ms beanspruchen und bei manchen Szenarien können auch die alternativen Strahlen beeinträchtigt sein, was aufgrund mehrerer Versuche zu weiteren Verzögerungen des Strahlausfall-Wiederherstellungsprozesses führt, so dass der Erfolg nicht garantiert ist. Bei einem Versagen des Wiederherstellungsprozesses wird das UE gezwungen sein, eine RLF-Prozedur und Zellenneuauswahl zu initiieren, was zu einer erheblichen Dauer einer Kommunikationsunterbrechung führt.
  • In vorliegend offenbarten Beispielen kann die DT-Schaltungsanordnung 830 verwendet werden, um eine robuste und intelligente Strahlverwaltungsprozedur zu ermöglichen, durch die der gNB 1520 proaktiv ein UE rekonfigurieren kann, um eine BFR-Dauer zu minimieren; ein UE anweisen kann, auf einen alternativen Strahl zu wechseln, bevor eine Blockierung stattfindet, wodurch Strahlausfälle proaktiv vermieden werden können; und/oder ein UE anweisen kann, einen Handover an einen anderen TRP (Übertragungs-/Empfangspunkt) derselben Zelle oder an eine andere Zelle durchzuführen, bevor eine Blockierung stattfindet, um potentielle Strahlausfälle zu vermeiden.
  • Die Einzelheiten der DT-basierten proaktiven Rekonfiguration eines UE zum Minimieren des UE sind in 15 veranschaulicht. Da das DT-Modul kontinuierlich die kinematischen Parameter der UEs und anderer Objekte in der Kommunikationsumgebung überwacht, kann es die zukünftigen Bewegungen von Mobilobjekten und UEs in dem Szenario vorhersagen, und dann bestimmen, ob irgendwelche der Strahlen in naher Zukunft möglicherweise durch die Objekte blockiert werden würden. Basierend auf den simulierten Vorhersagen sendet die DT eine Strahlverwaltungsnachricht an den gNB, die Informationen über die potentielle Blockierung und die Kandidaten-Strahlen für die BFR enthält.
  • Unter Verwendung der durch die DT-Schaltungsanordnung 830 gesendeten Informationen verfügt der gNB 1520 über unterschiedliche Optionen zum Abschwächen des möglichen Strahlausfälls, wie in 15 dargestellt. Bei einer ersten Option [Option-1] sendet der gNB 1520 eine RRC-Nachricht an das UE 1510 mit einem StrahlAusfallBehebungsKonfig-Informationselement, das eine Liste von Kandidaten-Strahlen für die Behebung beinhaltet. Bei einer zweiten Option [Option-2] sendet der gNB 1520 einen Befehl an das UE 1510 (z.B. über eine MAC-CE), auf einen alternativen Kandidaten-Strahl zu wechseln, bevor der aktuelle Strahlausfall auftritt. Bei einer dritten Option [Option-3] (falls z.B. keine geeigneten Kandidaten-Strahlen erwartet werden) initiiert der gNB 1520 vor dem möglichen Strahlausfall einen Handover des UE 1510 an einen anderen TRP oder zu einer anderen Zelle.
  • In vorliegend offenbarten Beispielen kann die Strahlverwaltungsnachricht von der DT-Schaltungsanordnung 830 an den gNB 1520 die folgenden Informationen beinhalten, die eine Liste von Strahlverwaltungsstrukturen, die jeweils einem UE entsprechen, das eine BFR-Rekonfiguration in naher Zukunft erfordert, und eine Strahlempfehlungsstruktur beinhalten. Die Strahlempfehlungsstruktur kann zum Beispiel eine Strahlverwaltungsnachrichten-ID, eine Netzwerk-ID eines UE, einen Nachrichtentyp (z.B. neu, aktualisieren oder widerrufen), einen Zeitstempel, der eine empfohlene zukünftige Zeit angibt, zu der der gNB eine HO-BFR-Konfiguration starten kann, einen Zeitstempel, der eine zukünftige Zeit angibt, vor der die BFR abgeschlossen werden sollte, um die BFR-Dauer zu minimieren, eine oder mehrere Kandidaten-Strahl-Informationen für BFR, die jeweils eine Kandidatenzelle und/oder TRP-IDs beinhalten (falls ein Handover erforderlich ist), Strahlidentifikationsinformationen, eine Konfidenz der Empfehlung usw. beinhalten
  • 16 ist ein beispielhaftes Kommunikationsdiagramm 1600, das die Verwendung der Digital-Twin-Schaltungsanordnung 830 zur Strahlverwaltung veranschaulicht. Im Gegensatz zu dem Fall eines gNB, bei dem die Strahlverwaltungsnachrichten durch die 5G-Kernfunktionen geleitet werden (wie z.B. in 13, 14 und 15) können in dem veranschaulichten Beispiel aus 16 die Strahlverwaltungsnachrichten unter Verwendung von Verwaltungsebenennachrichten direkt an die RSUs gesendet werden. Zudem kann die DT-Schaltungsanordnung 830 die Informationen der UEs und Messberichte von RSUs über die Verwaltungsebenennachrichten erhalten. Unter Verwendung der durch die DT-Schaltungsanordnung 830 gesendeten Informationen verfügt die RSU 865 über unterschiedliche Optionen zum Abschwächen des möglichen Strahlausfälls, wie in 16 dargestellt. Bei einer ersten Option [Option-1] sendet die RSU 865 eine Nachricht an das UE 1610, um einen Strahlausfallbehebungsprozess zu initiieren. Bei einer zweiten Option [Option-2] sendet die RSU 865 einen Befehl an das UE 1610, auf einen alternativen Kandidaten-Strahl umzuschalten, bevor der aktuelle Strahlausfall auftritt. Bei einer dritten Option [Option-3] (z.B. falls es keine geeigneten Kandidaten-Strahlen gibt, die erwartet werden), initiiert die RSU 865 vor dem möglichen Strahlausfall einen Handover des UE 1510 zu einer anderen RSU.
  • Anwendungsmobilität ist ein eindeutiges Merkmal des MEC-Systems 820, bei dem die Anwendungsinstanz, die einen mobilen Benutzer bedient, dynamisch auf unterschiedliche MEC-Hosts verschoben werden kann, um sie nahe beim Benutzer zu halten. Eine solche Anwendungsmobilität stellt sicher, dass die Anwendungsanforderungen in einer mobilen Umgebung erfüllt werden. Das Verschieben einer Anwendung von einem Ursprungs-MEC-Host zu einem Ziel-MEC-Host beinhaltet typischerweise Erzeugen einer neuen Anwendungsinstanz am Ziel-MEC-Host. Falls die Anwendung eine zustandsorientierte Anwendung ist, muss die neu erstellte Anwendungsinstanz mit der ursprünglichen Anwendungsinstanz synchronisiert werden, indem ihr aktueller Dienstzustand (Kontext) an die Zielanwendungsinstanz übertragen wird.
  • 17 ist ein beispielhaftes Kommunikationsdiagramm, das die Verwendung der Digital-Twin-Schaltungsanordnung für Anwendungsmobilität veranschaulicht. Bei einem Design nach dem Stand der Technik basiert der Auslöser für die Anwendungsmobilität auf den Informationen der UE-Bewegung zu einer neuen versorgenden Zelle, die durch Netzwerkfunktionen bereitgestellt werden. Bei einem derartigen Design wäre die Anwendungsmobilität stets gegenüber der Mobilität des Benutzers verzögert, da die Anwendungsverlagerung eine gewisse Zeitdauer bis zum Abschluss benötigt. Um die Anwendungsmobilität mit der Mobilität des Benutzers in Echtzeit beizubehalten, nutzen vorliegend offenbarte beispielhafte Ansätze eine DT-basierte Anwendungsmobilitätsinitiierungsprozedur, durch die die Vorbereitung für Anwendungsmobilität vor einer Bewegung eines UE in die Zielzelle gestartet werden kann.
  • 17 veranschaulicht die Verwendung eines API-basierten Frameworks für den Anwendungsmobilitätsdienst (AMS) 1730, bei dem die Anwendungsverschiebung und Kontextübertragung (z.B. Bewegung einer App von einem Ursprung 1710 zu einem Ziel 1760) über MEC-Plattformmanager (MEPMs 1720, 1750) und den MEC-Orchestrator (MEO) 1740 durchgeführt werden kann.
  • Zunächst sendet die DT-Schaltungsanordnung 830 eine Nachricht an den AMS 1730 zum Abonnieren (Subskription) der Änderungsbenachrichtigungen für alle UEs innerhalb ihrer Abdeckung. Auf diese Weise verfolgt die DT-Schaltungsanordnung 830 alle Anwendungsinstanzen, die mit den UEs von Interesse assoziiert sind. In einigen Beispielen kann das Abonnieren von AMS-Benachrichtigungen stattdessen durch den EPS 845 vorgenommen werden. Wenn eine neue Anwendung in einer versorgenden MEC-Plattform (S-MEP) 1720 eines UE instanziiert wird, empfängt die DT-Schaltungsanordnung 830 eine Benachrichtigung vom AMS über diese Informationen. Wie vorstehend angemerkt, führt die DT-Schaltungsanordnung 830 Simulationen durch und sagt voraus, ob ein UE in naher Zukunft einen HO erfordern könnte. Basierend auf diesen Vorhersagen und den Informationen über die assoziierten Anwendungsinstanzen sendet die DT-Schaltungsanordnung 830 Anwendungsmobilitätsvorbereitungsnachrichten an den MEC-Orchestrator (MEC) 1740. Die Anwendungsmobilitätsvorbereitungsnachricht kann zum Beispiel eine Netzwerk-ID des UE, IDs der assoziierten Anwendungsinstanzen, Kennungen eines oder mehrerer Ziel-MEPs usw. beinhalten
  • Nach dem Empfangen der Vorbereitungsnachricht von der DT-Schaltungsanordnung 830 kann der MEO 1740 eine Anwendungsmobilitätsvorbereitungsprozedur ausführen, die Instanziieren von Anwendungen in einem oder mehreren Ziel-MEPs und Synchronisieren der Kontextinformationen mit den ursprünglichen Anwendungsinstanzen beinhalten kann. Jedoch versorgt die ursprüngliche Anwendungsinstanz das UE weiter, bis der HO auftritt. Nach dem HO zu einer Zielzelle initiiert der anwendungskonfigurierte Auslösemechanismus die Anwendungsmobilitätsanfrage an den MEO 1740. Zum Beispiel löst in 17 die an dem S-MEP 1720 empfangene RNI-Zellenwechselbenachrichtigung die Anwendungsmobilitätsanfrage aus. Dann kann der MEO eine schnelle Anwendungsverschiebung und einen schnellen Kontexttransfer zu dem T-MEP 1750 durchführen. Dies deshalb, weil der MEO 1740 die Anwendung basierend auf der durch die DT-Schaltungsanordnung 830 bereitgestellten Empfehlungsnachricht bereits instanziiert hat. Falls der MEO 1740 die Anwendung an mehreren T-MEPs 1750 instanziiert hat, werden die anderen Anwendungsinstanzen durch den MEO 1740 beendet.
  • In dem MEC-System kann es mehrere MEC-Hosts/Plattformen geben, die jeweils einen kleinen geografischen Bereich abdecken. Daher kann es mehrere Instanzen einer DT-Anwendung/eines DT-Dienstes geben, jede Instanz in einem MEC-Host. Somit kann der Kontext von Akteuren zwischen den DT-Instanzen basierend auf der Mobilität der assoziierten Benutzer transferiert werden. Dieser Prozess ähnelt dem Anwendungsmobilitätsprozess. Der Unterschied besteht jedoch darin, dass alle Benutzer, die von einem MEC-Host bedient werden, eine einzige DT-Instanz in dem MEC-Host gemeinsam verwenden können. Daher müssen nur die Kontextdaten von Akteuren an den Ziel-MEC-Host übertragen werden, falls er bereits die DT-Schaltungsanordnung 830 instanziiert hat. Andernfalls muss der Ziel-Host möglicherweise die DT-Schaltungsanordnung 830 instanziieren und dann den oder die Kontext(e) der Akteure in die neu instanziierte DT-Schaltungsanordnung 830 übertragen.
  • In einigen Beispielen kann die DT-Schaltungsanordnung 830 KI-Modelle kontinuierlich trainieren, um die Muster der Dienstanforderungen der Benutzer abhängig von geografischem Bereich und Tageszeit zu lernen, und zwar unter Verwendung von Informationen einschließlich zum Beispiel der Arten von Diensten, die durch UEs angefordert werden, ihrer Standorte, und Zeiten der Anfragen usw., die durch die DT-Schaltungsanordnung 830 empfangen werden. Dann kann die DT-Schaltungsanordnung 830 Nachrichten erzeugen, um die gNBs präemptiv für Spektrumressourcen und Lastausgleich in geeigneter Weise für unterschiedliche Tageszeiten zu konfigurieren (und/oder andere Mobilitätsaufgaben durchzuführen). In einigen Beispielen können unterschiedliche gNBs präemptiv mit unterschiedlichen Übertragungsleistungen konfiguriert werden, um ihre Zellengrößen für einen geeigneten Lastausgleich zwischen den Zellen basierend auf dem erwarteten Verkehr und den Diensttypen von den UEs für die gegebene Tageszeit anzupassen. Als weiteres Beispiel können die Spektrumressourcen in jeder Zelle basierend auf dem erwarteten Verkehr und Diensttypen von den UEs für die gegebene Tageszeit präemptiv unterschiedlichen Netzwerk-Slices zugeteilt werden. In einem anderen Beispiel können in Abhängigkeit von der erwarteten Verkehrsverteilung über den geografischen Bereich während einer bestimmten Tageszeit einige gNB s/RSUs präemptiv ausgeschaltet werden, um die Energieeffizienz des Netzwerks zu verbessern.
  • 18 ist ein Blockdiagramm einer beispielhaften Prozessorplattform 1800, die zum Ausführen und/oder Instanziieren einiger oder aller maschinenlesbarer Anweisungen und/oder Operationen von 11 zum Implementieren der Digital-Twin-Schaltungsanordnung 830 aus 10 strukturiert ist. Die Prozessorplattform 1800 kann zum Beispiel ein Server, ein Personal Computer, eine Workstation, eine selbstlernende Maschine (z.B. ein neuronales Netzwerk), eine Mobilvorrichtung (z.B. ein Mobiltelefon, ein Smartphone, ein Tablet wie etwa ein iPad™), ein Personal Digital Assistant (PDA), ein Internetgerät oder eine beliebige andere Art von Datenverarbeitungsvorrichtung sein.
  • Die Prozessorplattform 1800 des veranschaulichten Beispiels umfasst eine Prozessorschaltungsanordnung 1812. Die Prozessorschaltungsanordnung 1812 des veranschaulichten Beispiels ist Hardware. Zum Beispiel kann die Prozessorschaltungsanordnung 1812 durch eine oder mehrere integrierte Schaltungen, Logikschaltungen, FPGA-Mikroprozessoren, CPUs, GPUs, DSPs und/oder Mikrocontroller einer beliebigen gewünschten Familie oder eines beliebigen gewünschten Herstellers implementiert werden. Die Prozessorschaltungsanordnung 1812 kann durch eine oder mehrere halbleiterbasierte (z.B. siliciumbasierte) Vorrichtungen implementiert werden. In diesem Beispiel implementiert die Prozessorschaltlogik 1812 die beispielhafte Informationszugriffsschaltungsanordnung 1010, die beispielhafte Verwaltungsschaltungsanordnung für virtuelle Umgebungen 1020, die beispielhafte Simulationsschaltungsanordnung 1040, den beispielhaften Empfehlungsgenerator 1050, die beispielhafte Empfehlungsverwaltungsschaltungsanordnung 1060 und die beispielhafte Empfehlungsbereitstellungsschaltungsanordnung 1070.
  • Die Prozessorschaltungsanordnung 1812 des veranschaulichten Beispiels beinhaltet einen lokalen Speicher 1813 (z.B. einen Cache, Register usw.). Die Prozessorschaltung 1812 des dargestellten Beispiels steht durch einen Bus 1818 in Kommunikation mit einem Hauptspeicher, der einen flüchtigen Speicher 1814 und einen nichtflüchtigen Speicher 1816 enthält. Der flüchtige Speicher 1814 kann durch SDRAM (Synchronous Dynamic Random Access Memory), DRAM (Dynamic Random Access Memory), RDRAM® (RAMBUS® Dynamic Random Access Memory) und/oder eine beliebige andere Art von RAM-Vorrichtung implementiert werden. Der nichtflüchtige Speicher 1816 kann durch Flashspeicher und/oder einen beliebigen anderen gewünschten Typ von Speichervorrichtung implementiert werden. Der Zugriff auf den Hauptspeicher 1814, 1816 des veranschaulichten Beispiels wird durch eine Speichersteuerung 1817 gesteuert.
  • Die Prozessorplattform 1800 des veranschaulichten Beispiels beinhaltet zudem eine Schnittstellenschaltungsanordnung 1820. Die Schnittstellenschaltungsanordnung 1820 kann durch Hardware in Übereinstimmung mit einem beliebigen Typ von Schnittstellenstandard implementiert werden, wie etwa einer Ethernet-Schnittstelle, einer Universal-Serial-Bus (USB)-Schnittstelle, einer Bluetooth®-Schnittstelle, einer Nahfeldkommunikations (NFC)-Schnittstelle, einer PCI-Schnittstelle und/oder einer PCIe-Schnittstelle.
  • In dem veranschaulichten Beispiel sind eine oder mehrere Eingabevorrichtungen 1822 mit der Schnittstellenschaltungsanordnung 1820 verbunden. Die eine oder die mehreren Eingabevorrichtungen 1822 gestatten einem Benutzer, Daten und/oder Befehle in die Prozessorschaltungsanordnung 1812 einzugeben. Die eine oder die mehreren Eingabevorrichtungen 1822 können zum Beispiel durch einen Audiosensor, ein Mikrofon, eine Kamera (Standbild oder Video), eine Tastatur, eine Taste, eine Maus, einen Touchscreen, ein Trackpad, einen Trackball, Isopoint und/oder ein Spracherkennungssystem implementiert werden.
  • Eine oder mehrere Ausgabevorrichtungen 1824 sind ebenfalls mit der Schnittstellenschaltungsanordnung 1820 des veranschaulichten Beispiels verbunden. Die Ausgabevorrichtungen 1824 können zum Beispiel durch Anzeigevorrichtungen (z.B. eine Leuchtdiode (LED), eine organische Leuchtdiode (OLED), eine Flüssigkristallanzeige (LCD), eine Kathodenstrahlröhren- (CRT-) Anzeige, eine IPS- (in-place switching, in einer Ebene schaltend) Anzeige, einen berührungsempfindlichen Bildschirm usw.), eine taktile Ausgabevorrichtung, einen Drucker und/oder Lautsprecher implementiert werden. Die Schnittstellenschaltungsanordnung 1820 des veranschaulichten Beispiels beinhaltet somit typischerweise eine Grafiktreiberkarte, einen Grafiktreiberchip und/oder eine Grafiktreiberprozessorschaltungsanordnung, wie etwa eine GPU.
  • Die Schnittstellenschaltungsanordnung 1820 des veranschaulichten Beispiels beinhaltet auch eine Kommunikationsvorrichtung, wie etwa einen Sender, einen Empfänger, einen Sendeempfänger, ein Modem, ein lokales Gateway, einen drahtlosen Zugangspunkt und/oder eine Netzwerkschnittstelle, um den Austausch von Daten mit externen Maschinen (z.B. Rechenvorrichtungen einer beliebigen Art) durch ein Netzwerk 1826 zu ermöglichen. Die Kommunikation kann zum Beispiel durch eine Ethernet-Verbindung, eine DSL- (Digital Subscriber Line) Verbindung, eine Telefonleitungsverbindung, ein Koaxialkabelsystem, ein Satellitensystem, ein drahtloses Line-of-Site-System, ein Mobilfunksystem, eine optische Verbindung usw. erfolgen.
  • Die Prozessorplattform 1800 des veranschaulichten Beispiels beinhaltet auch eine oder mehrere Massenspeicherungsvorrichtungen 1828 zum Speichern von Software und/oder Daten. Zu Beispielen für solche Massenspeicherungsvorrichtungen 1828 zählen magnetische Speicherungsvorrichtungen, optische Speicherungsvorrichtungen, Diskettenlaufwerke, HDDs, CDs, Blu-Ray-Disk-Laufwerke, RAID- (redundant array of independent disks, redundante Anordnung unabhängiger Festplatten) Systeme, Solid-State-Speicherungsvorrichtungen, wie etwa Flash-Speichervorrichtungen, und DVD-Laufwerke.
  • Die maschinenausführbaren Anweisungen 1832, die durch die maschinenlesbaren Anweisungen aus 19 und 11 implementiert werden, können in der Massenspeichervorrichtung 1828, in dem flüchtigen Speicher 1814, in dem nicht-flüchtigen Speicher 1816 und/oder auf einem entfernbaren nichttransienten computerlesbaren Speichermedium, wie etwa einer CD oder DVD, gespeichert sein.
  • 15 ist ein Blockdiagramm einer beispielhaften Implementierung der Prozessorschaltung 1812 von 18. In diesem Beispiel wird die Prozessorschaltung 1812 von 18 durch einen Mikroprozessor 1900 implementiert. Zum Beispiel kann der Mikroprozessor 1900 eine Mehrkern-Hardware-Schaltungsanordnung implementieren, wie etwa eine CPU, einen DSP, eine GPU, eine XPU usw. Wenngleich er eine beliebige Anzahl beispielhafter Kerne 1902 (z.B. 1 Kern) beinhalten kann, handelt es sich bei dem Mikroprozessor 1900 dieses Beispiels um eine Mehrkern-Halbleitervorrichtung, die N Kerne beinhaltet. Die Kerne 1902 des Mikroprozessors 1900 können unabhängig arbeiten oder können zusammenwirken, um maschinenlesbare Anweisungen auszuführen. Zum Beispiel kann Maschinencode, der einem Firmware-Programm, einem eingebetteten Software-Programm oder einem Software-Programm entspricht, durch einen der Kerne 1902 ausgeführt werden oder kann durch mehrere der Kerne 1902 zur gleichen oder zu unterschiedlichen Zeiten ausgeführt werden. In manchen Beispielen wird der Maschinencode, der dem Firmwareprogramm, dem eingebetteten Softwareprogramm oder dem Softwareprogramm entspricht, in Threads aufgeteilt und parallel durch zwei oder mehr der Kerne 1902 ausgeführt. Das Softwareprogramm kann einem Abschnitt oder allen der maschinenlesbaren Anweisungen und/oder Operationen entsprechen, die durch das Ablaufdiagramm von 19 repräsentiert werden.
  • Die Kerne 1902 können durch einen beispielhaften Bus 1904 kommunizieren. In einigen Beispielen kann der Bus 1904 einen Kommunikationsbus implementieren, um eine Kommunikation zu bewirken, die mit einem bzw. mehreren der Kerne 1902 assoziiert ist. Zum Beispiel kann der Bus 1904 einen I2C- (inter-integrated circuit) Bus und/oder einen SPI- (Serial Peripheral Interface) Bus und/oder einen PCI-Bus und/oder einen PCIe-Bus implementieren. Zusätzlich oder alternativ kann der Bus 1904 eine beliebige andere Art von Rechen- oder elektrischem Bus implementieren. Die Kerne 1902 können Daten, Anweisungen und/oder Signale von einer oder mehreren externen Vorrichtungen durch die beispielhafte Schnittstellenschaltungsanordnung 1906 erhalten. Die Kerne 1902 können Daten, Anweisungen und/oder Signale durch die Schnittstellenschaltungsanordnung 1906 an die eine oder die mehreren externen Vorrichtungen ausgeben. Wenngleich die Kerne 1902 dieses Beispiels den beispielhaften lokalen Speicher 1920 (z.B. Level-1- (L1-) Cache, der in einen L1-Daten-Cache und einen L1-Anweisungs-Cache aufgeteilt sein kann) beinhalten, beinhaltet der Mikroprozessor 1900 zudem einen beispielhaften gemeinsam genutzten Speicher 1910, der von den Kernen (z.B. Level-2- (L2-Cache)) für einen Hochgeschwindigkeitszugriff auf Daten und/oder Anweisungen gemeinsam genutzt werden kann. Daten und/oder Anweisungen können durch Schreiben in den und/oder Lesen aus dem gemeinsam genutzten Speicher 1910 übertragen (z.B. gemeinsam genutzt) werden. Der lokale Speicher 1920 jedes der Kerne 1902 und der gemeinsam genutzte Speicher 1910 können Teil einer Hierarchie von Speicherungsvorrichtungen sein, die mehrere Ebenen von Cachespeicher und den Hauptspeicher (z.B. den Hauptspeicher 1814, 1816 aus 18) beinhaltet. Typischerweise weisen höhere Speicherebenen in der Hierarchie eine niedrigere Zugriffszeit auf und weisen eine kleinere Speicherungskapazität als niedrigere Speicherebenen auf. Änderungen in den verschiedenen Ebenen der Cache-Hierarchie werden durch eine Cache-Kohärenzrichtlinie verwaltet (z.B. koordiniert).
  • Jeder Kern 1902 kann als CPU, DSP, GPU usw. oder eine beliebige andere Art von Hardwareschaltungsanordnung bezeichnet werden. Jeder Kern 1902 beinhaltet eine Steuereinheiten-Schaltungsanordnung 1914, eine Arithmetik-und-Logik- (AL-) Schaltungsanordnung (manchmal als eine ALU bezeichnet) 1916, eine Vielzahl von Registern 1918, den L1-Cache 1920 und einen beispielhaften Bus 1922. Auch andere Strukturen können vorhanden sein. Zum Beispiel kann jeder Kern 1902 eine Vektoreinheiten-Schaltungsanordnung, eine SIMD-(Single Instruction Multiple Data) Einheiten-Schaltungsanordnung, eine LSU- (Load/Store Unit) Schaltungsanordnung, eine Verzweigungs-/Sprungeinheiten-Schaltungsanordnung, eine FPU- (Floating Point Unit, Gleitkommaeinheit) Schaltungsanordnung usw. beinhalten. Die Steuereinheiten-Schaltungsanordnung 1914 beinhaltet halbleiterbasierte Schaltungen, die zum Steuern (z.B. Koordinieren) von Datenbewegungen innerhalb des entsprechenden Kerns 1902 strukturiert sind. Die AL-Schaltungsanordnung 1916 beinhaltet halbleiterbasierte Schaltungen, die dazu strukturiert sind, eine oder mehrere mathematische und/oder logische Operationen an den Daten innerhalb des entsprechenden Kerns 1902 durchzuführen. Die AL-Schaltungsanordnung 1916 einiger Beispiele führt ganzzahlbasierte Operationen durch. In anderen Beispielen führt die AL-Schaltungsanordnung 1916 auch Gleitkommaoperationen durch. In weiteren Beispielen kann die AL-Schaltungsanordnung 1916 eine erste AL-Schaltungsanordnung, die ganzzahlbasierte Operationen durchführt, und eine zweite AL-Schaltungsanordnung beinhalten, die Gleitkommaoperationen durchführt. In einigen Beispielen kann die AL-Schaltungsanordnung 1916 als arithmetisch-logische Einheit (ALU, arithmetic logic unit) bezeichnet werden. Die Register 1918 sind halbleiterbasierte Strukturen zum Speichern von Daten und/oder Anweisungen, wie etwa Ergebnissen einer oder mehrerer der Operationen, die durch die AL-Schaltungsanordnung 1916 des entsprechenden Kerns 1902 durchgeführt werden. Die Register 1918 können zum Beispiel Vektorregister, SIMD-Register, Allzweckregister, Flag-Register, Segmentregister, maschinenspezifische Register, Befehlszeigerregister, Steuerregister, Debug-Register, Speicherverwaltungsregister, Maschinenprüfregister usw. beinhalten. Die Register 1918 können in einer Bank angeordnet sein, wie in 19 gezeigt. Alternativ können die Register 1918 in einer beliebigen anderen Anordnung, einem beliebigen anderen Format oder einer beliebigen anderen Struktur organisiert sein, einschließlich einer Verteilung im Kern 1902, um die Zugriffszeit zu verkürzen. Der Bus 1920 kann einen I2C-Bus und/oder einen SPI-Bus und/oder einen PCI-Bus und/oder einen PCIe-Bus implementieren
  • Jeder Kern 1902 und/oder allgemeiner der Mikroprozessor 1900 können zusätzliche und/oder alternative Strukturen zu den vorstehend gezeigten und beschriebenen beinhalten. Zum Beispiel können eine oder mehrere Taktschaltungen, eine oder mehrere Stromversorgungen, ein oder mehrere Leistungs-Gates, ein oder mehrere Cache-Home-Agenten (CHAs), ein oder mehrere konvergierte/gemeinsame Mesh-Stopps (CMSs), ein oder mehrere Schieber (z.B. Tonnenschieber) und/oder eine andere Schaltungsanordnung vorhanden sein. Der Mikroprozessor 1900 ist eine Halbleitervorrichtung, die so gefertigt ist, dass sie viele Transistoren beinhaltet, die miteinander verbunden sind, um die oben beschriebenen Strukturen in einer oder mehreren integrierten Schaltungen (ICs) zu implementieren, die in einem oder mehreren Packages enthalten sind. Die Prozessorschaltung kann einen oder mehrere Beschleuniger beinhalten und/oder mit diesen zusammenwirken. In einigen Beispielen werden Beschleuniger durch Logikschaltlogik implementiert, um gewisse Aufgaben schneller und/oder effizienter durchzuführen, als durch einen Allzweckprozessor möglich. Beispiele für Beschleuniger beinhalten ASICs und FPGAs, wie etwa die hierin erörterten. Eine GPU oder eine andere programmierbare Vorrichtung kann ebenfalls ein Beschleuniger sein. Beschleuniger können sich an Bord der Prozessorschaltungsanordnung, in demselben Chip-Package wie die Prozessorschaltungsanordnung und/oder in einem oder mehreren von der Prozessorschaltungsanordnung getrennten Packages befinden.
  • 20 ist ein Blockdiagramm einer weiteren beispielhaften Implementierung der Prozessorschaltungsanordnung 1812 aus 18. In diesem Beispiel ist die Prozessorschaltung 1812 durch die FPGA-Schaltung 2000 implementiert. Die FPGA-Schaltung 2000 kann beispielsweise zur Durchführung von Operationen verwendet werden, die andernfalls von dem beispielhaften Mikroprozessor 1800 von 18 durchgeführt werden könnten, der entsprechende maschinenlesbare Anweisungen ausführt. Nach der Konfiguration instanziiert die FPGA-Schaltungsanordnung 2000 jedoch die maschinenlesbaren Anweisungen in Hardware und kann somit die Operationen häufig schneller ausführen, als dies mit einem Allzweck-Mikroprozessor möglich wäre, der die entsprechende Software ausführt.
  • Genauer gesagt beinhaltet im Gegensatz zu dem Mikroprozessor 1900 aus 19, der vorstehend beschrieben ist (der eine Allzweckvorrichtung ist, die programmiert sein kann, um einige oder alle der maschinenlesbaren Anweisungen auszuführen, die durch das Flussdiagramm aus 11 repräsentiert werden, deren Zwischenverbindungen und Logikschaltungsanordnung aber nach der Fertigung fixiert sind), die FPGA-Schaltungsanordnung 2000 des Beispiels aus 20 Zwischenverbindungen und Logikschaltungsanordnungen, die nach der Fertigung konfiguriert und/oder auf unterschiedliche Weisen miteinander verbunden werden können, um zum Beispiel einige oder alle der maschinenlesbaren Anweisungen zu instanziieren, die durch das Flussdiagramm aus 11 repräsentiert werden. Insbesondere kann das FPGA 2000 als ein Array aus logischen Gates, Zwischenverbindungen und Switches angesehen werden. Die Switches können programmiert sein, um zu ändern, wie die Logik-Gates durch die Zwischenverbindungen miteinander verbunden sind, wodurch effektiv eine oder mehrere dedizierte Logikschaltungen gebildet werden (es sei denn und bis die FPGA-Schaltungsanordnung 2000 neu programmiert ist). Die konfigurierten Logikschaltungen ermöglichen, dass die Logikgatter auf unterschiedliche Weisen zusammenwirken, um unterschiedliche Operationen an Daten durchzuführen, die durch die Eingangsschaltungsanordnung empfangen werden. Diese Operationen können einem Teil oder der gesamten Software entsprechen, die durch das Flussdiagramm aus 11 repräsentiert wird. Als solche kann die FPGA-Schaltung 2000 so strukturiert sein, dass sie einige oder alle maschinenlesbaren Befehle des Flussdiagramms von 11 als dedizierte Logikschaltungen effektiv instanziiert, um die diesen Softwarebefehlen entsprechenden Operationen in einer dedizierten Weise analog zu einem ASIC durchzuführen. Somit kann die FPGA-Schaltung 2000 die Operationen, die den einigen oder allen der maschinenlesbaren Anweisungen von 11 entsprechen, schneller durchführen, als sie der Allzweck-Mikroprozessor ausführen kann.
  • Im beispielhaften Fall von 20 ist die FPGA-Schaltung 2000 so aufgebaut, dass sie von einem Benutzer mittels einer Hardwarebeschreibungssprache (HDL) wie Verilog programmiert (und/oder ein- oder mehrmals umprogrammiert) werden kann. Die FPGA-Schaltung 2000 von 20 weist beispielhafte Ein-/Ausgabe-Schaltungen 2002 auf, um Daten zu/von einer beispielhaften Konfigurationsschaltung 2004 und/oder einer externen Hardware (z.B. einer externen Hardwareschaltung) 2006 zu erhalten und/oder auszugeben. Beispielsweise kann die Konfigurationsschaltung 2004 eine Schnittstellenschaltung implementieren, die maschinenlesbare Anweisungen zum Ausbilden der FPGA-Schaltung 2000 oder von Teilen davon erhalten kann. In einigen solchen Beispielen kann die Konfigurationsschaltungsanordnung 2004 die maschinenlesbaren Anweisungen von einem Benutzer, einer Maschine (z.B. Hardware-Schaltungsanordnung (z.B. programmierte oder dedizierte Schaltungsanordnung), die ein KI-/Maschinenlern- (KI/ML-) Modell implementieren kann, um die Anweisungen zu erzeugen) usw. erhalten. In einigen Beispielen kann die externe Hardware 2006 den Mikroprozessor 1900 aus 9 implementieren. Die FPGA-Schaltungsanordnung 2000 beinhaltet auch ein Array aus einer beispielhaften Logikgatterschaltungsanordnung 2008, mehreren beispielhaften konfigurierbaren Zwischenverbindungen 2010 und einer beispielhaften Speicherungsschaltungsanordnung 2012. Die Logikgatter-Schaltungsanordnung 2008 und die Zwischenverbindungen 2010 sind konfigurierbar, um eine oder mehrere Operationen zu instanziieren, die mindestens einigen der maschinenlesbaren Anweisungen aus 11 und/oder anderen gewünschten Operationen entsprechen können. Die in 20 gezeigte Logikgatterschaltungsanordnung 2008 ist in Gruppen oder Blöcken gefertigt. Jeder Block beinhaltet halbleiterbasierte elektrische Strukturen, die zu Logikschaltungen konfiguriert sein können. In einigen Beispielen beinhalten die elektrischen Strukturen Logikgatter (z.B. AND-Gatter, OR-Gatter, NOR-Gatter usw.), die Basisbausteine für Logikschaltungen bereitstellen. Elektrisch steuerbare Schalter (z.B. Transistoren) sind innerhalb jeder der Logikgatter-Schaltungsanordnungen 2008 vorhanden, um eine Konfiguration der elektrischen Strukturen und/oder der Logikgatter zum Bilden von Schaltungen zum Durchführen gewünschter Operationen zu ermöglichen. Die Logikgatterschaltungsanordnung 2008 kann andere elektrische Strukturen beinhalten, wie etwa Nachschlagetabellen (LUTs), Register (z.B. Flip-Flops oder Latches), Multiplexer usw.
  • Die Zwischenverbindungen 2010 des veranschaulichten Beispiels sind leitfähige Pfade, Leiterbahnen, Durchkontaktierungen oder dergleichen, die elektrisch steuerbare Schalter (z.B. Transistoren) beinhalten können, deren Zustand durch Programmieren (z.B. unter Verwendung einer HDL-Befehlssprache) geändert werden kann, um eine oder mehrere Verbindungen zwischen einer oder mehreren der Logikgatter-Schaltungsanordnung 2008 zu aktivieren oder zu deaktivieren, um gewünschte Logikschaltungen zu programmieren.
  • Die Speicherungsschaltungsanordnung 2012 des veranschaulichten Beispiels ist dazu strukturiert, ein oder mehrere Ergebnisse der einen oder der mehreren Operationen zu speichern, die durch entsprechende Logikgatter durchgeführt werden. Die Speicherungsschaltungsanordnung 2012 kann durch Register oder dergleichen implementiert sein. In dem veranschaulichten Beispiel ist die Speicherungsschaltungsanordnung 2012 unter der Logikgatter-Schaltungsanordnung 2008 verteilt, um den Zugriff zu erleichtern und die Ausführungsgeschwindigkeit zu erhöhen.
  • Die beispielhafte FPGA-Schaltungsanordnung 2000 von 20 beinhaltet auch eine beispielhafte dedizierte Operationsschaltungsanordnung 2014. In diesem Beispiel beinhaltet die dedizierte Operationsschaltungsanordnung 2014 eine Spezialschaltungsanordnung 2016, die aufgerufen werden kann, um üblicherweise verwendete Funktionen zu implementieren, um die Notwendigkeit zu vermeiden, diese Funktionen im Feld zu programmieren. Zu Beispielen für eine solche SpezialSchaltungsanordnung 2016 zählen eine Speicher- (z.B. DRAM-) Steuerungsschaltungsanordnung, eine PCIe-Steuerungsschaltungsanordnung, eine Taktschaltungsanordnung, eine Sendeempfänger-Schaltungsanordnung, einen Speicher und eine Multiplizierer-Akkumulator-Schaltungsanordnung. Andere Arten von Spezialschaltungsanordnungen können vorhanden sein. In einigen Beispielen kann die FPGA-Schaltungsanordnung 2000 zudem eine beispielhafte programmierbare Allzweck-Schaltungsanordnung 2018 wie etwa eine beispielhafte CPU 2020 und/oder einen beispielhaften DSP 2022 beinhalten. Eine andere programmierbare Allzweck-Schaltungsanordnung 2018 kann zusätzlich oder alternativ vorhanden sein, wie etwa eine GPU, eine XPU usw., die dazu programmiert sein kann, andere Operationen durchzuführen.
  • Wenngleich 19 und 20 zwei beispielhafte Implementierungen der Prozessorschaltungsanordnung 1812 aus 18 veranschaulichen, sind viele andere Ansätze denkbar. Wie vorstehend erwähnt, kann zum Beispiel eine moderne FPGA-Schaltungsanordnung eine interne CPU wie etwa eine oder mehrere der beispielhaften CPU 2020 aus 20 beinhalten. Daher kann die Prozessorschaltung 1812 von 18 außerdem durch Kombination des beispielhaften Mikroprozessors 1900 von 19 und der beispielhaften FPGA-Schaltung 2000 von 20 implementiert werden. In einigen solchen hybriden Beispielen kann ein erster Teil der maschinenlesbaren Anweisungen, der durch das Flussdiagramm aus 1 repräsentiert wird, durch einen oder mehrere der Kerne 1902 aus 19 ausgeführt werden, und ein zweiter Teil der maschinenlesbaren Anweisungen, der durch das Flussdiagramm aus 11 repräsentiert wird, kann durch die FPGA-Schaltungsanordnung 2000 aus 20 ausgeführt werden.
  • In einigen Beispielen kann sich die Prozessorschaltungsanordnung 1812 aus 18 in einem oder mehreren Packages befinden. Zum Beispiel können sich die Prozessorschaltungsanordnung 500 aus 5 und/oder die FPGA-Schaltungsanordnung _00 aus 5 in einem oder mehreren Packages befinden. In einigen Beispielen kann eine XPU durch die Prozessorschaltungsanordnung 1812 aus 18 implementiert werden, die sich in einem oder mehreren Packages befinden kann. Zum Beispiel kann die XPU eine CPU in einem Package, einen DSP in einem anderen Package, eine GPU in einem weiteren Package und ein FPGA in noch einem weiteren Package beinhalten.
  • Ein Blockdiagramm, das eine beispielhafte Softwareverteilungsplattform 1805 für die Verteilung von Software wie die beispielhaften maschinenlesbaren Anweisungen 1832 von 18 an Hardwarevorrichtungen darstellt, die Dritten gehören und/oder von ihnen betrieben werden, ist in 21 dargestellt. Die beispielhafte Softwareverteilungsplattform 2105 kann durch einen beliebigen Computerserver, eine Dateneinrichtung, einen Cloud-Dienst usw. implementiert werden, der in der Lage ist, Software zu speichern und an andere Geräte zu übertragen. Die Dritten können Kunden der Entität sein, die im Besitz der Softwareverteilungsplattform 2105 sind und/oder diese betreiben. Zum Beispiel kann die Entität, die die Softwareverteilungsplattform 2105 besitzt und/oder betreibt, ein Entwickler, ein Verkäufer und/oder ein Lizenzgeber von Software, wie etwa die beispielhaften maschinenlesbaren Anweisungen 1832 von 18, sein. Die Drittparteien können Verbraucher, Benutzer, Einzelhändler, OEMs usw. sein, die die Software zur Verwendung und/oder Weiterverkauf und/oder Sublizenzieren erwerben und/oder lizenzieren. In dem dargestellten Beispiel beinhaltet die Softwareverteilungsplattform 2105 einen oder mehrere Server und eine oder mehrere Speichervorrichtungen. Die Speicherungsvorrichtungen speichern die maschinenlesbaren Anweisungen 1832, die den beispielhaften maschinenlesbaren Anweisungen aus 11 entsprechen können, wie oben beschrieben. Der eine oder die mehreren Server der beispielhaften Softwareverteilungsplattform 2105 stehen in Kommunikation mit einem Netzwerk 2110, das einem oder mehreren beliebigen des Internets und/oder einem der oben beschriebenen beispielhaften Netzwerke 1826 entsprechen kann. In einigen Beispielen reagieren der eine oder die mehreren Server auf Anfragen, die Software als Teil einer kommerziellen Transaktion an eine anfordernde Partei zu übertragen. Die Zahlung für die Lieferung, den Verkauf und/oder die Lizenz der Software kann durch den einen oder die mehreren Server der Softwareverteilungsplattform und/oder durch eine Drittpartei-Zahlungsentität gehandhabt werden. Die Server ermöglichen Käufern und/oder Lizenzgebern, die maschinenlesbaren Anweisungen 1832 von dem Softwareverteilungsplattform 2105 herunterzuladen. Beispielsweise kann die Software, die den beispielhaften maschinenlesbaren Anweisungen aus 11 entsprechen kann, auf die beispielhafte Prozessorplattform 1800 heruntergeladen werden, die die maschinenlesbaren Anweisungen 1832 ausführen soll, um die Digital-Twin-Schaltungsanordnung 830 zu implementieren. In einigen Beispielen bieten ein oder mehrere Server der Softwareverteilungsplattform 2105 periodisch Aktualisierungen an, übertragen und/oder erzwingen die Software (z. B. die beispielhaften maschinenlesbaren Anweisungen 1832 von 18), um sicherzustellen, dass Verbesserungen, Patches, Aktualisierungen usw. verteilt und auf die Software an den Endbenutzervorrichtungen angewandt werden.
  • Aus dem Vorstehenden versteht es sich, dass beispielhafte Systeme, Verfahren, Einrichtungen und Herstellungsartikel offenbart wurden, die ermöglichen, dass ein digitaler Zwilling genutzt wird, um Resilienz und/oder Zuverlässigkeit eines Kommunikationsnetzwerks zu verbessern. Die offenbarten Systeme, Verfahren, Einrichtungen und Herstellungsartikel verbessern die Effizienz der Verwendung einer Rechenvorrichtung, indem sichergestellt wird, dass Netzwerke, mit denen solche Rechenvorrichtungen kommunizieren, robuster sind. Die offenbarten Systeme, Verfahren, Einrichtungen und Herstellungsartikel betreffen dementsprechend eine oder mehrere Verbesserungen des Betriebs einer Maschine, wie etwa eines Computers oder einer anderen elektronischen und/oder mechanischen Vornchtung.
  • Vorliegend werden Beispielhafte Verfahren, Einrichtungen, Systeme und Herstellungsartikel für Resilienz mithilfe digitaler Zwillinge offenbart. Weitere Beispiele und Kombinationen davon beinhalten Folgendes:
    • Beispiel 1 beinhaltet eine Einrichtung für Resilienz mithilfe digitaler Zwillinge, wobei die Einrichtung umfasst: eine Schnittstellenschaltungsanordnung, eine Prozessorschaltungsanordnung, die mindestens eines der Folgenden beinhaltet: eine Zentralverarbeitungseinheit und/oder eine Grafikverarbeitungseinheit und/oder einen digitalen Signalprozessor, wobei die Zentralverarbeitungseinheit und/oder die Grafikverarbeitungseinheit und/oder der digitale Signalprozessor eine Steuerschaltungsanordnung zum Steuern einer Datenbewegung innerhalb der Prozessorschaltungsanordnung aufweist, eine Arithmetik- und Logikschaltungsanordnung zum Durchführen einer oder mehrerer erster Operationen, die Anweisungen entsprechen, und ein oder mehrere Register zum Speichern eines Ergebnisses der einen oder der mehreren ersten Operationen, wobei sich die Anweisungen in der Einrichtung befinden, ein frei programmierbares Gate-Array (FPGA), wobei das FPGA eine Logikgatterschaltungsanordnung, eine Vielzahl konfigurierbarer Zwischenverbindungen und eine Speicherungsschaltungsanordnung beinhaltet, wobei die Logikgatterschaltungsanordnung und die Zwischenverbindungen eine oder mehrere zweite Operationen durchführen sollen, wobei die Speicherungsschaltungsanordnung ein Ergebnis der einen oder der mehreren zweiten Operationen speichern soll, oder eine anwendungsspezifische integrierte Schaltungsanordnung (ASIC) mit einer Logikgatterschaltungsanordnung zum Durchführen einer oder mehrerer dritter Operationen, wobei die Prozessorschaltungsanordnung die ersten Operationen und/oder die zweiten Operationen und/oder die dritten Operationen durchführen soll, um Folgendes zu instanziieren: eine Informationszugriffsschaltungsanordnung, um auf Betriebsstatistiken zuzugreifen, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten, eine Verwaltungsschaltung für virtuelle Umgebungen zum Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken, eine Simulationsschaltungsanordnung zum Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung an der virtuellen Umgebung einen zukünftigen Zustand repräsentiert, eine Empfehlungserzeugungsschaltungsanordnung zum Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung, und eine Empfehlungsbereitstellungsschaltungsanordnung, um in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt und/oder dass eine vordefinierte Bedingung erfüllt ist, die Empfehlung an die Netzwerkausrüstung bereitzustellen.
    • Beispiel 2 beinhaltet die Einrichtung des Beispiels 1, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 3 beinhaltet die Einrichtung des Beispiels 1, wobei die Betriebsstatistiken Netzwerkinformationen und Messberichten der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 4 beinhaltet die Vorrichtung des Beispiels 3, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
    • Beispiel 5 beinhaltet die Einrichtung des Beispiels 4, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
    • Beispiel 6 beinhaltet die Einrichtung des Beispiels 1, wobei die Netzwerkausrüstung eine Straßenrandeinheit (RSU) ist und die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
    • Beispiel 7 beinhaltet die Vorrichtung des Beispiels 1, wobei die Prozessorschaltungsanordnung die ersten Operationen und/oder die zweiten Operationen und/oder die dritten Operationen durchführen soll, um einen Empfehlungsdienst zu instanziieren, um die Empfehlung einem 5G-Netzwerk zu übermitteln.
    • Beispiel 8 beinhaltet die Einrichtung des Beispiels 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen eines Handover ist.
    • Beispiel 9 beinhaltet die Einrichtung des Beispiels 8, wobei die Empfehlungsbereitstellungsschaltungsanordnung die Empfehlung für die Netzwerkausrüstung zum Durchführen des Handover an die Netzwerkausrüstung bereitstellen soll, bevor das Benutzergerät den Handover anfordert.
    • Beispiel 10 beinhaltet die Einrichtung des Beispiels 8, wobei es sich bei dem Handover um einen bedingten Handover handelt.
    • Beispiel 11 beinhaltet die Einrichtung des Beispiels 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Strahlausfallbehebung ist.
    • Beispiel 12 beinhaltet die Einrichtung des Beispiels 11, wobei es sich bei der Strahlausfallbehebung um eine proaktive Strahlausfallbehebung handelt.
    • Beispiel 13 beinhaltet die Einrichtung des Beispiels 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Anwendungsmobilitätsvorbereitungsprozedur ist.
    • Beispiel 14 beinhaltet die Einrichtung des Beispiels 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Nutzen von Doppelkonnektivität ist, um einen Pingpong-Effekt zu vermeiden.
    • Beispiel 15 beinhaltet die Vorrichtung des Beispiels 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Initiieren einer neuen Verbindung mit einer Zielzelle ist, ohne eine bestehende Verbindung mit einer versorgenden Zelle aufzuheben.
    • Beispiel 16 beinhaltet mindestens ein nichttransientes computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung mindestens einen Prozessor veranlassen, zumindest auf Betriebsstatistiken zuzugreifen, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten, eine oder mehrere virtuelle Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken zu aktualisieren, eine Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken zu simulieren, wobei die simulierte Änderung der virtuellen Umgebung einen zukünftigen Zustand repräsentiert, eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung zu erzeugen und in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt, die Empfehlung an die Netzwerkausrüstung bereitzustellen.
    • Beispiel 17 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 18 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Betriebsstatistik Netzwerkinformationen und einem Messbericht der einen oder der mehreren physischen Entitäten entspricht.
    • Beispiel 19 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 18, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
    • Beispiel 20 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 19, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
    • Beispiel 21 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei es sich bei der Netzwerkausrüstung um eine Straßenrandeinheit (RSU) handelt und die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
    • Beispiel 22 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Anweisungen bei Ausführung ferner bewirken, dass der mindestens eine Prozessor einen Empfehlungsdienst ausführt, um die Empfehlung einem 5G-Netzwerk zu übermitteln.
    • Beispiel 23 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen eines Handover ist.
    • Beispiel 24 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 23, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen des Handover an die Netzwerkausrüstung bereitgestellt wird, bevor das Benutzergerät den Handover anfordert.
    • Beispiel 25 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 23, wobei es sich bei dem Handover um einen bedingten Handover handelt.
    • Beispiel 26 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Strahlausfallbehebung ist.
    • Beispiel 27 beinhaltet das mindestens eine nichtflüchtige computerlesbare Medium von Beispiel 26, wobei es sich bei der Strahlausfallbehebung um eine präemptive Strahlausfallbehebung handelt.
    • Beispiel 28 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Anwendungsmobilitätsvorbereitungsprozedur ist.
    • Beispiel 29 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Nutzen von Doppelkonnektivität ist, um einen Pingpong-Effekt zu vermeiden.
    • Beispiel 30 beinhaltet das mindestens eine nichttransiente computerlesbare Medium des Beispiels 16, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Initiieren einer neuen Verbindung mit einer Zielzelle ist, ohne eine bestehende Verbindung mit einer versorgenden Zelle aufzuheben.
    • Beispiel 31 beinhaltet eine Einrichtung für Resilienz mithilfe digitaler Zwillinge, wobei die Einrichtung Mittel zum Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten, Mittel zum Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken, Mittel zum Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen künftigen Zustand repräsentiert, Mittel zum Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung, und Mittel zum Bereitstellen der Empfehlung an die Netzwerkausrüstung in Reaktion auf Bestimmen umfasst, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt.
    • Beispiel 32 beinhaltet die Einrichtung des Beispiels 31, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 33 beinhaltet die Einrichtung des Beispiels 31, wobei die Betriebsstatistiken Netzwerkinformationen und Messberichten der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 34 beinhaltet die Vorrichtung des Beispiels 33, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
    • Beispiel 35 beinhaltet die Einrichtung des Beispiels 34, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
    • Beispiel 36 beinhaltet die Einrichtung des Beispiels 31, wobei die Netzwerkausrüstung eine Straßenrandeinheit (RSU) ist und die Empfehlung für das Netzwerkgerät zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
    • Beispiel 37 beinhaltet die Einrichtung des Beispiels 31, die ferner Mittel zum übermitteln der Empfehlung an ein 5G-Netzwerk beinhaltet.
    • Beispiel 38 beinhaltet die Einrichtung des Beispiels 31, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen eines Handover ist.
    • Beispiel 39 beinhaltet die Einrichtung des Beispiels 38, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen des Handover an die Netzwerkausrüstung bereitgestellt wird, bevor das Benutzergerät den Handover anfordert.
    • Beispiel 40 beinhaltet die Einrichtung des Beispiels 38, wobei es sich bei dem Handover um einen bedingten Handover handelt.
    • Beispiel 41 beinhaltet die Einrichtung des Beispiels 31, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Strahlausfallbehebung ist.
    • Beispiel 42 beinhaltet die Einrichtung des Beispiels 41, wobei es sich bei der Strahlausfallbehebung um eine proaktive Strahlausfallbehebung handelt.
    • Beispiel 43 beinhaltet die Einrichtung des Beispiels 31, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Anwendungsmobilitätsvorbereitungsprozedur ist.
    • Beispiel 44 beinhaltet die Einrichtung des Beispiels 31, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Nutzen von Doppelkonnektivität ist, um einen Pingpong-Effekt zu vermeiden.
    • Beispiel 45 beinhaltet die Vorrichtung des Beispiels 31, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Initiieren einer neuen Verbindung mit einer Zielzelle ist, ohne eine bestehende Verbindung mit einer versorgenden Zelle aufzuheben.
    • Beispiel 46 beinhaltet ein Verfahren für Resilienz mithilfe digitaler Zwillinge, wobei das Verfahren Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten, Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken, Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen künftigen Zustand repräsentiert, Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung, und Bereitstellen der Empfehlung an die Netzwerkausrüstung in Reaktion auf Bestimmen umfasst, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt.
    • Beispiel 47 beinhaltet das Verfahren des Beispiels 46, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 48 beinhaltet das Verfahren des Beispiels 46, wobei die Betriebsstatistiken Netzwerkinformationen und Messberichten der einen oder der mehreren physischen Entitäten entsprechen.
    • Beispiel 49 beinhaltet das Verfahren des Beispiels 48, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
    • Beispiel 50 beinhaltet das Verfahren des Beispiels 49, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
    • Beispiel 51 beinhaltet das Verfahren des Beispiels 46, wobei die Netzwerkausrüstung eine Straßenrandeinheit (RSU) ist und die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
    • Beispiel 52 beinhaltet das Verfahren des Beispiels 46, wobei die Anweisungen bei Ausführung ferner bewirken, dass der mindestens eine Prozessor einen Empfehlungsdienst ausführt, um die Empfehlung einem 5G-Netzwerk zu übermitteln.
    • Beispiel 53 beinhaltet das Verfahren des Beispiels 46, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen eines Handover ist.
    • Beispiel 54 beinhaltet das Verfahren des Beispiels 53, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen des Handover an die Netzwerkausrüstung bereitgestellt wird, bevor das Benutzergerät den Handover anfordert.
    • Beispiel 55 beinhaltet das Verfahren des Beispiels 53, wobei es sich bei dem Handover um einen bedingten Handover handelt.
    • Beispiel 56 beinhaltet das Verfahren des Beispiels 46, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Strahlausfallbehebung ist.
    • Beispiel 57 beinhaltet das Verfahren des Beispiels 56, wobei es sich bei der Strahlausfallbehebung um eine präemptive Strahlausfallbehebung handelt.
    • Beispiel 58 beinhaltet das Verfahren des Beispiels 46, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Anwendungsmobilitätsvorbereitungsprozedur ist.
    • Beispiel 59 beinhaltet das Verfahren des Beispiels 46, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Nutzen von Doppelkonnektivität ist, um einen Pingpong-Effekt zu vermeiden.
    • Beispiel 60 beinhaltet das Verfahren des Beispiels 46, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Initiieren einer neuen Verbindung mit einer Zielzelle ist, ohne eine bestehende Verbindung mit einer versorgenden Zelle aufzuheben.
  • Auch wenn vorliegend bestimmte beispielhafte Systeme, Verfahren, Einrichtungen und Herstellungsartikel offenbart wurden, ist der Schutzumfang dieses Patents nicht darauf beschränkt. Vielmehr deckt dieses Patent alle Systeme, Verfahren, Einrichtungen und Herstellungsartikel ab, die angemessen in den Schutzumfang der Ansprüche dieses Patents fallen.
  • Die folgenden Ansprüche werden hiermit durch diese Bezugnahme in diese ausführliche Beschreibung aufgenommen, wobei jeder Anspruch für sich allein als eine separate Ausführungsform der vorliegenden Offenbarung steht.

Claims (25)

  1. Einrichtung für Resilienz mithilfe digitaler Zwillinge, wobei die Einrichtung Folgendes umfasst: eine Schnittstellenschaltungsanordnung; eine Prozessorschaltungsanordnung, die eines oder mehrere der Folgenden beinhaltet: eine Zentralverarbeitungseinheit und/oder eine Grafikverarbeitungseinheit und/oder einen digitalen Signalprozessor, wobei die Zentralverarbeitungseinheit und/oder die Grafikverarbeitungseinheit und/oder der digitale Signalprozessor eine Steuerschaltungsanordnung zum Steuern von Datenbewegungen innerhalb der Prozessorschaltungsanordnung aufweist, eine Arithmetik- und Logikschaltungsanordnung zum Durchführen einer oder mehrerer erster Operationen, die Anweisungen entsprechen, und ein oder mehrere Register zum Speichern eines Ergebnisses der einen oder der mehreren ersten Operationen, wobei sich die Anweisungen in der Einrichtung befinden; ein frei programmierbares Gate-Array (FPGA), wobei das FPGA eine Logikgatterschaltungsanordnung, eine Vielzahl konfigurierbarer Zwischenverbindungen und eine Speicherungsschaltungsanordnung beinhaltet, wobei die Logikgatterschaltungsanordnung und die Zwischenverbindungen eine oder mehrere zweite Operationen durchführen sollen, wobei die Speicherungsschaltungsanordnung ein Ergebnis der einen oder der mehreren zweiten Operationen speichern soll; oder eine anwendungsspezifische integrierte Schaltungsanordnung (ASIC) einschließlich einer Logikgatterschaltungsanordnung zum Durchführen einer oder mehrerer dritter Operationen; wobei die Prozessorschaltungsanordnung die ersten Operationen und/oder die zweiten Operationen und/oder die dritten Operationen durchführen soll, um Folgendes zu instanziieren: eine Informationszugriffsschaltungsanordnung zum Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten; eine Verwaltungsschaltungsanordnung für virtuelle Umgebungen zum Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken; eine Simulationsschaltungsanordnung zum Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen zukünftigen Zustand repräsentiert; eine Empfehlungserzeugungsschaltungsanordnung zum Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung; und eine Empfehlungsbereitstellungsschaltungsanordnung zum Bereitstellen der Empfehlung an die Netzwerkausrüstung in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt oder eine vordefinierte Bedingung erfüllt ist.
  2. Einrichtung nach Anspruch 1, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
  3. Einrichtung nach Anspruch 1, wobei die Betriebsstatistiken Netzwerkinformationen und Messberichten der einen oder der mehreren physischen Entitäten entsprechen.
  4. Einrichtung nach Anspruch 3, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
  5. Einrichtung nach Anspruch 4, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
  6. Einrichtung nach einem der Ansprüche 1 bis 5, wobei die Netzwerkausrüstung eine Straßenrandeinheit (RSU) ist und die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
  7. Einrichtung nach Anspruch 1, wobei die Prozessorschaltungsanordnung die ersten Operationen und/oder die zweiten Operationen und/oder die dritten Operationen durchführen soll, um einen Empfehlungsdienst zu instanziieren, um die Empfehlung einem 5G-Netzwerk zu übermitteln.
  8. Einrichtung nach einem der Ansprüche 1 bis 7, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen eines Handover ist.
  9. Einrichtung nach Anspruch 8, wobei die Empfehlungsbereitstellungsschaltungsanordnung die Empfehlung für die Netzwerkausrüstung zum Durchführen des Handover an die Netzwerkausrüstung bereitstellen soll, bevor das Benutzergerät den Handover anfordert.
  10. Einrichtung nach Anspruch 8, wobei es sich bei dem Handover um einen bedingten Handover handelt.
  11. Einrichtung nach Anspruch 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Strahlausfallbehebung ist.
  12. Einrichtung nach Anspruch 11, wobei es sich bei der Strahlausfallbehebung um eine proaktive Strahlausfallbehebung handelt.
  13. Einrichtung nach Anspruch 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Durchführen einer Anwendungsmobilitätsvorbereitungsprozedur ist.
  14. Einrichtung nach Anspruch 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Nutzen von Doppelkonnektivität ist, um einen Pingpong-Effekt zu vermeiden.
  15. Einrichtung nach Anspruch 1, wobei die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung für die Netzwerkausrüstung zum Initiieren einer neuen Verbindung mit einer Zielzelle ist, ohne eine bestehende Verbindung mit einer versorgenden Zelle aufzuheben.
  16. Mindestens ein computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung mindestens einen Prozessor zu Folgendem veranlassen: Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten; Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken; Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen zukünftigen Zustand repräsentiert; Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung; und in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt, Bereitstellen der Empfehlung an die Netzwerkausrüstung.
  17. Mindestens ein computerlesbares Medium nach Anspruch 16, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
  18. Mindestens ein computerlesbares Medium nach Anspruch 16, wobei die Betriebsstatistik Netzwerkinformationen und einem Messbericht der einen oder der mehreren physischen Entitäten entspricht.
  19. Mindestens ein computerlesbares Medium nach Anspruch 18, wobei die Betriebsstatistiken lokalen Umgebungsbedingungen entsprechen.
  20. Mindestens ein computerlesbares Medium nach Anspruch 19, wobei die lokalen Umgebungsbedingungen eine lokale Wetterbedingung beinhalten.
  21. Mindestens ein computerlesbares Medium nach einem der Ansprüche 16 bis 20, wobei die Netzwerkausrüstung eine Straßenrandeinheit (RSU) ist und die Empfehlung für die Netzwerkausrüstung zum Durchführen der Aufgabe eine Empfehlung zum Abschwächen eines möglichen Strahlausfalls ist.
  22. Einrichtung für Resilienz mithilfe digitaler Zwillinge, wobei die Einrichtung Folgendes umfasst: Mittel zum Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten; Mittel zum Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken; Mittel zum Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen zukünftigen Zustand repräsentiert; Mittel zum Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung; und Mittel zum Bereitstellen der Empfehlung an die Netzwerkausrüstung in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt.
  23. Einrichtung nach Anspruch 22, wobei die Betriebsstatistiken semantischen und kinematischen Informationen der einen oder der mehreren physischen Entitäten entsprechen.
  24. Einrichtung nach Anspruch 22, wobei die Betriebsstatistiken Netzwerkinformationen und Messberichten der einen oder der mehreren physischen Entitäten entsprechen.
  25. Verfahren für Resilienz mithilfe digitaler Zwillinge, wobei das Verfahren Folgendes umfasst: Zugreifen auf Betriebsstatistiken, die einer oder mehreren physischen Entitäten entsprechen, wobei die eine oder die mehreren physischen Entitäten Benutzergeräte und Netzwerkausrüstung beinhalten; Aktualisieren einer oder mehrerer virtueller Entitäten innerhalb einer virtuellen Umgebung, die der einen bzw. den mehreren physischen Entitäten entsprechen, mit den Betriebsstatistiken; Simulieren einer Änderung der virtuellen Umgebung basierend auf den Betriebsstatistiken, wobei die simulierte Änderung der virtuellen Umgebung einen zukünftigen Zustand repräsentiert; Erzeugen einer Empfehlung für die Netzwerkausrüstung zum Durchführen einer Aufgabe basierend auf der simulierten Änderung; und in Reaktion auf Bestimmen, dass eine Konfidenz der Empfehlung eine Schwellenkonfidenz erfüllt, Bereitstellen der Empfehlung an die Netzwerkausrüstung.
DE102022208684.8A 2021-09-23 2022-08-22 Verfahren und einrichtung für resilienz mithilfe digitaler zwillinge Pending DE102022208684A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/448,689 US20220014946A1 (en) 2021-09-23 2021-09-23 Methods and apparatus for digital twin aided resiliency
US17/448,689 2021-09-23

Publications (1)

Publication Number Publication Date
DE102022208684A1 true DE102022208684A1 (de) 2023-03-23

Family

ID=79173302

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208684.8A Pending DE102022208684A1 (de) 2021-09-23 2022-08-22 Verfahren und einrichtung für resilienz mithilfe digitaler zwillinge

Country Status (3)

Country Link
US (1) US20220014946A1 (de)
KR (1) KR20230043044A (de)
DE (1) DE102022208684A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023138798A1 (en) * 2022-01-21 2023-07-27 Lenovo (Singapore) Ltd. Improving confidence of network analytics using a digital twin
CN115051926B (zh) * 2022-06-22 2023-06-09 烽火通信科技股份有限公司 一种数字孪生装置、模型评价系统以及模型运行方法
US11811681B1 (en) * 2022-07-12 2023-11-07 T-Mobile Usa, Inc. Generating and deploying software architectures using telecommunication resources
CN117440417A (zh) * 2022-07-15 2024-01-23 中兴通讯股份有限公司 网络预测系统、方法、电子设备及存储介质
CN115269928B (zh) * 2022-07-22 2023-07-21 贵州电网有限责任公司 基于数字孪生的变压器故障预测方法、装置、设备及介质

Also Published As

Publication number Publication date
US20220014946A1 (en) 2022-01-13
KR20230043044A (ko) 2023-03-30

Similar Documents

Publication Publication Date Title
DE102021209145A1 (de) Verfahren und vorrichtung zum koordinieren von edge-plattformen
DE102020131613A1 (de) Verfahren, system und produkt zum implementieren von deterministischem on-boarding und planen virtualisierter arbeitslasten für edge-computing.
DE112020004736T5 (de) Edge-computing-technologien für transportschichtüberlastregelung und point-of-presence-optimierungen auf grundlage erweiterter vorab-dienstgüte-benachrichtigungen
DE102022212157A1 (de) Absichtsbasierte clusterverwaltung
DE102022203247A1 (de) Disintermedierte Attestierung in einem MEC-Service-MESH-Framework
DE102021210705A1 (de) Intelligente datenweiterleitung in edge-netzen
DE102019217367A1 (de) VERWALTUNG DER DIENSTQUALITÄT (QoS) IN EDGE-COMPUTING-UMGEBUNGEN
DE112020002310T5 (de) V2x-dienste zur bereitstellung fahrtspezifischer qos-vorhersagen
DE112020001183T5 (de) Multi-slice-unterstützung für mec-fähige 5g-implementierungen
DE102022208684A1 (de) Verfahren und einrichtung für resilienz mithilfe digitaler zwillinge
DE102020128209A1 (de) Automatische Plattformressourcenverwaltung in Edge-Computing-Umgebungen
DE112020003766T5 (de) Linkleistungsprognose und Medienstreaming-Technologien
DE102021209282A1 (de) Verfahren, einrichtungen und systeme zur gemeinsamen nutzung von rechenressourcen zwischen edge-rechenknoten unter verwendung eines overlay-managers
DE112020003742T5 (de) Verfahren, systeme, erzeugnisse und vorrichtungen zur verbesserung von jobplanungseffizienz
DE102021210882A1 (de) Erweitertes peer-to-peer (p2p) mit edge-vernetzung
DE102021207160A1 (de) Verfahren und einrichtung zur verwaltung der dienstgüte in bezug auf service-level-agreements in einer rechenvorrichtung
DE102022203249A1 (de) Mehrfachzugriff-edge-computing- (mec-) fahrzeug-zu-alles-(v2x-) interoperabilitätsunterstützung für mehrere v2x-nachrichtenbroker
US20230086899A1 (en) Unlicensed spectrum harvesting with collaborative spectrum sensing in next generation networks
DE102021117809A1 (de) Einrichtungen, Systeme, Fabrikate und Verfahren zur Datenlebenszyklusverwaltung in einer Edge-Umgebung
DE102022121192A1 (de) Systeme und verfahren für die prüfung vernetzter geräte
DE112020007229T5 (de) Föderiertes mec-framework für kraftfahrzeugdienste
DE102021211772A1 (de) Verfahren und einrichtung zur ermöglichung von sicherem multikohärentem poolspeicher in einem edge-netzwerk
DE112020006555T5 (de) Rekonfigurierbare funksysteme mit funkschnittstellen-engines und virtuellen funkmaschinen
DE102022203111A1 (de) Auf netzwerkfluss basierende hardwarezuweisung
DE102022203266A1 (de) Verfahren und einrichtungen zum automatischen aktualisieren von künstliche-intelligenz-modellen für autonome fabriken