DE102021208087A1 - Kontextbewusstes Handover - Google Patents

Kontextbewusstes Handover Download PDF

Info

Publication number
DE102021208087A1
DE102021208087A1 DE102021208087.1A DE102021208087A DE102021208087A1 DE 102021208087 A1 DE102021208087 A1 DE 102021208087A1 DE 102021208087 A DE102021208087 A DE 102021208087A DE 102021208087 A1 DE102021208087 A1 DE 102021208087A1
Authority
DE
Germany
Prior art keywords
network
data
circuitry
destination
nans
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021208087.1A
Other languages
English (en)
Inventor
Ashwin Umapathy
Sanket Vinod Shingte
Akshaya Ravishankar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102021208087A1 publication Critical patent/DE102021208087A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/0005Control or signalling for completing the hand-off
    • H04W36/0083Determination of parameters used for hand-off, e.g. generation or modification of neighbour cell lists
    • H04W36/00835Determination of neighbour cell lists
    • H04W36/008357Determination of target cell based on access point [AP] properties, e.g. AP service capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/0005Control or signalling for completing the hand-off
    • H04W36/0083Determination of parameters used for hand-off, e.g. generation or modification of neighbour cell lists
    • H04W36/00837Determination of triggering parameters for hand-off
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/0005Control or signalling for completing the hand-off
    • H04W36/0055Transmission or use of information for re-establishing the radio link
    • H04W36/0061Transmission or use of information for re-establishing the radio link of neighbour cell information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W36/00Hand-off or reselection arrangements
    • H04W36/24Reselection being triggered by specific parameters
    • H04W36/32Reselection being triggered by specific parameters by location or mobility data, e.g. speed data
    • H04W36/322Reselection being triggered by specific parameters by location or mobility data, e.g. speed data by location data

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Offenbarte Ausführungsformen stellen ein Handover-Vorhersageschema bereit, das auf Kontextbewusstsein eines Rechenknotens, wie etwa einer mobilen Vorrichtung, basiert. Die Kontextinformationen werden verwendet, um die Netzwerkverfügbarkeit an einem vorhergesagten Zielort vorherzusagen, der ein Bereich ist, in den sich ein Rechenknoten wahrscheinlich begibt. Die Verwendung von Sensoren, die in den Rechenknoten eingebettet sind oder für diesen zugänglich sind, kann verwendet werden, um Aspekte der Ausführungsformen durchzuführen. Ein auf Verstärkungslernen basierendes Empfehlungsmodell wird verwendet, um ein optimales Netzwerk, eine optimale Funkzugangstechnologie und/oder einen optimalen Netzwerkzugangsknoten zu bestimmen, um vor dem Eintreffen am vorhergesagten Zielort zu einer vorhergesagten Ankunftszeit eine Verbindung damit herzustellen. Andere Ausführungsformen werden beschrieben und/oder beansprucht.

Description

  • TECHNISCHES GEBIET
  • Hier beschriebene Ausführungsformen betreffen allgemein Edge-Computing, Drahtloskommunikation und Kommunikationssystemimplementierungen und insbesondere kontextbasierte horizontale und vertikale Handover-Mechanismen.
  • HINTERGRUND
  • In Telekommunikations- und Vernetzungstechnologien bezieht sich ein Handoff oder ein Handover (HO) auf einen Prozess des Übertragens einer laufenden Kommunikationssitzung (z. B. Sprache oder Daten) von einem Anbindungspunkt an einen anderen Anbindungspunkt. HO ist der Prozess, durch den ein mobiles Endgerät (oder Benutzergerät (UE)) eine Kommunikationssitzung aufrechterhält, während es die Abdeckungsbereiche von Netzwerkzugangsknoten (NANs) (z. B. einer Basisstation (BS), einem Zugangspunkt (AP) oder dergleichen) in einem oder mehreren Kommunikationsnetzwerken durchquert. Ein HO findet üblicherweise statt, wenn sich zum Beispiel ein UE von einem Abdeckungsbereich, der durch eine erste Zelle oder einen ersten NAN bereitgestellt wird (oft als die „Quellenzelle“ oder dergleichen bezeichnet), weg bewegt und in einen Abdeckungsbereich eintritt, der durch eine zweite Zelle oder einen zweiten NAN bereitgestellt wird (oft als die „Zielzelle“ oder dergleichen bezeichnet).
  • Horizontales HO (HHO) bezieht sich auf ein HO zwischen NANs, die denselben Typ von Netzwerkschnittstelle oder dieselbe Funkzugangstechnologie (RAT) implementieren. HHOs werden manchmal als „Intra-Technologie“-HOs oder „Intra-RAT“-HOs bezeichnet. Als ein Beispiel kann ein UE einem HHO von einem evolvierter Quell-NodeB (eNB) eines LTE-Zellularnetzwerkes (LTE: Long Term Evolution) des Partnerschaftsprojekts der dritten Generation (3 GPP: Long Term Evolution), zu einem Ziel-eNB unterzogen werden, der ebenfalls Teil des 3GPP-LTE-Zellularnetzwerks ist. Dieses HO kann immer noch als ein HHO angesehen werden, selbst wenn die Quell- und Ziel-eNBs Teil verschiedener drahtloser Träger sind (z. B. ein Roamingszenario). Ein anderes Beispiel für ein HHO kann umfassen, dass eine Mobilstation von einem AP eines drahtlosen lokalen Quellnetzwerks (WLAN -Wireless Local Area Network) an einen Ziel-WLAN-AP übergegeben wird.
  • Vertikales HO (VHO) umfasst ein HO zwischen NANs, die verschiedene Typen von Netzwerkschnittstellen oder RATs implementieren. VHOs werden manchmal als „Inter-Technologie“-HOs oder „Inter-RAT“-HOs bezeichnet. Als ein Beispiel kann ein UE einem VHO von einem Quell-eNB in einem LTE-Zellularnetzwerk zu einem WLAN-AP unterzogen werden. VHOs können auch zwischen verschiedenen zellularen RATs stattfinden, wie etwa zwischen RATs von Universal Mobile Telecommunications System Terrestrial Radio Access Network (UTRAN), Global System for Mobile Communications (GSM)/Enhanced Data Rate for GSM Evolution (GERAN), LTE (auch als „evolved UTRAN“ oder „E-UTRAN“ bezeichnet) und/oder 5. Generation (5G)/New Radio (NR).
  • Der HHO-Prozess führt eine gewisse Verzögerung und/oder Latenz ein, die vom Benutzer der Mobilstation/des UEs manchmal wahrgenommen werden kann. Das Ausmaß der Verzögerung/Latenz, die durch den HHO-Prozess verursacht wird, kann irgendwo zwischen wenigen Millisekunden und hunderten von Millisekunden liegen, was von diversen Faktoren abhängen könnte, wie etwa der zugrundeliegenden RAT, den Umgebungs- und/oder Funkbedingungen und dergleichen. VHOs können zumindest aufgrund der erforderlichen Anpassung zwischen den verschiedenen RATs zusätzlich zur Verzögerung/Latenz von HHOs noch mehr Verzögerung oder Latenz als HHOs einführen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen, die nicht unbedingt maßstabsgetreu gezeichnet sind, können gleiche Bezugszeichen ähnliche Komponenten in verschiedenen Ansichten beschreiben. Gleiche Ziffern mit verschiedenen angehängten Buchstaben können verschiedene Instanzen ähnlicher Komponenten repräsentieren. Einige Ausführungsformen sind beispielhaft und nicht beschränkend in den Figuren der begleitenden Zeichnungen veranschaulicht, in denen gilt:
  • 1 veranschaulicht eine beispielhafte Edge-Computing-Umgebung gemäß verschiedenen Ausführungsformen. 2 veranschaulicht eine beispielhafte Anordnung, in der verschiedene Ausführungsformen umgesetzt werden können. 3 veranschaulicht beispielhafte Komponenten, die das Kontextinferenzmodell bilden, gemäß verschiedenen Ausführungsformen. 4 veranschaulicht ein beispielhaftes verteiltes Modell mit mehreren Repositorien, die Informationen über verfügbare Netzwerke enthalten, gemäß verschiedenen Ausführungsformen. 5 veranschaulicht einen beispielhaften, auf Verstärkungslernen basierenden Algorithmus für Netzwerkempfehlung gemäß verschiedenen Ausführungsformen. 6 veranschaulicht ein beispielhaftes NN, das zum Umsetzen der verschiedenen Ausführungsformen hierin geeignet ist. 7 und 8 stellen beispielhafte Komponenten verschiedener Rechenknoten in einem oder mehreren Edge-Computing-System(en) dar. 9 stellt einen beispielhaften Prozess zum Umsetzen verschiedener hierin erörterter Ausführungsformen dar.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die vorliegende Offenbarung beschreibt ein Handover(HO)-Vorhersageschema, das auf Kontextbewusstsein basiert. „Kontextbewusstsein“ kann ein Vorhersagen eines Zielorts basierend auf einer aktuellen Position und/oder Zeit sowie anderen Parametern/Daten umfassen. Der Zielort ist eine Position/ein Ort, zu dem eine Rechenvorrichtung sich wahrscheinlich begibt oder sich begeben will. Modelle für maschinelles Lernen (ML) und/oder künstliche Intelligenz (AI) geben Empfehlungen über ein Zielnetzwerk, eine Funkzugangstechnologie (RAT) und/oder einen Netzwerkzugangsknoten (NAN) für ein HO unter Verwendung des vorhergesagten Zielorts und bekannter (z. B. A-priori-) Informationen über die Netzwerke, Netzwerkelemente und Netzwerkqualität am vorhergesagten Zielort ab. Dies ermöglicht es dem Computersystem, proaktiv eine Verbindung zu einem optimalsten Zielnetzwerk/NAN herzustellen, während eine Sitzung noch im Gang ist. Und, wenn die Verbindung mit einem Quellnetzwerk/-NAN schließlich unterbrochen wird, hat das Computersystem bereits eine Verbindung mit dem optimalen Zielnetzwerk/-NAN hergestellt. Dieses HO-Schema kann als MBB-HO-Schema (MBB - Make-before-Break) bezeichnet werden, wobei MBB sich auf ein Vorrichtungs- oder Verbindungsvermittlungsprotokoll bezieht, in dem ein neuer Verbindungspfad eingerichtet wird, bevor die vorherige Verbindung unterbrochen oder beendet wird.
  • Die kontextabhängigen Informationen (auch als „Kontextinformationen“ bezeichnet) können aus Sensordaten aus der Vielzahl von Sensoren bestimmt werden, die auf modernen Mobilsystemen immer mehr an Bedeutung gewinnen, wie beispielsweise Orts-/Positionsdaten aus „Always ON“-Orts-/Positionsbestimmungstechnologien und/oder dergleichen. Die Kontextinformationen werden auch verwendet, um die Netzwerkverfügbarkeit am vorhergesagten Zielort vorherzusagen, zu dem sich der Benutzer begibt, und es kann eine „intelligente“ Entscheidung darüber getroffen werden, mit welchem Netzwerktyp, RAT-Typ und/oder NAN-Typ vorab ein Verbindung hergestellt werden soll. Der HO-Prozess kann basierend auf dem bestimmten Netzwerktyp, RAT-Typ und/oder NAN-Typ für den vorhergesagten Zielort initiiert werden. Dies ermöglicht, dass die HO-Prozedur früher als existierende HO-Techniken initiiert wird, was die Verzögerung und/oder Latenz, die das UE erfährt, und/oder die für den Benutzer wahrnehmbare Verzögerung/Latenz reduziert.
  • Bei verschiedenen Ausführungsformen werden vier Komponenten verwendet, um eine optimale Handover-Entscheidung zu treffen, die ein Kontextinferenzmodell (CIM), einen digitalen Tresor oder ein digitales Repositorium verfügbarer drahtloser Netzwerke, ein Netzwerkauswahlempfehlungsmodell und einen Betriebssystem(OS)-Richtlinienmanager umfassen. Das CIM detektiert und/oder prädiziert einen semantischen Ort/eine semantische Position unter Verwendung der Sensordaten des UE, und diese Informationen werden dann verwendet, um alle verfügbaren drahtlosen Netzwerke und verfügbaren NANs und ihre Dienstqualitätsparameter (QoS) vom digitalen Tresor abzufragen. Das Netzwerkauswahlmodell bestimmt ein empfohlenes Zielnetzwerk/einen empfohlenen NAN aus allen verfügbaren Kandidatennetzwerken/-NANs und stellt dann das empfohlene Netzwerk/den empfohlenen NAN für den OS-Richtlinienmanager bereit. Der OS-Richtlinienmanager trifft eine endgültige Entscheidung darüber, welcher NAN vorab gewählt und verbunden werden soll, wodurch ein effizientes Make-before-Break-Modell für HO ermöglicht wird. Die Ausführungsformen können auch für Always-ON-Erfassung, Vorrichtungs-/Benutzerortverfolgung und/oder andere ähnliche Anwendungsfälle verwendet werden. In einigen Ausführungsformen können diese Komponenten auf OS- oder Anwendungsebene implementiert sein und auf existierenden Netzwerkprotokollstapeln arbeiten.
  • Die Ausführungsformen hierin stellen verbesserte Benutzererfahrung, erhöhte Zuverlässigkeit und Netzwerkverfügbarkeit auf modernen Mobilsystemen bereit, insbesondere in dynamischen Umgebungen, in denen häufig und zwischen mehreren drahtlosen Netzwerken umgeschaltet werden muss. Zum Beispiel erfordern die Anwendungsfälle, die 5G-Zellularnetzwerke ermöglichen, wie etwa automatisierte Autos, und missionskritische Dienste keinen Verlust an Konnektivität, selbst wenn zwischen Netzwerktypen gewechselt wird.
  • 1. BEISPIELHAFTE KONFIGURATIONEN UND ANORDNUNGEN VON EDGE-COMPUTING-SYSTEMEN
  • 1 veranschaulicht eine beispielhafte Edge-Computing-Umgebung 100 gemäß verschiedenen Ausführungsformen. 1 veranschaulicht die unterschiedlichen Kommunikationsschichten, die innerhalb der Umgebung 100 auftreten, ausgehend von einer Schicht von Endpunkt-Sensoren oder -Dingen 110 (die z. B. in einer IoT-Netzwerktopologie (Internet of Things) arbeiten), die eine oder mehrere IoT-Vorrichtungen 111 (auch als Randendpunkte 110 oder dergleichen bezeichnet) umfassen; über eine komplexere Schicht von Gateways oder Zwischenknoten 120, die ein oder mehrere Benutzergeräte (UEs) 121a und 121b (auch als Zwischenknoten 120 oder dergleichen bezeichnet) umfassen, die das Sammeln und Verarbeiten von Daten von Endpunkten 110 erleichtern; hin zu einer Zugangsknotenschicht 130 (oder „Edge-Knotenschicht 130“) zunehmend komplexerer Verarbeitung und Konnektivität, die mehrere Netzwerkzugangsknoten (NANs) 131a, 131b und 131c (zusammen als „NANs 131“ bezeichnet oder dergleichen) und mehrere Edge-Rechenknoten 136a-c (zusammen als „Edge-Rechenknoten 136“ oder dergleichen bezeichnet) innerhalb eines Edge-Computing-Systems 135 umfasst; und zu einer Backend-Schicht 110 mit einem Kernnetzwerk (CN) 142 und einer Cloud 144 noch komplexerer Konnektivität und Verarbeitung. Die Verarbeitung an der Backend-Schicht 140 kann durch Netzwerkdienste, wie durch einen Remote-Anwendungsserver 150 durchgeführt, und/oder andere Cloud-Dienste verbessert werden. Einige oder alle dieser Elemente können mit einigen oder allen Aspekten der hierin erörterten Ausführungsformen ausgestattet sein oder diese anderweitig implementieren.
  • Es ist gezeigt, dass die Umgebung 100 Endbenutzervorrichtungen, wie etwa Zwischenknoten 120 und Endpunkte 110, umfasst, die konfigurierbar und betreibbar sind, um basierend auf unterschiedlichen Zugangstechnologien (oder „Funkzugangstechnologien“) eine Verbindung zu einem oder mehreren Kommunikationsnetzwerken (auch als „Zugangsnetzwerke“, „Funkzugangsnetzwerke“ oder dergleichen bezeichnet) zum Zugreifen auf Anwendungsdienste herzustellen (oder sich kommunikativ daran anzukoppeln). Diese Zugangsnetzwerke können ein oder mehrere NANs 131 umfassen. Die NANs 131 sind dazu eingerichtet, Netzwerkkonnektivität für die Endbenutzervorrichtungen über jeweilige Verbindungen 103, 107 zwischen den einzelnen NANs und dem einen oder den mehreren UEs 111, 121 bereitzustellen.
  • Als Beispiele können die Kommunikationsnetzwerke und/oder Zugangstechnologien Mobilfunktechnologie, wie etwa LTE, MuLTEfire und/oder NR/5G (wie z. B. durch den Funkzugangsnetzwerk(RAN)-Knoten 131a und/oder RAN-Koten 131b bereitgestellt), WiFi- oder WLAN(Wireless Local Area Network)-Technologien (wie z. B. durch den Zugangspunkt (AP) 131c und/oder RAN-Knoten 131b bereitgestellt) und/oder dergleichen umfassen. Unterschiedliche Technologien weisen Vorteile und Beschränkungen in unterschiedlichen Szenarien auf, und die Anwendungsleistung in unterschiedlichen Szenarien wird von der Auswahl der Zugangsnetzwerke (z. B. WiFi, LTE usw.) und den verwendeten Netzwerk- und Transportprotokollen (z. B. Transfer Control Protocol (TCP), Virtual Private Network (VPN), Multi-Path TCP (MPTCP), Generic Routing Encapsulation (GRE) usw.) abhängig.
  • Die Zwischenknoten 120 umfassen ein UE 121a und ein UE 121b (kollektiv als „UE 121“ oder „UEs 121“ bezeichnet). In diesem Beispiel ist das UE 121a als ein Fahrzeug-UE (vUE oder V-ITS-S) veranschaulicht, und das UE 121b ist als ein Smartphone (z. B. eine mobile Handrechenvorrichtung mit Berührungsbildschirm, die mit einem oder mehreren zellularen Netzwerken verbunden werden kann) veranschaulicht. Diese UEs 121 können jedoch eine beliebige mobile oder nicht-mobile Rechenvorrichtung, wie etwa Tablet-Computer, Wearable-Vorrichtungen, PDAs, Pager, Desktop-Computer, Laptop-Computer, drahtlose Handapparate, unbemannte Fahrzeuge oder Drohnen, und/oder eine beliebige Art von Rechenvorrichtung mit einer drahtlosen Kommunikationsschnittstelle umfassen.
  • Die Endpunkte 110 umfassen UEs 111, die IoT-Vorrichtungen (auch als „IoT-Vorrichtungen 111“ bezeichnet) sein können, die eindeutig identifizierbare eingebettete Rechenvorrichtungen (z. B. innerhalb der Internetinfrastruktur) sind, die eine Netzwerkzugangsschicht umfassen, die für IoT-Anwendungen mit niedriger Leistung ausgelegt ist, die kurzlebige UE-Verbindungen verwenden. Die IoT-Vorrichtungen 111 sind beliebige physische oder virtualisierte Vorrichtungen, Sensoren oder „Dinge“, die in Hardware- und/oder Softwarekomponenten eingebettet sind, welche die Objekten, Vorrichtungen, Sensoren oder „Dingen“ aktivieren, die in der Lage sind, mit einem Ereignis assoziierte Daten zu erfassen und/oder aufzuzeichnen, und in der Lage sind, solche Daten über ein Netzwerk mit wenig oder keinem Benutzereingriff mit einer oder mehreren anderen Vorrichtungen auszutauschen. Als Beispiele können IoT-Vorrichtungen 111 abiotische Vorrichtungen sein, wie etwa autonome Sensoren, Messgeräte, Zähler, Bilderfassungsvorrichtungen, Mikrofone, lichtemittierende Vorrichtungen, audioemittierende Vorrichtungen, Audio- und/oder Videowiedergabevorrichtungen, elektromechanische Vorrichtungen (z. B. Schalter, Aktuator usw.), EEMS, ECUs, ECMs, eingebettete Systeme, Mikrocontroller, Steuermodule, vernetzte oder „intelligente“ Geräte, MTC-Vorrichtungen, M2M-Vorrichtungen und/oder dergleichen. Die IoT-Vorrichtungen 111 können Technologien, wie etwa M2M oder MTC, zum Austauschen von Daten mit einem MTC-Server (z. B. einem Server 150), einem Edge-Server 136 und/oder einem Edge-Computing-System 135 oder einer Vorrichtung über eine PLMN-, ProSe- oder D2D-Kommunikation, Sensornetzwerke oder IoT-Netzwerke verwenden. Der M2M- oder MTC-Austausch von Daten kann ein maschineninitiierter Austausch von Daten sein.
  • Die IoT-Vorrichtungen 111 können Hintergrundanwendungen (z. B. Keep-Alive-Nachrichten, Statusaktualisierungen usw.) ausführen, um die Verbindungen des IoT-Netzwerks zu erleichtern. Wenn die IoT-Vorrichtungen 111 Sensorvorrichtungen sind oder in diese eingebettet sind, kann das IoT-Netzwerk ein WSN sein. Ein IoT-Netzwerk beschreibt miteinander verbundene IoT-UEs, wie etwa die IoT-Vorrichtungen 111, die über jeweilige direkte Verbindungen 105 miteinander verbunden sind. Die IoT-Vorrichtungen können eine beliebige Anzahl von verschiedenen Typen von Vorrichtungen umfassen, die in verschiedenen Kombinationen gruppiert sind (als eine „IoT-Gruppe“ bezeichnet), die IoT-Vorrichtungen umfassen können, die einen oder mehrere Dienste für bestimmte Benutzer, Kunden, Organisationen usw. bereitstellen. Ein Dienstanbieter (z. B. ein Eigentümer/Betreiber des Servers 150, des CN 142 und/oder der Cloud 144) kann die IoT-Vorrichtungen in der IoT-Gruppe in einem bestimmten Bereich (z. B. einer Geolokalisierung, einem Gebäude usw.) einsetzen, um den einen oder die mehreren Dienste bereitzustellen. In einigen Implementierungen kann das IoT-Netzwerk ein Mesh-Netzwerk von IoT-Vorrichtungen 111 sein, die als Fog-Vorrichtung, Fog-System oder Fog bezeichnet werden kann, die am Rand der Cloud 144 arbeiten. Ein Fog umfasst Mechanismen, um Cloud-Computing-Funktionalität Datengeneratoren und -verbrauchern näher zu bringen, wobei verschiedene Netzwerkgeräte Cloud-Anwendungslogik auf ihrer nativen Architektur ausführen. Fog-Computing ist eine horizontale Architektur auf Systemebene, die Ressourcen und Dienste von Berechnung, Speicherung, Steuerung und Vernetzung überall entlang des Kontinuums von der Cloud 144 zu Dingen (z. B. IoT-Vorrichtungen 111) verteilt. Der Fog kann gemäß Spezifikationen festgelegt werden, die von der OFC, der OCF und anderen herausgeben werden. In einigen Ausführungsformen kann der Fog ein Tangle gemäß Definition der IOTA Foundation sein.
  • Der Fog kann verwendet werden, um Berechnung/Aggregation mit niedriger Latenz an den Daten durchzuführen, während sie zu einem Edge-Cloud-Computing-Dienst (z. B. Edge-Knoten 130) und/oder einem zentralen Cloud-Computing-Dienst (z. B. Cloud 144) geleitet werden, um schwierige Berechnungen oder rechnerisch aufwändige Aufgaben durchzuführen. Andererseits schließt Edge-Cloud-Computing von Menschen betriebene, freiwillige Ressourcen als Cloud zusammen. Diese freiwilligen Ressourcen können unter anderem Zwischenknoten 120 und/oder Endpunkte 110, Desktop-PCs, Tablets, Smartphones, Nanodatenzentren und dergleichen umfassen. Bei verschiedenen Implementierungen können sich Ressourcen in der Edge-Cloud ein bis zwei Hops von den IoT-Vorrichtungen 111 entfernt sein, was zu einem Reduzieren von Overhead in Bezug auf die Verarbeitung von Daten führen kann und Netzwerkverzögerung reduzieren kann.
  • In einigen Ausführungsformen kann der Fog ein Zusammenschluss von IoT-Vorrichtungen 111 und/oder Vernetzungsvorrichtungen, wie etwa Routern und Switches, mit hohen Rechenfähigkeiten und der Fähigkeit sein, Cloud-Anwendungslogik auf ihrer nativen Architektur auszuführen. Fog-Ressourcen können von Cloud-Anbietern hergestellt, verwaltet und eingesetzt werden, und sie können mittels zuverlässiger Hochgeschwindigkeitsverbindungen miteinander verbunden sein. Darüber hinaus liegen Fog-Ressourcen im Vergleich zu Edge-Systemen weiter vom Rand des Netzwerks entfernt, aber näher als eine zentrale Cloud-Infrastruktur. Fog-Vorrichtungen werden verwendet, um rechenintensive Aufgaben oder Arbeitslasten, die von Edge-Ressourcen abgeladen werden, effektiv zu handhaben.
  • Bei Ausführungsformen kann der Fog am Rand der Cloud 144 arbeiten. Der Fog, der am Rand der Cloud 144 arbeitet, kann sich mit einem Edge-Netzwerk 130 der Cloud 144 überlappen oder darin aufgehen werden. Das Edge-Netzwerk der Cloud 144 kann sich mit dem Fog überlappen oder ein Teil des Fogs werden. Des Weiteren kann der Nebel ein Edge-Fog-Netzwerk sein, das eine Edge-Schicht und eine Fog-Schicht umfasst. Die Edge-Schicht des Edge-Fog-Netzwerks umfasst eine Sammlung lose gekoppelter, freiwilliger und von Menschen betriebener Ressourcen (z. B. die oben erwähnten Edge-Rechenknoten 136 oder Randvorrichtungen). Die Fog-Schicht befindet sich auf der Edge-Schicht und ist ein Zusammenschluss von Vernetzungsvorrichtungen, wie etwa den Zwischenknoten 120 und/oder Endpunkten 110 von 1.
  • Daten können zwischen den IoT-Vorrichtungen 111 oder zum Beispiel zwischen den Zwischenknoten 120 und/oder Endpunkten 110, die direkte Verbindungen 105 miteinander aufweisen, wie in 1 gezeigt, erfasst, gespeichert/aufgezeichnet und kommuniziert werden. Eine Analyse des Verkehrsflusses und der Steuerschemata kann durch Aggregatoren implementiert werden, die über ein Mesh-Netzwerk mit den IoT-Vorrichtungen 111 und miteinander in Kommunikation sind. Die Aggregatoren können ein Typ einer IoT-Vorrichtung 111 und/oder eines Netzwerkgeräts sein. Im Beispiel von 1 können die Aggregatoren Edge-Knoten 130 oder ein oder mehrere festgelegte Zwischenknoten 120 und/oder Endpunkte 110 sein. Daten können über den Aggregator auf die Cloud 144 hochgeladen werden, und Befehle können von der Cloud 144 durch Gateway-Vorrichtungen empfangen werden, die mit den IoT-Vorrichtungen 111 und den Aggregatoren durch das Mesh-Netzwerk in Kommunikation sind. Im Gegensatz zum herkömmlichen Cloud-Computing-Modell kann die Cloud 144 bei einigen Implementierungen geringe oder keine Rechenfähigkeiten aufweisen und dient nur als ein Repositorium zum Archivieren von Daten, die durch den Fog aufgezeichnet und verarbeitet werden. Bei diesen Implementierungen zentralisiert die Cloud 144 das Datenspeicherungssystem und stellt Zuverlässigkeit und Zugriff auf Daten durch die Rechenressourcen in den Fog- und/oder Edge-Vorrichtungen bereit. Auf den im Kern der Architektur befindlichen Datenspeicher der Cloud 144 kann sowohl von der Edge- als auch der Fog-Schicht des oben erwähnten Edge-Fog-Netzwerks zugegriffen werden.
  • Wie zuvor erwähnt, stellen die Zugangsnetzwerke Netzwerkkonnektivität über jeweilige NANs 131 für die Endbenutzervorrichtungen 120, 110 bereit. Die Zugangsnetzwerke können Funkzugangsnetzwerke (RANs) sein, wie etwa ein NG-RAN oder ein 5G-RAN für ein RAN, das in einem 5 G/NR-Zellularnetzwerk arbeitet, ein E-UTRAN für ein RAN, das in einem LTE- oder 4G-Zellularnetzwerk arbeitet, oder ein Legacy-RAN, wie etwa ein UTRAN oder GERAN für GSM- oder CDMA-Zellularnetzwerke. Das Zugangsnetzwerk oder RAN kann für WiMAX-Implementierungen als ein Zugangsdienstnetzwerk bezeichnet werden. In einigen Ausführungsformen können alle oder Teile des RAN als eine oder mehrere Softwareentitäten implementiert sein, die auf Servercomputern als Teil eines virtuellen Netzwerks ausgeführt werden, das als Cloud-RAN (CRAN), Cognitive Radio (CR), virtueller Basisbandeinheitspool (vBBUP) und/oder dergleichen bezeichnet werden kann. Bei diesen Ausführungsformen kann das CRAN, das CR oder der vBBUP eine RAN-Funktionsaufteilung implementieren, wobei eine oder mehrere Kommunikationsprotokollschichten durch das CRAN/das CR/den vBBUP betrieben werden, und andere Kommunikationsprotokollinstanzen durch einzelne RAN-Knoten 131 betrieben werden. Dieses virtualisierte Framework ermöglicht den freigewordenen Prozessorkernen der NANs 131, andere virtualisierte Anwendungen durchzuführen, wie etwa virtualisierte Anwendungen für die hierin erörterten VRU/V-ITS-S-Ausführungsformen.
  • Die UEs 121, 111 können jeweilige Verbindungen (oder Kanäle) 103 verwenden, von denen jede eine physikalische Kommunikationsschnittstelle oder -schicht umfasst. Die Verbindungen 103 sind als eine Luftschnittstelle veranschaulicht, um kommunikative Kopplung zu ermöglichen, die mit zellularen Kommunikationsprotokollen, wie etwa 3GPP-LTE (Third Generation Partnership Project), 5 G/NR, PTT (Push-to-Talk) und/oder POC (PTT over Cellular), UMTS, GSM, CDMA und/oder beliebigen der anderen hierin erörterten Kommunikationsprotokolle, im Einklang steht. In einigen Ausführungsformen kommunizieren (z. B. senden und empfangen) die UEs 111, 121 und die NANs 131 Daten über ein lizenziertes Medium (auch als das „lizenzierte Spektrum“ und/oder das „lizenzierte Band“ bezeichnet) und ein nicht lizenziertes gemeinsam genutztes Medium (auch als das „nicht lizenzierte Spektrum“ und/oder das „nicht lizenzierte Band“ bezeichnet). Um im unlizenzierten Spektrum zu arbeiten, können die UEs 111, 121 und NANs 131 unter Verwendung von LAA-, eLAA(enhanced LAA)- und/oder feLAA(further ELAA)-Mechanismen arbeiten. Die UEs 121, 111 können ferner Kommunikationsdaten über jeweilige direkte Verbindungen 105 direkt austauschen, wobei es sich um LTE/NR-Proximity-Services(ProSe)-Verbindungen oder PC5-Schnittstellen/-Verbindungen oder WiFi-basierte Verbindungen oder Verbindungen auf der Basis von persönlichen Netzwerken (PAN - Personal Area Network) (z. B. IEEE 802.15.4-basierte Protokolle, einschließlich der Protokolle ZigBee, 6LoWPAN (IPv6 over Low Power Wireless Personal Area Networks), WirelessHART, MiWi, Thread usw.; WiFi-direct; Bluetooth-/Bluetooth Low Energy (BLE)) handeln kann.
  • Die UEs 111, 121 sind in der Lage, verschiedene Signale zu messen oder verschiedene Signal/Kanalcharakteristiken zu bestimmen/identifizieren. Signalmessung kann für Zellauswahl, Handover, Netzwerkanbindung, Testen und/oder andere Zwecke durchgeführt werden. Die von den UEs 111, 121 gesammelten Messungen können eines oder mehrere von Folgenden umfassen: Bandbreite (BW), Netzwerk- oder Zellenlast, Latenz, Jitter, Umlaufzeit (RTT), Anzahl von Unterbrechungen, Out-of-order-Lieferung von Datenpaketen, Übertragungsleistung, Bitfehlerrate, Bitfehlerverhältnis (BER), Blockfehlerrate (BLER), Paketverlustrate (PLR), Paketempfangsrate (PRR), Verhältniswert für belegten Kanal (CBR), Kanalbelegungsverhältnis (CR), Signal-zu-Rausch-Verhältnis (SNR), Signal-zu-Rausch- und Interferenz-Verhältnis (SINR), Signal-plus-Rausch-plus-Verzerrung-zu Rausch-plus-Verzerrung-Verhältnis (SINAD), Träger-zu-Interferenz-Verhältnis (CIR), Spitzen-zu-Durchschnittsleitungs-Verhältnis (PAPR), Referenzsignalempfangsleistung (RSRP), Empfangssignalstärkeindikator (RSSI), Referenzsignalempfangsqualität (RSRQ), GNSS-Timing von Zellenrahmen zur UE-Positionsbestimmung für E-UTRAN oder 5 G/NR (z. B. Timing zwischen einer NAN-131-Referenzzeit und einer GNSS-spezifischen Referenzzeit für ein gegebenes GNSS), GNSS-CODE-Messungen (z. B. die GNSS-Codephase (ganze Zahlen und Kommastellen) des Spreizcodes des i-ten GNSS-Satellitensignals), GNSS-Trägerphasenmessungen (z. B. die Anzahl von Trägerphasenzyklen (ganze Zahlen und Kommastellen) des i-ten GNSS-Satellitensignals, gemessen seit dem Einrasten auf das Signal; auch als ADR (Accumulated Delta Range) bezeichnet), Kanalstörungsmessung, thermische Rauschleistungsmessung, Empfangsstörleistungsmessung und/oder andere ähnliche Messungen. Die RSRP-, RSSI- und/oder RSRQ-Messungen können RSRP-, RSSI- und/oder RSRQ-Messungen zellspezifischer Referenzsignale, Kanalzustandsinformationsreferenzsignale (CSI-RS) und/oder Synchronisationssignale (SS) oder SS-Blöcke für 3GPP-Netzwerke (z. B. LTE oder 5 G/NR) und RSRP-, RSSI- und/oder RSRQ-Messungen verschiedener Beacon-, Fast Initial Link Setup(FILS)-Entdeckungsrahmen oder Sondierungsantwortrahmen für IEEE 802.11-WLAN/WiFi-Netzwerke umfassen. Andere Messungen können zusätzlich oder alternativ verwendet werden, wie etwa jene, die in 3 GPP TS 36.214 v15.4.0 (2019-09), 3 GPP TS 38.215, IEEE 802.11, Teil 11 erörtert werden: „Wireless LAN Medium Access Control (MAC) und Physical Layer (PHY) Spezifikationen, IEEE Std.“, und/oder dergleichen. Gleiche oder ähnliche Messungen können von den NANs 131 gemessen oder gesammelt werden.
  • Das UE 121b ist so gezeigt, dass es konfigurierbar oder betreibbar ist, um über eine Verbindung 107 auf einen Zugangspunkt (AP) 131c zuzugreifen. In diesem Beispiel ist gezeigt, dass der AP 131c ohne Verbindung mit dem CN 142 des Drahtlossystems mit dem Internet verbunden ist. Die Verbindung 107 kann eine lokale drahtlose Verbindung umfassen, wie etwa eine Verbindung gemäß einem beliebigen IEEE 802.11-Protokoll, wobei der AP 131c einen WLAN(WiFi)-Router umfasst. Bei Ausführungsformen können die UEs 121 und die IoT-Vorrichtungen 111 konfigurierbar oder betreibbar sein, um unter Verwendung geeigneter Kommunikationssignale miteinander oder mit beliebigen der APs 131c über einen Einzel- oder Mehrträgerkommunikationskanal gemäß verschiedenen Kommunikationstechniken zu kommunizieren, wie etwa unter anderem einer OFDM-Kommunikationstechnik (OFDM - Orthogonal Frequency Division Multiplexing), einer SC-FDMA-Kommunikationstechnik (SC-FDMA - Single Carrier Frequency Division Multiple Access) und/oder dergleichen, obwohl der Schutzumfang der Ausführungsformen in dieser Hinsicht nicht beschränkt ist. Die Kommunikationstechnik kann ein geeignetes Modulationsschema, wie etwa komplementäre Code-Umtastung (CCK); Phasenumtastung (PSK), wie etwa Binär-PSK (BPSK), Quadratur-PSK (QPSK), Differenz-PSK (DPSK) usw.; oder Quadratur-Amplitudenmodulation (QAM), wie etwa M-QAM; und/oder dergleichen umfassen.
  • Die Verbindung 107 kann gemäß einem geeigneten IEEE 802.11-Standard arbeiten, der drei Rahmentypen umfasst: Verwaltung, Steuerung und Daten. Verwaltungsrahmen ermöglichen es WLAN-Stationen, Kommunikationen einzuleiten und aufrechtzuerhalten. Steuerrahmen steuern die drahtlosen Verbindungen 107, wodurch einigen Stationen ermöglicht wird, auf das Medium zuzugreifen, während der Zugriff auf andere Stationen verweigert wird. Datenrahmen übermitteln Daten höherer Schichten. Verbindungen werden unter Verwendung mehrerer Verwaltungsrahmen-Untertypen aufgebaut. Der erste Schritt des Verbindungsaufbaus ist eine Netzwerkentdeckung, die startet, wenn der AP 131c seine Existenz durch Rundsenden von Beacon-Rahmen an Stationen 121, 111 in der Nähe ankündigt. Die Stationen 121, 111 horchen passiv auf die Beacon-Rahmen oder senden aktiv Sondierungsanfragen zum Identifizieren von APs 131c in Reichweite. Nach dem Empfangen einer Sondierungsanfrage sendet der AP 131c einen Sondierungsantwortrahmen, der Informationen wie etwa die unterstützten Raten und Fähigkeiten des Netzwerks enthält. Der zweite Schritt umfasst den Austausch von Authentifizierungs- und Assoziationsnachrichten. Authentifizierung ist die Prozedur des Sendens der Identität der Station 121, 111 an den AP 131c durch den Authentifizierungsanforderungsrahmen. Bei Empfang der Anforderung akzeptiert der AP 131c die Station 121, 111 über eine Authentifizierungsantwort oder weist sie zurück. In einer offenen Authentifizierungsumgebung findet keine Identitätsprüfung statt. Die Assoziationsanforderung wird durch die Station 121, 111 gesendet, um dem AP 131c zu ermöglichen, der Station 121, 111 Ressourcen zuzuweisen und sich mit der Netzwerkschnittstellensteuerung (NIC) der Station 121, 111 zu synchronisieren. Eine Assoziationsantwort, die durch den AP 131c gesendet wird, gibt die Annahme oder Ablehnung der Verbindung an. Anschließend können der AP 131c und die Station 121, 111 Daten austauschen. Das Einrichten einer sicheren Kommunikation kann zusätzliche Schritte nach der Assoziationsstufe umfassen, wie etwa den Austausch von Vierwege-Handshake-Nachrichten zur gegenseitigen Authentifizierung in WPA/WPA2-PSK oder die Übermittlung von Berechtigungsnachweisen an den Authentifizierungsserver (z. B. RADIUS) in einem Unternehmensmodus vor dem Vierwege-Handshake-Austausch.
  • HHOs in WLAN/WiFi-Netzwerken finden statt, wenn sich eine Mobilstation 121, 111 von einem AP 131c entfernt, auf dem die Station 121, 111 verweilt, was bewirkt, dass eine Disassoziation stattfindet, gefolgt von einem Scan (z. B. um andere AP(s) 131c zu entdecken), und dann eine Neuanbindungs- und Neuauthentifizierungsprozedur mit einem neu entdeckten AP 131c durchgeführt wird. Nach dem Authentifizierungsaustausch authentifiziert sich die Station 121, 111, ist aber nicht assoziiert. Senden einer Deauthentifizierungsnachricht auf dieser Stufe bewirkt, dass die Station 121, 111 deauthentifiziert wird, wohingegen das Austauschen von Assoziationsrahmen die Station 121, 111 in einen assoziierten Zustand versetzt, in dem die Station 121, 111 authentifiziert und assoziiert ist und Daten austauschen kann. Um eine hergestellte Verbindung zu beenden, trennt der AP 131c eine oder alle der verbundenen Stationen 121, 111 unter Verwendung der Broadcast-Adresse durch Senden eines Deauthentifizierungsrahmens. Sowohl die Station 121, 111 als auch der AP 131c können einen Disassoziationsrahmen senden, um die Assoziation zu beenden. Ein von einer Station 121, 111 empfangener Disassoziationsrahmen ermöglicht dem AP 131c, die Station 121, 111 aus einer Assoziationstabelle zu entfernen. Die zuvor erörterte Assoziationsprozedur wird dann zum Anbinden an einen Ziel-AP 131c durchgeführt. Wie weiter unten ausführlicher erörtert, können die Stationen 121, 111 die kontextbewussten HO-Mechanismen sowohl für Intra-WLAN-HOs als auch für Inter-RAT-HOs zu/von dem WLAN-AP 131c gemäß den verschiedenen hierin erörterten Ausführungsformen verwenden.
  • Das eine oder die mehreren NANs 131, welche die Verbindungen 103 ermöglichen, können als „RAN-Knoten“ oder dergleichen bezeichnet werden. Die RAN-Knoten 131a-b können Bodenstationen (z. B. terrestrische Zugangspunkte) oder Satellitenstationen umfassen, die Abdeckung innerhalb eines geografischen Gebiets (z. B. einer Zelle) bereitstellen. Die RAN-Knoten 131 können als eine oder mehrere einer dedizierten physischen Vorrichtung, wie etwa eine Makrozellen-Basisstation (BS), und/oder einer Niederleistungs-BS zum Bereitstellen von Femtozellen, Pikozellen oder anderen ähnlichen Zellen mit kleineren Abdeckungsbereichen, kleineren Benutzerkapazitäten oder höheren Bandbreiten im Vergleich zu Makrozellen implementiert sein.
  • Als Beispiele können die RAN-Knoten 131 als NodeB, evolvierter NodeB (eNB), eNBs der nächsten Generation (ng-eNB) oder NodeB der nächsten Generation (gNB), Relaisknoten, Funkeinheiten (RU), Remote-Funkköpfe (RRH), Remote-Funkeinheiten (RRU), Straßenrandeinheiten (RSU) und/oder dergleichen umgesetzt sein. Bei einer beispielhaften Implementierung ist der RAN-Knoten 131a als eine oder mehrere verteilte gNB-Einheiten (DUs) und/oder eine oder mehrere ng-eNB-DUs umgesetzt, und die RAN-Knoten 131b sind als eine oder mehrere Funkeinheiten (RUs) (auch als RRHs, RRUs oder dergleichen bezeichnet) umgesetzt, die kommunikativ mit den DUs 131 gekoppelt sind. In einigen Implementierungen können die eine oder die mehreren RUs RSUs sein. In diesem Implementierungsbeispiel ist jede DU 131 kommunikativ mit einer gNB-Zentraleinheit (CU) oder ng-eNB-CU (siehe z. B. 3 GPP TS 38.401 v16.1.0 (2020-03)) gekoppelt. Die CU kann als eine Basisbandeinheit (BBU), Funkeinrichtungssteuerung (REC), Radio Cloud Center (RCC), zentralisiertes RAN (C-RAN), virtualisiertes RAN (vRAN) und/oder dergleichen implementiert sein (obwohl sich diese Begriffe auf unterschiedliche Implementierungskonzepte beziehen können). Jede andere Art von NANs kann verwendet werden.
  • Jeder der RAN-Knoten 131 kann das Luftschnittstellenprotokoll beenden und der erste Kontaktpunkt für die UEs 121 und die IoT-Vorrichtungen 111 sein. In einigen Ausführungsformen kann jeder der RAN-Knoten 131 verschiedene logische Funktionen für das RAN erfüllen, darunter, ohne darauf beschränkt sein, RAN-Funktion(en) (z. B. Funknetzwerksteuerungs(RNC)-Funktionen und/oder NG-RAN-Funktionen) für Funkressourcenverwaltung, Zulassungssteuerung, dynamische Uplink- und Downlink-Ressourcenzuweisung, Funkträgerverwaltung, Datenpaketplanung usw. Bei Ausführungsformen können die UEs 111, 121 konfigurierbar oder betreibbar sein, um unter Verwendung von OFDM-Kommunikationssignalen miteinander oder mit beliebigen der NANs 131 über einen Mehrträgerkommunikationskanal gemäß verschiedenen Kommunikationstechniken zu kommunizieren, wie etwa unter anderem einer OFDMA-Kommunikationstechnik (z. B. für Downlink-Kommunikationen) und/oder einer SC-FDMA-Kommunikationstechnik (z. B. für Uplink- und ProSe- oder Sidelink-Kommunikationen), obwohl der Schutzumfang der Ausführungsformen in dieser Hinsicht nicht beschränkt ist.
  • Für die meisten zellularen Kommunikationssysteme organisieren die RAN-Funktion(en), die vom RAN oder einzelnen NANs 131 ausgeführt werden, Downlink-Übertragungen (z. B. von einem beliebigen der RAN-Knoten 131 zu den UEs 111, 121) und Uplink-Übertragungen (z. B. von den UEs 111, 121 zu RAN-Knoten 131) in Funkrahmen (oder einfach „Rahmen“) mit einer Dauer von 10 Millisekunden (ms), wobei jeder Rahmen zehn 1-ms-Subrahmen umfasst. Jede Übertragungsrichtung weist ihr eigenes Ressourcenraster auf, das physikalische Ressourcen in jedem Schlitz anzeigt, wobei jede Spalte und jede Zeile eines Ressourcenraster einem Symbol bzw. einem Unterträger entspricht. Die Dauer des Ressourcenrasters in der Zeitdomäne entspricht einem Schlitz in einem Funkrahmen. Die Ressourcenraster umfassen eine Anzahl von Ressourcenblöcken (RBs), die die Abbildung bestimmter physikalischer Kanäle auf Ressourcenelemente (REs) beschreiben. Jeder RB kann ein physikalischer RB (PRB) oder ein virtueller RB (VRB) sein und umfasst eine Sammlung von REs. Ein RE ist die kleinste Zeit-Frequenz-Einheit in einem Ressourcengitter. Die RNC-Funktion(en) weist (weisen) Ressourcen (z. B. PRBs und Modulations- und Codierungsschemata (MCS)) jedem UE 111, 121 in jedem Übertragungszeitintervall (TTI) dynamisch zu. Ein TTI ist die Dauer einer Übertragung auf einer Funkverbindung 103, 105 und bezieht sich auf die Größe der Datenblöcke, die von höheren Netzwerkschichten an die Funkverbindungsschicht weitergeleitet werden.
  • Jeder der RAN-Knoten 131 kann das Luftschnittstellenprotokoll beenden und der erste Kontaktpunkt für die UEs 121 und die IoT-Vorrichtungen 111 sein. In einigen Ausführungsformen kann jeder der RAN-Knoten 131 verschiedene logische Funktionen für das RAN erfüllen, darunter, ohne darauf beschränkt zu sein, RAN-Funktion(en) (z. B. Funknetzwerkssteuerungs(RNC)-Funktionen und/oder NG-RAN-Funktionen) für Funkressourcenverwaltung, Zulassungssteuerung, dynamische Uplink- und Downlink-Ressourcenzuweisung, Funkträgerverwaltung, Datenpaketplanung usw. Bei Ausführungsformen können die UEs 111, 121 konfigurierbar oder betreibbar sein, um unter Verwendung von OFDM-Kommunikationssignalen miteinander oder mit beliebigen der RAN-Knoten 131, 132 über einen Mehrträgerkommunikationskanal gemäß verschiedenen Kommunikationstechniken zu kommunizieren, wie etwa unter anderem einer OFDMA-Kommunikationstechnik (z. B. für Downlink-Kommunikationen) und/oder einer SC-FDMA-Kommunikationstechnik (z. B. für Uplink- und ProSe- oder Sidelink-Kommunikationen), obwohl der Schutzumfang der Ausführungsformen in dieser Hinsicht nicht beschränkt ist. Die NANs 131 können konfigurierbar oder funktionsfähig sein, um über jeweilige Schnittstellen oder Links (nicht gezeigt) miteinander zu kommunizieren, wie etwa eine X2-Schnittstelle für LTE-Implementierungen (z. B. wenn der CN 142 ein Evolved Packet Core (EPC) ist), eine XN-Schnittstelle für 5G- oder NR-Implementierungen (z. B. wenn der CN 142 ein Kern der fünften Generation (5GC) ist) oder dergleichen.
  • Die UEs 111, 121 können Messberichte (MRs) erzeugen, die Messinformationen umfassen, und an die NANs 131-132 liefern. Die Messinformationen können Messungen von Referenzsignalen und/oder beliebige der oben genannten Arten von Messungen umfassen. Ein UE 111, 121 kann einer HO-Operation unterzogen werden, wenn es sich zwischen Zellen oder Dienstabdeckungsbereichen bewegt. Wenn sich zum Beispiel ein UE 111, 121 von einer Zelle eines ersten NAN 131 zu einer Zelle eines zweiten NAN 131 bewegt, kann der NAN 131 das UE 111, 121 an den NAN 131 übergeben. In diesem Fall kann der NAN 131 als eine „Quellenzelle“ oder ein „Quell-NAN“ betrachtet werden, und der NAN 131 kann als eine „Zielzelle“ oder ein „Ziel-NAN“ betrachtet werden. Typischerweise sendet der Quell-NAN 131 eine Messkonfiguration an das UE 111, 121, um einen MR vom UE 111, 121 anzufordern, wenn gewisse konfigurierte Berichtskriterien erfüllt sind, und das UE 111, 121 führt Signalqualitäts- und/oder Zellenleistungsmessungen für Kanäle oder Links des Ziel-NAN 131 und/oder anderer Nachbarzellen durch. Die Berichtskriterien sind Kriterien, die das UE 111, 121 veranlassen, einen MR zu senden, der entweder periodisch oder eine Einzelereignisbeschreibung sein kann. Üblicherweise ist das Berichtskriterium ein Messergebnis einer bedienenden Zelle und/oder benachbarter Zelle(n) im Vergleich zu einem Schwellenparameter, wobei die Messergebnisse mit Hystereseparametern und/oder einem oder mehreren positiven oder negativen Offsets kombiniert werden können oder nicht.
  • Basierend auf den Messergebnissen können einige konfigurierten Ereignisse das UE 111, 121 zum Senden des MR an den Quell-NAN 131 veranlassen. Der Quell-NAN 131 kann entscheiden, das UE 111, 121 an den Ziel-NAN 131 zu übergeben, indem die HO-Operation initiiert wird. Um die HO-Operation zu initiieren, kann der Quell-NAN 131 eine HO-Anfragenachricht an den Ziel-NAN 131 übertragen, und als Reaktion kann das Quell-NAN 131 eine HO-Anfragebestätigung (ACK) vom Ziel-NAN 131 empfangen. Sobald die HO-Anfrage-ACK empfangen wurde, kann der Quell-NAN 131 einen HO-Befehl an das UE 111, 121 senden, um mit einem Anbindungsprozess mit dem Ziel-NAN 131 zu beginnen. Zu diesem Zeitpunkt stoppt der Quell-NAN 131 die Datenübertragung an das UE 111, 121, da sich das UE 111, 121 vom Quell-NAN 131 löst, und startet die Synchronisation mit dem Ziel-NAN 132. Falls der Quell-NAN 131 immer noch Daten aufweist, die für das UE 111, 121 bestimmt sind, kann der Quell-NAN 131 eine Sequenznummern(SN)-Statusübertragung an den Ziel-NAN 131 senden und Daten an den Ziel-NAN 131 weiterleiten, so dass der Ziel-NAN 131 solche Daten an das UE 111, 121 übertragen kann, sobald die HO-Operation abgeschlossen ist. Wie unten ausführlicher erörtert, können die UEs 121, 111 die kontextbewussten HO-Mechanismen sowohl für Intra-RAT-HOs als auch für Inter-RAT-HOs zu/von NANs 131 gemäß den verschiedenen hierin erörterten Ausführungsformen verwenden.
  • Die NANs 131 sind auch mit dem CN 142 kommunikativ gekoppelt. In Ausführungsformen kann das CN 142 ein Evolved Packet Core (EPC)-Netzwerk, ein NextGen Packet Core (NPC)-Netzwerk, ein 5G-Kern (5 GC) oder eine andere Art von CN sein. Das CN 142 kann mehrere Netzwerkelemente umfassen, die konfigurierbar oder betreibbar sind, um Kunden/Teilnehmern (z. B. Benutzern von UEs 121 und IoT-Vorrichtungen 111), die über ein RAN mit dem CN 142 verbunden sind, verschiedene Daten- und Telekommunikationsdienste anzubieten. Die Komponenten des CN 142 können in einem physischen Knoten oder separaten physischen Knoten implementiert sein, die Komponenten zum Auslesen und Ausführen von Anweisungen aus einem maschinenlesbaren oder computerlesbaren Medium (z. B. einem nichtflüchtigen maschinenlesbaren Speichermedium) umfassen. Bei einigen Ausführungsformen kann Netzwerkfunktionsvirtualisierung (NFV) genutzt werden, um beliebige oder alle der oben beschriebenen Netzwerkknotenfunktionen über ausführbare Anweisungen zu virtualisieren, die in einem oder mehreren computerlesbaren Speichermedien (unten ausführlicher beschrieben) gespeichert sind. Eine logische Instanziierung des CN 142 kann als ein Netzwerk-Slice bezeichnet werden, und eine logische Instanziierung eines Teils des CN 142 kann als ein Netzwerk-Subslice bezeichnet werden. NFV-Architekturen und -Infrastrukturen können verwendet werden, um eine oder mehrere Netzwerkfunktionen, die alternativ von proprietärer Hardware ausgeführt werden, auf physischen Ressourcen zu virtualisieren, die eine Kombination von Industriestandardserverhardware, Speicherhardware oder Switches umfassen. Mit anderen Worten können NFV-Systeme verwendet werden, um virtuelle oder rekonfigurierbare Implementierungen einer oder mehrerer Komponenten/Funktionen des CN 142 auszuführen.
  • Das CN 142 ist über eine IP-Kommunikationsschnittstelle 155 kommunikativ mit einem Anwendungsserver 150 und einem Netzwerk 150 gekoppelt. Der eine oder die mehreren Server 150 umfassen ein oder mehrere physische und/oder virtualisierte Systeme zum Bereitstellen von Funktionalität (oder Diensten) für einen oder mehrere Clients (z. B. UEs 121 und IoT-Vorrichtungen 111) über ein Netzwerk. Der eine oder die mehreren Server 150 können verschiedene Rechenvorrichtungen mit Rackrechenarchitekturkomponente(n), Turmrechenarchitekturkomponente(n), Bladerechenarchitekturkomponente(n) und/oder dergleichen umfassen. Der eine oder die mehreren Server 150 können einen Cluster von Servern, eine Serverfarm, einen Cloud-Computing-Dienst oder eine andere Gruppierung oder einen anderen Pool von Servern darstellen, die sich in einem oder mehreren Datenzentren befinden können. Der eine oder die mehreren Server 150 können auch mit einer oder mehreren Datenspeichervorrichtungen (nicht gezeigt) verbunden oder anderweitig damit assoziiert sein. Zudem können der eine oder die mehreren Server 150 ein Betriebssystem (OS) umfassen, das ausführbare Programmanweisungen für die allgemeine Verwaltung und den allgemeinen Betrieb der einzelnen Servercomputervorrichtungen bereitstellt, und sie können ein computerlesbares Medium umfassen, das Anweisungen speichert, die, wenn sie durch einen Prozessor der Server ausgeführt werden, den Servern ermöglichen können, ihre vorgesehenen Funktionen durchzuführen. Geeignete Implementierungen für das OS und die allgemeine Funktionalität von Servern sind bekannt oder kommerziell erhältlich und sind vom Durchschnittsfachmann leicht zu implementieren. Allgemein bieten der oder die Server 150 Anwendungen oder Dienste an, die IP- /Netzwerkressourcen verwenden. Als Beispiele können der eine oder die mehreren Server 150 Verkehrsverwaltungsdienste, Cloud-Analytik, Content-Streaming-Dienste, immersive Spielerfahrungen, soziales Netzwerken und/oder Mikroblogg-Dienste und/oder andere ähnliche Dienste bereitstellen. Zusätzlich dazu können die verschiedenen Dienste, die durch den einen oder die mehreren Server 150 bereitgestellt werden, Initiieren und Steuern von Software- und/oder Firmware-Aktualisierungen für Anwendungen oder einzelne Komponenten umfassen, die durch die UEs 121 und die IoT-Vorrichtungen 111 implementiert werden. Der eine oder die mehreren Server 150 können auch konfigurierbar oder betreibbar sein, um einen oder mehrere Kommunikationsdienste (z. B. Voice-over-Internet-Protocol(VoIP)-Sitzungen, PTT-Sitzungen, Gruppenkommunikationssitzungen, soziale Netzwerkdienste usw.) für die UEs 121 und die IoT-Vorrichtungen 111 über den CN 142 zu unterstützen.
  • Die Cloud 144 kann eine Cloud-Computing-Architektur/-Plattform darstellen, die einen oder mehrere Cloud-Computing-Dienste bereitstellt. Cloud-Computing bezieht sich auf ein Paradigma zum Ermöglichen von Netzwerkzugriff auf einen skalierbaren und elastischen Pool von gemeinsam nutzbaren Rechenressourcen mit Self-Service-Bereitstellung und -Verwaltung bei Bedarf und ohne aktive Verwaltung durch Benutzer. Bei Rechenressourcen (oder einfach „Ressourcen“) handelt es sich um jede physische oder virtuelle Komponente mit eingeschränkter Verfügbarkeit innerhalb eines Computersystems oder -netzwerks oder die Verwendung solcher Komponenten. Beispiele für Ressourcen umfassen Nutzung von/Zugriff auf Server, Prozessor(en), Datenspeichergeräte, Arbeitsspeichervorrichtungen, Speicherbereiche, Netzwerke, elektrische Leistung, (periphere) Eingabe-/Ausgabevorrichtungen, mechanische Vorrichtungen, Netzwerkverbindungen (z. B. Kanäle/Links, Ports, Netzwerkbuchsen usw.), Betriebssysteme, virtuelle Maschinen (VMs), Software/Anwendungen, Computerdateien und/oder dergleichen für eine Zeitdauer. Cloud-Computing stellt Cloud-Computing-Dienste (oder Cloud-Dienste) bereit, bei denen es sich um eine oder mehrere über Cloud-Computing angebotene Fähigkeiten handelt, die unter Verwendung einer definierten Schnittstelle (z. B. einer API oder dergleichen) aufgerufen werden. Einige Fähigkeiten der Cloud 144 umfassen Anwendungsfähigkeitstyp, Infrastrukturfähigkeitstyp und Plattformfähigkeitstyp. Ein Cloud-Fähigkeitstyp ist eine Klassifizierung der Funktionalität, die für einen Cloud-Dienstkunden (z. B. einen Benutzer der Cloud 144) durch einen Cloud-Dienst basierend auf den verwendeten Ressourcen bereitgestellt wird. Der Anwendungsfähigkeitstyp ist ein Cloud-Fähigkeitstyp, bei dem der Cloud-Dienstkunde die Anwendungen des Cloud-Dienstanbieters verwenden kann; der Infrastrukturfähigkeitstyp ist ein Cloud-Fähigkeitstyp, bei dem der Cloud-Dienstkunde Verarbeitungs-, Speicherungs- oder Vernetzungsressourcen bereitstellen und verwenden kann; und der Plattformfähigkeitstyp ist ein Cloud-Fähigkeitstyp ist, bei dem der Cloud-Dienstkunde vom Kunden erstellte oder vom Kunden erworbene Anwendungen unter Verwendung einer oder mehrerer Programmiersprachen und einer oder mehrerer Ausführungsumgebungen, die vom Cloud-Dienstanbieter unterstützt werden, einsetzen, verwalten und ausführen kann. Cloud-Dienste können in Kategorien eingeteilt werden, die einen gemeinsamen Satz von Qualitäten besitzen.
  • Einige Cloud-Dienstkategorien, welche die Cloud 144 bereitstellen kann, umfassen zum Beispiel Kommunikation als ein Dienst (CaaS - Communications as a Service), der eine Cloud-Dienstkategorie ist, die Echtzeit-Interaktions- und -Zusammenarbeitsdienste umfasst; Rechnen als Dienst (CompaaS - Compute as a Service), der eine Cloud-Dienstkategorie ist, welche die Bereitstellung und Verwendung von Verarbeitungsressourcen umfasst, die benötigt werden, um Software einzusetzen und auszuführen; Datenbank als Dienst (DaaS - Database as a Service), der eine Cloud-Dienstkategorie ist, welche die Bereitstellung und Verwendung von Datenbanksystemverwaltungsdiensten umfasst; Datenspeicherung als Dienst (DSaaS - Data Storage as a Service), der eine Cloud-Dienstkategorie ist, welche die Bereitstellung und Verwendung von Datenspeicherung und damit verbundenen Fähigkeiten umfasst; Firewall als Dienst (FaaS - Firewall as a Service), der eine Cloud-Dienstkategorie ist, die das Bereitstellen von Firewall- und Netzwerkverkehrsverwaltungsdiensten umfasst; Infrastruktur als Dienst (IaaS - Infrastructure as a Service), der eine Cloud-Dienstkategorie ist, die den Infrastrukturfähigkeitstyp umfasst; Netzwerk als Dienst (NaaS - Network as a Service), der eine Cloud-Dienstkategorie ist, die Transportkonnektivität und damit verbundene Netzwerkfähigkeiten umfasst; Plattform als Dienst (PaaS - Platform as a Service), der eine Cloud-Dienstkategorie ist, die den Plattformfähigkeitstyp umfasst; Software als Dienst (SaaS - Software as a Service), der eine Cloud-Dienstkategorie ist, die den Anwendungsfähigkeitstyp umfasst; Sicherheit als Dienst, der eine Cloud-Dienstkategorie ist, die das Bereitstellen von Diensten für die Netzwerk- und Informationssicherheit (Infosec) umfasst; Funktion als Dienst (FaaS - Function as a Service) für die Anwendungen, die in den Edge-Vorrichtungen (z. B. Smartphones oder IoT) ausgeführt werden, um ihre Arbeitslasten und Anwendungen zu beschleunigen; Beschleunigungs-FaaS (AFaaS - Acceleration FaaS), eine FaaS-Implementierung, bei der Funktionen in einem Hardwarebeschleuniger implementiert und ausgeführt werden, der verwendet werden kann, um die Edge-FaaS-Fähigkeit weiter zu verbessern; Konfliktanalyse als ein Dienst (CAaaS - Conflict Analysis as a Service); Kryptodienste (z. B. TLS-aaS, DTLS-aaS); Edge-als-Dienst(EaaS - Edgeas-a-Service)-Orchestrierung als Dienst (OaaS - Orchestration as a Service); und/oder andere ähnliche Cloud-Dienste, die verschiedene Alles-als-Dienst(X-aaS - anything-as-a-service)Angebote umfassen.
  • In einigen Ausführungsformen kann die Cloud 144 ein Netzwerk darstellen, wie etwa das Internet, ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetzwerk (WAN), einschließlich proprietärer und/oder Unternehmensnetzwerke für eine Firma oder Organisation oder Kombinationen davon. Die Cloud 144 kann ein Netzwerk sein, das Computer, Netzwerkverbindungen zwischen den Computern und Softwareroutinen umfasst, um eine Kommunikation zwischen den Computern über Netzwerkverbindungen zu ermöglichen. In dieser Hinsicht umfasst die Cloud 144 ein oder mehrere Netzwerkelemente, die einen oder mehrere Prozessoren, Kommunikationssysteme (die z. B. Netzwerkschnittstellensteuerungen, einen oder mehrere Sender/Empfänger, die mit einer oder mehreren Antennen verbunden sind usw. umfassen) und computerlesbare Medien umfassen können. Beispiele für solche Netzwerkelemente können drahtlose Zugangspunkte (WAPs), Heim-/Geschäftsserver (mit oder ohne HF-Kommunikationsschaltungsanordnung), Router, Switches, Hubs, Funkbaken, BSs, Pikozellen- oder Kleinzellen-BSs, Backbone-Gateways und/oder beliebige andere ähnliche Netzwerkvorrichtungen umfassen. Eine Verbindung mit der Cloud 144 kann über eine drahtgebundene oder eine drahtlose Verbindung unter Verwendung der verschiedenen im Folgenden erörterten Kommunikationsprotokolle erfolgen. Mehr als ein Netzwerk kann an einer Kommunikationssitzung zwischen den veranschaulichten Vorrichtungen beteiligt sein. Eine Verbindung mit der Cloud 144 kann erfordern, dass die Computer Softwareroutinen ausführen, die zum Beispiel die sieben Schichten des OSI-Modells eines Computernetzwerks oder eines Äquivalents in einem drahtlosen (zellularen) Telefonnetzwerk ermöglichen. Die Cloud 144 kann verwendet werden, um Kommunikation mit relativ großer Reichweite, wie etwa zum Beispiel zwischen dem einen oder den mehreren Servern 150 und einem oder mehreren UEs 121 und IoT-Vorrichtungen 111, zu ermöglichen. In einigen Ausführungsformen kann die Cloud 144 das Internet, ein oder mehrere zellulare Netzwerke, lokale Netzwerke oder Weitverkehrsnetzwerke, einschließlich proprietärer und/oder Unternehmensnetzwerke, ein TCP/Internetprotokoll(IP)-basiertes Netz oder Kombinationen davon darstellen. Bei solchen Ausführungsformen kann die Cloud 144 mit einem Netzwerkbetreiber assoziiert sein, der Geräte und andere Elemente besitzt oder steuert, die notwendig sind, um netzwerkbezogene Dienste bereitzustellen, wie etwa eine oder mehrere BSs oder Zugangspunkte, einen oder mehrere Server zum Routen digitaler Daten oder Telefonanrufe (z. B. ein Kernnetzwerk oder Backbone-Netzwerk) usw. Die Backbone-Verbindungen 155 können eine beliebige Anzahl von drahtgebundenen oder drahtlosen Technologien umfassen und Teil eines LAN, eines WAN oder des Internets sein. In einem Beispiel sind die Backbone-Verbindungen 155 Backbone-Faserverbindungen, die niedrigere Ebenen von Dienstanbietern mit dem Internet, wie etwa dem CN 112 und der Cloud 144, koppeln.
  • In Ausführungsformen können die Edge-Rechenknoten 136 ein Edge-System 135 (oder ein Edge-Netzwerk 135) umfassen oder Teil davon sein. Die Edge-Rechenknoten 136 können auch als „Edge-Hosts 136“ oder „Edge-Server 136“ bezeichnet werden. Das Edge-System 135 umfasst eine Sammlung von Edge-Servern 136 und Edge-Verwaltungssystemen (in 1 nicht gezeigt), die notwendig sind, um Edge-Computing-Anwendungen innerhalb eines Betreibernetzwerks oder einer Teilmenge eines Betreibernetzwerks auszuführen. Die Edge-Server 136 sind physische Computersysteme, die eine Edge-Plattform (z. B. MEC-Plattform) und/oder Virtualisierungsinfrastruktur umfassen können und Rechen-, Speicher- und Netzwerkressourcen für Edge-Computing-Anwendungen bereitstellen. Jeder der Edge-Server 136 ist an einem Rand eines entsprechenden Zugangsnetzwerks angeordnet und ist dazu eingerichtet, Rechenressourcen und/oder verschiedene Dienste (z. B. Rechenaufgaben- und/oder Arbeitslastabladung, Cloud-Computing-Fähigkeiten, IT-Dienste und andere ähnliche Ressourcen und/oder Dienste, wie hierin erörtert) in relativ enger Nähe zu Zwischenknoten 120 und/oder Endpunkten 110 bereitzustellen. Die VIs der Edge-Server 136 stellen virtualisierte Umgebungen und virtualisierte Ressourcen für die Edge-Hosts bereit, und die Edge-Computing-Anwendungen können als VMs und/oder Anwendungscontainer auf der VI laufen. Eine beispielhafte Implementierung des EDGE-Systems 135 ist ein MEC-System/Netzwerk, das gemäß ETSI GS MEC 003 V2.1.1 (2019-01) und/oder anderen ETSI MEC-Standards arbeiten kann. Es versteht sich, dass MEC-System- und Dienstbereitstellungsbeispiele nur ein veranschaulichendes Beispiel von Edge-Computing-Systemen/-Netzwerken 135 sind und die hierin erörterten Ausführungsbeispiele auf viele andere Edge-Computing-/-Netzwerktechnologien in verschiedenen Kombinationen und Layouts von Vorrichtungen anwendbar sein können, die sich am Rand eines Netzwerks befinden. Beispiele für solche anderen Edge-Computing-/-Netzwerktechnologien, die Ausführungsformen hierin implementieren können, umfassen Content Delivery Networks (CDNs) (auch als „Content Distribution Networks“ oder dergleichen bezeichnet); Mobility-Service-Provider(MSP)-Edge-Computing- und/oder Mobility-als-Dienst(MaaS)-Anbietersysteme (z. B. verwendet in AECC-Architekturen); Nebula-Edge-Cloud-Systeme; Fog-Computing-Systemen; Cloudlet-Edge-Cloud-Systeme; Mobile-Cloud- Computing-Systeme; eine Vermittlungsstelle umgestaltet als Datenzentrum (CORD), eine Mobile-CORD (M-CORD) und/oder Converged-Multi-Access-and-Core(COMAC)-Systeme und/oder dergleichen. Ferner können sich die hierin offenbarten Techniken auf andere IoT/Edge-Netzwerksysteme und -konfigurationen beziehen, und es können auch andere Zwischenverarbeitungsentitäten und Architekturen verwendet werden, um die hierin beschriebenen Ausführungsformen umzusetzen.
  • Rechenaufgaben- und/oder Arbeitslastablademöglichkeiten können auf Rechenknotenfähigkeiten der Edge-Rechenknoten 136 und/oder der UEs 111, 121 basieren. Die Rechenknotenfähigkeiten können zum Beispiel Konfigurationsinformationen (z. B. Hardwareplattformhersteller und -modell, Hardwarekomponententypen und -anordnung innerhalb der Hardwareplattform, assoziierte periphere und/oder angeschlossene Geräte/Systeme, Prozessorarchitektur, gegenwärtig ausgeführte Betriebssysteme und/oder Anwendungen und/oder deren Anforderungen, Abonnementdaten (z. B. Datenplan und Berechtigungen für Netzwerkzugriff), Sicherheitsstufen oder Berechtigungen (z. B. mögliche Authentifizierung und/oder Autorisierung, die erforderlich ist, um auf die Edge-Rechenknoten 136 oder bestimmte Ressourcen zuzugreifen) usw.); Rechenkapazität (z. B. Gesamtprozessorgeschwindigkeit eines oder mehrerer Prozessoren, Gesamtanzahl von VMs, die von den Edge-Rechenknoten 136 betrieben werden können, Arbeitsspeicher- oder Datenspeichergröße, durchschnittliche Rechenzeit pro Arbeitslast, Wiederverwendungsgrad von Rechenressourcen usw.); aktuelle oder vorhergesagte Rechenlast und/oder Rechenressourcen (z. B. Prozessorauslastung oder belegte Prozessorressourcen, Arbeitsspeicher- oder Datenspeicherauslastung usw.); aktuelle oder vorhergesagte unbelegte Rechenressourcen (z. B. verfügbare oder ungenutzte Speicher- und/oder Prozessorressourcen, verfügbare VMs usw.); Netzwerkfähigkeiten (z. B. Linkanpassungsfähigkeiten, konfigurierte und/oder maximale Sendeleistung, erreichbare Datenrate pro Kanalnutzung, Antennenkonfigurationen, unterstützte Funktechnologien oder Funktionalitäten einer Vorrichtung (z. B. ob ein Rechenknoten eine bestimmte RAT unterstützt; ob ein (RAN)-Knoten 131 LTE-WLAN-Aggregation (LWA) und/oder LTE/WLAN Radio Level Integration with IPsec Tunnel (LWIP) unterstützt, usw.), Abonnementinformationen eines bestimmten Rechenknotens oder Benutzers usw.); Energiebudget (z. B. Batterieleistungsbudget); und/oder andere ähnliche Fähigkeiten. Zusätzlich zur Verwendung zum Abladen von Berechnungen können die Rechenknotenfähigkeiten der UEs 111, 121, der NANs 131 und/oder der Edge-Rechenknoten 136 als Parameter zum Auswählen eines vorhergesagten Zielorts für ein kontextbewusstes HO, wie hierin erörtert, verwendet werden.
  • Wie durch 1 gezeigt, ist jeder der NANs 131a, 131b und 131c ortsgleich mit den Edge-Rechenknoten (oder „Edge-Servern“) 136a, 136b bzw. 136c angeordnet. Diese Implementierungen können Kleinzellen-Clouds (SCCs) sein, bei denen ein Edge-Rechenknoten 136 ortsgleich mit einer Kleinzelle (z. B. Pikozelle, Femtozelle usw.) angeordnet ist, oder sie können mobile Mikro-Clouds sein, bei denen ein Edge-Rechenknoten 136 ortsgleich mit einer Makrozelle (z. B. eNB, gNB usw.) angeordnet ist. Der Edge-Rechenknoten 136 kann in einer Vielzahl von anderen Anordnungen als der in 1 gezeigten bereitgestellt werden. In einem ersten Beispiel sind mehrere NANs 131 ortsgleich mit einem Edge-Rechenknoten 136 angeordnet oder anderweitig damit kommunikativ gekoppelt. In einem zweiten Beispiel können die Edge-Server 136 ortsgleich angeordnet sein oder durch RNCs betrieben werden, was für Legacy-Netzwerkbereitstellungen, wie etwa 3G-Netzwerke, der Fall sein kann. In einem dritten Beispiel können die Edge-Server 136 an Zellaggregationsstandorten oder an Multi-RAT-Aggregationspunkten bereitgestellt werden, die sich entweder innerhalb eines Unternehmens befinden oder in öffentlichen Abdeckungsbereichen verwendet werden können. In einem vierten Beispiel können die Edge-Server 136 am Rand des CN 142 bereitgestellt werden. Diese Implementierungen können in Follow-Me-Clouds (FMC) verwendet werden, wobei Cloud-Dienste, die an verteilten Datenzentren ausgeführt werden, den UEs 121 folgen, während sie durch das Netzwerk roamen.
  • Bei jeder der oben genannten Ausführungsformen und/oder Implementierungen stellen die Edge-Rechenknoten 136 eine verteilte Rechenumgebung für Anwendungs- und Diensthosting bereit und stellen auch Speicher- und Verarbeitungsressourcen bereit, so dass Daten und/oder Inhalt in unmittelbarer Nähe zu Teilnehmern (z. B. Benutzern von UEs 121, 111) für schnellere Antwortzeiten verarbeitet werden können. Die Edge-Server 136 unterstützen unter anderem auch Mehrmandantenfähigkeits-Laufzeit- und Hosting-Umgebung(en) für Anwendungen, einschließlich virtueller Geräteanwendungen, die als verpackte Bilder einer virtuellen Maschine (VM) geliefert werden können, Middleware-Anwendungs- und -Infrastrukturdienste, Inhaltslieferdienste einschließlich Inhalts-Caching, Mobile-Big-Data-Analytik und Abladen von Berechnungen. Das Abladen von Berechnungen umfasst das Abladen rechnerischer Aufgaben, Arbeitslasten, Anwendungen und/oder Dienste von den UEs 111, 121, dem CN 142, der Cloud 144 und/oder den Server(n) 150 auf die Edge-Server 136 oder umgekehrt. Zum Beispiel kann eine Vorrichtungsanwendung oder Client-Anwendung, die in einem UE 121, 111 betrieben wird, Anwendungsaufgaben oder Arbeitslasten auf einen oder mehrere Edge-Server 136 abladen. In einem anderen Beispiel kann ein Edge-Server 136 Anwendungsaufgaben oder Arbeitslasten auf ein oder mehrere UEs 121, 111 abladen (z. B. für verteilte ML-Berechnung oder dergleichen).
  • Des Weiteren können die verschiedenen hierin erörterten Server, wie etwa die Edge-Server 136, ein oder mehrere Server, welche die Cloud 144 bilden, und/oder die Server 150 jedes Fach oder Gehäuse sein, das verschiedene Computerhardwarekomponenten umfasst. Die verschiedenen hierin erörterten Server können verschiedene Computervorrichtungen mit Rackrechenarchitekturkomponente(n), Turmrechenarchitekturkomponente(n), Bladerechenarchitekturkomponente(n) und/oder anderen ähnlichen Hardwarekomponenten in einer geeigneten Hardwarekonfiguration umfassen. Jeder der mit Bezug auf 1 gezeigten und beschriebenen (und/oder in anderen Abschnitten der vorliegenden Offenbarung gezeigten und beschriebenen) Server kann einen Cluster von Servern, eine Serverfarm, einen Cloud-Computing-Dienst (z. B. die Cloud 144) oder eine andere Gruppierung oder einen anderen Pool von Servern darstellen, die/der sich in einem oder mehreren Datenzentren und/oder an einem Rand eines Netzwerks befinden kann.
  • 2. AUSFÜHRUNGSFORMEN KONTEXTUELLEN UND/ODER SEMANTISCHEN HANDOVERS
  • HHOs sind Handoff-HOs von einem Quell-NAN 131 an einen Ziel-NAN 131, die denselben Typ von Netzwerkschnittstelle oder RAT implementiert, und VHOs sind HOs von einem Quell-NAN 131 an einen Ziel-NAN 131, die unterschiedliche Netzwerkschnittstellen oder RAT implementiert. Typischerweise werden in zellularen Netzwerktechnologien, wie etwa 3GPP-Systemen, HHOs von einem Netzwerk initiiert, was bedeutet, dass das Netzwerk eine HO-Entscheidung basierend auf einem Messbericht trifft, der durch ein UE 111, 121 bereitgestellt wird. Die HO-Entscheidung umfasst, dass ein Quellen-RAN-Knoten 131 eine Zielzelle bestimmt, an die das UE 111, 121 weitergereicht werden soll, und das HO von der Quellenzelle zur Zielzelle auslöst. Die Signalstärke vom UE 111, 121, wie durch den Messbericht angegeben und/oder wie am Quellen-RAN-Knoten wahrgenommen, wird verwendet, um die HO-Entscheidung zu treffen. HHOs in WiFi-Netzwerken finden statt, wenn sich eine Mobilstation 111, 121 von einem AP 131c entfernt, auf dem die Mobilstation 111, 121 verweilt, was bewirkt, dass eine Disassoziation stattfindet, gefolgt von einem Scan (z. B. um AP(s) zu entdecken), und dann eine Neuanbindungs- und Neuauthentifizierungsprozedur mit einem neu entdeckten AP stattfindet.
  • Für beide dieser RATs führt der HHO-Prozess eine gewisse Verzögerung und Latenz ein, die manchmal vom Benutzer der Mobilstation/UE wahrnehmbar sind. Das Ausmaß der Verzögerung/Latenz, die durch den HHO-Prozess verursacht wird, kann irgendwo zwischen wenigen Millisekunden und hunderten von Millisekunden liegen, was von diversen Faktoren abhängen könnte, wie etwa der zugrundeliegenden RAT, den Umgebungs- und/oder Funkbedingungen und dergleichen.
  • VHOs können im Vergleich zu HHOs noch mehr Verzögerung oder Latenz einführen. Das Ausmaß an Verzögerung/Latenz, die verursacht wird, kann darauf basieren, ob Interoperabilitätsmechanismen existieren. Zum Beispiel kann ein VHO von UTRAN zu E-UTRAN eine geringere Verzögerung erfahren als ein VHO zwischen 3GPP- und WiFi-Systemen, da 3GPP einige Inter-RAT-HO-Prozeduren zwischen verschiedenen 3GPP-RATs standardisiert hat. Wenn es zu VHO-Szenarien kommt, die unterschiedliche standardisierte Technologien, wie etwa 3GPP- und WiFi-Netzwerke, umfassen, wird das Durchführen eines effizienten Handovers zwischen heterogenen Netzwerken aufgrund der grundlegenden Unterschiede in den zugrundeliegenden RATs zu einer erheblichen Herausforderung. Wenn zwischen heterogenen Netzwerken gewechselt wird, ist eine umfangreiche Konfiguration auf mehreren Schichten des Netzwerkmodells erforderlich, welche die Netzwerkschicht, die Transport-, die Sitzungs- und die Anwendungsschicht umfassen, was immer zu erheblichen HO-Latenzen führt. Dies führt zu einem schlechten Benutzererlebnis und verursacht in vielen Fällen einen Verlust an Netzwerkkonnektivität. Auf einer modernen, Windows®-basierten mobilen Plattform dauert zum Beispiel ein vertikales Handover von einem WLAN zu einem Wireless Wide Area Network (WWAN) mehrere Sekunden (z. B. ungefähr 7 Sekunden).
  • Ein weiteres gemeinsames Problem sowohl bei HHOs als auch bei VHOs umfasst falsche HO-Entscheidungen. Solche nichtidealen (oder „falschen“) HO-Entscheidungen können erfolgen, wenn sich das UE/die Station zum Beispiel nahe dem Rand einer Netzwerkverfügbarkeitszone (z. B. dem Rand einer Zelle) befindet. Dies kann zu wiederholten Back-to-Back-Handovers (auch als „Pingpong“ bezeichnet) von einem Netzwerk zu einem anderen führen und ist innerhalb eines kurzen Zeitraums ein gemeinsames Problem auf vielen Mobilsystemen.
  • Ein existierender Mechanismus zum Treffen von HO-Entscheidungen umfasst erzwungene HOs, statische HOs und prädiktive HOs. Ein erzwungenes HO ist ein HO, dessen Stattfinden zu einem „geplanten“ Zeitpunkt erzwungen wird, wobei statt einem Schätzen oder Vorhersagen der Zeit zum Durchführen eines HO das HO zu einer vorbestimmten Zeit erzwungen wird. Erzwungene HOs können zum Beispiel aufgrund einer Disassoziation von einem AP oder einer BS stattfinden, wenn ein Stations-/UE-Benutzer manuell zu einem anderen WiFi- oder zellularen Netzwerk wechselt, wenn ein Stations-/UE-Benutzer manuell eine RAT-Schnittstelle ausschaltet und die Station/das UE zwingt, unter Verwendung einer anderen Schnittstelle nach einem NAN 131 zu scannen (der Benutzer z. B. eine zellulare Schnittstelle ausschaltet und die Station/das UE zwingt, nach einem WiFi-AP zu scannen). Erzwungene HOs haben eine erhebliche Auswirkung auf die Latenz und könnten zu einem vollständigen Verlust der Konnektivität für längere Zeit führen. Die Auswirkung ist insbesondere dann von Bedeutung, wenn eine Netzwerkschnittstellenkarte (NIC)/RAT-Schaltungsanordnung durch Laden von Firmware und/oder Versetzen von Softwarestapeln aus dem inaktiven oder dem Ruhezustand in einen Funktionszustand neu initialisiert werden muss. Betriebssysteme versuchen, diese Auswirkung zu minimieren, indem sie mehrere RAT-Schaltungsanordnungen/NICs aktiv halten und auf eine zurückfallen, wenn sich die andere trennt. Dies führt jedoch zu einem erhöhten Leistungsverbrauch aufgrund dessen, dass zwei NICs gleichzeitig aktiv sind. Viele Mobilsysteme halten zellulare und WiFi-Schnittstellenschaltungsanordnungen gleichzeitig aktiv, obwohl nur eine Schnittstelle aktiv verwendet wird. Dadurch wird eine Rückfallmöglichkeit bei erzwungenen Handovers gewährleistet, beispielsweise Rückfallen auf zellular bei Trennung von WiFi. Dieses Design ist ineffizient und vergeudet Leistung.
  • HO auf der Basis einer statischen Schwelle ist eine herkömmliche HO-Strategie, die einen vordefinierten Satz von statischen Schwellen, wie etwa Signalstärke- und/oder - qualitätsmessungen, Leistungspegel, Netzwerkbandbreite, Jitter, Interferenzmessungen usw., als Indikator der Verbindungsqualität verwendet. Die HO-Entscheidung basiert auf der wahrgenommenen Verbindungsqualität, die in einem bestimmten festen Intervall oder in Reaktion darauf, dass Messdaten unter die Schwelle(n) fallen, erneut bewertet wird. Forschungsarbeiten in diesem Bereich haben gezeigt, dass es vorteilhaft sein kann, eine Kombination von statischen Schwellen, wie etwa Signalstärkemessungen, Netzwerkbandbreitenmessungen usw., zu verwenden, um die Verbindungsqualität genauer zu bestimmen. Andere empfehlen die Anwendung einer mathematischen Funktion wie gewichteter Mittelwert oder Hysteresereserve für HHOs und VHOs. Unabhängig davon, wie effektiv diese Schemata beim Bestimmen sind, wann sich die Verbindungsqualität verschlechtert, werden sie durch die Tatsache, dass sie reaktiver Natur sind, handlungsunfähig. Das heißt, bis zu der Zeit, zu der eine HO-Entscheidung getroffen wird, könnte die Verbindung zum NAN 131 verloren gegangen sein oder sich erheblich verschlechtern haben (z. B. wenn sich die Station/das UE 111, 121 schneller als eine durchschnittliche Schrittgeschwindigkeit bewegt). Infolgedessen können HO-Schemata auf der Basis von statischen Schwellen keine ununterbrochene Konnektivität oder Dienstqualität (QoS) während des HO-Prozesses garantieren.
  • Vorhersagebasierte HOs verwenden eine Kombination von Kanalparametern wie etwa Signalstärke/-qualität, Latenz, Bitrate und andere ähnliche Messungen, um die nächstgelegenen NANs mit der besten QoS vorherzusagen. Es gibt mehrere vorhersagebasierte Schemata, die über die Jahre erforscht wurden. Alle vorhersagebasierten HO-Schemata verwenden eine gewisse Kombination von Kanalparametern, um die QoS nahegelegener NANs vorherzusagen. Dies hat den inhärenten Nachteil, dass die Vorhersage nicht funktioniert, wenn der NAN 131 unentdeckt oder unbekannt ist. Wenn sich zum Beispiel eine Station/ein UE zwischen zwei Gebäuden bewegt, wird ein NAN 131 im neuen Gebäude nicht entdeckt, sofern kein Scan ausgelöst wird, und das Vorhersageschema berücksichtigt dieses neue Drahtlosnetzwerk nicht.
  • 2 veranschaulicht eine beispielhafte Anordnung 200 gemäß verschiedenen Ausführungsformen. Die beispielhafte Anordnung 200 kann in einem Computersystem 201 implementiert sein, das gleich oder ähnlich sein kann wie Edge-Endpunkte 110, Zwischenknoten 120 und/oder die NANs 131, die im Folgenden mit Bezug auf 1 erörtert werden, die Edge-Rechenknoten 850, der im Folgenden mit Bezug auf 8 erörtert werden, und/oder jedes andere beliebige Computersystem/jede andere beliebige Rechenvorrichtung, die hierin erörtert werden.
  • Das Computersystem 201 weist einen oder mehrere Sensoren 272, eine Hardwareplattform 250 und eine Systemsoftware 240 auf. Der eine oder die mehreren Sensoren 272 sind unten ausführlicher erörtert und können gleich oder ähnlich wie die Sensoren 872 von 8 sein. Die Hardwareplattform 250 umfasst eine oder mehrere RAT-Schnittstellen (z. B. RAT1 bis RATN, die durch 2 dargestellt sind, wobei N eine Zahl ist) sowie verschiedene andere Hardwareelemente, wie etwa jene, die im Folgenden mit Bezug auf 8 erörtert werden. Die Systemsoftware 240 umfasst das Betriebssystem (OS) des Systems 201, eine Sitzungs- /Anwendungs(App)-Schichtentität und verschiedene Treiber oder Anwendungsprogrammierungsschnittstellen (APIs) zum Zugreifen auf einzelne Hardwarekomponenten der Hardwareplattform 250 und Sensordaten, die durch den einen oder die mehreren Sensoren 272 erfasst/erzeugt werden.
  • Die Sitzungs-/App-Schichtentität kann kontextbewusstes HO auslösen oder initiieren, was ein Initialisieren einzelner RAT-Schnittstellen in der Hardwareplattform 250 umfassen kann. Die Sitzungs-/App-Schichtentität kann eine Sitzungsschichtentität (z. B. Schicht 5 des OSI(Open Systems Interconnect)-Modells) und/oder eine Anwendungsschichtentität (z. B. Schicht 7 des OSI-Modells) umfassen. Die Sitzungsschicht ist für das Einrichten, Aufrechterhalten und Beenden von Kommunikationssitzungen zwischen Anwendungen und/oder Vorrichtungen verantwortlich. Die Kommunikationssitzungen umfassen Senden und Empfangen von Dienstanfragen und - antworten unter Verwendung eines geeigneten Sitzungsschichtprotokolls, wie etwa des OSI-Sitzungsschichtprotokolls (X.225, ISO 8327), des Sitzungssteuerungsprotokolls (SCP), des Remoteprozeduraufruf (RPC)-Protokolls, des Zoneninformationsprotokolls (ZIP), des Echtzeit-Transportsteuerungsprotokolls (RTCP), des Short Message Peer-to-Peer (SMPP) und/oder dergleichen. Die App-Schicht, auf der Benutzer und Anwendungsprozesse auf Netzwerkdienste zugreifen. Die Anwendungsschicht ist dafür verantwortlich, unter Verwendung eines geeigneten Anwendungsschichtprotokolls, wie etwa unter anderem Telnet, Domain Name System (DNS), Simple Mail Transfer Protocol (SMTP), Hypertext Transfer Protocol (HTTP), direkt mit Softwareapps zu interagieren und Daten zwischen Clients und Servern zu übertragen, Ressourcenverfügbarkeit zu bestimmen, Kommunikation zu synchronisieren und dergleichen. Bei verschiedenen Ausführungsformen kann eine Entität in der Sitzungsschicht oder der Anwendungsschicht das kontextbewusste HO in Reaktion auf ein Detektieren eines HO-Auslöseereignisses durch Zugreifen auf eine RAT-Schnittstelle eines ausgewählten Zielnetzwerks/-NANs unter Verwendung eines Treibers oder einer API für diese RAT-Schnittstelle auslösen.
  • Die beispielhafte Anordnung 200 umfasst ein Kontextinferenzmodell (CIM) 230, das Sensordaten von dem einen oder den mehreren Sensoren 272 verwendet, um Kontextinformationen des Computersystems 201 zu bestimmen. Das CIM 230 kann die Sensordaten von den Sensoren 272 über die Hardwareplattform 250 unter Verwendung der Treiber/APIs des Systems 240 erhalten. Das CIM 230 verwendet die Sensordaten, um eine physische Standortvorhersage (PLP), eine semantische Ortsvorhersage (SLP) und eine Kontextvorhersage (CP) zu bestimmen/zu erzeugen, die unten mit Bezug auf 3 ausführlicher beschrieben werden. Das CIM 230 sagt auch einen nächsten Zielort des Computersystems 201 unter Verwendung einer Kombination von Sensordaten, die durch die Sensoren 272 gesammelt werden, und den gesammelten/kompilierten Kontextinformationen voraus.
  • Beispielsweise kann das CIM 230 Orts-/Positionssensoren verwenden, um eine aktuelle physische Position und/oder einen aktuellen physischen Standort des Computersystems 201 zu bestimmen. Die Orts-/Positionssensoren können Positionsbestimmungsschaltungen (z. B. die Positionsbestimmungsschaltungen 845 von 8) sowie verschiedene Sensoren 272 umfassen, die für ein Innenraum-Positionsbestimmungssystem (IPS) verwendet werden können, wie etwa zum Beispiel eine Hochfrequenz(HF)-Schaltungsanordnung für WLAN (z. B. WiFi), eine Bluetooth-HF-Schaltungsanordnung, eine LiFi-Schaltungsanordnung (z. B. lichtbasierte Drahtloskommunikationsschaltungen) oder eine andere Schaltungsanordnung für persönliche Netzwerke zum Bestimmen von Abstandsmessungen zu nahegelegenen Ankerknoten (z. B. Bluetooth-Baken, WiFi-Baken oder -Router, LiFi-Baken oder -Router, Ultrabreitband-Baken usw.) mit bekannten festen Positionen. Für das IPS kann auch eine magnetische Positionsbestimmung unter Verwendung von Magnetometern und/oder Koppelnavigationstechnik verwendet werden. In einigen Ausführungsformen können Inertialmessungen unter Verwendung der Aktivitätssensoren zur Orts-/Positionsbestimmung verwendet werden. In einigen Ausführungsformen kann Positionsbestimmung, die auf visuellen Markierungen oder bekannten visuellen Merkmalen basiert, basierend auf Vision-Sensordaten von den Vision-Sensoren verwendet werden. Zusätzlich oder alternativ dazu können akustische Positionsbestimmungstechniken basierend auf Audiodaten verwendet werden, die von den Audiosensoren erhalten werden. In verschiedenen Ausführungsformen kann das CIM 230 Eingaben von Audiosensoren, Vision-Sensoren und Aktivitätssensoren (z. B. Bewegungs- und/oder Beschleunigungsanalyse basierend auf Sensordaten von Beschleunigungsmessern, Gyroskopen usw.) verwenden, um zusätzliche Kontextinformationen (z. B. wie sicher der aktuelle Ort ist, Bewegungsgeschwindigkeit/Fahrgeschwindigkeit und/oder dergleichen) zu bestimmen. Die Sensoren 272 können gleich oder ähnlich wie die im Folgenden erörterten Sensoren 822 von 8 sein.
  • Der Netzwerkentdeckungsdienst (NDS) 220 fragt ein digitales Repositorium nach Netzwerkinformationen verfügbarer drahtloser Netzwerke (siehe z. B. Repositorien 403 von 4) basierend auf den Koordinaten des Zielorts ab, um Netzwerke in und/oder um den Zielort herum, die Abdeckungsbereiche (oder effektiven Abdeckungsbereiche) der bestimmten Netzwerke und/oder andere Parameter in Bezug auf QoS/Erfahrungsqualität (QoE) zu bestimmen. In einigen Ausführungsformen kann der NDS 220 einige Netzwerkinformationen, wie etwa Messdaten, Konfigurationen usw., von Basisbandschaltungen des Computersystems 201 oder von NANs 131 über die Basisbandschaltungen des Computersystems 201 erhalten. In einigen Ausführungsformen können die Netzwerkinformationen über die verfügbaren Netzwerke im Computersystem 201 unter Verwendung eines geeigneten Zwischenspeicherungssystems lokal zwischengespeichert werden. Die Netzwerkinformationen werden dann mit (oder als Teil von) den Kontextinformationen, die durch das CIM 230 bereitgestellt werden, für das auf Verstärkungslernen basierende Empfehlungsmodell (RLRM) 210 bereitgestellt.
  • Das RLRM 210 nimmt die Kontextinformationen (vom CIM 230) und die Netzwerkinformationen (vom NDS 220) und trifft eine Entscheidung darüber, mit welchem HO-Ziel 209 (z. B. Netzwerktyp, RAT-Typ, spezifischem NAN 131 usw.), das die beste oder optimale QoS und/oder QoE angesichts des vorhergesagten Zielorts aufweist, eine Verbindung hergestellt werden soll. Verstärkungslernen (RL) ist ein Paradigma maschinellen Lernens (ML), das sich damit befasst, wie Software-Agenten (oder AI-Agenten) Aktionen in einer Umgebung vornehmen sollten, um ein numerisches Belohnungssignal zu maximieren. Im Allgemeinen umfasst RL, dass ein Agent Aktionen in einer Umgebung durchführt, die in eine Belohnung und eine Darstellung eines Zustands übersetzt werden, die dann an den Agenten rückgemeldet werden.
  • Bei Ausführungsformen kann das RLRM 210 unter Verwendung von zwei RL-Objekten modelliert werden: einer Umgebung und einem Agenten. Der Agent ist der Lerner und Entscheider im RLRM 210. Die Umgebung umfasst alles außerhalb des Agenten, womit der Agent interagiert. Agent und Umgebung interagieren ständig miteinander, wobei der Agent durchzuführende Aktionen auswählt und die Umgebung auf diese Aktionen antwortet und dem Agenten neue Situationen (oder Zustände) präsentiert. Die Umgebung lässt auch Belohnungen entstehen, die numerische Werte sind, die der Agent durch seine Wahl von Aktionen im Laufe der Zeit zu maximieren sucht. Wie weiter unten ausführlicher erörtert wird, kann das Computersystem 201 zum Zwecke der vorliegenden Offenbarung als die Umgebung betrachtet werden.
  • In einigen Implementierungen kann das RLRM 210 als ein Markov-Entscheidungsprozess (MDP) (z. B. ein zeitdiskreter stochastischer Steuerungsprozess) modelliert werden, der einen Satz von Umgebungs- und Agentenzuständen, S; einen Satz von Aktionen, A, des Agenten; eine Wahrscheinlichkeit eines Übergangs (zum Zeitpunkt t) von einem Zustand s in einen Zustand s' gemäß einer Aktion α, die ausgedrückt werden kann als Pα (s, s') = Pr(st+1 = s'| st = s, αt); die unmittelbare Belohnung nach dem Übergang vom Zustand s in den Zustand s' bei der Aktiona, die ausgedrückt werden kann als Ra(s, s'); und Regeln (oder Richtlinien) umfasst, die beschreiben, was der Agent beachten soll.
  • In einigen Implementierungen kann das RLRM 210 ein Umgebungsmodell sein oder umfassen. Das Umgebungsmodell ist eine Datenstruktur, die das Verhalten einer Umgebung nachahmt, was Rückschlüsse darauf zulässt, wie sich die Umgebung verhalten wird. In einem gegebenen Zustand und einer gegebenen Aktion könnte das Modell zum Beispiel einen resultierenden nächsten Zustand und eine nächste Belohnung vorhersagen. Modelle werden zur Planung verwendet, die es dem RLRM 210 ermöglicht, eine Handlungsweise unter Berücksichtigung möglicher zukünftiger Situationen zu bestimmen, bevor sie tatsächlich erfahren werden. Verfahren zur Lösung von Verstärkungslern(RL)-Problemen, die Modelle und Planung verwenden, werden modellbasierte Verfahren genannt, im Gegensatz zu einfacheren modellfreien Verfahren, die explizit Trial- und-Error-Lerner sind. Verschiedene Aspekte des RLRM 210 werden in Sutton et al., „Reinforcement Learning: An Introduction“, 2. Ausgabe, The MIT Press, Cambridge MA (19. Okt. 2018) erörtert.
  • Ein Richtlinienmanager 205 trifft schließlich die Entscheidung, ein angemessenes HO-Ziel 209 (z. B. einen spezifischen Netzwerktyp, RAT-Typ, Träger (falls anwendbar), spezifischen Ziel-NAN 131 usw.) basierend auf den Empfehlungsergebnissen vom RLRM 210 und einer Richtlinie auszuwählen. Im Kontext des Verstärkungslernens (RL) definiert eine Richtlinie die Verhaltensweise eines RL-Agenten zu einer gegebenen Zeit. Allgemein ist eine Richtlinie eine Abbildung von wahrgenommenen Zuständen einer Umgebung auf Aktionen, die durchzuführen sind, wenn sich das System 201 in diesen Zuständen befindet. In einigen Implementierungen kann die Richtlinie eine Funktion oder eine Nachschlagetabelle sein oder einen umfangreichen Suchprozess umfassen. Die Entscheidung, die durch den Richtlinienmanager 205 getroffen wird, wird dann als Rückmeldung 207 für das RLRM 210 bereitgestellt, um die Vorhersagegenauigkeit für zukünftige Empfehlungen zu verbessern und das RLRM 210 auf das spezifische Verhalten und/oder Bewegungsmuster des Benutzers zuzuschneiden. Im Jargon von RL kann die Rückmeldung 207 ein Typ von Belohnungswert sein, der das Verhalten des RLRM 210 positiv oder negativ beeinflusst.
  • In einigen Ausführungsformen kann der Richtlinienmanager 205 eine Bewertung zu den verschiedenen Optionen (z. B. Kandidatennetzwerke) basierend auf verschiedenen Faktoren (z. B. festgelegte oder vom Benutzer ausgewählte Priorität, verfügbare/verbleibende Batterie auf dem Computersystem 201, Sicherheitsmerkmale jedes Kandidatennetzwerks, Größe und/oder Art von Datenübertragungen, die während der Sitzung stattfinden oder wenn das HO stattfinden soll, Verkehrs-QoS-Klassifizierung, wie durch den Differenzierte-Dienste-Codepunkt (DSCP) im Feld differenzierte Dienste (DS) im IP-Header von IP-Paketen, Abonnementdaten usw.) hinzufügen, bevor eine endgültige Entscheidung getroffen wird, ob ein HHO oder VHO durchgeführt werden soll oder nicht. In einigen Implementierungen kann der Richtlinienmanager 205 innerhalb des Betriebssystems (OS) des Computersystems 201 ausgeführt werden.
  • Der Richtlinienmanager 205 kann auch das ausgewählte HO-Ziel 209 (z. B. Zielnetzwerk, Ziel-RAT oder Ziel-NAN 131) für die Systemsoftware 240 zum Auslösen oder Initiieren des HO zum ausgewählten HO-Ziel 209 bereitstellen. In einem Beispiel wird das ausgewählte HO-Ziel 209 für das OS oder die Sitzungs-/App-Entität in Form einer Konfiguration bereitgestellt, und das OS oder die Sitzungs-/App-Entität löst das HO von einer HO-Quelle (z. B. Quellnetzwerk, Quell-NAN usw.) zum ausgewählten HO-Ziel 209 in Reaktion auf das Detektieren verschiedener HO-Kriterien oder Auslösebedingungen aus. Wenn die HO-Kriterien oder -Auslösebedingungen detektiert werden, kann das OS oder die Sitzungs-/App-Entität die RAT-Schnittstelle initialisieren oder einschalten.
  • In einem Beispiel können die HO-Kriterien oder -Auslösebedingungen ein Detektieren, dass das System 201 an oder nahe dem vorhergesagten Zielort ankommt, oder Detektieren, dass sich das System 201 dem vorhergesagten Ort nähert (z. B. sich zu diesem begibt), umfassen. In diesem Beispiel kann das OS oder die Sitzungs-/App-Entität Sensordaten von einem oder mehreren Sensoren 272 verwenden, um die Annäherung oder Ankunft an oder nahe dem vorhergesagten Zielort zu detektieren, und diese Sensordaten können unter Verwendung eines geeigneten Treibers oder einer geeigneten API erhalten werden. In einem anderen Beispiel können die HO-Kriterien oder -Auslösebedingungen ein Detektieren einer Signalstärke des Ziel-NAN 131 umfassen, die eine Schwelle erfüllt oder überschreitet. In einigen Ausführungsformen kann diese Signalstärkeschwelle kleiner als die Schwellen sein, die zum Beispiel durch ein zellulares Netzwerk konfiguriert sind, so dass das HO früher initiiert werden kann, als dies normalerweise der Fall wäre. Bei diesem Beispiel kann das OS oder die Sitzungs-/App-Entität einen geeigneten Treiber oder eine geeignete API verwenden, um auf Messdaten von Zellular-RAT-Schaltungen zuzugreifen. Andere HO-Kriterien und/oder -Auslösebedingungen können bei anderen Ausführungsformen verwendet werden. Zum Beispiel können die HO-Kriterien und/oder - Auslösebedingungen einen semantischen Ort, ein System oder eine Kombination aus semantischem Ort und Systemkontext umfassen.
  • In einigen Ausführungsformen verleiht der Richtlinienmanager 205 dem OS oder dem Benutzer die Fähigkeit, ein Zielnetzwerk, eine Ziel-RAT und/oder einen Ziel-NAN 131 auszuwählen. In einem Beispiel stellt der Richtlinienmanager 205 das ausgewählte HO-Ziel 209 für das OS oder die Sitzungs-/App-Entität bereit, das/die eine Benachrichtigung anzeigt, die das ausgewählte HO-Ziel 209 angibt. Ein Benutzer des Systems 201 kann unter Verwendung von Benutzerschnittstellenelementen angeben, ob das ausgewählte HO-Ziel 209 oder ein anderes Ziel verwendet werden soll. Diese Auswahl kann als Ziel für die zuvor genannten HO-Kriterien und/oder -Auslösebedingungen verwendet werden. Zusätzlich dazu kann die Auswahl für das RLRM 210 als Rückmeldung 207 für zukünftige Vorhersagen bereitgestellt werden. Dadurch können OS- oder Benutzerpräferenzen für die Zielauswahl berücksichtigt werden. Falls zum Beispiel die Batterie des Computersystems 201 zur Neige geht, dann kann der Benutzer oder eine OS-Konfiguration/-Richtlinie angeben, um eine Verbindung mit einem zellularen Netzwerk zu vermeiden, weil die Zellularfunkschaltungsanordnung mehr Leistung verbrauchen können, als zum Beispiel eine WLAN-RAT-Schaltungsanordnung verwenden. Falls in diesem Beispiel die Zellularfunkschaltungsanordnung ausgeschaltet ist, dann kann das OS oder der Benutzer die bereitgestellte Empfehlung außer Kraft setzen und stattdessen ein WiFi-Netzwerk auswählen. In einem anderen Beispiel kann der Richtlinienmanager 205 das Wechseln zu einem zellularen Netzwerk empfehlen, weil das zellulare Netzwerk eine beste QoS für einen vorhergesagten Standort zu einer bestimmten Zeit aufweist, aber der Benutzer des Computersystems 201 kann das Verwenden eines WLAN-Netzwerks mit einer niedrigeren QoS bevorzugen, um das Erreichen einer Datenobergrenze seines Zellularnetzwerk-Abonnementplans zu vermeiden. In diesen Beispielen kann die Benutzer- oder OS-Auswahl als die Rückmeldung 207 (oder ein Teil der Rückmeldung 207) für das RLRM 210 bereitgestellt werden.
  • Die Implementierung der Ausführungsformen hierin kann zwischen dem OS, der Plattform und der Vorrichtungsfirmware aufgeteilt sein. Bei diesen Implementierungen muss die Plattform- und OS-Dokumentation in Abhängigkeit von der spezifischen Plattform und/oder Konfiguration möglicherweise Beschreibungen der Kontextbewusstseinsfähigkeiten umfassen.
  • 3 veranschaulicht beispielhafte Komponenten eines CIM 300 gemäß verschiedenen Ausführungsformen. Das CIM 300 kann gleich oder ähnlich wie das CIM 230 von 2 sein. Zusätzlich zum Vorhersagen des physischen Zielorts sammelt das CIM 300 so viele Informationen, wie notwendig sind, um kontextbewusst zu sein, wenn sich das Computersystem 201 von einem Ort zu einem anderen bewegt, und/oder basierend auf anderen Aspekten des Computersystems 201. In beliebigen der hierin erörterten Ausführungsformen kann das CIM 300 Lösungen und Algorithmen des Industriestandards für Standortdetektion 311, Bewegungsdetektion 312, Systemüberwachung 320, Bildverstehen 321 und Erfassung der Verarbeitung von Benutzersprache (ULP - User-Language Processing) 322 nutzen. Das CIM 300 kann bei anderen Ausführungsformen zusätzliche oder alternative Erfassungsmechanismen verwenden.
  • In Ausführungsformen erzeugt das CIM 300 eine semantische Ortsvorhersage (SLP) 305 basierend auf einer physischen Standortsvorhersage (PLP) 301 und einer Kontextvorhersage (CP) 302. Die PLP 301 basiert auf Standortdetektion 311 und/oder Bewegungsdetektion 312, und die CP 302 basiert auf Systemüberwachung 320, Vision-Erfassung 321 und/oder ULP 322.
  • Die PLP 301 umfasst das Vorhersagen eines Standorts des Computersystems 201 zu einem nächsten Zeitpunkt oder zu irgendeinem Zeitpunkt in der Zukunft. Die PLP 301 kann Daten der Standortdetektion 311 und/oder Daten der Bewegungsdetektion 312 verwenden, um einen zukünftigen Standort des Computersystems 201 vorherzusagen. Zum Beispiel können ein Hidden-Markov-Modell (HMM), Trajektorien-Datenmining, Continuous-Time-Series-Markov-Modell (CTS-MM), k-nächster Nachbar, Bayes'sche statistische Analyse, Kalman-Filterung und/oder andere ähnliche Techniken für die PLP 301 verwendet werden.
  • Die Standortsdetektion 311 bezieht sich auf das Detektieren eines physischen Standorts des Computersystems 201 (z. B. Geolokationskoordinaten, Adresse oder dergleichen). Die Standortsdetektion 311 kann zum Beispiel Orts-/Positionsbestimmungsdaten von einer oder mehreren RAT-Schaltungsanordnungen 315, Positionsbestimmungsschaltungen (POS) 345 (z. B. GNSS-CHIP oder dergleichen) und/oder einem IPS (nicht gezeigt) verwenden. Als Beispiele können die eine oder die mehreren RAT-Schaltungsanordnungen 315 WiFi-Sendeempfängerschaltungen, PAN (Personal Area Network)-Sendeempfänger-Schaltungen, Zellularbasisbandschaltungen, verschiedene HF-Chips und/oder dergleichen umfassen. Die eine oder die mehreren RAT-Schaltungsanordnungen 315 können gleich oder ähnlich wie der Sendeempfänger 866 von 8 sein, und das POS 345 kann gleich oder ähnlich wie die Positionsbestimmungsschaltungsanordnung 845 von 8 sein. In einem Beispiel kann die Standortsdetektion 311 Orts-/Positionsbestimmungsdaten von einem zellularen Netzwerk über die Zellularbasisbandschaltungen verwenden, wobei die Orts-/Positionsbestimmungsdaten auf dem LTE-Positionsbestimmungsprotokoll (LPP) basieren, wie in 3 GPP TS 36.355 v16.0.0 (2020-07-24) erörtert. In einem anderen Beispiel können GNSS-Koordinaten vom POS 345 erhalten werden. Zusätzlich oder alternativ können andere Positionsbestimmungstechniken, wie etwa Trilateration, Triangulation, Koppelnavigation, zur Standortsdetektion 311 verwendet werden.
  • Die Bewegungsdetektion 312 bezieht sich auf das Detektieren einer Mobilität (z. B. Fahrtrichtung und/oder Fahrgeschwindigkeit) des Computersystems 201. Die Bewegungsdetektion 312 detektiert Bewegung/Aktivität des Computersystems 201 unter Verwendung von Sensordaten von einem oder mehreren Aktivitäts- und/oder Bewegungssensoren 372. Als Beispiele können die Aktivitätssensoren 372 Beschleunigungsmesser, Gyroskope, Magnetometer, Barometer, Näherungssensoren (z. B. optische, magnetische, sonarbasierte, Ultraschall usw.) und/oder andere ähnliche Bewegungs- und/oder Aktivitätssensoren umfassen. Der eine oder die mehreren Aktivitäts-/Bewegungssensoren 372 können gleich oder ähnlich wie die Sensoren 872 von 8 sein. Zusätzlich können verschiedene Modelle wie beispielsweise dynamische Zeitnormierung (DTF - Dynamic Time Warping), Hauptkomponentenanalyse (PCA - Principal Component Analysis), kumulative Verteilungsfunktion (CDF - Cumulative Distribution Function), kumulative Summe (CUSUM - Cumulative Sum), und/oder Markov-Modelle, wie etwa HMMs, verwendet werden, um die Bewegung/Aktivität des Computersystems 201 für die Bewegungs-/Aktivitätsdetektion 312 basierend auf den Sensordaten zu bestimmen, die von dem einen oder den mehreren Aktivitäts-/Bewegungssensoren 372 erhalten werden.
  • Die CP 302 sagt einen Systemkontext des Computersystems 201 basierend auf einem aktuellen Systemkontext voraus. Der Systemkontext des Computersystems 201 (auch als „Kontextinformationen“ oder einfach „Kontext“ bezeichnet) kann eine beliebige Art von Informationen darüber sein, wie das Computersystem 201 arbeitet und/oder unter welchen Bedingungen das Computersystem 201 arbeitet. Der Systemkontext kann einen Systemzustand des Computersystems 201, eine physische Umgebung des Computersystems 201 und/oder eine Netzwerkumgebung des Computersystems 201 umfassen oder angeben. Bei verschiedenen Ausführungsformen kann der Kontext andere Informationen, sowohl außerhalb als auch innerhalb des Computersystems 201, Daten und/oder Schlussfolgerungen umfassen, die aus diesen Informationen und Daten gezogen werden können.
  • Die Systemzustandsinformationen können Daten über den Betrieb des Computersystems 201 umfassen oder angeben, wie etwa zum Beispiel Hardwareleistungsmetriken, wie etwa Leistungsverbrauch, Prozessorleistung, Arbeitsspeicher- und/oder Datenspeichernutzung und/oder freier Speicherplatz, Komponentenlast, Batteriezustand, wie etwa verfügbare Leistung, und/oder thermische Daten; OS- und/oder Anwendungsparameter und -anforderungen, wie etwa Rechenbedarf, Eingabe-/Ausgabecharakteristiken und Volumen ausgetauschter Daten (Upload oder Download); Überlastbedingungen, die das Computersystem 201 erfährt; und/oder dergleichen.
  • Die Informationen über die physische Umgebung können Daten über eine Umgebung, die das Computersystem 201 umgibt, wie etwa zum Beispiel aktuelle (Außen-)Temperatur, Luftfeuchte, Feuchtigkeit, Höhe, Umgebungslicht, Umgebungsgeräusch/Lautstärke, Informationen/Daten in Bezug auf geografische Objekte (z. B. Berge) und/oder von Menschen erzeugte Objekte (z. B. Gebäude, Autobahnen usw.), Wetterdaten für einen gegebenen Ort und/oder andere ähnliche Umgebungsmessungen umfassen oder angeben.
  • Die Netzwerkumgebungsinformationen können Daten über ein Netzwerk umfassen oder angeben, mit dem das Computersystem 201 verbunden ist oder mit dem es eine Verbindung herstellen kann. Diese Informationen können zum Beispiel Funk- und/oder Kanalzustandsbedingungen (z. B. Qualität der Verbindungen 103 und/oder 105 von 1); Netzwerkverbindungsmetriken; Datenübertragungsraten; Netzwerk- und/oder Sitzungsparameter (z. B. Netzwerk-ID/-Adressen, Sitzungs-ID, Portnummern usw.); Datenmenge, die über ein Netzwerk empfangen wird; Sicherheitsaspekte eines gegenwärtig angeschlossenen Netzwerks; und/oder dergleichen umfassen.
  • In einigen Ausführungsformen können die Kontexte auf einer Vorausschätzung eines Betriebszustands des Computersystems 201 basieren, die auf zuvor angegebenen Kontexten basieren kann. Dies kann zum Beispiel ein Evaluieren sowohl von Rechen- als auch Kommunikationsressourcen, die für unterschiedliche Datenübertragungen benötigt werden, Schwellenkriterien oder ein gewünschtes Zuverlässigkeitsniveaus, eine Menge oder Art von Rechenknotenfähigkeiten (z. B. eine bestimmte Prozessorgeschwindigkeit, Arbeitsspeicher- /Datenspeicherkapazität, RAT-Schaltungsanordnungen, die durch das Computersystem 201 implementiert sind, usw.), eine Art von Betriebsbedingungen, unter denen das Computersystem 201 arbeitet (z. B. Funkbedingungen und/oder Verbindungsqualität, Umgebungsbedingungen (z. B. Temperatur, Feuchtigkeit, Höhe usw.), Komponententemperatur usw.) und/oder dergleichen umfassen.
  • Die Systemüberwachung 320 überwacht Systemressourcen und die Leistungsfähigkeit des Computersystems 201 und sammelt Informationen über die Hardware- und Softwaresubsysteme, die durch das Computersystem 201 implementiert werden. In einigen Ausführungsformen überwacht und kompiliert die Systemüberwachung 320 Daten von Plattform-/Systemsensoren 371, die zum Beispiel Temperatursensoren einer oder mehrerer interner Komponenten (z. B. digitale Prozessorwärmesensoren (DTS - Prozessor Digital Thermal Sensors), Systemspeicherwärmesensor auf einem Die (TSOD), Thermoelement, Widerstandstemperaturdetektor (RTD), Thermistoren, Bipolartransistor (BJT), usw.), Berührungssensoren, Beschleunigungsmesser, Gyroskope, Höhenmesser, Feuchtesensoren, Luftfeuchtigkeitssensoren, Lichtsensoren; Umgebungslichtsensoren, Drucksensoren, signalbezogene Sensoren (z. B. Infrarot (IR), Laser usw.), Vorrichtungen zur Benutzeranwesenheitsdetektion (UPD - User Presence Detection), Plattformleistungssensoren, Drucksensoren, Magnetometer, Näherungssensoren (z. B. IR-basiert), biometrische Sensoren und/oder dergleichen.
  • Die Systemüberwachung 320 kann auch Informationen über installierte Hardwarevorrichtungen, die in das Computersystem 201 eingebettet oder daran angebracht sind, Treiber, Anwendungen, Systemeinstellungen, Systemsoftwareprogramme, Softwareagenten und/oder AI-Agenten, Kernel-Erweiterungen/-Module usw., die durch das Computersystem 201 implementiert sind, überwachen und kompilieren. Die kompilierten Informationen geben aktuelle Zustandsinformationen an, darunter zum Beispiel Systemstatus; Prozessornutzung oder - auslastung; Prozessorfrequenz; Prozessortemperatur; gegenwärtig ausgeführte Prozesse oder Aufgaben; Speichernutzung, -auslastung und/oder verfügbaren Speicherplatz; SMART (Self-Monitoring, Analysis and Reporting Technology)-Indikatoren für Speicher; Systembetriebszeit; Netzwerkadressen (z. B. IP-Adressen oder dergleichen); Netzwerkverbindungen; Batterieladung; Batteriestandschwelle; Kraftstoffstand; Systemname oder -kennung(en); Benutzerkennung(en); Benutzerberechtigungen; Benutzerabonnementdaten; Datum und Uhrzeit; und/oder andere ähnliche Daten/Informationen, wie etwa die oben erwähnten Rechenknotenfähigkeiten. Die Systemüberwachung 320 kompiliert die Systeminformationen in ein geeignetes Format (z. B. Klartext, Rich Text Format (RTF), XML, JSON usw.) und exportiert die kompilierten Informationen an die CP 302.
  • Die Vision-Erfassungstechniken 321 helfen dem Computersystem 201, nützliche Informationen aus einem oder mehreren Bildern oder einer Sequenz von Bildern zu extrahieren. Der eine oder die mehreren Bildgebungssensoren 373 können gleich oder ähnlich wie die Sensoren 872 von 8 sein. Zusätzlich zum Verwenden von Bilddaten eines oder mehrerer Bildgebungssensoren 373 können die Vision-Erfassungstechniken 321 Bildverstehensmodelle umfassen, die zum Beispiel unter Verwendung von Bild-/Objekterkennung (oder Objektklassifikation), Objektverfolgung, semantischer und/oder Instanzensegmentierung, Bildrekonstruktionstechniken und/oder dergleichen erstellt werden können.
  • Auch ULP 322 (oder Verarbeitung natürlicher Sprache (NLP - Natural Language Processing) kann verwendet werden, um den Kontext des Computersystems 201 zu bestimmen. Di ULP 322 wendet Algorithmen oder Modelle auf die menschliche Sprache an, wie durch den einen oder die mehreren Audiosensoren 375 erfasst, um den Kontext des Computersystems 201 basierend auf seiner Umgebung zu identifizieren. Der eine oder die mehreren Audiosensoren 375 können Mikrofone umfassen und/oder können gleichen oder ähnlich wie die Sensoren 872 von 8 sein. Bei diesen Ausführungsformen kann die ULP 322 die Einstellung, die Situation, den Hintergrund oder die Umgebung angeben, in der sich das Computersystem 201 oder der Benutzer befindet, wie etwa zum Beispiel, wenn sich der Benutzer in einer Arbeitsumgebung im Gegensatz zu einer Heimumgebung befindet. Beispielhafte Modelle, die für ULP 322 verwendet werden, umfassen unter anderem Lemmatisierung und Stammformreduktion, Wortsegmentierung, morphologische Segmentierung, Eigennamenerkennung, Wortwolken, einschließlich der hierin erörterten.
  • Wie zuvor erwähnt, wird die SLP 305 für einen Zielort aus der PLP 301 und der CP 302 bestimmt. Die SLP 305 basiert auf „semantischen Orten“, die Orte sind, die nicht nur durch geografische Koordinaten oder Geolokation, sondern vielmehr durch den Zustand des Computersystems 201 und andere Kontextfaktoren (wie z. B. durch die CP 302 bestimmt) bestimmt oder dargestellt werden. Einige Beispiele für semantische Orte können „sicherer Standort“ versus „unsicherer Standort“, „Stau“ oder „stark frequentierter Bereich“, „Musikauditorium“, „im Fahrzeug“ umfassen, ob sich das Computersystem 201 zu Hause, in einem Büro, auf einem Flug, im Ausland usw. befindet. Diese beispielhaften semantischen Orte sind nicht mit spezifischen Geolokationen, sondern eher mit der Detektion des Computersystems 201 assoziiert, das sich von einer Geolokation weg oder zu einer anderen hin bewegt, die mit einem Platz oder Bereich assoziiert ist. Diese semantischen Orte werden zusätzlich zum vorhergesagten physischen Standort als Eingaben höheren Schichten (z. B. dem RLRM 210, dem NDS 220 und dem Richtlinienmanager 205 von 2) zugeführt.
  • 4 veranschaulicht ein beispielhaftes Netzwerkrepositoriensystem 400 gemäß verschiedenen Ausführungsformen. Das System 400 implementiert ein verteiltes Modell mit mehreren Repositorien 403-1 bis 403-y (wobei y eine Zahl ist), die Netzwerkinformationen speichern. NANs 431a, 431b und 431c können gleich oder ähnlich wie die NANs 131a, 131b bzw. 131c und/oder beliebige andere hierin erörterte Netzwerkzugangsknoten sein, und die Client-Vorrichtung 402 kann gleich oder ähnlich wie das Computersystem 201 von 2 und/oder die UEs 111, 121 sein.
  • Jedes der Repositorien 403-1 bis 403-y (zusammen als „Repositorien 403“ oder „Repositorium 403“ bezeichnet) ist ein Speicher oder eine Datenbank (oder eine Sammlung von Speichern/Datenbanken) von netzwerkbezogenen Daten mit Datenverwaltung, Such- und Zugriffstechnologien, die der Client-Vorrichtung 402 (oder dem durch die Client-Vorrichtung 402 implementierten Netzwerkentdeckungsdienst 220) ermöglichen, Netzwerkinformationen für kontextbewusstes HO zu erhalten. Die Repositorien 403 enthalten (speichern) Informationen (z. B. Metadaten und dergleichen) über verfügbare Netzwerke, ihre implementierten RATs und die Sammlung von NANs 431, die jedes Netzwerk bilden. In Ausführungsformen speichert jedes Repositorium 403 Metadaten, Semantik, Netzwerkkonnektivitäts- oder Verfügbarkeitsdaten, Netzwerk-QoS-Parameter, Signalstärke- und/oder Qualitätsmessungen, physische Standorte einzelner NANs 431, RAT-Typen, die durch einzelne NANs 431 implementiert werden, Abdeckungsbereiche individueller NANs 431, Dienstbereiche, die durch einzelne Netzwerkbetreiber/Drahtlosträger in gewissen geographischen Bereichen bereitgestellt werden, und/oder andere Informationen bezüglich Netzwerken/RATs in unterschiedlichen Regionen/Bereichen.
  • In einigen Ausführungsformen können die Repositorien 403 durch einen zentralen Cloud-Computing-Dienst (z. B. die Cloud 144 von 1) implementiert werden. Bei anderen Ausführungsformen können die Repositorien 403 durch ein Edge-Computing-Netzwerk und/oder ein geeignetes CDN implementiert werden, wobei Edge-Rechenknoten und assoziierte Speicherressourcen an oder nahe dem Rand des Netzwerks, beispielsweise ortsgleich mit jeweiligen NANs 431 angeordnet, bereitgestellt werden. Bei diesen Ausführungsformen ist der zuvor erörterte Edge-Cloud-Computing-Dienst (siehe z. B. Edge-Knoten 130 von 1). In einigen Ausführungsformen können die Repositorien 403 durch eine Zellularkernnetzwerkfunktion oder Anwendungsfunktion implementiert werden. In einigen Ausführungsformen können die Repositorien 403 durch ein Unternehmen oder ein anderes privates Netzwerk implementiert werden. Zum Beispiel kann der physische Standort einzelner WLAN-APS 431c, die zu einem Unternehmen innerhalb eines oder mehrerer Bürogebäude oder Firmengelände gehören, in einem oder mehreren der sicheren Unternehmensrepositorien 403 innerhalb des Betriebsgebäudes des Unternehmens selbst oder eines Mandanten-/Cloud-Speicherraums, der dem Unternehmen gehört oder vermietet wird, gespeichert werden. In einigen Ausführungsformen kann ein hybrider Ansatz, der sowohl zentrale Cloud-Dienste als auch Edge-Netzwerktechnologien umfasst, verwendet werden, wie etwa zum Beispiel die zuvor erörterte Fog-Implementierung. In einem anderen Beispiel könnte der hybride Ansatz einen Cloud-Dienst umfassen, der ein oder mehrere sichere Repositorien 403 für ein Unternehmen hostet, wie zuvor erörtert, und ein oder mehrere öffentliche Repositorien 403 hostet, die netzwerkbezogene Informationen für öffentlich zugängliche NANs 431 a-c enthalten. Andere Implementierungen sind bei anderen Ausführungsformen möglich.
  • Die Client-Vorrichtung 402 (oder der durch die Client-Vorrichtung 402 implementierte Netzwerkentdeckungsdienst 220) kann ein oder mehrere Repositorien 403 abfragen, um Netzwerkinformationen für ein oder mehrere verfügbare Netzwerke in einem gegebenen Gebiet (z. B. einer geographische Region oder dergleichen) zu erhalten. Die NANs 431a-1 bis 431a-n (wobei n eine Zahl ist), 431b und 431c (zusammen als „NANs“ 431 oder dergleichen bezeichnet) können auch periodisch oder asynchron aktualisierte Netzwerkinformationen an ein oder mehrere Repositorien 403 senden, um sicherzustellen, dass die Repositorien 403 über die aktuellsten Informationen verfügen. Ein aufgeteiltes Modell kann eingesetzt werden, wobei die Client-Vorrichtung 402 mehr als ein Repositorium 403 abfragen kann, um Netzwerkinformationen für ein oder mehrere verfügbare Netzwerke in oder um einen vorhergesagten Zielort zu erhalten. Verschiedene Informationssicherheits(InfoSec)-Maßnahmen können ergriffen werden, um diese Informationen angemessen zu schützen, indem zum Beispiel die Netzwerkinformationen Client-Vorrichtungen 402 nur bereitgestellt werden, nachdem sie durch die verfügbaren Netzwerke und/oder durch einen Betreiber, der das Netzwerkrepositoriensystem 400 besitzt/steuert, ausreichend authentifiziert sind.
  • 5 veranschaulicht einen beispielhaften Algorithmus für ein auf Verstärkungslernen basierendes Empfehlungsmodell (RLRM) 500 für Netzwerkempfehlungen gemäß verschiedenen Ausführungsformen. Der RLRM-Algorithmus 500 (oder einfach „RLRM 500“) kann dem RLRM 210 von 2 entsprechen. Der RLRM 500 (auch als „Netzwerkempfehlungsmodell“, „RL-Modell“ oder dergleichen bezeichnet) stellt Empfehlungen über Netzwerktypen, RAT-Typen, Typen von NANs 431 und/oder Kombination(en) davon bereit, mit denen eine Client-Vorrichtung 402 eine Verbindung herstellen sollte und die eine beste oder optimale Netzwerkkonnektivität und/oder beste QoS unter den verfügbaren Netzwerken, RATs, NANs 431 und/oder Kombination(en) davon aufweisen. Der RLRM 500 kann Systeme/Netzwerke zu einem gegebenen Zeitpunkt und einem gegebenen Ort kennzeichnen, um Empfehlungen bereitzustellen, die auf das Verhalten eines Benutzers und Kontexte, Netzwerknutzung und/oder andere ähnliche Parameter der Client-Vorrichtung 402 zugeschnitten sind. Das Verwenden von RL ermöglicht Client-Vorrichtungen 402, Inter-RAT- und Intra-RAT-HOs effizienter (z. B. mit geringerer Verzögerung oder Latenz) durchzuführen als existierende Inter-RAT- und Intra-RAT-HO-Techniken.
  • Zu Zwecken der vorliegenden Offenbarung kann die Umgebung einen ganzen Rechenknoten (z. B. Client-Vorrichtung 402) umfassen, der die Hardwareplattform, die Systemsoftware, Netzwerkinformationen, das CIM (siehe z. B. das CIM 230 von 2), Anwendungen und/oder anderer ähnliche Daten und/oder Komponenten des Rechenknotens umfasst. Der Agent im RLRM 500 ist ein Objekt/Element, das Empfehlungen über die Netzwerke, RATs und/oder NANs 431 zum Verwenden oder Zugreifen bereitstellt.
  • Der RLRM 500 beginnt bei Operation 501, wo der Agent Kontextinformationen aus dem CIM 230 und netzwerkbezogene Informationen aus dem NDS 220 und/oder dem Richtlinienmanager 205 ausliest, wie zuvor erörtert. Bei Operation 502 bestimmt die Umgebung einen aktuellen Zustand (Si) und eine aktuelle Belohnung (Ri).
  • Der aktuelle Zustand (Si) kann die Form von direkten Auslesungen des Sensors 272 (siehe z. B. 2) aufweisen, oder es kann sich beim aktuellen Zustand (Si) um übergeordnete und abstrakte Daten handeln, wie etwa Kontextinformationen und/oder semantische Orte. Bei Ausführungsformen wird der aktuelle Zustand (Si) der Umgebung durch Auslesen von Eingaben aus dem CIM 230 bestimmt. Bei diesen Ausführungsformen bestimmt der RLRM 500 verschiedene Unterzustände durch Verarbeiten der Eingaben von den Modulen im CIM 230 (z. B. PLP 301, CP 302 und SLP 305 von 3). Beispiele für diese Unterzustände können umfassen:
    1. I. Ist der Rechenknoten innerhalb eines Geofence, der einen Bereich mit guter Netzwerkverfügbarkeit und/oder Netzwerkzuverlässigkeit umgibt (z. B. bei oder oberhalb einer Schwellenverfügbarkeits- oder-zuverlässigkeitsmetrik)?
    2. II. Ist der Rechenknoten innerhalb eines Dienstbereichs oder Abdeckungsbereichs mit guter Netzwerkverfügbarkeit und/oder Netzwerkzuverlässigkeit (z. B. bei oder oberhalb einer Schwellenverfügbarkeits- oder-zuverlässigkeitsmetrik)?
    3. III. Weist jegliche Eingabe vom NLP-Modul (z. B. ULP-Erfassung 322 von 3) darauf hin, dass sich der Rechenknoten an einem öffentlichen Ort (z. B. einem Flughafen, Einkaufszentrum oder dergleichen) befindet, der möglicherweise keine sichere Netzwerkverbindung aufweist?
    4. IV. Weist der semantische Ort des Rechenknotens daraufhin, dass sich der Rechenknoten (wie z. B. durch das SLP 305 von 3 bestimmt) an einem wohlbekannten Standort (z. B. Heim oder Büro eines Benutzers) befindet, der eine stabile Netzwerkverbindung bietet? V. Weisen die Bewegungen des Rechenknotens darauf hin, dass der Benutzer große Entfernungen zurücklegt und möglicherweise von der Verbindung mit einem geeigneten zellularen Netzwerk profitieren könnte?
  • Die Unterzustände werden mit der Priorität des CIM 230 gewichtet, der die Kontextinformation bereitstellt. Basierend auf diesen Unterzuständen ermittelt der RLRM 500 den Gesamtzustand der Umgebung. Zum Beispiel kann ein Unterzustand, der Geofencing-Daten entspricht, eine hohe Priorität aufweisen, da die Daten häufig zuverlässig sind und eine gute Angabe der Netzwerk-QoS für einen gegebenen Bereich bereitstellen.
  • Bei RL definiert ein Belohnungssignal ein Ziel in einem RL-Problem. Zu jedem Zeitschritt sendet die Umgebung an den Agenten eine einzige Nummer, die Belohnung genannt wird. Das einzige Ziel des Agenten ist es, die Gesamtbelohnung, die er erhält, zu maximieren. Daher definiert das Belohnungssignal gute und schlechte Ereignisse für den Agenten. Zusätzlich dazu ist das Belohnungssignal die Grundlage für das Ändern der Richtlinie. Falls auf eine durch den Richtlinienmanager 205 ausgewählte Aktion eine geringe Belohnung folgt, dann kann die Richtlinie geändert werden, um künftig eine andere Aktion in dieser Situation auszuwählen. Allgemein können Belohnungssignale stochastische Funktionen des Zustands der Umgebung und der durchgeführten Aktionen sein.
  • Die aktuelle Belohnung (Ri) ist eine unmittelbare Belohnung, die für den Agenten nach einem Übergang von einem vorherigen Zustand in den aktuellen Zustand bereitgestellt wird und die für den Agenten üblicherweise nach Durchführen einer bestimmten Aufgabe oder Aktion bereitgestellt wird. Der aktuelle Belohnung (Ri) bezieht sich auch auf die positive oder negative Verstärkung, die für den Agenten bereitgestellt wird. Bei verschiedenen Ausführungsformen wird die aktuelle Belohnung (Ri) basierend auf der Rückmeldung 207 bestimmt, die durch den Richtlinienmanager 205 bereitgestellt wird. In einigen Ausführungsformen ist die Belohnung (Ri) anfänglich null und basieren nachfolgende Belohnungen (Ri) auf der Rückmeldung 207, die nach dem Durchführen einer Aktion (z. B. Empfehlen eines Ziels oder eines Satzes von Kandidatenzielen) erhalten wird. Im Allgemeinen gibt es zwei Arten von Belohnungen (Ri): positive Belohnungen und negative Belohnungen (oder Strafen).
  • Positive Belohnungen werden zur positiven Verstärkung verwendet. Positive Belohnungen werden bereitgestellt, wenn eine Aktion zu einem Zustand führt, der einem Ziel näher kommt, oder für Übergänge zu/von einem Zielzustand. In einigen Implementierungen sind positive Belohnungen positive Werte (z. B. +1). Wenn ein Ereignis aufgrund eines gewünschten Verhaltens eintritt, wird eine Belohnung (Ri) für den Agenten bereitgestellt, welche die Stärke und/oder die Häufigkeit des Verhaltens erhöht. Bei Ausführungsformen gibt die positive Rückmeldung (Belohnung) 207 an, dass der Agent eine Empfehlung bereitgestellt hat, die zu einer guten QoS, einer positiven Benutzererfahrung und/oder einem anderen positiven netzwerkbezogenen Ereignis führte, und die anschließende Belohnung (Ri) positiv sein wird. Je besser die empfangene Rückmeldung 207 ist, desto positiver ist die nachfolgende Belohnung (Ri).
  • Negative Belohnungen werden zur negativen Verstärkung verwendet. Eine negative Verstärkung verstärkt ein gewünschtes Verhalten durch Stoppen oder Vermeiden eines negativen Zustands oder unerwünschten Verhaltens. Negative Belohnungen werden bereitgestellt, wenn eine Aktion zu einem Zustand führt, der einem Ziel nicht näherkommt, oder für Übergänge zu/von Nichtzielzuständen. In einigen Implementierungen sind negative Belohnungen negative Werte (z. B. -1). Bei Ausführungsformen gibt die negative Rückmeldung (Belohnung) 207 an, dass der Agent eine Empfehlung bereitgestellt hat, die zu einer schlechten QoS, einer negativen oder unbefriedigenden Benutzererfahrung und/oder dergleichen führte, und die anschließende Belohnung (Ri) negativ sein wird. Die Belohnungen (Ri) können auch skaliert oder gewichtet werden, so dass die nachfolgende Belohnung (Ri) umso negativer sein wird, je schlechter (negativer) die Rückmeldung 207 ist. Gleichermaßen wird die anschließende Belohnung (Ri) umso positiver sein, je besser (positiver) die Rückkopplung 207 ist.
  • Bei Operation 503 akzeptiert der Agent die Beobachtung (z. B. Si und Ri) und stellt eine Empfehlung für höhere Schichten bereit. Hierbei kann sich die Empfehlung auf eine aktuelle Aktion (Ai) beziehen, die durch den Agenten basierend auf dem aktuellen Zustand der Umgebung (Si) und der aktuellen Belohnung (Ri) bereitgestellt wird, wobei Ai = f (Si, Ri). Hier kann f() eine Wertefunktion sein, die einen Wert des aktuellen Zustands und der aktuellen Belohnung bei einer bestimmten Aktion schätzt. Der Wert eines Zustands ist der Gesamtmenge an Belohnung, die der Agent ab diesem Zustand im Lauf der Zeit voraussichtlich ansammeln kann.
  • Bei Ausführungsformen interagiert der Agent mit der Umgebung in diskreten Zeitschritten oder Zeitinstanzen t. Es ist anzumerken, dass die Zeitschritte oder Zeitinstanzen t sich auf feste Echtzeitintervalle (z. B. in Sekunden, Millisekunden oder dergleichen) beziehen können oder die Zeitschritte oder Zeitinstanzen t sich auf beliebige aufeinanderfolgende Entscheidungsfindungs- und Handlungsstufen beziehen können. Zu jedem Zeitpunkt t empfängt der Agent eine Beobachtung von der Umgebung (z. B. Kontextinformationen, semantischer Ort usw.). Hierbei kann die Beobachtung den aktuellen Zustand (Si) und die aktuellen Belohnung (Ri) umfassen. Dann wählt der Agent eine Aktion (Ai) aus einem Satz verfügbarer Aktionen aus, die anschließend an die Umgebung gesendet wird (z. B. an den Policy Manager 204 bei Operation 504). Die Umgebung geht in einen neuen Zustand über, und es wird die mit dem Übergang verbundene Belohnung bestimmt. Der Agent versucht, möglichst viel positive Belohnung zu sammeln und die Menge an negativer Belohnung, die gesammelt wird, zu minimieren.
  • Bei verschiedenen Ausführungsformen weist die gewählte Aktion (Ai) in Form eines empfohlenen Ziels oder Satzes von Kandidatenzielen auf. Wie zuvor erwähnt, kann das Ziel oder der Satz von Kandidaten einen Netzwerktyp und/oder einen RAT-Typ (z. B. WLAN/WiFi, WWAN/WiMAX, LTE, NR, ein Niederleistungs- oder persönliches Netzwerk (PAN) usw.) und/oder einen spezifischen Träger oder Netzwerkbetreiber und/oder einen spezifischen NAN, um darauf zu verweilen, und/oder andere ähnliche Zielparameter umfassen. Wenn die ausgewählte Aktion (Ai) die Form eines Satzes von Kandidatennetzwerken, RATs oder NANs aufweist, wobei der Richtlinienmanager 204 ein Zielnetzwerk, eine RAT oder einen NAN aus dem Satz von Kandidaten auswählt. Bei verschiedenen Ausführungsformen versucht der Agent, die Belohnung (Ri) zu maximieren und schlägt eine Aktion vor, die höhere (z. B. positivere) Belohnungen (Ri) ergibt, was wiederum eine optimalere QoS und/oder ein verbessertes Benutzererlebnis sicherstellt. Ein Vorteil der Verwendung des RLRM 500 besteht darin, dass die Belohnung (Ri) hilft, die Empfehlungen des Agenten auf das Verhalten und die Präferenzen des Benutzers und/oder auf die Fähigkeiten und/oder Betriebsbedingungen des Rechenknotens zuzuschneiden.
  • Bei Operation 504 empfängt der Richtlinienmanager 204 die Empfehlung (z. B. die ausgewählte Aktion (Ai)) und bestimmt eine Aktion (Ai'), die Umgebung durchführen sollte. Bei Ausführungsformen kann der Richtlinienmanager 204 eine Richtlinie oder Strategie implementieren, die Kriterien zum Entscheiden der nächsten Aktion basierend auf dem aktuellen Zustand definiert. Die Richtlinie kann unterschiedliche Aktionen definieren, die in unterschiedlichen Zuständen durchzuführen sind, um künftig eine maximale Belohnung zu erhalten. Die Richtlinie kann deterministisch (wobei z. B. jeder Zustand auf eine bestimmte Aktion abgebildet wird) oder stochastisch (wobei z. B. jede Aktion eine gewisse Wahrscheinlichkeit aufweist, die aus dem aktuellen Zustand bestimmt wird) sein. Bei Operation 505 wird die Aktion (Ai) durch die Umgebung gemäß einem Protokollstapel des ausgewählten Netzwerks durchgeführt, soweit angemessen. Nach oder während der Operation 504 oder 505 stellt der Richtlinienmanager 204 eine Rückmeldung 207 bereit, die eine positive oder negative Belohnung sein kann.
  • Ein erstes Beispiel umfasst eine Initialisierung des RLRM 500. In diesem Beispiel geben die Eingaben von den anderen Komponenten (siehe z. B. 2) an, dass sich der Rechenknoten in einem Geofence oder einem spezifischen Dienst-/Abdeckungsbereich (z. B. Heim des Benutzers) befindet (501). Zusätzlich dazu ist die anfängliche Belohnung (R0) null, und der anfängliche Zustand (S0) gibt an, dass sich der Rechenknoten innerhalb eines Geofence oder Dienst-/Abdeckungsbereichs befindet, in dem die Netzwerkkonnektivität für einen bestimmten Netzwerk-/RAT-Typ relativ stark ist (502). Basierend auf diesen Informationen stellt der Agent eine Aktion (Ai) bereit (503), die empfiehlt, dass der Rechenknoten mit diesem Netzwerk-/RAT-Typ (z. B. dem WiFi-Netzwerk im Heim des Benutzers) eine Verbindung herstellen soll.
  • Ein zweites Beispiel umfasst eine positive Verstärkung des RLRM 500. In diesem Beispiel empfängt der Agent einen aktuellen Zustand (Si) (502), der angibt, dass sich der Rechenknoten im Freien befindet und/oder sich mit einer hohen Geschwindigkeit bewegt, und eine aktuelle Belohnung (Ri) positiv mit einem hohen Wert ist. In diesem Beispiel kann der Agent bestimmen, dass sich der Rechenknoten möglicherweise in einem Bereich ohne einen bestimmten Typ von Netzwerkkonnektivität befindet (z. B. keine WiFi-Netzwerke verfügbar sein können). Basierend auf diesen Informationen stellt der Agent eine Aktion (Ai) bereit (503), die das Herstellen einer Verbindung mit einem Mobilfunknetzwerk (z. B. 5 G/NR) empfiehlt.
  • Ein drittes Beispiel umfasst eine negative Verstärkung des RLRM 500. In diesem Beispiel geben die Eingaben von der SLP 305 und/oder der CP 302 (oder der ULP/NLP 322) (siehe z. B. 3) an, dass sich der Rechenknoten in einem Einkaufszentrum (501) befindet und einen aktuellen Zustand (Si) empfängt (502), der angibt, dass sich der Rechenknoten an einem öffentlichen Ort befindet, aber ein niedriger Vertrauenswert mit dem aktuellen Zustand (Si) oder den Eingaben assoziiert ist, die von der SLP 305 und/oder der CP 302 (oder der ULP/NLP 322) erhalten werden. Ferner ist die aktuelle Belohnung (Ri) weniger negativ (502). Basierend auf den Eingaben von der SLP 305 und/oder der CP 302 (oder der ULP/NLP 322) bestimmt der Agent, dass, falls sich der Rechenknoten an einem spezifischen Typ von öffentlichem Ort (z. B. einem Einkaufszentrum) befindet, dann wahrscheinlich eine verfügbare Netzwerkverbindung eines spezifischen Typs (z. B. WiFi) vorliegt. Da die Eingaben jedoch eine relativ geringe Vertrauenswürdigkeit aufweisen und die aktuelle Belohnung (Ri) negativ ist, kann der Agent das Herstellen einer Verbindung mit einem anderen Typ von Netzwerk oder RAT (z. B. einem zellularen 5G-Netzwerk) empfehlen (503).
  • Obwohl die vorliegende Offenbarung ein Beispiel für den RLRM 500 bereitstellt, versteht es sich, dass andere RL-Algorithmen in anderen Ausführungsformen basierend auf einer Systemimplementierung, die zum Beispiel Aspekte des Systemdesigns, wie die Umgebung charakterisiert wird, und/oder Leistungsfähigkeit der Algorithmen und dergleichen umfasst, verwendet werden können. Beispiele für andere RL-Algorithmen, die verwendet werden können, umfassen MDP, Monte-Carlo-Methoden, zeitliches Differenzlemen, Q-Learning, tiefe Q-Netzwerke (DQN), Zustand-Aktion-Belohnung-Zustand-Aktion (SARSA), eine verteilte Clusterbasierte Multi-Agenten-Bieterlösung (DCMAB)und dergleichen.
  • 6 veranschaulicht ein beispielhaftes neuronales Netzwerk (NN) 600 gemäß verschiedenen Ausführungsformen. Das NN 600 kann zur Verwendung durch eines oder mehrere der Subsysteme und/oder die verschiedenen hierin erörterten Ausführungsformen geeignet sein, die teilweise durch einen Hardwarebeschleuniger oder eine Prozessorschaltungsanordnung implementiert sind. Das beispielhafte NN 600 ist ein mehrschichtiges vorwärtsgekoppeltes NN (FNN), das eine Eingabeschicht 612, eine oder mehrere versteckte Schichten 614 und eine Ausgabeschicht 616 umfasst. Die Eingabeschicht 612 empfängt Daten von Eingangsvariablen (xi) 602. Die versteckte(n) Schicht(en) 614 verarbeitet (verarbeiten) die Eingaben, und die Ausgabeschicht 616 gibt schließlich die Bestimmungen oder Beurteilungen (yi) 604 aus. In einem Ausführungsbeispiel werden die Eingangsvariablen (xi) 602 des NN als Vektor gesetzt, der die Daten der relevanten Variablen enthält, während die Ausgangsbestimmung bzw. -beurteilung (yi) 604 des NN 600 ebenfalls als Vektor erfolgt. Als ein Beispiel kann das mehrschichtige FNN durch die folgenden Gleichungen ausgedrückt werden: h o i = ƒ ( j = 1 R ( i w i , j x j ) + h b i ) , f u ¨ r i = 1, , N
    Figure DE102021208087A1_0001
    y i = ƒ ( k = 1 N ( h w i , k h o k ) + o b i ) , f u ¨ r i = 1, , S
    Figure DE102021208087A1_0002
    wobei hoi und yi die Variablen der versteckten Schicht bzw. die endgültigen Ausgaben sind. f() ist typischerweise eine nichtlineare Funktion, wie etwa die Sigmoidfunktion oder die gleichgerichtete lineare (ReLu) Funktion, die die Neuronen des menschlichen Gehirns nachahmt. R ist die Anzahl der Eingaben. N ist die Größe der versteckten Schicht oder die Anzahl der Neuronen. S ist die Anzahl der Ausgaben.
  • Ziel des FNN ist es, eine Fehlerfunktion E zwischen den Netzwerkausgaben und den gewünschten Zielen zu minimieren, indem die Netzwerkvariablen iw, hw, hb und ob durch Training angepasst werden, wie folgt: E = k = 1 m ( E k ) , wobei E k = p = 1 S ( t k p y k p ) 2
    Figure DE102021208087A1_0003
    wobei ykp und tkp die vorhergesagten bzw. die Zielwerte der p-ten Ausgabeeinheit für den Abtastwert k sind, und m die Anzahl der Abtastwerte ist.
  • In einem Beispiel können die Eingangsvariablen (xi) 602 verschiedene Sensordaten, die durch verschiedene Sensoren gesammelt werden, sowie Daten umfassen, die relevante Faktoren für eine Entscheidung beschreiben. Die Ausgangsvariablen (yi) 604 können eine bestimmte Antwort umfassen. Die Netzwerkvariablen der versteckten Schicht(en) für das NN 600 werden durch die Trainingsdaten bestimmt.
  • In einem anderen Beispiel wird das NN 600 für die Bewegungsdetektion 312 von 3 verwendet, die verwendet wird, um die Bewegung/Aktivität des Computersystems 201 für die Bewegungs-/Aktivitätsdetektion 312 basierend auf den Bewegungs-/Aktivitätssensordaten zu bestimmen, die von dem einen oder den mehreren Aktivitäts-/Bewegungssensoren 372 erhalten werden.
  • In einem anderen Beispiel wird das NN 600 zur Objektdetektion/-klassifizierung der Vision-Erfassung 321 von 3 verwendet. Die Objektdetektions- oder -erkennungsmodelle können eine Registrierungsphase und eine Auswertungsphase umfassen. Während der Registrierungsphase werden ein oder mehrere Merkmale aus Bild- oder Videodaten extrahiert. Ein Merkmal ist eine individuelle messbare Eigenschaft oder Charakteristik. Im Kontext der Objektdetektion kann ein Objektmerkmal Objektgröße, -farbe, -form, eine Beziehung zu anderen Objekten und/oder eine beliebige Region oder einen beliebigen Teil eines Bildes, wie etwa Ränder, Kanten, Ecken, Blobs und/oder einige definierten Regionen von Interesse (ROI) und/oder dergleichen, umfassen. Die verwendeten Merkmale können implementierungsspezifisch sein und zum Beispiel auf den zu detektierenden Objekten und dem/den zu entwickelnden und/oder zu verwendenden Modell(en) basieren. In der Auswertungsphase werden Objekte identifiziert oder klassifiziert, indem gewonnene Bilddaten mit bestehenden Objektmodellen verglichen werden, die während der Registrierungsphase erstellt wurden. Während der Auswertungsphase werden aus den Bilddaten extrahierte Merkmale mit den Objektidentifikationsmodellen unter Verwendung einer geeigneten Mustererkennungstechnik verglichen. Die Objektmodelle können qualitative oder funktionale Beschreibungen, geometrische Oberflächeninformationen und/oder abstrakte Merkmalsvektoren sein und in einer geeigneten Datenbank gespeichert werden, die unter Verwendung irgendeiner Art von Indexierungsschema organisiert ist, um unwahrscheinliche Objektkandidaten leichter außer Betracht lassen zu können.
  • In einem anderen Beispiel wird das NN 600 zur Objektverfolgung der Vision-Erfassung 321 von 3 verwendet. Die Objektverfolgungs- und/oder Computervisionstechniken können zum Beispiel Kantendetektion, Eckendetektion, Blob-Detektion, ein Kalman-Filter, Gaußsches Mischmodell, Partikelfilter, Mean-Shift-basierte Kernel-Verfolgung, eine ML-Objektdetektionstechnik (z. B. Viola-Jones Object Detection Framework, skaleninvariante Merkmalstransformation (SIFT - Scale-Invariant Feature Transform), Histogramm orientierter Gradienten (HOG) usw.), eine Deep-Learning-Objektdetektionstechnik (z. B. FCNN (Full Convolutional Neural Network), R-CNN (Region Proposal Convolution Neural Network), Single Shot MultiBox Detector, YOLO-Algorithmus (YOLO = You Only Look Once) usw.) und/oder dergleichen umfassen.
  • In einem anderen Beispiel wird das NN 600 für NLP/ULP 322 verwendet, wobei Modelle auf Kontext-Antwort-Paare trainiert werden können. Beim Kontext in einem Kontext-Antwort-Paar handelt es sich um einen oder mehrere Sätze, die einer Antwort oder einem Kontext dieses Kontext-Antwort-Paars vorangehen, und die Antwort oder der Kontext kann auch einen oder mehrere Sätze umfassen. Jeder Satz umfasst eine Sequenz von Token, die basierend auf Kontextlexika, Wortschatz und/oder Grammatikregeln erstellt sind. Basierend auf der internen Darstellung (oder dem Satz von Token) der Eingaben wählt das NN 600 entsprechende Antworten oder den entsprechenden Kontext als Ausgabebestimmung oder -beurteilung (yi) aus. In einem anderen Beispiel können die NLP/ULP 322-Modelle auf Entitäten und Absichten trainiert werden, wobei die Entitäten Abbildungen von Wortkombinationen natürlicher Sprache auf Standardformulierungen sind, die ihre klare Bedeutung vermitteln, und Absichten Abbildungen der klaren Bedeutungen auf entsprechende Kontexte sind. Aktionen können auch auf entsprechende Absichten abgebildet werden, welche die Form von Textempfehlungen (z. B. vom Netzwerk-, RAT- und/oder NAN-Typ) oder ausführbaren Funktionen aufweisen können, die optionale Parameter oder Kontextinformationen annehmen können.
  • Beim Beispiel von 6 gibt es zur Vereinfachung der Veranschaulichung nur eine versteckte Schicht im NN. In einigen anderen Ausführungsformen kann es viele versteckte Schichten geben. Des Weiteren kann das NN 600 ein anderer Topologietyp sein, wie etwa ein Faltungs-NN (CNN), ein rekurrentes NN (RNN), ein LSTM-Algorithmus (Long Short Term Memory), ein tiefes CNN (DCN), ein entfaltendes NN (DNN), eine Gated Recurrent Unit (GRU), ein Deep-Belief-NN, ein tiefes FNN (DFF), ein tiefes Stapelnetzwerk, eine Markov-Kette, ein Hidden-Markov-Modell (HMM), ein Wahrnehmungs-NN, ein Bayes'sches Netzwerk (BN), ein dynamisches BN (DBN), ein lineares dynamisches System (LDS), ein wechselndes LDS (SLDS) und so weiter.
  • Eine Implementierung der vorhergehenden Techniken kann durch eine beliebige Anzahl von Spezifikationen, Konfigurationen oder zum Beispiel Bereitstellungen von Hardware und Software erreicht werden. Es versteht sich, dass die in dieser Beschreibung dargelegten Funktionseinheiten oder Fähigkeiten als Komponenten oder Module bezeichnet oder benannt worden sein können, um ihre Implementierungsunabhängigkeit besonders hervorzuheben. Solche Komponenten können durch eine beliebige Anzahl von Software- oder Hardwareformen verkörpert werden. Beispielsweise kann eine Komponente oder ein Modul als Hardware-Schaltkreis implementiert werden, der angepasste Schaltkreise oder Gate-Arrays mit sehr hoher Integrationsgrad (VLSI - Very-Large-Scale-Integration), handelsübliche Halbleiter, wie etwa Logikchips, Transistoren oder andere diskrete Komponenten, umfasst. Eine Komponente oder ein Modul kann auch in programmierbaren Hardwarevorrichtungen implementiert sein, wie etwa feldprogrammierbaren Gate-Arrays, programmierbarer Arraylogik, programmierbaren Logikvorrichtungen oder dergleichen. Komponenten oder Module können auch in Software zur Ausführung durch verschiedene Arten von Prozessoren implementiert werden. Eine identifizierte Komponente oder ein identifiziertes Modul eines ausführbaren Codes kann beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als ein Objekt, eine Prozedur oder eine Funktion organisiert sein können. Dennoch müssen die ausführbaren Dateien einer identifizierten Komponente oder eines identifizierten Moduls nicht physisch zusammen angeordnet sein, sondern können ganz verschiedene Anweisungen umfassen, die an verschiedenen Orten gespeichert sind und die, wenn sie logisch miteinander verbunden sind, die Komponente oder das Modul umfassen und den angegebenen Zweck für die Komponente oder das Modul erfüllen.
  • Tatsächlich kann eine Komponente oder ein Modul eines ausführbaren Codes eine einzige Anweisung oder viele Anweisungen sein und sogar kann über mehrere verschiedene Codesegmente, unter verschiedenen Programmen und über mehrere Speichervorrichtungen oder Verarbeitungssysteme hinweg verteilt sein. Insbesondere können einige Aspekte des beschriebenen Prozesses (wie etwa Codeumschreibung und Codeanalyse) auf einem anderen Verarbeitungssystem (z. B. in einem Computer in einem Datenzentrum) stattfinden als auf jenem, in dem der Code bereitgestellt wird (z. B. in einem Computer, der in einen Sensor oder Roboter eingebettet ist). Gleichermaßen können Betriebsdaten hierin innerhalb von Komponenten oder Modulen identifiziert und veranschaulicht werden und in jeder geeigneten Form umgesetzt und innerhalb jeder geeigneten Art von Datenstruktur organisiert sein. Die Betriebsdaten können als ein einziger Datensatz gesammelt werden oder über verschiedene Orte, einschließlich verschiedener Speichervorrichtungen, verteilt sein und zumindest teilweise lediglich als elektronische Signale in einem System oder Netzwerk existieren. Die Komponenten oder Module können passiv oder aktiv sein und Agenten umfassen, die betrieben werden können, um gewünschte Funktionen auszuführen.
  • 3. COMPUTERSYSTEM- UND HARDWAREKONFIGURATIONEN
  • 7 und 8 stellen Beispiele für Edge-Computing-Systeme und -Umgebungen dar, die beliebige der hierin erörterten Rechenknoten oder -vorrichtungen verwirklichen können. Jeweilige Edge-Rechenknoten können als ein Typ von Vorrichtung, Gerät, Computer oder anderem „Ding“ umgesetzt sein, das in der Lage ist, mit anderen Rand-, Netzwerk- oder Endpunktkomponenten zu kommunizieren. Zum Beispiel kann eine Edge-Rechenvorrichtung als ein Smartphone, eine mobile Rechenvorrichtung, ein Smartgerät, ein fahrzeuginternes Computersystem (z. B. ein Navigationssystem) oder eine andere Vorrichtung oder ein anderes System umgesetzt sein, die/das in der Lage ist, die beschriebenen Funktionen durchzuführen.
  • 7 veranschaulicht ein Beispiel für ein Infrastrukturgerät 700 gemäß verschiedenen Ausführungsformen. Das Infrastrukturgerät 700 (oder „System 700“) kann als BS, Straßenrandeinheit (RSU), Straßenrand-ITS-S (R-ITS-S), Funkkopf, Relaisstation, Server, Gateway und/oder jedes andere Element/jede andere Vorrichtung implementiert sein, die hierin erörtert werden.
  • Das System 700 weist eine Anwendungsschaltungsanordnung 705, eine Basisbandschaltungsanordnung 710, ein oder mehrere Front-End-Funkmodule (RFEMs) 715, eine Speicherschaltungsanordnung 720, eine integrierte Leistungsverwaltungsschaltungsanordnung (PMIC) 725, eine Leistungs-T-Schaltungsanordnung 730, eine Netzwerksteuerungsschaltungsanordnung 735, einen Netzwerkschnittstellenanschluss 740, eine Positionsbestimmungsschaltungsanordnung 745 und eine Benutzerschnittstelle 750 auf. In einigen Ausführungsformen kann die Vorrichtung 700 zusätzliche Elemente umfassen, wie etwa zum Beispiel Arbeitsspeicher/Datenspeicher, Anzeige, Kamera, Sensor oder E/A-Schnittstelle. Bei anderen Ausführungsformen können die unten beschriebenen Komponenten in mehr als einer Vorrichtung enthalten sein. Zum Beispiel können die Schaltungsanordnungen in mehr als einer Vorrichtung für CRAN, CR, vBBU oder anderen ähnlichen Implementierungen separat enthalten sein.
  • Die Anwendungsschaltungsanordnung 705 umfasst Schaltungen, wie etwa unter anderem einen oder mehrere Prozessoren (oder Prozessorkerne), einen Cache-Speicher und eines oder mehrere von Low-Dropout-Spannungsreglern (LDOs), Interrupt-Steuerungen, seriellen Schnittstellen, wie etwa SPI, I2C oder einem universellen programmierbaren seriellen Schnittstellenmodul, einer Echtzeituhr (RTC), Timer-Zähler, einschließlich Intervall- und Watchdog-Timer, Allzweck-E/A, Speicherkartensteuerungen, wie etwa Secure Digital (SD) MultiMediaCard (MMC) oder dergleichen, USB(Universal Serial Bus)-Schnittstellen, MIPI(Mobile Industry Processor Interface)-Schnittstellen und JTAG(Joint Test Access Group)-Testzugangsports. Die Prozessoren (oder Kerne) der Anwendungsschaltungsanordnung 705 können mit Arbeitsspeicher-/Datenspeicherelementen gekoppelt sein oder diese umfassen und dazu konfiguriert sein, Anweisungen auszuführen, die im Arbeitsspeicher/Datenspeicher gespeichert sind, um die Ausführung verschiedener Anwendungen oder Betriebssysteme auf dem System 700 zu ermöglichen. In einigen Implementierungen können die Arbeitsspeicher- /Datenspeicherelemente eine On-Chip-Speicherschaltungsanordnung sein, die jeden geeigneten flüchtigen und/oder nichtflüchtigen Speicher, wie etwa DRAM, SRAM, EPROM, EEPROM, Flash-Speicher, Festkörperspeicher und/oder einen beliebigen anderen Typ von Speichervorrichtungstechnologie wie etwa jene umfassen kann, die hierin erörtert werden.
  • Der eine oder die mehreren Prozessoren der Anwendungsschaltungsanordnung 705 können zum Beispiel einen oder mehrere Prozessorkerne (CPUs), einen oder mehrere Anwendungsprozessoren, eine oder mehrere Grafikverarbeitungseinheiten (GPUs), einen oder mehrere RISC-Prozessoren (RISC - Reduced Instruction Set Computing), einen oder mehrere Acorn-RISC-Machine(ARM)-Prozessoren, einen oder mehrere CISC-Prozessoren (CISC - Complex Instruction Set Computing), einen oder mehrere DSPs, ein oder mehrere FPGAs, ein oder mehrere PLDs, eine oder mehrere ASICs, einen oder mehrere Mikroprozessoren oder Mikrocontroller oder jede geeignete Kombination davon umfassen. In einigen Ausführungsformen kann die Anwendungsschaltungsanordnung 705 einen Spezialprozessor/eine Spezialsteuerung zum Arbeiten gemäß den verschiedenen Ausführungsformen hierin umfassen oder sein. Als Beispiele können der eine oder die mehreren Prozessoren der Anwendungsschaltungsanordnung 705 einen oder mehrere Intel Pentium®-, Core®- oder Xeon®-Prozessoren; Advanced Micro Devices (AMD) Ryzen ®-Prozessoren, Accelerated Processing Units (APUs) oder Epyc®-Prozessoren; ARM-basierte Prozessor(en), die von ARM Holdings, Ltd., lizenziert sind, wie etwa die Cortex-A-Prozessorfamilie von ARM, und den von Cavium™, Inc. bereitgestellten ThunderX2®; ein MIPS-basiertes Design von MIPS Technologies, Inc., wie etwa Warrior P-class-Prozessoren von MIPS; und/oder dergleichen umfassen. In einigen Ausführungsformen verwendet das System 700 möglicherweise keine Anwendungsschaltungsanordnung 705 und kann stattdessen einen Spezialprozessor/eine Spezialsteuerung zum Verarbeiten von IP-Daten umfassen, die zum Beispiel von einem EPC oder 5GC empfangen werden.
  • In einigen Implementierungen kann die Anwendungsschaltungsanordnung 705 einen oder mehrere Hardwarebeschleuniger umfassen, die Mikroprozessoren, programmierbare Verarbeitungsvorrichtungen oder dergleichen sein können. Der eine oder die mehreren Hardwarebeschleuniger können zum Beispiel Beschleuniger für Computervision (CV) und/oder tiefes Lernen (DL) umfassen. Als Beispiele können die programmierbaren Verarbeitungsvorrichtungen ein oder mehrere feldprogrammierbare Gate-Arrays (FPGAs); programmierbare Logikvorrichtungen (PLDs), wie etwa komplexe PLDs (CPLDs), PLDs mit hoher Kapazität (HCPLDs) und dergleichen; ASICs, wie etwa strukturierte ASICs und dergleichen; programmierbare SoCs (PSoCs); und/oder dergleichen sein. Bei solchen Implementierungen kann die Schaltungsanordnung der Anwendungsschaltungsanordnung 705 Logikblöcke oder Logikstruktur und andere miteinander verbundene Ressourcen umfassen, die programmiert werden können, um verschiedene Funktionen durchzuführen, wie etwa die Prozeduren, Verfahren, Funktionen usw. der verschiedenen hierin erörterten Ausführungsformen. Bei solchen Ausführungsformen kann die Schaltungsanordnung der Anwendungsschaltungsanordnung 705 Speicherzellen (z. B. löschbaren programmierbaren Nur-Lese-Speicher (EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), Flash-Speicher, statischen Speicher (z. B. statischen Direktzugriffsspeicher (SRAM), Antifuse-Speicher usw.)) umfassen, die zum Speichern von Logikblöcken, Logikstruktur, Daten usw. in Nachschlagetabellen (LUTs) und dergleichen verwendet werden.
  • In einigen Implementierungen, wie etwa Implementierungen, bei denen Subsysteme der Edge-Knoten 130, Zwischenknoten 120 und/oder Endpunkte 110 von Figur XS1 individuelle Software-Agenten oder AI-Agenten sind, ist jeder Agent in einem jeweiligen Hardwarebeschleuniger implementiert, der mit einem oder mehreren geeigneten Bitströmen oder Logikblöcken konfiguriert ist, um seine jeweiligen Funktionen durchzuführen. Bei diesen Implementierungen können Prozessor(en) und/oder Hardwarebeschleuniger der Anwendungsschaltungsanordnung 705 speziell zum Betreiben der Agenten und/oder zur Maschinenlemfunktionalität zugeschnitten sein, wie etwa ein Cluster von AI-GPUs, von Google® Inc. entwickelte Tensorverarbeitungseinheiten (TPUs), von AlphaICs® bereitgestellte Real AI-Prozessoren (RAPs™), Nervana™ Neural Network Processors (NNPs), die von Intel® Corp. bereitgestellt werden, Intel® Movidius™ Myriad™ X Vision Processing Unit (VPU), NVIDIA ® PX™-basierte GPUs, der NM500 Chip, der von General Vision® bereitgestellt wird, Hardware 3, die von Tesla® Inc., bereitgestellt wird, ein Epiphany™-basierter Prozessor, der von Adapteva® bereitgestellt wird, oder dergleichen. In einigen Ausführungsformen kann der Hardwarebeschleuniger als ein AI-Beschleunigungs-Coprozessor implementiert sein, wie etwa der Hexagon 685 DSP, der von Qualcomm® bereitgestellt wird, der PowerVR 2NX Neural Net Accelerator (NNA), der von Imagination Technologies Limited® bereitgestellt wird, der Neural Engine-Kern innerhalb der Apple® Bionic SoCs A11 oder A12, die neuronale Verarbeitungseinheit innerhalb des HiSilicon Kirin 970, der von Huawei® bereitgestellt wird, und/oder dergleichen.
  • Die Basisbandschaltungsanordnung 710 kann zum Beispiel als ein Solder-Down-Substrat, das einen oder mehrere integrierte Schaltkreise, ein einzelner gekapselter integrierter Schaltkreis, der an eine Hauptleiterplatte gelötet ist, oder ein Mehrchipmodul, das zwei oder mehr integrierte Schaltkreise enthält, implementiert sein. Die Basisbandschaltungsanordnung 710 umfasst eine oder mehrere Verarbeitungsvorrichtungen (z. B. Basisbandprozessoren) zum Ausführen verschiedener Protokoll- und Funksteuerfunktionen. Die Basisbandschaltungsanordnung 710 kann über eine Schnittstelle eine Verbindung mit einer Anwendungsschaltungsanordnung des Systems 700 zum Erzeugen und Verarbeiten von Basisbandsignalen und zum Steuern von Operationen der RFEMs 715 herstellen. Die Basisbandschaltungsanordnung 710 kann verschiedene Funksteuerfunktionen handhaben, die Kommunikation mit einem oder mehreren Funknetzwerken über die RFEMs 715 ermöglichen. Die Basisbandschaltungsanordnung 710 kann eine Schaltungsanordnung umfassen, wie etwa unter anderem einen oder mehrere Einzelkern- oder Mehrkernprozessoren (z. B. einen oder mehrere Basisbandprozessoren) oder Steuerlogik zum Verarbeiten von Basisbandsignalen, die von einem Empfangssignalpfad der RFEMs 715 empfangen werden, und zum Erzeugen von Basisbandsignalen, die für die RFEMs 715 über einen Sendesignalpfad bereitzustellen sind. Bei verschiedenen Ausführungsformen kann die Basisbandschaltungsanordnung 710 ein Echtzeit-OS (RTOS) implementieren, um Ressourcen der Basisbandschaltungsanordnung 710 zu verwalten, Aufgaben zu planen usw. Beispiele für das RTOS können Operating System Embedded (OSE)™, das von Enea ® bereitgestellt wird, Nukleus RTOSTM, das von Mentor Graphics ® bereitgestellt wird, Versatile Real-Time Executive (VRTX), das von Mentor Graphics ® bereitgestellt wird, ThreadX™, das von Express Logics® bereitgestellt wird, FreeRTOS, REX-OS, das von Qualcomm® bereitgestellt wird, OKL4, das von Open Kernel (OK) Labs ® bereitgestellt wird, oder jedes andere geeignete RTOS, wie etwa die hierin erörterten, umfassen.
  • Obwohl in 7 nicht gezeigt, umfasst die Basisbandschaltungsanordnung 710 bei einer Ausführungsform individuelle Verarbeitungsvorrichtung(en), um ein oder mehrere Drahtloskommunikationsprotokolle (z. B. einen „Multiprotokoll-Basisbandprozessor“ oder eine „Protokollverarbeitungsschaltungsanordnung“) zu betreiben, und individuelle Verarbeitungsvorrichtung(en), um Bitübertragungsschicht(PHY)-Funktionen zu implementieren. Bei dieser Ausführungsform betreibt oder implementiert die Protokollverarbeitungsschaltungsanordnung verschiedene Protokollschichten/-instanzen eines oder mehrerer Drahtloskommunikationsprotokolle. In einem ersten Beispiel kann die Protokollverarbeitungsschaltungsanordnung LTE-Protokollinstanzen und/oder 5G/NR-Protokollinstanzen betreiben, wenn die RFEMs 715 ein zellulares Hochfrequenzkommunikationssystem sind, wie etwa eine Millimeterwellen(mmWave)-Kommunikationsschaltungsanordnung oder eine andere geeignete zellulare Kommunikationsschaltungsanordnung. Beim ersten Beispiel würde die Protokollverarbeitungsschaltungsanordnung MAC-, RLC-, PDCP-, SDAP-, RRC- und NAS-Funktionen ausführen. In einem zweiten Beispiel kann die Protokollverarbeitungsschaltungsanordnung ein oder mehrere IEEE-basierte Protokolle betreiben, wenn die RFEMs 715 ein WiFi-Kommunikationssystem sind. Beim zweiten Beispiel würde die Protokollverarbeitungsschaltungsanordnung WiFi-MAC- und LLC-Funktionen ausführen. Die Protokollverarbeitungsschaltungsanordnung kann eine oder mehrere Speicherstrukturen (nicht gezeigt) zum Speichern von Programmcode und Daten zum Betreiben der Protokollfunktionen sowie einen oder mehrere Verarbeitungskerne (nicht gezeigt) zum Ausführen des Programmcodes und Durchführen verschiedener Operationen unter Verwendung der Daten umfassen. Die Protokollverarbeitungsschaltungsanordnung stellt Steuerfunktionen für die Basisbandschaltungsanordnung 710 und/oder die RFEMs 715 bereit. Die Basisbandschaltungsanordnung 710 kann auch Funkkommunikationen für mehr als ein drahtloses Protokoll unterstützen.
  • Fortfahrend mit der zuvor erwähnten Ausführungsform umfasst die Basisbandschaltungsanordnung 710 eine oder mehrere individuelle Verarbeitungsvorrichtungen zum Implementieren von PHY, einschließlich HARQ-Funktionen, Verwürfeln und/oder Entschlüsseln, (En)codieren und/oder Decodieren, Schicht-Mapping und/oder -Demapping, Abbilden von Modulationssymbolen, Empfangssymbol- und/oder Bitmetrikbestimmung, Mehrantennenanschluss-Vorcodierung und/oder -Decodierung, die eine oder mehrere von Raum-Zeit-, Raum-Frequenz- oder Raumcodierung umfassen können, Referenzsignalerzeugung und/oder -detektion, Präambelsequenzerzeugung und/oder -decodierung, Synchronisationssequenzerzeugung und/oder -detektion, Steuerkanalsignal-Blinddecodierung, Hochfrequenzverschiebung und andere verwandte Funktionen usw. Die Modulations- /Demodulationsfunktionalität kann Fast-Fourier-Transformation (FFT), Vorcodierung oder Konstellations-Mapping-/-Demapping-Funktionalität umfassen. Die (En)codierungs- /Decodierungsfunktionalität kann Faltungs-, Tailbiting-Faltungs-, Turbo-, Viterbi- oder LDPC-Codierung (LDPC - Low Density Parity Check) umfassen. Ausführungsformen einer Modulation/Demodulation- und Codierer-/Decodierer-Funktionalität sind nicht auf diese Beispiele beschränkt und können bei anderen Ausführungsformen eine andere geeignete Funktionalität umfassen.
  • Die Benutzerschnittstellenschaltungsanordnung 750 kann eine oder mehrere Benutzerschnittstellen, die dazu ausgelegt sind, eine Benutzerinteraktion mit dem System 700 zu ermöglichen, oder Peripheriekomponentenschnittstellen umfassen, die dazu ausgelegt sind, eine Peripheriekomponenteninteraktion mit dem System 700 zu ermöglichen. Benutzerschnittstellen können unter anderem eine oder mehrere physische oder virtuelle Tasten (z. B. eine Rücksetztaste), einen oder mehrere Indikatoren (z. B. Leuchtdioden (LEDs)), eine physische Tastatur oder ein physisches Tastenfeld, eine Maus, ein Touchpad, einen Touchscreen, Lautsprecher oder andere audioemittierende Vorrichtungen, Mikrofone, einen Drucker, einen Scanner, ein Headset, einen Anzeigebildschirm oder eine Anzeigevorrichtung usw. umfassen. Peripheriekomponentenschnittstellen können unter anderem einen nichtflüchtigen Speicheranschluss, einen USB-Anschluss (USB - Universal Serial Bus), eine Audio-Buchse, eine Stromversorgungsschnittstelle usw. umfassen.
  • Die Front-End-Funkmodule (RFEMs) 715 können ein Millimeterwellen(mmWave)-RFEM und eine oder mehrere integrierte sub-mm-Wave-Hochfrequenzschaltungen (RFICs) umfassen. In einigen Implementierungen können die eine oder die mehreren sub-mmWave-RFICs vom mmWave-RFEM physisch getrennt sein. Die RFICs können Verbindungen mit einer oder mehreren Antennen oder Antennenarrays umfassen, und das RFEM kann mit mehreren Antennen verbunden sein. Bei alternativen Implementierungen können sowohl mmWave- als auch sub-mmWave-Funkfunktionen in demselben physischen RFEM 715 implementiert sein, das sowohl mmWave-Antennen als auch sub-mmWave umfasst. Das Antennenarray umfasst ein oder mehrere Antennenelemente, von denen jedes dazu konfiguriert ist, elektrische Signale in Funkwellen umzuwandeln, die durch die Luft übertragen werden, und empfangene Funkwellen in elektrische Signale umzuwandeln. Zum Beispiel werden digitale Basisbandsignale, die durch die Basisbandschaltungsanordnung 710 bereitgestellt werden, in analoge HF-Signale (z. B. modulierte Wellenform) umgewandelt, die verstärkt und über die Antennenelemente des Antennenarrays, das eine oder mehrere Antennenelemente (nicht gezeigt) umfasst, übertragen werden. Die Antennenelemente können ungerichtet, gerichtet oder eine Kombination davon sein. Die Antennenelemente können in einer Vielzahl von Anordnungen ausgebildet sein, die bekannt sind und/oder hierin erörtert werden. Das Antennenarray kann Mikrostreifenantennen oder gedruckte Antennen umfassen, die auf der Oberfläche einer oder mehrerer Leiterplatten gefertigt sind. Das Antennenarray kann als ein Patch aus Metallfolie (z. B. eine Patchantenne) in einer Vielzahl von Formen ausgebildet sein und unter Verwendung von Metallübertragungsleitungen oder dergleichen mit der HF-Schaltungsanordnung gekoppelt sein.
  • Die Speicherschaltungsanordnung 720 kann einen oder mehrere von flüchtigem Speicher, einschließlich dynamischen Direktzugriffsspeichers (DRAM) und/oder synchronen dynamischen Direktzugriffsspeichers (SDRAM), und/oder nichtflüchtigem Speicher (NVM), einschließlich elektrisch löschbaren Hochgeschwindigkeitsspeichers (üblicherweise als Flash-Speicher bezeichnet), Phasenwechsel-Direktzugriffsspeichers (PRAM), magnetoresistiven Direktzugriffsspeichers (MRAM) usw. umfassen und die dreidimensionalen (3D) Crosspoint(XPOINT)-Speicher von Intel® und Micron® einbeziehen. Die Speicherschaltungsanordnung 720 kann als integrierte gehäuste Solder-Down-Schaltungen und/oder gesockelte Speichermodule und/oder einsteckbare Speicherkarten implementiert sein.
  • Die Speicherschaltungsanordnung 720 ist dazu konfiguriert, Rechenlogik (oder -module) in Form von Software, Firmware oder Hardwarebefehlen zu speichern, um die hierin beschriebenen Techniken zu implementieren. Die Rechenlogik oder -module können unter Verwendung einer geeigneten Programmiersprache oder eines geeigneten Entwicklungstools entwickelt werden, wie etwa einer beliebigen Programmiersprache oder einem beliebigen Entwicklungstool, die bzw. das hierin erörtert wird. Die Rechenlogik kann eingesetzt werden, um Arbeitskopien und/oder permanente Kopien von Programmieranweisungen für den Betrieb verschiedener Komponenten des Appliance-Infrastrukturgeräts 700, eines Betriebssystems des Infrastrukturgeräts 700, einer oder mehrerer Anwendungen und/oder zum Ausführen der hierin erörterten Ausführungsformen zu speichern. Die Rechenlogik kann als Anweisungen zur Ausführung durch die Prozessoren der Anwendungsschaltungsanordnung 705 gespeichert oder in die Speicherschaltungsanordnung 720 geladen werden, um die hierin beschriebenen Funktionen bereitzustellen oder durchzuführen. Die verschiedenen Elemente können durch Assembleranweisungen, die durch Prozessoren der Anwendungsschaltungsanordnung 705 unterstützt werden, oder Hochsprachen, die in solche Anweisungen kompiliert werden können, implementiert werden. Die permanente Kopie der Programmieranweisungen kann in persistenten Speichervorrichtungen der Speicherschaltungsanordnung 720 in der Fabrik während der Herstellung oder im Feld zum Beispiel durch ein Verteilungsmedium (nicht gezeigt), durch eine Kommunikationsschnittstelle (z. B. von einem Verteilungsserver) und/oder über die Luft (OTA - Over The Air) platziert werden.
  • Wie unten ausführlicher erörtert, kann das Infrastrukturgerät 700 dazu konfiguriert sein, eine bestimmte V2X-RAT basierend auf der Anzahl von vUEs 121 zu unterstützen, die die bestimmte V2X-RAT unterstützen (zu kommunizieren in der Lage sind). Bei Ausführungsformen kann die Speicherschaltungsanordnung 720 ein RAT-Konfigurationssteuermodul speichern, um die (Re)konfiguration des Infrastrukturgeräts 700 zu steuern, um eine bestimmte RAT und/oder V2X-RAT zu unterstützen. Das Konfigurationssteuermodul stellt eine Schnittstelle zum Auslösen von (Re)konfigurationsaktionen bereit. In einigen Ausführungsformen kann die Speicherschaltungsanordnung 720 auch ein RAT-Software(SW)-Verwaltungsmodul speichern, um SW-Lade- oder -Bereitstellungsprozeduren und (De)aktivierungs-SW im Infrastrukturgerät 700 zu implementieren. Bei jeder dieser Ausführungsformen kann die Speicherschaltungsanordnung 720 mehrere V2X-RAT-Softwarekomponenten speichern, die jeweils Programmcode, Anweisungen, Module, Baugruppen, Pakete, Protokollstapel, Software-Engine(s) usw. zum Betreiben des Infrastrukturgeräts 700 oder von Komponenten davon (z. B. RFEMs 715) gemäß einer entsprechenden V2X-RAT umfassen. Wenn eine V2X-RAT-Komponente durch die Anwendungsschaltungsanordnung 705 und/oder die Basisbandschaltungsanordnung 710 konfiguriert oder ausgeführt wird, arbeitet das Infrastrukturgerät 700 gemäß dieser V2X-RAT-Komponente.
  • In einem ersten Beispiel kann eine erste V2X-RAT-Komponente eine C-V2X-Komponente sein, die LTE- und/oder C-V2X-Protokollstapel umfasst, die es dem Infrastrukturgerät 700 ermöglichen, C-V2X zu unterstützen und/oder Zeit-/Frequenz-Funkressourcen gemäß LTE- und/oder C-V2X-Standards bereitzustellen. Solche Protokollstapel können einen Steuerebenen-Protokollstapel umfassen, der die Schichtinstanzen Non-Access-Stratum (NAS), Funkressourcensteuerung (RRC), Paketdatenkonvergenzprotokoll (PDCP), Funkverbindungssteuerung (RLC), Medienzugriffssteuerung (MAC), und Physical (PHY) umfasst; und einen Benutzerebenen-Protokollstapel, der die Schichtinstanzen GPRS(General Packet Radio Service)-Tunnelprotokoll für die Benutzerebenschicht (GTP-U), Benutzer-Datagrammprotokoll (UDP), Internetprotokoll (IP), PDCP, RLC, MAC und PHY umfasst. Diese Steuerebenen- und Benutzerebenen-Protokollinstanzen sind ausführlicher in 3 GPP TS 36.300 und/oder 3 GPP TS 38.300 sowie anderen 3GPP-Spezifikationen erörtert. In einigen Ausführungsformen kann die IP-Schichtinstanz durch eine Zuordnungs- und Aufbewahrungsprioritäts(ARP)-Schichtinstanz oder eine andere Nicht-IP-Protokollschichtinstanz ersetzt werden. Einige oder alle der oben erwähnten Protokollschichtinstanzen können in Abhängigkeit davon, ob das Infrastrukturgerät 700 als ein Relais fungiert, „Relais“-Versionen sein. In einigen Ausführungsformen kann der Benutzerebenen-Protokollstapel in 3 GPP TS 23.303 v15.1.0 (2018-06) erörterte Protokollstapel der PC5-Benutzerebene (PC5-U) sein.
  • In einem zweiten Beispiel kann eine zweite V2X-RAT-Komponente eine ITS-G5-Komponente sein, die unter anderem die Protokollstapel ITS-G5 (IEEE 802.11 p) und/oder Wireless Access in Vehicular Environments (WAVE) (IEEE 1609.4) umfasst, die es dem Infrastrukturgerät ermöglichen, ITS-G5-Kommunikationen zu unterstützen und/oder Zeit-Frequenz-Funkressourcen gemäß ITS-G5- und/oder anderen WiFi-Standards bereitzustellen. Der ITS-G5- und der WAVE-Protokollstapel umfassen unter anderem eine DSRC-/WAVE-PHY- und MAC-Schichtentitäten, die auf dem IEEE 802.11p-Protokoll basieren. Die DSRC-/WAVE-PHY-Schicht ist für das Erhalten von Daten zum Übertragen über ITS-G5-Kanäle von höheren Schichten sowie das Empfangen von Rohdaten über die ITS-G5-Kanäle und das Bereitstellen von Daten für höhere Schichten verantwortlich. Die MAC-Schicht organisiert die Datenpakete in Netzwerkrahmen. Die MAC-Schicht kann in eine untere DSRC-/WAVE-MAC-Schicht, die auf IEEE 802.11p basiert, und eine obere WAVE-MAC-Schicht (oder eine WAVE-Mehrkanalschicht), die auf IEEE 1609.4 basiert, aufgeteilt sein. IEEE 1609 baut auf IEEE 802.1 1p auf und definiert eine oder mehrere der anderen höheren Schichten. Die ITS-G5-Komponente kann auch eine LLC-Schichtentität (LLC - Logical Link Control) umfassen, um Multiplex- und Demultiplexoperationen der Schicht 3 (L3) durchzuführen. Die LLC-Schicht (z. B. IEEE 802.2) ermöglicht es mehreren Netzwerk-L3-Protokollen, über denselben physischen Link zu kommunizieren, indem ermöglicht wird, dass die L3-Protokolle in LLC-Feldern spezifiziert werden.
  • Zusätzlich zu den V2X-RAT-Komponenten kann die Speicherschaltungsanordnung 720 auch eine RAT-Übersetzungskomponente speichern, wobei es sich um eine Software-Engine, eine API, eine Bibliothek, Objekt(e), Engine(s) oder eine andere Funktionseinheit zum Bereitstellen von Übersetzungsdiensten für vUEs 121 handelt, die mit unterschiedlichen V2X-Fähigkeiten ausgestattet sind. Zum Beispiel kann die RAT-Übersetzungskomponente, wenn sie konfiguriert oder ausgeführt wird, das Infrastrukturgerät 700 zum Umwandeln oder Übersetzen einer ersten Nachricht, die gemäß der ersten V2X-RAT (z. B. C-V2X) erhalten wird, in eine zweite Nachricht zur Übertragung unter Verwendung einer zweiten V2X-RAT (z. B. ITS-G5) veranlassen. In einem Beispiel kann die RAT-Übersetzungskomponente die Übersetzung oder Umwandlung durch Extrahieren von Daten aus einem oder mehreren Feldern der ersten Nachricht und Einfügen der extrahierten Daten in entsprechende Felder der zweiten Nachricht durchführen. Bei anderen Ausführungsformen können auch andere Übersetzungs-/Umwandlungsverfahren verwendet werden. Bei einigen Ausführungsformen kann die RAT-Übersetzungskomponente einen geeigneten Übersetzer zum Übersetzen einer oder mehrerer Quellmeldungen in einem Quellformat in eine oder mehrere Zielmeldungen in einem Zielformat einsetzen, und sie kann jede geeignete Kompilationsstrategie für die Übersetzung einsetzen. Der Übersetzer kann in Abhängigkeit vom Typ der V2X-RATs auch unterschiedliche Implementierungen aufweisen, die durch das Infrastrukturgerät 700 unterstützt werden (z. B. Speicherabbildung, Anweisungssatz, Programmiermodell usw.).
  • Die PMIC 725 kann Spannungsregler, Überspannungsschutzelemente, Leistungsalarmdetektionsschaltungen und eine oder mehrere Reserveleistungsquellen, wie etwa eine Batterie oder einen Kondensator, umfassen. Die Leistungsalarmdetektionsschaltungen kann Zustände von Spannungsabfall (Unterspannung) und/oder Spannungsanstieg (Überspannung) detektieren. Die Leistungs-T-Schaltungsanordnung 730 kann elektrische Leistung bereitstellen, die von einem Netzwerkkabel entnommen wird, um für das Infrastrukturgerät 700 sowohl Leistungsversorgung als auch Datenkonnektivität unter Verwendung eines einzigen Kabels bereitzustellen.
  • Die Netzwerksteuerungsschaltungsanordnung 735 stellt Konnektivität mit einem Netzwerk unter Verwendung eines Standardnetzwerkschnittstellenprotokolls, wie etwa Ethernet, Ethernet über GRE-Tunnel, Ethernet über Multiprotokoll-Etikettaustausch (MPLS), oder eines anderen geeigneten Protokolls, wie etwa der hierin erörterten, bereit. Netzwerkkonnektivität kann zu/von dem Infrastrukturgerät 700 über den Netzwerkschnittstellenanschluss 740 unter Verwendung einer physischen Verbindung bereitgestellt werden, die elektrisch (allgemein als „Kupferzwischenverbindung“ bezeichnet), optisch oder drahtlos sein kann. Die Netzwerksteuerungsschaltungsanordnung 735 kann einen oder mehrere dedizierte Prozessoren und/oder ein oder mehrere dedizierte FPGAs zum Kommunizieren unter Verwendung eines oder mehrerer der zuvor genannten Protokolle umfassen. In einigen Implementierungen kann die Netzwerksteuerungsschaltungsanordnung 735 mehrere Steuerungen zum Bereitstellen von Konnektivität mit anderen Netzwerken unter Verwendung des gleichen oder unterschiedlicher Protokolle bereitzustellen. Bei verschiedenen Ausführungsformen ermöglicht die Netzwerksteuerungsschaltungsanordnung 735 Kommunikation mit assoziierten Geräten und/oder mit einem Backend-System (z. B. Server(n), Kernnetzwerk, Cloud-Dienst usw.), die über eine geeignete Gateway-Vorrichtung stattfinden kann.
  • Die Positionsbestimmungsschaltungsanordnung 745 umfasst eine Schaltungsanordnung zum Empfangen und Decodieren von Signalen, die durch ein Positionsbestimmungsnetzwerk eines globalen Navigationssatellitensystems (GNSS) übertragen/gesendet werden. Beispiele für Navigationssatellitenkonstellationen (oder GNSS) umfassen das Global Positioning System (GPS) der Vereinigten Staaten, das Global Positioning System (GLONASS) von Russland, das Galileo-System der Europäischen Union, das BeiDou Navigation Satellite System von China, ein regionales Navigationssystem oder GNSS-Erweiterungssystem (z. B. Navigation with Indian Constellation (NAVIC), das Quasi-Zenith Satellite System (QZSS) von Japan, das Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS) von Frankreich usw.) oder dergleichen. Die Positionsbestimmungsschaltungsanordnung 745 umfasst verschiedene Hardwareelemente (darunter z. B. Hardwarevorrichtungen, wie etwa Schalter, Filter, Verstärker, Antennenelemente und dergleichen, um OTA-Kommunikationen zu ermöglichen), um mit Komponenten eines Positionsbestimmungsnetzwerks, wie etwa Navigationssatellitenkonstellationsknoten, zu kommunizieren. In einigen Ausführungsformen kann die Positionsbestimmungsschaltungsanordnung 745 eine Mikrotechnologie für Positionsbestimmungs-, Navigations- und Timing-IC (Micro-PNT) umfassen, die einen Hauptzeittakt verwendet, um eine Positionsverfolgung/-schätzung ohne GNSS-Unterstützung durchzuführen. Die Positionsbestimmungsschaltungsanordnung 745 kann auch Teil der Basisbandschaltungsanordnung 710 und/oder der RFEMs 715 sein oder damit interagieren, um mit den Knoten und Komponenten des Positionsbestimmungsnetzwerks zu kommunizieren. Die Positionsbestimmungsschaltungsanordnung 745 kann auch Positionsdaten und/oder Zeitdaten für die Anwendungsschaltungsanordnung 705 bereitstellen, die die Daten verwenden kann, um Operationen mit verschiedenen anderen Infrastrukturgeräten oder dergleichen zu synchronisieren.
  • Die in 3 gezeigten Komponenten können unter Verwendung einer Schnittstellenschaltungsanordnung 306 oder einer Zwischenverbindung (IX - Interconnect) 706 miteinander kommunizieren, die eine beliebige Anzahl von Bus- und/oder Zwischenverbindungs(IX)-Technologien, wie etwa Industriestandardarchitektur (ISA), erweiterte ISA (EISA), interintegrierte Schaltung (I2C), eine serielle Peripherieschnittstelle (SPI), Punkt-zu-Punkt-Schnittstellen, PMBus (Power Management Bus), PCI (Peripheral Component Interconnect), PCIe (PCI express), Intel® Ultra Path Interface (UPI), Intel® Accelerator Link (IAL), CAPI (Common Application Programming Interface), Intel® QuickPath Interconnect (QPI), Ultra Path Interconnect (UPI), Intel® Omni-Path Architecture (OPA) IX, RapidIO™ System IXs, CCIA (Cache Coherent Interconnect for Accelerators), Gen-Z Consortium IXs, OpenCAPI (Open Coherent Accelerator Processor Interface) IX, eine HyperTransport-Zwischenverbindung und/oder eine beliebige Anzahl anderer IX-Technologien. Die IX-Technologie kann ein proprietärer Bus sein, der zum Beispiel in einem SoC-basierten System verwendet wird.
  • 8 veranschaulicht ein Beispiel für Komponenten, die in einem Edge-Rechenknoten 850 zum Implementieren der hierin beschriebenen Techniken (z. B. Operationen, Prozesse, Verfahren und Methoden) vorhanden sein können. Dieser Edge-Rechenknoten 850 stellt eine nähere Ansicht der jeweiligen Komponenten des Knotens 800 bereit, wenn er als eine Rechenvorrichtung (z. B. als eine Mobilvorrichtung, eine BS, ein Server, ein Gateway usw.) als Teil davon implementiert wird. Der Edge-Rechenknoten 850 kann beliebige Kombinationen der hierin erwähnten Hardware- oder Logikkomponenten umfassen, und er kann eine beliebige Vorrichtung, die mit einem Randkommunikationsnetzwerk oder einer Kombination solcher Netzwerke verwendet werden kann, umfassen oder eine Verbindung damit herstellen. Die Komponenten können als ICs, Teile davon, diskrete elektronische Vorrichtungen oder andere Module, Anweisungssätze, programmierbare Logik oder Algorithmen, Hardware, Hardwarebeschleuniger, Software, Firmware oder eine Kombination davon, die im Edge-Rechenknoten 850 angepasst ist, oder als Komponenten implementiert sein, die anderweitig in einem Chassis eines größeren Systems integriert sind.
  • Der Edge-Rechenknoten 850 weist Verarbeitungsschaltungen in Form eines oder mehrerer Prozessoren 852 auf. Die Prozessorschaltungsanordnung 852 umfasst Schaltungen, wie etwa unter anderem einen oder mehrere Prozessorkerne und eines oder mehrere von einem Cache-Speicher, Low-Dropout-Spannungsreglern (LDOs), Interrupt-Steuerungen, seriellen Schnittstellen, wie etwa SPI, I2C oder universeller programmierbarer serieller Schnittstellenschaltung, Echtzeituhr (RTC), Timer-Zähler, einschließlich Intervall- und Watchdog-Timern, Allzweck-E/A, Speicherkartensteuerungen, wie etwa Secure Digital/Multimedia Card (SD/MMC) oder ähnlichen Schnittstellen, MIPI(Mobile Industry Processor Interface)-Schnittstellen und JTAG(Joint Test Access Group)-Testzugangsports. In einigen Implementierungen kann die Prozessorschaltungsanordnung 852 einen oder mehrere Hardwarebeschleuniger (z. B. gleich oder ähnlich wie die Beschleunigungsschaltungsanordnung 864) umfassen, die Mikroprozessoren, programmierbare Verarbeitungsvorrichtungen (z. B. FPGA, ASIC usw.) oder dergleichen sein können. Der eine oder die mehreren Beschleuniger können zum Beispiel Beschleuniger für Computervision und/oder tiefes Lernen umfassen. In einigen Implementierungen kann die Prozessorschaltungsanordnung 852 eine On-Chip-Speicherschaltungsanordnung umfassen, die jeden geeigneten flüchtigen und/oder nichtflüchtigen Speicher, wie etwa DRAM, SRAM, EPROM, EEPROM, Flash-Speicher, Festkörperspeicher und/oder einen beliebigen anderen Typ von Speichervorrichtungstechnologie wie etwa jene umfassen kann, die hierin erörtert werden.
  • Die Prozessorschaltungsanordnung 852 kann zum Beispiel einen oder mehrere Prozessorkerne (CPUs), Anwendungsprozessoren, GPUs, RISC-Prozessoren, Acom-RISC-Machine (ARM)-Prozessoren, CISC-Prozessoren, einen oder mehrere DSPs, ein oder mehrere FPGAs, eine oder mehrere PLDs, eine oder mehrere ASICs, einen oder mehrere Basisbandprozessoren, eine oder mehrere integrierte Hochfrequenzschaltungen (RFIC), einen oder mehrere Mikroprozessoren oder Mikrocontroller, einen mehr Mehrkernprozessor, einen Multithread-Prozessor, einen Ultraniederspannungsprozessor, einen eingebetteten Prozessor oder beliebige andere bekannte Verarbeitungselemente oder jede geeignete Kombination davon umfassen. Die Prozessoren (oder Kerne) 852 können mit einem Arbeitsspeicher/Datenspeicher gekoppelt sein oder diesen umfassen und dazu konfiguriert sein, Anweisungen auszuführen, die im Arbeitsspeicher/Datenspeicher gespeichert sind, um zu ermöglichen, dass verschiedene Anwendungen oder Betriebssysteme auf dem Knoten 850 ausgeführt werden. Der Prozessor (oder die Kerne) 852 ist dazu ausgelegt, Anwendungssoftware zu betreiben, um einen spezifischen Dienst für einen Benutzer des Knotens 850 bereitzustellen. In einigen Ausführungsformen können der eine oder die mehreren Prozessoren 852 Spezialprozessor(en)/-steuerung(en) sein, der (die) dazu konfiguriert (oder konfigurierbar) ist (sind), gemäß den verschiedenen Ausführungsformen hierin zu arbeiten.
  • Als Beispiele können der eine oder die mehreren Prozessoren 852 einen Intel® Architecture Core™-basierten Prozessor, wie etwa einen i3-, einen i5-, einen i7-, einen i9-basierten Prozessor; einen Mikrocontroller-basierten Intel®-Prozessor, wie etwa einen Quark™-, einen Atom™- oder einen anderen MCU-basierten Prozessor; einen oder mehrere Pentium®-Prozessor(en), Xeon®-Prozessor(en) oder einen anderen solchen Prozessor umfassen, der von der Intel® Corporation, Santa Clara, Kalifornien, erhältlich ist. Es kann jedoch eine beliebige Anzahl anderer Prozessoren verwendet werden, wie etwa einer oder mehrere von AMD (Advanced Micro Devices) Zen® Architecture, wie etwa Ryzen®- oder EPYC®-Prozessor(en), (APUs (Accelerated Processing Units), MxGPUs, Epyc®-Prozessor(en) oder dergleichen; A5-A12- und/oder S1-S4-Prozessor(en) von Apple® Inc., Snapdragon™- oder Centriq™-Prozessor(en) von Qualcomm® Technologies, Inc., OMAP™-Prozessor(en) (Open Multimedia Applications Platform) von Texas Instruments, Inc.®; ein MIPS-basiertes Design von MIPS Technologies, Inc., wie die Prozessoren Warrior M-class, Warrior 1-class und Warrior P-class von MIPS; ein ARM-basiertes Design, lizenziert von ARM Holdings, Ltd., wie die Cortex-A-, Cortex-R- und Cortex-M-Prozessorfamilie von ARM; das von Cavium™, Inc. bereitgestellte ThunderX29; oder dergleichen. In einigen Implementierungen können der eine oder die mehreren Prozessoren 852 ein Teil eines System-on-Chip (SoC), System-in-Package (SiP), eines Multi-Chip-Package (MCP) und/oder dergleichen sein, wobei der eine oder die mehreren Prozessoren 852 und andere Komponenten in einer einzigen integrierten Schaltung oder einem einzigen Gehäuse, wie etwa den Edison™- oder Galileo™-SoC-Platinen von Intel® Corporation, ausgebildet sind. Andere Beispiele für den einen oder die mehreren Prozessoren 852 sind an anderer Stelle der vorliegenden Offenbarung erwähnt.
  • Der eine oder die mehreren Prozessoren 852 können über eine Zwischenverbindung (IX) 856 mit dem Systemspeicher 854 kommunizieren. Eine beliebige Anzahl an Speichervorrichtungen kann verwendet werden, um eine gegebene Menge an Systemspeicher bereitzustellen. Als Beispiele kann der Speicher Direktzugriffsspeicher (RAM) gemäß einem JEDEC-Design (JEDEC - Joint Electron Devices Engineering Council) sein, wie etwa den Standards DDR oder Mobile DDDR (z. B. LPDDR, LPDDR2, LPDDR3 oder LPDDR4). Bei bestimmten Beispielen kann eine Speicherkomponente einem Standard entsprechen, der durch JEDEC veröffentlicht ist, wie etwa ESD79F für DDR-SDRAM, JESD79-2F für DDR2-SDRAM, JESD79-3F für DDR3-SDRAM, JESD79-4A für DDR4-SDRAM, JESD209 für Low-Power-DDR (LPDDR), JESD209-2 für LPDDR2, JESD209-3 für LPDDR3, und JESD209-4 für LPDDR4. Andere RAM-Typen, wie etwa dynamischer RAM (DRAM), synchroner DRAM (SDRAM) und/oder dergleichen, können ebenfalls enthalten sein. Solche Standards (und ähnliche Standards) können als DDR-basierte Standards bezeichnet werden und Kommunikationsschnittstellen der Speicherungseinrichtungen, die solche Standards implementieren, können als DDR-basierte Schnittstellen bezeichnet werden. Bei verschiedenen Implementationen können die einzelnen Speichervorrichtungen beliebige einer Reihe von unterschiedlichen Package-Typen sein, wie etwa Single Die Package (SDP), Dual Die Package (DDP) oder Quad Die Package (Q17P). Diese Vorrichtungen können bei einigen Beispielen direkt auf eine Hauptplatine gelötet sein, um eine Lösung mit niedrigerem Profil bereitzustellen, während die Vorrichtungen bei anderen Beispielen als ein oder mehrere Speichermodule konfiguriert sind, die wiederum durch einen gegebenen Verbinder mit der Hauptplatine gekoppelt sind. Eine beliebige Anzahl anderer Speicherimplementierungen kann verwendet werden, wie etwa andere Typen von Speichermodulen, z. B. DIMMs (Dual Inline Memory Modules) verschiedener Varianten, darunter microDIMMs oder MiniDIMMs, ohne darauf beschränkt zu sein.
  • Um eine persistente Speicherung von Informationen, wie etwa Daten, Anwendungen, Betriebssystemen und so weiter, bereitzustellen, kann ein Datenspeicher 858 auch über die IX 856 mit dem Prozessor 852 gekoppelt sein. In einem Beispiel kann der Datenspeicher 858 über ein Festkörperplattenlaufwerk (SSDD) und/oder einen elektrisch löschbaren Hochgeschwindigkeitsspeicher (allgemein als „“Flash-Speicher bezeichnet) implementiert sein. Andere Vorrichtungen, die für den Datenspeicher 858 verwendet werden können, umfassen Flash-Speicherkarten, wie etwa SD-Karten, microSD-Karten, XD-Bildkarten und dergleichen, und USB-Flash-Laufwerke. In einem Beispiel kann die Speichervorrichtung eine Speichervorrichtung sein oder umfassen, die Chalkogenidglas, NAND-Flash-Speicher mit mehreren Schwellenpegeln, NOR-Flash-Speicher, Phasenwechselspeicher mit einer oder mehreren Ebenen (PCM), einen resistiven Speicher, Nanodrahtspeicher, ferroelektrischen Transistor-Direktzugriffsspeicher (FeTRAM), antiferroelektrischen Speicher, magnetoresistiven Direktzugriffsspeicher (MRAM), der Memristor-Technologie umfasst, Phasenwechsel-RAM (PRAM), resistiven Speicher auf Metalloxidbasis, Sauerstoffleerstellenbasis und Conductive-Brige-Direktzugriffsspeicher (CB-RAM) oder Spin-Transfer-Torque(STT)-MRAM, eine Vorrichtung auf der Basis eines Spintronik-Speichers mit magnetischem Übergang, eine Vorrichtung auf der Basis eines magnetischen Tunnelübergangs (MTJ - Magnetic Tunneling Junction), eine Vorrichtung auf Domänenwand- und SOT(Spin Orbit Transfer)-Basis, eine Speichervorrichtung Thyristorbasis oder eine Kombination beliebiger der obigen oder anderen Speicher einsetzt. Die Arbeitsspeicherschaltungsanordnung 854 und/oder die Datenspeicherschaltungsanordnung 858 können auch dreidimensionale (3D) Crosspoint(XPOINT)-Speicher von Intel® und Micron® umfassen.
  • Bei Niedrigleistungsimplementierungen kann es sich bei dem Datenspeicher 858 um einen On-Die-Speicher oder mit dem Prozessor 852 assoziierte Register handeln. In einigen Beispielen kann der Datenspeicher 758 jedoch unter Verwendung eines Mikrofestplattenlaufwerks (HDD) implementiert werden. Ferner kann eine beliebige Anzahl neuer Technologien für den Datenspeicher 858 zusätzlich zu oder anstelle der beschriebenen Technologien verwendet werden, wie unter anderem Widerstandsänderungsspeicher, Phasenwechselspeicher, holographische Speicher oder chemische Speicher.
  • Die Datenspeicherungsschaltungsanordnung 858 speichert Rechenlogik 882 (oder „- module 882“) in Form von Software, Firmware oder Hardwarebefehlen, um die hierin beschriebenen Techniken zu implementieren. Die Rechenlogik 882 kann eingesetzt werden, um Arbeitskopien und/oder permanente Kopien von Computerprogrammen oder Daten zum Erstellen der Computerprogramme für den Betrieb verschiedener Komponenten des Knotens 850 (z. B. Treiber usw.), eines OS des Knotens 850 und/oder einer oder mehrerer Anwendungen zum Ausführen der hierin erörterten Ausführungsformen zu speichern. Die Rechenlogik 882 kann als Anweisungen 882 oder Daten zum Erzeugen der Anweisungen 888 zur Ausführung durch die Prozessorschaltungsanordnung 852 zum Bereitstellen der hierin beschriebenen Funktionen gespeichert oder in die Arbeitsspeicherschaltungsanordnung 854 geladen werden. Die verschiedenen Elemente können durch Assembleranweisungen, die durch die Prozessorschaltungsanordnung 852 unterstützt werden, oder Hochsprachen implementiert werden, die in solche Anweisungen (z. B. Anweisungen 888 oder Daten zum Erzeugen der Anweisungen 888) kompiliert werden können. Die permanente Kopie der Programmieranweisungen kann zum Beispiel durch ein Verteilungsmedium (nicht gezeigt), durch eine Kommunikationsschnittstelle (z. B. von einem Verteilungsserver (nicht gezeigt)) oder über die Luft (OTA) in persistente Speichervorrichtungen der Datenspeicherungsschaltungsanordnung 858 in der Fabrik oder im Feld platziert werden.
  • In einem Beispiel sind die Anweisungen 888, die über die Arbeitsspeicherschaltungsanordnung 854 und/oder die Datenspeicherschaltungsanordnung 858 von 8 bereitgestellt werden, als ein oder mehrere nichtflüchtige computerlesbare Speichermedien (siehe z. B. NTCRSM 860) umgesetzt, die Programmcode, ein Computerprogrammprodukt oder Daten zum Erzeugen des Computerprogramms umfassen, wobei das Computerprogramm oder die Daten die Prozessorschaltungsanordnung 858 des Knotens 850 anweisen, elektronische Operationen im Knoten 850 durchzuführen und/oder eine spezifische Sequenz oder einen spezifischen Fluss von Aktionen durchzuführen, wie zum Beispiel mit Bezug auf das eine oder die mehreren zuvor dargestellten Flussdiagramme und Blockdiagramme von Operationen und Funktionalität beschrieben. Die Prozessorschaltungsanordnung 852 greift über die Zwischenverbindung 856 auf das eine oder die mehreren nichtflüchtigen computerlesbaren Speicherungsmedien zu.
  • Bei alternativen Ausführungsformen können Programmieranweisungen (oder Daten zum Erzeugen der Anweisungen) auf mehreren NTCRSM 860 angeordnet sein. Bei alternativen Ausführungsformen können Programmieranweisungen (oder Daten zum Erzeugen der Anweisungen) auf computerlesbaren flüchtigen Speichermedien, wie etwa Signalen, angeordnet sein. Die Anweisungen, die durch ein maschinenlesbares Medium verkörpert sind, können ferner über ein Kommunikationsnetzwerk unter Verwendung eines Übertragungsmediums über eine Netzwerkschnittstellenvorrichtung übertragen oder empfangen werden, die ein beliebiges einer Anzahl von Übertragungsprotokollen (z. B. HTTP) nutzt. Es kann eine beliebige Kombination eines oder mehrerer computernutzbarer oder computerlesbarer Medien genutzt werden. Bei dem computernutzbaren oder computerlesbaren Medium kann es sich unter anderem zum Beispiel um ein oder mehrere elektronische, magnetische, optische, elektromagnetische, Infrarot- oder Halbleitersysteme, -einrichtungen, -einrichtungen oder -ausbreitungsmedien handeln. Beispielsweise kann das NTCRSM 860 durch Vorrichtungen umgesetzt sein, die für die Speicherungsschaltungsanordnung 858 und/oder die Speicherungsschaltungsanordnung 854 beschrieben sind. Spezifischere Beispiele (eine nicht abschließende Liste) eines computerlesbaren Mediums würden Folgendes umfassen: eine elektrische Verbindung mit einem oder mehreren Drähten, eine tragbare Computerdiskette, eine Festplatte, einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM, Flash-Speicher usw.), eine optische Faser, einen tragbaren CD-ROM (Compact Disc Read-Only Memory), eine optische Speichervorrichtung und/oder optische Platten, Übertragungsmedien, wie etwa jene, die das Internet oder ein Intranet unterstützen, eine magnetische Speichervorrichtung oder eine beliebige Anzahl anderer Hardwarevorrichtungen. Es ist anzumerken, dass das computernutzbare oder computerlesbare Medium selbst Papier oder ein anderes geeignetes Medium sein kann, auf dem das Programm (oder Daten zum Erzeugen des Programms) ausgedruckt ist, da das Programm (oder Daten zum Erzeugen des Programms) beispielsweise über ein optisches Scannen des Papiers oder anderen Mediums elektronisch erfasst, dann kompiliert, interpretiert oder anderweitig auf eine geeignete Art und Weise verarbeitet werden kann, falls notwendig, und dann in einem Computerspeicher (mit oder ohne in einem oder mehreren Zwischenspeicherungsmedien gestapelt worden zu sein) gespeichert werden kann. Im Kontext dieses Dokuments kann ein computernutzbares oder computerlesbares Medium ein beliebiges Medium sein, das das Programm (oder Daten zum Erstellen des Programms) zur Verwendung durch oder in Verbindung mit dem Anweisungsausführungssystem, der Anweisungsausführungseinrichtung oder der Anweisungsausführungsvorrichtung enthalten, speichern, kommunizieren, propagieren oder transportieren kann. Das computernutzbare Medium kann ein propagiertes Datensignal mit dem damit verkörperten computernutzbaren Programmcode (oder Daten zum Erzeugen des Programmcodes) entweder im Basisband oder als Teil einer Trägerwelle einschließen.. Der computernutzbare Programmcode (oder Daten zum Erzeugen des Programms) kann unter Verwendung jedes geeigneten Mediums übertragen werden, darunter drahtlose, drahtgebundene, optisches Faserkabel, HF usw., ohne darauf beschränkt zu sein.
  • Bei diversen Ausführungsformen kann der hierin beschriebene Programmcode (oder können Daten zum Erzeugen des Programmcodes) in einem oder mehreren eines komprimierten Formats, eines verschlüsselten Formats, eines fragmentierten Formats, eines verpackten Formats usw. gespeichert sein. Programmcode (oder Daten zum Erzeugen des Programmcodes), wie hierin beschrieben, kann Installation und/oder Modifikation und/oder Anpassung und/oder Aktualisierung und/oder Kombination und/oder Ergänzung und/oder Konfiguration und/oder Entschlüsselung und/oder Dekomprimierung und/oder Entpackung und/oder Verteilung und/oder Neuzuweisung usw. erfordern, um sie durch eine Rechenvorrichtung und/oder eine andere Maschine direkt lesbar und/oder ausführbar zu machen. Zum Beispiel kann der Programmcode (oder Daten zum Erzeugen des Programmcodes) in mehreren Teilen gespeichert sein, die einzeln komprimiert, verschlüsselt und auf separaten Rechenvorrichtungen gespeichert sind, wobei die Teile, wenn sie entschlüsselt, dekomprimiert und kombiniert werden, einen Satz ausführbarer Anweisungen bilden, die den Programmcode (die Daten zum Erzeugen des Programmcodes wie hierin beschrieben implementieren. In einem anderen Beispiel kann der Programmcode (oder Daten zum Erzeugen des Programmcodes) in einem Zustand gespeichert werden, in dem sie durch einen Computer gelesen werden können, aber einen Zusatz einer Bibliothek (z. B. einer Dynamic Link Library), eines SDK (Software Development Kit), einer Anwendungsprogrammierungsschnittstelle (API) usw. erfordern, um die Anweisungen auf einer speziellen Rechenvorrichtung oder anderen Vorrichtung auszuführen. In einem anderen Beispiel muss der Programmcode (oder Daten zum Erzeugen des Programmcodes) möglicherweise konfiguriert werden (z. B. Einstellungen gespeichert, Daten eingegeben, Netzwerkadressen aufgezeichnet werden usw.), bevor der Programmcode (oder Daten zum Erzeugen des Programmcodes) vollständig oder teilweise ausgeführt werden kann. In diesem Beispiel kann der Programmcode (oder können Daten zum Erzeugen des Programmcodes) entpackt, zur ordnungsgemäßen Ausführung konfiguriert und an einem ersten Ort gespeichert werden, wobei sich die Konfigurationsanweisungen an einem zweiten Ort befinden, der sich von dem ersten Ort unterscheidet. Die Konfigurationsanweisungen können durch eine Aktion, einen Auslöser oder eine Anweisung initiiert werden, die/der sich nicht zusammen mit den Anweisungen, welche die offenbarten Techniken ermöglichen, am Speicher- oder Ausführungsort befindet. Dementsprechend soll der offenbarte Programmcode (oder Daten zum Erzeugen des Programmcodes) derartige maschinenlesbare Anweisungen und/oder Programm(e) (oder Daten zum Erzeugen solcher maschinelesbarer Anweisungen und/oder Programme) ungeachtet des speziellen Formats oder Zustands der maschinenlesbaren Anweisungen und/oder Programm(e) einschließen, wenn sie gespeichert oder anderweitig im Ruhezustand oder im Transit sind.
  • Computerprogrammcode zum Ausführen von Operationen der vorliegenden Offenbarung (z. B. Rechenlogik 882, Anweisungen 882, Anweisungen 888, die zuvor erörtert wurden) kann in einer beliebigen Kombination einer oder mehrerer Programmiersprachen geschrieben werden, einschließlich einer objektorientierten Programmiersprache, wie etwa Python, Ruby, Scala, Smalltalk, Java™, C++, C# oder dergleichen; einer verfahrensorientierten Programmiersprache, wie etwa die Programmiersprache „C“, die Programmiersprache Go (oder „Golang“) oder dergleichen; eine Skriptsprache, wie etwa JavaScript, Server-Side JavaScript (SSJS), JQuery, PHP, Pearl, Python, Rubin on Rails, AMPcript (Accelerated Mobile Pages Script), Lost Template Language, Handlebar Template Language, GTL (Guide Template Language), PHP, Java und/oder Java Server Pages (JSP), Node.js, ASP.NET, JAMskript und/oder dergleichen; eine Markupsprache wie HTML (Hypertext Markup Language), XML (Extensible Markup Language), Java Script Object Notion (JSON), Apex®, CSS (Cascading Stylesheets), JavaServer Pages (JSP), MessagePack™, Apache® Thrift, ASN.1 (Abstract Syntax Notation One), Google® Protocol Buffers (Protobuf) oder dergleichen; einige andere geeignete Programmiersprachen, einschließlich proprietärer Programmiersprachen, und/oder Entwicklungstools oder beliebige andere Sprachtools. Der Computerprogrammcode zum Ausführen von Operationen der vorliegenden Erfindung kann auch in einer beliebigen Kombination der hierin erörterten Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf dem System 850, teilweise auf dem System 850, als ein eigenständiges Softwarepaket, teilweise auf dem System 850 und teilweise auf einem Remote-Computer oder vollständig auf dem Remote-Computer oder Server ausgeführt werden. In letzterem Szenario kann der Remote-Computer durch eine beliebige Art von Netzwerk, einschließlich eines LAN oder WAN, mit dem System 850 verbunden sein, oder die Verbindung kann mit einem externen Computer (z. B. über das Internet unter Verwendung eines Internetdienstanbieters) hergestellt werden.
  • In einem Beispiel können die Anweisungen 888 auf der Prozessorschaltungsanordnung 852 (separat oder in Kombination mit den Anweisungen 882 und/oder Logik/Modulen 882, die in computerlesbaren Speicherungsmedien gespeichert sind) die Ausführung oder Operation einer vertrauenswürdigen Ausführungsumgebung (TEE) 890 konfigurieren. Die TEE 890 arbeitet als ein geschützter Bereich, auf den die Prozessorschaltungsanordnung 852 zugreifen kann, um einen sicheren Zugriff auf Daten und eine sichere Ausführung von Anweisungen zu ermöglichen. In einigen Ausführungsformen kann die TEE 890 eine physische Hardwarevorrichtung sein, die von anderen Komponenten des Systems 850 getrennt ist, wie eine sicher eingebettete Steuerung, ein dedizierter SoC oder ein manipulationssicherer Chipsatz oder Mikrocontroller mit eingebetteten Verarbeitungsvorrichtungen und Speichervorrichtungen. Beispiele solcher Ausführungsformen umfassen Desktop- und mobile Architektur-Hardware(DASH)-konforme Netzwerkschnittstellenkarte (NIC - Network Interface Card), Intel® Management/Manageability Engine, Intel® Converged Security Engine (CSE) oder Converged Security Management/Manageability Engine (CSME), Trusted Execution Engine (TXE), vertrieben von Intel®, die jeweils zusammen mit Intel® Active Management Technology (AMT) und/oder Intel® vPro™ Technology betrieben werden können; AMD® Platform Security coProcessor (PSP), AMD® PRO A-Series Accelerated Processing Unit (APU) mit DASH-Verwaltbarkeit, Apple® Secure Enclave-Coprozessor; IBM® Crypto Express3®, IBM® 4807, 4808, 4809 und/oder 4765 Cryptographic Coprocessors, IBM® Baseboard Management Controller (BMC) mit Intelligent Platform Management Interface (IPMI), Dell™ Remote Assistant Card II (DRAC II), integrated Dell™ Remote Assistant Card (iDRAC) und dergleichen.
  • In anderen Ausführungsformen kann die TEE 890 als sichere Enklaven implementiert sein, die isolierte Code- und/oder Datenregionen innerhalb des Prozessors und/oder der Arbeitsspeicher-/Datenspeicherschaltungsanordnung des Systems 850 sind. Nur Code, der innerhalb einer sicheren Enklave ausgeführt wird, kann auf Daten innerhalb derselben sicheren Enklave zugreifen, und die sichere Enklave kann nur unter Verwendung der sicheren Anwendung zugänglich sein (die durch einen Anwendungsprozessor oder einen manipulationssicheren Mikrocontroller implementiert werden kann). Verschiedene Implementierungen der TEE 850 und eines begleitenden sicheren Bereichs in der Prozessorschaltungsanordnung 852 oder der Arbeitsspeicherschaltungsanordnung 854 und/oder der Datenspeicherschaltungsanordnung 858 können zum Beispiel durch Verwendung von Intel® Software Guard Extensions (SGX), ARM® TrustZone® Hardwaresicherheitserweiterungen, Keystone Enclaves, die von Oasis Labs™ bereitgestellt werden, und/oder dergleichen bereitgestellt werden. Andere Aspekte von Sicherheitshärtung, Hardware-Roots-of-Trust und vertrauenswürdigen oder geschützten Operationen können in der Vorrichtung 850 durch die TEE 890 und die Prozessorschaltungsanordnung 852 implementiert werden.
  • In einigen Ausführungsformen können die Arbeitsspeicherschaltungsanordnung 854 und/oder die Datenspeicherschaltungsanordnung 858 in isolierte Benutzerrauminstanzen unterteilt sein, wie etwa Container, Partitionen, virtuelle Umgebungen (VEs) usw. Die isolierten Benutzerrauminstanzen können unter Verwendung einer geeigneten Virtualisierungstechnologie auf OS-Ebene, wie etwa Docker®-Container, Kubernetes®-Container, Solaris®-Container und/oder -Zonen, virtuellen privaten OpenVZ®-Servern, virtuellen DragonFly BSD®-Kerneln und/oder -Käfigen, chroot-Käfigen und/oder dergleichen, implementiert werden. In einigen Implementierungen könnten auch virtuelle Maschinen verwendet werden. In einigen Ausführungsformen können die Arbeitsspeicherschaltungsanordnung 854 und/oder die Datenspeicherschaltungsanordnung 858 in eine oder mehrere vertrauenswürdige Speicherregionen zum Speichern von Anwendungen oder Softwaremodulen der TEE 890 unterteilt sein.
  • Obwohl die Anweisungen 882 als Codeblöcke gezeigt sind, die in der Arbeitsspeicherschaltungsanordnung 854 enthalten sind, und die Rechenlogik 882 als Codeblöcke in der Datenspeicherschaltungsanordnung 858 gezeigt ist, versteht es sich, dass beliebige der Codeblöcke durch festverdrahtete Schaltungen ersetzt werden können, die zum Beispiel in ein FPGA, eine ASIC oder eine andere geeignete Schaltungsanordnung eingebaut sind. Wenn die Prozessorschaltungsanordnung 852 zum Beispiel (z. B. FPGA-basierte) Hardwarebeschleuniger sowie Prozessorkerne umfasst, können die Hardwarebeschleuniger (z. B. die FPGA-Zellen) mit der oben erwähnten Rechenlogik vorkonfiguriert sein (z. B. mit entsprechenden Bitströmen), um einige oder alle der zuvor erörterten Funktionen auszuführen (anstelle der Verwendung von Programmierbefehlen, die von dem oder den Prozessorkernen auszuführen sind).
  • Die Arbeitsspeicherschaltungsanordnung 854 und/oder die Datenspeicherschaltungsanordnung 858 können Programmcode eines Betriebssystems (OS) speichern, das ein Allzweck-OS oder ein OS sein kann, das speziell für den Rechenknoten 850 geschrieben und darauf zugeschnitten ist. Das OS kann zum Beispiel Unix oder ein Unix-ähnliches OS sein, wie z. B. etwa Linux bereitgestellt von Red Hat Enterprise, Windows 10™, bereitgestellt von Microsoft Corp.®, macOS, bereitgestellt von Apple Inc.® oder dergleichen. In einem anderen Beispiel kann das OS ein mobiles OS sein, wie etwa Android®, das von Google Inc.® bereitgestellt wird, iOS®, das von Apple Inc.® bereitgestellt wird, Windows 10 Mobile®, das von Microsoft Corp.® bereitgestellt wird, KaiOS, das von KaiOS Technologies Inc. bereitgestellt wird, oder dergleichen. In einem anderen Beispiel kann das OS ein Echtzeit-OS (RTOS) sein, wie etwa Apache Mynewt, das von der Apache Software Foundation® bereitgestellt wird, Windows 10 For IoT®, das von Microsoft Corp.® bereitgestellt wird, Micro-Controller Operating Systems („MicroC/OS“ oder „µC/OS“), das von Micrium9 bereitgestellt wird, Inc., FreeRTOS, VxWorks®, bereitgestellt von Wind River Systems, Inc.®, PikeOS, bereitgestellt von Sysgo AG®, Android Things®, bereitgestellt von Google Inc.®, QNX® RTOS, bereitgestellt von BlackBerry Ltd., oder jedes andere geeignete RTOS, wie etwa die hierin erörterten.
  • Das OS kann einen oder mehrere Treiber umfassen, die dazu dienen, bestimmte Vorrichtungen zu steuern, die im Knoten 850 eingebettet, am Knoten 850 angebracht oder anderweitig kommunikativ mit dem Knoten 850 gekoppelt sind. Die Treiber können individuelle Treiber umfassen, die anderen Komponenten des Knotens 850 ermöglichen, mit verschiedenen E/A-Vorrichtungen, die innerhalb des Knotens 850 vorhanden oder damit verbunden sein können, zu interagieren oder diese zu steuern. Zum Beispiel können die Treiber einen Anzeigentreiber zum Steuern und Ermöglichen von Zugriff auf eine Anzeigevorrichtung, einen Touchscreen-Treiber zum Steuern und Ermöglichen von Zugriff auf eine Touchscreen-Schnittstelle des Knotens 850, Sensortreiber zum Erhalten von Sensorablesungen der Sensorschaltungsanordnung 872 und zum Steuern und Ermöglichen von Zugriff auf die Sensorschaltungsanordnung 872, Aktuatortreiber zum Erhalten von Aktuatorpositionen der Aktuatoren 874 und/oder Steuern und Ermöglichen von Zugriff auf die Aktuatoren 874, einen Kameratreiber zum Steuerung und Ermöglichen von Zugriff auf eine eingebettete Bilderfassungsvorrichtung, Audiotreiber zum Steuern und Ermöglichen von Zugriff auf eine oder mehrere Audio-Vorrichtungen umfassen. Die OSs können auch eine oder mehrere Bibliotheken, Treiber, APIs, Firmware, Middleware, Softwarekleber usw. umfassen, die Programmcode und/oder Softwarekomponenten für eine oder mehrere Anwendungen bereitstellen, um die Daten von einer sicheren Ausführungsumgebung, vertrauenswürdigen Ausführungsumgebung und/oder Verwaltungs-Engine des Knotens 850 (nicht gezeigt) zu erhalten und zu verwenden.
  • Die Komponenten der Edge-Rechenvorrichtung 850 können über die IX 856 kommunizieren. Die IX 856 kann eine beliebige Anzahl von Technologien umfassen, darunter ISA, erweiterte ISA, 12C, SPI, Punkt-zu-Punkt-Schnittstellen, PMBus (Power Management Bus), PCI, PCIe, PCIx, Intel® UPI, Intel® Accelerator Link, Intel® CXL, CAPI, OpenCAPI, Intel® QPI, UPI, Intel® OPA IX, RapidIO™ System IXs, CCIX, Gen-Z Consortium IXs, eine HyperTransport-Zwischenverbindung, NVLink, bereitgestellt durch NVIDIA®, ein TTP(Time-Trigger Protocol)-System, ein FlexRay-System und/oder eine beliebige Anzahl anderer IX-Technologien. Die IX 856 kann ein proprietärer Bus sein, der zum Beispiel in einem SoC-basierten System verwendet wird.
  • Die IX 856 koppelt den Prozessor 852 mit einer Kommunikationsschaltungsanordnung 866 zur Kommunikation mit anderen Vorrichtungen, wie etwa einem Remoteserver (nicht gezeigt) und/oder den verbundenen Edge-Vorrichtungen 862. Die Kommunikationsschaltungsanordnung 866 ist ein Hardwareelement oder eine Sammlung von Hardwareelementen, das/die zum Kommunizieren über ein oder mehrere Netzwerke (z. B. Cloud 863) und/oder mit anderen Vorrichtungen (z. B. Edge-Vorrichtungen 862) verwendet wird.
  • Der Sendeempfänger 866 kann eine beliebige Anzahl von Frequenzen und Protokollen verwenden, wie etwa unter anderem Übertragungen auf 2,4 Gigahertz (GHz) gemäß dem IEEE 802.15.4-Standard unter Verwendung des Bluetooth® Low Energy (BLE)-Standards, wie durch die Bluetooth® Special Interest Group definiert, oder des ZigBee®-Standards. Eine beliebige Anzahl von Funkgeräten, die für ein bestimmtes Drahtloskommunikationsprotokoll konfiguriert sind, kann für die Verbindungen zu den verbundenen Edge-Vorrichtungen 862 verwendet werden. Zum Beispiel kann eine WLAN-Einheit (WLAN - Wireless Local Area Network) verwendet werden, um WiFi®-Kommunikationen gemäß dem 802.11-Standard des Institute of Electrical and Electronics Engineers (IEEE) zu implementieren. Außerdem können drahtlose Weitverkehrskommunikationen, z. B. gemäß einem zellularen oder anderen Drahtlos-Weitverkehrsprotokoll über eine Einheit eines drahtlosen Weitverkehrsnetzwerks (WWAN) stattfinden.
  • Der Drahtlosnetzwerk-Sendeempfänger 866 (oder mehrere Sendeempfänger) kann (können) unter Verwendung mehrerer Standards oder Funkgeräte für Kommunikationen mit unterschiedlicher Reichweite kommunizieren. Beispielsweise kann der Edge-Rechenknoten 850 mit nahen Vorrichtungen, z. B. innerhalb von etwa 10 Metern, unter Verwendung eines lokalen Sendeempfängers basierend auf BLE oder einem anderen Niedrigleistungsfunk kommunizieren, um Leistung einzusparen. Weitere entfernte verbundene Edge-Vorrichtungen 862, z. B. innerhalb von etwa 50 Metern, können über ZigBee® oder anderen Mittelleistungsfunkgeräte erreicht werden. Beide Kommunikationstechniken können über ein einziges Funkgerät auf unterschiedlichen Leistungspegeln stattfinden, oder sie können über separate Sendeempfänger stattfinden, zum Beispiel einen lokalen Sendeempfänger, der BLE verwendet, und einen separaten Mesh-Sendeempfänger, der ZigBee® verwendet.
  • Ein Drahtlosnetzwerk-Sendeempfänger 866 (z. B. ein Funk-Sendeempfänger) kann enthalten sein, um mit Vorrichtungen oder Diensten in der Edge-Cloud 863 über Orts- oder Weitverkehrsnetzwerkprotokolle zu kommunizieren. Der Drahtlosnetzwerk-Sendeempfänger 866 kann ein LPWA-Sendeempfänger sein, der unter anderem den Standards IEEE 802.15.4 oder IEEE 802.15.4g entspricht. Der Edge-Rechenknoten 863 kann unter Verwendung des von Semtech und der LoRa Alliance entwickelten von LoRaWAN™ (Long Range Wide Area Network) über einen weiten Bereich kommunizieren. Die hierin beschriebenen Techniken sind nicht auf diese Technologien beschränkt, sondern können mit einer beliebigen Anzahl von anderen Cloud-Sendeempfängern, die Kommunikationen mit großer Reichweite und niedriger Bandbreite implementieren, wie etwa Sigfox, und anderen Technologien verwendet werden. Ferner können andere Kommunikationstechniken, wie beispielsweise Kanalspringen mit Zeitschlitzen, das in der Spezifikation IEEE 802.15.4e beschrieben ist, verwendet werden.
  • Eine beliebige Anzahl anderer Funkkommunikationen und -protokolle kann zusätzlich zu den für den Drahtlosnetzwerk-Sendeempfänger 866 erwähnten Systemen verwendet werden, wie hierin beschrieben. Der Sendeempfänger 866 kann zum Beispiel einen zellularen Sendeempfänger umfassen, der Spreizspektrum (SPA/SAS)-Kommunikationen zum Implementieren von Hochgeschwindigkeitskommunikationen verwendet. Ferner kann eine beliebige Anzahl anderer Protokolle verwendet werden, wie etwa WiFi®-Netzwerke für Mittelgeschwindigkeitskommunikationen und Bereitstellung von Netzwerkkommunikationen. Der Sendeempfänger 866 kann Funkgeräte umfassen, die mit einer beliebigen Anzahl von 3GPP-Spezifikationen kompatibel sind, wie etwa LTE und 5G/NR-Kommunikationssysteme, die am Ende der vorliegenden Offenbarung ausführlicher erörtert werden. Eine Netzwerkschnittstellensteuerung (NIC) 868 kann enthalten sein, um drahtgebundene Kommunikation zu Knoten der Edge-Cloud 863 oder zu anderen Vorrichtungen, wie etwa den verbundenen Edge-Vorrichtungen 862 (z. B. die in einem Mesh arbeiten), bereitzustellen. Die drahtgebundene Kommunikation kann eine Ethernet-Verbindung bereitstellen, oder sie kann auf anderen Arten von Netzwerken basieren, wie etwa Controller Area Network (CAN), Local Interconnect Network (LIN), DeviceNet, ControlNet, Data Highway Plus (DH+), PROFIBUS oder PROFINET und anderen. Eine zusätzliche NIC 868 kann enthalten sein, um das Verbinden mit einem zweiten Netzwerk zu ermöglichen, wobei zum Beispiel eine erste NIC 868 Kommunikationen mit dem Cloud-over-Ethernet bereitstellt und eine zweite NIC 868 Kommunikationen mit anderen Vorrichtungen über einen anderen Typ von Netzwerk bereitstellt.
  • Angesichts der Vielfalt von Typen anwendbarer Kommunikationen von der Vorrichtung zu einer anderen Komponente oder einem anderen Netzwerk kann eine anwendbare Kommunikationsschaltungsanordnung, die von der Vorrichtung verwendet wird, eine oder mehrere beliebige der Komponenten 864, 866, 8768 oder 870 umfassen oder durch diese umgesetzt sein. Dementsprechend können bei verschiedenen Beispielen anwendbare Mittel zum Kommunizieren (z. B. Empfangen, Senden usw.) durch eine solche Kommunikationsschaltungsanordnung verkörpert werden.
  • Der Edge-Rechenknoten 850 kann eine Beschleunigungsschaltungsanordnung 864 umfassen oder mit dieser gekoppelt sein, die durch einen oder mehrere AI-Beschleuniger, einen neuronalen Rechenstick, neuromorphe Hardware, ein FPGA, eine Anordnung von GPUs, einen oder mehrere SoCs (einschließlich programmierbarer SoCs), eine oder mehrere CPUs, einen oder mehrere digitale Signalprozessoren, dedizierte ASICs (einschließlich programmierbarer ASICs), PLDs, wie etwa CPLDs oder HCPLDs, und/oder andere Formen spezialisierter Prozessoren oder Schaltungen umgesetzt ist, die zum Erfüllen einer oder mehrerer spezialisierter Aufgaben ausgelegt sind. Diese Aufgaben können AI-Verarbeitung (einschließlich Maschinenlern-, Trainings-, Inferenz- und Klassifizierungsoperationen), visuelle Datenverarbeitung, Netzdatenverarbeitung, Objektdetektion, Regelanalyse oder dergleichen umfassen. Bei FPGAbasierten Implementierungen kann die Beschleunigungsschaltungsanordnung 864 Logikblöcke oder Logikstruktur und andere miteinander verbundene Ressourcen umfassen, die programmiert (konfiguriert) werden können, um verschiedene Funktionen durchzuführen, wie etwa die Prozeduren, Verfahren, Funktionen usw. der verschiedenen hierin erörterten Ausführungsformen. Bei solchen Implementierungen kann die Beschleunigungsschaltungsanordnung 864 auch Speicherzellen (z. B. EPROM, EEPROM, Flash-Speicher, statischer Speicher (z. B. SRAM, Antifuse-Speicher usw.) umfassen, die zum Speichern von Logikblöcken, Logikstruktur, Daten usw. in LUTs und dergleichen verwendet werden.
  • Die IX 856 koppelt auch den Prozessor 852 mit einem Sensorhub oder einer externen Schnittstelle 870, die zum Anschließen zusätzlicher Vorrichtungen oder Subsysteme verwendet wird. Die zusätzlichen/externen Vorrichtungen können Sensoren 872, Aktuatoren 874 und Positionsbestimmungsschaltungen 845 umfassen.
  • Die Sensorschaltungsanordnung 872 umfasst Vorrichtungen, Module oder Subsysteme, deren Zweck darin besteht, Ereignisse oder Änderungen in ihrer Umgebung zu detektieren und die Informationen (Sensordaten) über die detektierten Ereignisse an irgendwelche anderen Vorrichtungen, Module, Subsysteme usw. zu senden. Beispiele für solche Sensoren 872 umfassen unter anderem Trägheitsmesseinheiten (IMU) mit Beschleunigungsmessern, Gyroskopen und/oder Magnetometern; mikroelektromechanische Systeme (MEMS) oder nanoelektromechanische Systeme (NEMS) mit 3-Achs-Beschleunigungsmessern, 3-Achs-Gyroskope, und/oder Magnetometer; Füllstandssensoren; Durchflusssensoren; Temp-Sensoren (z. B. Thermistoren); Drucksensoren; Luftdrucksensoren; Gravimeter; Höhenmesser; Bilderfassungsvorrichtungen (z. B. Kameras, Bayer-Sensoren/-Filter usw., mit oder ohne Bildverarbeitungseinheit (IPU) oder einem anderen ähnlichen Subsystem); Lichtdetektions- und Entfernungsmessungssensoren (LiDAR); Näherungssensoren (z. B. Infrarotstrahlungsdetektor und dergleichen); Tiefensensoren, Umgebungslichtsensoren; optische Lichtsensoren; Ultraschall-Sendeempfänger; Mikrofone; und dergleichen.
  • Die Aktuatoren 874 ermöglichen dem Knoten 850, seinen Zustand, seine Position und/oder seine Orientierung zu ändern oder einen Mechanismus oder ein System zu bewegen oder zu steuern. Die Aktuatoren 874 umfassen elektrische und/oder mechanische Vorrichtungen zum Bewegen oder Steuern eines Mechanismus oder Systems und wandeln Energie (z. B. elektrischer Strom oder sich bewegende Luft und/oder Flüssigkeit) in irgendeine Art von Bewegung um. Die Aktuatoren 874 können eine oder mehrere elektronische (oder elektrochemische) Vorrichtungen umfassen, wie etwa piezoelektrische Biomorphe, Festkörperaktuatoren, Festkörperrelais (SSRs), Aktuatoren auf der Basis von Formgedächtnislegierungen, Aktuatoren auf der Basis von elektroaktiven Polymeren, integrierte Relaistreiberschaltungen (ICs) und/oder dergleichen. Die Aktuatoren 874 können eine oder mehrere elektromechanische Vorrichtungen umfassen, wie etwa pneumatische Aktuatoren, hydraulische Aktuatoren, elektromechanische Schalter, einschließlich elektromechanischer Relais (EMRs), Motoren (z. B. DC-Motoren, Schrittmotoren, Servomechanismen usw.), Leistungsschalter, Ventilaktuatoren, Räder, Schubdüsen, Propeller, Klauen, Klemmen, Haken, Hörschallgenerator, optische Warnvorrichtungen und/oder andere ähnliche elektromechanische Komponenten. Der Knoten 850 kann dazu ausgelegt sein, einen oder mehrere Aktuatoren 874 basierend auf einem oder mehreren erfassten Ereignissen und/oder Anweisungen oder Steuersignalen zu betreiben, die von einem Dienstanbieter und/oder verschiedenen Clientsystemen empfangen werden.
  • Die Positionsbestimmungsschaltungsanordnung 845 umfasst Schaltungsanordnung zum Empfangen und Decodieren von Signalen, die durch ein Positionsbestimmungsnetzwerk eines globalen Navigationssatellitensystems (GNSS) übertragen/gesendet werden. Beispiele für Navigationssatellitenkonstellationen (oder GNSS) umfassen das Global Positioning System (GPS) der Vereinigten Staaten, das Global Positioning System (GLONASS) von Russland, das Galileo-System der Europäischen Union, das BeiDou Navigation Satellite System von China, ein regionales Navigationssystem oder GNSS-Erweiterungssystem (z. B. Navigation with Indian Constellation (NAVIC), das Quasi-Zenith Satellite System (QZSS) von Japan, das Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS) von Frankreich usw.) oder dergleichen. Die Positionsbestimmungsschaltungsanordnung 845 umfasst verschiedene Hardwareelemente (darunter z. B. Hardwarevorrichtungen, wie etwa Schalter, Filter, Verstärker, Antennenelemente und dergleichen, um OTA-Kommunikationen zu ermöglichen), um mit Komponenten eines Positionsbestimmungsnetzwerks, wie etwa Navigationssatellitenkonstellationsknoten, zu kommunizieren. In einigen Ausführungsformen kann die Positionsbestimmungsschaltungsanordnung 845 eine Mikrotechnologie zur Positionsbestimmungs-, Navigations- und Timing-IC (Micro-PNT) umfassen, die einen Hauptzeittakt verwendet, um eine Positionsverfolgung/-schätzung ohne GNSS-Unterstützung durchzuführen. Die Positionsbestimmungsschaltungsanordnung 845 kann auch Teil der Kommunikationsschaltungsanordnung 866 sein oder damit interagieren, um mit den Knoten und Komponenten des Positionsbestimmungsnetzwerks zu kommunizieren. Die Positionsbestimmungsschaltungsanordnung 845 kann auch Positionsdaten und/oder Zeitdaten für die Anwendungsschaltungsanordnung bereitstellen, welche die Daten verwenden kann, um Operationen mit diverser Infrastruktur (z. B. Funk-BSs), für Tum-by-Tum-Navigation oder dergleichen zu synchronisieren. Wenn kein GNSS-Signal verfügbar ist oder wenn eine GNSS-Positionsgenauigkeit für eine bestimmte Anwendung oder einen bestimmten Dienst nicht ausreicht, kann eine Positionsbestimmungserweiterungstechnologie verwendet werden, um erweiterte Positionsbestimmungsinformationen und -daten für die Anwendung oder den Dienst bereitzustellen. Eine solche Positionsbestimmungserweiterungstechnologie kann zum Beispiel satellitenbasierte Positionsbestimmungserweiterung (z. B. EGNOS) und/oder bodenbasierte Positionsbestimmungserweiterung (z. B. DGPS) umfassen. In einigen Implementierungen ist oder umfasst die Positionsbestimmungsschaltungsanordnung 845 ein INS, das ein System oder eine Vorrichtung ist, das/die eine Sensorschaltungsanordnung 872 (z. B. Bewegungssensoren, wie etwa Beschleunigungsmesser, Drehsensoren, wie etwa Gyroskope, und Höhenmesser, Magnetsensoren, und/oder dergleichen) verwendet, um ohne Notwendigkeit externer Referenzen kontinuierlich eine Position, Orientierung und/oder Geschwindigkeit (einschließlich Richtung und Geschwindigkeit der Bewegung) des Knotens 850 zu berechnen (z. B. unter Verwendung von Koppelnavigationsverfahren, Triangulation oder dergleichen).
  • In einigen optionalen Beispielen können verschiedene Eingabe/Ausgabe(E/A)-Vorrichtungen, die in 8 als Eingabeschaltungsanordnung 886 und Ausgabeschaltungsanordnung 884 bezeichnet werden, innerhalb des Edge-Rechenknotens 850 vorhanden oder damit verbunden sein. Die Eingabeschaltungsanordnung 886 und die Ausgabeschaltungsanordnung 884 umfassen eine oder mehrere Benutzerschnittstellen, die dazu ausgelegt sind, Benutzerinteraktion mit dem Knoten 850 zu ermöglichen, und/oder Peripheriekomponentenschnittstellen, die dazu ausgelegt sind, Peripheriekomponenteninteraktion mit dem Knoten 850 zu ermöglichen. Die Eingabeschaltungsanordnung 886 kann ein beliebiges physisches oder virtuelles Mittel zum Annehmen einer Eingabe umfassen, das unter anderem eine oder mehrere physische oder virtuelle Tasten (z. B. eine Rücksetztaste), eine Tastatur, ein Tastenfeld, eine Maus, ein Touchpad, einen Touchscreen, Mikrofone, einen Scanner, ein Headset - allesamt physisch - und/oder dergleichen umfasst. Die Ausgabeschaltungsanordnung 884 kann enthalten sein, um Informationen zu zeigen oder anderweitig Informationen, wie etwa Sensorablesungen, Aktuatorposition(en) oder andere ähnliche Informationen zu übermitteln. Daten und/oder Grafiken können auf einer oder mehreren Benutzerschnittstellenkomponenten der Ausgabeschaltungsanordnung 884 angezeigt werden. Die Ausgabeschaltungsanordnung 884 kann eine beliebige Anzahl und/oder Kombinationen von akustischen oder visuellen Anzeigen umfassen, die unter anderem eine oder mehrere einfache visuelle Ausgaben/Indikatoren (z. B. binäre Statusindikatoren (z. B. Leuchtdioden (LEDs)) und visuelle Mehrzeichenausgaben, oder komplexere Ausgaben, wie etwa Anzeigevorrichtungen oder Touchscreens (z. B. Flüssigkristallanzeigen (LCD), LED-Anzeigen, Quantenpunktanzeigen, Projektoren usw.) umfassen, wobei die Ausgabe von Zeichen, Grafiken, Multimediaobjekten und dergleichen aus dem Betrieb des Knotens 850 generiert oder erzeugtwird. Die Ausgabeschaltungsanordnung 884 kann auch Lautsprecher oder andere Audioemissionsvorrichtungen, Drucker und/oder dergleichen umfassen. In einigen Ausführungsformen kann die Sensorschaltungsanordnung 872 als die Eingabeschaltungsanordnung 884 (z. B. eine Bilderfassungsvorrichtung, Bewegungserfassungsvorrichtung oder dergleichen) verwendet werden und können ein oder mehrere Aktuatoren 874 als die Ausgabevorrichtungsschaltungsanordnung 884 (z. B. ein Aktuator zum Bereitstellen einer haptischen Rückmeldung oder dergleichen) verwendet werden. In einem anderen Beispiel kann eine Nahfeldkommunikation(NFC)-Schaltungsanordnung, die eine NFC-Steuerung umfasst, die mit einem Antennenelement und einer Verarbeitungsvorrichtung gekoppelt ist, enthalten sein, um elektronische Tags zu lesen und/oder eine Verbindung mit einer anderen NFC-fähigen Vorrichtung herzustellen. Peripheriekomponentenschnittstellen können unter anderem einen nichtflüchtigen Speicheranschluss, einen USB-Anschluss, eine Audio-Buchse, eine Stromversorgungsschnittstelle usw. umfassen. Eine Anzeige- oder Konsolenhardware kann im Kontext des vorliegenden Systems verwendet werden, um Ausgaben bereitzustellen und Eingaben eines Edge-Computing-Systems zu empfangen; Komponenten oder Dienste eines Edge-Computing-Systems zu verwalten; einen Zustand einer Edge-Computerkomponente oder eines Edge-Computerdienstes zu identifizieren; oder eine beliebige andere Anzahl von Management- oder Verwaltungsfunktionen oder Dienstanwendungsfällen durchzuführen.
  • Eine Batterie 876 kann den Edge-Rechenknoten 850 mit Strom versorgen, obwohl sie in Beispielen, in denen der Edge-Rechenknoten 850 an einem festen Ort montiert ist, eine Stromversorgung aufweisen kann, die mit einem Stromnetz gekoppelt ist, oder die Batterie als Backup oder für temporäre Fähigkeiten verwendet werden kann. Die Batterie 876 kann eine Lithiumionenbatterie oder eine Metall-Luft-Batterie, wie etwa eine Zink-Luft-Batterie, eine Aluminium-Luft-Batterie, eine Lithium-Luft-Batterie und dergleichen, sein.
  • Ein Batterieüberwachungs-/-ladegerät 878 kann im Edge-Rechenknoten 850 enthalten sein, um den Ladezustand (SoCh) der Batterie 876, falls enthalten, zu verfolgen. Das Batterieüberwachungs-/-ladegerät 878 kann verwendet werden, um andere Parameter der Batterie 876 zu überwachen, um Ausfallvorhersagen, wie etwa den Gesundheitszustand (SoH - State of Health) und den Funktionszustand (SoF - State of Function) der Batterie 876 bereitzustellen. Das Batterieüberwachungs-/-ladegerät 878 kann eine integrierte Batterieüberwachungsschaltung umfassen, wie etwa einen LTC4020 oder einen LTC2990 von Linear Technologies, einen ADT7488A von ON Semiconductor, Phoenix, Arizona, oder eine IC aus der UCD90xxx-Familie von Texas Instruments, Dallas, Texas. Das Batterieüberwachungs-/-ladegerät 878 kann die Informationen über die Batterie 876 über die IX 856 an den Prozessor 852 kommunizieren. Das Batterieüberwachungs-/-ladegerät 878 kann auch einen Analog-Digital-Wandler (ADC) umfassen, der es dem Prozessor 852 ermöglicht, die Spannung der Batterie 876 oder den Stromfluss von der Batterie 876 direkt zu überwachen. Die Batterieparameter können verwendet werden, um Aktionen zu bestimmen, die der Edge-Rechenknoten 850 durchführen kann, wie etwa Übertragungsfrequenz, Mesh-Netzwerkbetrieb, Abtastfrequenz und dergleichen.
  • Ein Leistungsblock 880 oder eine andere Leistungsversorgung, die mit einem Stromnetz gekoppelt ist, kann mit dem Batterieüberwachungs-/-ladegerät 878 gekoppelt sein, um die Batterie 876 zu laden. In einigen Beispielen kann der Leistungsblock 880 durch einen Drahtlosleistungsempfänger ersetzt werden, um die Leistung drahtlos, zum Beispiel durch eine Schleifenantenne im Edge-Rechenknoten 850, zu erhalten. Eine drahtlose Batterieladeschaltung, wie etwa unter anderem ein LTC4020-Chip von Linear Technologies in Milpitas, Kalifornien, kann im Batterieüberwachungs-/Ladegerät 878 enthalten sein. Die spezifischen Ladeschaltungen können basierend auf der Größe der Batterie 876 und somit dem erforderlichen Strom ausgewählt werden. Das Aufladen kann unter anderem unter Verwendung des von der Airfuel Alliance veröffentlichten Airfuel-Standard, dem vom Wireless Power Consortium veröffentlichten Qi-Ladestandard oder dem von der Alliance for Wireless Power veröffentlichten Rezence-Ladestandard durchgeführt werden.
  • Die Speicherung 858 kann Anweisungen 882 in Form von Software, Firmware oder Hardwarebefehlen zum Implementieren der hierin beschriebenen Techniken umfassen. Obwohl solche Anweisungen 882 als Codeblöcke gezeigt sind, die im Arbeitsspeicher 854 und dem Datenspeicher 858 enthalten sind, versteht es sich, dass beliebige der Codeblöcke durch festverdrahtete Schaltungen ersetzt werden können, die zum Beispiel in eine anwendungsspezifischen integrierten Schaltung (ASIC - Application Specific Integrated Circuit) eingebaut sind.
  • In einem Beispiel können die Anweisungen 782, die über den Arbeitsspeicher 854, den Datenspeicher 858 oder den Prozessor 852 bereitgestellt werden, als ein nichtflüchtiges maschinenlesbares Medium 860 umgesetzt sein, das Code umfasst, um den Prozessor 852 anzuweisen, elektronische Operationen im Edge-Rechenknoten 850 durchzuführen. Der Prozessor 852 kann über die IX 856 auf das nichtflüchtige maschinenlesbare Medium 860 zugreifen. Beispielsweise kann das nichtflüchtige maschinenlesbare Medium 860 durch Vorrichtungen umgesetzt sein, die für den Datenspeicher 858 beschrieben sind, oder es kann spezifische Speichereinheiten, wie etwa optische Platten, Flash-Laufwerke oder eine beliebige Anzahl anderer Hardwarevorrichtungen, umfassen. Das nichtflüchtige maschinenlesbare Medium 860 kann Anweisungen umfassen, um den Prozessor 852 anzuweisen, eine spezifische Sequenz oder einen spezifischen Fluss von Aktionen durchzuführen, wie zum Beispiel mit Bezug auf das eine oder die mehreren oben dargestellten Flussdiagramme und Blockdiagramme von Operationen und Funktionalität beschrieben. Wie hierin verwendet, sind die Begriffe „maschinenlesbares Medium“ und „computerlesbares Medium“ austauschbar.
  • In weiteren Beispielen umfasst ein maschinenlesbares Medium auch jedes gegenständliche Medium, das zum Speichern, Codieren oder Führen von Anweisungen zur Ausführung durch eine Maschine imstande ist und das bewirkt, dass die Maschine beliebige einer oder mehrerer der Methodologien der vorliegenden Offenbarung durchführt, oder das zum Speichern, Codieren oder Führen von Datenstrukturen imstande ist, die von solchen Anweisungen genutzt werden oder damit assoziiert sind. Ein „maschinenlesbares Medium“ kann somit Festkörperspeicher und optische und magnetische Medien umfassen, ist jedoch nicht darauf beschränkt. Zu speziellen Beispielen für maschinenlesbare Medien zählen nichtflüchtiger Speicher, wie zum Beispiel Halbleiterspeichervorrichtungen (z. B. elektrisch programmierbarer Nur-Lese-Speicher (Electrically Programmable Read-Only Memory, EPROM), elektrisch löschbarer programmierbarer Nur-Lese-Speicher (Electrically Erasable Programmable Read-Only Memory, EEPROM)) und Flash-Speichereinrichtungen, Magnetplatten, wie zum Beispiel interne Festplatten und Wechselplatten, magnetooptische Platten und CD-ROM- und DVD-ROM-Disks. Die Anweisungen, die durch ein maschinenlesbares Medium verkörpert sind, können ferner über ein Kommunikationsnetzwerk unter Verwendung eines Übertragungsmediums über eine Netzwerkschnittstellenvorrichtung übertragen oder empfangen werden, die ein beliebiges einer Anzahl von Übertragungsprotokollen (z. B. HTTP) nutzt.
  • Ein maschinenlesbares Medium kann durch eine Speicherungsvorrichtung oder eine andere Einrichtung bereitgestellt werden, die dazu in der Lage ist, Daten in einem nichtflüchtigen Format zu hosten. In einem Beispiel können auf einem maschinenlesbaren Medium gespeicherte oder anderweitig bereitgestellte Informationen Anweisungen darstellen, wie etwa die Anweisungen selbst oder ein Format, aus dem die Anweisungen abgeleitet werden können. Dieses Format, aus dem die Anweisungen abgeleitet werden können, kann Quellcode, codierte Anweisungen (z. B. in komprimierter oder verschlüsselter Form), verpackte Anweisungen (z. B. in mehrere Pakete aufgeteilt) oder dergleichen umfassen. Die die Anweisungen repräsentierenden Informationen im maschinenlesbaren Medium können durch eine Verarbeitungsschaltungsanordnung in die Anweisungen zum Implementieren beliebiger der hierin erörterten Operationen verarbeitet werden. Das Ableiten der Anweisungen aus den Informationen (z. B. Verarbeiten durch die Verarbeitungsschaltungsanordnung) kann beispielsweise umfassen: Kompilieren (z. B. aus Quellcode, Objektcode usw.), Interpretieren, Laden, Organisieren (z. B. dynamisches oder statisches Verknüpfen), Codieren, Decodieren, Verschlüsseln, Entschlüsseln, Verpacken, Entpacken oder anderweitiges Verarbeiten der Informationen in die Anweisungen.
  • In einem Beispiel kann die Ableitung der Anweisungen Assemblieren, Kompilieren oder Interpretieren der Informationen (z. B. durch die Verarbeitungsschaltungsanordnung) umfassen, um die Anweisungen aus einem Zwischenformat oder vorverarbeiteten Format zu erzeugen, das durch das maschinenlesbare Medium bereitgestellt wird. Wenn die Informationen in mehreren Teilen bereitgestellt werden, können sie kombiniert, entpackt und modifiziert werden, um die Anweisungen zu erzeugen. Die Informationen können sich zum Beispiel in mehreren komprimierten Quellcodepaketen (oder Objektcode oder ausführbarer Binär-Code usw.) auf einem oder mehreren Fernservern befinden. Die Quellcodepakete können verschlüsselt sein, wenn sie über ein Netzwerk übertragen werden, und können an einer lokalen Maschine falls notwendig entschlüsselt, dekomprimiert, assembliert (z. B. verknüpft) und kompiliert oder interpretiert (z. B. in eine Bibliothek, selbständige ausführbare Datei usw.) werden und durch die lokale Maschine ausgeführt werden.
  • Die Darstellungen von 7 und 8 sollen eine Ansicht auf hoher Ebene von Komponenten einer unterschiedlichen Vorrichtung, eines urschiedlichen Subsystems oder einer unterschiedlichen Anordnung eines Edge-Rechenknotens darstellen. Es können jedoch einige der gezeigten Komponenten weggelassen werden, zusätzliche Komponenten können vorhanden sein, und in anderen Implementierungen kann eine andere Anordnung der Komponenten vorkommen. Ferner sind diese Anordnungen in einer Vielzahl von Anwendungsfällen und Umgebungen verwendbar, einschließlich jener, die hierin erörtert werden (z. B. ein mobiles UE in Industrial Compute für intelligente Städte oder intelligente Fabriken, unter vielen anderen Beispielen). Die jeweiligen Rechenplattformen von 7 und 8 können mehrere Edge-Instanzen (z. B. Edge-Cluster) durch Verwenden von Mandanten-Containern unterstützen, die auf einer einzigen Rechenplattform ausgeführt werden. Gleichermaßen können mehrere Edge-Knoten als Unterknoten existieren, die auf Mandanten innerhalb derselben Rechenplattform ausgeführt werden. Dementsprechend kann basierend auf verfügbarer Ressourcenpartitionierung ein einzelnes System oder eine einzelne Rechenplattform in mehrere unterstützende Mandanten- und Edge-Knoteninstanzen partitioniert oder unterteilt werden, von denen jede mehrere Dienste und Funktionen unterstützen kann - selbst während sie potenziell in mehreren Rechenplattforminstanzen durch mehrere Besitzer betrieben oder gesteuert wird. Diese verschiedenen Arten von Partitionen können komplexe Multi-Mandanten und viele Kombinationen von Multi-Stakeholdern durch die Verwendung eines LSM oder einer anderen Implementierung einer Isolations-/Sicherheitsrichtlinie unterstützen. Hinweise auf die Verwendung eines LSM und Sicherheitsmerkmale, die solche Sicherheitsmerkmale verbessern oder implementieren, werden daher in den folgenden Abschnitten erwähnt. Gleichermaßen können Dienste und Funktionen, die auf diesen verschiedenen Typen von Mehrentitätspartitionen arbeiten, lastausgeglichen, migriert und orchestriert werden, um notwendige Dienstziele und Operationen zu erreichen.
  • 4. IMPLEMENTIERUNGSBEISPIELE
  • 9 veranschaulicht einen beispielhaften Prozess 900 gemäß verschiedenen Ausführungsformen. Zu Veranschaulichungszwecken werden die verschiedenen Operationen des Prozesses 900 als durch das Computersystem 201 oder Elemente davon durchgeführt beschrieben. Zusätzlich dazu können die verschiedenen Nachrichten/Signalisierungen, die durch das Computersystem 201 zum Beispiel mit NANs 131 und/oder Repositorien 403 ausgetauscht werden, über die verschiedenen Schnittstellen, die hierin mit Bezug auf 1-8 erörtert wurden, und unter Verwendung der verschiedenen Mechanismen, die hierin mit Bezug auf 1-8 erörtert wurden, gesendet/empfangen werden. Obgleich bestimmte Beispiele und Reihenfolgen von Operationen durch 9 veranschaulicht werden, sollten die dargestellten Reihenfolgen von Operationen nicht so ausgelegt werden, dass sie den Schutzumfang der Ausführungsformen auf irgendeine Weise beschränken. Vielmehr können die dargestellten Operationen umgeordnet, in zusätzliche Operationen zerlegt, kombiniert und/oder ganz weggelassen werden und dennoch innerhalb des Wesens und Schutzumfangs der vorliegenden Offenbarung bleiben.
  • Der Prozess 900 beginnt bei Operation 901, bei der das Computersystem 201 das CIM 230 betreibt, um Kontextinformationen zu bestimmen und einen Zielort des Computersystems 201 zu einem vorhergesagten Zeitpunkt basierend auf den Kontextinformationen vorherzusagen. Bei Operation 902 betreibt das Computersystem 201 den NDS 220, um Netzwerkinformationen über verschiedene Netzwerke/NANs in oder um den vorhergesagten Zielort abzufragen. Bei Operation 903 betreibt das Computersystem 201 das RLRM 210, um ein empfohlenes HO-Ziel am vorhergesagten Zielort basierend auf den Kontextinformationen und den Netzwerkinformationen zu bestimmen. Das HO-Ziel kann ein Zielnetzwerk, ein RAT-Typ und/oder ein spezifischer Ziel-NAN 131 sein. Bei Operation 904 betreibt das Computersystem 201 den Richtlinienmanager 205, um das empfohlene HO-Ziel auszuwählen oder abzulehnen, stellt die Auswahl (oder Ablehnung) für das RLRM 210 bereit und stellt das ausgewählte HO-Ziel und/oder HO-Auslösekriterien für eine Sitzungsschichtentität bereit. Bei Operation 904 betreibt das Computersystem 201 die Sitzungsschichtentität, um zu bestimmen, ob das eine oder die mehreren HO-Auslösekriterien erfüllt wurde/n. Falls das eine oder die mehreren HO-Auslösekriterium nicht erfüllt wurde/n, kehrt die Sitzungsschichtentität zu Operation 901 zurück, um einen neuen Systemkontext zu bestimmen. In einigen Ausführungsformen kann die Sitzungsschichtentität die Schleife nach einem vorbestimmten oder konfigurierten Zeitraum oder in Reaktion auf den Empfang neuer oder aktualisierter HO-Auslösekriterien verlassen (z. B. in Reaktion auf eine Änderung von Kontextinformationen oder dergleichen). Falls das eine oder die mehreren HO-Auslösekriterien erfüllt wurde/n, geht das Computersystem 201 zu Operation 905 über, um die Sitzungsschichtentität zu betreiben, um ein kontextbewusstes HO von einer HO-Quelle zum HO-Ziel auszulösen. Nach Durchführung der Operation 905 kann das Computersystem 201 den Prozess 900 wiederholen oder beenden.
  • Zusätzliche Beispiele für die vorliegend beschriebenen Verfahrens-, System- und Vorrichtungsausführungsformen umfassen die folgenden, nicht einschränkenden Konfigurationen. Jedes der nicht einschränkenden Beispiele kann für sich allein stehen oder in einer beliebigen Permutation oder Kombination mit einem oder mehreren der anderen Beispiele, die unten oder durch die gesamte vorliegende Offenbarung bereitgestellt werden, kombiniert werden.
  • Beispiel A01 umfasst ein Verfahren zum Durchführen kontextbewusster Handovers (HOs), wobei das Verfahren umfasst: Bestimmen, durch ein Kontextinferenzmodell (CIM), von Kontextinformationen einer Rechenvorrichtung; Vorhersagen, durch das CIM, eines Zielorts der Rechenvorrichtung zu einem vorhergesagten Zeitpunkt basierend auf den Kontextinformationen; Bestimmen, durch ein auf Verstärkungslernen basierendes Empfehlungsmodell (RLRM), eines empfohlenen HO-Ziels am vorhergesagten Zielort basierend auf den Kontextinformationen; und Initiieren, durch eine Sitzungsschichtentität in Reaktion auf die Detektion eines HO-Auslöseereignisses, eines HO zum HO-Ziel unter Verwendung einer RAT-Schnittstelle unter einer oder mehreren RAT-Schnittstellen der Rechenvorrichtung, die mit einer RAT des HO-Ziels (der „Ziel-RAT-Schnittstelle“) assoziiert sind; wobei das HO-Ziel eine gleiche RAT wie die Ziel-RAT-Schnittstelle aufweist oder damit assoziiert ist.
  • Beispiel A02 umfasst das Verfahren nach Beispiel A01 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Abfragen, durch einen Netzwerkentdeckungsdienst (NDS), eines Netzwerkrepositoriums nach Netzwerkinformationen, die mit dem vorhergesagten Zielort assoziiert sind, wobei die Netzwerkinformationen eines oder mehrere von Netzwerkkonnektivitätsdaten, Dienstqualitäts(QoS)-Parametern, Signalmessungen und Standorten einzelner Netzwerkzugangsknoten (NANs) an oder um den vorhergesagten Zielort angeben.
  • Beispiel A03 umfasst das Verfahren nach Beispiel A02 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Vorhersagen, durch das RLRM, einer QoS für das empfohlene HO-Ziel am vorhergesagten Ort zum vorhergesagten Zeitpunkt basierend auf den Netzwerkinformationen.
  • Beispiel A04 umfasst das Verfahren nach Beispiel A03 und/oder einem oder mehreren anderen Beispielen hierin, wobei das Vorhersagen der QoS Folgendes umfasst: Identifizieren, durch das RLRM, eines aktuellen Zustands der Rechenvorrichtung und einer aktuellen Belohnung, wobei der aktuelle Zustand auf den Kontextinformationen basiert, und die aktuelle Belohnung ein numerischer Wert ist, der in Reaktion auf ein zuvor empfohlenes HO-Ziel erhalten wird; und Bestimmen, durch das RLRM, dass das empfohlene HO-Ziel eines aus einem Satz von Kandidatennetzwerken ist, das eine kumulative Belohnungsmenge über einen Zeitraum basierend auf dem aktuellen Zustand und der aktuellen Belohnung maximiert.
  • Beispiel A05 umfasst das Verfahren nach Beispiel A01-A04 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Auswählen, durch einen Richtlinienmanager, des HO-Ziels gemäß einer Richtlinie; und Bereitstellen, durch den Richtlinienmanager, der Auswahl für das RLRM als Belohnung für künftige Vorhersagen.
  • Beispiel A06 umfasst das Verfahren nach Beispiel A01-A05 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Bestimmen, durch das CIM, der Kontextinformationen unter Verwendung von einem oder mehreren von Folgenden: Systemdaten von einem oder mehreren Hardwareelementen der Rechenvorrichtung, Objektdetektionsdaten basierend auf Bilddaten, die von einem oder mehreren Bildgebungssensoren erhalten werden, und Verarbeitungsdaten von natürlicher Sprache basierend auf Audiodaten, die von einem oder mehreren Audiosensoren erfasst werden.
  • Beispiel A07 umfasst das Verfahren nach Beispiel A01-A06 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Bestimmen, durch das CIM, eines physischen Standorts der Rechenvorrichtung unter Verwendung von Standortdaten, die von mindestens einer RAT-Schnittstelle der einen oder der mehreren RAT-Schnittstellen erhalten werden, Positionsbestimmungsdaten, die von Positionsbestimmungsschaltungen erhalten werden, oder Sensordaten, die von einem oder mehreren Aktivitäts- oder Bewegungssensoren erhalten werden.
  • Beispiel A08 umfasst das Verfahren nach Beispiel A07 und/oder einem oder mehreren anderen Beispielen hierin, wobei der Zielort ein semantischer Ort ist und das Verfahren ferner Folgendes umfasst: Bestimmen, durch das CIM, des semantischen Orts basierend auf dem bestimmten physischen Standort und den Kontextinformationen, wobei der semantische Ort ein Ort ist, der auf einem Zustand der Rechenvorrichtung basiert.
  • Beispiel A09 umfasst das Verfahren nach Beispiel A01-A08 und/oder einem oder mehreren anderen Beispielen hierin, wobei die Rechenvorrichtung über eine Quell-RAT-Schnittstelle unter der einen oder den mehreren RAT-Schnittstellen an eine HO-Quelle angeschlossen ist, und das Verfahren ferner umfasst: Auslösen, durch die Sitzungsschichtentität, der Quell-RAT-Schnittstelle, um das HO von der HO-Quelle zum HO-Ziel zu initiieren.
  • Beispiel A10 umfasst das Verfahren nach Beispiel A09 und/oder einem oder mehreren anderen Beispielen hierin, umfassend: Einschalten, durch die Sitzungsschichtentität, der Ziel-RAT-Schnittstelle in Reaktion auf die Detektion des HO-Auslöseereignisses.
  • Beispiel A11 umfasst das Verfahren nach Beispiel A09-A10 und/oder einem oder mehreren anderen Beispielen hierin, wobei die HO-Quelle und das HO-Ziel eine gleiche RAT verwenden, oder die HO-Quelle und das HO-Ziel unterschiedliche RATs verwenden.
  • Beispiel B01 umfasst ein auf Verstärkungslernen basierendes Empfehlungsmodell (RLRM) zum Vorhersagen von Handover-Zielen für kontextbewusste Handovers, wobei das Verfahren umfasst: Identifizieren eines aktuellen Zustands des Computersystems, wobei der aktuelle Zustand auf Kontextinformationen des Computersystems basiert; Identifizieren einer aktuellen Belohnung, wobei die aktuelle Belohnung ein Wert ist, der in Reaktion auf ein zuvor empfohlenes HO-Ziel erhalten wird; Auswählen einer Aktion aus einem Satz verfügbarer Aktionen in Anbetracht des aktuellen Zustands und der aktuellen Belohnung, wobei die ausgewählte Aktion eine Empfehlung eines Handover(HO)-Ziels für ein kontextbewusstes Handover von einer HO-Quelle ist; Bereitstellen der ausgewählten Aktion für einen Richtlinienmanager; und Empfangen einer positiven oder negativen Belohnung vom Richtlinienmanager basierend auf der ausgewählten Aktion.
  • Beispiel B02 umfasst das Verfahren nach Beispiel B01 und/oder einem oder mehreren anderen Beispielen hierin, wobei die Kontextinformationen einen vorhergesagten Zielort umfassen, und das Verfahren umfasst: Erhalten von Netzwerkinformationen, die mit dem vorhergesagten Zielort assoziiert sind, von einem Netzwerkentdeckungsdienst (NDS), wobei die Netzwerkinformationen eines oder mehrere von Netzwerkkonnektivitätsdaten, Dienstqualitäts(QoS)-Parametern, Signalmessungen und Standorten einzelner Netzwerkzugangsknoten (NANs) an oder um den vorhergesagten Zielort umfassen.
  • Beispiel B03 umfasst das Verfahren nach Beispiel B02 und/oder einem oder mehreren anderen Beispielen hierin, wobei das Auswählen der Aktion umfasst: Auswählen des HO-Ziels aus einem Satz von Kandidaten-HO-Zielen basierend auf einer vorhergesagten QoS, die durch jedes Kandidaten-HO-Ziel des Satzes von Kandidaten-HO-Zielen bereitgestellt werden soll.
  • Beispiel B04 umfasst das Verfahren nach Beispiel B02-B03 und/oder einem oder mehreren anderen Beispielen hierin, wobei das Auswählen der Aktion umfasst: Auswählen des HO-Ziels aus einem Satz von Kandidaten-HO-Zielen, die eine kumulative Belohnungsmenge über einen Zeitraum maximieren.
  • Beispiel B05 umfasst das Verfahren nach Beispiel B01-B04 und/oder einem oder mehreren anderen Beispielen hierin, wobei der vorhergesagte Zielort einen vorhergesagten physischen Standort und einen semantischen Ort umfasst, der mit dem vorhergesagten physischen Standort assoziiert ist.
  • Beispiel B06 umfasst das Verfahren nach Beispiel B01-B05 und/oder einem oder mehreren anderen Beispielen hierin, wobei das HO-Ziel ein Zielnetzwerk, eine Ziel-RAT oder ein Zielnetzwerkzugangsknoten (NAN) ist, die HO-Quelle ein Quellnetzwerk, eine Quell-RAT oder ein Quell-NAN ist, und die HO-Quelle und das HO-Ziel eine gleiche RAT verwenden oder die HO-Quelle und das HO-Ziel unterschiedliche RATs verwenden.
  • Beispiel C01 umfasst ein Verfahren zum Ermöglichen kontextbewusster Handovers (HOs), wobei das Verfahren umfasst: Bereitstellen, durch jeden Netzwerkzugangsknoten (NAN) einer Vielzahl von NANs, von Netzwerkkonnektivität für Client-Rechenvorrichtungen in jeweiligen Netzwerkabdeckungsbereichen, wobei jeder NAN der Vielzahl von NANs Netzwerkkonnektivität gemäß mindestens einer Funkzugangstechnologie (RAT) bereitstellt; Speichern, durch ein oder mehrere Netzwerkrepositorien, die kommunikativ mit der Vielzahl von NANs gekoppelt sind, von Netzwerkinformationen einzelner NANs der Vielzahl von NANs, wobei die Netzwerkinformationen Netzwerkparameter der einzelnen NANs angeben; Erhalten, durch eine Client-Rechenvorrichtung, von Netzwerkkonnektivität von mindestens einem NAN der Vielzahl von NANs; Betreiben, durch die Client-Rechenvorrichtung, eines Kontextinferenzmodells (CIM), um Kontextinformationen der Client-Rechenvorrichtung zu bestimmen und einen Zielort der Client-Rechenvorrichtung zu einem vorhergesagten Zeitpunkt basierend auf den Kontextinformationen vorherzusagen; Betreiben, durch Client-Rechenvorrichtung, eines Netzwerkentdeckungsdienstes (NDS), um das eine oder die mehreren Netzwerkrepositorien nach Netzwerkinformationen abzufragen, die mit dem vorhergesagten Zielort assoziiert sind; Betreiben, durch die Client-Rechenvorrichtung, eines auf Verstärkungslernen basierenden Empfehlungsmodells (RLRM), um ein empfohlenes Ziel-NAN der Vielzahl von NANs am vorhergesagten Zielort basierend auf den Kontextinformationen und den Netzwerkinformationen zu bestimmen; und Betreiben, durch die Client-Rechenvorrichtung, einer Sitzungsschichtentität zum Initiieren, in Reaktion auf die Detektion eines HO-Auslöseereignisses, eines HO von einem Quell-NAN der Vielzahl von NANs zum Ziel-NAN unter Verwendung einer Ziel-RAT-Schnittstelle der einen oder mehreren RAT-Schnittstellen, die mit dem Ziel-NAN assoziiert sind.
  • Beispiel C02 umfasst das Verfahren nach Beispiel C01 und/oder einem oder mehreren anderen Beispielen hierin, wobei die Netzwerkinformationen Netzwerkkonnektivitätsdaten von NANs am vorhergesagten Zielort, Dienstqualitäts(QoS)-Parameter der NANs am vorhergesagten Zielort, Signalmessungen der NANs am vorhergesagten Zielort und Standorte der NANs am vorhergesagten Zielort umfassen.
  • Beispiel C03 umfasst das Verfahren nach Beispiel C01-C02 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Betreiben, durch die Client-Rechenvorrichtung, des RLRM zum: Identifizieren eines aktuellen Zustands der Client-Rechenvorrichtung und einer aktuellen Belohnung, wobei der aktuelle Zustand auf den Kontextinformationen basiert, und die aktuelle Belohnung ein numerischer Wert ist, der in Reaktion auf ein zuvor empfohlenes Ziel-NAN erhalten wird; und Bestimmen, dass das empfohlene Ziel-NAN eines aus einem Satz von Kandidaten-NANs ist, das eine kumulative Belohnungsmenge über einen Zeitraum basierend auf dem aktuellen Zustand und der aktuellen Belohnung maximiert.
  • Beispiel C04 umfasst das Verfahren nach Beispiel C01-C03 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Betreiben, durch die Client-Rechenvorrichtung, eines Richtlinienmanagers zum: Auswählen des Ziel-NAN gemäß einer Richtlinie; und Bereitstellen der Auswahl für das RLRM als eine positive oder negative Belohnung für künftige Vorhersagen.
  • Beispiel C05 umfasst das Verfahren nach Beispiel C01-C04 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Betreiben, durch die Client-Rechenvorrichtung, des CIM zum Bestimmen der Kontextinformationen unter Verwendung eines oder mehrerer von Systemdaten von einem oder mehreren Hardwareelementen der Client-Rechenvorrichtung, Objektdetektionsdaten basierend auf Bilddaten, die von einem oder mehreren Bildgebungssensoren erhalten werden, und Verarbeitungsdaten von natürlicher Sprache basierend auf Audiodaten, die von einem oder mehreren Audiosensoren erfasst werden.
  • Beispiel C06 umfasst das Verfahren nach Beispiel C01-C05 und/oder einem oder mehreren anderen Beispielen hierin, ferner umfassend: Betreiben, durch die Client-Rechenvorrichtung, des CIM zum: Bestimmen eines physischen Standorts der Einrichtung unter Verwendung von Standortdaten, die von mindestens einer RAT-Schnittstelle der einen oder mehreren RAT-Schnittstellen erhalten werden, Positionsbestimmungsdaten, die von einer Positionsbestimmungsschaltungen erhalten werden, oder Sensordaten, die von einem oder mehreren Aktivitäts- oder Bewegungssensoren erhalten werden; und Bestimmen eines semantischen Orts basierend auf dem bestimmten physischen Standort und den Kontextinformationen, wobei der semantische Ort ein Ort ist, der einen Zustand der Client-Rechenvorrichtung darstellt.
  • Beispiel C07 umfasst das Verfahren nach Beispiel C01-C06 und/oder einem oder mehreren anderen Beispielen hierin, wobei jeder NAN der Vielzahl von NANS zum Bereitstellen von Netzwerkinformationen für das eine oder die mehreren Repositorien auf einer periodischen Basis oder bei Aktualisierung von Netzwerkinformationen ausgelegt ist.
  • Beispiel C08 umfasst das Verfahren nach Beispiel C01-C07 und/oder einem oder mehreren anderen Beispielen hierin, wobei das eine oder die mehreren Repositorien durch eines oder mehrere von Folgendem implementiert werden: einen zentralisierten Cloud-Rechendienst, einen oder mehrere Edge-Rechenknoten, wobei einzelne Edge-Rechenknoten des einen oder der mehreren Edge-Rechenknoten ortsgleich mit einzelnen NANs der Vielzahl von NANs angeordnet sind, und eine oder mehrere zellulare Kernnetzwerkfunktionen oder Anwendungsfunktionen.
  • Beispiel Z01 kann eine Einrichtung umfassen, die Mittel zum Durchführen eines oder mehrerer Elemente eines Verfahrens, das in einem der Beispiele A01-A11, B01-B06, C01-C08 beschrieben ist oder mit diesen in Beziehung steht, oder eines anderen hierin beschriebenen Verfahrens oder Prozesses umfasst. Beispiel Z02 kann ein oder mehrere nichtflüchtige computerlesbare Medien umfassen, die Anweisungen umfassen, um eine elektronische Vorrichtung bei Ausführung der Anweisungen durch einen oder mehrere Prozessoren der elektronischen Vorrichtung zum Durchführen eines oder mehrerer Elemente eines Verfahrens, das in einem der Beispiele A01-A1 1, B01-B06, C01-C08 beschrieben ist oder mit diesen in Beziehung steht, oder eines anderen hierin beschriebenen Verfahrens oder Prozesses zu veranlassen. Beispiel Z03 kann eine Einrichtung umfassen, die Logik, Module oder Schaltungen zum Durchführen eines oder mehrerer Elemente eines Verfahrens, das in einem der Beispiele A01-A11, B01-B06, C01-C08 beschrieben ist oder mit diesen in Beziehung steht, oder eines anderen hierin beschriebenen Verfahrens oder Prozesses umfasst. Beispiel Z04 kann ein Verfahren, eine Technik oder einen Prozess umfassen, die in einem der Beispiele A01-A1 1, B01-B06, C01-C08 oder Abschnitten oder Teilen davon beschrieben sind oder mit diesen in Beziehung stehen. Beispiel Z05 kann eine Vorrichtung umfassen, die umfasst: einen oder mehrere Prozessoren und ein oder mehrere computerlesbare Medien, die Anweisungen umfassen, die bei Ausführung durch den einen oder die mehreren Prozessoren den einen oder die mehreren Prozessoren zum Durchführen des Verfahrens, der Techniken oder der Prozesse veranlassen, die in einem der Beispiele A01-A11, B01-B06, C01-C08 oder Abschnitten davon beschrieben sind oder mit diesen in Beziehung stehen. Beispiel Z06 kann ein Signal umfassen, das in einem der Beispiele A01-A11, B01-B06, C01-C08 oder Abschnitten oder Teilen davon beschrieben ist oder mit diesen in Beziehung steht. Beispiel Z07 kann ein Datagramm, ein Paket, einen Rahmen, ein Segment, eine Protokolldateneinheit (PDU) oder eine Nachricht umfassen, die in einem der Beispiele A01-A11, B01-B06, C01-C08 oder Abschnitten oder Teilen davon beschrieben sind oder mit diesen in Beziehung stehen oder anderweitig in der vorliegenden Offenbarung beschrieben sind.
  • Beispiel Z08 kann ein Signal umfassen, das mit Daten codiert ist, die in einem der Beispiele A01-A11, B01-B06, C01-C08 oder Abschnitten oder Teilen davon beschrieben sind oder mit diesen in Beziehung stehen oder anderweitig in der vorliegenden Offenbarung beschrieben sind. Beispiel Z09 kann ein Signal umfassen, das mit einem Datagramm, Paket, Rahmen, Segment, Protokolldateneinheit (PDU) oder Nachricht codiert ist, die in einem der Beispiele A01-A1 1, B01-B06, C01-C08 oder Abschnitten oder Teilen davon oder mit diesen in Beziehung stehen oder anderweitig in der vorliegenden Offenbarung beschrieben sind. Beispiel Z10 kann ein elektromagnetisches Signal umfassen, das computerlesbare Anweisungen trägt, wobei die Ausführung der computerlesbaren Anweisungen durch einen oder mehrere Prozessoren den einen oder die mehreren Prozessoren zum Durchführen des Verfahrens, der Techniken oder des Prozesses veranlasst, die in einem der Beispiele A01-A11, B01-B06, C01-C08 oder Abschnitten davon beschrieben sind oder mit diesen in Beziehung stehen. Beispiel Z11 kann ein Computerprogramm umfassen, das Anweisungen umfasst, wobei die Ausführung des Programms durch ein Verarbeitungselement das Verarbeitungselement zum Durchführen des Verfahren, der Techniken oder des Prozesses veranlasst, die in einem der Beispiele A01-A1 1, B01-B06, C01-C08 oder Abschnitten davon beschrieben sind oder mit diesen in Beziehung stehen. Beispiel Z12 kann ein Signal in einem drahtlosen Netzwerk, wie hierin gezeigt und beschrieben, umfassen. Beispiel Z13 kann ein Verfahren zum Kommunizieren in einem drahtlosen Netzwerk, wie hierin gezeigt und beschrieben, umfassen. Beispiel Z14 kann ein System zum Bereitstellen drahtloser Kommunikation, wie hierin gezeigt und beschrieben, umfassen. Beispiel Z15 kann eine Vorrichtung zum Bereitstellen drahtloser Kommunikation, wie hierin gezeigt und beschrieben, umfassen. Jedes der oben beschriebenen Beispiele kann mit jedem anderen Beispiel (oder einer beliebigen Kombination von Beispielen) kombiniert werden, sofern nicht ausdrücklich anders angegeben.
  • 5. TERMINOLOGIE
  • Die hierin verwendete Terminologie dient nur dem Zweck des Beschreibens von speziellen Ausführungsbeispielen und ist nicht als Einschränkung der Offenbarung beabsichtigt. Die vorliegende Offenbarung wurde unter Bezugnahme auf Flussdiagrammdarstellungen und/oder Blockdiagramme von Verfahren, Einrichtungen (Systemen) und/oder Computerprogrammprodukten gemäß Ausführungsformen der vorliegenden Offenbarung beschrieben. In den Zeichnungen sind einige Struktur- oder Verfahrensmerkmale möglicherweise in speziellen Anordnungen und/oder Abfolgen gezeigt. Es sollte jedoch anerkannt werden, dass derartige spezielle Anordnungen und/oder Abfolgen möglicherweise nicht erforderlich sind. Vielmehr können in einigen Ausführungsformen derartige Merkmale in einer anderen Weise und/oder in einer anderen Reihenfolge angeordnet sein, als in den veranschaulichenden Figuren gezeigt. Zusätzlich dazu soll das Einbeziehen eines Struktur- oder Verfahrensmerkmals in einer speziellen Figur nicht bedeuten, dass ein derartiges Merkmal in allen Ausführungsformen erforderlich ist, so dass es bei einigen Ausführungsformen möglicherweise nicht enthalten oder mit anderen Merkmalen kombiniert ist.
  • So wie sie hierin verwendet werden, sollen die Singularformen „ein“, „eine“ und „der/die/das“ auch Pluralformen umfassen, es sei denn, dass der Zusammenhang eindeutig etwas anderes angibt. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“, wenn in dieser Patentschrift verwendet, das Vorhandensein aufgeführter Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht das Vorhandensein oder das Hinzufügen eines oder mehrerer anderer Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt. Der Ausdruck „A und/oder B“ bedeutet (A), (B) oder (A und B). Für die Zwecke der vorliegenden Offenbarung bedeutet der Ausdruck „A, B und/oder C“ (A), (B), (C), (A und B), (A und C), (B und C) oder (A, B und C). Die Beschreibung verwendet möglicherweise die Ausdrücke „bei einer Ausführungsform“ oder „bei einigen Ausführungsformen“, die jeweils auf eine oder mehrere derselben oder verschiedene Ausführungsformen verweisen. Ferner sind die Begriffe „umfassend“, „aufweisend“ und dergleichen, wie sie mit Bezug auf Ausführungsformen der vorliegenden Offenbarung verwendet werden, synonym.
  • Die Begriffe „gekoppelt“, „kommunikativ gekoppelt“ zusammen mit Ableitungen davon werden hierin verwendet. Der Begriff „gekoppelt“ kann bedeuten, dass sich zwei oder mehr Elemente in direktem physischem oder elektrischem Kontakt miteinander befinden, er kann bedeuten, dass zwei oder mehr Elemente indirekt miteinander in Kontakt stehen, aber immer noch miteinander zusammenwirken oder interagieren, und/oder er kann bedeuten, dass ein oder mehrere andere Elemente zwischen die Elemente gekoppelt oder geschaltet sind, die als miteinander gekoppelt bezeichnet werden. Der Begriff „direkt gekoppelt“ kann bedeuten, dass zwei oder mehr Elemente in direktem Kontakt miteinander stehen. Der Begriff „kommunikativ gekoppelt“ kann bedeuten, dass zwei oder mehr Elemente durch ein Kommunikationsmittel, unter anderem durch einen Draht oder eine andere Zwischenverbindung, durch einen Drahtloskommunikationskanal oder eine Drahtloskommunikationstinte und/oder dergleichen miteinander in Kontakt stehen können.
  • Der Begriff „Schaltungsanordnung“ bezieht sich auf eine Schaltung oder ein System mehrerer Schaltungen, die bzw. das dazu konfiguriert ist, eine spezielle Funktion in einer elektronischen Vorrichtung durchzuführen. Die Schaltung oder das System von Schaltungen kann Teil einer oder mehrerer Hardwarekomponenten sein oder diese umfassen, wie etwa eine Logikschaltung, ein Prozessor (gemeinsam genutzt, dediziert oder Gruppe) und/oder ein Speicher (gemeinsam genutzt, dediziert oder als Gruppe), ein ASIC, ein FPGA, eine programmierbare Logiksteuerung (PLC), SoC, SiP, ein Mehrchipgehäuse (MCP), DSP usw., die dazu konfiguriert sind, die beschriebene Funktionalität bereitzustellen. Außerdem kann sich der Begriff „Schaltungsanordnung“ auch auf eine Kombination eines oder mehrerer Hardwareelemente mit dem Programmcode beziehen, der zum Ausführen der Funktionalität dieses Programmcodes verwendet wird. Einige Arten von Schaltungen können ein oder mehrere Software- oder Firmware-Programme ausführen, um wenigstens einen Teil der beschriebenen Funktionalität bereitzustellen. Solch eine Kombination von Hardwareelementen und Programmcode kann als ein bestimmter Schaltungstyp bezeichnet werden.
  • Es versteht sich, dass die in dieser Beschreibung dargelegten Funktionseinheiten oder Fähigkeiten als Komponenten oder Module bezeichnet oder benannt worden sein können, um ihre Implementierungsunabhängigkeit besonders hervorzuheben. Solche Komponenten können durch eine beliebige Anzahl von Software- oder Hardwareformen verkörpert werden. Beispielsweise kann eine Komponente oder ein Modul als Hardware-Schaltkreis implementiert werden, der angepasste Very-Large-Scale-Integration(VLSI)-Schaltkreise oder Gatterarrays, handelsübliche Halbleiter, wie etwa Logikchips, Transistoren oder andere diskrete Komponenten, umfasst. Eine Komponente oder ein Modul kann auch in programmierbaren Hardwarevorrichtungen implementiert sein, wie etwa feldprogrammierbaren Gate-Arrays, programmierbarer Arraylogik, programmierbaren Logikvorrichtungen oder dergleichen. Komponenten oder Module können auch in Software zur Ausführung durch verschiedene Arten von Prozessoren implementiert werden. Eine identifizierte Komponente oder ein identifiziertes Modul aus ausführbarem Code kann beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als ein Objekt, eine Prozedur oder eine Funktion organisiert sein können. Nichtsdestotrotz müssen die ausführbaren Elemente einer identifizierten Komponente oder eines identifizierten Moduls nicht physisch zusammen lokalisiert sein, sondern können ungleiche Anweisungen umfassen, die an verschiedenen Orten gespeichert sind, die, wenn sie logisch miteinander verbunden sind, die Komponente oder das Modul umfassen und den angegebenen Zweck für die Komponente oder das Modul erfüllen.
  • Tatsächlich kann eine Komponente oder ein Modul eines ausführbaren Codes eine einzige Anweisung oder viele Anweisungen sein und sogar kann über mehrere verschiedene Codesegmente, unter verschiedenen Programmen und über einige Speichervorrichtungen oder Verarbeitungssysteme hinweg verteilt sein. Insbesondere können einige Aspekte des beschriebenen Prozesses (wie etwa Codeumschreibung und Codeanalyse) auf einem anderen Verarbeitungssystem (z. B. in einem Computer in einem Datenzentrum) stattfinden als auf jenem, in dem der Code bereitgestellt wird (z. B. in einem Computer, der in einen Sensor oder Roboter eingebettet ist). Auf ähnliche Weise können Betriebsdaten hierin innerhalb von Komponenten oder Modulen identifiziert und veranschaulicht werden und in jeder geeigneten Form ausgeführt und in jeder geeigneten Art von Datenstruktur organisiert sein. Die Betriebsdaten können als einziger Datensatz gesammelt werden, oder sie können über verschiedene Orte, einschließlich verschiedener Speicherungsvorrichtungen, verteilt werden, und sie können zumindest teilweise lediglich als elektronische Signale in einem System oder Netz existieren. Die Komponenten oder Module können passiv oder aktiv sein und Agenten umfassen, die betrieben werden können, um gewünschte Funktionen auszuführen.
  • Der Begriff „Prozessorschaltungsanordnung“, wie hierin verwendet, bezieht sich auf eine Schaltungsanordnung, die zum sequenziellen und automatischen Ausführen einer Sequenz arithmetischer oder logischer Operationen oder Aufzeichnen, Speichern und/oder Übertragen digitaler Daten in der Lage ist, ist Teil davon oder umfasst eine solche. Der Begriff „Prozessorschaltungsanordnung“ kann sich auf einen oder mehrere Anwendungsprozessoren, einen oder mehrere Basisbandprozessoren, eine physische CPU, einen Einkernprozessor, einen Doppelkernprozessor, einen Dreikernprozessor, einen Vierkernprozessor und/oder eine beliebige andere Vorrichtung beziehen, die in der Lage ist, computerausführbare Anweisungen, wie etwa Programmcode, Softwaremodule und/oder Funktionsprozesse, auszuführen oder anderweitig zu betreiben. Die Begriffe „Anwendungsschaltungsanordnung“ und/oder „Basisbandschaltungsanordnung“ können als Synonyme für „Prozessorschaltungsanordnung“ angesehen und so bezeichnet werden.
  • Der Begriff „Speicher“ und/oder „Speicherschaltungsanordnung“, wie hierin verwendet, bezieht sich auf eine oder mehrere Hardwarevorrichtungen zum Speichern von Daten, einschließlich RAM, MRAM, PRAM, DRAM und/oder SDRAM, Kernspeicher, ROM, Magnetplattenspeichermedien, optische Speichermedien, Flash-Speichervorrichtungen oder andere maschinenlesbare Medien zum Speichern von Daten. Der Begriff „computerlesbares Medium“ kann unter anderem Speicher, tragbare oder feste Speichervorrichtungen, optische Speichervorrichtungen und verschiedene andere Medien umfassen, die zum Speichern, Enthalten oder Tragen von Anweisungen in der Lage sind.
  • Der Begriff „Schnittstellenschaltungsanordnung“, wie hierin verwendet, bezieht sich auf eine Schaltungsanordnung, die den Austausch von Informationen zwischen zwei oder mehr Komponenten oder Vorrichtungen ermöglicht, ist Teil davon oder umfasst eine solche. Der Begriff „Schnittstellenschaltungsanordnung“ kann sich auf eine oder mehrere Hardwareschnittstellen beziehen, zum Beispiel Busse, E/A-Schnittstellen, Peripheriekomponentenschnittstellen, Netzwerkschnittstellenkarten und/oder dergleichen.
  • Der Begriff „Element“ bezieht sich auf eine Einheit, die bei einem gegebenen Abstraktionsniveau unteilbar ist und eine klar definierte Grenze aufweist, wobei ein Element eine beliebige Art von Entität sein kann, die zum Beispiel eine oder mehrere Vorrichtungen, Systeme, Steuerungen, Netzwerkelemente, Module usw. oder Kombinationen davon umfasst. Der Begriff „Vorrichtung“ bezieht sich auf eine physische Entität, die innerhalb einer anderen physischen Entität in ihrer Nähe eingebettet oder an dieser angebracht ist, mit Fähigkeiten zum Übermitteln von digitalen Informationen von oder zu dieser physischen Entität. Der Begriff „Entität“ bezieht sich auf eine individuelle Komponente einer Architektur oder Vorrichtung oder als Nutzlast übertragene Informationen. Der Begriff „Steuerung“ bezieht sich auf ein Element oder eine Entität, das/die die Fähigkeit aufweist, eine physische Entität zu beeinflussen, wie etwa durch Ändern ihres Zustands oder Veranlassen der physischen Entität, sich zu bewegen.
  • Wie hierin verwendet, umfasst der Begriff „Edge-Computing“ viele Implementierungen verteilter Berechnung, die in einem Bestreben, die Latenz zu reduzieren und den Durchsatz für Endpunktbenutzer (Client-Vorrichtungen, Benutzergeräte usw.) zu erhöhen, Verarbeitungsaktivitäten und -ressourcen (z. B. Rechen-, Speicher- Beschleunigungsressourcen) an den Rand („Edge“) des Netzwerks bewegen. Solche Edge-Computing-Implementierungen umfassen typischerweise das Anbieten solcher Aktivitäten und Ressourcen in Cloud-ähnlichen Diensten, Funktionen, Anwendungen und Subsystemen von einem oder mehreren Orten, auf die über drahtlose Netzwerke zugegriffen werden kann. Somit sind die Verweise auf eine „edge (einen Rand)“ eines Netzwerks, Clusters, einer Domäne, eines Systems oder einer Rechenanordnung, die hierin verwendet werden, Gruppen oder Gruppierungen funktioneller verteilter Rechenelemente und stehen daher im Allgemeinen nicht mit „edges (Kanten)“ (Verknüpfungen oder Verbindungen) in Beziehung, wie sie in der Graphentheorie verwendet werden. Spezifische Anordnungen von Edge-Computing-Anwendungen und -Diensten, die über Mobilfunknetzwerke (z. B. zellulare und WiFi-Datennetzwerke) zugänglich sind, können als „Mobile Edge Computing“ oder „Multi-Access Edge Computing“ bezeichnet werden, worauf mit dem Akronym „MEC“ Bezug genommen werden kann. Die Verwendung von „MEC“ hierin kann sich auch auf eine standardisierte Implementierung beziehen, die vom European Telecommunications Standards Institute (ETSI) veröffentlicht und als „ETSI-MEC“ bezeichnet wird. Die in der ETSI-MEC-Spezifikation verwendete Terminologie wird hierin im Allgemeinen durch Bezugnahme aufgenommen, es sei denn, es wird hierin eine widersprüchliche Definition oder Verwendung angegeben.
  • Wie hierin verwendet, bezieht sich der Begriff „Rechenknoten“ oder „Rechenvorrichtung“ auf eine identifizierbare Entität, die einen Aspekt von Edge-Rechenoperationen implementiert, sei es als Teil eines größeren Systems, einer verteilten Sammlung von Systemen oder eine eigenständige Einrichtung. In einigen Beispielen kann ein Rechenknoten als ein „Edge-Knoten“, eine „Edge-Vorrichtung“, ein „Edge-System“ bezeichnet werden, sei es im Einsatz als Client, Server oder Zwischenentität. Spezifische Implementierungen eines Rechenknotens können in einen Server, eine BS, ein Gateway, eine Straßenrandeinheit, eine lokale Einheit, ein UE oder eine Endverbrauchsvorrichtung oder dergleichen integriert sein.
  • Der Begriff „Computersystem“, wie hierin verwendet, bezieht sich auf jede Art von miteinander verbundenen elektronischen Vorrichtungen, Computervorrichtungen oder Komponenten davon. Außerdem kann sich der Begriff „Computersystem“ und/oder „System“ auf verschiedene Komponenten eines Computers beziehen, die kommunikativ miteinander gekoppelt sind. Ferner kann sich der Begriff „Computersystem“ und/oder „System“ auf mehrere Computervorrichtungen und/oder mehrere Computersysteme beziehen, die kommunikativ miteinander gekoppelt und dazu ausgelegt sind, Rechen- und/oder Vernetzungsressourcen gemeinsam zu nutzen.
  • Der Begriff „Architektur“, wie hierin verwendet, bezieht sich auf eine Computerarchitektur oder eine Netzwerkarchitektur. Eine „Netzwerkarchitektur“ ist eine physische und logische Struktur oder Anordnung von Software- und/oder Hardwareelementen in einem Netzwerk mit Kommunikationsprotokollen, Schnittstellen und Medienübertragung. Eine „Computerarchitektur“ ist eine physische und logische Struktur oder Anordnung von Software- und/oder Hardwareelementen in einem Computersystem oder einer Computerplattform mit Technologiestandards für Interaktionen dazwischen.
  • Der Begriff „Gerät“, „Computergerät“ oder dergleichen, wie hierin verwendet, bezieht sich auf eine Computervorrichtung oder ein Computersystem mit Programmcode (z. B. Software oder Firmware), der speziell zum Bereitstellen einer spezifischen Rechenressource konzipiert ist. Ein „virtuelles Gerät“ ist ein virtuelles Maschinenabbild, das durch eine mit einem Hypervisor ausgestattete Vorrichtung zu implementieren ist, die ein Computergerät virtualisiert oder emuliert oder anderweitig dazu bestimmt ist, eine spezifische Rechenressource bereitzustellen.
  • Der Begriff „Benutzergerät“ oder „UE“, wie hierin verwendet, bezieht sich auf eine Vorrichtung mit Funkkommunikationsfähigkeiten und kann einen Remotebenutzer von Netzwerkressourcen in einem Kommunikationsnetzwerk beschreiben. Der Begriff „Benutzergerät“ oder „UE“ kann als Synonym für Client, Mobilteil, Mobilvorrichtung, Mobilendgerät, Benutzerendgerät, Mobileinheit, Station, Mobilstation, Mobilbenutzer, Teilnehmer, Benutzer, Remotestation, Zugriffsagent, Benutzeragent, Empfänger, Funkgerät, rekonfigurierbares Funkgerät, rekonfigurierbare Mobilvorrichtung usw. angesehen und als solche bezeichnet werden. Des Weiteren kann der Begriff „Benutzergerät“ oder „UE“ jede Art von drahtloser/drahtgebundener Vorrichtung oder jede Rechenvorrichtung mit einer drahtlosen Kommunikationsschnittstelle umfassen. Der Begriff „Station“ oder „STA“ bezieht sich auf eine logische Entität, die eine einzeln adressierbare Instanz einer Medienzugriffssteuerung(MAC)- und einer Bitübertragungsschicht(PHY)-Schnittstelle zum drahtlosen Medium (WM) ist. Der Begriff „drahtloses Medium“ oder „WM“ bezieht sich auf das Medium, das verwendet wird, um die Übertragung von Protokolldateneinheiten (PDUs) zwischen Peer-Bitübertragungsschicht(PHY)-Entitäten eines drahtlosen lokalen Netzwerks (LAN) zu implementieren.
  • Der Begriff „Netzwerkelement“, wie hierin verwendet, bezieht sich auf physisches oder virtualisiertes Gerät und/oder eine physische oder virtualisierte Infrastruktur, die zum Bereitstellen von drahtgebundenen oder drahtlosen Kommunikationsnetzdiensten verwendet werden. Der Begriff „Netzwerkelement“ kann als Synonym für einen vernetzten Computer, eine vernetzte Hardware, ein Netzwerkgerät, einen Netzwerkknoten, einen Router, einen Switch, einen Hub, eine Brücke, eine Funknetzwerksteuerung, eine RAN-Vorrichtung, einen RAN-Knoten, ein Gateway, einen Server, eine virtualisierte VNF, NFVI und/oder dergleichen angesehen und/oder als solche bezeichnet werden.
  • Wie hierin verwendet, bezieht sich der Begriff „Zugangspunkt“ oder „AP“ auf eine Entität, die eine Station (STA) enthält und über das drahtlose Medium (WM) Zugriff für assoziierte STAs auf die Verteilungsdienste bereitstellt. Ein AP umfasst eine STA und eine Verteilsystemzugangsfunktion (DSAF). Wie hierin verwendet, bezieht sich der Begriff „Basisstation“ auf ein Netzwerkelement in einem Funkzugangsnetzwerk (RAN), wie etwa einem Mobilkommunikationsnetzwerk der vierten Generation (4G) oder der fünften Generation (5G), das für die Übertragung und den Empfang von Funksignalen in einer oder mehreren Zellen zu oder von einem Benutzergerät (UE) verantwortlich ist. Eine Basisstation kann eine integrierte Antenne aufweisen oder über Zubringerkabel mit einem Antennenarray verbunden sein. Eine Basisstation verwendet spezialisierte digitale Signalverarbeitung und Netzwerkfunktionshardware. In einigen Beispielen kann die Basisstation für Flexibilität, Kosten und Leistungsfähigkeit in mehrere Funktionsblöcke aufgeteilt sein, die in Software arbeiten. In einigen Beispielen kann eine Basisstation einen evolvierten NodeB (eNB) oder einen NodeB der nächsten Generation (gNB) umfassen. In einigen Beispielen kann die Basisstation Rechenhardware betreiben oder umfassen, um als Rechenknoten zu arbeiten. In vielen der hierin erörterten Szenarien kann jedoch ein RAN-Knoten oder eine Basisstation durch einen Zugangspunkt (z. B. Drahtlosnetzwerkzugangspunkt) oder eine andere Netzwerkzugangshardware ersetzt werden.
  • Wie hierin verwendet, bezeichnet der Begriff „Zentrale“ (oder CO) einen Aggregationspunkt für eine Telekommunikationsinfrastruktur innerhalb eines zugänglichen oder definierten geografischen Gebiets, an dem Telekommunikationsdienstanbieter traditioneller Weise häufig Vermittlungseinrichtungen für einen oder mehrere Typen von Zugangsnetzwerken angeordnet haben. Die CO kann physisch ausgelegt sein, um Telekommunikationsinfrastrukturgeräte oder Rechen-, Datenspeicher- und Netzwerkressourcen unterzubringen. Das CO muss jedoch kein von einem Telekommunikationsdienstanbieter festgelegter Ort sein. Das CO kann eine beliebige Anzahl von Rechenvorrichtungen für Edge-Anwendungen und -Dienste oder sogar lokale Implementierungen von Cloud-ähnlichen Diensten hosten.
  • Der Begriff „Cloud-Computing“ oder „Cloud“ bezieht sich auf ein Paradigma zum Ermöglichen von Netzwerkzugriff auf einen skalierbaren und elastischen Pool von gemeinsam nutzbaren Rechenressourcen mit Self-Service-Bereitstellung und -Verwaltung bei Bedarf und ohne aktive Verwaltung durch Benutzer Cloud-Computing stellt Cloud-Computing-Dienste (oder Cloud-Dienste) bereit, bei denen es sich um eine oder mehrere über Cloud-Computing angebotene Fähigkeiten handelt, die unter Verwendung einer definierten Schnittstelle (z. B. einer API oder dergleichen) aufgerufen werden. Der Begriff „Rechenressource“ oder einfach „Ressource“ bezieht sich auf eine beliebige physische oder virtuelle Komponente oder Verwendung solcher Komponenten mit eingeschränkter Verfügbarkeit innerhalb eines Computersystems oder Netzwerks. Beispiele für Ressourcen umfassen Nutzung von/Zugriff auf Server, Prozessor(en), Datenspeichergeräte, Arbeitsspeichervorrichtungen, Speicherbereiche, Netzwerke, elektrische Leistung, (periphere) Eingabe-/Ausgabevorrichtungen, mechanische Vorrichtungen, Netzwerkverbindungen (z. B. Kanäle/Links, Ports, Netzwerkbuchsen usw.), Betriebssysteme, virtuelle Maschinen (VMs), Software/Anwendungen, Computerdateien und/oder dergleichen für eine Zeitdauer. Eine „Hardwareressource“ kann sich auf Rechen-, Speicher- und/oder Netzwerkressourcen beziehen, die durch eine oder mehrere physische Hardwareelemente bereitgestellt werden. Eine „virtualisierte Ressource“ kann sich auf Rechen-, Speicher- und/oder Netzwerkressourcen beziehen, die durch eine Virtualisierungsinfrastruktur für eine Anwendung, eine Vorrichtung, ein System usw. bereitgestellt werden. Der Begriff „Netzwerkressource“ oder „Kommunikationsressource“ kann sich auf Ressourcen beziehen, auf die Computervorrichtungen/Systeme über ein Kommunikationsnetzwerk zugreifen können. Der Begriff Systemressourcen kann sich auf eine jede Art gemeinsam genutzter Entitäten zum Bereitstellen von Diensten beziehen und Rechen- und/oder Netzwerkressourcen umfassen. Systemressourcen können als ein Satz von kohärenten Funktionen, Netzwerkdatenobjekten oder Diensten betrachtet werden, auf die durch einen Server zugegriffen werden kann, wenn sich solche Systemressourcen auf einem einzigen Host oder mehreren Hosts befinden und eindeutig identifizierbar sind.
  • Der Begriff „Arbeitslast“ bezieht sich auf eine Menge an Arbeit, die durch ein Datenverarbeitungssystem, eine Vorrichtung, eine Entität usw. während eines Zeitraums oder zu einem bestimmten Zeitpunkt durchgeführt wird. Eine Arbeitslast kann als ein Benchmark dargestellt werden, wie etwa eine Reaktionszeit, ein Durchsatz (z. B. wie viel Arbeit über einen Zeitraum durchgeführt wird) und/oder dergleichen. Zusätzlich oder alternativ dazu kann die Arbeitslast als eine Speicherarbeitslast (z. B. eine Menge an Speicherplatz, der zur Programmausführung benötigt wird, um temporäre oder permanente Daten zu speichern und Zwischenberechnungen durchzuführen), eine Prozessorarbeitslast (z. B. eine Anzahl an Anweisungen, die von einem Prozessor während einer gegebenen Zeitspanne oder zu einem bestimmten Zeitpunkt ausgeführt werden), eine E/A-Arbeitslast (z. B. eine Anzahl von Ein- und Ausgaben oder Systemzugriffen während eines gegebenen Zeitraums oder zu einem bestimmten Zeitpunkt), Datenbankarbeitslasten (z. B. eine Anzahl von Datenbankabfragen während eines Zeitraums), eine netzwerkbezogene Arbeitslast (z. B. eine Anzahl von Netzwerkanbindungen, eine Anzahl von Mobilitätsaktualisierungen, eine Anzahl von Funkverbindungsfehlern, eine Anzahl von Handovers, eine Menge von über eine Luft Schnittstelle zu übertragenden Daten usw.) und/oder dergleichen dargestellt werden. Verschiedene Algorithmen können verwendet werden, um eine Arbeitslast und/oder Arbeitslastcharakteristiken zu bestimmen, die auf einem beliebigen der zuvor genannten Arbeitslasttypen basieren können.
  • Wie hierin verwendet, bezeichnet der Begriff „Cloud-Dienstanbieter“ (oder CSP) eine Organisation, die typischerweise umfangreiche „Cloud“-Ressourcen betreibt, die zentralisierte, regionale und Edge-Datenzentren (z. B. wie im Kontext der öffentlichen Cloud verwendet) umfassen. In anderen Beispielen kann ein CSP auch als Cloud-Dienstbetreiber (CSO) bezeichnet werden. Verweise auf „Cloud-Computing“ beziehen sich im Allgemeinen auf Rechenressourcen und -dienste, die von einem CSP oder einem CSO an entfernten Orten mit zumindest etwas erhöhter Latenz, Entfernung oder Beschränkung im Verhältnis zu Edge-Computing angeboten werden.
  • Wie hierin verwendet, bezieht sich der Begriff „Datenzentrum“ auf eine zweckbestimmte Struktur, die mehrere Hochleistungs-Rechen- und -Datenspeicherknoten beherbergen soll, so dass eine große Menge an Rechen-, Datenspeicher- und Netzwerkressourcen an einem einzigen Ort vorhanden ist. Dabei handelt es sich häufig um spezialisierte Rack- und Gehäusesysteme, geeignete Heiz-, Kühl-, Lüftungs-, Sicherheits-, Brandunterdrückungs- und Stromversorgungssysteme. Der Begriff kann sich in einigen Zusammenhängen auch auf einen Rechen- und Datenspeicherknoten beziehen. Ein Datenzentrum kann im Maßstab zwischen einem (z. B. größten) zentralisierten oder Cloud-Datenzentrum, einem regionalen Datenzentrum und einem (z. B. kleinsten) Edge-Datenzentrum variieren.
  • Wie hierin verwendet, bezeichnet der Begriff „Edge-Zugriffsschicht“ die Unterschicht des Infrastrukturrands, die dem Endbenutzer oder der Endvorrichtung am nächsten ist. Eine solche Schicht kann zum Beispiel durch ein Edge-Datenzentrum verwirklicht werden, das an einem zellularen Netzwerkstandort bereitgestellt wird. Die Edge-Zugriffsschicht fungiert als die vordere Linie des Infrastrukturrands und kann eine Verbindung mit einer Edge-Aggregationsschicht herstellen, die in der Hierarchie höher ist.
  • Wie hierin verwendet, bezeichnet der Begriff „Edge-Aggregationsschicht“ die einen Sprung von der Edge-Zugriffsschicht entfernte Schicht des Infrastrukturrands. Diese Schicht kann entweder als ein Datenzentrum mittleren Maßstabs an einem einzigen Ort existieren oder aus mehreren miteinander verbundenen Mikrodatenzentren gebildet sein, um eine hierarchische Topologie mit der Edge-Zugriffschicht zu bilden, um bessere Zusammenarbeit, Arbeitslastausfallsicherung und Skalierbarkeit als die Edge-Zugriffschicht allein zu ermöglichen.
  • Wie hierin verwendet, bezeichnet der Begriff „Netzwerkfunktionsvirtualisierung“ (oder NFV) die Migration von NFs von eingebetteten Diensten innerhalb proprietärer Hardwaregeräte zu softwarebasierten virtualisierten NFs (oder VNFs), die auf standardisierten CPUs (z. B. innerhalb standardmäßiger x86®- und ARM®-Server wie etwa jenen, die Intel® Xeon™- oder AMD® Epyc™- oder Opteron™-Prozessoren umfassen) unter Verwendung von Virtualisierungs- und Cloud-Rechentechnologien nach Industriestandard ausgeführt werden. Bei einigen Aspekten finden NFV-Verarbeitung und -Datenspeicherung an den Edge-Datenzentren statt, die direkt mit dem lokalen zellularen Standort innerhalb des Infrastrukturrands verbunden sind.
  • Wie hierin verwendet, bezeichnet der Begriff „virtualisierte NF“ (oder VNF) eine softwarebasierte NF, die auf Multifunktions-Mehrzweck-Rechenressourcen (z. B. x86, ARM-Verarbeitungsarchitektur) arbeitet, die von NFV anstelle dedizierter physischer Ausrüstung verwendet werden. Bei einigen Aspekten arbeiten mehrere VNFs an einem Edge-Datenzentrum am Infrastrukturrand.
  • Wie hierin verwendet, bezieht sich der Begriff „Edge-Computing“ auf die Implementierung, Koordination und Verwendung von Berechnung und Ressourcen an Orten näher am Rand oder einer Sammlung von Rändern eines Netzwerks. Das Bereitstellen von Rechenressourcen am Rand des Netzwerks kann Anwendungs- und Netzwerklatenz reduzieren, Netzwerk-Backhaul-Verkehr und assoziierten Energieverbrauch reduzieren, Dienstfähigkeiten verbessern, die Einhaltung von Sicherheits- oder Datenschutzanforderungen verbessern (insbesondere gegenüber herkömmlichem Cloud-Computing) und die Gesamtbetriebskosten senken). Wie hierin verwendet, bezieht sich der Begriff „Edge-Rechenknoten“ auf eine logische oder virtualisierte Implementierung eines rechenfähigen Elements der realen Welt in Form einer Vorrichtung, eines Gateways, einer Brücke, eines Systems oder eines Subsystems, einer Komponente, sei es dass es in einem Server-, Client-, Endpunkt- oder Peer-Modus arbeitet und sei es dass es sich an einem Rand eines Netzwerks oder an einem verbundenen Ort weiter innerhalb des Netzwerks befindet. Bezugnahmen auf einen „Knoten“, die hierin verwendet werden, sind im Allgemeinen mit „Vorrichtung“, „Komponente“ und „Subsystem“ austauschbar; Bezugnahmen auf ein „Edge-Computing-System“ oder „Edge-Computing-Netzwerk“ beziehen sich jedoch im Allgemeinen auf eine verteilte Architektur, Organisation oder Sammlung mehrerer Knoten und Vorrichtungen, die organisiert ist, um einen gewissen Aspekt von Diensten oder Ressourcen in einer Edge-Computing-Umgebung zu erreichen oder anzubieten.
  • Der Begriff „Internet der Dinge“ oder „IoT“ (Internet of Things) bezieht sich auf ein System von miteinander in Beziehung stehenden Rechenvorrichtungen sowie mechanischen und digitalen Maschinen, die in der Lage sind, Daten mit geringer oder keiner menschlichen Interaktion zu übertragen, und kann Technologien, wie etwa Echtzeitanalytik, maschinelles Lernen und/oder AI, eingebettete Systeme, drahtlose Sensornetzwerke, Steuersysteme, Automatisierung (z. B. Technologien für intelligente Heime, intelligente Gebäude und/oder intelligente Städte) und dergleichen umfassen. IoT-Vorrichtungen sind üblicherweise Niedrigleistungsvorrichtungen ohne anspruchsvolle Rechen- oder Speicherfähigkeiten. „Edge-IoT-Vorrichtungen“ können jede Art von IoT-Vorrichtungen sein, die am Rand eines Netzwerks bereitgestellt werden.
  • Wie hierin verwendet, bezieht sich der Begriff „Cluster“ auf einen Satz oder eine Gruppierung von Entitäten als Teil eines Edge-Computing-Systems (oder von Edge-Computing-Systemen) in Form von physischen Entitäten (z. B. verschiedenen Computersystemen, Netzwerken oder Netzwerkgruppen), logischen Entitäten (z. B. Anwendungen, Funktionen, Sicherheitskonstrukten, Containern) und dergleichen. An einigen Stellen wird „Cluster“ auch als „Gruppe“ oder eine „Domäne“ bezeichnet. Die Zugehörigkeit zu einem Cluster kann basierend auf Bedingungen oder Funktionen modifiziert oder beeinflusst werden, darunter dynamische oder eigenschaftsbasierte Zugehörigkeit, Netzwerk- oder Systemverwaltungsszenarien oder verschiedene unten erörterte beispielhafte Techniken, die eine Entität in einem Cluster hinzufügen, modifizieren oder entfernen können. Cluster können auch mehrere Schichten, Ebenen oder Eigenschaften, die Variationen von Sicherheitsmerkmalen und Ergebnissen umfassen, die auf solchen Schichten, Ebenen oder Eigenschaften basieren, umfassen oder damit assoziiert sein.
  • Wie hierin verwendet, bezieht sich der Begriff „Funktechnologie“ auf Technologie für drahtloses Senden und/oder Empfangen elektromagnetischer Strahlung zur Informationsübertragung. Der Begriff „Funkzugangstechnologie“ oder „RAT“ bezieht sich auf die Technologie, die für die zugrundeliegende physikalische Verbindung zu einem funkbasierten Kommunikationsnetzwerk verwendet wird. Der Begriff „V2X“ bezieht sich auf Kommunikationen von Fahrzeug zu Fahrzeug (V2V), Fahrzeug zu Infrastruktur (V2I), Infrastruktur zu Fahrzeug (I2V), Fahrzeug zu Netzwerk (V2N) und/oder Netzwerk zu Fahrzeug (N2V) und assoziierte Funkzugangstechnologien.
  • Wie hierin verwendet, bezieht sich der Begriff „Kommunikationsprotokoll“ (entweder drahtgebunden oder drahtlos) auf einen Satz standardisierter Regeln oder Anweisungen, die durch eine Kommunikationsvorrichtung und/oder ein Kommunikationssystem implementiert werden, um mit anderen Vorrichtungen und/oder Systemen zu kommunizieren, und die Anweisungen zum Paketieren/Depaketieren von Daten, Modulieren/Demodulieren von Signalen, Implementieren von Protokollstapeln und/oder dergleichen umfassen.
  • Der Begriff „Kanal“, wie hierin verwendet, bezieht sich auf ein jedes gegenständliche oder nichtgegenständliche Übertragungsmedium, das verwendet wird, um Daten oder einen Datenstrom zu kommunizieren. Der Begriff „Kanal“ kann synonym zu und/oder gleichbedeutend mit „Kommunikationskanal“, „Datenkommunikationskanal“, „Übertragungskanal“, „Datenübertragungskanal“, „Zugriffskanal“, „Datenzugriffskanal“, „Link“, „Datenlink“, „Träger“, „Hochfrequenzträger“ und/oder jedem anderen ähnlichen Begriff sein, der einen Pfad oder ein Medium bezeichnet, über den/das Daten kommuniziert werden. Außerdem bezieht sich der Begriff „Link“, wie hierin verwendet, auf eine Verbindung zwischen zwei Vorrichtungen durch eine RAT zum Zweck des Sendens und Empfangens von Informationen.
  • Wie hierin verwendet, bezieht sich der Begriff „Funktechnologie“ auf Technologie für drahtloses Senden und/oder Empfangen elektromagnetischer Strahlung zur Informationsübertragung. Der Begriff „Funkzugangstechnologie“ oder „RAT“ bezieht sich auf die Technologie, die für die zugrundeliegende physikalische Verbindung zu einem funkbasierten Kommunikationsnetzwerk verwendet wird.
  • Wie hierin verwendet, bezieht sich der Begriff „Kommunikationsprotokoll“ (entweder drahtgebunden oder drahtlos) auf einen Satz standardisierter Regeln oder Anweisungen, die durch eine Kommunikationsvorrichtung und/oder ein Kommunikationssystem implementiert werden, um mit anderen Vorrichtungen und/oder Systemen zu kommunizieren, und die Anweisungen zum Paketieren/Depaketieren von Daten, Modulieren/Demodulieren von Signalen, Implementieren von Protokollstapeln und/oder dergleichen umfassen. Beispiele für Drahtloskommunikationsprotokolle, die in verschiedenen Ausführungsformen verwendet werden können, umfassen eine GSM-Funkkommunikationstechnologie (GSM - Global System for Mobile Communications), eine GPRS-Funkkommunikationstechnologie (GPRS - General Packet Radio Service), eine EDGE-Funkkommunikationstechnologie (EDGE - Enhanced Data Rates for GSM Evolution) und/oder 3GPP-Funkkommunikationstechnologie (3GPP - Third Generation Partnership Project), darunter zum Beispiel 3GPP Fifth Generation (5 G) oder New Radio (NR), UMTS (Universal Mobile Telecommunications System), FOMA (Freedom of Multimedia Access), LTE (Long Term Evolution), LTE-Advanced (LTE Advanced), LTE-EXTRA, LTE-A Pro, cdmaOne (2G), CDMA 2000 (Code Division Multiple Access 2000), CDPD (Cellular Digital Packet Data), Mobitex, CSD (Circuit Switched Data), HSCSD (High Speed CSD), UMTS (Universal Mobile Telecommunications System), W-CDM (Wideband Code Division Multiple Access), HSPA (High Speed Packet Access), HSPA+ (HSPA Plus), TD-CDMA (Time Division-Code Division Multiple Access), TD-SCDMA (Time Division-Synchronous Code Division Multiple Access), LTE LAA, MuLTEfire, UTRA (UMTS Terrestrial Radio Access), E-UTRA (Evolved UTRA), EV-DO (Evolution-Data Optimized or Evolution-Data Only), AMPS (Advanced Mobile Phone System), D-AMPS (Digital AMPS), TACS/ETACS (Total Access Communication System/Extended Total Access Communication System), PTT (Push-to-talk), MTS (Mobile Telephone System), IMTS (Improved Mobile Telephone System), AMTS (Advanced Mobile Telephone System), CDPD (Cellular Digital Packet Data), DataTAC, iDEN (Integrated Digital Enhanced Network), PDC (Personal Digital Cellular), PHS (Personal Handy Phone System), WiDEN (Wideband Integrated Digital Enhanced Network), iBurst, UMA (Unlicensed Mobile Access), auch als 3GPP-Generic Access Network oder GAN-Standard bezeichnet), Bluetooth ®, BLE (Bluetooth Low Energy), IEEE 802.15.4-basierte Protokolle (z. B. 6LoWPAN (IPv6 over Low Power Wireless Personal Area Networks), WirelessHART, MiWi, Thread, 802.11a usw.) WiFi-direct, ANT/ANT+, ZigBee, Z-Wave, 3GPP D2D (Device-to-Device) oder ProSe (Proximity Services), UPnP (Universal Plug and Play), LPWAN (Low-Power Wide-Area-Network), LoRA (Long Range Wide Area Network) oder LoRaWAN™, entwickelt von Semtech und LoRa Alliance, Sigfox, (WiGig-Standard WiGig - Wireless Gigabit Alliance), IEEE 802.16-Protokoll, oft als WiMAX (Worldwide Interoperability for Microwave Access) bezeichnet, mmWave-Standards im Allgemeinen (z. B. Drahtlossysteme, die auf 10-300 GHz und darüber arbeiten, wie etwa WiGig, IEEE 802.11ad, IEEE 802.11ay usw.), V2X-Kommunikationstechnologien, darunter Zellular-V2X (C-V2X), WAVE (Wireless Access in Vehicular Environments), DSRC-Kommunikationssysteme (DSRC - Dedicated Short Range Communications), wie etwa ITS (Intelligent Transport Systems), darunter European Intelligent Transport Systems im 5-GHz-Frequenzband (ITS-G5), ITS-G5B, ITS-G5C usw., das IEEE 802.11p-Protokoll (wobei es sich um den Schicht-1(L1)- und Schicht-2(L2)-Teil von WAVE, DSRC und ITS-G5 handelt) und manchmal WiMAX. Der Begriff „DSRC“ bezieht sich auf Fahrzeugkommunikationen im 5,9-GHz-Frequenzband, das im Allgemeinen in den Vereinigten Staaten verwendet wird, während „ITS-G5“ sich auf Fahrzeugkommunikationen im 5,9-GHz-Frequenzband in Europa bezieht. Da die vorliegenden Ausführungsformen auf eine beliebige Anzahl verschiedener RATs (einschließlich -basierter RATs) anwendbar sind, die in einer beliebigen geographischen oder politischen Region verwendet werden können, können die Begriffe „DSRC“ (unter anderen Regionen in den USA verwendet) und „ITS-G5“ (unter anderen Regionen in Europa verwendet) durch diese Offenbarung hindurch austauschbar verwendet werden. Andere RATs können für ITS- und/oder V2X-Anwendungen verwendet werden, wie etwa RATs, die UHF- und VHF-Frequenzen verwenden, GSM (Global System for Mobile Communications) und/oder andere Drahtloskommunikationstechnologien. Zusätzlich zu den oben aufgelisteten Standards kann eine beliebige Anzahl von Satelliten-Uplink-Technologien für die Zwecke der vorliegenden Offenbarung verwendet werden, darunter zum Beispiel Funkgeräte, die unter anderem Standards entsprechen, die von der International Telecommunication Union (ITU) oder dem European Telecommunications Standards Institute (ETSI) herausgegeben werden. Die hierin bereitgestellten Beispiele sind daher so zu verstehen, dass sie auf verschiedene andere, sowohl existierende als auch noch nicht formulierte Kommunikationstechnologien anwendbar sind.
  • Der Begriff „lokalisiertes Netzwerk“, wie hierin verwendet, kann sich auf ein lokales Netzwerk beziehen, das eine begrenzte Anzahl von verbundenen Fahrzeugen in einem gewissen Bereich oder einer gewissen Region abdeckt. Der Begriff „verteiltes Berechnen“, wie hierin verwendet, kann sich auf Rechenressourcen beziehen, die geographisch in der Nähe von Abschlüssen eines oder mehrerer lokalisierter Netzwerke verteilt sind. Der Begriff „lokale Datenintegrationsplattform“, wie hierin verwendet, kann sich auf eine Plattform, eine Vorrichtung, ein System, ein Netzwerk oder Element(e) beziehen, die lokale Daten durch Nutzen einer Kombination eines oder mehrerer lokalisierter Netzwerke und verteilter Berechnung integrieren.
  • Die Begriffe „Instanziieren“, „Instanziierung“ und dergleichen, wie hierin verwendet, beziehen sich auf die Erzeugung einer Instanz. Eine „Instanz“ bezieht auch auf ein konkretes Auftreten eines Objekts, das zum Beispiel während der Ausführung von Programmcode auftreten kann. Der Begriff „Informationselement“ bezieht sich auf ein Strukturelement, das ein oder mehrere Felder enthält. Der Begriff „Feld“ bezieht sich auf individuelle Inhalte eines Informationselements oder eines Datenelements, das Inhalte enthält. Der Begriff „Datenbankobjekt“, „Datenstruktur“ oder dergleichen kann sich auf jede Darstellung von Informationen beziehen, die in Form eines Objekts, Attributwertepaars (AVP), Schlüsselwertepaars (KVP), Tupels usw. vorliegen, und kann Variablen, Datenstrukturen, Funktionen, Verfahren, Klassen, Datenbankaufzeichnungen, Datenbankfelder, Datenbankentitäten, Assoziationen zwischen Daten und/oder Datenbankentitäten (auch als „Beziehung“ bezeichnet), Blöcke und Verknüpfungen zwischen Blöcken in Blockchain-Implementierungen und/oder dergleichen umfassen. Der Begriff „Datenelement“ oder „DE“ bezieht sich auf einen Datentyp, der ein einziges Datenelement enthält. Der Begriff „Datenrahmen“ oder „DF“ (Data Frame) bezieht sich auf einen Datentyp, der mehr als ein Datenelement in einer vorgegebenen Reihenfolge enthält.
  • Wie hierin verwendet, bezieht sich der Begriff „Zuverlässigkeit“ auf die Fähigkeit einer computerbezogenen Komponente (z. B. Software, Hardware oder Netzwerkelement/-entität), konsistent eine gewünschte Funktion durchzuführen und/oder gemäß einer Spezifikation zu arbeiten. Zuverlässigkeit im Kontext von Netzwerkkommunikationen (z. B. „Netzwerkzuverlässigkeit“) kann sich auf die Fähigkeit eines Netzwerks zum Durchführen von Kommunikation beziehen. Netzwerkzuverlässigkeit kann auch die (oder ein Maß der) Wahrscheinlichkeit sein, dass eine spezifizierte Datenmenge von einer Quelle an ein Ziel (oder einer Senke) übermittelt wird.
  • Wie hierin verwendet, bezieht sich der Begriff „Interoperabilität“ auf die Fähigkeit von Stationen, UEs, Netzwerkvorrichtungen, Systemen usw., die einen Typ von Kommunikationssystem (oder RAT) verwenden, mit Stationen, UEs, Vorrichtungen usw. zu kommunizieren, die den anderen Typ von Kommunikationssystem (oder RAT) verwenden. Wie hierin verwendet, bezieht sich der Begriff „Koexistenz“ auf das Teilen oder Zuweisen von Hochfrequenz(HF)-Ressourcen zwischen Stationen, UEs, Netzwerkvorrichtungen, Systemen usw. unter Verwendung von zwei oder mehr Typen von Kommunikationssystemen oder RATs.
  • Der Begriff „Anwendung“ kann sich auf eine vollständige und bereitstellbare Paketumgebung zum Ausführen einer bestimmte Funktion in einer Betriebsumgebung beziehen. Der Begriff „AI/ML-Anwendung“ oder dergleichen kann eine Anwendung sein, die einige AI/ML-Modelle und Beschreibungen auf Anwendungsebene enthält. Der Begriff „maschinelles Lernen“ oder „ML“ bezieht sich auf die Verwendung von Computersystemen, die Algorithmen und/oder statistische Modelle implementieren, um eine oder mehrere spezifische Aufgaben durchzuführen, wobei keine expliziten Anweisungen verwendet werden, sondern stattdessen auf Muster und Inferenzen gebaut wird. ML-Algorithmen erstellen oder schätzen mathematische Modell(e) (als „ML-Modelle“ oder dergleichen bezeichnet) basierend auf Sample-Daten (als „Trainingsdaten“, „Modelltrainingsinformationen“ oder dergleichen bezeichnet), um Vorhersagen oder Entscheidungen zu treffen, ohne zum Durchführen solcher Aufgaben explizit programmiert zu sein. Im Allgemeinen ist ein ML-Algorithmus ein Computerprogramm, das aus Erfahrung in Bezug auf irgendeine Aufgabe und irgendeine Leistungsmaßnahme lernt, und ein ML-Modell kann ein beliebiges Objekt oder eine beliebige Datenstruktur sein, die erzeugt werden, nachdem ein ML-Algorithmus mit einem oder mehreren Trainingsdatensätzen trainiert wurde. Nach dem Training kann ein ML-Modell verwendet werden, um Vorhersagen über neue Datensätze zu treffen. Obwohl sich der Begriff „ML-Algorithmus“ auf andere Konzepte als der Begriff „ML-Modell“ bezieht, können diese Begriffe, wie hierin erörtert, für die Zwecke der vorliegenden Offenbarung austauschbar verwendet werden. Der Begriff „Sitzung“ bezieht sich auf einen temporären und interaktiven Informationsaustausch zwischen zwei oder mehr Kommunikationsvorrichtungen, zwei oder mehr Anwendungsinstanzen, zwischen einem Computer und einem Benutzer oder zwischen beliebigen zwei oder mehr Entitäten oder Elementen.
  • Obwohl viele der vorherigen Beispiele unter Verwendung spezieller zellularer/mobiler Netzwerkterminologie bereitgestellt wurden, einschließlich der Verwendung von 4G/5G-3GPP-Netzwerkkomponenten (oder erwarteten 6G/6G+ Technologien auf Terahertzbasis), versteht es sich, dass diese Beispiele auf viele andere Bereitstellungen von Weiterverkehrs- und lokalen drahtlosen Netzwerken sowie die Integration von drahtgebundenen Netzwerken (einschließlich optischer Netzwerke und zugehöriger Fasern, Sendeempfänger usw.) angewendet werden können. Des Weiteren können verschiedene Standards (z.B. 3GPP, ETSI usw.) verschiedene Nachrichtenformate, PDUs, Container, Rahmen usw. als eine Sequenz von optionalen oder obligatorischen Datenelementen (DEs), Datenrahmen (DFs), Informationselementen (IEs) und/oder dergleichen umfassend definieren. Es versteht sich jedoch, dass die Anforderungen eines beliebigen spezifischen Standards die hierin erörterten Ausführungsformen nicht einschränken sollten und daher eine beliebige Kombination von Containern, Rahmen, DFs, DEs, IEs, Werten, Aktionen und/oder Merkmalen in verschiedenen Ausführungsformen möglich ist, einschließlich einer beliebigen Kombination von Containern, DFs, DEs, Werten, Aktionen und/oder Merkmalen, die strikt befolgt werden müssen, um solchen Standards zu entsprechen, oder einer beliebigen Kombination von Containern, Rahmen, DFs, DEs, IEs, Werten, Aktionen und/oder Merkmalen, die dringend zu empfehlen sind und mit oder in Anwesenheit/Abwesenheit von optionalen Elementen verwendet werden.
  • Obwohl diese Implementierungen unter Bezugnahme auf spezifische beispielhafte Aspekte beschrieben wurden, versteht es sich, dass verschiedene Modifikationen und Änderungen an diesen Aspekten vorgenommen werden können, ohne vom breiteren Schutzumfang der vorliegenden Offenbarung abzuweichen. Viele der hierin beschriebenen Anordnungen und Prozesse können in Kombination oder in parallelen Implementierungen verwendet werden, um eine größere Bandbreite/einen größeren Durchsatz bereitzustellen und Edge-Dienst-Auswahlmöglichkeiten zu unterstützen, die den zu bedienenden Edge-Systemen zur Verfügung gestellt werden können. Entsprechend sind die Beschreibung und die Zeichnungen in einem veranschaulichenden und nicht in einem einschränkenden Sinne aufzufassen. Die begleitenden Zeichnungen, die einen Teil hiervon bilden, zeigen spezielle Aspekte, in denen der Gegenstand ausgeführt werden kann, als Veranschaulichung und nicht als Beschränkung. Die veranschaulichten Aspekte sind hinreichend detailliert beschrieben, um einen Fachmann zu befähigen, die hierin offenbarten Lehren in die Praxis umzusetzen. Andere Aspekte können genutzt und aus diesen abgeleitet werden, so dass strukturelle und logische Substitutionen und Änderungen vorgenommen werden können, ohne den Schutzumfang dieser Offenbarung zu verlassen. Diese ausführliche Beschreibung ist daher nicht in einem beschränkenden Sinn aufzufassen und der Schutzumfang verschiedener Aspekte ist nur durch die angehängten Ansprüche, zusammen mit dem vollen Umfang von Äquivalenten, zu denen solche Ansprüche berechtigt sind, definiert.
  • Solche Aspekte des Erfindungsgegenstands können hierin lediglich der Einfachheit halber und ohne die Absicht, den Schutzumfang dieser Anmeldung willentlich auf einen einzigen Aspekt oder Erfindungsgedanken zu beschränken, falls tatsächlich mehr als einer offenbart sind, einzeln oder zusammen erwähnt sein. Obwohl spezielle Aspekte hierin veranschaulicht und beschrieben wurden, sollte man daher verstehen, dass eine beliebige Einrichtung, die berechnet ist, um denselben Zweck zu erfüllen, die gezeigten speziellen Ausführungsformen ersetzen kann. Diese Offenbarung soll jegliche Anpassungen oder Varianten verschiedener Aspekte abdecken. Kombinationen der obigen Aspekte und anderer hierin nicht speziell beschriebener Aspekte werden für den Fachmann aus der Durchsicht der vorstehenden Beschreibung ersichtlich.

Claims (25)

  1. Einrichtung für kontextbewusstes Handover, wobei die Vorrichtung umfasst: ein oder mehrere Funkzugangsmittel zum Erhalten von Netzwerkkonnektivität mit jeweiligen Netzwerken; Kontextinferenzmittel zum Bestimmen von Kontextinformationen der Vorrichtung und Vorhersagen eines Zielorts der Einrichtung zu einem vorhergesagten Zeitpunkt basierend auf den Kontextinformationen, auf Verstärkungslernen basierende Empfehlungsmittel zum Bestimmen eines empfohlenen Zielnetzwerks am vorhergesagten Zielort basierend auf den Kontextinformationen, und Sitzungsschichtmittel zum Initiieren eines Handovers an das Zielnetzwerk unter Verwendung eines verfügbaren Funkzugangsmittels des einen oder der mehreren Funkzugangsmittel, das einem Funkzugangsmittel des Zielnetzwerks entspricht, in Reaktion auf die Detektion eines Handover-Auslöseereignisses.
  2. Einrichtung nach Anspruch 1, ferner umfassend Netzwerkentdeckungsmittel zum: Abfragen von Netzwerkinformationen, die mit dem vorhergesagten Zielort assoziiert sind, wobei die Netzwerkinformationen eines oder mehrere von Netzwerkkonnektivitätsdaten, Dienstqualitätsparametern, Signalmessungen und Standorten einzelner Netzwerkzugangsknoten am oder um den vorhergesagten Zielort anzeigen.
  3. Einrichtung nach Anspruch 2, wobei das auf Verstärkungslernen basierende Empfehlungsmittel ferner ist zum: Vorhersagen einer Dienstqualität für das empfohlene Zielnetzwerk am vorhergesagten Ort zum vorhergesagten Zeitpunkt basierend auf den Netzwerkinformationen.
  4. Einrichtung nach Anspruch 3, wobei zum Vorhersagen der Dienstqualität das auf Verstärkungslernen basierende Empfehlungsmittel ist zum: Identifizieren eines aktuellen Zustands der Einrichtung und einer aktuellen Belohnung, wobei der aktuelle Zustand auf den Kontextinformationen basiert und die aktuelle Belohnung ein numerischer Wert ist, der in Reaktion auf ein zuvor empfohlenes Zielnetzwerk erhalten wird; und Bestimmen, dass das empfohlene Zielnetzwerk eines aus einem Satz von Kandidatennetzwerken ist, das eine kumulative Belohnungsmenge über einen Zeitraum basierend auf dem aktuellen Zustand und der aktuellen Belohnungsmenge maximiert.
  5. Einrichtung nach Anspruch 1-4, ferner umfassend Richtlinienverwaltungsmittel zum: Auswählen des Zielnetzwerks gemäß einer Richtlinie; und Bereitstellen der Auswahl für das auf Verstärkungslernen basierende Empfehlungsmittel als Belohnung für künftige Vorhersagen.
  6. Einrichtung nach Anspruch 1-5, wobei das Kontextinferenzmittel ferner zum Bestimmen der Kontextinformationen unter Verwendung eines oder mehrerer von Folgenden ist: Systemdaten von einem oder mehreren Hardwareelementen der Einrichtung, Objektdetektionsdaten basierend auf Bilddaten, die von einem oder mehreren Bildgebungssensoren erhalten werden, und Verarbeiten von Daten natürlicher Sprache basierend auf Audiodaten, die durch einen oder mehrere Audiosensoren erfasst werden.
  7. Einrichtung nach Anspruch 1-6, wobei das Kontextinferenzmittel ferner ist zum: Bestimmen eines physischen Standorts der Einrichtung unter Verwendung von Standortdaten, die von mindestens einem Funkzugangsmittel des einen oder der mehreren Funkzugangsmittel erhalten werden, Positionsbestimmungsdaten, die von Positionsbestimmungsschaltungen erhalten werden, oder Sensordaten, die von einem oder mehreren Aktivitäts- oder Bewegungssensoren erhalten werden.
  8. Einrichtung nach Anspruch 7, wobei der Zielort ein semantischer Ort ist und das Kontextinferenzmittel ferner ist zum: Bestimmen des semantischen Orts basierend auf dem bestimmten physischen Standort und den Kontextinformationen, wobei der semantische Ort ein Ort ist, der auf einem Zustand der Einrichtung basiert.
  9. Einrichtung nach Anspruch 1-8, wobei die Einrichtung über ein Quellenfunkzugangsmittel unter dem einen oder den mehreren Funkzugangsmitteln an ein Quellnetzwerk angeschlossen ist, und das Sitzungsschichtmittel ferner ist zum: Auslösen des Quellenfunkzugangsmittels, um das Handover vom Quellnetzwerk zum Zielnetzwerk zu initiieren.
  10. Einrichtung nach Anspruch 9, wobei das Sitzungsschichtmittel ferner ist zum: Einschalten des verfügbaren Funkzugangsmittels in Reaktion auf die Detektion des Handover-Auslöseereignisses.
  11. Einrichtung nach Anspruch 9-10, wobei das Quellnetzwerk und das Zielnetzwerk dasselbe Funkzugangsmittel verwenden oder das Quellnetzwerk und das Zielnetzwerk unterschiedliche Funkzugangsmittel verwenden.
  12. Computersystem, umfassend: einen oder mehrere Prozessoren; und ein oder mehrere computerlesbare Speichermedien (CRSM), die kommunikativ mit dem einen oder den mehreren Prozessoren gekoppelt sind und Anweisungen eines auf Verstärkungslernen basierenden Empfehlungsmodells (RLRM) speichern, wobei die Ausführung der Anweisungen durch den einen oder die mehreren Prozessoren das Computersystem veranlasst zum: Identifizieren eines aktuellen Zustands des Computersystems, wobei der aktuelle Zustand auf Kontextinformationen des Computersystems basiert; Identifizieren einer aktuellen Belohnung, wobei die aktuelle Belohnung ein Wert ist, der in Reaktion auf ein zuvor empfohlenes Zielnetzwerk erhalten wird; Auswählen einer Aktion aus einem Satz verfügbarer Aktionen in Anbetracht des aktuellen Zustands und der aktuellen Belohnung, wobei die ausgewählte Aktion eine Empfehlung eines Handover(HO)-Ziels für ein kontextbewusstes Handover von einer HO-Quelle ist; Bereitstellen der ausgewählten Aktion für einen Richtlinienmanager; und Empfangen einer positiven oder negativen Belohnung vom Richtlinienmanager basierend auf der ausgewählten Aktion.
  13. Computersystem nach Anspruch 12, wobei die Kontextinformationen einen vorhergesagten Zielort umfassen und die Ausführung der Anweisungen durch den einen oder die mehreren Prozessoren das Computersystem veranlasst zum: Erhalten von Netzwerkinformationen, die mit dem vorhergesagten Zielort assoziiert sind, von einem Netzwerkentdeckungsdienst (NDS), wobei die Netzwerkinformationen eines oder mehrere von Netzwerkkonnektivitätsdaten, Dienstqualitäts(QoS)-Parametern, Signalmessungen und Standorten individueller Netzwerkzugangsknoten (NANs) am oder um den vorhergesagten Zielort umfassen.
  14. Computersystem nach Anspruch 13, wobei zum Auswählen der Aktion die Ausführung der Anweisungen durch den einen oder die mehreren Prozessoren das Computersystem veranlasst zum: Auswählen des HO-Ziels aus einem Satz von Kandidaten-HO-Zielen basierend auf einer vorhergesagten QoS, die durch jedes Kandidaten-HO-Ziel des Satzes von Kandidaten-HO-Zielen bereitgestellt werden soll.
  15. Computersystem nach Anspruch 13-14, wobei zum Auswählen der Aktion die Ausführung der Anweisungen durch den einen oder die mehreren Prozessoren das Computersystem zu Folgendem veranlasst zum: Auswählen des HO-Ziels aus einem Satz von Kandidaten-HO-Zielen, das eine kumulative Belohnungsmenge über einen Zeitraum maximiert.
  16. Computersystem nach Anspruch 12-15, wobei der vorhergesagte Zielort einen vorhergesagten physischen Standort und einen semantischen Ort umfasst, der mit dem vorhergesagten physischen Standort assoziiert ist.
  17. Computersystem nach Anspruch 12-16, wobei das HO-Ziel ein Zielnetzwerk, eine Ziel-RAT oder ein Zielnetzwerkzugangsknoten (NAN) ist, die HO-Quelle ein Quellnetzwerk, eine Quell-RAT oder ein Quell-NAN ist, und die HO-Quelle und das HO-Ziel eine gleiche RAT verwenden, oder die HO-Quelle und das HO-Ziel unterschiedliche RATs verwenden.
  18. System zum Ermöglichen von kontextbewusstem Handover (HO), wobei das System umfasst: eine Vielzahl von Netzwerkzugangsknoten (NANs), die dazu ausgelegt sind, Netzwerkkonnektivität in jeweiligen Netzwerkabdeckungsbereichen bereitzustellen, wobei jedes NAN der Vielzahl von NANs Netzwerkkonnektivität gemäß mindestens einer Funkzugangstechnologie (RAT) bereitstellt; ein oder mehrere Netzwerkrepositorien, die kommunikativ mit den mehreren NANs gekoppelt sind, wobei das eine oder die mehreren Netzwerkrepositorien dazu ausgelegt sind, Netzwerkinformationen einzelner NANs der mehreren NANs zu speichern, wobei die Netzwerkinformationen Netzwerkparameter der einzelnen NANs angeben; und eine Client-Rechenvorrichtung zum Erhalten von Netzwerkkonnektivität von mindestens einem NAN der Vielzahl von NANs, wobei die Client-Rechenvorrichtung umfasst: eine Prozessorschaltungsanordnung, die kommunikativ mit einer oder mehreren RAT-Schnittstellen gekoppelt ist, wobei die Prozessorschaltungsanordnung ausgelegt ist zum: Betreiben eines Kontextinferenzmodells (CIM), um Kontextinformationen der Client-Rechenvorrichtung zu bestimmen, und Vorhersagen eines Zielorts der Client-Rechenvorrichtung zu einem vorhergesagten Zeitpunkt basierend auf den Kontextinformationen, Betreiben eines Netzwerkentdeckungsdienstes (NDS), um Netzwerkinformationen abzufragen, die mit dem vorhergesagten Zielort assoziiert sind, Betreiben eines auf Verstärkungslernen basierenden Empfehlungsmodells (RLRM), um ein empfohlenes Ziel-NAN der Vielzahl von NANs am vorhergesagten Zielort basierend auf den Kontextinformationen und den Netzwerkinformationen zu bestimmen, und Betreiben einer Sitzungsschichtentität zum Initiieren eines HO von einem Quell-NAN der Vielzahl von NANs zum Ziel-NAN unter Verwendung einer RAT-Schnittstelle der einen oder mehreren RAT-Schnittstellen, die mit einer RAT des Ziel-NAN assoziiert ist, in Reaktion auf die Detektion eines HO-Auslöseereignisses.
  19. System nach Anspruch 18, wobei die Netzwerkinformationen eines oder mehrere von Netzwerkverbindungsdaten von NANs am vorhergesagten Zielort, Dienstqualitäts(QoS)-Parametern der NANs am vorhergesagten Zielort, Signalmessungen der NANs am vorhergesagten Zielort und Standorte der NANs am vorhergesagten Zielort umfassen.
  20. System nach Anspruch 18-19, wobei die Prozessorschaltungsanordnung ferner dazu ausgelegt ist, das RLRM zu betreiben zum: Identifizieren eines aktuellen Zustands der Client-Rechenvorrichtung und einer aktuellen Belohnung, wobei der aktuelle Zustand auf den Kontextinformationen basiert und die aktuelle Belohnung ein numerischer Wert ist, der in Reaktion auf ein zuvor empfohlenes Ziel-NAN erhalten wird; und Bestimmen, dass das empfohlene Ziel-NAN eines aus einem Satz von Kandidaten-NANs ist, das eine kumulative Belohnungsmenge über einen Zeitraum basierend auf dem aktuellen Zustand und der aktuellen Belohnungsmenge maximiert.
  21. System nach Anspruch 18-20, wobei die Prozessorschaltungsanordnung ferner dazu ausgelegt ist, einen Richtlinienmanager zu betreiben zum: Auswählen des Ziel-NAN gemäß einer Richtlinie; und Bereitstellen der Auswahl für das RLRM als positive oder negative Belohnung für künftige Vorhersagen.
  22. System nach Anspruch 18-21, wobei die Prozessorschaltungsanordnung ferner dazu ausgelegt ist, das CIM zu betreiben, um die Kontextinformationen unter Verwendung eines oder mehrerer von Folgenden zu bestimmen: Systemdaten von einem oder mehreren Hardwareelementen der Client-Rechenvorrichtung, Objektdetektionsdaten basierend auf Bilddaten, die von einem oder mehreren Bildgebungssensoren erhalten werden, und Verarbeiten von Daten natürlicher Sprache basierend auf Audiodaten, die durch einen oder mehrere Audiosensoren erfasst werden.
  23. System nach Anspruch 18-22, wobei die Prozessorschaltungsanordnung ferner dazu ausgelegt ist, das CIM zu betreiben zum: Bestimmen eines physischen Standorts der Einrichtung unter Verwendung von Standortdaten, die von mindestens einer RAT-Schnittstelle der einen oder mehreren RAT-Schnittstellen erhalten werden, Positionsbestimmungsdaten, die von Positionsbestimmungsschaltungen erhalten werden, oder Sensordaten, die von einem oder mehreren Aktivitäts- oder Bewegungssensoren erhalten werden; und Bestimmen eines semantischen Orts basierend auf dem bestimmten physischen Standort und den Kontextinformationen, wobei der semantische Ort ein Ort ist, der einen Zustand der Client-Rechenvorrichtung darstellt.
  24. System nach Anspruch 18-23, wobei jedes NAN der mehreren NANS dazu ausgelegt ist, Netzwerkinformationen für das eine oder die mehreren Repositorien auf periodischer Basis oder bei Aktualisierung von Netzwerkinformationen bereitzustellen.
  25. System nach Anspruch 18-24, wobei das eine oder die mehreren Repositorien durch eines oder mehrere von Folgenden implementiert sind: einen zentralisierten Cloud-Rechendienst, einen oder mehrere Edge-Rechenknoten, wobei einzelne Edge-Rechenknoten des einen oder der mehreren Edge-Rechenknoten ortsgleich mit einzelnen NANs der mehreren NANs angeordnet sind, und eine oder mehrere zellulare Kernnetzwerkfunktionen oder Anwendungsfunktionen.
DE102021208087.1A 2020-09-17 2021-07-27 Kontextbewusstes Handover Pending DE102021208087A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/024,301 US11963051B2 (en) 2020-09-17 2020-09-17 Context aware handovers
US17/024,301 2020-09-17

Publications (1)

Publication Number Publication Date
DE102021208087A1 true DE102021208087A1 (de) 2022-03-17

Family

ID=74065284

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021208087.1A Pending DE102021208087A1 (de) 2020-09-17 2021-07-27 Kontextbewusstes Handover

Country Status (2)

Country Link
US (1) US11963051B2 (de)
DE (1) DE102021208087A1 (de)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3064437A1 (fr) * 2017-03-24 2018-09-28 Orange Procede de recommandation d'une pile de communication
US11303632B1 (en) * 2018-06-08 2022-04-12 Wells Fargo Bank, N.A. Two-way authentication system and method
CN115426693A (zh) * 2018-08-02 2022-12-02 华为技术有限公司 网络切换方法、电子设备以及芯片子系统
US11271846B2 (en) 2018-10-22 2022-03-08 Oracle International Corporation Methods, systems, and computer readable media for locality-based selection and routing of traffic to producer network functions (NFs)
US11082521B2 (en) * 2019-05-24 2021-08-03 California Eastern Laboratories, Inc. Single source of information apparatuses, methods, and systems
US11159359B2 (en) 2019-06-26 2021-10-26 Oracle International Corporation Methods, systems, and computer readable media for diameter-peer-wide egress rate limiting at diameter relay agent (DRA)
US11252093B2 (en) 2019-06-26 2022-02-15 Oracle International Corporation Methods, systems, and computer readable media for policing access point name-aggregate maximum bit rate (APN-AMBR) across packet data network gateway data plane (P-GW DP) worker instances
US11323413B2 (en) 2019-08-29 2022-05-03 Oracle International Corporation Methods, systems, and computer readable media for actively discovering and tracking addresses associated with 4G service endpoints
US20210136645A1 (en) * 2019-10-31 2021-05-06 Qualcomm Incorporated Enhancements of VoWi-Fi Handover From ePDG to LTE When VoNR is Not Supported
US11418395B2 (en) * 2020-01-08 2022-08-16 Servicenow, Inc. Systems and methods for an enhanced framework for a distributed computing system
US11528334B2 (en) 2020-07-31 2022-12-13 Oracle International Corporation Methods, systems, and computer readable media for preferred network function (NF) location routing using service communications proxy (SCP)
US11290549B2 (en) 2020-08-24 2022-03-29 Oracle International Corporation Methods, systems, and computer readable media for optimized network function (NF) discovery and routing using service communications proxy (SCP) and NF repository function (NRF)
US11483694B2 (en) * 2020-09-01 2022-10-25 Oracle International Corporation Methods, systems, and computer readable media for service communications proxy (SCP)-specific prioritized network function (NF) discovery and routing
US11482002B1 (en) * 2020-10-16 2022-10-25 Splunk Inc. Codeless anchor detection for detectable features in an environment
US11570262B2 (en) 2020-10-28 2023-01-31 Oracle International Corporation Methods, systems, and computer readable media for rank processing for network function selection
US11665728B2 (en) * 2020-11-18 2023-05-30 Dell Products, L.P. Multi-band simultaneous switching system and method of using the same
US20220172103A1 (en) * 2020-11-30 2022-06-02 International Business Machines Corporation Variable structure reinforcement learning
TWI763173B (zh) * 2020-12-14 2022-05-01 宏碁通信股份有限公司 物聯網系統與其備用通道使用方法
US11470544B2 (en) 2021-01-22 2022-10-11 Oracle International Corporation Methods, systems, and computer readable media for optimized routing of messages relating to existing network function (NF) subscriptions using an intermediate forwarding NF repository function (NRF)
US11589298B2 (en) 2021-03-05 2023-02-21 Oracle International Corporation Methods, systems, and computer readable media for selecting multiple network function types using a single discovery request
US11496954B2 (en) 2021-03-13 2022-11-08 Oracle International Corporation Methods, systems, and computer readable media for supporting multiple preferred localities for network function (NF) discovery and selection procedures
WO2022212079A1 (en) * 2021-04-01 2022-10-06 University Of South Florida Deep reinforcement learning for adaptive network slicing in 5g for intelligent vehicular systems and smart cities
CN115209489B (zh) * 2021-04-09 2024-05-14 华为技术有限公司 一种网络切换方法和装置
US11888946B2 (en) 2021-06-02 2024-01-30 Oracle International Corporation Methods, systems, and computer readable media for applying or overriding preferred locality criteria in processing network function (NF) discovery requests
CN113573365B (zh) * 2021-06-17 2023-06-02 南京邮电大学 一种基于马尔科夫转移概率的车联网边缘缓存方法
US11895080B2 (en) 2021-06-23 2024-02-06 Oracle International Corporation Methods, systems, and computer readable media for resolution of inter-network domain names
CN113542376A (zh) * 2021-07-01 2021-10-22 广东工业大学 一种基于能耗与时延加权的任务卸载方法
CN113473365A (zh) * 2021-07-05 2021-10-01 上海海事大学 融合被囊群和哈里斯鹰算法的降低dv-hop定位误差方法
WO2023284970A1 (en) * 2021-07-15 2023-01-19 Telefonaktiebolaget Lm Ericsson (Publ) First node, second node, third node, communications system and methods performed thereby for handling roaming of a wireless device from a first communications network
US11950178B2 (en) 2021-08-03 2024-04-02 Oracle International Corporation Methods, systems, and computer readable media for optimized routing of service based interface (SBI) request messages to remote network function (NF) repository functions using indirect communications via service communication proxy (SCP)
US11930083B2 (en) 2021-08-09 2024-03-12 Oracle International Corporation Methods, systems, and computer readable media for processing network function (NF) discovery requests at NF repository function (NRF) using prioritized lists of preferred locations
US11645095B2 (en) * 2021-09-14 2023-05-09 Adobe Inc. Generating and utilizing a digital knowledge graph to provide contextual recommendations in digital content editing applications
US11871309B2 (en) 2021-09-28 2024-01-09 Oracle International Corporation Methods, systems, and computer readable media for network function discovery using preferred-locality information
US11405449B1 (en) * 2021-10-01 2022-08-02 International Business Machines Corporation Optimizing response time by load sharing in edge computing
US11849506B2 (en) 2021-10-08 2023-12-19 Oracle International Corporation Methods, systems, and computer readable media for routing inter-public land mobile network (inter-PLMN) messages related to existing subscriptions with network function (NF) repository function (NRF) using security edge protection proxy (SEPP)
US11985577B2 (en) 2021-10-13 2024-05-14 Toyota Motor Engineering & Manufacturing North America, Inc. Uninterrupted vehicular cloud service in an overlapping vehicular micro cloud area
US11770307B2 (en) 2021-10-29 2023-09-26 T-Mobile Usa, Inc. Recommendation engine with machine learning for guided service management, such as for use with events related to telecommunications subscribers
CN114040016B (zh) * 2021-11-02 2022-08-12 清华大学 卫星边缘智能代理的编排方法、系统、介质及计算设备
CN113961816B (zh) * 2021-11-26 2022-07-01 重庆理工大学 一种基于结构增强的图卷积神经网络会话推荐方法
US11888957B2 (en) 2021-12-07 2024-01-30 Oracle International Corporation Methods, systems, and computer readable media for locality and serving scope set based network function (NF) profile prioritization and message routing
KR20230086173A (ko) * 2021-12-08 2023-06-15 엘지이노텍 주식회사 통신 장치 및 이를 이용하는 차량 간 통신 방법
US11917720B2 (en) 2021-12-14 2024-02-27 Oracle International Corporation Methods, systems, and computer readable media for enabling forwarding of subsequent network function subscription updates
CN114553836B (zh) * 2022-01-12 2024-02-20 中国科学院信息工程研究所 一种基于强化学习的数据块传输准时性提升方法
US11652895B1 (en) 2022-02-15 2023-05-16 Oracle International Corporation Methods, systems, and computer readable media for dynamic optimized network function discovery for consumer network functions
WO2023199264A1 (en) * 2022-04-13 2023-10-19 Telefonaktiebolaget Lm Ericsson (Publ) Dual connectivity handover optimization using reinforcement learning
CN114756367B (zh) * 2022-04-15 2024-02-23 中国电信股份有限公司 服务迁移方法、装置、介质及电子设备
US20230391373A1 (en) * 2022-06-03 2023-12-07 Mitsubishi Electric Research Laboratories, Inc. System and Method for Controlling Autonomous Vehicle in Uncertain Environment
US20240073935A1 (en) * 2022-08-30 2024-02-29 Qualcomm Incorporated Method For Distributed Compute Operation Across Connected Devices
CN115297567B (zh) * 2022-09-29 2023-01-03 广州智慧城市发展研究院 一种近距离无线通信芯片间连接通信方法及系统
WO2024090708A1 (en) * 2022-10-28 2024-05-02 Samsung Electronics Co., Ltd. System and method for adaptive cell search based on artificial intelligence model of an electronic device
CN115834419A (zh) * 2022-11-16 2023-03-21 中国联合网络通信集团有限公司 网络评估方法、装置及存储介质
CN116155991B (zh) * 2023-01-30 2023-10-10 杭州滨电信息技术有限公司 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
JP7425921B1 (ja) 2023-09-12 2024-01-31 株式会社インターネットイニシアティブ 移動体装置の接続先基地局の選択を学習する学習装置およびシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110310840A1 (en) * 2010-06-22 2011-12-22 Richard Howard Kennedy Methods and apparatus to reduce network configuration changes
KR101761577B1 (ko) * 2012-10-08 2017-07-26 한국전자통신연구원 세션 이동 제어 장치와 방법, 및 ims 등록 장치와 방법
US20150094069A1 (en) * 2013-09-30 2015-04-02 Qualcomm Incorporated Enhanced inter-radio access technology handover procedures
WO2020064134A1 (en) * 2018-09-28 2020-04-02 Nokia Technologies Oy Radio-network self-optimization based on data from radio network and spatiotemporal sensors
WO2021064275A1 (en) * 2019-10-02 2021-04-08 Nokia Technologies Oy Radio access information reporting in wireless network
CN114788353A (zh) * 2019-11-28 2022-07-22 瑞典爱立信有限公司 执行切换过程
BR112021000527A2 (pt) * 2019-12-10 2022-06-21 Ericsson Telecomunicacoes Sa Métodos, ue e primeiro nó de rede para manipular informações de mobilidade em uma rede de comunicações

Also Published As

Publication number Publication date
US20210007023A1 (en) 2021-01-07
US11963051B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
DE102021208087A1 (de) Kontextbewusstes Handover
US11711284B2 (en) Link performance prediction technologies
US11627444B2 (en) Vehicle-to-everything session and service continuity in automotive edge computing systems
US20220014963A1 (en) Reinforcement learning for multi-access traffic management
US11234204B2 (en) Server selection for vehicle communications and applications
US11423254B2 (en) Technologies for distributing iterative computations in heterogeneous computing environments
US11244242B2 (en) Technologies for distributing gradient descent computation in a heterogeneous multi-access edge computing (MEC) networks
US20220086218A1 (en) Interoperable framework for secure dual mode edge application programming interface consumption in hybrid edge computing platforms
DE112020004736T5 (de) Edge-computing-technologien für transportschichtüberlastregelung und point-of-presence-optimierungen auf grundlage erweiterter vorab-dienstgüte-benachrichtigungen
US20220303331A1 (en) Link performance prediction and media streaming technologies
US20220124543A1 (en) Graph neural network and reinforcement learning techniques for connection management
US20220038902A1 (en) Technologies for radio equipment cybersecurity and multiradio interface testing
DE112020002310T5 (de) V2x-dienste zur bereitstellung fahrtspezifischer qos-vorhersagen
DE112019002913T5 (de) Verwaltung von zuweisungen bevorzugter kanäle zwischendrahtloskommunikationsbändern
US20190222652A1 (en) Sensor network configuration mechanisms
DE112020007003T5 (de) Multi-funkzugangstechnologie-verkehrsverwaltung
DE102019217367A1 (de) VERWALTUNG DER DIENSTQUALITÄT (QoS) IN EDGE-COMPUTING-UMGEBUNGEN
KR20220027818A (ko) 분산 컴퓨팅을 위한 자동화된 리소스 관리
DE102021209988A1 (de) Techniken zur klassifizierung und priorisierung von mehrfachzugangsverwaltungsdienstpaketen
CN115175130A (zh) 用于移动用户设备的多址边缘计算服务的方法和装置
DE112020001183T5 (de) Multi-slice-unterstützung für mec-fähige 5g-implementierungen
DE102022200588A1 (de) Überlastungs- und mehrkanalsteuerung eines verkehrstelematiksystems
US20220167262A1 (en) Server selection for vehicle communications and applications
DE112020006555T5 (de) Rekonfigurierbare funksysteme mit funkschnittstellen-engines und virtuellen funkmaschinen
DE102022211529A1 (de) Methoden zum einreihen und neuordnen für mehrfachzugangsverwaltungsdienste