DE102022211605A1 - Zuverlässigkeitsverbesserungen für mehrfachzugangsverkehrsverwaltung - Google Patents

Zuverlässigkeitsverbesserungen für mehrfachzugangsverkehrsverwaltung Download PDF

Info

Publication number
DE102022211605A1
DE102022211605A1 DE102022211605.4A DE102022211605A DE102022211605A1 DE 102022211605 A1 DE102022211605 A1 DE 102022211605A1 DE 102022211605 A DE102022211605 A DE 102022211605A DE 102022211605 A1 DE102022211605 A1 DE 102022211605A1
Authority
DE
Germany
Prior art keywords
network
packets
path
reliability
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022211605.4A
Other languages
English (en)
Inventor
Shu-Ping Yeh
Wei Mao
Hosein Nikopour
Shilpa Talwar
Murali Narasimha
Jingwen BAI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102022211605A1 publication Critical patent/DE102022211605A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/12Shortest path evaluation
    • H04L45/121Shortest path evaluation by minimising delays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/302Route determination based on requested QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/215Flow control; Congestion control using token-bucket
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/566Grouping or aggregating service requests, e.g. for unified processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/14Multichannel or multilink protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/22Parsing or analysis of headers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/24Negotiation of communication capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

Die vorliegende Offenbarung betrifft eine Mehrfachzugangsverkehrsverwaltung in Mehrfachzugangs-Rechenumgebungen. Eine Zuverlässigkeitsverbesserungs-Engine (REE), die durch eine Mehrfachzugangs-Mehrpfade-Verkehrsverwaltung betrieben wird, identifiziert Verkehrsflüsse, die hohe Zuverlässigkeitsanforderungen aufweisen („Zuverlässigkeitsflüsse“) und führt eine Zulassungssteuerung für die Zuverlässigkeitsflüsse durch. Die REE bestimmt eine Codierungsrate (z. B. einen Redundanzfaktor) und Verkehrsverteilungsstrategien für die identifizierten Zuverlässigkeitsflüsse. Die REE wendet eine zugangsübergreifende Netzwerkcodierung (NC) auf die Zuverlässigkeitsflüsse an und behandelt Mehrfachzugangsbestätigungen und Verkehrs-Pacing, die Multiplexen von Verkehr der Zuverlässigkeitsflüsse mit Verkehr mit nicht-hoher Zuverlässigkeit beinhalten können. Andere Ausführungsformen können beschrieben und/oder beansprucht werden.

Description

  • TECHNISCHES GEBIET
  • Hierin beschriebene Ausführungsformen betreffen allgemein Edge-Computing, Netzwerkkommunikation, Kommunikationssystemimplementierungen und künstliche Intelligenz (KI) und maschinelles Lernen (ML) und insbesondere KI/ML-Techniken zum Verwalten von Verkehr in Mehrfachzugangskommunikationsnetzwerken.
  • STAND DER TECHNIK
  • Mehrfachzugangstechnologie involviert zum Beispiel Endgeräte (UE), die mehr als eine Funkschnittstelle aufweisen, die auf mehrere Funkzugangsnetzwerke (RANs) zugreifen können, die unterschiedliche Funkzugangstechnologien (RATs) implementieren. Derzeit fehlen jedoch Strategien zum effizienten Verwalten des Mehrfachzugangsverkehrs, um verschiedene Dienstgüte(QoS)-Anforderungen verschiedener Anwendungen zu erfüllen.
  • Figurenliste
  • In den Zeichnungen, die nicht notwendigerweise maßstabsgetreu gezeichnet sind, können ähnliche Bezugszeichen ähnliche Komponenten in unterschiedlichen Ansichten beschreiben. Gleiche Ziffern mit unterschiedlichen Buchstabensuffixen können unterschiedliche Instanzen ähnlicher Komponenten repräsentieren. Einige Ausführungsformen sind in den Figuren der zugehörigen Zeichnungen beispielhaft und nicht einschränkend veranschaulicht. Es zeigen:
    • 1 stellt ein beispielhaftes Multi-RAT-Netzwerk mit verschiedenen Konvergenzarchitekturen dar.
    • 2 stellt ein beispielhaftes Edge-basiertes Mehrfachzugangsverkehrsverwaltungs-Framework dar.
    • 3 stellt beispielhafte Zuverlässigkeitsverkehrsverteilungsoptimierer gemäß verschiedenen Ausführungsformen dar.
    • 4 stellt ein Beispiel für eine Mehrpfade-Netzwerkcodierung gemäß verschiedenen Ausführungsformen dar.
    • 5 stellt ein Beispiel für eine maximale Anzahl von auf jedem Pfad erlaubten Paketen dar.
    • 6 stellt einen Pfadordnungsprozess gemäß verschiedenen Ausführungsformen dar.
    • 7 stellt eine beispielhafte Paketübertragungsindexierung gemäß verschiedenen Ausführungsformen dar.
    • 8 stellt einen Greedy-Suchalgorithmus mit Liniensuche gemäß verschiedenen Ausführungsformen dar.
    • 9 stellt einen Greedy-Suchalgorithmus mit binärer Suche gemäß verschiedenen Ausführungsformen dar.
    • 10 stellt eine beispielhafte rekursive Endeinheitsanpassungsprozedur für Greedy-Algorithmen gemäß verschiedenen Ausführungsformen dar.
    • 11a, 11b, 12a und 12b stellen Simulationsergebnisse verschiedener Optimierungsalgorithmen dar.
    • 13 stellt ein weiteres Beispiel für eine Mehrpfade-Netzwerkcodierung gemäß verschiedenen Ausführungsformen dar.
    • 14 stellt einen Mechanismus zum frühen Stoppen gemäß verschiedenen Ausführungsformen dar.
    • 15 stellt eine beispielhafte Edge-Computing-Umgebung dar.
    • 16 stellt eine beispielhafte Softwareverteilungsplattform dar.
    • 17 stellt beispielhafte Komponenten eines Rechenknotens dar.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgenden Ausführungsformen betreffen allgemein Datenverarbeitungs-, Dienstverwaltungs-, Ressourcenzuordnungs-, Rechenverwaltungs-, Netzwerkkommunikations-, Anwendungspartitionierungs- und Kommunikationssystemimplementierungen und insbesondere Techniken und Konfigurationen zum Anpassen verschiedener Edge-Computing-Vorrichtungen und Entitäten, um mehrere Entitäten (z. B. mehrere Mandanten, Benutzer, Stakeholder, Dienstinstanzen, Anwendungen usw.) in einer verteilten Edge-Computing-Umgebung dynamisch zu unterstützen.
  • 1. ZUVERLÄSSIGKEITSVERBESSERUNGS-ENGINE FÜR EDGE-BASIERTE MEHRF ACHZUGANGS VERKEHRS VER WALTUNG
  • Edge-Computing-Technologien (ECTS) sind neu entstehende Technologien, die Intelligenz am Rand des Netzwerks bereitstellen, um die Bedürfnisse von latenzempfindlichen Anwendungen, wie etwa Gaming, autonomes Fahren und Fabrikautomatisierung und dergleichen, zu adressieren. Eine solche aufkommende ECT ist ETSI-Multi-Access-Edge-Computing (MEC) (siehe z. B. [MEC]). ECTs bieten ein effizienteres Rechen-Auslagerungsmodell durch Platzieren verteilter Rechen- und Speicherressourcen in der Nähe von Datenanbietern und Verbrauchern. Da mehr und mehr Client-Vorrichtungen (z. B. UEs 1521, 1511 aus 15) mit mehreren Funkschnittstellen ausgestattet sind und auf mehrere Funkzugangsnetzwerke (RANs) (siehe z. B. RANs, einschließlich eines oder mehrerer NANs 1531-1533 aus 15) unter Verwendung mehrerer Arten von Funkzugangstechnologien (RATs) (z. B. 5G/NR, LTE, WiFi, LoRa, usw.) zugreifen können, gab es ein zunehmendes Interesse, mehrere gleichzeitige Verbindungen zwischen Mehrfachfunkvorrichtungen und dem Netz für verbesserte Bandbreite und Zuverlässigkeit herzustellen. Die Zunahme von ECTs inspiriert zu einem neuen Mehrfachzugangsverkehrskonvergenzmodell: durch Platzieren eines neuen Mehrfachzugangskonvergenzpunkts an der Edge kann ein intelligenter Verkehrsmanager Pakete über mehrere Pfade verteilen, um eine bessere Dienstqualität (QoS) zu erreichen.
  • Die vorliegende Offenbarung stellt unter anderem eine Zuverlässigkeitsverbesserungs-Engine für eine Edge-basierte Mehrfachzugangsverkehrsverwaltung bereit. Die Zuverlässigkeitsverbesserungs-Engine identifiziert einen oder mehrere Flüsse, die einen zusätzlichen Zuverlässigkeitsschutz erfordern, wendet zusätzliche Netzwerkcodierung zusätzlich zu dem identifizierten Verkehrsfluss an, berechnet Codierungsrate und Regeln zum Verteilen von Verkehr über verfügbare Mehrfachzugangsverbindungen basierend auf Zuverlässigkeitsanforderung.
  • 1 stellt ein beispielhaftes Mehrfachzugangsnetzwerk 100 mit verschiedenen Konvergenzpunkten dar. Das Mehrfachzugangsnetzwerk 100 beinhaltet Rechenknoten 101 (die den UEs 1521, 1511 aus 15 entsprechen können), die Rechensysteme/-vorrichtungen sind, die in der Lage sind, Dienste von dem Cloud-System 144 zu erhalten (das der Cloud 1544 aus 15 entsprechen kann), einen Edge-Computing-Dienst (der dem Edge-Netzwerk 1535 aus 15 entsprechen kann), umfassend den Edge-Rechenknoten 136 (der den Edge-Computing-Knoten 1536 aus 15 entsprechen kann), und/oder ein Kernnetzwerk, umfassend einen oder mehrere Kernnetzwerk- bzw. CN-Server 140 (die dem CN 1542 aus 15 entsprechen können).
  • Die Rechenknoten 101 sind in der Lage, unter Verwendung einer oder mehrerer Funkzugangstechnologien (RASs), die gleich oder verschieden voneinander sein können, auf solche Dienste zuzugreifen. Der Netzwerkzugang kann lizenzierten Zugang oder unlizenzierten Zugang beinhalten. Der lizenzierte Zugang wird durch eine Reihe von Verbindungen/Links 103L repräsentiert (die z. B. jeweilige Pfade 103L bilden), und der unlizenzierte Zugang wird durch eine Reihe von Verbindungen/Links 103U repräsentiert (die z. B. jeweilige Pfade 103U bilden). Die Verbindungen 103U/L können entweder für lizenzierten oder unlizenzierten Zugriff verwendet werden.
  • Der Edge-Computing-Knoten 136 ist an einem Rand eines entsprechenden Zugangsnetzwerks (z. B. Netzwerke, die durch NANs 131, 132, 133 bereitgestellt werden) angeordnet. Der Edge-Computing-Knoten 136 befindet sich gemeinsam mit dem Netzwerkzugangsknoten (NAN) 133 in 1 (der gleich oder ähnlich wie ein beliebiger der NANs 1531, 1532, 1533 aus 15 sein kann). Der Edge-Computing-Knoten 136 stellt Rechenressourcen und/oder verschiedene Dienste (z. B. Rechenaufgaben- und/oder Arbeitslastauslagerung, Cloud-Computing-Fähigkeiten, IT-Dienste und andere ähnliche Ressourcen und/oder Dienste, wie hier besprochen) in relativ enger Nähe zu Netzwerkteilnehmern bereit (z. B. Rechenknoten 101, die auch als „UEs“, „Edge-Benutzer“ und/oder dergleichen bezeichnet werden). Die Virtualisierungsinfrastruktur (VI) des Edge-Computing-Knotens 136 stellt virtualisierte Umgebungen und virtualisierte Ressourcen für den Edge-Computing-Knoten 136 bereit, und die Edge-Computing-Anwendungen können als VMs und/oder Anwendungscontainer auf der VI laufen Zusätzlich oder alternativ dazu kann der Edge-Computing-Knoten 1 36 Teil einer Edge-Cloud und/oder eines Edge-Computing-Framework, wie etwa den hierin beschriebenen, sein.
  • Wenn ein Rechenknoten 101 mehrere Funkschnittstellen (oder mehrere Kommunikationschips/Schaltungsanordnungen) aufweist, kann der Rechenknoten 101 Daten über mehrere Pfade senden und/oder empfangen. Dies bedeutet, dass es unterschiedliche Mehrfachfunk- oder Mehrfachpfad-Konvergenzpunkte 112, 114, 116, 118 geben kann, um Verkehr zwischen e2e-Kommunikationsverbindung(en) zu aggregieren und/oder zu verteilen. Gemäß verschiedenen Ausführungsformen kann, wenn ein Rechenknoten 1 01 mehrere Funkschnittstellen aufweist, ein neuer Mehrfachfunkkonvergenzpunkt 114 am Rand des Netzwerks stattfinden (z. B. am Edge-Server 136 in 1), um eine Mehrpfadeverkehrsverwaltung für Kommunikation mit niedriger Latenz zu bieten, wie für 3GPP 5G/NR-Netzwerke vorgesehen (siehe z. B. [AC6833Z], [AC6833PCT]). Mit neuer Intelligenz, die durch Edge-Computing ermöglicht wird, können Multi-RAT-Bereitstellungen effizienter genutzt werden, indem Verkehr basierend auf Edge-Messungen geschickter auf mehrere Netzwerkpfade verteilt wird.
  • Algorithmen und Techniken zum optimalen Nutzen einer solchen Multilink-Aggregation können sowohl die Spitzenraten als auch die Flächenspektraleffizienz in 3GPP-NR/5G-Drahtlosnetzwerken erhöhen. Intelligente UE-zu-AP-Assoziationsstrategien in Multi-RAT-HetNets haben sowohl in Wissenschaft als auch Industrie große Beachtung gefunden. Der Großteil der Arbeit in diesem Bereich nutzt jedoch UE-Multilink-Aggregationsfähigkeiten nicht und berücksichtigt eine dynamische Verteilung von Verkehr und Ressourcenzuteilung über mehrere RATs nicht.
  • Es gibt mehrere bestehende Lösungen, um eine Mehrfachfunkkonvergenz zu realisieren. Wie in 1 gezeigt, kann sich der Konvergenzpunkt 1 16 an dem NAN 133 in 1 befinden, der einen WLAN-Zugangspunkt (AP) oder eine Kleinzellenbasisstation involvieren kann. Der NAN 133 kann gemäß LTE-WiFi-Aggregation (LWA) arbeiten (siehe z. B. Sirotkin, „LTE-WLAN-Aggregation (LWA): Benefits and Deployment Considerations,“ Intel® White Paper, abrufbar unter: http://www.intel.com/content/www/us/en/wireless-network/lte-wlan-aggregationdeployment-white-paper.html („[Sirotkin]“), 3GPP TS 36.465 v15.0.0 (2018-06-22), LTE-WLAN-Integration auf Funkebene unter Verwendung eines IPsec-Tunnels (LWIP) (siehe z. B., 3GPP TS 36.361 v16.0.0 (2020-07-24) („[TS36361]“)) und Mehrfachfunk-Dualkonnektivität (MR-DC) (siehe z. B. 3GPP TS 37.340 v 16.7.0 (2021-09-27) („[TS37340]“)), in der TCP-Schicht oder Anwendungsschicht (siehe z. B. Mehrfachpfad-TCP (MPTCP) (siehe z. B. Ford et al, „TCP Extensions for Multipath Operation with Multiple Addresses“, Internet Engineering Task Force (IETF) RFC 6824 (Jan. 2013) und IETF-Arbeitsgruppe Multipath TCP, abrufbar unter: https://datatracker.ietf.org/wg/mptcp/documents/ (zusammen „[MPTCP]“)) und/oder Quick UDP (QUIC) (siehe z. B. Iyengar et al., „QUIC: A UDP-Based Multiplexed and Secure Transport“, draft-ietf-quic-transport-27, Standards Track (21. Feb. 2020) („[QUIC]“), und/oder an beliebigen Servern innerhalb des Netzwerks über generischen Mehrfachzugang (GMA) (siehe z. B. Zhu et al., „Generic Multi-Access (GMA) Convergence Encapsulation Protocols,“ IETF-Arbeitsgruppe INTAREA/Network, Version 12, draft-zhu-intarea-gma-12 (21. Okt. 2021) („[GMA]“). 3GPP hat auch duale Konnektivitätslösungen definiert, um gleichzeitige Verbindungen zu mehr als einem zellbasierten Knoten, wie etwa LTE-eNBs, NR gNBs und dergleichen, zu unterstützen (siehe z. B. [TS37340]).
  • In Bezug auf Strategien zum Verteilen von Verkehr auf mehrere Funkpfade konzentrierten sich Lösungen in der Vergangenheit, wie die in Singh et al., „Optimal Traffic Aggregation in Multi-RAT Heterogeneous Wireless Networks“, 2016 IEEE International Conference on Communications Workshops (ICC), Kuala Lumpur (2016) („[Singh]“) besprochenen, nur auf ein Optimieren der Durchsatzleistung für Best-Effort-Verkehr. Der in [Singh] erörterte Ansatz konzentriert sich auf die Mehrfachfunkkonvergenz am RAN oder Zugangspunkt (z. B. Konvergenzpunkt 116 in 1). Zusätzlich stellt [AC6833PCT] Strategien bereit, um die Verzögerungsleistungsfähigkeit für verzögerungsanfälligen Verkehr zu verbessern. Die in [Singh] und [AC6833PCT] besprochenen Lösungen können jedoch keine Zuverlässigkeitsgarantie bereitstellen. Eine einfache wiederholte Übertragung desselben Pakets über mehrere Pfade kann die Zuverlässigkeit auf Kosten ineffizienter Funkressourcenverwendungen verbessern. Es gibt keine vorherige Arbeit, die Richtlinien zum Nutzen von mehreren Pfaden bereitstellt, um ein Zuverlässigkeitsziel mit effizienter Funknutzung und minimaler Latenz zu erreichen. Des Weiteren wurde eine Netzwerkcodierung vorgeschlagen, um die Zuverlässigkeit für Ende-zu-Ende- bzw. e2e-Netzwerkkonnektivität effizient zu verbessern. Die Art und Weise, auf die RAN-Informationen zur Netzwerkcodierung an der Edge genutzt werden sollten, wird jedoch bei derartigen Lösungen nicht berücksichtigt.
  • Die vorliegende Offenbarung fügt Zuverlässigkeitsverbesserungen zu dem in [AC6833PCT] besprochenen Edge-basierten Mehrfachzugangsverkehrsmanagerhinzu, der eine Zuverlässigkeitsverbesserungs-Engine am Edge-Mehrfachzugriffs-/Mehrpfade-Verkehrsmanager beinhalten kann. Die Zuverlässigkeitsverbesserungs-Engine identifiziert Verkehrsflüsse, die eine zusätzliche Zuverlässigkeitsunterstützung erfordern, und führt eine Zulassungssteuerung für Flüsse durch, die hohe Zuverlässigkeitsgarantien erfordern. Zusätzlich oder alternativ berechnet die Zuverlässigkeitsverbesserungs-Engine eine Codierungsrate (z. B. einen Redundanzfaktor) und Verkehrsverteilungsregeln für Flüsse, die zur Zuverlässigkeitsverbesserung identifiziert werden, und wendet dann eine zugangsübergreifende Netzwerkcodierung (NC) an verschiedenen Verkehrsflüssen an. Zusätzlich oder alternativ bearbeitet die Zuverlässigkeitsverbesserungs-Engine Mehrfachzugangsbestätigung (ACK) und Verkehrs-Pacing (z. B. Multiplexen mit Verkehr mit nicht-hoher Zuverlässigkeit). Die hierin besprochenen Edge-basierten Verkehrsverwaltungsausführungsformen stellen zusätzliche Zuverlässigkeitsunterstützung bereit, während bessere Worst-Case-Verzögerungsgarantien und/oder bessere Ressourcennutzungseffizienz bereitgestellt werden. Die hier besprochenen Edge-basierten Verkehrsverwaltungsausführungsformen ermöglichen mehr verzögerungsanfällige Anwendungen mit hoher Zuverlässigkeit für ECTS.
  • Zusätzlich oder alternativ dazu kann die hier besprochene Zuverlässigkeitsverbesserungs-Engine in dem oder mit dem Verstärkungslern- bzw. RL-Verkehrsverwaltungs-Framework implementiert werden, das in der US-Anmeldung Nr. 17/484.743 , eingereicht am 24. September 2021 („[AD2644-US]“), erörtert wird, deren Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird. Die verschiedenen hierin erörterten Verkehrsverwaltungstechniken können verwendet werden, um eine Edge/Cloud-RAN-Intelligenz zu realisieren, die potenziell beispiellose QoS-Verbesserungen und -Erweiterungen bieten kann. Spezifische Implementierungen der Ausführungsformen hierin können durch verschiedene Standards und/oder Spezifikationen bereitgestellt werden, wie etwa 3GPP (einschließlich 3GPP SA6 EDGEAPP-Architektur), ETSI-MEC, Open RAN (O-RAN) Alliance, OpenNESS und/oder dergleichen. Ein Meldungsformat und eine Meldungsaustauschsignalisierung zwischen Edge-/Cloud-Server und RAN-Knoten können zum Beispiel in derartigen Standards/Spezifikationen spezifiziert werden.
  • 1.1. ASPEKTE DER MEHRFACHZUGANGSVERKEHRSVERWALTUNG (MA-TM)
  • 2 stellt ein beispielhaftes Edge-basiertes Mehrfachzugangsverkehrsverwaltungs-Framework 200 dar. In diesem Beispiel können Rechenknoten 201 mit mehreren Funkschnittstellen gleichzeitig mehr als eine Verbindung mit dem Edge-Netzwerk (z. B. einem Edge-Netzwerk, das den Edge-Knoten 236 umfasst, der Edge-Cloud und/oder dergleichen) herstellen. In einem Netzwerk, das heterogene Funkzugangstechnologien (RATs) (z. B. LTE, 5G/NR, WiFi usw.) als Last-Hop-Konnektivität beinhaltet, können sich UEs 201 mit mehreren Funkschnittstellen gleichzeitig mit der drahtlosen Infrastruktur 233a-c unterschiedlicher RATs verbinden, wie etwa LTE-Kleinzellen-Basisstationen (BS) 233a, Makrozellen-BS 5G GNB 233c, WLAN-Zugangspunkte (AP) 233b usw., wie in 2 gezeigt. Die UEs 201 können die gleichen oder ähnlich wie die zuvor besprochenen UEs 101 und/oder UEs 1511, 1512, die im Folgenden besprochen werden, sein, und die NANs 233a-c können gleich oder ähnlich wie die NANs 1531-1533 sein, die im Folgenden besprochen werden. Der Edge-Knoten 236 und einzelne UEs 201 können Konvergenztechnologie (z. B. GMA usw.) auf der Datenebene nutzen, um Verkehr über mehrere Pfade zu verteilen und zu aggregieren. Ein anderes Beispiel ist, dass das UE 201 eine duale Konnektivität herstellen kann, wie in 3GPP spezifiziert ist, und sich die Edge-Intelligenz 246 in der Zentraleinheit (CU) befindet (siehe z. B. [TS37340]).
  • Drastisch zunehmende Nachfrage nach Drahtlosdaten und -vorrichtungen hat zu zunehmenden Anforderungen sowohl an Spitzenraten als auch an Flächenspektraleffizienz geführt. Dies hat wiederum zu einer zunehmend dichteren und heterogenen Bereitstellung von drahtloser Infrastruktur geführt, wobei sich die bereitgestellten Netzwerke in verschiedenen Merkmalen unterscheiden, wie etwa Zugangstechnologie (RAT), Bedeckungsgebiet pro Zugangsnetzwerkknoten, bereitgestelltes Frequenzband und Bandbreite und Backhaul-Fähigkeiten. Infolgedessen befinden sich die meisten der UEs 201 in einem dichten Drahtlosnetz üblicherweise in überlappenden Abdeckungsbereichen mehrerer Zugangsnetzknoten unterschiedlicher RATs. UEs 201 mit der Fähigkeit, Verkehr von mehreren Funkverknüpfungen oder RATs (z. B. 5G, LTE, WLAN, WiMAX, Bluetooth® usw.) zu aggregieren, können Multilink-Aggregation nutzen, um ihren Durchsatz und ihre QoS zu verbessern. Der Anstieg an Bereitstellungen von heterogenen Drahtlosnetzwerken (HetNet) mit gemischten Topologien und unterschiedlichen RATs zusammen mit alltäglichen UEs 201 mit mehreren Funkschnittstellen hat Möglichkeiten eröffnet, den Netzwerkdurchsatz und die Zuverlässigkeit durch Übertragen und Aggregieren von Verkehr von mehreren RATs zu erhöhen.
  • ECTs können Anwendungen mit niedrigen Latenzanforderungen und/oder hohen QoS-Anforderungen (z. B. AR/VR, Cloud-Gaming und dergleichen) unterstützen, indem die verteilten Rechen- und Speicherressourcen in der Nähe von Datenanbietern und Verbrauchern platziert werden. Ein beispielhaftes Edge-Netzwerk 200 ist in 2 gezeigt und kann einer Edge-Cloud und/oder den hierin erörterten Edge-Computing-Systemkonfigurationen/-Frameworks entsprechen.
  • Das Framework 200 beinhaltet UEs 201, die Rechensysteme/-vorrichtungen innerhalb eines Edge-Computing-Netzwerks 200 sind, die Rechenarbeitslasten/-aufgaben an den Edge-Computing-Knoten 236 auslagern oder anderweitig Dienste vom Edge-Computing-Netzwerk und/oder einem Cloud-System erhalten (siehe z. B. Cloud 1544 aus 15). Das Edge-Netzwerk umfasst einen Edge-Computing-Knoten 236 (oder Edge-Server 236), der ein oder mehrere Rechensysteme oder Server ist, von denen die Rechenknoten 201 Dienste verbrauchen. Der Edge-Server 236 kann gemeinsam mit einem oder mehreren NANs 233a, 233b oder 233c (gemeinsam als „NAN 233“ oder „NANs 233“ bezeichnet), die dieselben wie die vorher besprochenen NANs 130 und/oder die NANs 1531, 1532, 1533 aus 15 oder diesen ähnlich sein können. Jeweilige Verbindungen 230b (auch als „Backhaul-Pfade 230b“ bezeichnet) können den Edge-Computing-Knoten 236 mit einem oder mehreren NANs 233 verbinden oder kommunikativ koppeln, und einzelne Verbindungen 230a (auch als „Zugangspfade 230a“ oder „Fronthaul-Pfade 230a“ bezeichnet) können einzelne NANs 233 mit einem oder mehreren UEs 201 verbinden oder kommunikativ koppeln. Einige Verbindungen 230a-b können für entweder lizenzierten oder unlizenzierten Zugriff verwendet werden und können den zuvor erörterten Verbindungen 103L und/oder 103U entsprechen. Für Zwecke der vorliegenden Offenbarung kann sich ein „Netzwerkpfad 230“ oder „Pfad 230“ auf eine Route zwischen einem Quellknoten und einem Zielknoten (oder Komponenten davon) beziehen und kann einen Backhaul-Pfad 230b, einen Zugangspfad 230a oder eine Kombination aus einem oder mehreren Backhaul-Pfaden 230b und einem oder mehreren Zugangspfaden 230a umfassen. Für Downlink- bzw. DL-Verkehr kann der Quellknoten der Edge-Knoten 236 sein, und der Zielknoten kann ein UE 201 sein, und für Uplink- bzw. UL-Verkehr kann der Quellknoten ein UE 201 sein, und der Zielknoten kann der Edge-Knoten 236 sein.
  • Der Edge-Computing-Knoten 236 ist ein oder mehrere physische Computersysteme, die eine Edge-Plattform und/oder Virtualisierungsinfrastruktur umfassen können und Rechen-, Speicherungs- und Netzwerkressourcen für Edge-Computing-Anwendungen bereitstellen. Der Edge-Server 236 ist an einem Rand eines entsprechenden Zugangsnetzwerks (z. B. von individuellen NANs 233 bereitgestellten Netzwerken) angeordnet und stellt Rechenressourcen und/oder verschiedene Dienste (z. B. Rechenaufgaben- und/oder Arbeitslastauslagerung, Cloud-Rechenfähigkeiten, IT-Dienste und andere ähnliche Ressourcen und/oder Dienste, wie hierin erörtert) in relativ enger Nähe zu Netzwerkteilnehmern (z. B. Rechenknoten 201, die auch als „UEs“, „Edge-Benutzer“ und/oder dergleichen bezeichnet werden) bereit. Die Virtualisierungsinfrastruktur (VI) der Edge-Server 236 stellt virtualisierte Umgebungen und virtualisierte Ressourcen für die Edge-Hosts (z. B. die Edge-Server 236) bereit, und die Edge-Computing-Anwendungen können als VMs und/oder Anwendungscontainer auf der VI laufen.
  • Wenn ein Rechenknoten 201 mehrere Funkschnittstellen (oder mehrere Kommunikationschips/-schaltungsanordnungen) aufweist, kann der Rechenknoten 201 Daten über mehrere Pfade 230 übertragen und/oder empfangen. Dies bedeutet, dass es unterschiedliche Mehrfachfunk- oder Mehrpfade-Konvergenzpunkte geben kann, um Verkehr zwischen einer oder mehreren e2e-Kommunikationsverbindung(en) zu aggregieren und/oder zu verteilen. Gemäß verschiedenen Ausführungsformen kann, wenn ein Rechenknoten 201 mehrere Funkschnittstellen aufweist, ein neuer Mehrfachfunkkonvergenzpunkt am Rand des Netzwerks auftreten, um Mehrpfadeverkehrsverwaltung für Kommunikation mit niedriger Latenz anzubieten, wie für 3GPP-5G/NR-Netzwerke vorgesehen ist (siehe z. B. [AC6833Z], [AC6833PCT]). Mit neuer Intelligenz, die durch Edge-Computing ermöglicht wird, können Multi-RAT-Bereitstellungen effizienter genutzt werden, indem Verkehr auf mehrere Netzwerkpfade 230 basierend auf verschiedenen Metriken und/oder Messungen intelligent verteilt wird.
  • Bei manchen Implementierungen können der Edge-Computing-Knoten 236 und die UEs 201 eine geeignete Konvergenztechnologie (siehe z. B. [GMA]) auf der Datenebene nutzen, um Verkehr über mehrere Pfade 230 zu verteilen und zu aggregieren. Ein anderes Beispiel ist, dass die UEs 201 eine duale Konnektivität herstellen können, wie in 3GPP spezifiziert ist, und sich die Edge-Intelligenz in einer CU befindet (siehe z. B. [TS37340]).
  • Rechenleistung, die von dem Edge-Computing-Knoten 236 angeboten wird, kann genutzt werden, um eine intelligente Mehrfachzugangsverkehrsverwaltung zu realisieren. Eine intelligente Mehrfachzugangsverkehrsverwaltung (MA-TM) 246, die sich am Edge-Knoten 236 befindet, berechnet Verkehrsverteilungsregeln (z. B. Verkehrsverwaltungskonfigurationen 213 in 2) auf der Steuerebene 212, die der Datenebene 214 und den UEs 201 bereitgestellt werden, um die Datenebene 214 und die UEs 201 darüber zu informieren, wie Pakete über die mehreren Pfade 230 zu routen sind. Außerdem ist die MA-TM 246 die Intelligenz, die für die Durchführung von NC und Verkehrsverteilung über mehrere Pfade 230zuständig ist.
  • Die Verkehrsverteilungssteuerebene 212 sammelt Rückmeldungen von drahtloser Infrastruktur (z. B RAN-Messungen von einem oder mehreren NANs 233) und/oder direkt von Benutzern (z. B. UE-Messungen von einem oder mehreren UEs 201), berücksichtigt Datenfluss-/App-/QoS-Anforderungen 225, die von einer oder mehreren höheren Schichten bereitgestellt werden, und sammelt Telemetriestatistiken 215 von der Datenebene 214, um zu ermitteln, wie Datenflüsse über die mehreren Pfade 230 geleitet werden sollen, um heterogene QoS-Ziele zu erfüllen. Zusätzlich oder alternativ sammelt die Verkehrsverteilungssteuerebene 212 Leistungsfähigkeitsindikatoren von einer oder mehreren Netzwerkfunktionen (NFs) in einem Kernnetzwerk (z. B. CN 1542 oder dergleichen). Edge-Daten 224 und Datennetzwerkdaten 227 werden der Datenebene 214 bereitgestellt, durch einen Paketfilter 218 gefiltert und in eine oder mehrere QoS(Datenfluss)-Warteschlangen 210 sortiert. Eine NC-Engine 217 kann auch verwendet werden, um Daten von den Datenflüssen (Warteschlangen 210) über die Mehrfachpfade 230 zu routen, und/oder kann verschiedene NC-Dienste, wie etwa die hier erörterten, bereitstellen.
  • Der Edge-Computing-Knoten 236 kann Edge-Computing-Knoten 1536 aus 15 innerhalb des Edge-Systems/Netzwerks 1535 aus 15 entsprechen. Gemäß verschiedenen Ausführungsformen wird die MA-TM 246 mit einer zusätzlichen Zuverlässigkeitsverbesserungsfunktionalität einer Zuverlässigkeitsverbesserungs-Engine (REE) 242 verbessert, die eine Steuerebene REE 242c und eine Datenebene REE 242d beinhaltet. Bei verschiedenen Implementierungen können die MA-TM 246 und/oder die REE 242 Teil einer Edge-Plattform des Edge-Knotens 236 sein und/oder als eine Edge-Anwendung (App) implementiert sein, die durch den Edge-Knoten 236betrieben wird. Bei manchen Implementierungen ist die MA-TM 246 Teil der Edge-Plattform, und die REE 242 ist als eine Edge-App implementiert. Zusätzlich oder alternativ sind sowohl die MA-TM 246 als auch die REE 242 als jeweilige Edge-Apps und/oder Edge-Dienste implementiert.
  • Bei einer ersten beispielhaften Implementierung wird das Edge-System/Netzwerk 200 unter Verwendung des MEC-Frameworks implementiert (siehe z. B. [MEC]). Bei diesen Implementierungen ist der Edge-Knoten 236 ein MEC-Host/Server, die MA-TM 246 und/oder die REE 242 können Teil einer MEC-Plattform sein und/oder können als eine MEC-App implementiert sein, wie zuvor erörtert wurde.
  • In einer zweiten beispielhaften Implementierung können die MA-TM 246 und/oder die REE 242 ein MAMS-Server (MAMS: Multi-Access Management Services) oder ein MAMS-Client sein oder davon betrieben werden (siehe z. B. Kanugovi et al., „Multi-Access Management Services (MAMS)“, Internet Engineering Task Force (IETF), Request for Comments (RFC) 8743 (März 2020) („[RFC8743]“)). Bei diesen Implementierungen können der Edge-Knoten 236 und/oder ein oder mehrere Cloud-Computing-Knoten/Cluster der MAMS-Server sein. Bei MAMS-Implementierungen können die MA-TM 246 und/oder die REE 242 als dieselben oder verschiedene Netzwerkverbindungsmanager (NCMs) für Downstream-/DL-Verkehr oder als Client-Verbindungsmanager (CCMS) für Upstream-/UL-Verkehr implementiert sein. Ein NCM ist eine funktionale Entität, die MAMS-Steuernachrichten von Clients 201 verarbeitet, die Verteilung von Datenpaketen über verfügbare Zugangs- und Kernnetzwerkpfade 230 konfiguriert und eine Benutzerebenenbehandlung (z. B. Tunneln, Verschlüsselung usw.) der Verkehrsflüsse verwaltet (siehe z. B. [RFC8743]). Der CCM ist das Peer-Funktionselement in einem Client 201, der MAMS-Steuerebenenprozeduren verarbeitet, MAMS-Signalisierungsnachrichten mit dem NCM austauscht und die Netzwerkpfade 230 am Client 201 für den Transport von Benutzerdaten (z. B. Netzwerkpakete usw.) konfiguriert (siehe z. B. [RFC8743]).
  • Bei einer dritten beispielhaften Implementierung können die MA-TM 246 und/oder die REE 242 Teil des O-RAN-Frameworks sein (siehe z. B. [O-RAN]). Bei diesen Implementierungen können die MA-TM 246 und/oder die REE 242 Teil der RAN-Intelligenzsteuerung (RIC) sein, wie etwa der Non-Real-Time (RT)-RIC oder einer Near-RT-RIC. Zusätzlich oder alternativ können bei O-RAN-Implementierungen die MA-TM 246 und/oder die REE 242 als die gleiche oder verschiedene xApps implementiert sein.
  • Bei einer vierten beispielhaften Implementierung können die MA-TM 246 und/oder die REE 242 Teil einer auf Zentraleinheit (CU)/verteilte Einheit (DU) aufgeteilten Architektur einer NG-RAN-Architektur sein (siehe z. B. 3GPP TS 38.401 v16.7.0 (2021-10-01) („[TS38401]“) und 3GPP TS 38.300 v16.7.0 (2021-09-27) („[TS38300]“)). Bei diesen Implementierungen befinden sich die MA-TM 246 und/oder die REE 242 an der CU für Downstream-/DL-Verkehr, und für Upstream-/UL-Verkehr wird die REE 242 durch ein UE 201 oder ihren NAN 233 (z. B. eine DU) implementiert, falls NC nicht am UE 201 implementiert ist.
  • Bei einer fünften beispielhaften Implementierung kann die MA-TM 246 Teil einer 3GPP-Edge-Computing-Architektur sein (siehe z. B. [AD4420-US], [TS23558] und [TS23501]). Bei diesen Implementierungen ist der Edge-Knoten 236 ein oder mehrere Edge-Server, Edge-Anwendungsserver (EAS), Edge-Enabler-Server (EES) und/oder Edge-Konfigurationsserver (ECS) in einem Edge-Datennetzwerk (EDN), und die MA-TM 246 und/oder die REE 242können als Teil des EES oder ECS und/oder als derselbe oder verschiedene EASs implementiert sein.
  • Zusätzlich oder alternativ dazu können aufkommende datengesteuerte Techniken für maschinelles Lernen (ML) verwendet werden, um fortgeschrittene Mehrfachzugangsverkehrsverteilungsstrategien, wie etwa jene in [AD2644-US] besprochenen, zu entwickeln.
  • 1.2. ZUVERLÄSSIGKEITSVERBESSERUNGS-ENGINE- BZW. REE-FRAMEWORK FÜR MA-TM
  • In verschiedenen Ausführungsformen führt die REE 242 /MA-TM 246 eine Zulassungssteuerung und Paketfilterung für Zuverlässigkeitsverkehr durch, berechnet Coderate- und Verkehrsverteilungsregeln, wendet NC auf Zuverlässigkeitsflüsse an, routet Zuverlässigkeitsverkehr der Zuverlässigkeitsflüsse gemäß Verkehrsverteilungsregeln/-strategien und behandelt Mehrfachzugangs-/Mehrpfadebestätigung (ACK) und Verkehrs-Pacing für Zuverlässigkeitsverkehr und anderen Verkehr. Die Zulassungssteuerfunktion entscheidet, ob Pakete (oder ein Burst von Paketen) zum Übertragen zugelassen oder für die Übertragung codiert werden sollten. Die Zulassungssteuerfunktion kann ein Modell des Zustands von System-/Netzressourcen, Wissen über eingehende Pakete, einen oder mehrere Algorithmen zum Treffen von Zulassungssteuerungsentscheidungen und Richtlinien für die Aktionen zum Übernehmen bei der Aufnahme und bei Ablehnung nutzen. Wie unten ausführlicher besprochen, kann der Zuverlässigkeitsverkehrsverteilungsoptimierer (RTDO) 302, 312 diese Zulassungssteuerfunktionalität bereitstellen.
  • Die Steuerebene 212 der REE 242/MA-TM 246 bestimmt die Konfigurationsparameter/- Kriterien zur Zuverlässigkeitsverbesserung, wie etwa Zulassungssteuerkriterien, NC-Schema, Codierrate, Verkehrsverteilungsregeln, Verkehrs-Pacing und/oder andere ähnliche Zuverlässigkeitskonfigurationsparameter. Um die Konfigurationen zur Zuverlässigkeitsverbesserung einzurichten, kann die REE 242 einige oder alle der folgenden Informationen zu Optimierungszwecken sammeln: RAN- und/oder WLAN-Messungen, RAN- und/oder WLAN-Fähigkeiten, die durch RAN/WLAN-Konfigurationen, Anwendungsschichtsignalisierung und/oder Datenebenentelemetrie angegeben werden.
  • Die RAN/WLAN-Messungen können durch NANs 233 und/oder von UEs 201 gesammelt werden. Die RAN/WLAN-Messungen können zum Beispiel Funkkanal-/Signalisierungsmessungen/-Indikatoren (z. B. RSRP, RSSI, RSRQ, RCPI, RSNI, ANPI, SNR, SINR, erwartete Spitzendatenrate und/oder beliebige andere Signalmessungen, wie etwa beliebige der hierin besprochenen), Paketverwerfungsrate, Paketverlustrate, Backhaul-Verzögerungsmessungen für einzelne Pfade 230b (z. B. die minimale Verzögerung einzelner Pfade 230b, durchschnittliche Verzögerung einzelner Pfade 230b und/oder kann eine geschätzte Verzögerung basierend auf vergangenen Verzögerungsmessungen sein) und/oder beliebige andere Messungen/Metriken, wie etwa beliebige der hier erörterten, umfassen.
  • RAN/WLAN-Konfigurationen können verschiedene Fähigkeiten von UEs 201 und/oder NANs 233 beinhalten oder angeben, wieetwa zum Beispiel Sender- bzw. Tx-Knotenfähigkeiten (z. B., ob ein Tx-Knoten (z. B. 5G gNB und/oder ein anderes NAN 233) ultrazuverlässige Niedriglatenz-Kommunikations- bzw. URLLC-Verbesserungen, wie etwa Modulations- und Codierungsschema mit niedrigerer Datenrate (MCS) und Ratenauswahl bei einem Paketfehlerratenziel von 10-5, unterstützt; ob der Tx-Knoten eine RAT-ACK-Behandlung unterstützt, wie in Abschnitt 3 unten beschrieben), und/oder dergleichen. Zusätzlich oder alternativ dazu können die RAN/WLAN-Konfigurationen Zugangsnetzwerk-QoS-Konfigurationen (z. B. QoS-Profil, wie in [TS38300]besprochen, QoS-Informationsfeld und/oder QoS-Verkehrsfähigkeit, wie in [IEEE80211]besprochen, usw.) beinhalten. Die QoS-Konfigurationen können verschiedene QoS-Fähigkeiten und/oder Parameter beinhalten oder angeben, wie etwa zum Beispiel eine minimale QoS-Garantie, die ein Zugangsnetzwerk für einen Zuverlässigkeitsfluss bereitstellen kann, wie etwa eine minimale garantierte Bitrate, die für den Fluss konfiguriert ist, ein Paketfehlerratenziel zur Ratenauswahl und/oder andere ähnliche QoSbezogene Informationen. Zusätzlich oder alternativ dazu können die RAN/WLAN-Konfigurationen IEEE-802.11-Konfigurationen beinhalten, einschließlich Informationen in einer Netzwerkkonfiguration (z. B. MSGCF-Verbindungsfähigkeiten (MAC-State Generic Convergence Function, generische MAC-Zustandskonvergenzfunktion), MSGCF-Verbindungsparametern, Ereignisfähigkeiten usw.), LCI-Bericht (Location Configuration Information, Ortskonfigurationsinformationen), Mesh-Konfiguration, Konfigurationsprofil und/oder dergleichen. Zusätzlich oder alternativ können die RAN/WLAN-Konfigurationen Funkressourcensteuerungs- bzw. RRC-Informationen von RRC-Konfigurationen beinhalten (siehe z. B. 3GPP TS 38.331 v16.6.0 (2021-09-28) und/oder 3GPP TS 36.331 v16.6.0 (2021-09-29)). Andere RAN/WLAN-Konfigurationen können in anderen Implementierungen enthalten sein.
  • Die Anwendungsschicht-Signalisierung kann zum Beispiel Prioritätsindikatoren für Datenflüsse, QoS-Anforderungen von Datenflüssen (z. B. Zuverlässigkeitsziel, Latenzgrenze, minimale garantierte Datenrate, maximale Burst-Größe usw.) und/oder dergleichen beinhalten.
  • Die Datenebenentelemetrie kann beispielsweise eine Verkehrsvolumenschätzung von Zuverlässigkeitsflüssen und Nicht-Zuverlässigkeitsflüssen, Flusspfad- und Latenzmessungen/- Metriken, Paketverwerfungsmetriken/-berichte (z. B. Spiegelung von fallengelassenen Paketen und Verwerfungsgrund), Verkehrsüberlastungsmetriken/-berichte (z. B. Momentaufnahmen auf Paketebene von überlasteten Warteschlangen/Puffern, Mikroburstdetektion usw.), Plattformlast-/Überlast- und/oder Anwendungslast-/Überlastmetriken/-berichte umfassen (siehe z. B. „Enhanced User Telemetrie for Polling Workloads with collectd and the Data Plane Development Kit (DPDK)“, Intel® Corp. User Guide, 0820/DN/PTI/PDI/PDF, 627392-001US (19. August 2020), abrufbar unter: https://builders.intel.com/docs/networkbuilders/enhanced-utilizationtelemetry-for-polling-workloads-with-collectd-and-the-data-plane-development-kit-dpdk-userguide.pdf, dessen Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird), Eingangsdaten und/oder Ausgangsdaten bei Inband-Netzwerktelemetrie (siehe z. B. „In-band Network Telemetry (INT) Dataplane Specification“, The P4.org, Applications Working Group, Version 2.1 (11. Nov. 2020) und/oder „In-band Network Telemetry Detects Network Performance Issues“, Intel® White Paper, 1220/RE/WPINT/PDF, 345568-001 US (2020), abrufbar unter: https://builders.intel.com/docs/networkbuilders/in-band-network-telemetry-detects-network-performance-issues.pdf (zusammen als „[INT]“ bezeichnet), dessen Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird) und/oder dergleichen.
  • Bei manchen Implementierungen können die oben erwähnten Messungen/Metriken/Signalisierung über geeignete APIs erhalten werden. Bei MEC-basierten Implementierungen kann zum Beispiel auf die oben erwähnten Informationen über die Funknetzwerkinformations-APIs, Bandbreitenverwaltungs-APIs und/oder beliebige andere geeignete MEC-APIs zugegriffen werden, wie etwa die hierin erwähnten (siehe z. B. [MEC]). Bei diesen Implementierungen kann die MA-TM 246 Teil einer MEC-Plattform sein oder als eine MEC-App implementiert sein. Zusätzlich oder alternativ dazu können DPDK-Mechanismen und/oder INT-Mechanismen (siehe z. B. [INT]) verwendet werden, um Datenebenentelemetriemetriken/-daten zu sammeln. Zusätzlich oder alternativ kann eine neue Signalisierung entwickelt werden, um die zuvor genannten Messungen zu sammeln. Bei diesen Implementierungen können die neuen Signalisierungen/Nachrichten über ETSI-MEC (siehe z. B. [MEC]), O-RAN (siehe z. B. [O-RAN]), OpenNESS, 3GPP und/oder dergleichen proprietär oder standardisiert sein. Bei diesen Implementierungen können neue API-Nachrichten definiert werden, um die neue Signalisierung an eine Verkehrsverwaltungs-Edge-App, wie etwa eine MA-TM 246-Edge-App, weiterzuleiten.
  • Die REE 242 können einige oder alle der oben erwähnten Signalisierungen (z. B. Metriken, Messungen usw.) kombinieren, um eine Schätzung der Datenrate, der Verbindungsausfallwahrscheinlichkeit und des Verzögerungsprofils beim Liefern des Zuverlässigkeitsflusses über den einzelnen Pfad 230 abzuleiten. Hier kann sich das „Verzögerungsprofil“ auf eine Zeitdauer beziehen, die eine Quelle oder ein Sender (Tx) benötigt, um eine Anzahl x von Paketen über einen Pfad 230 zu einem Ziel oder Empfänger (Rx) zu senden, einschließlich einer möglichen anfänglichen Verzögerung. Zusätzlich oder alternativ kann das Verzögerungsprofil Verzögerungscharakteristiken unterschiedlicher Pfade 230 an oder zwischen Funkzugangskonvergenzpunkten (z. B. Konvergenzpunkte 112, 114, 116 oder 118; CU-UP und/oder UPF) und einem UE101, 201 umfassen oder anzeigen. Das Verzögerungsprofil kann unter Verwendung einer Verzögerungsfunktion τi(x) bestimmt werden (siehe zum Beispiel 3 und 13 , die unten erörtert werden). Das Verzögerungsprofil wird von der Übertragungsdatenrate und möglicherweise etwas anfänglicher Verzögerung des Pfades 230 (z. B. einer Backhaul-Verzögerung oder dergleichen) beeinflusst. Die REE 242 kann dann diese Schätzungen nutzen, um Verkehrsverteilungsregeln abzuleiten und NC (z. B. NC-Gruppengröße und/oder andere im Folgenden besprochene Informationen) zu konfigurieren. Ein Beispiel für eine Zuverlässigkeitsbereitstellung beinhaltet, dass die REE 242 eine Worst-Case-Schätzung pro Pfad 230 ableitet, um sicherzustellen, dass ein Zuverlässigkeitsziel bei einem oder mehreren Worst-Case-Szenarien erfüllt werden kann (siehe z. B. verzögerungsoptimaler Zuverlässigkeitsverkehrsverteilungsoptimierer (RTDO, Delay-optimal Reliability Traffic Distribution Optimizer) 302 aus 3). Ein anderes Beispiel für eine Zuverlässigkeitsbereitstellung beinhaltet, dass die REE 242 eine Durchführbarkeitsschätzung pro Pfad 230 ableitet, um eine ressourceneffizienteste Verkehrsverteilung zu bestimmen (siehe z. B. ressourcenoptimaler RTDO 312 aus 3).
  • Für einen zugeteilten Zuverlässigkeitsfluss stellt die Steuerebene 212 einige oder alle der folgenden Konfigurationsparameter (z. B. als Verkehrsverwaltungskonfigurationen 213) der lokalen Datenebene 214 und/oder den UEs 201 bereit: Paketkennung (ID) für einzelne Zuverlässigkeitsflüsse, NC-Gruppengröße einzelner Zuverlässigkeitsflüsse und Verkehrsverteilungsregeln. Die Paket-ID für einen Zuverlässigkeitsfluss kann eine Quellnetzwerkadresse (z. B. IP-Adresse usw.) und/oder eine Zielnetzwerkadresse (z. B. IP-Adresse usw.) und/oder eine oder mehrere Portnummern (z. B. Eingangsports, Ausgangsports, Quellports, Zielports usw.), QoS-Flusskennung (QFI) und/oder eine andere Kennung oder Kombination von Kennungen umfassen. Die NC-Gruppengröße (k) beinhaltet die Anzahl eingehender Pakete, die zur Lieferung an einen Empfänger (Rx) gemeinsam zu codieren sind.
  • Die Verkehrsverteilungsregeln (auch als „Verkehrsverteilungsstrategie“ bezeichnet) geben die Anzahl von codierten Paketen an, die zu einer NC-Gruppe gehören, die über einen individuellen Pfad 230 zu routen sind. Die Verkehrsverteilungsregeln können mit {xi}bezeichnet werden, wobei xi die Anzahl von codierten Paketen bezeichnet, die zu einer NC-Gruppe gehören, die über den ith Pfad geroutet werden soll, und i = 1~m, wobei m die Gesamtanzahl von Pfaden 230ist. Die Gesamtanzahl codierter Pakete wird durch n = i = 1 m x i
    Figure DE102022211605A1_0001
    bezeichnet, und die Codierungsrate = k/n. Zusätzlich oder alternativ dazu kann die REE-Steuerebene 242c ferner die Menge von codierten Paketen konfigurieren (z. B. in den Verkehrsverteilungsregeln), die über einen oder mehrere bestimmte Pfade i gesendet werden sollen. Wie zum Beispiel in Abschnitt 3 unten beschrieben, kann die REE 242c, wenn systematische NC verwendet wird, alle ursprünglichen Pakete konfigurieren, die über den niedrigsten Löschpfad zu senden sind. Zusätzlich oder alternativ dazu können die Verkehrsverteilungsregeln spezifische RATs (und spezifische Kanäle/Links verschiedener RATs) beinhalten, die zum Vermitteln der codierten Pakete zu verwenden sind.
  • Die Datenebene 214 und/oder einzelne UEs 201 verarbeiten Daten(Zuverlässigkeits)-Flüsse gemäß Konfigurationen, die durch die Steuerebene 212 bereitgestellt werden. Die Datenebene 214 und/oder einzelne UEs 201 können eine Paketverarbeitungs-Pipeline zum Verarbeiten der Daten-(Zuverlässigkeits-)Flüsse beinhalten oder mit einer solchen konfiguriert sein. Die Paketverarbeitungs-Pipeline zur Zuverlässigkeitsverbesserung beginnt mit Paketfilterung, die Pakete identifiziert, die eine zusätzliche NC über eine Header-Überprüfung erfordern. Für jeweils k eingehende Pakete wendet die NC-Engine 217 (auch als „NC-Codierer 217“ bezeichnet) NC auf die Gruppe von Paketen an und erzeugt insgesamt n = i = 1 m x i
    Figure DE102022211605A1_0002
    codierte Pakete. Basierend auf Zuweisungskriterien, die durch die Steuerebene 212bereitgestellt werden, werden xi Pakete aus den n codierten Paketen ausgewählt, um für alle ith Pfade 230 in Richtung des m Pfades geroutet zu werden. Für Zwecke der vorliegenden Offenbarung kann angenommen werden, dass alle Pakete, die zum Zuverlässigkeitsfluss gehören, die gleiche Größe aufweisen (z. B. eine maximale Übertragungseinheit (MTU), wie etwa 1500 Bytes für Ethernet-Protokoll).
  • Bei manchen Implementierungen kann die REE-Datenebene 242d eine automatische Detektion einer Burst-Größe beinhalten, um ein ordnungsgemäßes NC-Schema anzuwenden. Für diese Implementierung kann die Steuerebene 212 zusätzliche Konfigurationsparameter zu der Datenebene 214 und/oder individuellen und/oder individuellen UEs 201 bereitstellen, wie etwa zum Beispiel eine unterstützte NC-Gruppengröße und/oder einen Burst-Zeitspreizparameter (W). Bei manchen Implementierungen kann ein Zuverlässigkeitsfluss mit einer oder mehreren unterstützten NC-Gruppengrößen (z. B. 1~kmax) konfiguriert werden. Für jede NC-Gruppengröße kann ihre entsprechende Verkehrsverteilungsregel bereitgestellt werden: { x i ( k ) } ,
    Figure DE102022211605A1_0003
    k = 1~kmax. Zusätzlich oder alternativ ist ein Burst-Zeitspreizparameter (W) konfiguriert. Der Burst-Zeitspreizparameter (W) spezifiziert die maximale Ankunftszeit-Zeitdifferenz zwischen dem ersten Paket und dem letzten Paket eines Burst. Wenn die REE-Datenebene 242d mit einer automatischen Burst-Größendetektion verbessert wird, kann der zweite Schritt der Datenebenenoperation in eine oder beide der folgenden Optionen geändert werden:
  • Die Option 1 für den zweiten Schritt beinhaltet Detektieren einer Burst-Größe durch Zählen der Anzahl von Ankunftszuverlässigkeitspaketen innerhalb des Zeitfensters W nach Ankunft des ersten Pakets eines Bursts. Dann wählt die NC-Engine 217 basierend auf der eingehenden Datenburstgröße, k , die entsprechende Verkehrsverteilungsregel, { x i ( k ) } ,
    Figure DE102022211605A1_0004
    aus und erzeugt insgesamt n = i = 1 m x i ( k )
    Figure DE102022211605A1_0005
    codierte Pakete.
  • Die Option 2 für den zweiten Schritt ist eine Variante von Option 1. Bei Option 2 können, wenn systematischer Code für NCverwendet wird, Pakete, die innerhalb des Zeitfensters W ankommen, sofort (ohne jegliche Codierung) über eine gewisse Teilmenge von Verbindungen/Pfaden 230gesendet werden. Die bestimmten verwendeten Verknüpfungen/Pfade 230 können durch die Zuweisungskriterien spezifiziert werden, die durch die Steuerebene 212bereitgestellt werden. Die Zuweisungskriterien können durch die Verkehrsverwaltungskonfigurationen 213 angegeben oder spezifiziert werden. In einem Beispiel werden die höchsten l zuverlässigen Verbindungen der Verfügbarkeit dieser Verbindungen ausgesetzt. Kopien dieser Pakete können in der NC-Engine 217 beibehalten werden, um später netzwerkcodierte Pakete zu erzeugen. Dann bestimmt, basierend auf der eingehenden Datenburstgröße k innerhalb des Zeitfensters W die NC-Engine 217 die Verkehrsverteilungsregel { x i ( k ) }
    Figure DE102022211605A1_0006
    und erzeugt n k = i = 1 m x i ( k ) k
    Figure DE102022211605A1_0007
    netzwerkcodierte Pakete basierend auf dem ursprünglichen eingehenden Datenburst der Größe k. Während die Verkehrsverteilungsregel { x i ( k ) }
    Figure DE102022211605A1_0008
    1berechnet wird, sollten die Informationspakete (oder eingehende Pakete), die während des Zeitfensters W gesendet werden, berücksichtigt werden, und { v i ( k ) }
    Figure DE102022211605A1_0009
    bezeichnet die Anzahl von Paketen, die während des Zeitfensters W gesendet werden. Zusätzlich oder alternativ sollte der dritte Schritt der Verkehrsverteilung der Datenebenenoperation geändert werden zu " x i ( k ) v i ( k )
    Figure DE102022211605A1_0010
    codierte Pakete werden ausgewählt, um in Richtung ith Pfad geroutet zu werden, für alle m Pfade (z. B. Verbindungen/Pfade 230)".
  • 1.3. STEUEREBENENINTELLIGENZ ZUR ZUVERLÄSSIGKEITSVERBESSERUNG
  • Bei manchen Implementierungen beinhaltet die REE 242c Funkcharakteristiken und/oder QoS-Anforderungen, um eine Zulassungssteuerung durchzuführen, ein ordnungsgemäßes Codierungsschema und eine Codierungsrate für Ankunftsdatenburst auszuwählen, und bestimmt, wie codierte Pakete über einen oder mehrere Pfade 230 geroutet werden sollten. Zu diesem Zweck kann die REE 242c einen Zuverlässigkeitsverkehrsverteilungsoptimierer (RTDO: Reliability Traffic Distribution Optimizer) verwenden oder beinhalten. Zwei Frameworks für Kandidatenverkehrsverteilungsstrategien werden im Folgenden mit Bezug auf 3 erörtert.
  • Bei manchen Implementierungen beinhaltet der RTDO einen oder mehrere Optimierer zum Optimieren verschiedener Funkcharakteristiken, QoS-Anforderungen, pfadweisen Charakteristiken (ei, τi), Zuverlässigkeitsziel ε (Ausfallrate < ε), einer Verzögerungsbegrenzung D , einer NC-Gruppengröße (k) und/oder anderer ähnlicher Parameter (hier kollektiv als „Zuverlässigkeitsparameter“ oder dergleichen bezeichnet). Diese Optimierer können einige oder alle dieser Zuverlässigkeitsparameter verwenden, um eine Worst-Case-Schätzung pro Pfad 230 (oder Worst-Case-Verzögerungsgarantie pro Pfad 230) abzuleiten, um sicherzustellen, dass ein Zuverlässigkeitsziel bei einem Worst-Case-Szenario für einen oder mehrere Pfade 230 erfüllt werden kann (siehe z. B. verzögerungsoptimaler RTDO 302 aus 3), oder eine Durchführbarkeitsschätzung pro Pfad 230 abzuleiten, um eine ressourceneffizienteste Verkehrsverteilung unter der Menge von Pfaden 230 zu bestimmen (siehe z. B. ressourcenoptimaler RTDO 312 aus 3).
  • Bei manchen Implementierungen kann der RTDO die Zuverlässigkeitsparameter optimieren, indem es versucht, eine Zielfunktion zu lösen. Zum Beispiel kann die Zielfunktion eine Verlustfunktion sein, die der RTDO versucht zu minimieren, zum Beispiel durch Konvergieren zu einem Minimalwert der Verlustfunktion (Kostenfunktion). Verlustfunktionen können eine Diskrepanz zwischen Vorhersagen eines trainierten ML-Modells und einer oder mehreren Probleminstanzen ausdrücken. Bei manchen Implementierungen kann der RTDO eine Menge von Zuverlässigkeitsparametern finden, die eine optimale Menge von Paketverteilungsregeln ergeben, die die Verlustfunktion an gegebenen unabhängigen Daten minimieren, und diese Menge von Zuverlässigkeitsparametern auswählen zum Erzeugen einer Menge von Verkehrsverteilungsstrategien und/oder zum Bestimmen von Zulassungssteuerkriterien. Zusätzlich oder alternativ dazu verwendet der RTDO einen globalen Optimierungsalgorithmus (auch als ein globaler Suchalgorithmus bezeichnet), der ein oder mehrere Extremwerte einer Zielfunktion für einen gesamten Suchraum (z. B. eine Population von Kandidatenverkehrsverteilungsstrategien) lokalisiert. Bei manchen Implementierungen findet der RTDO mehrere Extremwerte (z. B. eine Menge von Verkehrsverteilungsstrategien) als eine Pareto-Front. Der globale Optimierungsalgorithmus durchläuft den gesamten Suchraum (z. B. die Population von Kandidatenverkehrsverteilungsstrategien) und nähert sich den Extremwerten der Zielfunktion an (oder findet die genauen Extremwerte der Zielfunktion). Bei diesen Implementierungen sucht der RTDO (oder der globale Suchalgorithmus) nach einer Menge von Kandidatenverkehrsverteilungsstrategien innerhalb der Population, die wenigstens im Vergleich zu anderen Kandidatenverkehrsverteilungsstrategien am besten zu den Zuverlässigkeitsparametern passen. Zusätzlich oder alternativ dazu kann der RTDO eine oder mehrere Verkehrsverteilungsstrategien bestimmen, die nicht dominiert oder Pareto-optimal sind, was Verkehrsverteilungsstrategien sein können, bei denen keiner der Zuverlässigkeitsparameter im Wert verbessert werden kann, ohne einen oder mehrere andere ML-Parameter zu verschlechtern.
  • Zusätzlich oder alternativ dazu kann der RTDO auf einer Mehrzielfunktion basieren, die ein Optimierungsproblem mit mehr als einer Zielfunktion beinhaltet, die entweder minimiert oder maximiert werden sollen. Ein Mehrzieloptimierungsmodell kann so definiert werden, dass es eine oder mehrere Entscheidungsvariablen, Ziele (die zu optimierenden Maßnahmen) und Einschränkungen beinhaltet. Die Entscheidungsvariablen sind Variablen, die zu treffende Entscheidungen repräsentieren, und die Ziele sind die zu optimierenden Maßnahmen. Die Einschränkungen definieren Beschränkungen für durchführbare Lösungen (einschließlich aller optimalen Lösungen), die erfüllt werden müssen, und/oder Beschränkungen für die Werte, die die Entscheidungsvariablen halten können. Beispiele für die Entscheidungsvariablen beinhalten pfadweise Charakteristiken, Zuverlässigkeitsziele, NC-Gruppengröße, Verzögerungsgrenze, Burst-Größe, untere Grenze eines Inter-Burst-Intervalls und/oder andere Parameter/Charakteristiken. Die Zielfunktionen geben an, wie viel jede ihrer Entscheidungsvariablen zu den zu optimierenden Zielen beiträgt. Das Mehrzieloptimierungsmodell kann auch einen oder mehrere Koeffizienten definieren, die einer oder mehreren der Entscheidungsvariablen entsprechen. Die Koeffizienten geben den Beitrag der entsprechenden Entscheidungsvariable für den Wert der Zielfunktion an. Die optimalen Lösungen bei der Mehrzieloptimierung können aus einem mathematischen Konzept der partiellen Ordnung definiert werden. Im Jargon der Mehrzieloptimierung wird der Begriff „Dominanz“ für diesen Zweck verwendet. Es wird gesagt, dass eine erste Lösung eine zweite Lösung dominiert, wenn beide der folgenden Bedingungen wahr sind: (1) die erste Lösung ist nicht schlechter als die zweite Lösung in allen Zielen, und (2) die erste Lösung ist in mindestens einem Ziel strikt besser als die zweite Lösung. Für eine gegebene Menge von Lösungen kann ein paarweiser Vergleich unter Verwendung einer grafischen Repräsentation vorgenommen werden und eine Bestimmung, ob ein Punkt im Graphen den anderen dominiert, kann festgestellt werden. Alle Punkte, die nicht durch irgendein anderes Element der Menge dominiert werden, werden als „nicht dominierte Punkte“ oder „nicht dominierte Lösungen“ bezeichnet. Die Pareto-Front umfasst eine Menge nicht dominierter Punkte in einer solchen grafischen Repräsentation.
  • Zusätzlich oder alternativ zu den in den Abschnitten 1.3.1, 1.3.2, 2 und 3 besprochenen Frameworks kann der RTDO ein evolutionärer Mehrzielalgorithmus (MOEA: Multi-Objective Evolved Algorithmus) sein oder diesen implementieren, wie etwa jene, die besprochen werden in Huang et al., „Survey on Multi-Objective Evolutionary Algorithms“, IOP Conf. Series: J. of Physics: Conf. Series, Bd. 1288, Nr. 1, S. 012057 (01. Aug. 2019) („[Huang]“) und Deb, „Multi-Objective Optimization Using Evolutionary Algorithms“, Indian Institute of Technology- Kanpur, Dept. of Mechanical Engineering, Kanpur, India, KanGAL-Bericht Nr. 2011003 (10. Feb. 2011), abrufbar unter: https://www.egr.msu.edu/~kdeb/papers/k2011003.pdf („[Deb1]“), dessen Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird (siehe auch Eiben et al., „Introduction to evolutionary computing“, 2. Auflage, Springer, Berlin (2015) („[Eiben]“), dessen Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird).
  • 1.3.1. FRAMEWORK FÜR VERZÖGERUNGSOPTIMALE VERKEHRSVERTEILUNGSSTRATEGIE
  • Für ein gegebenes Zuverlässigkeitsziel eberechnet die REE 242/MA-TM 246 ein NC- und Verkehrsverteilungsschema, das das Zuverlässigkeitsziel ε erfüllt. Die Abschnitte 2 und/oder 3 (im Folgenden) stellen Algorithmen bereit, die optimale Coderaten und Paketverteilungsstrategien zum Codieren k eingehender Datenpakete berechnen, um ein gegebenes Zuverlässigkeitsziel ε zu erreichen. Das Zuverlässigkeitsziel ε kann ein Wert sein, der größer als eine Ausfallwahrscheinlichkeit F(x) zum Decodieren von k Paketen ist. Diese Algorithmen können verwendet werden, um einen verzögerungsoptimalen Zuverlässigkeitsverkehrsverteilungsoptimierer (RTDO) 302 oder ein ressourcenoptimaler RTDO 312 zu implementieren, wie in 3 gezeigt ist.
  • 3 zeigt ein beispielhaftes verzögerungsoptimales Verkehrsverteilungsstrategie-Framework 300 gemäß verschiedenen Ausführungsformen. Das Framework 300 beinhaltet den verzögerungsoptimalen RTDO 302, der Eingaben 301 erhält oder anderweitig darauf zugreift, die Eingaben 301 verarbeitet und Ausgaben 303 produziert. Die Eingaben 301 beinhalten pfadweise Charakteristiken (eii), Zuverlässigkeitsziel ε (z. B. wobei die Ausfallrate F(x) < ε) und NC-Gruppengröße k. Die Ausgaben 303 beinhalten eine oder mehrere Paketverteilungsregeln (x1, ..., xm) und eine Worst-Case-Verzögerung t* Die Paketverteilungsregel(n) kann bzw. können auch als Verkehrsverteilungsstrategien oder dergleichen bezeichnet werden.
  • Die pfadweisen Charakteristiken beinhalten eine Löschwahrscheinlichkeit ei zum Übertragen des Zuverlässigkeitsdatenflusses über den ith Pfad und eine oder mehrere Verzögerungscharakteristiken τi, wobei τi(x) eine Verzögerungscharakteristik-Funktion ist, die die erwartete Zeit berechnet, die zum Senden von x Paketen des Zuverlässigkeitsflusses über den Pfad i erforderlich ist. Die Verzögerungscharakteristik-Funktion τi(x) kann durch Vorwissen bezüglich RAT-Konfigurationen sowie RAN-Messungen, wie etwa Signalstärke, Datenrate, paketweise Verzögerungsstatistiken und/oder (eine) beliebige andere Messung(en), wie etwa die hier besprochenen, abgeleitet werden. Außerdem kann die Verzögerungscharakteristikfunktion τi(x) die Auswirkung von gemeinsamer Ressourcennutzung mit anderen Verkehrsflüssen widerspiegeln. Die Auswirkung von gemeinsamer Ressourcennutzung mit anderen Verkehrsflüssen kann zum Beispiel auf potenziellem Einreihen in die Warteschlange von anderen Flüssen mit derselben oder höherer QoS-Priorität, Ressourcenreservierungsniveau für andere Verkehrsflüsse, maximalen Funkressourcen, die für Zuverlässigkeitsverkehr zugeordnet werden können, und/oder dergleichen basieren. Diese Offenbarung konzentriert sich auf Zulassungssteuermechanismen für einen einzigen Zuverlässigkeitsfluss. Wenn eine Zulassungssteuerung für mehrere Zuverlässigkeitsflüsse durchgeführt wird, besteht ein potenzieller Ansatz darin, die Verzögerungsprofil(Charakteristik)-Funktion τi(x) gemäß einem gemeinsamen Nutzungsfaktor einer Mehrfachflussressource anzupassen und dann Mechanismen, die hier beschrieben sind, zur Zulassungssteuerung anzunehmen.
  • Die Worst-Case-Latenz t* ist ein maximaler Betrag von Latenz oder Verzögerung (oder eine minimale Latenz- oder Verzögerungsgrenze) zum Liefern von Paketen eines Zuverlässigkeitsflusses über einen oder mehrere Pfade zu einem Ziel, das das Zuverlässigkeitsziel ε erfüllt (z. B. eine Wahrscheinlichkeit von mehr als 1 - ε, dass die Latenz zum erfolgreichen Empfangen von Paketen unter der Worst-Case-Latenz t* liegt). Bei dieser Implementierung optimiert der verzögerungsoptimale RTDO 302 die verschiedenen Netzwerkcodierungsparameter (z. B. Eingaben 301) und eine Verkehrsverteilungsstrategie (z. B. die Anzahl an codierten Paketen x1 bis xm, die über jeden der Pfade 1 bis m zu senden sind), um die Worst-Case-Latenz t* für das Zuverlässigkeitsziel ε zu minimieren. Mit anderen Worten, der RTDO 302 bestimmt eine Kombination von Netzwerkpfaden 230 und die Anzahl von Paketen, die über jeden der Netzwerkpfade 230 gesendet werden sollen, in der Kombination, die eine optimalste (z. B. minimale) Worst-Case-Latenz t* im Vergleich zu verschiedenen anderen Kombinationen der Netzwerkpfade 230 (und Kombinationen unterschiedlicher Anzahlen von codierten Paketen, die über die Netzwerkpfade 230 gesendet werden sollen) aufweist.
  • Der verzögerungsoptimale RTDO 302 kann die Worst-Case-Latenz t* unter Verwendung beliebiger geeigneter Optimierungstechniken bestimmen, wie etwa jener, die erörtert wird in Neely, „Opportunistic Scheduling with Worst Case Delay Guarantees in Single and Multi-Hop Networks“, 2011 Proceedings IEEE INFOCOM, S. 1728-1736 (10. Apr. 2011), Fan et al., „Corss-Layer Control with Worst Case Delay Guarantees in Multihop Wireless Networks“, J. of Electrical and Computer Engineering, Bd. 2016, Artikel-ID 5762851, Hindawi Publishing Corp. (10. Okt. 2016), deren Inhalte hierin durch Bezugnahme in ihren Gesamtheiten aufgenommen werden.
  • Für einen Verkehrsfluss mit einem gegebenen Zuverlässigkeitsziel ε führt eine unterschiedliche Burst-Größe zu unterschiedlichen Paketverteilungsregeln (x1, ..., xm) und einer Worst-Case-Latenz t*. In diesem Beispiel ist die Burst-Größe gleich der NC-Gruppengröße k. Eine Abbildungsfunktion zwischen Burst-Größe und der entsprechenden Worst-Case-Verzögerung (C) kann für jeden Zuverlässigkeitsdatenfluss konstruiert werden: t*(k; ε, e, τ). Diese Abbildungsfunktion kann verwendet werden, um die Kriterien zur Zulassungssteuerung zu bestimmen. Die Funktion der maximalen unterstützten Burst-Größe innerhalb einer Verzögerungsgrenze d kann wie durch Gleichung (1-1) gezeigt definiert werden. k max ( d ; ε , e , τ ) = max t * ( k ; ε , e , τ ) d k
    Figure DE102022211605A1_0011
  • In Gleichung (1-1) ist kmax die Funktion der maximalen unterstützten Burst-Größe, d ist die Verzögerungsgrenze, ε ist das Zuverlässigkeitsziel, e ist eine Sammlung von Löschwahrscheinlichkeiten jedes Pfades 230, und τ ist eine Sammlung von Verzögerungscharakteristiken jedes Pfades 230.
  • Für unterschiedliche Typen von Verkehrsankunftsmustern können unterschiedliche Zulassungssteuerstrategien verwendet werden. In einer ersten beispielhaften Zulassungssteuerstrategie kann die REE 242 Burst-artigen Ankunftszuverlässigkeitsverkehr mit fester Burst-Größe und einem minimalen Inter-Burst-Intervall unterstützen. Für diese Zulassungssteuerstrategie beträgt die maximale unterstützte Burst-Größe kmax(D; ε, e, τ), und das Inter-Burst-Intervall für den Burst der Größe k sollte nicht kleiner als t* (k; ε, e, τ) sein. In diesem Beispiel ist D die Verzögerungsgrenze für jeden Burst des Zuverlässigkeitsflusses.
  • Falls die REE 242 eine automatische Burst-Detektionsverbesserung unterstützt, kann die MA-TM 246 die vollständigen zulässigen Paare (Burst-Größe, Periodizität): (k, t*(k; ε, e, τ)), k = 1~kmax(D) für die Anwendungsschicht durch eine geeignete API bereitstellen (z. B. eine neue oder existierende MEC-API und/oder dergleichen). Die Anwendung (z. B. MA-TM 246 und/oder REE 242) erzeugt einen Zuverlässigkeits-Burst mit einer Größe kleiner als kmax(D). Die zulässigen Paare (Burst-Größe, Periodizität) stellen eine Verkehrs-Pacing-Bedingung für die Ankunft des Zuverlässigkeitsflussverkehrs bereit: ein neuer Burst wird nur nach einem Intervall von t * (k; ε, e, τ) erzeugt, das dem ersten Paket des letzten Datenbursts der Größe k folgt.
  • Zusätzlich oder alternativ dazu kann der verzögerungsoptimale RTDO 3 02 eine andere Ausgabe 303 erzeugen, die einen Verschachtelungsfaktor FInterleave (k; ε, e, τ) angibt. Wenn die Unabhängigkeit zwischen Übertragungsmöglichkeiten nicht garantiert werden kann, besteht eine Verkehrsverteilungsstrategie darin, andere Burst(s) oder Nichtzuverlässigkeitspakete zu verschachteln, um sicherzustellen, dass alle netzwerkcodierten Pakete, die zum selben Burst gehören, einzeln mit unabhängiger Löschwahrscheinlichkeit gesendet werden. Für diese Art von Implementierung kann die REE 242 höchstens eine Anzahl von FInterleave (k; ε, e, τ) Bursts der Größe k innerhalb eines Intervalls von t*(k; ε, e, τ) zulassen.
  • Bei einer zweiten beispielhaften Zulassungssteuerstrategie kann die REE 242 einen periodischen Ankunftszuverlässigkeitsfluss (z. B. deterministische Verkehrsflüsse in der Fabrikautomatisierung) unterstützen. In dieser Zulassungssteuerstrategie bestimmt die REE 242 basierend auf ihrer Ankunftszeit Ts , und der Burst-Größe, k ob ein periodischer Ankunftszuverlässigkeitsfluss zugelassen werden soll. Ist die Ankunftsperiode Ts länger als die Verzögerungsgrenze D , so ist die maximal zulässige Burst-Größe kmax(D). Ist die Ankunftsperiode Ts kürzer als die Verzögerungsgrenze D, wird die maximal zulässige Burst-Größe kmax(TS). In diesen Beispielen ist die Verzögerungsgrenze D die Verzögerungsgrenze für jeden Burst des Zuverlässigkeitsflusses.
  • Zusätzlich oder alternativ kann die MA-TM 246 die vollständigen zulässigen Paare (Burst-Größe, Periodizität): (k, t*(k; ε, e, τ)), k = 1~kmax(D) für die Anwendungsschicht durch eine geeignete API bereitstellen (z. B. eine neue oder existierende MEC-API und/oder andere Signalisierung/Nachrichtenübermittlung). Die Anwendung (z. B. MA-TM 246 und/oder REE 242) kann dann die Burst-Größe und die Ankunftsperiodizität so bestimmen, dass Ts ≥ t*(k; ε, e, τ). Zum Beispiel kann die Anwendung (z. B. MA-TM 246 und/oder REE 242) die Konfiguration auswählen, die die maximale unterstützbare Datenrate gemäß Gleichung (1-2) erreicht. R max = max k = 1 k max ( D ) k P k t S i z e t * ( k ; ε , e , τ )
    Figure DE102022211605A1_0012
  • In Gleichung (1-2) bezeichnet PktSize die Paketgröße in Bits, durch Auswählen von k = arg  max k ' = 1 k max ( D ) k ' p k t S i z e t * ( k ' : ε , e , τ )  und  T s = t * ( k ; ε , e , τ ) .
    Figure DE102022211605A1_0013
     
    Figure DE102022211605A1_0014
  • In einer dritten beispielhaften Zulassungssteuerstrategie kann die REE 242/MA-TM 246 eine konservativere Zulassungssteuerstrategie anwenden, die für eine beliebige Art von Ankunftsmuster verwendet werden kann. Zum Beispiel kann die REE 242/MA-TM 246 die maximale unterstützte eingehende Datenrate gemäß Gleichung (1-3) einstellen. k max ( D 2 ) P k t S i z e D 2
    Figure DE102022211605A1_0015
  • Zusätzlich oder alternativ dazu kann die REE 242/MA-TM 246 die maximale Burst-Größe für die Leaky-Bucket- oder Token-Bucket-Verkehrs-Pacing-Steuerung so festlegen, dass sie k1 ist, wobei 0 < k 1 < k max ( D 2 ) ,
    Figure DE102022211605A1_0016
    und die Leaky-Bucket- oder Token-Bucket-Rate gemäß Gleichung (1-4) festlegen. ( k max ( D 2 ) k 1 ) P k t S i z e D 2
    Figure DE102022211605A1_0017
  • In beiden Gleichungen (1-3) und (1-4) ist D die Verzögerungsgrenze für jedes Paket des Zuverlässigkeitsflusses.
  • 1.3.2. FRAMEWORK FÜR RESSOURCENOPTIMALE VERKEHRSVERTEILUNGSSTRATEGIE
  • 3 zeigt ein beispielhaftes ressourcenoptimales Verkehrsverteilungsstrategie-Framework 310 gemäß verschiedenen Ausführungsformen. Das Framework 310 beinhaltet einen ressourcenoptimalen RTDO 312, der Eingaben 311 erhält oder anderweitig darauf zugreift, die Eingaben 311 verarbeitet und Ausgaben 313 produziert. Die Eingaben 311 beinhalten pfadweise Charakteristiken (ei, τi), Zuverlässigkeitsziel ε (z. B. wobei eine Ausfallrate F(x) < ε), eine Verzögerungsgrenze D und eine NC-Gruppengröße (k). Die Ausgaben 313 beinhalten eine oder mehrere Paketverteilungsregeln (x1, ..., xm) und einen Durchführbarkeitsindikator (1). Die Paketverteilungsregel(n) kann bzw. können auch als Verkehrsverteilungsstrategien oder dergleichen bezeichnet werden.
  • Für eine gegebene Verzögerungsgrenze D kann die REE 242 eine ressourcenoptimale Strategie anwenden, während ein Zuverlässigkeitsverkehrsfluss codiert und verteilt wird. Anstatt nach der optimalen Verzögerungsverteilung zu suchen (wie dies bei dem RTDO 302 der Fall ist), löst der ressourcenoptimale RTDO 312 eine ressourceneffizienteste Verkehrsverteilungsstrategie zum Verteilen der codierten Pakete n unter der Menge von Pfaden 230. Hier kann die ressourceneffizienteste Verkehrsverteilungsstrategie zum Beispiel Optimieren der Verkehrsverteilung für eine minimale Spektrumressourcennutzung beinhalten, die sowohl Einschränkungen hinsichtlich Zuverlässigkeitsziel ε als auch Verzögerungsgrenze D für eine gegebene Konfiguration von pfadweisen Charakteristiken und die NC-Gruppengröße erfüllen kann. Durch Priorisieren einer Verbindung mit niedrigerer Löschrate ist zum Beispiel weniger Redundanz für eine Zuverlässigkeitsgarantie erforderlich, und mehr Spektrumressourcen werden für andere Verkehrsflüsse verfügbar. Beispielhafte Implementierungen des ressourcenoptimalen RTDO 312 können einen beliebigen geeigneten Suchraumsuchalgorithmus, wie etwa jene hier besprochenen, beinhalten.
  • Bei verschiedenen Implementierungen optimiert der ressourcenoptimale RTDO 312 die verschiedenen Zuverlässigkeits- und Latenzparameter (z. B. Eingaben 311), um die Durchführbarkeit l und eine Verkehrsverteilungsstrategie (z. B. die Anzahl an codierten Paketen x1 bis xm, die über jeden der Pfade 1 bis mzu senden sind) zu bestimmen, die eine optimalste Ressourcennutzung unter verschiedenen anderen Kandidatenverkehrsverteilungsstrategien aufweist. Mit anderen Worten bestimmt der RTDO 312 eine Kombination von Netzwerkpfaden 230 und die Anzahl von Paketen, die über jeden der Netzwerkpfade 230 gesendet werden sollen, in der Kombination von Netzwerkpfaden 230, die eine optimalste (z. B. minimale) Ressourcennutzung im Vergleich zu verschiedenen anderen Kombinationen der Netzwerkpfade 230 (und Kombinationen unterschiedlicher Anzahlen von codierten Paketen, die über die Netzwerkpfade 230 gesendet werden sollen) aufweist.
  • Falls es eine durchführbare Lösung gibt, die das Zuverlässigkeits- und Verzögerungsziel erfüllt, gibt der ressourcenoptimale RTDO 312 einen Durchführbarkeitsindikator l mit einem Wert von „wahr“ aus. Falls es keine durchführbare Lösung gibt, die das Zuverlässigkeits- und Verzögerungsziel erfüllt, gibt der ressourcenoptimale RTDO 312 einen Durchführbarkeitsindikator l mit einem Wert von „falsch“ aus. Zusätzlich oder alternativ dazu kann der Durchführbarkeitsindikator l einen Wert angeben oder beinhalten, der die Durchführbarkeit der Lösung zum Erfüllen des Zuverlässigkeits- und Verzögerungsziels angibt (z. B. einen Wert von 0 bis 1 oder 0 % bis 100 %). Die Ausgaben 313 von dem ressourcenoptimalen RTDO 312 können durch die MA-TM 246 verwendet werden, um eine Zulassungssteuerung und eine Netzwerk-Slicing-Ressourcenreservierung für Zuverlässigkeitsflüsse durchzuführen.
  • Wenn ein Zuverlässigkeitsverkehrsfluss eingerichtet wird, werden Attribute des Zuverlässigkeitsflusses, einschließlich des Zuverlässigkeitsziels ε, der VerzögerungsgrenzeD, der Burst-Größe k und der unteren Grenze des Inter-Burst-Intervalls Ts, der REE 242/MA-TM 246bereitgestellt. Die REE 242/MA-TM 246 nutzt den ressourcenoptimalen RTDO 312, um die Durchführbarkeit des Zuverlässigkeitsflusses zu prüfen. Falls es keine durchführbare Paketverteilung für das Zuverlässigkeitsziel ε und/oder Latenzziel gibt (z. B. l = „false“ oder l kleiner als eine vorbestimmte oder konfigurierte Durchführbarkeitsschwelle ist), wird die Erstellung des Zuverlässigkeitsflusses zurückgewiesen. Zusätzlich oder alternativ dazu kann, falls das Inter-Burst-Intervall Ts kleiner als die Verzögerungsgrenze D ist, eine zusätzliche Funkressourcenverfügbarkeitsprüfung durchgeführt werden, einschließlich eines oder beider der folgenden Ansätze. Bei einem ersten Ansatz wird die Verzögerungsgrenze D , die in den ressourcenoptimalen RTDO 312 eingegeben wird 312, auf die untere Grenze des Inter-Burst-Intervalls Ts geändert, und die REE 242/MA-TM 246 lässt den Zuverlässigkeitsfluss zu, falls eine durchführbare Paketverteilung existiert (z. B. l = „true“ oder l ist größer oder gleich einer vorbestimmten oder konfigurierten Durchführbarkeitsschwelle). Bei einem zweiten Ansatz prüft der ressourcenoptimale RTDO 312 für jeden Pfad i (z. B. jeden Pfad 2 30), ob die maximale Anzahl an codierten Paketen, die über den Pfad i mit einer Dauer gleich Ts gesendet werden können, größer als die Ausgabe der Paketverteilungsregel xi ist; der Zuverlässigkeitsfluss wird zugelassen, falls alle Pfade i (z. B. jeder Pfad 230) diesen Test bestehen.
  • Bei manchen Implementierungen kann es eine vordefinierte oder konfigurierte Obergrenze oder Schwelle für die Menge an Ressourcen geben, die einem Zuverlässigkeitsfluss für einen Pfad i zugeordnet werden kann (z. B. kann der Pfad i höchstens y% Ressourcen für einen Zuverlässigkeitsfluss zuordnen, wobei y% die Zuverlässigkeitsfluss-Ressourcenzuordnungsgrenze/-schwelle ist). Wenn es eine Zuverlässigkeitsfluss-Ressourcenzuordnungsgrenze/-schwelle für einen oder mehrere Pfade 230 gibt, führt die Zulassungssteuerfunktion der REE 242 /MA-TM 246 eine zusätzliche Prüfung durch, ob Liefern von xi Paketen über den Pfad i die Zuverlässigkeitsfluss-Ressourcenzuordnungsgrenze/-schwelle während einer Zeitspanne überschreitet (z. B. mehr als y% Funkressourcen nutzt), die eine niedrigere aus der unteren Grenze des Inter-Burst-Intervalls Ts und der Verzögerungsgrenze D ist (z. B. min(Ts, D)). Falls die Zulassungssteuerfunktion bestimmt, dass das Liefern der xi Pakete über den Pfad i die Schwelle/Grenze überschreitet, lässt die Zulassungssteuerfunktion nicht zu, dass Verkehr über den Pfad i fließt.
  • Die Ausgabe 313 von Paketverteilungsregeln {xi} kann auch verwendet werden, um die Netzwerkressourcen anzugeben, die zur Übertragung des Zuverlässigkeitsflusses reserviert werden sollten. Bei einer beispielhaften Implementierung kann eine statische Ressourcen-Slicing-Strategie Folgendes beinhalten: Für jedes Intervall Ts reserviert die Netzwerk-Slicing-Ressourcenverwaltungsfunktion der REE 242/MA-TM 246 zumindest genügend Ressourcen, um die Übertragung von xi Paketen des Zuverlässigkeitsflusses über den Pfad i zu unterstützen. Zusätzlich oder alternativ dazu kann die Ausgabe von Paketverteilungsregeln {xi} verwendet werden, um Verkehrs-Pacing anderer Flüsse zu steuern, um sicherzustellen, dass genügend Ressourcen vorhanden sind, um die Übertragung von xi Paketen des Zuverlässigkeitsflusses über den Pfad izu unterstützen.
  • 2. RESSOURCENOPTIMIERUNG FÜR NETZWERKCODIERTE VERKEHRSVERTEILUNG ÜBER MEHRERE PFADE
  • Reaktive Paketwiederholungsschemata, wie etwa ARQ (Automatic Repeat Request) und/oder HARQ (Hybrid ARQ) (zusammen als „(H)ARQ“ bezeichnet), verbessern die Zuverlässigkeit der Übertragung, stellen aber keine Garantien für e2e-Verzögerungsanforderungen bereit. Für manche vertikalen Konzepte, wie etwa URLLC, ist (H)ARQ aufgrund seiner hohen Latenz keine Option für Zuverlässigkeit. Paketwiederholung (manchmal als „Wiederholungscodierung“ bezeichnet) kann auch proaktiv verwendet werden, um Zuverlässigkeit bereitzustellen und die Latenz zu eliminieren, die durch (H)ARQ-Rückmeldungsprozesse auferlegt wird. Die Wiederholungscodierung ist jedoch hinsichtlich der Ressourcenausnutzung nicht effizient. Wird eine Paketwiederholung verwendet, um die Zuverlässigkeit proaktiv zu verbessern, so kann das optimale Verkehrsverteilungsproblem in ein herkömmliches nichtdeterministisches (NP)-schweres Polynom-Zeit-Optimierungsproblem - das „Rucksackproblem“ - umgewandelt werden.
  • NC kann andererseits als eine effiziente Technik verwendet werden, um proaktive Redundanz bereitzustellen, wenn Datenpakete in Kommunikationsnetzwerken übertragen werden, was die e2e-Zuverlässigkeit erhöht und gleichzeitig die Übertragungslatenz reduziert. In vielen Anwendungsszenarien kann es mehrere Pfade 230 (die sich auf denselben oder unterschiedlichen RATs befinden können) zwischen Quell- und Zielknoten geben, möglicherweise mit unterschiedlichen Raten, Zuverlässigkeitsanforderungen und/oder Verzögerungsprofilen (oder Verzögerungscharakteristiken). In zellbasierten Netzen kann ein UE zum Beispiel dual oder mehrfach mit den verschiedenen Zellen des Netzwerks verbunden sein. Falls eine integrierte Zugangs- und Backhaul- bzw. IAB-Technologie in dem RAN verwendet wird, kann das Backhaul-Netzwerk eine komplexe Topologie aufweisen, die potenziell mehrere Pfade 230 zwischen dem UE 201 und einem IAB-Donator (z. B. einem NAN 233 oder dergleichen)einführen kann. Beim Edge-Computing (z. B. MEC usw.) kann ein Edge-Server für verbesserte Bandbreite und Zuverlässigkeit mehrere gleichzeitige Verbindungen zu einer Client-Vorrichtung herstellen, die mit mehreren Funkschnittstellen ausgestattet ist (siehe z. B. Abschnitt 1 und 1, wie oben besprochen). NC nutzt Mehrpfade-Diversität, um Zuverlässigkeits- und Latenzleistungsfähigkeit der Kommunikation zu verbessern. In all diesen Szenarien muss, wenn NC auf Datenverkehr mit einem Quellenfähigkeitsziel ε und einer Verzögerungsgrenze angewendet wird, möglicherweise die Menge an Codierungsredundanz, die hinzuzufügen ist, um das Zuverlässigkeitsziel ε zu erfüllen, bestimmt werden, sowie bestimmt werden, wie diese codierten Pakete auf unterschiedliche Pfade 230 verteilt werden sollten, um die gesamte Funkressourcennutzung zu minimieren. Die Verwendung von NC gestaltet das Problem jedoch noch schwieriger und die optimale Lösung kann nur durch erschöpfendes Suchen erhalten werden. Obwohl der erschöpfende Suchalgorithmus Optimalität erreichen kann, ist er nicht skalierbar, da die Rechenkomplexität mit der Anzahl von Datenpfaden 230 exponentiell ist.
  • Des Weiteren beinhalten nicht optimale Lösungen den Standardrundlaufalgorithmus, der eine gleiche Verkehrsmenge auf jeden Pfad verteilt. Der Rundlaufalgorithmus kann optimal sein, wenn alle Pfade 230 identische Datenraten, Zuverlässigkeits- und Verzögerungsprofile (oder Verzögerungscharakteristiken) aufweisen. Wenn diese Profile unter den Pfaden 230 jedoch heterogen sind, ist er sehr ineffizient und kann große Mengen an Funkressourcen verbrauchen.
  • Im Gegensatz zu den zuvor besprochenen existierenden Lösungen stellt die vorliegende Offenbarung eine Menge skalierbarer Lösungen zur NC-Optimierung und Verkehrsverteilung über Mehrpfade-Kommunikationskanäle bereit. Insbesondere stellt die vorliegende Offenbarung zwei Ordnungsprozesse bereit, von denen jeder einzelnen Pfaden 230 eine Präferenzreihenfolge zuweist. Basierend auf diesen Reihenfolgen werden Greedy-Algorithmen mit Liniensuche und binärer Suche sowie weitere Anpassungsprozeduren entwickelt, um die Menge an benötigter NC-Redundanz und die Verkehrsverteilungsregeln als Lösungen für das Mehrpfade-NC-Ressourcenoptimierungsproblem zu berechnen.
  • Die verschiedenen hierin erörterten Algorithmen weisen im Vergleich zu existierenden Ansätzen eine geringe Rechenkomplexität auf, während sie eine fast optimale Funkressourcennutzung erreichen können. In typischen Szenarien können die hier erörterten Algorithmen für 95 % der Zeit eine Ressourcennutzung erreichen, die innerhalb eines Abstands von 1 % zur optimalen Lösung liegt, während sie im Durchschnitt nur ~10-4 der Rechenzeit für den optimalen erschöpfenden Suchalgorithmus benötigen. Die hier besprochenen Algorithmen stellen für Edge-Computing-Plattformen und zellbasierte Netzwerke verbesserte Zuverlässigkeit für verzögerungsanfällige Anwendungen bereit und können eine höhere Funkressourceneffizienz und/oder eine bessere Zuverlässigkeit/Verzögerungsleistungsfähigkeit als existierende Lösungen bereitstellen. Insbesondere kann diese Technologie in verschiedenen standardisierten Frameworks/Technologien angewendet werden, wie etwa 3GPP Cellular Networking, IEEE 802.11 (WiFi), IEEE WiMAX, DSRC, ITS-G5, ETSI-MEC, O-RAN, OpenNess, MAMS und/oder dergleichen, sowie Multi-RAT-Netzwerken oder Umgebungen, die mehrere RATs umfassen. NC kann sich auf Standardspezifikationen für verschiedene Technologien auswirken, wie etwa die hier erwähnten, und die Algorithmen in dieser Offenbarung gehören zu einer fundamentalen Technologie, die einen potenziellen Einfluss auf solche standardisierten Technologien hat. Die Dokumentation solcher Standards kann aktualisiert werden, um anzugeben, ob das Muster der Ressourcennutzung einer Greedy-Art folgt und/oder gemäß verschiedenen vorliegend besprochenen Aspekten erfolgt.
  • In einigen Implementierungen kann die Ressourcennutzung verschiedener Vernetzungstechnologien aktualisiert werden, um die Charakteristiken eines Greedy-Algorithmus aufzuweisen. Das heißt, dass die verfügbaren Funkressourceneinheiten auf einigen Pfaden 230 vollständig verwendet werden, auf anderen überhaupt nicht verwendet werden und/oder auf mindestens einem Pfad teilweise verwendet werden können. Wenn solche Greedy-Muster verwendet werden, können Änderungen in den Verzögerungs- und Zuverlässigkeitsanforderungen für den Eingabeverkehr sowie die Anzahl von Eingabepaketen für jede Runde die Präferenzreihenfolge für jeden Pfad ändern oder anderweitig beeinflussen.
  • 2.1. NETZWERKCODIERUNGSRATE UND VERKEHRSVERTEILUNG FÜR MEHRERE PFADE
  • 4 zeigt ein Beispiel für ein Mehrpfade-NC-Ressourcenoptimierungsproblem 400 gemäß verschiedenen Ausführungsformen. In dem Beispiel aus 4 ist eine Gruppe von k Informationspaketen (die z. B. alle eine gleiche Größe B aufweisen) von einem Quellknoten 410 durch ein verlustbehaftetes Netzwerk zu einem Zielknoten 420 zu senden, wobei das verlustbehaftete Netzwerk m unabhängige Pfade umfasst (z. B. 1 bis m Pfade in 4, wobei m eine Zahl ist). Die m unabhängigen Pfade können individuellen Pfaden 230 aus 2 entsprechen (einschließlich Fronthaul- und Backhaul-Verbindungen/Links/Kanälen). Die k Informationspakete werden einer NC-Engine 417 bereitgestellt (die die gleiche wie die zuvor mit Bezug auf 2 besprochene NC-Engine 217 oder dieser ähnlich sein kann). Die NC-Engine 417 wendet ein Codierungsschema auf die k Informationspakete an und produziert n codierte Pakete. Die n codierten Pakete werden dann über m unabhängige Pfade i (wobei z. B. wobei i = 1, ..., m) gesendet, wobei eine Anzahl xi von codierten Paketen aus den n codierten Paketen über entsprechende Pfade i gesendet wird und eine Anzahl Yi von codierten Paketen durch den Zielknoten 420 über die entsprechenden Pfade i empfangen wird. In diesem Beispiel kann der Quellknoten 410 ein UE 201, ein NAN 233a-c oder ein Randknoten 236 aus 2 sein, und der Zielknoten 420 kann ein UE 201, ein NAN 233a-c oder ein Randknoten 236 aus 2 sein. Zusätzlich dazu kann jeder der Pfade i die gleiche RAT nutzen oder kann Pfade sein, die zu unterschiedlichen RATs gehören.
  • Der Paketübertragungsprozess auf jedem Pfad i ist durch eine Paketlöschwahrscheinlichkeit ei, eine spektrale Effizienz γi und ein Verzögerungsprofil (oder eine Verzögerungscharakteristik-Funktion τi(x) ) gekennzeichnet, die durch die Übertragungsdatenrate und möglicherweise eine anfängliche Verzögerung des Pfades (zum Beispiel eine Backhaul-Verzögerung) beeinflusst werden. Die zu übertragenden Informationspakete müssen eine Verzögerungsbedingung (oder Verzögerungsgrenze) D und ein Zuverlässigkeitsziel ε (z. B. Paketverlustrate ≤ ε) erfüllen.
  • Unter der Verzögerungseinschränkung D kann jeder Pfad i (wobei i = {1, ..., m}) nur ein Übertragen von Ni Datenpaketen einer Größe B leisten, wie in 5 gezeigt ist. 5 zeigt Übertragungspuffer 510i (wobei i = {1, ...,m}) für jeden Pfad i, wobei jeder Puffer 510i eine Anzahl Ni von Paketen 501 beinhaltet, die die maximale Anzahl von auf jedem Pfad erlaubten Paketen 501 iist. Es ist anzumerken, dass das Übertragen jedes dieser Pakete unterschiedliche Mengen an Funkressourcen erfordern kann (z. B. Bandbreite × Zeit), da die spektrale Effizienz γi für unterschiedliche Pfade unterschiedlich sein kann. Insbesondere ist auf jedem Pfad i die Menge der Funkressourcen, die zum Übertragen eines Datenpakets benötigt wird, umgekehrt proportional zu γi.
  • Unter erneuter Bezugnahme auf 4 wird angenommen, dass die Verzögerungsbedingung D streng ist und Neuübertragungsmechanismen wie (H)ARQ nicht schnell genug reagieren, um das Zuverlässigkeitsziel ε innerhalb der Verzögerungsgrenze zu erfüllen. NC kann in diesem Fall als ein effektiver Ansatz verwendet werden, um Paketverluste zu bekämpfen und die erforderliche Zuverlässigkeit durch gleichzeitiges Übertragen proaktiver Redundanzen über mehrere Pfade bereitzustellen. Bei NCwerden die k Eingabeinformationspakete als Vektoren in einem endlichen Feld betrachtet, und Linearkombinationen von ihnen werden gebildet, um n codierte Pakete zu erzeugen. Dann werden über das Mehrpfadenetzwerk diese codierten Pakete an jeden Pfad verteilt und an den Empfänger übertragen, zum Beispiel werden xi von ihnen an den Pfad i verteilt, so dass i = 1 m x i = n .
    Figure DE102022211605A1_0018
    In diesem Fall ist die Wahrscheinlichkeit, dass die Decodierung der k Eingabeinformationspakete fehlschlägt, wie durch Gleichung (2-1) gezeigt definiert. F ( x 1 , , x m ; k ) : = Pr ( i = 1 m Y i < k )
    Figure DE102022211605A1_0019
  • In Gleichung (2-1) ist Yi die Anzahl erfolgreich empfangener Pakete nach möglichen Löschungen auf Pfad i. In diesem Beispiel wird angenommen, dass der Netzwerkcode gut gestaltet ist, so dass das Empfangen beliebiger k aus n codierten Paketen eine erfolgreiche Decodierung sicherstellt. Dies kann durch Verwenden eines geeigneten Kanalcodierungsschemas (oder Fehlerkorrekturcodes (ECC)) erreicht werden, wie etwa zum Beispiel von Blockcodes, Reed-Solomon- bzw. RS-Codes, zyklischen Codes, Hamming-Codes, Reed-Muller- bzw. RM-Codes, Bose-Chaudhuri-Hocquenghem- bzw. BCH-Codes, algebraisch-geometrischen Codes, Paritätscodes, Wiederholungscodes, Hadamard-Codes, Walsh-Hadamard-Codes, Erweiterungscodes, Golay-Codes, Paritätsprüfcodes mit niedriger Dichte (LDPC), Turbocodes, Faltungscodes, Linearcodes, Polarcodes, verketteten Fehlerkorrekturcodes, Gaußschen Zufallscodes, zyklischer Redundanzprüfung (CRC) und/oder anderen geeigneten Codierungstechniken oder Kombinationen davon. Zusätzlich oder alternativ könnte eine geeignete Hash-Funktion für Kanalcodierungszwecke verwendet werden. Das durch die vorliegende Offenbarung adressierte Problem ist wie folgt: was sind, für gegebene k Pakete die erforderlichen n codierten Pakete, und wie sollten diese n codierten Pakete an die m Pfade verteilt werden (z. B. welche Werte sollte x1,...,xm annehmen), um ein Zuverlässigkeitsziel ε und eine Verzögerungseinschränkung D zu erfüllen, während die gesamte Funkressourcennutzung minimiert wird? Insbesondere löst der RTDO 302, 312 das Optimierungsproblem von Gleichung (2-2), wenn die Zuverlässigkeit gleich der Decodierungswahrscheinlichkeit ist: min x 1 , , x m i = 1 m x i γ i s . t .   0 x i N i , x i ,1 i m , F ( x 1 , , x m ; k ) ε .
    Figure DE102022211605A1_0020
  • In Gleichung (2-2) ist der Begriff „s.t.“ eine Abkürzung für „so dass“ oder „sodass“, der Term „F(x1, ···, xm; k) ≤ ε“ ist die Zuverlässigkeitseinschränkung, und der Term „0 < xi < Ni“ ist die Latenzeinschränkung.
  • 2.1.1. ZUVERLÄSSIGKEITSEINSCHRÄNKUNG
  • Die Pfade können unterschiedliche Löschwahrscheinlichkeiten aufweisen, und die Löschungen sind über unterschiedliche Pfade unabhängig. Der Einfachheit halber wird angenommen, dass unterschiedliche Pakete auf demselben Pfad i unabhängigen und identisch verteilten (i.i.d.) Löschungen mit der Wahrscheinlichkeit ei unterliegen. Falls xi Pakete auf dem Pfad i übertragen werden, folgt dann die Anzahl empfangener Pakete Yi einer Binomialverteilung, wie durch Gleichung (2-3) gezeigt. Pr ( Y i = j ) = ( x i j ) ( 1 e i ) j e i x i j
    Figure DE102022211605A1_0021
  • In Gleichung (2-3) ist Pr(Yi = j) die Wahrscheinlichkeit, dass Yi = j. In diesem Fall wird i = 1 m Y i
    Figure DE102022211605A1_0022
    die Summe m unabhängiger binomialer Zufallsvariablen, und die Zuverlässigkeitseinschränkung kann als Gleichung (2-4) ausgedrückt werden. F ( x 1 , , x m ; k ) : = Pr ( i = 1 m Y i < k ) = j 1 + + j m < k j 1 , , j m 0 i = 1 m Pr ( Y i = j i )
    Figure DE102022211605A1_0023
  • 2.1.2. LATENZEINSCHRÄNKUNG
  • Die maximale Anzahl von Datenpaketen Ni, die auf jedem Pfad i übertragen werden können, hängt von der Verzögerungsgrenze D , der Datenpaketgröße B und dem Datenübertragungsprofil des Pfades i ab. Mit der zuvor erörterten i.i.d.-Löschannahme ist Ni ferner auf die maximale Anzahl unabhängig übertragener Pakete beschränkt, die auf dem Pfad i innerhalb der Verzögerungsgrenze D unterstützt werden. Es wird angemerkt, dass die verfügbaren Funkressourcen ermöglichen können, dass mehr Datenpakete übertragen werden, falls eine derartige Unabhängigkeit nicht erforderlich ist. Um jedoch die Leistungsfähigkeit von NC und die Effizienz der Gesamtressourcennutzung zu optimieren, wurden solche zusätzlichen Ressourcen so ausgewählt, dass sie einem anderen unkorrelierten Datenverkehr (z. B. anderen Gruppen von netzwerkcodierten Paketen) zugeordnet werden. Insbesondere können die folgenden Regeln verwendet werden, um Ni zu bestimmen.
  • Bei auf Übertragungszeitintervall (TTI) basierenden Übertragungen (z. B. zellbasierte Systeme) wird angenommen, dass die Bandbreite groß genug ist, um ein Paket in einem TTI zu übertragen, unabhängig von der spektralen Effizienz. Es wird jedoch aufgrund der zuvor erwähnten Autonomieanforderung nur ein Paket pro TTI übertragen. Die maximale Anzahl von Datenpaketen Ni für TTI-basierte Systeme kann gemäß Gleichung (2-5)berechnet werden. N i = D D B , i T
    Figure DE102022211605A1_0024
  • In Gleichung (2-5) bezeichnet [·] den ganzzahligen Teil, DB,i ist die Backhaul-Verzögerung (zum Beispiel für Downstream-Verkehr, oder Zugangsverzögerung für Upstream-Verkehr) für Pfad i, und T ist die Dauer jedes TTI.
  • In anderen Kommunikationssystemen (z. B. WiFi-Systemen) ist die Übertragungszeitgranularität klein genug, um eine kontinuierliche Approximation zu ermöglichen. Die maximale Anzahl von Datenpaketen Ni für Nicht-TTI-basierte Systeme kann gemäß Gleichung (2-6)berechnet werden. N i = ( D D B , i ) W i γ i B
    Figure DE102022211605A1_0025
  • In Gleichung (2-6) ist Wi die zugeordnete Bandbreite für Pfad i, und DB,i ist die Backhaul-/Zugriffsverzögerung.
  • 2.1.3. ZUVERLÄSSIGKEITSEINSCHRÄNKUNG FÜR SYSTEMATISCHE CODES
  • Die Zuverlässigkeitseinschränkung kann unter Verwendung der zuvor definierten Decodierungsfehlerwahrscheinlichkeit (z. B. F(x1 ···, xm; k) ≤ ε) ausgedrückt werden, falls die k Informationspakete zusammen verwendet werden sollen (z. B. bilden sie zusammen eine Datei/ein oberes Schichtpaket, das geliefert und am Empfänger verwendet werden soll); und/oder die Informationspakete sind getrennt zu verwenden, aber nicht-systematische NC wird verwendet, wobei in diesem Fall keines der ursprünglichen Pakete wiederhergestellt werden kann, es sei denn, der Netzwerkcode kann decodiert werden.
  • Falls die Informationspakete einzeln bedeutungsvoll sind und systematische NC verwendet wird, sollte die Zuverlässigkeitseinschränkung geändert werden, wie in Abschnitt 3 weiter unten erörtert. Für systematischen Code werden ursprüngliche Informationspakete als Teil der codierten Ausgabepakete neingebettet. Wenn beispielsweise k Informationspakete unter Verwendung eines systematischen Codes in n codierte Pakete codiert werden, dann sind k dieser n Pakete die ursprünglichen Informationspakete selbst, die als systematische Pakete bezeichnet werden. Auf diese Weise hat der Empfänger 420 für jeden Pfad i, falls xi Pakete an Pfad i mit i = 1 m x i = n
    Figure DE102022211605A1_0026
    gesendet werden und unter ihnen ein systematisches Paket p über Pfad j gesendet wird, zwei Möglichkeiten, dieses wiederherzustellen: entweder die Übertragung von Paket p über Pfad j ist erfolgreich, oder dies ist nicht der Fall, aber der Empfänger 420 stellt das Paket p durch Decodieren aller k Informationspakete unter Verwendung aller Pakete, die von allen Pfaden empfangen werden, wieder her. In diesem Fall kann die Wahrscheinlichkeit, dass Paket p am Empfänger nicht wiederhergestellt wird, geschrieben werden, wie durch Gleichung (2-7) gezeigt. e j F ( x 1 , , x j 1, , x m ; k )
    Figure DE102022211605A1_0027
  • Wenn das Zuverlässigkeitsziel ε durch die Erfolgsdecodierungsrate eines einzelnen Informationspakets definiert ist, sollte die Zuverlässigkeitseinschränkung für das Optimierungsproblem geändert werden, um dieses widerzuspiegeln. Zum Beispiel kann die Zuverlässigkeitseinschränkung in die durchschnittliche Paketverlustwahrscheinlichkeit geändert werden, wie durch Gleichung (2-8) gezeigt. 1 k i = 1 k e j i F ( x 1 , , x j i 1, , x m ; k ) ε
    Figure DE102022211605A1_0028
  • In Gleichung (2-8) bezeichnet ji den Index des Pfades, über den Informationspaket i übertragen wird.
  • 2.2. PFADORDNUNGSVERFAHREN UND GREEDY-ALGORITHMEN
  • Die in diesem Abschnitt der vorliegenden Offenbarung erörterten Optimierungsalgorithmen sind vom Greedy-Typ gemäß einer bestimmten Präferenzreihenfolge auf den m Pfaden. Im Folgenden werden zwei Pfadordnungsverfahren bereitgestellt, wobei beide derselbe Prozess sind, der in 6 gezeigt ist, um die Pfade gemäß einer Bewertung zu ordnen, die ihre geschätzte Effizienz des Kompromisses zwischen Ressourcen und Zuverlässigkeit widerspiegelt.
  • 6 zeigt einen beispielhaften Pfadordnungsprozess 600 gemäß verschiedenen Ausführungsformen. Der Prozess 600 kann von der REE 242 und/oder der MA-TM 246 durchgeführt werden. Der Prozess 600 beginnt bei Operation 601, bei der die REE 242/MA-TM 246 Pfadbewertungen für jeden Pfad i berechnet. Bei Operation 602 ordnet die REE 242/MA-TM 246 die Pfadbewertungen, und bei Operation 603 gibt die REE/MA-TM 246 die Pfadreihenfolgen aus.
  • In einem ersten Pfadordnungsverfahren (M1) schätzt die REE/MA-TM 246 diese Effizienz unter Verwendung des Paketwiederholungsschemas aufgrund ihrer Einfachheit. Wenn u Einheiten von Funkressourcen auf Pfad i zur Paketwiederholung verwendet werden, ist die Anzahl von Wiederholungen uγi, und die entsprechende Paketverlustwahrscheinlichkeit wird gemäß Gleichung (2-9) berechnet. e i u γ i = 10 u ( γ i log  e i ) = 10 u ( γ i log  e i )
    Figure DE102022211605A1_0029
  • Für eine gegebene Ressource u misst si := -γi log ei die (positive) Menge die Zuverlässigkeit von Pfad i unter Paketwiederholung. Hier ist die Zuverlässigkeit besser, wenn die Bewertung si größer ist. Bei dem ersten Pfadordnungsverfahren (M1) wird die Bewertung si für jeden Pfad i gemäß Gleichung (2-10) definiert (Operation 601). s i = γ i l o g   e i
    Figure DE102022211605A1_0030
  • Nach Berechnen der Bewertung si sortiert die REE/MA-TM 246 alle Pfadbewertungen in absteigender Reihenfolge (Operation 602). Dann ist die Präferenzreihenfolge für Pfad i die Position der Bewertung si in dem Ordnungsergebnis.
  • Im zweiten Pfadordnungsverfahren (m2) berechnet die REE/MA-TM 246 die minimale Menge an Funkressourcen, die auf jedem Pfad i benötigt werden, damit NC das gegebeneZuverlässigkeitsziel ε erfüllt, unter der Annahme, dass alle Pakete nur über Pfad i übertragen werden. Dann wird diese Menge, die wieder durch si bezeichnet wird, verwendet, um die Ressourcenzuverlässigkeit-Kompromisseffizienz von Pfad i zu schätzen. Bei einem Zuverlässigkeitsziel ε wird ein Pfad i als effizienter betrachtet, wenn die minimal erforderliche Ressourcenmenge si für NC kleiner ist.
  • Im zweiten Pfadordnungsverfahren (m2) wird für jeden Pfad i die minimale Anzahl von codierten Paketen, die zum Erfüllen des Zuverlässigkeitsziels ε benötigt werden, falls alle Pakete auf dem Pfad i zu übertragen sind, gemäß Gleichung (2-11) berechnet. n i = min { n : F i ( n , k ) }
    Figure DE102022211605A1_0031
  • In Gleichung (2-11) ist ni die minimale Anzahl von codierten Paketen, die benötigt werden, um das Zuverlässigkeitsziel ε zu erfüllen, falls alle Pakete auf dem Pfad i zu übertragen sind, und Fi(n, k) ist die Decodierungsfehlerwahrscheinlichkeit, falls n codierte Pakete auf Pfad i übertragen werden. Falls insbesondere Y die entsprechende Anzahl empfangener Pakete ist, ist Fi(n, k) gemäß Gleichung (2-12) definiert. F i ( n , k ) : = Pr ( Y < k ) = j = 0 k 1 ( n j ) ( 1 e i ) j e i n j
    Figure DE102022211605A1_0032
  • Wie bereits erwähnt, sollte, falls das Zuverlässigkeitsziel ε als individuelle Informationspaket-Decodierungswahrscheinlichkeit definiert ist, sollte Fi(n, k) in der Definition von ni entsprechend geändert werden. Die Bewertung si von Pfad i kann nun gemäß Gleichung (2-13) definiert werden. s i = n i / γ i
    Figure DE102022211605A1_0033
  • Gleichung (2-13) repräsentiert die erforderliche Ressource zum Übertragen von ni Paketen auf Pfad i . In dem zweiten Ordnungsverfahren (m2) sortiert die REE/MA-TM 246 alle Pfadbewertungen in aufsteigender Reihenfolge (Operation 602). Dann ist die Präferenzreihenfolge für den Pfad i die Position der Bewertung si in dem Ordnungsergebnis.
  • Die resultierende Präferenzreihenfolge entweder des Verfahrens M1 oder M2 kann durch eine Längen-m-Liste P bezeichnet werden, deren i-ter Eintrag P(i) den Index für den i-ten bevorzugten Pfad darstellt. In Anbetracht einer solchen Präferenzreihenfolge P können zwei Algorithmen durchgeführt werden, die die Pfadressourcen auf eine Greedy-Weise verwenden. Hier bezieht sich „Greedy-Weise“ auf das Zuordnen von Ressourcen, beginnend bei einem Pfad höchster Ordnung, bis das Zuverlässigkeitsziel ε erfüllt ist. Um bei der Erläuterung dieser Algorithmen zu helfen, zeigt 7 eine beispielhafte Aufstellung und ein Indizierungsschema 700 aller möglichen Paketübertragungsmöglichkeiten (die vorliegend als „Übertragungseinheiten“ bezeichnet werden) aller Pfade innerhalb der Verzögerungsgrenze D (es gibt Ni Einheiten für jeden Pfad i). Die Reihenfolge der Aufstellung 700 folgt der Präferenzreihenfolge P, und jede Übertragungseinheit wird durch eine natürliche Zahl zwischen 1 und i 1 m N i
    Figure DE102022211605A1_0034
    indexiert.
  • Die Greedy-Algorithmen versuchen, die Einheiten jedes Pfades in der Präferenzreihenfolge P für die Übertragung von netzwerkcodierten Paketen zuzuordnen, bis das Zuverlässigkeitsziel ε erfüllt ist. Insbesondere beginnt, in 7, falls n codierte Pakete zu übertragen sind, die Zuordnung von den NP(1) Einheiten von Pfad P(1), bis sie erschöpft sind, und fährt dann bei Bedarf bei Pfad P(2) fort und so weiter. Die resultierende Zuordnung (x1, ···, xm) wird als „P-Greedy-Zuordnung“ für die Übertragung von n Paketen bezeichnet, wobei xi die Anzahl von an Pfad i gesendeten Paketen bezeichnet. Die Anzahl xi ist auch gleich der Anzahl von Indizes in der Menge {1, ···, n}, die zu Pfad i in 7 gehören.
  • Die beiden Greedy-Algorithmen suchen beide nach der Minimalzahl n, die die folgende Bedingung erfüllt: falls k Informationspakete in n Pakete codiert werden und die entsprechende P -Greedy-Zuordnung (x1, ···, xm) für Paketübertragung verwenden, dann wird die Zuverlässigkeitseinschränkung erreicht. Beide Algorithmen geben dieselbe n und dieselbe entsprechende P -Greedy-Zuordnung (x1, ..., xn) aus, aber die Suchprozesse für n sind unterschiedlich.
  • 2.2.1. GREEDY-ALGORITHMUS MIT LINIENSUCHE
  • 8 stellt einen Greedy-Suchalgorithmus mit Liniensuche 800 (mit Präferenzreihenfolge P) gemäß verschiedenen Ausführungsformen dar. Der Algorithmus 800 startet bei Operation 801 mit der Menge von Übertragungseinheiten {1, ···, n} mit der Initialisierung n = k und der entsprechenden P-Greedy-Zuordnung (x1, ···, xm). Bei Operation 802 bestimmt die REE/MA-TM 246, ob das Zuverlässigkeitsziel ε erfüllt ist. Falls das Zuverlässigkeitsziel ε erfüllt ist, gibt die REE/MA-TM 246 bei Operation 804 n und die entsprechende P -Greedy-Zuordnung (x1, ···, xm) aus. Falls das Zuverlässigkeitsziel ε nicht erfüllt ist, bestimmt die REE/MA-TM 246 bei Operation 803, ob n = i = 1 m N 1 .
    Figure DE102022211605A1_0035
    Falls n = i = 1 m N 1 ,
    Figure DE102022211605A1_0036
    deklariert die REE/MA-TM 246 bei Operation 806 die Zuordnung als Fehler. Andernfalls aktualisiert die REE/MA-TM 246 die Menge von Übertragungseinheiten auf {1, ···, n + 1} und aktualisiert die entsprechende P-Greedy-Zuordnung (x1, ···, xm) bei Operation 805 und und setzt dann, bei Operation 807, n = n + 1. Nach Operation 807 geht die REE/MA-TM 246 zurück zu Operation802, um zu bestimmen, ob das Zuverlässigkeitsziel erfüllt ist.
  • Für jeden Schritt (Iteration) des Algorithmus 800 wird die nächste Einheit n + 1 zu der Menge {1, ···, n} (805) hinzugefügt und für den Pfad, zu dem der Index n + 1 in 7 gehört, wird der entsprechende Zuordnungseintrag xi um 1 erhöht (805), und der Index n wird dann so aktualisiert, dass er n = n + 1 ist (807). Am Ende jedes Schritts (Iteration) wird die Zuverlässigkeitseinschränkung getestet (802), und der Algorithmus 800 stoppt, falls sie erfüllt ist (804). Wenn dies der Fall ist, gibt der Algorithmus 800 die gesamten codierten Pakete n und die Zuordnung (x1, ···, xm) (804)aus. Andernfalls geht der Algorithmus 800 zum nächsten Schritt (Iteration) über. Falls die Zuverlässigkeitseinschränkung nicht erfüllt werden kann, selbst wenn alle i = 1 m N i
    Figure DE102022211605A1_0037
    Übertragungseinheiten erschöpft sind (803), dann gibt der Algorithmus 800 einen Fehler für die Zuordnung aus (806).
  • 2.2.2. GREEDY-ALGORITHMUS MIT BINÄRER SUCHE
  • 9 stellt einen Greedy-Suchalgorithmus mit binärer Suche 900 (mit Präferenzreihenfolge P) gemäß verschiedenen Ausführungsformen dar. Der Algorithmus 900 startet bei Operation 901, bei der eine untere Grenze n0 und eine obere Grenze n1 initialisiert werden. Bei Operation 902 bestimmt die REE/MA-TM 246, ob dieobere Grenze n1 kleiner oder gleich der unteren Grenze n0 plus eins ist (z. B. n1 < n0 + 1). Wenn die obere Grenze n1 kleiner oder gleich der unteren Grenze n0 plus eins ist, gibt die REE/MA-TM 246 bei Operation 903 die obere Grenze n1 (z. B. n = n1) und die entsprechende P-Greedy-Zuordnung (x1, ···, xm) aus. Falls die obere Grenze n1 nicht kleiner oder gleich der unteren Grenze n0 plus eins ist, setzt die REE/MA-TM 246 bei Operation 904 n = r o u n d ( n 0 + n 1 2 ) ,
    Figure DE102022211605A1_0038
    und bei Operation 905 bestimmt die REE/MA-TM 246, ob das Zuverlässigkeitsziel ε mit n* erfüllt ist. Falls das Zuverlässigkeitsziel ε mit n* erfüllt ist, setzt die REE/MA-TM 246 bei Operation 906 die obere Grenze n1 so, dass sie n* (z. B. n1 = n*) ist. Falls das Zuverlässigkeitsziel ε mit n* nicht erfüllt ist, setzt die REE/MA-TM 246 bei Operation 907 die untere Grenze n0 so, dass sie n* (z. B. n0 = n*) ist. Nach Operation 906 oder Operation 907 geht die REE/MA-TM 246 zuOperation 902 zurück, um zu bestimmen, ob n1 ≤ n0 + 1.
  • Der Algorithmus 900 startet mit einer unteren Grenze n0 ≥ k und einer oberen Grenze n 1 i = 1 m N i
    Figure DE102022211605A1_0039
    n1 für die endgültige Suchausgabe n. Die Wahl dieser Grenzen sollte sicherstellen, dass die P-Greedy-Zuordnung für n0 die Zuverlässigkeitseinschränkung nicht erfüllt, dafür aber für n1. Diese Bedingung wird während der Ausführung des Algorithmus immer wahr sein. Eine einfache Wahl ist n0 = k und n 1 = i = 1 m N i
    Figure DE102022211605A1_0040
    (falls sie die oben erwähnte Anforderung erfüllen), aber es könnte komplexere Wege geben, die Anfangswerte dieser Grenzen für eine bessere Leistungsfähigkeit festzulegen. Wenn ein solches Paar von Grenzen nicht gefunden werden kann und wenn die P -Greedy-Zuordnung (x1, ···, xm) für n0 = k bereits die Zuverlässigkeitseinschränkung erfüllt, gibt der Algorithmus n = k und die Zuordnung (x1, ··· , xm) aus. Zusätzlich oder alternativ gibt der Algorithmus 900, falls ein solches Paar von Grenzen nicht gefunden werden kann und falls die P-Greedy-Zuordnung (x1, ···, xm) für n 1 = i = 1 m N i
    Figure DE102022211605A1_0041
     
    Figure DE102022211605A1_0042
    die Zuverlässigkeitsbedingung nicht erfüllt, einen Fehler für die Zuordnung aus.
  • Wenn n1 ≤ n0 + 1 (902), gibt der Algorithmus 900 n = n1 und seine entsprechende P-Greedy-Zuordnung (903) aus. Andernfalls setzt der Algorithmus 900 n = r o u n d ( n 0 + n 1 2 )
    Figure DE102022211605A1_0043
    (904), wobei round(·) sein Argument auf die nächste ganze Zahl rundet. Dann prüft der Algorithmus 9 00, ob die P-Greedy-Zuordnung für n* die Zuverlässigkeitseinschränkung erfüllt (905). Falls sie wahr ist, setzt der Algorithmus 900 n1 = n* (906). Ansonsten setzt der Algorithmus 900 n0 = n* (907). Dann fährt der Algorithmus 900 mit der nächsten Iteration (902) fort.
  • Die obigen Greedy-Algorithmen (800 und 900) können ein „Zuverlässigkeitsüberschwingen“-Problem haben, das zu potenziellen Leistungsverlusten führt. Das heißt, bei einer Instanz des Optimierungsproblems können die Greedy-Algorithmen eine Zuordnung ausgeben, die eine Zuverlässigkeit erreicht, die unnötig höher als die durch die Einschränkung erforderliche ist. Häufig können manche Einheiten in der Zuordnung ersetzt werden, um dieses Problem zu verringern. Insbesondere können einige andere Einheiten mit besserer spektraler Effizienz verwendet werden, was aber zu einer schlechteren Löschwahrscheinlichkeit führen kann, um mit weniger Funkressourcen eine geringere Zuverlässigkeit (aber die Einschränkung immer noch erfüllend) zu erreichen. Dementsprechend kann eine rekursive Endeinheitsanpassungsprozedur (siehe z. B. 10) für die Greedy-Algorithmen implementiert werden. Diese rekursive Endeinheitanpassungsprozedur berücksichtigt alle verfügbaren Pfade erneut, wenn die letzte Übertragungseinheit in den Greedy-Suchprozessen zugeordnet wird.
  • 2.2.3. REKURSIVE ENDEINHEITSANPASSUNGSPROZEDUR FÜR GREEDY-ALGORITHMEN
  • 10 zeigt eine beispielhafte rekursive Endeinheitsanpassungsprozedur 1000 für Greedy-Algorithmen. Die Prozedur 1000 beginnt bei Operation 1001, bei der die REE/MA-TM 246 einen Greedy-Algorithmus anwendet und die Variablen n, n', x, x' und i' initialisiert. Bei Operation 1002 wendet die REE/MA-TM 246 den Greedy-Algorithmus auf jedem nicht gefüllten Pfad mit anfänglicher Zuordnung x' an. Bei Operation 1003 findet die REE/MA-TM 246 einen ressourcenminimalen Pfadindex j. Bei Operation 1004 bestimmt die REE/MA-TM 246, ob der ressourcenminimale Pfadindex j derselbe ist wie i' (j = i'). Falls j = i', dann gibt die REE/MA-TM 246 bei Operation 10 05 n und xaus. Falls j ≠ i', dann aktualisiert die REE/MA-TM 246 bei Operation 10 06n, n', x, x' und i'.
  • Bei Operation 1001wendet die REE/MA-TM 246 den Greedy-Algorithmus (z. B. Algorithmus 800 oder Algorithmus 900) an, um ihre Ausgabe zu erhalten, die die gesamten codierten Pakete n und die Zuordnung x = (x1, ···, xm)beinhaltet. Die Anpassungsprozedur 1000 startet durch Entfernen der zuletzt zugeordneten Einheit n aus der Greedy-Zuordnung. Die REE/MA-TM 246 beginnt mit einer Anfangsnummer n' = n - 1 und ihrer entsprechenden P-Greedy-Zuordnung x' = (x'1, ···, x'm,) , die mit x auf allen Koordinaten außer dem Eintrag i übereinstimmt, der dem Pfad entspricht, der die zuletzt zugeordnete Einheit n enthält (siehe z. B. 7), für den x i ' = x i 1.
    Figure DE102022211605A1_0044
    Die REE/MA-TM 246 zeichnet auch einen Endeinheitspfadindex i' auf, der auf i' = iinitialisiert wird.
  • Bei Operation 1002 löst, für jeden einzelnen nicht gefüllten Pfad mit der anfänglichen Zuordnung x', (z. B. für jeden Pfad i mit x i ' < N i
    Figure DE102022211605A1_0045
    ), die REE/MA-TM 246 für die kleinste Anzahl di von Einheiten, sodass die Zuordnung x ( i ) : = ( x 1 ( i ) , , x m ( i ) ) = ( x ' 1 , , x i ' + d i , x ' m )
    Figure DE102022211605A1_0046
    die Zuverlässigkeitseinschränkung erfüllt. Dann findet die REE/MA-TM 246 bei Operation 10 03 den Pfadindex j, für den x(j) die minimale Funkressourcennutzung aufweist: j = arg min j ' ( i = 1 m x i ( j ' ) γ i ) .
    Figure DE102022211605A1_0047
    Wenn sich bei Operation 1004 der Endeinheitspfadindex nicht ändern muss (d. h. j = i'), dann stoppt die REE/MA-TM 246 bei Operation 1005 und gibt die Gesamtanzahl von codierten Paketen n und Zuordnung x aus. Andernfalls aktualisiert die REE/MA-TM 246 bei Operation 1006 verschiedene Variablen, wie in Tabelle 2.2.3-1 gezeigt, und fährt dann bei Operation 1002 mit einem nächsten Schritt (Iteration) fort. Tabelle 2.2.3–1
    Variable Aktualisierte Variable
    n n = n' + d j
    n' n' = n' + d j - 1
    x x = x' bei allen Koordinaten außer x j = x i + d i
    x j '
    Figure DE102022211605A1_0048
    x j ' = x j ' + d j 1
    Figure DE102022211605A1_0049
    i' i' = j
  • Für alle Zuordnungsalgorithmen (x1, ···, xm) werden bei einer Zuordnung, falls systematische Netzwerkcodes verwendet werden, die systematischen Pakete unter Verwendung der Einheiten mit den kleinstmöglichen Löschwahrscheinlichkeiten übertragen, um die Zuverlässigkeitsleistungsfähigkeit zu verbessern. Wie außerdem in Abschnitt 2.1.3 angemerkt, könnte das Zuverlässigkeitsziel unterschiedliche Formulierungen in unterschiedlichen Kontexten und mit unterschiedlichen Codeauswahlen (systematische/nicht systematische) aufweisen.
  • 2.3. LEISTUNGSFÄHIGKEITSBEWERTUNG UND KOMPLEXITÄTSVERGLEICH FÜR GREEDY-ALGORITHMEN
  • Tabelle 2.3-1 zeigt die Rechenkomplexität der verschiedenen zuvor erörterten Algorithmen. Tabelle 2.3-1
    Algorithmus Zeitkomplexität Zeitkomplexitätstyp
    Pfadbewertungsberechnung M1 oder M2 O(m) Lineare Zeit
    Bewertungsreihenfolge M1 oder M2 O (m log m) Linearithmische, loglineare oder quasilineare Zeit
    Greedv-Algorithmus mit Liniensuche O(mD) Lineare Zeit
    Greedv-Algorithmus mit binärer Suche O(log(mD)) Logarithmische Zeit
    Rekursive Endeinheitsanpassungsprozedur O(m 2logm) (mindestens) Quadratische logarithmische Zeit
    erschöpfender Suchalgorithmus O(D m ) polynomiale, algebraische oder exponentielle Zeit
  • In Tabelle 2,3-1 bezieht sich „O“ in der Zeitkomplexitätsspalte auf die Verwendung von Big-O-Notation, wobei es sich um eine mathematische Notation handelt, die das einschränkende Verhalten einer Funktion beschreibt, wenn das Argument zu einem bestimmten Wert oder Unendlichkeit hin neigt. Die Big-O-Notation wird häufig verwendet, um Algorithmen je nachdem zu klassifizieren, wie ihre Laufzeit oder Platzanforderungen mit zunehmender Eingabegröße zunehmen. Das „m“ in der Zeitkomplexitätsspalte (z. B. „m“ in „O(m logm)“) bezieht sich auf die Anzahl von Pfaden i, und das „D“ in der Zeitkomplexitätsspalte (z. B. „D“ in „O(mD)“ bezieht sich auf die Verzögerungsgrenze. Es ist anzumerken, dass die Zeitkomplexität jedes Algorithmus basierend auf den Speicherstrukturen variieren kann, die beim Betreiben der Algorithmen verwendet werden. Des Weiteren wurde der erschöpfende Suchalgorithmus als ein Vergleich für die anderen in Tabelle 2.3-1 aufgelisteten Algorithmen verwendet.
  • Randomisierte Simulationen wurden verwendet, um die Leistungsfähigkeit zu evaluieren und die Rechenkomplexität (durch Laufzeit) der zuvor besprochenen Greedy-Algorithmen zu vergleichen. In einer solchen beispielhaften Einstellung gibt es m = 4 Pfade, die Verzögerungsgrenze beträgt D = 5 Millisekunden (ms), und die die feste Paketgröße ist B = 12 Kilobit (kbits). Jeder Pfad i weist eine zufällig erzeugte Paketlöschwahrscheinlichkeit innerhalb des Bereichs 10-4 ~ 0.1 und eine zufällig erzeugte Datenrate zwischen 12 ~ 60 Megabit pro Sekunde (Mbps) auf. Der Einfachheit halber wurde die Datenrate auf ein Vielfaches von 12 Mbps festgelegt, sodass innerhalb jeder Millisekunde die Anzahl von übertragenen Paketen eine ganze Zahl zwischen 1 und 5 ist. Es wurde angenommen, dass die Bandbreite für alle Pfade konstant ist, sodass die spektrale Effizienz γi für jeden Pfad i proportional zu seiner Datenrate ist. Daher ist die maximal mögliche Anzahl von Paketen, die jeder Pfad innerhalb der Verzögerungsgrenze übertragen kann, 5 × 5 = 25, und für alle vier Pfade können höchstens 100 Pakete übertragen werden. Wenn ein systematischer Netzwerkcode verwendet wird, kann das Zuverlässigkeitsziel 10-6 oder 10-9sein.
  • Einhundert (100) zufällige Instanzen wurden unter diesen Einstellungen ausgeführt und alle möglichen NC-Gruppen-Größen k wurden getestet. Die Schemata, die verglichen wurden, sind in Tabelle 2.3-2 aufgelistet. Tabelle 2.3-2
    Schema Algorithmus
    a optimaler erschöpfender Suchalgorithmus
    b Standardrundlaufalgorithmus
    c1 Greedy-Algorithmus mit Liniensuche 800 unter Verwendung des Pfadordnungsverfahrens M1
    c2 Greedy-Algorithmus mit binärer Suche 900 unter Verwendung des Pfadordnungsverfahrens M1
    d1 Greedv-Alqorithmus mit Liniensuche 800 unter Verwendung des Pfadordnungsverfahrens M1
    d2 Greedy-Algorithmus mit binärer Suche 900 unter Verwendung des Pfadordnungsverfahrens M1
    e1 Greedy-Algorithmus mit Liniensuche 800 unter Verwendung des Pfadordnungsverfahrens M2 und der rekursiven Endeinheitsanpassungsprozedur 1000
    e2 Greedy-Algorithmus mit binärer Suche 900 unter Verwendung des Pfadordnungsverfahrens M2 und der rekursiven Endeinheitsanpassungsprozedur 1000
  • Der erschöpfende Suchalgorithmus kann immer die minimale Ressourcennutzung für das Optimierungsproblem finden, falls die Gesamtressource ausreicht, um die Zuverlässigkeitseinschränkung (z. B. falls das Problem durchführbar ist) für die gegebene NC-Gruppengröße k zu erfüllen. Für jeden Fall wurden die Ergebnisse für alle möglichen Codierungsgruppengrößen k gesammelt, und alle Daten wurden kombiniert, um in den Graphen 11a00 und 11b00 in den 11a und 11b aufgezeichnet zu werden. 11a beinhaltet einen Graphen 11a00, der eine normale Skala des zusätzlichen Prozentsatzes von Ressourcen zeigt, die durch nicht-optimale Algorithmen verwendet werden, und 11b beinhaltet einen Graphen 11b00, der eine vergrößerte Skala des zusätzlichen Prozentsatzes von Ressourcen zeigt, die durch nicht-optimale Algorithmen verwendet werden. In den Graphen 11a00 und 11b00 wird die kumulative Verteilungsfunktion (CDF) der zusätzlichen Funkressourcen, die für jeden nichtoptimalen Algorithmus verwendet werden, normiert durch die Gesamtressourcen i = 1 m N i γ i
    Figure DE102022211605A1_0050
    in jedem Fall (siehe 5). Es ist anzumerken, dass die Greedy-Algorithmen mit Liniensuche und binärer Suche in diesen Simulationen genau die gleiche Lösung ausgeben, sodass sie als die gleiche Kurve in der grafischen Darstellung gezeigt werden. Es ist ersichtlich, dass, wann immer das Problem durchführbar ist (wenn z. B. eine optimale Lösung existiert), jeder Algorithmus vom Greedy-Typ eine Ressourcennutzungslösung finden kann, die das Zuverlässigkeitsziel erfüllt, wohingegen der standardmäßige Rundlaufalgorithmus dies nur für weniger als 50 % der Fälle erreichen kann.
  • Unter den Algorithmen vom Greedy-Typ arbeiten diejenigen, die das Pfadordnungsverfahren M2 verwenden, besser als das Verfahren M1. Insbesondere können die Algorithmen vom Greedy-Typ, die das Verfahren M2 verwenden, für 95 % der Fälle Lösungen finden, die im Vergleich zur optimalen Lösung nicht mehr als 1 % zusätzliche Ressourcen nutzen, während für jene, die das Verfahren M1 verwenden, diese zusätzliche Ressourcenlücke 7 % ~ 8 % beträgt. Das Anwenden der Endeinheitsanpassungsprozedur 1000 kann ferner einige (sehr begrenzte) Leistungsfähigkeitsgewinne bringen.
  • Ein Vergleich der Rechenkomplexität der Algorithmen ist empirisch durch die aufgezeichnete Laufzeit für jede Optimierungsinstanzsimulation gezeigt. 12a beinhaltet einen Graphen 12a00, der die Zuverlässigkeit (10-6) der Algorithmen vom Greedy-Typzeigt, und 12b beinhaltet einen Graphen 12b00, der die Zuverlässigkeit (10-9) der Algorithmen vom Greedy-Typ zeigt. In 12a und 12b ist die CDF dieser Laufzeiten aufgetragen. Aus den Graphen 12a00 und 12b00 ist ersichtlich, dass die Algorithmen vom Greedy-Typ nur ~10-4 der Laufzeit für die optimale erschöpfende Suche erfordern. Mit der rekursiven Endeinheitsanpassungsprozedur 1000 (siehe z. B. Abschnitt 2.2.3 oben) erhöht sich die Laufzeit auf ~5 × 10-4 der erschöpfenden Suchlaufzeit, ist aber im Vergleich zu letzterer immer noch vernachlässigbar. Die Liniensuche und die binäre Suche weisen in etwa ähnliche durchschnittliche Laufzeiten auf, da der Maßstab des Optimierungsproblems nicht zu groß ist und beide Algorithmen auf dieser Skala schnell sind.
  • 3. OPTIMALE ÜBERTRAGUNGSVERZÖGERUNGSVERKEHRSVERTEILUNG ZUR NETZWERKCODIER UNG AUF MEHREREN PFADEN
  • Wie zuvor erwähnt, kann NC als eine Technik verwendet werden, um proaktive Redundanz bereitzustellen, wenn Datenpakete in Kommunikationsnetzwerken übertragen werden, was die e2e-Zuverlässigkeit verbessert und die Übertragungslatenz reduziert. Wenn es mehrere Kommunikationsverbindungen/-pfade (unter Verwendung der gleichen oder unterschiedlicher RATs) zwischen Quell- und Zielknoten mit unterschiedlichen Datenraten, Zuverlässigkeits- und Verzögerungsprofilen gibt, ist es schwierig, den Quellpaketen eine Redundanz optimal hinzuzufügen, um ein gegebenes Zuverlässigkeitsziel zu erfüllen, und es ist auch schwierig, diese netzwerkcodierten Pakete optimal auf unterschiedliche Verbindungen/Pfade zu verteilen.
  • Auf einem einzigen Pfad mit i.i.d.-Löschung von Paketen kann die Menge an benötigter NC, die ein gegebenes Zuverlässigkeitsziel erfüllt, bestimmt werden, indem das Ziel mit der Decodierungswahrscheinlichkeit des Netzwerkcodes verglichen wird, die unter Verwendung der CDF von Binomialverteilungen berechnet werden kann. Für den Fall mit mehreren Verbindungen/Pfaden kann bei der Anzahl von codierten Paketen, die auf jedem Pfad gesendet werden, auch die Wahrscheinlichkeit einer erfolgreichen Decodierung berechnet werden. Falls somit eine Verkehrsverteilungsregel gegeben ist, folgt die Anzahl an netzwerkcodierten Paketen, die auf den Pfaden verteilt sind, einem vorbestimmten Muster, und daher kann die Menge an benötigter NC auch durch Vergleichen der Decodierungswahrscheinlichkeit mit dem Zuverlässigkeitsziel ermittelt werden. Existierende Verkehrsverteilungsregeln beinhalten den Standard-Rundlaufalgorithmus, der eine gleiche Verkehrsmenge an jeden Pfad verteilt. Wenn alle Pfade die gleichen Löschwahrscheinlichkeiten und Verzögerungsprofile aufweisen, kann eine Verkehrsverteilungsregel verwendet werden, die netzwerkcodierten Verkehr proportional zu der unterstützten Datenrate an jeden Pfad sendet (siehe z. B. US-Anmeldung Nr. 17/014.945 , eingereicht am 08. September 2020 (Anwaltsaktenzeichen Nr. AD2073-US) („[AD2073]“), deren Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird). Diese Verkehrsverteilungsalgorithmen sind jedoch nicht effizient, wenn sich die Datenraten, Zuverlässigkeits- und Verzögerungsprofile alle für einige oder alle der mehreren Verbindungen/Pfade unterscheiden. Um ein gegebenes Zuverlässigkeitsziel zu erfüllen, können sie eine längere Übertragungsverzögerung verursachen oder eine niedrigere NC-Rate erfordern und daher eine niedrigere Funkeffizienz als die optimale Lösung aufweisen.
  • Die vorliegende Offenbarung stellt einen Mehrpfade-Verkehrsverteilungsalgorithmus zusammen mit einem iterativen Teilungsalgorithmus für NC bereit, der eine optimale Übertragungsverzögerung unter einem gegebenen Zuverlässigkeitsziel erreicht. Die vorliegende Offenbarung stellt auch einen frühen Stoppmechanismus bereit, um Funkressourcen zu sparen, falls eine Rückmeldung verfügbar ist. Wird NC über verschiedene Pakete durchgeführt und wird die Zuverlässigkeit pro Paket gemessen, so wird systematische NC verwendet, um die Pfade zuerst mit systematischen Paketen (z. B. ursprünglichen Informationspaketen) in der aufsteigenden Reihenfolge der Pfadlöschwahrscheinlichkeiten zu füllen. Diese Verkehrsverteilungsstrategie nebst dem Teilungsalgorithmus ist hinsichtlich der Übertragungsverzögerung optimal, was die Latenz reduziert und die Netzwerkeffizienz zumindest hinsichtlich der Ressourcennutzung erhöht. Die hier erörterten Algorithmen können die Zuverlässigkeit eines beliebigen Mehrpfadesystems mit minimaler Verzögerung (z. B. für zellbasierte Systeme mit Mehrfachkonnektivität und/oder Mehrfachzugangs-Edge-Computing-Verkehrsverwaltung) effizient verbessern. Der hier erörterte Verkehrsverteilungsalgorithmus versucht, die Übertragungsverzögerung auf den einzelnen Pfaden auszugleichen und ist unabhängig von den Zuverlässigkeitsprofilen für die Pfade, und der frühe Stoppmechanismus kann Funkressourcen für alle Pfade einsparen.
  • 3.1. NETZWERKCODIERUNGSRATE UND VERKEHRSVERTEILUNG FÜR MEHRERE PFADE
  • 13 zeigt ein Beispiel für Mehrpfade-NC 1300 gemäß verschiedenen Ausführungsformen. Der Mehrpfade-NC 1300 wird zur Verkehrsverteilung zwischen den mehreren Pfaden 230 verwendet, von denen einige oder alle unterschiedliche Datenraten, Zuverlässigkeits- und Verzögerungsprofile aufweisen können. In dem Beispiel aus 13ist eine Gruppe von k Informationspaketen (die z. B. alle eine gleiche Größe B aufweisen) von einem Quellknoten 1310 durch ein verlustbehaftetes Netzwerk zu einem Zielknoten 1320 zu senden, wobei das verlustbehaftete Netzwerk m unabhängige Pfade umfasst (z. B. 1 bis m Pfade in 13, wobei m eine Zahl ist). Die m unabhängigen Pfade können individuellen Pfaden 230 aus 2 entsprechen (einschließlich Fronthaul- und Backhaul-Verbindungen/Links/Kanälen). Die k Informationspakete werden einer NC-Engine 1317 bereitgestellt (die die gleiche wie die zuvor mit Bezug auf 2 und 4 besprochenen NC-Engines 217 und 417 sein oder diesen ähnlich sein können). Die NC-Engine 1317 wendet ein Codierungsschema auf die k Informationspakete an und produziert n codierte Pakete. Die n codierten Pakete werden dann über m unabhängige Pfade i (wobei z. B. wobei i = 1, ..., m) gesendet, wobei eine Anzahl xi von codierten Paketen aus den n codierten Paketen über entsprechende Pfade i gesendet wird und eine Anzahl Yi von codierten Paketen durch den Zielknoten 420 über die entsprechenden Pfade i empfangen wird. In diesem Beispiel kann der Quellknoten 1310 gleich oder ähnlich sein wie der Quellknoten 410 aus 4 sein, UE 201, NAN 233a-c oder Edge-Knoten 236 aus 2, und der Zielknoten 1320 kann gleich oder ähnlich sein wie der Zielknoten 420 aus 4, UE 201, NAN 233a-c oder Edge-Knoten 236 aus 2. Zusätzlich dazu kann jeder der Pfade i die gleiche RAT nutzen oder kann Pfade sein, die zu unterschiedlichen RATs gehören.
  • Des Weiteren gibt es auf jedem Pfad i ein(e) gewisse(s) Löschmuster/-wahrscheinlichkeit, und die Zeit zum Übertragen von x Paketen ist τi(x). NC wird verwendet, um Paketverluste zu bekämpfen und die erforderliche Zuverlässigkeit bereitzustellen. Falls die k Informationspakete in n codierte Pakete codiert werden und xi der codierten Pakete an Pfad i gesendet werden, sodass i = 1 m x i = n ,
    Figure DE102022211605A1_0051
    wird die Wahrscheinlichkeit eines Decodierungsfehlers durch Gleichung (3-1) bezeichnet. F ( x 1 , , x m ; k ) : = Pr ( i = 1 m Y i < k )
    Figure DE102022211605A1_0052
  • In Gleichung (3-1) ist Yi die Anzahl empfangener Pakete nach der Löschung auf Pfad i. Hier wird angenommen, dass der Netzwerkcode gut gestaltet ist, sodass das Empfangen beliebiger k aus n codierten Paketen eine erfolgreiche Decodierung sicherstellt. Die vorliegende Offenbarung adressiert das folgende Problem: was ist das erforderliche n, und wie sollen diese n codierten Pakete auf die m Pfade verteilt werden (z. B. welche Werte sollte x1, ··· xm annehmen), um ein Zuverlässigkeitsziel ε zu erfüllen, um F(x1, ···, xm; k) ≤ ε zu erfüllen und um die Übertragungsverzögerung max 1 i m τ i ( x i )
    Figure DE102022211605A1_0053
    zu minimieren? Dieses Problem lässt sich durch Gleichung (3-2) charakterisieren. min x 1 , x m   max 1 i m τ i ( x i ) s . t .   x i 0,1 i m F ( x 1 , , x m ; k )
    Figure DE102022211605A1_0054
  • Die Pfade können unterschiedliche Löschwahrscheinlichkeiten aufweisen, und die Löschungen sind über unterschiedliche Pfade unabhängig. Auf demselben Pfad können unterschiedliche Pakete unabhängigen oder abhängigen Löschvorgängen unterzogen werden. Falls m = 1 und die Paketlöschungen i.i.d. mit der Wahrscheinlichkeit e sind, folgt die Anzahl empfangener Pakete Y1 einer Binomialverteilung. In diesem Fall ist die Funktion F(x1; k) = F1(x1; k), wobei F1 als die CDF von Y1, ausgewertet bei k - 1, definiert ist, wie durch Gleichung (3-3)gezeigt. F 1 ( x 1 ; k ) : = P r ( Y 1 < k ) = i = 0 k 1 ( x 1 i ) ( 1 e ) i e x 1 i
    Figure DE102022211605A1_0055
  • Falls m > 1 und die Paketlöschungen i.i.d. auf jedem Pfad i mit Wahrscheinlichkeit ei sind, wird die Gesamtanzahl empfangener Pakete i = 1 m Y i
    Figure DE102022211605A1_0056
    zu einer Summe unabhängiger binomialer Zufallsvariablen, die nicht notwendigerweise identisch verteilt sind. Ihre Wahrscheinlichkeitsmassenfunktion kann über die Faltung der einzelnen binomialen Wahrscheinlichkeitsmassenfunktionen erhalten werden.
  • Zusätzlich oder alternativ widerspiegelt die Verzögerungsfunktion τi(x) die Verzögerungs- und Datenratenprofile des Pfades i. Falls zum Beispiel der Pfad i eine Datenrate von Ri unterstützt und das Planungsintervall klein genug ist, kann τi(x) einfach als eine lineare Funktion x d R i
    Figure DE102022211605A1_0057
    ausgedrückt werden, wobei d die Größe jedes Pakets ist. Falls stattdessen die Übertragung auf Pfad i TTI-basiert ist und auf jedem TTI eine bestimmte Anzahl von Paketen übertragen werden kann, nimmt τi(x) dann die Form einer treppenförmigen Funktion an. Falls des Weiteren eine anfängliche Verzögerung DB,i auf dem Pfad i besteht (das könnte die Backhaul-Verzögerung für nachgelagerten Verkehr oder Zugangsverzögerung für vorgelagerten Verkehr sein), dann sollte eine zusätzliche Schrittfunktion DB,i · 1{x>0} zu τi(x) hinzugefügt werden, wobei 1{·} die Indikatorfunktion ist.
  • 3.2. OPTIMALE VERKEHRSVERTEILUNGSSTRATEGIE zum ERFÜLLEN DER ZIELDECODIERUNGSWAHRSCHEINLICHKEIT
  • Gemäß verschiedenen Ausführungsformen wird ein 2-schichtiger Algorithmus bereitgestellt, der versucht, die Übertragungsverzögerungen auf allen Pfaden auszugleichen, um die minimale Gesamtübertragungsverzögerung unter der Einschränkung einer Zieldecodierungswahrscheinlichkeit F(x1, ··· xm; k) ≤ ε zu erreichen.
  • In einem ersten Algorithmus (L1) versucht der erste Algorithmus (L1) angesichts einer festen Verzögerungsgrenze t, so viele Pakete wie möglich innerhalb von t auf jedem Pfad zu senden, um die Zuverlässigkeit an dem Empfänger (z. B. dem Zielknoten 1320) zu maximieren. Das heißt, die Verkehrszuordnungsregel von L1 sendet x i = τ i 1 ( t )
    Figure DE102022211605A1_0058
    Pakete an den Pfad i, wobei τ i 1 ( t )
    Figure DE102022211605A1_0059
    die maximale Anzahl von Paketen bezeichnet, die auf dem Pfad i innerhalb der Zeit t übertragen werden können, wie durch Gleichung (3-4) ausgedrückt. τ i 1 ( t ) : = max { x : τ i ( x ) t }
    Figure DE102022211605A1_0060
  • Aus der Gleichung (3-4) ist ersichtlich, dass die Verzögerungen auf allen Pfaden so weit wie möglich ausgeglichen sind, innerhalb der Grenze t, wie durch Gleichung (3-5) gezeigt ist. τ 1 ( t ) = ( τ 1 1 ( t ) , , τ m 1 ( t ) )
    Figure DE102022211605A1_0061
  • In einem zweiten Algorithmus (L2) wird, um die minimale Verzögerung t*, die das Zuverlässigkeitsziel ε erfüllt, unter Verwendung der Verkehrszuordnungsregel zu finden, ein iteratives Teilungsverfahren verwendet. Der Algorithmus berechnet iterativ ein Intervall, das immer t* enthält und dessen Länge in jeder Iteration halbiert wird. Wenn die Länge des Intervalls kleiner als die erforderliche Präzision σ ist, gibt der Algorithmus (L2) die obere Grenze des Intervalls aus.
  • Ein erster Schritt des Algorithmus (L2) beinhaltet das Wählen eines anfänglichen Intervalls [t0, t1], so dass F(τ-1(t0); k) > ε aber F(τ-1(t1); k) ≤ ε. Ein zweiter Schritt des Algorithmus (L2) umfasst Berechnen von t = t 0 + t 1 2 .
    Figure DE102022211605A1_0062
    Ein dritter Schritt des Algorithmus (L2) umfasst das Setzen von t1 = t, wenn F(τ-1(t); k) ≤ ε; andernfalls beinhaltet der dritte Schritt des Algorithmus (L2) das Setzen von t0 = t. Ein vierter Schritt des Algorithmus (L2) beinhaltet Stoppen und Ausgeben von t* = t1, falls die Präzisionsanforderung erfüllt ist (z. B. |t0 - t1| < σ); andernfalls beinhaltet der vierte Schritt Zurückgehen zum zweiten Schritt des Algorithmus (L2). Sobald die minimale Verzögerung t* bestimmt oder erhalten wird, wird die Anzahl von codierten Paketen, die an jeden Pfad gesendeti werden sollen, durch x i = τ i 1 ( t )
    Figure DE102022211605A1_0063
    xi und die Gesamtanzahl von codierten Paketen n = i = 1 m x i
    Figure DE102022211605A1_0064
    erhalten.
  • Damit der Algorithmus L2 funktioniert, müssen manche Parameter in geeigneter Weise eingestellt werden. Zuerst wird der untere Endpunkt t0 des anfänglichen Intervalls auf null gesetzt (zum Beispiel t0 = 0). Da praktisch das Übertragen eines beliebigen Pakets mit einer Verzögerung erfolgt, erzwingt dies τ i 1 ( t ) = 0
    Figure DE102022211605A1_0065
    für jeden Pfad i (z. B. können keine Pakete übertragen werden). Somit können keine Pakete empfangen werden, und die Decodierungsfehlerwahrscheinlichkeit erfüllt F(τ-1(t0); k) = F(0, ···, 0; k) = 1 > ε.
  • Zweitens kann für den oberen Endpunkt t1 entweder eine große Zahl t1 verwendet werden, um zu testen, ob F(τ-1(t0); k) ≤ ε, oder, wenn Paketlöschungen i.i.d. mit einer Löschwahrscheinlichkeit ej auf einem Pfad j sind, kann das folgende gesetzt werden: t1 = τj(xj),, wobei xj groß genug ist, um sicherzustellen, dass Gleichung (3-6) wahr ist (siehe Gleichung (3-3) oben). Diese Wahl von t1 gewährleistet, dass die Zuverlässigkeitsanforderung erfüllt wird, selbst wenn nur die vom Pfad j empfangenen Pakete berücksichtigt werden. F ( τ 1 ( t 1 ) ; k ) F ( 0, , x j , 0 ; k ) = i = 0 k 1 ( x j i ) ( 1 e j ) i e j x j i
    Figure DE102022211605A1_0066
  • Drittens kann die Präzisionsanforderung σ für die Stoppkriterien im vierten Schritt (4) des Algorithmus L2 auf den kürzesten geplanten Zeitschlitz zum Übertragen eines Pakets durch einen beliebigen Pfad gesetzt werden. Wenn beispielsweise ein Pfad TTI-basiert ist und ein ganzes Paket innerhalb eines TTI übertragen werden kann, ist die Zeit, die für ein Paket durch diesen Pfad geplant ist, ein TTI. Wenn auf einem anderen Pfad das Zeitplanungsintervall viel kleiner ist als die Übertragungszeit des Pakets, dann ist die für ein Paket geplante Zeit ungefähr packet size data rate .
    Figure DE102022211605A1_0067
    Besteht ein Mehrpfade-System aus zwei solchen Pfaden, so kann σ auf den kleineren der zwei geplanten Zeitschlitze gesetzt werden. Die zuvor erwähnte Verzögerung kann eine anfängliche Backhaul-Verzögerung für Downstream-Verkehr sein und/oder kann eine Zugriffsverzögerung für Upstream-Verkehr sein
  • In einem speziellen Fall, wenn die Löschungen auf allen Pfaden i.i.d. sind und die Löschwahrscheinlichkeiten gleich sind (oder am Codierer als gleich geschätzt werden), nimmt der Algorithmus L2 eine einfachere Form an. In diesem Fall ist die Decodierungsfehlerwahrscheinlichkeit F(x1, ..., xm; k) = F1(n; k), wobei n = i = 1 m x i
    Figure DE102022211605A1_0068
    und F1 in Gleichung (3-3) definiert ist, wobei e die gemeinsame Löschwahrscheinlichkeit ist. Sei n* als die kleinste ganze Zahl n definiert, die F1(n; k) ≤ ε erfüllt, und sei τ 1 ( t ) = i = 1 m τ i 1 ( t ) .
    Figure DE102022211605A1_0069
    Dann können in dem Algorithmus L2 die Bedingungen der Form F(τ-1 (t); k) ≤ ε durch Στ-1 (t) ≥ n* und F(τ-1(t); k) > ε durch Στ-1(t) < n* und so weiter ersetzt werden. Des Weiteren kann der Wert n* für die am häufigsten verwendeten Parameter (k, e, ε) als eine Nachschlagetabelle gespeichert und wann immer erforderlich schnell abgerufen werden.
  • Es wird angemerkt, dass, wenn τi(x) eine lineare Funktion x d R i
    Figure DE102022211605A1_0070
    ist, dann ist τ i 1 ( t ) = t R i d ,
    Figure DE102022211605A1_0071
    was die in [AD2073] besprochene ratenproportionale Verkehrszuordnungsstrategie ist. Falls es eine anfängliche Verzögerung DB,i auf dem Pfad i gibt (z.B. τ i ( x ) = x d R i + D B , i 1 { x > 0 }
    Figure DE102022211605A1_0072
    ), dann ist τ i 1 ( t ) = { ( t D B , i ) R i d , t > D B , i 0, t D B , i ,
    Figure DE102022211605A1_0073
    was einer Lösung gemäß einem Wasserfülltyp ähnelt. Das Verzögerungsprofil τi(x) kann von Last, Größe des Pakets, Zeit zum Anfordern von Ressourcen und/oder anderen Planungsverzögerungen auf jedem Pfad abhängen, die sich dynamisch mit der Zeit ändern, und daher wird nicht erwartet, dass τi(x) eine feste Funktion ist. Da die Optimierung jedoch für jeden Stapel von k Eingabepaketen durchgeführt wird und es keine Abhängigkeit zwischen unterschiedlichen Stapeln gibt, kann τi(x) für jede Optimierung ständig gemessen und aktualisiert werden, und das aktuellste Verzögerungsprofil kann verwendet werden. Gleichermaßen können wir für die Löschwahrscheinlichkeiten auch ständig messen und für jede Optimierung anpassen. Für Downstream-/DL-Verkehr kann die anfängliche Backhaul-Verzögerung nicht feststehend sein; sie kann von Last, Größe des Pakets, anderen Planungsverzögerungen abhängen. Ich denke, dass wir bei Downstream davon ausgehen können, dass dies eine erwartete Backhaul-Verzögerung ist.
  • 3.3. VERBESSERUNGEN UND ANPASSUNGEN FÜR PAKETWEISE ZUVERLÄSSIGKEIT
  • Falls die k Informationspakete zum Beispiel zusammen verwendet werden sollen, bilden sie ein Datei-/oberes Schichtpaket, das am Empfänger (z. B. Zielknoten 1320) geliefert und verwendet werden soll, dann ist diee2e-Zuverlässigkeitsanforderung die gleiche wie die Einschränkung der Decodierungswahrscheinlichkeit F(x1, ... xm; k), und auch die wie zuvor besprochen berechnete Übertragungsverzögerung ist exakt diee2e-Verzögerung des Datei-/oberen Schichtpakets. In diesem Sinne minimiert der zuvor besprochene 2-schichtige Algorithmus die Paketlieferverzögerung, während das Zuverlässigkeitsziel erfüllt wird. Wenn die k Informationspakete jedoch separat am Empfänger (z. B. Zielknoten 1320) zu verwenden sind, sollten die e2e-Zuverlässigkeit und die Verzögerungsleistung pro Paket gemessen werden. Bei diesen überarbeiteten Metriken garantiert der 2-schichtige Algorithmus nicht notwendigerweise die optimale Leistungsfähigkeit.
  • Wenn paketweise Leistungsfähigkeitsmetriken berücksichtigt werden, kann sich die Art, wie Zuverlässigkeit berechnet wird, von der Decodierungswahrscheinlichkeit unterscheiden. Zum Beispiel ist es aus der Perspektive der Wiederherstellung eines spezifischen Informationspaketsp nicht notwendig, dass der Empfänger (z. B. der Zielknoten1320) alle k Pakete erfolgreich decodiert. Solange das Paket p korrekt an dem Empfänger (z. B. dem Zielknoten 1320) empfangen wird, wird es als ein Erfolg angesehen, unabhängig davon, ob die anderen k - 1 Pakete wiederhergestellt werden oder nicht. Angesichts dieser Beobachtung können der eine oder die mehreren oben erwähnten Algorithmen auf die folgenden Weisen verbessert werden.
  • Eine erste Verbesserung umfasst die Verwendung systematischer Netzwerkcodes. Das heißt, falls k Informationspakete in n codierte Pakete codiert werden, dann wird die Anzahl k von codierten Paketen in ihrer ursprünglichen uncodierten Form (die systematische Pakete genannt werden) gehalten. Auf diese Weise hat, wenn xi Pakete an Pfad i für jedes i mit i = 1 m x i = n
    Figure DE102022211605A1_0074
    gesendet werden und unter diesen ein systematisches Paket p durch Pfad j gesendet wird, der Empfänger (z. B. Zielknoten 1320) zwei Möglichkeiten, dieses wiederherzustellen: entweder die Übertragung des Pakets p durch Pfad j ist erfolgreich, oder sie ist es nicht, aber der Empfänger (z. B. Zielknoten 1320) stellt Paket p wieder her durch Decodieren aller k Informationspakete (umfassend Paket p) unter Verwendung aller empfangenen Pakete von allen Pfaden. In diesem Fall kann die Wahrscheinlichkeit, dass ein Paket p nicht am Empfänger (z. B. Zielknoten 13 20) wiederhergestellt wird, als ej · F(x1, ..., xj - 1, ..., xm; k) geschrieben werden, unter der Annahme, dass ej die Paketlöschwahrscheinlichkeit auf dem Pfad j ist und die Löschungen auf diesem Pfad unabhängig sind.
  • Eine zweite Verbesserung beinhaltet: Priorisieren der Übertragung von systematischen Paketen auf den Pfaden mit niedrigeren Löschwahrscheinlichkeiten angesichts der Anzahl von Paketen, die jedem Pfad zugeordnet werden (bestimmt durch die Verkehrsverteilungsregel). Insbesondere umfasst die zweite Verbesserung zum Ersten Zuordnen der systematischen Pakete, Verwenden der Pfade in der Reihenfolge aufsteigender Löschwahrscheinlichkeiten; und zum Zweiten Zuordnen der anderen codierten Pakete zu den verbleibenden nicht gefüllten Pfaden. Dieses Verfahren stellt sicher, dass die erste Möglichkeit einer Paketwiederherstellung am besten und mit der höchsten Zuverlässigkeit genutzt wird.
  • Eine dritte Verbesserung beinhaltet, zusammen mit den zwei zuvor erwähnten Verbesserungen, Modifizieren der Zuverlässigkeitsberechnung in dem Teilungsalgorithmus in Abschnitt 3.2, um die neue paketweise Fehlerwahrscheinlichkeit widerzuspiegeln. Das heißt, dass die Decodierungsfehlerwahrscheinlichkeit F(x1, ... , xm; k) durch die durchschnittliche Paketfehlerwahrscheinlichkeit 1 k i = 1 k e j i F ( x 1 , , x j i 1, , x m ; k )
    Figure DE102022211605A1_0075
    ersetzt wird, wobei ji der Index des Pfades ist, dem Informationspaket i zugeordnet ist.
  • 3.4. FRÜHE STOPPMECHANISMEN
  • Falls exakte pfadweise Löschwahrscheinlichkeitsinformationen nicht verfügbar sind, können NC und Verkehrsverteilung unter der Annahme einer pfadweisen Worst-Case-Löschwahrscheinlichkeit durchgeführt werden. Zum Beispiel kann angenommen werden, dass die zugrundeliegende PHY/MAC-Schicht ein Modulations- und Codierungsschema auswählt, das eine 10 %-ige Worst-Case-Paketverwerfungsrate garantiert und x1, ... , xm berechnet unter der Annahme einer pfadweisen Löschrate = 0,1 unter Verwendung des oder der zuvor beschriebenen Verfahren. Eine solche Worst-Case-Bereitstellung stellt eine Leistungsfähigkeitsgarantie auf Kosten einer erhöhten Funkressourcennutzung bereit. Selbst wenn die Informationen über die pfadweise Löschwahrscheinlichkeit an dem Codierer verfügbar sind, existiert eine solche Ressourcenbereitstellung immer noch: da die Sender (z. B. der Quellknoten 1310) nicht wissen, ob der Empfänger (z. B. der Zielknoten 1320) genügend Pakete zum Decodieren hat, muss die Anzahl von Paketen, die sie an den Empfänger (z. B. Zielknoten 13 20) senden, groß genug sein, um die (probabilistische) Zuverlässigkeitsgarantie bereitzustellen, auch wenn in vielen Fällen der Empfänger (z. B. Zielknoten 1320) mehr als genug zum Decodieren erhält. Um eine solche übermäßige Funknutzung zur Zuverlässigkeitsbereitstellung abzuschwächen, kann eine frühzeitige pfadübergreifende Stoppbestätigung verwendet werden, um unnötige Übertragung zu stoppen, sobald die gewünschte Anzahl von Paketen erfolgreich empfangen wurde.
  • Die frühzeitige pfadübergreifende Stoppbestätigung kann das Verwenden eines NC-Gruppenidentifikations-Headers beinhalten, um anzugeben, welche Menge von Paketen gemeinsam durch NC codiert wird. Der Header gibt auch die Anzahl von ursprünglichen Informationspaketen (k) an, die zu dieser NC-Gruppe gehören.
  • Zusätzlich oder alternativ zählt während der Übertragung der Empfänger (z. B. der Zielknoten 1320), wie viele Pakete, die zu derselben NC-Gruppe gehören, empfangen werden. Sobald diese Anzahl größer oder gleich k wird (z. B. können manche oder alle ursprünglichen Informationspakete dieser NC-Gruppe erfolgreich decodiert werden), erzeugt der Empfänger (z. B. der Zielknoten 1320) pfadübergreifende NC-Bestätigungs-bzw. NC-ACK-Nachrichten, die angeben, dass einige oder alle Pakete, die zur NC-Gruppe gehören, erfolgreich decodiert werden, und sendet dann eine NC-ACK pro Pfad über alle Pfade 230zurück.
  • Zusätzlich oder alternativ werden für Sender (z. B. der Quellknoten 1310), die NC-ACK-Nachrichten unterstützen, bei Empfang einer NC-ACK jede davon die verbleibenden Pakete verwerfen, die zu derselben NC-Gruppe gehören, die durch die NC-ACK angegeben wird.
  • Zusätzlich oder alternativ dazu kann die NC-ACK an einen designierten Master-Senderknoten (z. B. Quellknoten 1310) gesendet werden. Der Senderknoten (z. B. Quellknoten 1310) verwendet dann eine Inter-Knoten-Nachrichtenübermittlung, um anderen Knoten anzuzeigen, dass zusätzliche Pakete, die zu der identifizierten NC-Gruppe gehören, gestoppt sind. Ein solcher Ansatz kann eine etwas höhere Verzögerung im Vergleich zum Übertragen einer NC-ACK an alle Sender (z. B. den Quellknoten 1310) aufweisen, ist aber wahrscheinlich ressourceneffizienter.
  • Die NC-ACK identifiziert die NC-Gruppe, die bestätigt wird, und die NC-ACK kann einige oder alle der folgenden zusätzlichen Informationen beinhalten: eine Anzahl zusätzlicher Pakete, die für andere NC-Gruppen benötigt werden, die teilweise empfangen werden, und einen Zeitstempel (z. B. Schlitznummer), wenn ausreichend Pakete für die NC-Gruppe empfangen wurden, die bestätigt wird.
  • 14 zeigt einen beispielhaften frühen Stoppmechanismus 1400 gemäß verschiedenen Ausführungsformen. Insbesondere zeigt 14 ein Zeitsteuerungsdiagramm für ein Beispiel, das den frühen pfadübergreifenden ACK-Stoppmechanismus 1400 für DL-Datenflüsse zwischen der MA-TM 246 und einem Rx 1320 über zwei Sender/Empfänger- (oder Sendeempfänger-)(TRx- ) Knoten 1433 einschließlich TRx 1433-1 und TRx 1433- 2 veranschaulicht. Die TRx-Knoten 1433 können einzelne NANs 233, Basisstationen, Zugangspunkte, Relaisknoten, Remote Radio Heads (RRHs), Router, Switches, Hubs, Gateways, Rechenknoten 201, Cloud-Rechenknoten, Edge-Computing-Knoten 236 und/oder ein(e) andere(s) Netzwerkelement/-knoten sein. Der Rx 1320 kann ein Rechenknoten 201, ein NAN 233, ein anderer Edge-Computing-Knoten 236 und/oder ein anderer Rechenknoten sein.
  • Basierend auf Verzögerung, Datenrate und Löschrate verschiedener Pfade kann die MA-TM 246 zuvor beschriebene Verfahren nutzen, um NC auf einer Gruppe von Informationspaketen anzuwenden, und verteilt gemeinsam codierte Pakete 1450 über einen oder mehrere Pfade 1430a, 1430b. Hier befinden sich die gemeinsam codierten Pakete 1450 innerhalb derselben NC-Gruppe.
  • Die TRx-Knoten 1433 auf diesen Pfaden 1430a-b senden dann die codierten Pakete an den Rx 1320. Die Pakete laufen durch unterschiedliche Pfade 1430a und 1430b, die in 14 unter Verwendung unterschiedlicher Schattierungen dargestellt sind. Der Rx 1320 kann in der Lage sein, die ursprünglichen Informationspakete erfolgreich zu decodieren, bevor alle codierten Pakete empfangen werden, und der Rx 1320 sendet eine frühe ACK-Nachricht 1451, falls/wenn er eine NC-Gruppe erfolgreich decodiert. Durch Signalisieren eines erfolgreichen Empfangs der NC-Gruppe (z. B. unter Verwendung der frühen ACK 1451), können die TRx-Knoten 1433verbleibende Pakete derselben NC-Gruppe in ihren jeweiligen Tx-Warteschlangen verwerfen 1452 und Funkressourcen für andere Verkehrsflüsse freigeben. Der Rx 1320 kann auch die Worst-Case-Verzögerung 1453 ausgleichen.
  • 3.5. SIGNALISIERUNGSMECHANISMEN zum ERMÖGLICHEN OPTIMALER VERKEHRSVERTEILUNGSSTRATEGIEN
  • In verschiedenen Ausführungsformen muss der NC-Codierer 217, 417, 1317 die Datenraten, die Zuverlässigkeits- und Verzögerungsprofile jedes Pfades 1430, 230 zum Durchführen der hierin erörterten Optimierungsalgorithmen kennen. Insbesondere können manche oder alle der folgenden Informationen dem NC-Codierer 217, 417, 1317 bereitgestellt werden.
  • Jeder Knoten, der nicht der NC-Codierer 217, 417, 1317 ist oder keinen NC-Codierer 217, 417, 1317 beinhaltet (z. B. NANs 233 und/oder TRx-Knoten 1433 auf den Pfaden 1430, 230, der der gleiche oder andere Knoten für Downstream-Verkehr sein kann wie die für Upstream-Verkehr verwendeten) meldet seine Datenratenauswahl, Transportblock- bzw. TB-Größe und das Zielpaketfehlerverhältnis (PER) an den NC-Codierer 217, 417, 1317. Der NC-Codierer 217, 417, 1317 verwendet diese Informationen, um eine anfängliche Schätzung des Verzögerungsprofils und/oder der Paketlöschwahrscheinlichkeit zu bestimmen.
  • Zusätzlich oder alternativ dazu misst der Rx 1320 (z. B. UE 201 und/oder NAN 233 für Downstream-Verkehr oder der Edge-Knoten 236 oder der NAN 233 für Upstream-Verkehr) die Verzögerungen und Löschwahrscheinlichkeiten während der Datenübertragung und koppelt solche Informationen in den NC-Codierer 217, 417, 1317 zurück, um die (anfänglichen) Schätzungen weiter anzupassen. Für Downstream-Verkehr beinhalten die gemessenen Verzögerungen die Backhaul-Verzögerung, und für Upstream-Verkehr beinhalten die gemessenen Verzögerungen die mögliche anfängliche Ressourcenzuordnungsverzögerung (zum Beispiel UL-Planungsgewährung).
  • Zusätzlich oder alternativ dazu kann für jeden Pfad 14 30, 230 die Löschwahrscheinlichkeit an der Tx-Entität (z. B. Edge-Knoten 236 oder NAN 233 für Downstream oder UE 201 und/oder NAN 233 für Upstream) basierend auf ACK/negativen ACK-Statistiken (NACK-Statistiken) geschätzt werden. Die geschätzte Löschwahrscheinlichkeit kann dann an den NC-Codierer 217, 417, 1317 weitergeleitet werden. Der NC-Codierer 217, 417, 1317 kann diese geschätzten Löschwahrscheinlichkeiten verwenden, um die (anfänglichen) Schätzungen weiter anzupassen.
  • Für den frühen Stoppmechanismus 1400 werden dem Rx 1320 (z. B. UE 201 und/oder NAN 233 für Downstream-Verkehr oder der Edge-Knoten 236 oder der NAN 233 für Upstream-Verkehr) ferner pfadübergreifende NC-Bestätigungsnachrichten (NC-ACK-Nachrichten) von den TRx-Knoten 1433 bereitgestellt, die angeben, dass Pakete, die zu der NC-Gruppe gehören, erfolgreich decodiert werden. Bei manchen Implementierungen kann ein designierter primärer TRx-Knoten 1433 die NC-ACKs und/oder andere Metriken von anderen TRx-Knoten 1433 sammeln und die NC-ACKs und/oder andere Metriken dem Rx 1320 bereitstellen. Andere Metriken und/oder Messungen, wie etwa die hier erörterten, können auch gesammelt und für NC verwendet werden.
  • 4. EDGE-COMPUTING-SYSTEM-KONFIGURATIONEN UND -ANORDNUNGEN
  • Edge-Computing bezieht sich auf die Implementierung, Koordination und Verwendung von Berechnung und Ressourcen an Orten näher am „Rand“ (Edge) oder der Ansammlung von „Rändern“ eines Netzwerks. Das Einsetzen von Rechenressourcen am Rand des Netzwerks kann Anwendungs- und Netzwerklatenz reduzieren, Netzwerk-Backhaul-Verkehr und assoziierten Energieverbrauch reduzieren, Dienstfähigkeiten verbessern, die Einhaltung von Sicherheits- oder Datenschutzanforderungen verbessern (insbesondere im Vergleich zu herkömmlichem Cloud-Computing) und die Gesamtbetriebskosten verbessern.
  • Einzelne Rechenplattformen oder andere Komponenten, die Edge-Computing-Operationen ausführen können (als „Edge-Computing-Knoten“, „Edge-Knoten“ oder dergleichen bezeichnet), können sich an einem beliebigen Ort befinden, der von der Systemarchitektur oder dem Ad-hoc-Dienst benötigt wird. In vielen Edge-Computing-Architekturen werden Edge-Knoten an NANs, Gateways, Netzwerkroutern und/oder anderen Vorrichtungen bereitgestellt, die näher an Endpunktvorrichtungen (zum Beispiel UEs, IoT-Vorrichtungen usw.) liegen, die Daten produzieren und konsumieren. Als Beispiele können Edge-Knoten in einem Hochleistungsrechendatenzentrum oder einer Hochleistungs-Cloud-Installation; einem designierten Edge-Knoten-Server, einem Unternehmensserver, einem Straßenrandserver, einer Telekommunikationszentrale; oder einer lokalen oder Peer-at-the-Edge-Vorrichtung, die bedient wird und Edge-Dienste konsumiert, implementiert werden.
  • Edge-Computing-Knoten können Ressourcen (z. B. Speicher, CPU, GPU, Interruptsteuerung, E/A-Steuerung, Speichersteuerung, Buscontroller, Netzwerkverbindungen oder -sitzungen usw.) partitionieren, wobei jeweilige Partitionierungen Sicherheits- und/oder Integritätsschutzfunktionen enthalten können. Edge-Knoten können auch Orchestrierung mehrerer Anwendungen über isolierte Benutzerrauminstanzen, wie etwa Container, Partitionen, virtuelle Umgebungen (VEs), virtuelle Maschinen (VMs), FaaS(Function-as-a-Service)-Engines, Servlets, Server und/oder andere ähnliche Rechenabstraktionen, bereitstellen. Container sind begrenzte einsetzbare Softwareeinheiten, die Code und benötigte Abhängigkeiten bereitstellen. Verschiedene Edge-Systemanordnungen/-architekturen behandeln VMs, Container und funktionieren gleichermaßen hinsichtlich der Anwendungszusammensetzung. Die Edge-Knoten werden basierend auf Edge-Bereitstellungsfunktionen koordiniert, während der Betrieb der verschiedenen Anwendungen mit Orchestrierungsfunktionen (zum Beispiel VM oder Container-Engine usw.) koordiniert wird. Die Orchestrierungsfunktionen können verwendet werden, um die isolierten Benutzerrauminstanzen bereitzustellen, die die Verwendung spezifischer Hardware, sicherheitsbezogene Funktionen (z. B. Schlüsselverwaltung, Vertrauensankerverwaltung usw.) und andere Aufgaben in Bezug auf die Bereitstellung und den Lebenszyklus isolierter Benutzerräume identifizieren und planen.
  • Anwendungen, die für Edge-Computing angepasst wurden, beinhalten unter anderem Virtualisierung traditioneller Netzwerkfunktionen, darunter zum Beispiel softwaredefinierte Vernetzung (SDN), Netzwerkfunktionsvirtualisierung (NFV), verteilte RAN-Einheiten und/oder RAN-Clouds und dergleichen. Zusätzliche beispielhafte Verwendungsfälle für Edge-Computing beinhalten rechnerisches Auslagern, Content-Data-Network-(CDN-) Dienste (z. B. Video on Demand, Content-Streaming, Sicherheitsüberwachung, Alarmsystemüberwachung, Gebäudezugang, Daten-/Content-Caching usw.), Gaming-Dienste (z. B. AR/VR usw.), beschleunigtes Browsen, IoT- und Industrieanwendungen (z. B. Fabrikautomatisierung), Medienanalytik, Live-Streaming/Transcodierung und V2X-Anwendungen (z. B. Fahrassistenz- und/oder Autonomfahranwendungen).
  • Die vorliegende Offenbarung stellt spezielle Beispiele bereit, die für verschiedene darin bereitgestellte Edge-Computing-Konfigurationen und verschiedene Zugangs-/Netzwerkimplementierungen relevant sind. Beliebige geeignete Standards und Netzwerkimplementierungen sind auf die hier erörterten Edge-Computing-Konzepte anwendbar. Zum Beispiel können viele Edge-Computing-/Netzwerktechnologien auf die vorliegende Offenbarung in verschiedenen Kombinationen und Layouts von Vorrichtungen anwendbar sein, die sich am Rand eines Netzwerks befinden. Beispiele für solche Edge-Computing-/Netzwerktechnologien beinhalten Mehrfachzugang-Edge-Computing (MEC); Content Delivery Networks (CDNs) (auch als „Content Distribution Networks“ oder dergleichen bezeichnet); Mobility-Service-Provider- (MSP-) Edge-Computing- und/oder Mobility-as-a-Service-(MaaS-) Anbietersysteme (z. B. in ACC-Architekturen verwendet); Nebula-Edge-Cloud-Systeme; Fog-Computing-Systeme; Cloudlet-Edge-Cloud-Systeme; Mobile-Cloud-Computing- (MCC-) Systeme; Central Office Re-architected as a Datacenter (CORD), Mobile CORD (M-CORD) und/oder Converged-Multi-Access-and-Core- (COMAC-) Systeme; und/oder dergleichen. Ferner können sich die hier offenbarten Techniken auf andere IoT-Edge-Netzwerksysteme und - Konfigurationen beziehen, und es können auch andere Zwischenverarbeitungsentitäten und - architekturen für Zwecke der vorliegenden Offenbarung verwendet werden.
  • 15 veranschaulicht eine beispielhafte Edge-Computing-Umgebung 1500. 15 veranschaulicht insbesondere die unterschiedlichen Kommunikationsschichten, die innerhalb der Umgebung 1500 auftreten, beginnend mit Endpunktsensoren- oder Dinge-Schichten 1510 (die z. B. in einer Internet-der-Dinge-Netzwerktopologie (IoT-Netzwerktopologie) arbeiten), die eine oder mehrere IoT-Vorrichtungen 1511 (auch als Edge-Endpunkte 1510 oder dergleichen bezeichnet) umfassen; mit wachsender Ausgereiftheit bis zu Gateways oder einer Zwischenknotenschicht 1520, die ein oder mehrere Endgeräte (UEs) 1521a und 1521b (auch als Zwischenknoten 1520 oder dergleichen bezeichnet) umfassen, die das Sammeln und Verarbeiten von Daten von Endpunkten 1510 erleichtern; mit wachsender Verarbeitungs- und Konnektivitätsausgereiftheit bis zur Zugangsknotenschicht 1530 (oder „Edge-Knotenschicht 1530“), die eine Vielzahl von Netzwerkzugangsknoten (NANs) 1531, 1532 und 1533 (gemeinsam als „NANs 1531-1533“ oder dergleichen bezeichnet) umfasst und eine Vielzahl von Edge-Computing-Knoten 1536a-c (kollektiv als „Edge-Computing-Knoten 1536“ oder dergleichen bezeichnet) innerhalb eines Edge-Computing-Systems 1535; und wachsender Konnektivitäts- und Verarbeitungsausgereiftheit bis zu einer Backend-Schicht 1510, die ein Kernnetz (CN) 1542 und eine Cloud 1544 umfasst. Die Verarbeitung an der Backend-Schicht 1510 kann durch Netzwerkdienste, wie durch einen oder mehrere Remote-Anwendungs- (App-) Server 1550 durchgeführt, und/oder andere Cloud-Dienste verbessert werden. Manche oder alle dieser Elemente können mit manchen oder allen hier besprochenen Merkmalen und/oder Funktionen ausgestattet sein oder diese anderweitig implementieren.
  • Es ist gezeigt, dass die Umgebung 1500 Endbenutzervorrichtungen, wie Zwischenknoten 1520 und Endpunkte 1510 beinhaltet, die ausgelegt sind, um sich basierend auf unterschiedlichen Zugangstechnologien (oder „Funkzugangstechnologien“) zum Zugreifen auf Anwendungsdienste mit einem oder mehreren Kommunikationsnetzwerken (auch als „Zugangsnetzwerke“, „Funkzugangsnetzwerke“ oder dergleichen bezeichnet) zu verbinden (oder kommunikativ mit diesen zu koppeln). Diese Zugangsnetzwerke können einen oder mehrere der NANs 1531, 1532 und/oder 1533 beinhalten. Die NANs 1531-1533 sind ausgelegt, den Endbenutzervorrichtungen über jeweilige Verknüpfungen 1503, 1507 zwischen den individuellen NANs und dem einen oder den mehreren UEs 1511, 1521 Netzwerkkonnektivität bereitzustellen.
  • Als Beispiele können die Kommunikationsnetzwerke und/oder Zugangstechnologien zellulare Technologie, Mobilfunktechnologie, wie LTE, MuLTEfire und/oder NR/5G (wie z. B. von Funkzugangsnetzwerkknoten (RAN-Knoten) 1531 und/oder RAN-Knoten 1532 bereitgestellt), WiFi- oder drahtlose lokale Netzwerktechnologien (WLAN-Technologien) (wie z. B. von einem Zugangspunkt (AP) 1533 und/oder RAN-Knoten 1532 bereitgestellt) und/oder dergleichen beinhalten. Unterschiedliche Technologien weisen Vorteile und Beschränkungen in unterschiedlichen Szenarien auf, und die Anwendungsleistung in unterschiedlichen Szenarien hängt von der Auswahl der Zugangsnetzwerke (z. B. WiFi, LTE usw.) und der verwendeten Netzwerk- und Transportprotokolle (z. B. Transfer Control Protocol (TCP), Virtual Private Network (VPN), Multi-Path TCP (MPTCP), Generic Routing Encapsulation (GRE) usw.) ab.
  • Die Zwischenknoten 1520 beinhalten UE 1521a und UE 1521b (kollektiv als „UE 1521“ oder „UEs 1521“ bezeichnet). In diesem Beispiel ist das UE 1521a als ein Fahrzeug-UE veranschaulicht und das UE 1521b ist als ein Smartphone (z. B. eine tragbare mobile Rechenvorrichtung mit Berührungsbildschirm, die mit einem oder mehreren Mobilfunknetzen verbindbar ist) veranschaulicht. Diese UEs 1521 können jedoch eine beliebige mobile oder nicht mobile Rechenvorrichtung, wie etwa Tablet-Computer, tragbare Vorrichtungen, PDAs, Pager, Desktop-Computer, Laptop-Computer, drahtlose Handapparate, unbemannte Fahrzeuge oder Drohnen, und/oder eine beliebige Art von Rechenvorrichtung einschließlich einer drahtlosen Kommunikationsschnittstelle umfassen.
  • Die Endpunkte 1510 beinhalten UEs 1511, die IoT-Vorrichtungen (auch als „loT-Vorrichtungen 1511“ bezeichnet) sein können, die eindeutig identifizierbare eingebettete Rechenvorrichtungen (z. B. innerhalb der Internet-Infrastruktur) sind, die eine Netzwerkzugangsschicht umfassen, die für Niedrigenergie-IoT-Anwendungen ausgelegt ist, die kurzlebige UE-Verbindungen nutzen. Die IoT-Vorrichtungen 1511 sind beliebige physische oder virtualisierte Vorrichtungen, Sensoren oder „Dinge“, die mit Hardware- und/oder Softwarekomponenten eingebettet sind, die den Objekten, Vorrichtungen, Sensoren oder „Dingen“ ermöglichen, in der Lage zu sein, mit einem Ereignis assoziierte Daten zu erfassen und/oder aufzuzeichnen, und fähig sind, derartige Daten über ein Netzwerk mit wenig oder keinem Benutzereingriff mit einer oder mehreren anderen Vorrichtungen zu kommunizieren. Als Beispiele können die IoT-Vorrichtungen 1511 abiotische Vorrichtungen sein, wie etwa autonome Sensoren, Messgeräte, Zähler, Bilderfassungsvorrichtungen, Mikrofone, lichtemittierende Vorrichtungen, audioemittierende Vorrichtungen, Audio- und/oder Videowiedergabevorrichtungen, elektromechanische Vorrichtungen (z. B. Schalter, Aktuator usw.), EEMS, ECUs, ECMs, eingebettete Systeme, Mikrocontroller, Steuermodule, vernetzte oder „intelligente“ Geräte, MTC-Vorrichtungen, M2M-Vorrichtungen und/oder dergleichen. Die IoT-Vorrichtungen 1511 können Technologien, wie etwa M2M oder MTC, zum Austauschen von Daten mit einem MTC-Server (z. B. einem Server 1550), einem Edge-Server 1536 und/oder Edge-Computing-System 1535 oder einer Vorrichtung über eine PLMN-, ProSe- oder D2D-Kommunikation, Sensornetzwerke oder IoT-Netzwerke nutzen. Der M2M- oder MTC-Datenaustausch kann ein maschineninitiierter Datenaustausch sein.
  • Die IoT-Vorrichtungen 1511 können Hintergrundanwendungen ausführen (z. B. Keep-Alive-Nachrichten, Statusaktualisierungen usw.), um die Verbindungen des IoT-Netzwerks zu ermöglichen. Wenn die IoT-Vorrichtungen 1511 Sensorvorrichtungen sind oder in diese eingebettet sind, kann das IoT-Netzwerk ein WSN sein. Ein IoT-Netzwerk beschreibt miteinander verbundene IoT-UEs, wie etwa die IoT-Vorrichtungen 1511, die über jeweilige direkte Verknüpfungen 1505 miteinander verbunden sind. Die IoT-Vorrichtungen können eine beliebige Anzahl von verschiedenen Typen von Vorrichtungen umfassen, die in verschiedenen Kombinationen gruppiert sind (als eine „IoT-Gruppe“ bezeichnet), die IoT-Vorrichtungen umfassen können, die einen oder mehrere Dienste für einen bestimmten Benutzer, Kunden, Organisationen usw. bereitstellen. Ein Dienstanbieter (z. B. ein Eigentümer/Betreiber des Servers 1550, des CN 1542 und/oder der Cloud 1544) kann die IoT-Vorrichtungen in der IoT-Gruppe in einem bestimmten Bereich (z. B. einer Geolokalisierung, einem Gebäude usw.) einsetzen, um den einen oder die mehreren Dienste bereitzustellen. Bei manchen Implementierungen kann das IoT-Netzwerk ein Mesh-Netzwerk von IoT-Vorrichtungen 1511 sein, die als Fog-Vorrichtung, Fog-System oder Fog bezeichnet werden können, die am Rand der Cloud 1544 arbeiten. Der Fog beinhaltet Mechanismen, um Cloud-Rechenfunktionalität näher an Datengeneratoren und - konsumenten zu bringen, wobei verschiedene Netzwerkvorrichtungen Cloud-Anwendungslogik auf ihrer nativen Architektur ausführen. Fog-Computing ist eine horizontale Architektur auf Systemebene, die Ressourcen und Dienste von Computing, Speicherung, Steuerung und Vernetzung überall entlang des Kontinuums von der Cloud 1544 bis hin zu Dingen (z. B. IoT-Vorrichtungen 1511) verteilt. Der Fog kann gemäß Spezifikationen eingerichtet werden, die unter anderem von der OFC, der OCF, veröffentlicht wurden. Zusätzlich oder alternativ dazu kann der Fog ein Tangle sein, wie durch die IOTA-Foundation definiert ist.
  • Der Fog kann verwendet werden, um Berechnung/Aggregation mit niedriger Latenz an den Daten durchzuführen, während sie zu einem Edge-Cloud-Computing-Dienst (z. B. Edge-Knoten 1530) und/oder einem zentralen Cloud-Computing-Dienst (z. B. Cloud 1544) geleitet werden, um schwere Berechnungen oder rechenaufwendige Aufgaben durchzuführen. Andererseits konsolidiert Edge-Cloud-Computing menschlich betriebene, willkürliche Ressourcen als eine Cloud. Diese freiwilligen Ressourcen können unter anderem Zwischenknoten 1520 und/oder Endpunkte 1510, Desktop-PCs, Tablets, Smartphones, Nano-Rechenzentren und dergleichen beinhalten. Bei verschiedenen Implementierungen können sich Ressourcen in der Edge-Cloud in einer Nähe von einem bis zwei Hops zu den IoT-Vorrichtungen 1511 befinden, was zu einer Reduzierung von Mehraufwand in Bezug auf die Verarbeitung von Daten führen kann und Netzwerkverzögerung reduzieren kann.
  • Zusätzlich oder alternativ dazu kann der Fog eine Konsolidierung von IoT-Vorrichtungen 1511 und/oder Vernetzungsvorrichtungen, wie etwa Routern und Switches, mit hohen Rechenfähigkeiten und der Fähigkeit sein, eine Cloud-Anwendungslogik auf ihrer nativen Architektur auszuführen. Fog-Ressourcen können von Cloud-Anbietern hergestellt, verwaltet und bereitgestellt werden, und sie können mittels zuverlässiger Hochgeschwindigkeitsverknüpfungen miteinander verbunden sein. Darüber hinaus sind die Fog-Ressourcen im Vergleich zu Edge-Systemen weiter vom Rand des Netzwerks entfernt, aber näher als eine zentrale Cloud-Infrastruktur angeordnet. Fog-Vorrichtungen werden verwendet, um rechenintensive Aufgaben oder Arbeitslasten, die von Edge-Ressourcen ausgelagert werden, effektiv zu handhaben.
  • Zusätzlich oder alternativ dazu kann der Fog am Rand der Cloud 1544 arbeiten. Der Fog, der am Rand der Cloud 1544 arbeitet, kann mit einem Edge-Netzwerk 1530 der Cloud 1544 überlappen oder in dieses zusammengefasst werden. Das Edge-Netzwerk der Cloud 1544 kann mit dem Fog überlappen oder ein Teil des Fogs werden. Ferner kann der Fog ein Edge-Fog-Netzwerk sein, das eine Edge-Schicht und eine Fog-Schicht beinhaltet. Die Edge-Schicht des Edge-Fog-Netzwerks beinhaltet eine Sammlung lose gekoppelter, freiwilliger und vom Menschen betriebener Ressourcen (z. B. die oben erwähnten Edge-Computing-Knoten 1536 oder Edge-Vorrichtungen). Die Fog-Schicht befindet sich über der Edge-Schicht und ist eine Konsolidierung von Vernetzungsvorrichtungen, wie etwa den Zwischenknoten 1520 und/oder Endpunkten 1510 von 15.
  • Daten können zwischen den IoT-Vorrichtungen 1511 oder zum Beispiel zwischen den Zwischenknoten 1520 und/oder Endpunkten 1510, die direkte Verknüpfungen 1505 miteinander aufweisen, wie in 15 gezeigt, erfasst, gespeichert/aufgezeichnet und kommuniziert werden. Eine Analyse des Verkehrsflusses und der Steuerschemata kann durch Aggregatoren implementiert werden, die über ein Mesh-Netzwerk mit den IoT-Vorrichtungen 1511 und miteinander in Kommunikation stehen. Die Aggregatoren können ein Typ von IoT-Vorrichtung 1511 und/oder ein Netzwerkgerät sein. In dem Beispiel von 15 können die Aggregatoren Edge-Knoten 1530 oder ein oder mehrere designierte Zwischenknoten 1520 und/oder Endpunkte 1510 sein. Daten können über den Aggregator in die Cloud 1544 hochgeladen werden und Befehle können von der Cloud 1544 durch Gateway-Vorrichtungen empfangen werden, die mit den IoT-Vorrichtungen 1511 und den Aggregatoren über das Mesh-Netzwerk in Kommunikation stehen. Im Gegensatz zum herkömmlichen Cloud-Rechenmodell kann die Cloud 1544 bei manchen Implementierungen geringe oder keine Rechenfähigkeiten aufweisen und dient nur als ein Repositorium zum Archivieren von Daten, die durch den Fog aufgezeichnet und verarbeitet werden. Bei diesen Implementierungen zentralisiert die Cloud 1544 das Datenspeicherungssystem und stellt Zuverlässigkeit und Zugriff auf Daten durch die Rechenressourcen im Fog und/oder in Edge-Vorrichtungen bereit. Der Datenspeicher der Cloud 1544, der den Kern der Architektur bildet, ist sowohl für Edge- als auch Fog-Schichten des oben erwähnten Edge-Fog-Netzwerks zugänglich.
  • Wie zuvor erwähnt, stellen die Zugangsnetze Netzwerkkonnektivität über jeweilige NANs 1531-1533 an die Endbenutzervorrichtungen 1520, 1510 bereit. Die Zugangsnetze können Funkzugangsnetzwerke (RANs) sein, wie etwa ein NG-RAN oder ein 5G-RAN für ein RAN, das in einem 5G/NR-Mobilfunknetzwerk arbeitet, ein E-UTRAN für ein RAN, das in einem LTE- oder 4G-Mobilfunknetzwerk arbeitet, oder ein Legacy-RAN, wie etwa ein UTRAN oder GERAN für GSM- oder CDMA-Mobilfunknetzwerke. Das Zugangsnetz oder RAN kann für WiMAX Implementierungen als ein Zugangsdienstnetz bezeichnet werden. Zusätzlich oder alternativ dazu kann das gesamte oder Teile des RAN als eine oder mehrere Softwareentitäten implementiert sein, die auf Servercomputern als Teil eines virtuellen Netzwerks laufen, das als Cloud-RAN (CRAN), Cognitive Radio (CR), virtueller Basisbandeinheitspool (vBBUP) und/oder dergleichen bezeichnet werden kann. Zusätzlich oder alternativ dazu kann das CRAN, CR oder vBBUP eine RAN-Funktionsaufteilung implementieren, wobei eine oder mehrere Kommunikationsprotokollschichten durch das CRAN/CR/vBBUP betrieben werden und andere Kommunikationsprotokollentitäten durch einzelne RAN-Knoten 1531, 1532 betrieben werden. Dieses virtualisierte Framework ermöglicht den freigegebenen Prozessorkernen der NANs 1531, 1532, andere virtualisierte Anwendungen durchzuführen, wie etwa virtualisierte Anwendungen für verschiedene hier erörterte Elemente.
  • Die UEs 1521, 1511 können jeweilige Verbindungen (oder Kanäle) 1503 nutzen, von denen jede eine physische Kommunikationsschnittstelle oder -schicht umfasst. Die Verbindungen 1503 sind als eine Luftschnittstelle veranschaulicht, um eine kommunikative Kopplung in Übereinstimmung mit Mobilfunk-Kommunikationsprotokollen, wie etwa 3GPP-LTE, 5G/NR, Push-to-Talk (PTT) und/oder PTT over Cellular (POC), UMTS, GSM, CDMA und/oder beliebigen der anderen hierin besprochenen Kommunikationsprotokolle, zu ermöglichen. Zusätzlich oder alternativ kommunizieren (z. B. senden und empfangen) die UEs 1511, 1521 und die NANs 1531-1533 Daten über ein lizenziertes Medium (auch als das „lizenzierte Spektrum“ und/oder das „lizenzierte Band“ bezeichnet) und ein unlizenziertes gemeinsam genutztes Medium (auch als das „unlizenzierte Spektrum“ und/oder das „unlizenzierte Band“ bezeichnet). Um in dem unlizenzierten Spektrum zu arbeiten, können die UEs 1511, 1521 und NANs 1531-1533 unter Verwendung von LAA-, enhanced LAA- (eLAA-) und/oder weiteren eLAA- (feLAA-) Mechanismen arbeiten. Die UEs 1521, 1511 können ferner Kommunikationsdaten direkt über jeweilige direkte Verknüpfungen 1505 austauschen, die LTE/NR-Proximity-Services(ProSe)-Verknüpfungen oder PC5-Schnittstellen/Verknüpfungen oder WiFi-basierte Verknüpfungen oder Verknüpfungen auf persönlicher Netzwerkbasis (PAN) sein können (z. B. IEEE 802.15.4-basierte Protokolle einschließlich ZigBee, IPv6 over Low Power Wireless Personal Area Networks (6LoWPAN), WirelessHART, MiWi, Thread usw.; WiFi-direct; Bluetooth/Bluetooth-Niedrigenergie(BLE)-Protokolle).
  • Zusätzlich oder alternativ liefern einzelne UEs 1521, 1511 Funkinformationen an ein oder mehrere NANs 1531-1533 und/oder ein oder mehrere Edge-Computing-Knoten 1536 (z. B. Edge-Server/Hosts usw.). Die Funkinformationen können in Form eines oder mehrerer Messberichte vorliegen und/oder können zum Beispiel Signalstärkemessungen, Signalqualitätsmessungen und/oder dergleichen beinhalten. Jeder Messbericht wird mit einem Zeitstempel und dem Ort der Messung (z. B. der aktuelle Ort der UEs 1521, 1511) markiert. Als Beispiele können die Messungen, die durch die UEs 1521, 1511 gesammelt werden und/oder in den Messberichten enthalten sind, eines oder mehrere aus Folgenden beinhalten: Bandbreite (BW), Netzwerk- oder Zellenlast, Latenz, Jitter, Umlaufzeit (RTT), Anzahl von Interrupts, reihenfolgeveränderte Lieferung von Datenpaketen, Übertragungsleistung, Bitfehlerrate, Bitfehlerverhältnis (BER), Blockfehlerrate (BLER), Paketfehlerverhältnis (PER), Paketverlustrate, Paketempfangsrate (PRR), Datenrate, Spitzendatenrate, Ende-zu-Ende- bzw. e2e-Verzögerung, Signal-Rausch-Verhältnis (SNR), Signal-Rausch-und-Interferenz-Verhältnis (SINR), Signal-plus-Rauschen-plus-Verzerrung-zu-Rauschen-plus-Verzerrung- bzw. SINAD-Verhältnis, Träger-Interferenz-plus-Rausch-Verhältnis (CINR), additives weißes Gaußsches Rauschen (AWGN), Energie-pro-Bit-zu-Rauschen-Leistungsdichteverhältnis (SINEb/N0), Energie-pro-Bit-zu-Interferenz-Leistungsdichtverhältnis (Ec/I0), Spitze-zu-Durchschnitt-Leistungsverhältnis (PAPR), Referenzsignalempfangsleistung (RSRP), Referenzsignalempfangsqualität (RSRQ), Empfangssignalstärkenindikator (RSSI), Empfangskanalleistungsindikator (RCPI), Empfangssignal-zu-Rauschindikator (RSNI), Durchschnittsrauschen plus Interferenz (ANPI), GNSS-Timing von Zellenrahmen für UE-Positionierung für E-UTRAN oder 5G/NR (z. B. Timing zwischen einer AP- oder RAN-Knoten-Referenzzeit und einer GNSS-spezifischen Referenzzeit für einen gegebenen GNSS), GNSS-Codemessungen (z. B. die GNSS-Codephase (Ganzzahl- und Bruchteile) des Spreizcodes des i-ten GNSS-Satellitensignals), GNSS-Trägerphasenmessungen (z. B. die Anzahl von Trägerphasenzyklen (Ganzzahl- und Bruchteile) des i-ten GNSS-Satellitensignals, gemessen seit Verriegeln auf dem Signal; auch als akkumulierter Deltabereich (ADR) bezeichnet, Kanalinterferenzmessungen, Messungen thermischer Rauschleistung, Messungen empfangener Interferenzleistung, Leistungshistogrammmessungen, Kanallastmessungen, STA-Statistiken und/oder andere ähnliche Messungen. Die RSRP-, RSSI- und/oder RSRQ-Messungen können RSRP-, RSSI- und/oder RSRQ-Messungen zellenspezifischer Referenzsignale, Kanalzustandsinformationsreferenzsignale (CSI-RS) und/oder Synchronisationssignale (SS) oder SS-Blöcke für 3GPP-Netzwerke (z. B. LTE oder 5G/NR) und RSRP-, RSSI-, RSRQ-, RCPI-, RSNI- und/oder ANPI-Messungen verschiedener Beacon-, Fast-Initial-Link-Setup(FILS)-Entdeckungsrahmen oder Sondierungsantwortrahmen für IEEE-802.11-WLAN/WiFi-Netzwerke beinhalten. Andere Messungen können zusätzlich oder alternativ verwendet werden, wie etwa jene, die in 3GPP TS 36.214 v16.2.0 (2021-03-31) („[TS36214]“), 3GPP TS 38.215 v16.4.0 (2020-12) ( „[TS38215]“), IEEE 802.11-2020, „IEEE Standard for Information Technology--Telecommunications and Information Exchange between Systems - Local and Metropolitan Area Networks--Specific Requirements - Part 11: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications“ (26.02.2021) („[IEEE80211]“) und/oder dergleichen besprochen sind. Zusätzlich oder alternativ dazu kann eine beliebige der oben erwähnten Messungen (oder eine Kombination von Messungen) durch ein oder mehrere NANs 1531-1533 gesammelt und an den(die) Edge-Computing-Knoten 1536 geliefert werden.
  • Zusätzlich oder alternativ können die Messungen eine oder mehrere der folgenden Messungen beinhalten: Messungen in Bezug auf Datenfunkträger (DRB) (z. B. Anzahl von DRBs, die versucht werden, eingerichtet zu werden, Anzahl von erfolgreich eingerichteten DRBs, Anzahl freigegebener aktiver DRBs, Sitzungsaktivitätszeit für DRB, Anzahl von DRBs, die versucht werden, wiederaufgenommen zu werden, Anzahl von DRBs, die erfolgreich wiederaufgenommen wurden usw.); Messungen in Bezug auf Funkressourcensteuerung (RRC) (z. B. mittlere Anzahl von RRC-Verbindungen, maximale Anzahl von RRC-Verbindungen, mittlere Anzahl von gespeicherten inaktiven RRC-Verbindungen, maximale Anzahl von gespeicherten inaktiven RRC-Verbindungen, Anzahl von versuchten, erfolgreichen und/oder fehlgeschlagenen RRC-Verbindungsaufbauten usw.); Messungen in Bezug auf UE-Kontext (UECNTX); Messungen in Bezug auf Funkressourcenausnutzung (RRU) (z. B. DL-PRB-Nutzung insgesamt, UL-PRB-Nutzung insgesamt, Verteilung der DL-PRB-Nutzung insgesamt, Verteilung der UL-PRB-Nutzung insgesamt, DL PRB, der für Datenverkehr verwendet wird, UL PRB, der für Datenverkehr verwendet wird, insgesamt verfügbare DL PRBs, insgesamt verfügbare UL PRBs usw.); Messungen in Bezug auf Registrierungsverwaltung (RM); Messungen in Bezug auf Sitzungsverwaltung (SM) (z. B. Anzahl von PDU-Sitzungen, die zum Einrichten angefordert werden; Anzahl von PDU-Sitzungen, die erfolgreich eingerichtet wurden; Anzahl von PDU-Sitzungen, die nicht eingerichtet wurden usw.); Messungen in Bezug auf GTP-Verwaltung (GTP); Messungen in Bezug auf IP-Verwaltung (IP); Messungen in Bezug auf Richtlinienverknüpfung (PA); Messungen in Bezug auf Mobilitätsverwaltung (MM) (z. B. für inter-RAT, intra-RAT und/oder IntralInter-Frequenz-Übergaben und/oder bedingte Übergaben: Anzahl angeforderter, erfolgreicher, und/oder fehlgeschlagener Übergabe-Vorbereitungen; Anzahl angeforderter, erfolgreicher und/oder fehlgeschlagener Übergabe-Ressourcenzuordnungen; Anzahl angeforderter, erfolgreicher und/oder fehlgeschlagener Handover-Ausführungen; mittlere und/oder maximale Zeit angeforderter Handover-Ausführungen; Anzahl erfolgreicher und/oder fehlgeschlagener Handover-Ausführungen pro Strahlpaar usw.); Messungen in Bezug auf virtualisierte Ressource(n) (VR); Messungen in Bezug auf Träger (CARR); Messungen in Bezug auf QoS-Flüsse (QF) (z. B. Anzahl von freigegebenen aktiven QoS-Flüssen, Anzahl von QoS-Flüssen, die versucht werden, freizugeben, Sitzungsaktivitätszeit für QoS-Fluss, Sitzungsaktivitätszeit für ein UE 1511, 1521, Anzahl von QoS-Flüssen, die versucht werden, eingerichtet zu werden, Anzahl von erfolgreich eingerichteten QoS-Flüssen, Anzahl von QoS-Flüssen, die nicht eingerichtet wurden, Anzahl von anfänglichen QoS-Flüssen, die versucht wurden, eingerichtet zu werden, Anzahl von anfänglichen QoS-Flüssen, die erfolgreich eingerichtet wurden, Anzahl von anfänglichen QoS-Flüssen, die nicht eingerichtet wurden, Anzahl von QoS-Flüssen, die versucht wurden, modifiziert zu werden, Anzahl erfolgreich modifizierter QoS-Flüsse, Anzahl nicht modifizierter QoS-Flüsse usw.); Messungen in Bezug auf Anwendungsauslösung (AT); Messungen in Bezug auf Kurznachrichtendienst (SMS); Messungen in Bezug auf Leistung, Energie und Umgebung (PEE); Messungen in Bezug auf NF-Dient (NFS); Messungen in Bezug auf Paketflussbeschreibung (PFD); Messungen in Bezug auf Direktzugangskanal (RACH); Messungen in Bezug auf Messbericht (MR); Messungen in Bezug auf Schicht-1-Messung (L1M); Messungen in Bezug auf Netzwerk-Slice-Auswahl (NSS); Messungen in Bezug auf Paging (PAG); Messungen in Bezug auf Nicht-IP-Datenlieferung (NIDD); Messungen in Bezug auf externe Parameterbereitstellung (EPP); Messungen in Bezug auf Verkehrseinfluss (TI); Messungen in Bezug auf Verbindungsherstellung (CE); Messungen in Bezug auf Dienstparameterbereitstellung (SPP); Messungen in Bezug auf Hintergrunddatenübertragungsrichtlinie (BDTP); Messungen in Bezug auf Datenmanagement (DM); und/oder beliebige andere Leistungsfähigkeitsmessungen, wie etwa jene, die in 3 GPP TS 28.552 v17.3.1 (24.06.2021) („[TS28552]“), 3 GPP TS 32.425 v17.1.0 (24.06.2021) („[TS32425]“) und/oder dergleichen erörtert werden.
  • Die Funkinformationen können als Reaktion auf ein Auslöseereignis und/oder auf periodischer Basis gemeldet werden. Zusätzlich oder alternativ dazu melden einzelne UEs 1521, 1511 Funkinformationen entweder mit einer niedrigen Periodizität oder einer hohen Periodizität, in Abhängigkeit von einem Datentransfer, der stattfinden soll, und/oder anderen Informationen über den Datentransfer. Zusätzlich oder alternativ dazu kann (können) der (die) Edge-Computing-Knoten 1536 die Messungen von den NANs 1531-1533 mit niedriger oder hoher Periodizität anfordern, oder die NANs 1531-1533 können die Messungen an den (die) Edge-Computing-Knoten 1536 mit niedriger oder hoher Periodizität liefern. Zusätzlich oder alternativ dazu können der oder die Edge-Computing-Knoten 1536 andere relevante Daten von anderen Edge-Computing-Knoten 1536, Kernnetzwerkfunktionen (NFS), Anwendungsfunktionen (AFS), und/oder anderen UEs 1511, 1521 , wie etwa Leistungskennzahlen (KPIs), mit den Messberichten oder getrennt von den Messberichten erhalten.
  • Zusätzlich oder alternativ können in Fällen, in denen eine Diskrepanz in den Beobachtungsdaten von einem oder mehreren UEs, einem oder mehreren RAN-Knoten und/oder Kernnetzwerk-NFs besteht (z. B. fehlende Berichte, fehlerhafte Daten, usw.), einfache Imputationen durchgeführt werden, um die erhaltenen Beobachtungsdaten zu ergänzen, wie etwa zum Beispiel Ersetzen von Werten aus vorherigen Berichten und/oder historischen Daten, Anwenden eines Extrapolationsfilters und/oder dergleichen. Zusätzlich oder alternativ dazu können akzeptable Grenzen für die Beobachtungsdaten vorbestimmt oder konfiguriert werden. Zum Beispiel können CQI- und MCS-Messungen so konfiguriert sein, dass sie nur innerhalb von Bereichen liegen, die durch geeignete 3GPP-Standards definiert sind. In Fällen, in denen ein gemeldeter Datenwert keinen Sinn ergibt (z. B. überschreitet der Wert einen akzeptablen Bereich/akzeptable Grenzen oder dergleichen), können solche Werte für die aktuelle Lern-/Trainingsepisode oder -epoche verworfen werden. Zum Beispiel können Paketlieferverzögerungsgrenzen definiert oder konfiguriert werden, und Pakete, für die bestimmt wurde, dass sie nach der Paketlieferverzögerungsgrenze empfangen wurden, können verworfen werden.
  • Bei beliebigen der hier besprochenen Ausführungsformen können ein oder mehrere beliebige geeignete Datensammlungs- und/oder Messmechanismen verwendet werden, um die Beobachtungsdaten zu sammeln. Zum Beispiel können Datenmarkierung (z. B. Sequenznummerierung usw.), Paketverfolgung, Signalmessung, Datenabtastung und/oder Zeitstempeltechniken verwendet werden, um beliebige der zuvor genannten Metriken/Beobachtungen zu ermitteln. Die Sammlung von Daten kann auf dem Stattfinden von Ereignissen basieren, die eine Sammlung der Daten auslösen. Zusätzlich oder alternativ dazu kann eine Datensammlung bei der Initiierung oder Beendigung eines Ereignisses erfolgen. Die Datensammlung kann kontinuierlich, diskontinuierlich sein und/oder Start- und Stoppzeiten aufweisen. Die Datensammlungstechniken/-mechanismen können für eine Hardware(HW)-Konfiguration/Implementierung spezifisch oder nicht HW-spezifisch sein oder können auf verschiedenen Softwareparametern (z. B. OS-Typ und Version usw.) basieren. Verschiedene Konfigurationen können verwendet werden, um beliebige der zuvor genannten Datensammlungsparameter zu definieren. Solche Konfigurationen können durch geeignete Spezifikationen/Standards definiert werden, wie etwa 3GPP, ETSI, O-RAN, OpenNESS und/oder beliebige andere ähnliche Standards, wie etwa die hier erörterten.
  • Das UE 1521b ist der Darstellung nach dazu konfiguriert, über eine Verbindung 1507 auf einen Zugangspunkt (AP) 1533 zuzugreifen. In diesem Beispiel ist gezeigt, dass der AP 1533 mit dem Internet verbunden ist, ohne mit dem CN 1542 des Drahtlossystems verbunden zu sein. Die Verbindung 1507 kann eine lokale drahtlose Verbindung umfassen, wie etwa eine Verbindung, die mit einem beliebigen IEEE 802.11-Protokoll übereinstimmt, wobei der AP 1533 einen Wireless-Fidelity(WiFi®)-Router umfassen würde. Zusätzlich oder alternativ dazu können die UEs 1521 und IoT-Vorrichtungen 1511 dazu konfiguriert sein, unter Verwendung geeigneter Kommunikationssignale miteinander oder mit einem beliebigen des AP 1533 über einen Einzel- oder Mehrträgerkommunikationskanal gemäß verschiedenen Kommunikationstechniken zu kommunizieren, wie etwa unter anderem einer Orthogonalfrequenzmultiplex(OFDM)-Technik, einer Einzelträger-Frequenzmultiplexzugriff(SC-FDMA)-Kommunikationstechnik und/oder dergleichen, obwohl der Schutzumfang der vorliegenden Offenbarung in dieser Hinsicht nicht beschränkt ist. Die Kommunikationstechnik kann ein geeignetes Modulationssystem wie Complementary Code Keying (CCK); Phasenumtasten (PSK) wie binäres PSK (BPSK), Quadratur-PSK (QPSK), differentielles PSK (DPSK) usw.; oder Quadraturamplitudenmodulation (QAM) wie M-QAM; und/oder dergleichen beinhalten.
  • Das eine oder die mehreren NANs 1531 und 1532, die Verbindungen 1503 aktivieren, können als „RAN-Knoten“ oder dergleichen bezeichnet werden. Die RAN-Knoten 1531, 1532 können Bodenstationen (z. B. terrestrische Zugangspunkte) oder Satellitenstationen umfassen, die eine Bedeckung innerhalb eines geografischen Gebiets (z. B. einer Zelle) bereitstellen. Die RAN-Knoten 1531, 1532 können als eine dedizierte physische Vorrichtung, wie etwa eine Makrozellenbasisstation, und/oder eine Niederleistungsbasisstation zum Bereitstellen von Femtozellen, Pikozellen oder anderen ähnlichen Zellen mit kleineren Bedeckungsgebieten, kleineren Benutzerkapazitäten oder höheren Bandbreiten im Vergleich zu Makrozellen implementiert sein. In diesem Beispiel ist der RAN-Knoten 1531 als ein NodeB, erweiterter NodeB (eNB) oder ein NodeB der nächsten Generation (gNB) umgesetzt, und die RAN-Knoten 1532 sind als Relaisknoten, verteilte Einheiten oder Straßenrandeinheiten (RSUs) umgesetzt. Eine beliebige andere Art von NANs kann verwendet werden.
  • Beliebige der RAN-Knoten 1531, 1532 können das Luftschnittstellenprotokoll abschließen und können der erste Kontaktpunkt für die UEs 1521 und die IoT-Vorrichtungen XE111 sein. Zusätzlich oder alternativ kann jeder der RAN-Knoten 1531, 1532 verschiedene logische Funktionen für das RAN erfüllen, einschließlich unter anderem RAN-Funktion(en) (z. B. Funknetzwerksteuerungs- (RNC-) Funktionen und/oder NG-RAN-Funktionen) für Funkressourcenverwaltung, Zulassungssteuerung, dynamische UL- und DL-Ressourcenzuordnung, Funkträgerverwaltung, Datenpaketplanung usw. Zusätzlich oder alternativ können die UEs 1511, 1521 dazu konfiguriert sein, unter Verwendung von OFDM-Kommunikationssignalen miteinander oder mit einem beliebigen der NANs 1531, 1532 über einen Mehrträgerkommunikationskanal gemäß verschiedenen Kommunikationstechniken zu kommunizieren, wie etwa unter anderem einer OFDMA-Kommunikationstechnik (z. B. für DL-Kommunikationen) und/oder einer SC-FDMA-Kommunikationstechnik (z. B. für UL- und ProSe- oder Sidelink-Kommunikationen), obwohl der Schutzbereich der vorliegenden Offenbarung in dieser Hinsicht nicht beschränkt ist.
  • Für die meisten zellbasierten Kommunikationssysteme organisieren die eine oder die mehreren RAN-Funktionen, die durch das RAN oder individuelle NANs 1531-1532 betrieben werden, DL-Übertragungen (z. B. von einem beliebigen der RAN-Knoten 1531, 1532 zu den UEs 1511, 1521) und UL-Übertragungen (z. B. von den UEs 1511, 1521 zu RAN-Knoten 1531, 1532) in Funkrahmen (oder einfach „Rahmen“) mit einer Dauer von 10 Millisekunden (ms), wobei jeder Rahmen zehn 1-ms-Teilrahmen beinhaltet. Jede Übertragungsrichtung weist ihr eigenes Ressourcenraster auf, das physikalische Ressourcen in jedem Schlitz anzeigt, wobei jede Spalte und jede Zeile eines Ressourcenrasters einem Symbol bzw. einem Unterträger entspricht. Die Dauer des Ressourcenrasters im Zeitbereich entspricht einem Schlitz in einem Funkrahmen. Die Ressourcenraster umfassen eine Reihe von Ressourcenblöcken (RBs), die eine Abbildung bestimmter physischer Kanäle auf Ressourcenelemente (REs) beschreiben. Jeder RB kann ein physikalischer RB (PRB) oder ein virtueller RB (VRB) sein und umfasst eine Sammlung von REs. Ein RE ist die kleinste Zeit-Frequenz-Einheit in einem Ressourcenraster. Die eine oder die mehreren RNC-Funktionen teilen jedem UE 1511, 1521 in jedem Übertragungszeitintervall (TTI) Ressourcen (z. B. PRBs und Modulations- und Codierungsschemata (MCS)) dynamisch zu. Ein TTI ist die Dauer einer Übertragung auf einer Funkverknüpfung 1503, 1505 und bezieht sich auf die Größe der Datenblöcke, die von höheren Netzwerkschichten an die Funkverknüpfungsschicht weitergeleitet werden.
  • Die NANs 1531/1532 können dazu ausgelegt sein, über jeweilige Schnittstellen oder Verknüpfungen (nicht gezeigt) miteinander zu kommunizieren, wie etwa eine X2-Schnittstelle für LTE-Implementierungen (z. B., wenn das CN 1542 ein Evolved Packet Core (EPC) ist), eine Xn-Schnittstelle für 5G-oder NR-Implementierungen (z. B., wenn das CN 1542 ein Kern der fünften Generation (5GC) ist) oder dergleichen. Die NANs 1531 und 1532 sind auch kommunikativ mit dem CN 1542 gekoppelt. Zusätzlich oder alternativ dazu kann das CN 1542 ein Evolved-Packet-Core(EPC)-Netzwerk, ein NextGen-Packet-Core(NPC)-Netzwerk, ein 5G-Kern (5GC) oder irgendeine andere Art von CN sein. Das CN 1542 kann eine Vielzahl von Netzwerkelementen umfassen, die dazu ausgelegt sind, Verbrauchern/Teilnehmern (z. B. Benutzern von UEs 1521 und IoT-Vorrichtungen 1511), die über ein RAN mit dem CN 1542 verbunden sind, verschiedene Daten- und Telekommunikationsdienste anzubieten. Die Komponenten des CN 1542 können in einem physischen Knoten oder separaten physischen Knoten implementiert sein, einschließlich Komponenten zum Lesen und Ausführen von Anweisungen von einem maschinenlesbaren oder computerlesbaren Medium (z. B. einem nichttransitorischen maschinenlesbaren Speichermedium). Zusätzlich oder alternativ kann eine Netzwerkfunktionsvirtualisierung (NFV) genutzt werden, um eine oder alle der vorstehend beschriebenen Netzwerkknotenfunktionen über ausführbare Anweisungen, die in einem oder mehreren computerlesbaren Speicherungsmedien gespeichert sind (nachstehend ausführlicher beschrieben), zu virtualisieren. Eine logische Instanziierung des CN 1542 kann als ein Netzwerksegment bezeichnet werden und eine logische Instanziierung eines Teils des CN 1542 kann als ein Netzwerk-Untersegment bezeichnet werden. NFV-Architekturen und -Infrastrukturen können verwendet werden, um eine oder mehrere Netzwerkfunktionen, die alternativ durch proprietäre Hardware durchgeführt werden, auf physischen Ressourcen zu virtualisieren, die eine Kombination aus Industriestandard-Serverhardware, Speicherhardware oder Switches umfassen. Anders ausgedrückt können NFV-Systeme verwendet werden, um virtuelle oder rekonfigurierbare Implementierungen einer oder mehrerer Komponenten/Funktionen des CN 1542 auszuführen.
  • Das CN 1542 ist als kommunikativ mit einem Anwendungsserver 1550 und einem Netzwerk 1550 über eine IP-Kommunikationsschnittstelle 1555 gekoppelt gezeigt. Der eine oder die mehreren Server 1550 umfassen ein oder mehrere physische und/oder virtualisierte Systeme zum Bereitstellen von Funktionalität (oder Diensten) an einen oder mehrere Clients (z. B. die UEs 1521 und IoT-Vorrichtungen 1511) über ein Netzwerk. Der eine oder die mehreren Server 1550 können verschiedene Computervorrichtungen mit einer oder mehreren Rack-Rechenarchitekturkomponenten, Turm-Rechenarchitekturkomponenten, Blade-Rechenarchitekturkomponenten und/oder dergleichen beinhalten. Der eine oder die mehreren Server 1550 können ein Cluster von Servern, eine Serverfarm, einen Cloud-Rechendienst oder eine andere Gruppierung oder einen anderen Serverbestand darstellen, die sich in einem oder mehreren Datenzentren befinden können. Der eine oder die mehreren Server 1550 können auch mit einer oder mehreren Datenspeicherungsvorrichtungen (nicht gezeigt) verbunden oder anderweitig mit diesen assoziiert sein. Darüber hinaus können der eine oder die mehreren Server 1550 ein Betriebssystem (BS) beinhalten, das ausführbare Programmanweisungen für die allgemeine Verwaltung und den allgemeinen Betrieb der individuellen Servercomputervorrichtungen bereitstellt, und können ein computerlesbares Medium beinhalten, das Anweisungen speichert, die, wenn sie durch einen Prozessor der Server ausgeführt werden, den Servern ermöglichen können, ihre beabsichtigten Funktionen durchzuführen. Geeignete Implementierungen für das BS und die allgemeine Funktionalität von Servern sind bekannt oder kommerziell erhältlich und werden von Durchschnittsfachleuten leicht implementiert. Allgemein bieten der eine oder die mehreren Server 1550 Anwendungen oder Dienste an, die IP/Netzwerkressourcen verwenden. Als Beispiele können der eine oder die mehreren Server 1550 Verkehrsverwaltungsdienste, Cloud-Analytik, Inhalts-Streaming-Dienste, immersive Spielerfahrungen, soziales Networking und/oder Mikroblogging-Dienste und/oder andere ähnliche Dienste bereitstellen. Zusätzlich dazu können die verschiedenen Dienste, die durch den einen oder die mehreren Server 1550 bereitgestellt werden, Initiieren und Steuern von Software- und/oder Firmware-Aktualisierungen für Anwendungen oder individuelle Komponenten, die durch die UEs 1521 und IoT-Vorrichtungen 1511 implementiert werden, beinhalten. Der eine oder die mehreren Server 1550 können zudem dazu konfiguriert sein, einen oder mehrere Kommunikationsdienste (z. B. Voice-over-Internet Protocol (VoIP)-Sitzungen, PTT-Sitzungen, Gruppenkommunikationssitzungen, soziale Netzwerkdienste usw.) für die UEs 1521 und IoT-Vorrichtungen 1511 über das CN 1542 zu unterstützen.
  • Die Funkzugangstechnologien (RATs), die von den NANs 1531-1533, den UEs 1521, 1511 und den anderen Elementen in 15 eingesetzt werden, können zum Beispiel beliebige der Kommunikationsprotokolle und/oder RATs beinhalten, die hier erörtert werden. Unterschiedliche Technologien weisen Vorteile und Beschränkungen in unterschiedlichen Szenarien auf, und die Anwendungsleistung in unterschiedlichen Szenarien hängt von der Auswahl der Zugangsnetzwerke (z. B. WiFi, LTE usw.) und der verwendeten Netzwerk- und Transportprotokolle (z. B. Transfer Control Protocol (TCP), Virtual Private Network (VPN), Multi-Path TCP (MPTCP), Generic Routing Encapsulation (GRE) usw.) ab. Diese RATs können eine oder mehrere V2X-RATs beinhalten, die diesen Elementen ermöglichen, direkt miteinander, mit Infrastrukturausrüstung (z. B. NANs 1531-1533) und anderen Vorrichtungen zu kommunizieren. Bei manchen Implementierungen können wenigstens zwei distinkte V2X-RATs verwendet werden, einschließlich WLAN-V2X(W-V2X)-RAT basierend auf IEEE-V2X-Technologien (z. B. DSRC für die USA und ITS-G5 für Europa) und 3GPP-C-V2X-RAT (z. B. LTE, 5G/NR und darüber hinaus). Bei einem Beispiel kann die C-V2X-RAT eine C-V2X-Luftschnittstelle nutzen und kann die WLAN-V2X-RAT eine W-V2X-Luftschnittstelle nutzen.
  • Die W-V2X-RATs beinhalten zum Beispiel IEEE 1609.0-2019, „IEEE Guide for Wireless Access in Vehicular Environments (WAVE) Architecture“ (10.4.2019) („[IEEE16090]“), SAE Int'1, „V2X Communications Message Set Dictionary“ (früher „Dedicated Short Range Communication (DSRC) Message Set Dictionary“) (23.07.2020) („[J2735_202007]“), intelligente Transportsysteme im 5-GHz-Frequenzband (ITS-G5), das IEEE-802.11p-Protokoll (das der Schicht-1- (L1-) und Schicht-2- (L2-) Teil von WAVE, DSRC und ITS-G5 ist) und manchmal IEEE-802.16-2017, „IEEE Standard for Air Interface for Broadband Wireless Access Systems“ (manchmal als „Worldwide Interoperability for Microwave Access“ oder „WiMAX“ bezeichnet) (2.3.2018) („[WiMAX]“). Der Begriff „DSRC“ bezieht sich auf Fahrzeugkommunikationen im 5,9-GHz-Frequenzband, das im Allgemeinen in den Vereinigten Staaten verwendet wird, während sich „ITS-G5“ auf Fahrzeugkommunikationen im 5,9-GHz-Frequenzband in Europa bezieht. Da eine beliebige Anzahl unterschiedlicher RATs anwendbar ist (einschließlich IEEE-802.11p-basierter RATs), die in einem beliebigen geografischen oder politischen Gebiet verwendet werden können, können die Begriffe „DSRC“ (unter anderen Gebieten in den USA verwendet) und „ITS-G5“ (unter anderen Gebieten in Europa verwendet) in der gesamten vorliegenden Offenbarung austauschbar verwendet werden. Die Zugangsschicht für die ITS-G5-Schnittstelle ist in ETSI EN 302 663 V1.3.1 (01-2020) (im Folgenden „[EN302663]“) umrissen und beschreibt die Zugangsschicht der ITS-S-Referenzarchitektur. Die ITS-G5-Zugangsschicht umfasst [IEEE80211] (was jetzt IEEE 802.11p miteinbezieht) und IEEE 802.2 Logical Link Control (LLC) („[IEEE8022]“) und/oder IEEE/ISO/IEC-8802-2-1998-Protokolle sowie Merkmale für DCC-(Decentralized Congestion Control) Verfahren, die in ETSI TS 102 687 V1.2.1 (04-2018) („[TS102687]“) erörtert werden. Die Zugangsschicht für (eine) 3GPP-LTE-V2X-basierte Schnittstellen) ist unter anderem in ETSI EN 303 613 V1.1.1 (01-2020), 3GPP TS 23.285 v16.2.0 (12-2019) umrissen; und 3GPP 5G/NR-V2X ist unter anderem in 3GPP TR 23.786 v16.1.0 (06-2019) und 3GPP TS 23.287 v16.2.0 (03-2020) umrissen.
  • Die Cloud 1544 kann eine Cloud-Rechenarchitektur/-Plattform darstellen, die einen oder mehrere Cloud-Rechendienste bereitstellt. Cloud-Computing bezieht sich auf ein Paradigma zum Ermöglichen von Netzwerkzugriff auf einen skalierbaren und elastischen Bestand von gemeinsam nutzbaren Rechenressourcen mit Selbstbedienungsbereitstellung und -verwaltung bei Bedarf und ohne aktives Management durch Benutzer. Rechenressourcen (oder einfach „Ressourcen“) sind eine beliebige physische oder virtuelle Komponente oder Verwendung solcher Komponenten mit eingeschränkter Verfügbarkeit innerhalb eines Computersystems oder Netzwerks. Beispiele für Ressourcen beinhalten Nutzung/Zugriff auf Server, Prozessor(en), Speicherungsgeräte, Speichervorrichtungen, Speicherbereiche, Netzwerke, elektrische Leistung, Eingabe/Ausgabe(Peripherie) - Vorrichtungen, mechanische Vorrichtungen, Netzwerkverbindungen (z. B. Kanäle/Verknüpfungen, Anschlüsse, Netzwerksockel usw.), Betriebssysteme, virtuelle Maschinen (VMs), Software/Anwendungen, Computerdateien und/oder dergleichen. Cloud-Computing stellt Cloud-Rechendienste (oder Cloud-Dienste) bereit, bei denen es sich um eine oder mehrere über Cloud-Computing angebotene Fähigkeiten handelt, die unter Verwendung einer definierten Schnittstelle (z. B. einer API oder dergleichen) aufgerufen werden. Manche Fähigkeiten der Cloud 1544 beinhalten einen Anwendungsfähigkeitentyp, Infrastrukturfähigkeitentyp und Plattformfähigkeitentyp. Ein Cloud-Fähigkeitentyp ist eine Klassifizierung der Funktionalität, die einem Cloud-Dienstkunden (z. B. einem Benutzer der Cloud 1544) durch einen Cloud-Dienst bereitgestellt wird, basierend auf den verwendeten Ressourcen. Der Anwendungsfähigkeitstyp ist ein Cloud-Fähigkeitstyp, bei dem der Cloud-Dienstkunde die Anwendungen des Cloud-Dienstanbieters verwenden kann; der Infrastrukturfähigkeitstyp ist ein Cloud-Fähigkeitstyp, bei dem der Cloud-Dienstkunde Verarbeitungs-, Speicherungs- oder Vernetzungsressourcen bereitstellen und verwenden kann; und der Plattformfähigkeitstyp ist ein Cloud-Fähigkeitstyp, in dem der Cloud-Dienstkunde kundenerstellte oder kundenerworbene Anwendungen unter Verwendung einer oder mehrerer Programmiersprachen und einer oder mehrerer Ausführungsumgebungen, die von dem Cloud-Dienstanbieter unterstützt werden, einsetzen, verwalten und ausführen kann. Cloud-Dienste können in Kategorien gruppiert werden, die eine gemeinsame Gruppe von Qualitäten besitzen. Manche Cloud-Dienstkategorien, die die Cloud 1544 bereitstellen kann, beinhalten zum Beispiel Communications as a Service (CaaS), was eine Cloud-Dienstkategorie ist, die Echtzeitinteraktions- und -kollaborationsdienste involviert; Compute as a Service (CompaaS), was eine Cloud-Dienstkategorie ist, die die Bereitstellung und Verwendung von Verarbeitungsressourcen beinhaltet, die zum Einsetzen und Ausführen von Software benötigt werden; Database as a Service (DaaS), was eine Cloud-Dienstkategorie ist, die die Bereitstellung und Verwendung von Datenbanksystemverwaltungsdiensten beinhaltet; Data Storage as a Service (DSaaS), was eine Cloud-Dienstkategorie ist, die die Bereitstellung und Verwendung von Datenspeicherung und zugehöriger Fähigkeiten beinhaltet; Firewall as a Service (FaaS), was eine Cloud-Dienstkategorie ist, die das Bereitstellen von Firewall- und Netzwerkverkehrsverwaltungsdiensten beinhaltet; Infrastructure as a Service (IaaS), was eine Cloud-Dienstkategorie ist, die den Infrastrukturfähigkeitstyp beinhaltet; Network as a Service (NaaS), was eine Cloud-Dienstkategorie ist, die Transportkonnektivität und zugehörige Netzwerkfähigkeiten beinhaltet; Plattform as a Service (PaaS), was eine Cloud-Dienstkategorie ist, die den Plattformfähigkeitstyp beinhaltet; Software as a Service (SaaS), was eine Cloud-Dienstkategorie ist, die den Anwendungsfähigkeitstyp involviert; Security as a Service, was eine Cloud-Dienstkategorie ist, die das Bereitstellen von Netzwerk- und Informationssicherheit(Infosec)-Diensten beinhaltet; und/oder andere ähnliche Cloud-Dienste.
  • Zusätzlich oder alternativ dazu kann die Cloud 1544 einen oder mehrere Cloud-Server, Anwendungsserver, Webserver und/oder irgendeine andere ferne Infrastruktur repräsentieren. Die fernen/Cloud-Server können einen beliebigen einer Anzahl an Diensten und Fähigkeiten beinhalten, wie etwa zum Beispiel beliebige jener hier besprochenen.
  • Zusätzlich oder alternativ dazu kann die Cloud 1544 ein Netzwerk repräsentieren, wie etwa das Internet, ein Lokalbereichsnetzwerk (LAN), ein Weitbereichsnetzwerk (WAN), ein drahtloses Lokalbereichsnetzwerk (WLAN) oder ein drahtloses Weitbereichsnetzwerk (WWAN), einschließlich proprietärer und/oder Unternehmensnetzwerke für eine Firma oder Organisation oder Kombinationen davon. Die Cloud 1544 kann ein Netzwerk sein, das Computer, Netzwerkverbindungen zwischen den Computern und Softwareroutinen zum Ermöglichen einer Kommunikation zwischen den Computern über Netzwerkverbindungen umfasst. In dieser Hinsicht umfasst die Cloud 1544 ein oder mehrere Netzwerkelemente, die einen oder mehrere Prozessoren, Kommunikationssysteme (z. B. einschließlich Netzwerkschnittstellensteuerungen, eines oder mehrerer Sender/Empfänger, die mit einer oder mehreren Antennen verbunden sind usw.) und computerlesbare Medien beinhalten können. Beispiele für derartige Netzwerkelemente können drahtlose Zugangspunkte (WAPs), Heim-/Geschäftsserver (mit oder ohne HF-Kommunikationsschaltungsanordnung), Router, Switches, Hubs, Funk-Beacons, Basisstationen, Pikozellen- oder Kleinzellenbasisstationen, Backbone-Gateways und/oder eine beliebige andere ähnliche Netzwerkvorrichtung beinhalten. Eine Verbindung mit der Cloud 1544 kann über eine drahtgebundene oder eine drahtlose Verbindung unter Verwendung der verschiedenen im Folgenden erörterten Kommunikationsprotokolle erfolgen. Mehr als ein Netzwerk kann an einer Kommunikationssitzung zwischen den veranschaulichten Vorrichtungen beteiligt sein. Eine Verbindung mit der Cloud 1544 kann erfordern, dass die Computer Softwareroutinen ausführen, die zum Beispiel die sieben Schichten des OSI-Modells einer Computervernetzung oder eines Äquivalents in einem drahtlosen (Mobilfunk-)Telefonnetzwerk ermöglichen. Die Cloud 1544 kann verwendet werden, um eine Kommunikation mit relativ großer Reichweite, wie etwa zum Beispiel zwischen dem einen oder den mehreren Servern 1550 und einem oder mehreren UEs 1521 und IoT-Vorrichtungen 1511, zu ermöglichen. Zusätzlich oder alternativ kann die Cloud 1544 das Internet, ein oder mehrere zellbasierte Netzwerke, Lokalbereichsnetzwerke oder Weitbereichsnetzwerke einschließlich proprietärer und/oder Unternehmensnetzwerke, eines TCP/Internet-Protocol- (IP-) basierten Netzwerks oder Kombinationen davon repräsentieren. Bei diesen Implementierungen kann die Cloud 1544 mit einem Netzwerkbetreiber assoziiert sein, der Ausrüstung und andere Elemente besitzt oder steuert, die notwendig sind, um netzwerkbezogene Dienste bereitzustellen, wie etwa eine oder mehrere Basisstationen oder Zugangspunkte, einen oder mehrere Server zum Routen digitaler Daten oder Telefonanrufe (z. B. ein Kernnetzwerk oder Backbone-Netzwerk) usw. Die Backbone-Links 1555 können eine beliebige Anzahl drahtgebundener oder drahtloser Technologien beinhalten und können Teil eines LAN, eines WAN oder des Internets sein. In einem Beispiel sind die Backbone-Verknüpfungen 1555 Backbone-Faserverknüpfungen, die niedrigere Ebenen von Dienstanbietern mit dem Internet, wie etwa dem CN 1512 und der Cloud 1544, koppeln.
  • Die Edge-Computing-Knoten 1536 können ein Edge-System 1535 (oder Edge-Netzwerk 1535) beinhalten oder Teil davon sein. Die Edge-Computing-Knoten 1536 können auch als „Edge-Hosts 1536“ oder „Edge-Server 1536“ bezeichnet werden. Das Edge-System 1535 beinhaltet eine Sammlung von Edge-Servern 1536 und Edge-Verwaltungssystemen (in 15 nicht gezeigt), die notwendig sind, um Edge-Computing-Anwendungen innerhalb eines Betreibernetzwerks oder einer Teilmenge eines Betreibernetzwerks auszuführen. Die Edge-Server 1536 sind physische Computersysteme, die eine Edge-Plattform und/oder Virtualisierungsinfrastruktur beinhalten können, und stellen Rechen-, Speicherungs- und Netzwerkressourcen für Edge-Computing-Anwendungen bereit. Jeder der Edge-Server 1536 ist an einem Rand eines entsprechenden Zugangsnetzwerks angeordnet und dazu eingerichtet, Rechenressourcen und/oder verschiedene Dienste (z. B. Rechenaufgaben- und/oder Arbeitslastauslagerung, Cloud-Rechenfähigkeiten, IT-Dienste und andere ähnliche Ressourcen und/oder Dienste, wie hierin erörtert) in relativ enger Nähe zu Zwischenknoten 1520 und/oder Endpunkten 1510 bereitzustellen. Die VI der Edge-Server 1536 stellen virtualisierte Umgebungen und virtualisierte Ressourcen für die Edge-Hosts bereit, und die Edge-Computing-Anwendungen können als VMs und/oder Anwendungscontainer auf den VI laufen.
  • In einer beispielhaften Implementierung kann das Edge-System 1535 gemäß dem MEC-Framework arbeiten, wie in ETSI GS MEC 003 v2.1.1 (01-2019), ETSI GS MEC 009 V2.1.1 (2019-01), ETSI GS MEC 010-1 v1.1.1 (10-2017), ETSI GS MEC 010-2 v2.1.1 (11-2019), ETSI GS MEC 011 V1.1.1 (7-2017); ETSI GS MEC 012 V2.1.1 (12-2019), ETSI GS MEC 013 v2.1.1 (9-2019); ETSI GS MEC 014 V1.1.1 (2-2018); ETSI GS MEC 015 v2.1.1 (6-2020), ETSI GS MEC 016 V2.2.1 (4-2020), ETSI GS MEC 021 V2.1.1 (1-2020), ETSI GS MEC 028 v2.1.1 (6-2020), ETSI GS MEC 029 v2.1.1 (7-2019), ETSI MEC GS 030 v2.1.1 (4-2020), ETSI GS NFV-MAN 001 v1.1.1 (12-2014), vorläufige US-Anmeldung. Nr. 63/003,834 , eingereicht am 1. April 2020 („[AC6833Z]“) und Internationale Anmeldung Nr. PCT/US20/066969 , eingereicht am 23. Dezember 2020 („[AC6833PCT]“) (hier gemeinsam als „[MEC]“ bezeichnet), deren Inhalte hiermit durch Bezugnahme in ihrer Gesamtheit aufgenommen sind.
  • In einer anderen beispielhaften Implementierung arbeitet das Edge-System 1535 gemäß dem O-RAN-Framework, wie in O-RAN Alliance Working Group (WG) 1, „O-RAN Architecture Description“ v04.00 (März 2021), O-RAN Alliance WG1, „O-RAN Operations and Maintenance Interface Specification“ v04.00 (Nov. 2020), O-RAN Alliance WG1, „O-RAN Operations and Maintenance Architecture Specification“ v04.00 (Nov. 2020), O-RAN Alliance WG1, „Near-Real-time RAN Intelligent Controller, E2 Application Protocol (E2AP)“ v01.01 (Jul. 2020), O-RAN Alliance WG2, „O-RAN A1 interface: General Aspects and Principles 2.02“ v02.02 (März 2021), O-RAN Alliance WG3, „O-RAN Near-Real-time RAN Intelligent Controller Architecture & E2 General Aspects and Principles“ v01.01 (Juli 2020), O-RAN Near-Real-time RAN Intelligent Controller E2 Service Model 1.0 (Feb. 2020), O-RAN WG3, „Near-Real-time RAN Intelligent Controller E2 Service Model (E2SM) KPM“ v01.00 (Feb. 2020), O-RAN WG3, „O-RAN Near-Real-time RAN Intelligent Controller E2 Service Model (E2SM), RAN Function Network Interface (NI)“ v1.0 (Feb. 2020), E2SM RAN Control (E2SM-RC), „O-RAN Alliance WG4, O-RAN Fronthaul Management Plane Specification“, Version 2.0 (Juli 2019), O-RAN Alliance WG4, „O-RAN Fronthaul Control, User and Synchronization Plane Specification 6.0“ v06.00 (März 2021) und O-RAN Alliance WG6, „Cloud Architecture and Deployment Scenarios for O-RAN Virtualized RAN“ v02.01 (Juli 2020) (zusammen bezeichnet als „[O-RAN]“) beschrieben, deren Inhalte hiermit durch Bezugnahme in ihrer Gesamtheit aufgenommen sind.
  • In einer anderen beispielhaften Implementierung arbeitet das Edge-System 1535 gemäß 3rd Generation Partnership Project (3GPP) System Aspects Working Group 6 (SA6) Architecture for enabling Edge Applications (als „3GPP-Edge-Computing“ bezeichnet), wie in 3GPP TS 23.558 v17.1.0 (24.9.2021) („[TS23558]“), 3GPP TS 23.501 v17.2.0 (24.9.2021) („[TS23501]“) und US-Anm. Nr. 17/484,719 , eingereicht am 24. September 2021 („[AD4420-US]“) (gemeinsam als „[SA6Edge]“ bezeichnet) erörtert, deren Inhalte hiermit durch Bezugnahme in ihrer Gesamtheit aufgenommen sind.
  • Bei einer anderen beispielhaften Implementierung arbeitet das Edge-System 1535 gemäß dem Intel® Smart Edge Open Framework (früher als OpenNESS bekannt), wie in Intel® Smart Edge Open Developer Guide, Version 21,09 (30. September 2021) erörtert, abrufbar unter: < https://smart-edge-open.github.io/> („[ISEO]“), dessen Inhalt hiermit durch Bezugnahme in seiner Gesamtheit aufgenommen wird.
  • Es versteht sich, dass die oben erwähnten Edge-Computing-Frameworks und Diensteinsatzbeispiele nur ein veranschaulichendes Beispiel für Edge-Computing-Systeme/Netzwerke 1535 sind, und dass die vorliegende Offenbarung auf viele andere Edge-Computing-/Netzwerktechnologien in verschiedenen Kombinationen und Layouts von Vorrichtungen anwendbar sein kann, die sich am Rand eines Netzwerks befinden, einschließlich der verschiedenen hier beschriebenen Edge-Computing-Netzwerke/Systeme. Ferner können sich die hier offenbarten Techniken auf andere IoT-Edge-Netzwerksysteme und -Konfigurationen beziehen, und es können auch andere Zwischenverarbeitungsentitäten und -architekturen auf die vorliegende Offenbarung anwendbar sein.
  • Wie durch 15 dargestellt, ist jeder der NANs 1531, 1532 und 1533 ortsgleich mit den Edge-Computing-Knoten (oder „Edge-Servern“) 1536a, 1536b bzw. 1536c angeordnet. Diese Implementierungen können Kleinzellen-Clouds (SCCs) sein, bei denen ein Edge-Computing-Knoten 1536 ortsgleich mit einer Kleinzelle (z. B. Pikozelle, Femtozelle usw.) angeordnet ist, oder sie können mobile Mikro-Clouds (MCCs) sein, bei denen ein Edge-Computing-Knoten 1536 ortsgleich mit einer Makrozelle (z. B. einem eNB, gNB usw.) angeordnet ist. Der Edge-Computing-Knoten 1536 kann in einer Vielzahl anderer Anordnungen als der in 15 gezeigten bereitgestellt werden. In einem ersten Beispiel sind mehrere NANs 1531-1533 ortsgleich mit einem Edge-Computing-Knoten 1536 angeordnet oder anderweitig damit kommunikativ gekoppelt. In einem zweiten Beispiel können die Edge-Server 1536 ortsgleich angeordnet sein oder durch RNCs betrieben werden, was für ältere Netzwerkbereitstellungen, wie etwa 3G-Netzwerke, der Fall sein kann. In einem dritten Beispiel können die Edge-Server 1536 an Zellenaggregationsstellen oder an Multi-RAT-Aggregationspunkten eingesetzt werden, die sich entweder innerhalb eines Unternehmens befinden oder in öffentlichen Bedeckungsgebieten befinden können. In einem vierten Beispiel können die Edge-Server 1536 am Rand des CN 1542 bereitgestellt werden. Diese Implementierungen können in Follow-Me-Clouds (FMC) verwendet werden, wobei Cloud-Dienste, die an verteilten Rechenzentren laufen, den UEs 1521 folgen, während sie durch das Netzwerk roamen.
  • In jeder der vorstehend erörterten Implementierungen stellen die Edge-Server 1536 eine verteilte Rechenumgebung für Anwendungs- und Diensthosting bereit, und sie stellen auch Speicher- und Verarbeitungsressourcen bereit, so dass Daten und/oder Inhalt in unmittelbarer Nähe zu Teilnehmern (z. B. Benutzern von UEs 1521, 1511) für schnellere Antwortzeiten verarbeitet werden können. Die Edge-Server 1536 unterstützen unter anderem auch Mehrmandantenfähigkeits-Laufzeit- und Hosting-Umgebung(en) für Anwendungen, einschließlich virtueller Geräteanwendungen, die als verpackte Bilder einer virtuellen Maschine (VM) geliefert werden können, Middleware-Anwendungs- und -Infrastrukturdienste, Inhaltslieferdienste einschließlich Inhalts-Caching, Mobile-Big-Data-Analytik und Abladen von Berechnungen. Das Auslagern von Berechnungen involviert das Auslagern von Berechnungen, Arbeitslasten, Anwendungen und/oder Diensten von den UEs 1511/1521, dem CN 1542, der Cloud 1544 und/oder dem oder den Servern 1550 auf die Edge-Server 1536 oder umgekehrt. Zum Beispiel kann eine Vorrichtungsanwendung oder Client-Anwendung, die in einem UE 1521, 1511 betrieben wird, Anwendungsaufgaben oder Arbeitslasten an einen oder mehrere Edge-Server 1536 auslagern. Bei einem anderen Beispiel kann ein Edge-Server 1536 Anwendungsaufgaben oder Arbeitslasten an ein oder mehrere UEs 1521, 1511 auslagern (zum Beispiel für verteilte ML-Berechnung oder dergleichen).
  • 5. HARDWAREKOMPONENTEN, KONFIGURATIONEN UND ANORDNUNGEN
  • Die Netzwerkkomponenten der verschiedenen hier besprochenen Vorrichtungen und/oder Systeme können Server, Geräte, Netzwerkinfrastruktur, Maschinen, Roboter, Drohnen und/oder eine beliebige andere Art von Rechenvorrichtungen sein. Zum Beispiel kann die Edge-Cloud eine Geräterechenvorrichtung beinhalten, die eine eigenständige elektronische Vorrichtung einschließlich eines Gehäuses, eines Chassis, einer Umhüllung oder einer Hülle ist. Unter Umständen kann das Gehäuse für Portabilität dimensioniert sein, so dass es von einem Menschen getragen und/oder versandt werden kann. Alternativ dazu kann es zum Beispiel ein kleineres Modul sein, das zum Installation in einem Fahrzeug geeignet ist. Beispielhafte Gehäuse können Materialien umfassen, die eine oder mehrere Außenflächen bilden, die den Inhalt des Geräts teilweise oder vollständig schützen, wobei der Schutz Wetterschutz, Schutz in gefährlichen Umgebungen (z. B. EMI, Vibration, extreme Temperaturen) umfassen und/oder Tauchfähigkeit ermöglichen kann. Beispielhafte Gehäuse können Leistungsschaltungsanordnungen beinhalten, um Leistung für stationäre und/oder transportierbare Implementierungen bereitzustellen, wie etwa Wechselstromleistungseingänge, Gleichstromleistungseingänge, AC/DC- oder DC/AC-Wandler, Leistungsregler, Transformatoren, Ladeschaltungsanordnungen, Batterien, drahtgebundene Eingänge und/oder drahtlose Leistungseingänge. Kleinere modulare Implementierungen können auch eine erweiterbare oder eingebettete Antennenanordnung zur drahtlosen Kommunikation beinhalten. Beispielhafte Gehäuse und/oder Oberflächen davon können Montagehardware umfassen oder damit verbunden sein, um eine Befestigung an Strukturen, wie etwa Gebäuden, Telekommunikationsstrukturen (z. B. Masten, Antennenstrukturen usw.) und/oder Racks (z. B. Server-Racks, Blade-Halterungen usw.), zu ermöglichen. Beispielhafte Gehäuse und/oder Oberflächen davon können einen oder mehrere Sensoren (z. B. Temperatursensoren, Vibrationssensoren, Lichtsensoren, Akustiksensoren, Kapazitive Sensoren, Näherungssensoren usw.). Ein oder mehrere derartige Sensoren können in der Oberfläche enthalten, von dieser getragen oder anderswie eingebettet und/oder an der Oberfläche des Geräts montiert sein. Beispielhafte Gehäuse und/oder Oberflächen davon können mechanische Konnektivität unterstützen, wie etwa Antriebshardware (z. B. Räder, Propeller usw.) und/oder Gelenkhardware (z. B. Roboterarme, schwenkbare Glieder usw.). Unter Umständen können die Sensoren eine beliebige Art von Eingabevorrichtungen beinhalten, wie etwa Benutzerschnittstellenhardware (z. B. Tasten, Schalter, Wählscheiben, Schieber usw.). Unter Umständen beinhalten beispielhafte Gehäuse Ausgabeeinrichtungen, die in diesen enthalten, durch diese getragen, in diese eingebettet und/oder an diesen angebracht sind. Ausgabevorrichtungen können Anzeigen, Touchscreens, Leuchten, LEDs, Lautsprecher, E/A-Anschlüsse (z. B. USB) usw. beinhalten. Unter manchen Umständen sind Edge-Vorrichtungen Vorrichtungen, die im Netzwerk für einen spezifischen Zweck (z. B. eine Verkehrsampel) präsentiert werden, können aber Verarbeitungs- und/oder andere Kapazitäten aufweisen, die für andere Zwecke genutzt werden können. Solche Edge-Vorrichtungen können unabhängig von anderen vernetzten Einrichtungen sein und können mit einem Gehäuse versehen sein, das einen Formfaktor aufweist, der für seinen primären Zweck geeignet ist; aber dennoch für andere Berechnungsaufgaben verfügbar ist, die ihre primäre Aufgabe nicht stören. Edge-Vorrichtungen beinhalten Internet-der-Dinge-Vorrichtungen. Die Geräterechenvorrichtung kann Hardware- und Softwarekomponenten beinhalten, um lokale Probleme, wie etwa Vorrichtungstemperatur, Vibration, Ressourcenausnutzung, Aktualisierungen, Leistungsprobleme, physische und Netzwerksicherheit usw., zu verwalten. Beispielhafte Hardware zum Implementieren einer Geräterechenvorrichtung ist in Verbindung mit 17 beschrieben. Die Edge-Cloud kann auch einen oder mehrere Server und/oder einen oder mehrere Mehrfach-Mandanten-Server beinhalten. Ein derartiger Server kann ein Betriebssystem beinhalten und eine virtuelle Rechenumgebung implementieren. Eine virtuelle Datenverarbeitungsumgebung kann einen Hypervisor umfassen, der eine oder mehrere virtuelle Maschinen, einen oder mehrere Container usw. verwaltet (z. B. Erzeugen, Einsetzen, Zerstören usw.). Solche virtuellen Datenverarbeitungsumgebungen stellen eine Ausführungsumgebung bereit, in der eine oder mehrere Anwendungen und/oder andere Software, Code oder Skripte ausgeführt werden können, während sie von einer oder mehreren anderen Anwendungen, Software, Code oder Skripten isoliert sind.
  • 17 veranschaulicht ein Beispiel für Komponenten, die in einem Rechenknoten 1750 zum Implementieren der hier beschriebenen Techniken (z. B. Operationen, Prozesse, Verfahren und Methodologien) vorhanden sein können. Der Rechenknoten 1750 stellt eine nähere Ansicht der jeweiligen Komponenten des Knotens 1700 bereit, wenn er als oder als Teil einer Rechenvorrichtung (z. B. als eine Mobilvorrichtung, eine Basisstation, ein Server, ein Gateway usw.) implementiert wird. Der Rechenknoten 1750 kann beliebige Kombinationen der hier referenzierten Hardware oder Logikkomponenten beinhalten, und er kann eine beliebige Vorrichtung beinhalten oder mit dieser gekoppelt sein, die mit einem Edge-Kommunikationsnetzwerk oder einer Kombination solcher Netzwerke verwendbar ist. Die Komponenten können als integrierte Schaltungsanordnung (ICs:), ein System-on-Chip (SoC), Teile davon, diskrete elektronische Vorrichtungen oder andere Module, Befehlssätze, programmierbare Logik oder Algorithmen, Hardware, Hardwarebeschleuniger, Software, Firmware oder eine Kombination davon, die in dem Rechenknoten 1750 angepasst sind, oder als Komponenten, die anderweitig in einem Chassis eines größeren Systems integriert sind, implementiert werden.
  • In einigen Ausführungsformen kann der Rechenknoten 1750 den UEs 101, NANs 131-133, Edge-Computing-Knoten 136 aus 1; UEs 201, NANs 233, Edge-Computing-Knoten 236; UEs 1511, 1521a, NANs 1531-1533, Edge-Computing-Knoten 1536, CN 1542 (oder Rechenknoten darin) und/oder Cloud 1544 (oder Rechenknoten darin) aus 15; Softwareverteilungsplattform 1605 und/oder Prozessorplattform(en) 1600 aus 16; CUS, DUS und/oder entfernten Einheiten (RUs) einer aufgeteilten CU/DU-Architektur mit 3GPP; MEC-Hosts/Server und/oder MEC-Plattformen in ETSI-MEC-Implementierungen; 3GPP Edge-Computing; EAS, EES und/oder ECS einer 3GPP-Edge-Computing-Architektur; Nicht-RT-RIC, nahe-RT-RIC und/oder E2-Knoten in O-RAN-Implementierungen; und/oder einer beliebigen anderen Komponente, Vorrichtung und/oder einem beliebigen anderen System, die hier erörtert werden, entsprechen. Der Rechenknoten 1750 kann als ein Typ von Vorrichtung, Gerät, Computer oder anderem „Ding“ umgesetzt sein, das in der Lage ist, mit anderen Edge-, Netzwerk- oder Endpunktkomponenten zu kommunizieren. Der Rechenknoten 1750 kann zum Beispiel als ein Smartphone, eine mobile Rechenvorrichtung, ein Smartgerät, ein fahrzeuginternes Rechensystem (z. B. ein Navigationssystem), ein Edge-Computing-Knoten, ein NAN, ein Switch, ein Router, eine Brücke, ein Hub und/oder eine andere Vorrichtung oder ein anderes System umgesetzt sein, die/das zum Durchführen der beschriebenen Funktionen in der Lage ist.
  • Der Rechenknoten 1750 beinhaltet eine Verarbeitungsschaltungsanordnung in Form eines oder mehrerer Prozessoren 1752. Die Prozessorschaltungsanordnung 1752 beinhaltet eine Schaltungsanordnung, wie etwa unter anderem einen oder mehrere Prozessorkerne und eines oder mehrere von Cache-Speicher, Low-Drop-Out-Spannungsreglern (LDOs), Interrupt-Steuerungen, seriellen Schnittstellen, wie etwa SPI, I2C oder universelle programmierbare serielle Schnittstellenschaltung, Echtzeituhr (RTC), Timer-Zähler einschließlich Intervall- und Watchdog-Timern, Allzweck-E/A, Speicherkartensteuerungen, wie etwa Secure Digital/Multimedia Card (SD/MMC) oder dergleichen, Schnittstellen, Mobile-Industry-Processor-Interface(MIPI)-Schnittstellen und Joint-Test-Access-Group(JTAG)-Testzugangsports. Bei manchen Implementierungen kann die Prozessorschaltungsanordnung 1752 einen oder mehrere Hardwarebeschleuniger (z. B. gleich oder ähnlich der Beschleunigungsschaltungsanordnung 1764) beinhalten, die Mikroprozessoren, programmierbare Verarbeitungsvorrichtungen (z. B. FPGA, ASIC usw.) oder dergleichen sein können. Der eine oder die mehreren Beschleuniger können zum Beispiel Computer-Vision- und/oder Deep-Learning-Beschleuniger beinhalten. Bei manchen Implementierungen kann die Prozessorschaltungsanordnung 1752 eine On-Chip-Speicherschaltungsanordnung beinhalten, die einen beliebigen geeigneten flüchtigen und/oder nicht-flüchtigen Speicher, wie DRAM, SRAM, EPROM, EEPROM, Flash-Speicher, Festkörperspeicher und/oder einen beliebigen anderen Typ von Speichervorrichtungstechnologie, wie die hier erörterten, beinhalten kann.
  • Die Prozessorschaltungsanordnung 1752 kann zum Beispiel ein oder mehrere Prozessorkerne (CPUs), Anwendungsprozessoren, GPUs, RISC-Prozessoren, Acorn-RISC-Maschine(ARM)-Prozessoren, CISC-Prozessoren, ein oder mehrere DSPs, ein oder mehrere FPGAs, eine oder mehrere PLDs, eine oder mehrere ASICs, ein oder mehrere Basisbandprozessoren, eine oder mehrere integrierte Hochfrequenzschaltungen (RFIC), ein oder mehrere Mikroprozessoren oder Steuerungen, ein Mehrkernprozessor, ein Multi-Thread-Prozessor, ein Ultraniederspannungsprozessor, ein eingebetteter Prozessor, eine Spezialverarbeitungseinheit und/oder spezialisierte Verarbeitungseinheit oder beliebige andere bekannte Verarbeitungselemente oder eine beliebige geeignete Kombination daraus sein. Bei manchen Implementierungen kann die Prozessorschaltungsanordnung 1752 als eine spezialisierte x-Verarbeitungseinheit (xPU) umgesetzt sein, die auch als eine Datenverarbeitungseinheit (DPU), eine Infrastrukturverarbeitungseinheit (IPU) oder Netzwerkverarbeitungseinheit (NPU) bekannt ist. Eine xPU kann als eine eigenständige Schaltung oder ein eigenständiges Schaltungs-Package umgesetzt sein, innerhalb eines SoC integriert sein oder mit einer Vernetzungsschaltungsanordnung (z. B. in einer SmartNIC oder erweiterten SmartNIC), einer Beschleunigungsschaltungsanordnung, Speicherungsvorrichtungen, Speicherungsplatten und/oder KI-Hardware (z. B. GPUs oder programmierten FPGAs) integriert sein. Die xPU kann dazu gestaltet sein, eine Programmierung zu empfangen, um einen oder mehrere Datenströme zu verarbeiten und spezielle Aufgaben und Aktionen für die Datenströme (z. B. Hosten von Mikrodiensten, Durchführen von Dienstverwaltung oder Orchestrierung, Organisieren oder Verwalten von Server- oder Datenzentrumshardware, Verwalten von Dienstnetzen oder Sammeln und Verteilen von Telemetrie), außerhalb einer CPU oder Mehrzweckverarbeitungshardware durchzuführen. Eine xPU, ein SoC, eine CPU und andere Variationen der Prozessorschaltungsanordnung 1752 können jedoch koordiniert miteinander arbeiten, um viele Arten von Operationen und Anweisungen innerhalb des und für den Rechenknoten 1750 auszuführen.
  • Die Prozessoren (oder Kerne) 1752 können mit Speicher/Speicherung gekoppelt sein oder diesen aufweisen und können konfiguriert sein, im Speicher/Speicherung gespeicherte Anweisungen auszuführen, um verschiedenen Anweisungen oder Betriebssystemen zu ermöglichen, auf der Plattform 1750 zu laufen. Der Prozessor (oder die Kerne) 1752 ist (bzw. sind) dazu ausgelegt, Anwendungssoftware zu betreiben, um einem Benutzer der Plattform 1750 einen spezifischen Dienst bereitzustellen. Zusätzlich oder alternativ kann(können) der(die) Prozessor(en) 1752 (ein)(e) Spezialprozessor(en)/-steuerung(en) sein, der/die dazu konfiguriert (oder konfigurierbar) ist (sind), gemäß den vorliegend besprochenen Elementen, Merkmalen und Implementierungen zu arbeiten.
  • Als Beispiele können der eine oder die mehreren Prozessoren 1752 einen Intel® Architecture Core™-basierten Prozessor, wie etwa einen i3-, einen i5-, einen i7-, einen i9-basierten Prozessor; einen Intel® Mikrocontroller-basierten Prozessor, wie etwa einen Quark™-, einen Atom™- oder einen anderen MCU-basierten Prozessor; einen oder mehrere Pentium®-Prozessoren, einen oder mehrere Xeon®-Prozessoren oder einen anderen solchen Prozessor, der von der Intel® Corporation, Santa Clara, Kalifornien, erhältlich ist, beinhalten. Eine beliebige Anzahl anderer Prozessoren kann jedoch verwendet werden, wie eines oder mehrere aus einer Advanced Micro Devices(AMD)-Zen®-Architektur, wie (einem) Ryzen®- oder EPYC®-Prozessor(en), beschleunigten Verarbeitungseinheiten (APUs), MxGPUs, (einem) Epyc®-Prozessor(en) oder dergleichen; (einem) A5-A12- und/oder S 1-S4-Prozessor(en) von Apple® Inc., (einem) Snapdragon™- oder Centriq™-Prozessor(en) von Qualcomm® Technologies, Inc., (einem) Texas Instruments, Inc.® Open Multimedia Applications Platform(OMAP)™-Prozessor(en); einem MIPS-basierten Design von MIPS Technologies, Inc., wie Prozessoren der MIPS Warrior M-Klasse, Warrior I-Klasse und Warrior P-Klasse; einem ARM-basierten Design, lizenziert von ARM Holdings, Ltd., wie der ARM Cortex-A-, Cortex-R- und Cortex-M-Prozessorfamilie; dem von Cavium™, Inc. bereitgestellten ThunderX2® oder dergleichen. Bei manchen Implementierungen können der eine oder die mehreren Prozessoren 1752 ein Teil eines System-on-Chip (SoC), System-in-Package (SiP), eines Multi-Chip-Gehäuses (MCP) und/oder dergleichen sein, wobei der eine oder die mehreren Prozessoren 1752 und andere Komponenten in einer einzigen integrierten Schaltung oder einem einzigen Gehäuse, wie den Edison™- oder Galileo™-SoC-Platinen von der Intel® Corporation, gebildet sind. Andere Beispiele für den einen oder die mehreren Prozessoren 1752 sind an anderer Stelle in der vorliegenden Offenbarung erwähnt.
  • Der eine oder die mehreren Prozessoren 1752 können über eine Zwischenverbindung (IX) 1756 mit einem Systemspeicher 1754 kommunizieren. Eine beliebige Anzahl an Speichervorrichtungen kann verwendet werden, um eine gegebene Menge an Systemspeicher bereitzustellen. Als Beispiele kann der Speicher Direktzugriffsspeicher (RAM) in Übereinstimmung mit einem Design des Joint Electron Devices Engineering Council (JEDEC) sein, wie etwa den DDR- oder mobilen DDR-Standards (z. B. LPDDR, LPDDR2, LPDDR3 oder LPDDR4). In bestimmten Beispielen kann eine Arbeitsspeicherkomponente einen von JEDEC veröffentlichten DRAM-Standard erfüllen, wie JESD79F für DDR-SDRAM, JESD79-2F für DDR2-SDRAM, JESD79-3F für DDR3-SDRAM, JESD79-4A für DDR4-SDRAM, JESD209 für Niedrigenergie-DDR (LPDDR), JESD209-2 für LPDDR2, JESD209-3 für LPDDR3 und JESD209-4 für LPDDR4. Andere RAM-Typen, wie etwa dynamischer RAM (DRAM), synchroner DRAM (SDRAM) und/oder dergleichen, können ebenfalls enthalten sein. Solche Standards (und ähnliche Standards) können als DDR-basierte Standards bezeichnet werden, und Kommunikationsschnittstellen der Speichervorrichtungen, die solche Standards implementieren, können als DDR-basierte Schnittstellen bezeichnet werden. In verschiedenen Implementierungen können die einzelnen Speichereinrichtungen aus einer beliebigen Anzahl von verschiedenen Gehäusetypen sein, wie ein Ein-Die-Gehäuse (SDP), Doppel-Die-Gehäuse (DDP) oder Quad-Die-Gehäuse (Q17P). Diese Vorrichtungen können bei manchen Beispielen direkt auf eine Hauptplatine gelötet werden, um eine Lösung mit niedrigerem Profil bereitzustellen, während die Vorrichtungen bei anderen Beispielen als ein oder mehrere Speichermodule konfiguriert sind, die der Reihe nach durch einen gegebenen Verbinder mit der Hauptplatine gekoppelt sind. Eine beliebige Anzahl anderer Speicherimplementierungen kann verwendet werden, wie etwa andere Typen von Speichermodulen, z. B. Dual-Inline-Speichermodule (DIMMs) verschiedener Varianten, einschließlich unter anderem microDIMMs oder MiniDIMMs.
  • Um eine dauerhafte Speicherung von Informationen, wie etwa Daten, Anwendungen, Betriebssystemen und so weiter, bereitzustellen, kann eine Speicherung 1758 auch über die IX 1756 an den Prozessor 1752 gekoppelt sein. In einem Beispiel kann die Speicherung 1758 über ein Festkörperplattenlaufwerk (SSDD) und/oder einen elektrisch löschbaren Hochgeschwindigkeitsspeicher (allgemein als „Flashspeicher“ bezeichnet) implementiert sein. Andere Vorrichtungen, die für die Speicherung 1758 verwendet werden können, beinhalten Flash-Speicherkarten, wie etwa SD-Karten, microSD-Karten, eXtreme-Digital- (XD-) Bildkarten und dergleichen und USB-Flash-Laufwerke. In einem Beispiel kann die Speichervorrichtung Speichervorrichtungen sein oder umfassen, die Chalkogenidglas, NAND-Flash-Speicher mit mehreren Schwellenpegeln, NOR-Flash-Speicher, Phasenwechselspeicher (PCM) mit einer oder mehreren Ebenen, einen resistiven Speicher, einen Nanodrahtspeicher, einen ferroelektrischen Transistor-Direktzugriffsspeicher (FeTRAM), einen antiferroelektrischen Speicher, einen magnetoresistiven Direktzugriffsspeicher (MRAM), der Memristor-Technologie umfasst, einen Phasenwechsel-RAM (PRAM), einen resistiven Speicher auf Metalloxidbasis, Sauerstoffleerstellenbasis und Conductive-Brige-Direktzugriffsspeicher (CB-RAM) oder Spin-Transfer-Torque- bzw. STT-MRAM, eine Vorrichtung auf der Basis eines Spintronik-Speichers mit magnetischem Übergang, eine Vorrichtung auf der Basis eines magnetischen Tunnelübergangs (MTJ), eine Vorrichtung auf Domänenwand- und SOT- (Spin Orbit Transfer-) Basis, eine Speichervorrichtung Thyristorbasis oder eine Kombination beliebiger der vorstehenden oder anderen Speicher einsetzt. Die Speicherschaltungsanordnung 1754 und/oder die Speicherungsschaltungsanordnung 1758 können auch dreidimensionale (3D) Crosspoint-Speicher (XPOINT-Speicher) von Intel® und Micron® beinhalten.
  • In Niederleistungsimplementierungen kann die Speicherung 1758 On-Die-Speicher oder Register sein, die mit dem Prozessor 1752 assoziiert sind. Bei manchen Beispielen kann die Speicherung 1758 jedoch unter Verwendung eines Mikro-Festplattenlaufwerks (HDD) implementiert werden. Ferner kann eine beliebige Anzahl neuer Technologien für die Speicherung 1758 zusätzlich zu den, oder anstelle der, beschriebenen Technologien verwendet werden, wie etwa unter anderem Widerstandswechselspeicher, Phasenwechselspeicher, holografische Speicher oder chemische Speicher.
  • Die Komponenten der Edge-Computing-Vorrichtung 1750 können über ein Interconnect (IX) 1756 kommunizieren. Das IX 1756 kann eine beliebige geeignete Art von Verbindung oder Schnittstelle repräsentieren, wie etwa zum Beispiel Metall oder Metalllegierungen (z. B. Kupfer, Aluminium usw.), Faser und/oder dergleichen. Das IX 1756 kann eine beliebige Anzahl an IX-, Fabric- und/oder Schnittstellentechnologien beinhalten, einschließlich Befehlssatzarchitektur (ISA), erweiterte ISA (eISA), Inter-Integrated-Circuit (I2C), serielle Peripherieschnittstelle (SPI), Punkt-zu-Punkt-Schnittstellen, Leistungsverwaltungsbus (PMBus), Peripheral Component Interconnect (PCI), PCI express (PCIe), PCI extended (PCIx), Intel® Ultra Path Interconnect (UPI), Intel® Accelerator Link, Intel® QuickPath Interconnect (QPI), Intel® Omni-Path Architecture (OPA), Compute Express Link™ (CXL™) IX-Technologie, RapidIO™-IX, Coherent Accelerator Processor Interface (CAPI), OpenCAPI, Cache-kohärente Zwischenverbindung für Beschleuniger(CCIX), Gen-Z Consortium IXs, HyperTransport IXs, NVLink, bereitgestellt von NVIDIA®, eines Time-Trigger Protocol(TTP)-Systems, eines FlexRay-Systems, PROFIBUS, ARM® Advanced eXtensible Interface (AXI), ARM® Advanced Microcontroller Bus Architecture (AMBA) IX, HyperTransport, Infinity Fabric (IF) und/oder einer beliebigen Anzahl anderer IX-Technologien. Die IX 1756 kann ein proprietärer Bus sein, der zum Beispiel in einem SoC-basierten System verwendet wird.
  • Die IX 1756 koppelt den Prozessor 1752 mit einer Kommunikationsschaltungsanordnung 1766 zur Kommunikation mit anderen Vorrichtungen, wie etwa einem entfernten Server (nicht gezeigt) und/oder den angebundenen Edge-Vorrichtungen 1762. Die Kommunikationsschaltungsanordnung 1766 ist ein Hardwareelement oder eine Sammlung von Hardwareelementen, das/die zum Kommunizieren über ein oder mehrere Netzwerke (z. B. die Cloud 1763) und/oder mit anderen Vorrichtungen (z. B. den Edge-Vorrichtungen 1762) verwendet wird/werden.
  • Der Sendeempfänger 1766 kann eine beliebige Anzahl von Frequenzen und Protokollen verwenden, wie etwa unter anderem Übertragungen auf 2,4 Gigahertz (GHz) unter dem IEEE 802.15.4-Standard unter Verwendung des Bluetooth®-Niederenergie(BLE)-Standards, wie durch die Bluetooth® Special Interest Group definiert, oder des ZigBee®-Standards. Eine beliebige Anzahl von Funkgeräten, die für ein bestimmtes Drahtloskommunikationsprotokoll konfiguriert sind, kann für die Verbindungen mit den verbundenen Edge-Vorrichtungen 1762 verwendet werden. Zum Beispiel kann eine drahtlose Lokalbereichsnetzwerk- bzw. WLAN-Einheit verwendet werden, um Wi-Fi®-Kommunikationen gemäß dem 802.11-Standard des Institute of Electrical and Electronic Engineers (IEEE) zu implementieren. Außerdem können Funkfernnetzkommunikationen, z. B. in Übereinstimmung mit einem Mobilfunk- oder anderen Funkfernnetzprotokoll über eine Funkfernnetz- (WWAN-) Einheit stattfinden.
  • Der Drahtlosnetzwerk-Sendeempfänger 1766 (oder mehrere Sendeempfänger) kann unter Verwendung mehrerer Standards oder Funkgeräte für Kommunikationen in einer anderen Reichweite kommunizieren. Zum Beispiel kann der Rechenknoten 1750 mit nahen Vorrichtungen, z. B. innerhalb von etwa 10 Metern, unter Verwendung eines lokalen Sendeempfängers basierend auf BLE oder eines anderen Niederleistungsfunkgeräts kommunizieren, um Leistung zu sparen. Weiter entfernte verbundene Edge-Vorrichtungen 1762, z. B. innerhalb von etwa 50 Metern, können über ZigBee® oder andere Zwischenleistungsfunkgeräte erreicht werden. Beide Kommunikationstechniken können über ein einziges Funkgerät mit unterschiedlichen Leistungspegeln stattfinden oder können über separate Sendeempfänger stattfinden, zum Beispiel einen lokalen Sendeempfänger, der BLE verwendet, und einen separaten Mesh-Sendeempfänger, der ZigBee® verwendet.
  • Ein Drahtlosnetzwerksendeempfänger 1766 (z. B. ein Funksendeempfänger) kann enthalten sein, um mit Vorrichtungen oder Diensten in der Edge-Cloud 1763 über Lokal- oder Weitbereichsnetzwerkprotokolle zu kommunizieren. Der Drahtlosnetzwerk-Sendeempfänger 1766 kann unter anderem ein LPWA-Sendeempfänger sein, der den Standards IEEE 802.15.4 oder IEEE 802.15.4g folgt. Der Rechenknoten 1763 kann über einen weiten Bereich unter Verwendung von LoRaWAN™ (Long Range Wide Area Network) kommunizieren, das von Semtech und der LoRa Alliance entwickelt wird. Die hierin beschriebenen Techniken sind nicht auf diese Technologien beschränkt, sondern können mit einer beliebigen Anzahl von anderen Cloud-Sendeempfängern verwendet werden, die Kommunikationen mit großer Reichweite und niedriger Bandbreite implementieren, wie etwa Sigfox und andere Technologien. Ferner können andere Kommunikationstechniken verwendet werden, wie etwa Zeitschlitz-Kanalspringen, das in der IEEE 802.15.4e-Spezifikation beschrieben ist.
  • Eine beliebige Anzahl anderer Funkkommunikationen und Protokolle kann zusätzlich zu den Systemen verwendet werden, die für den hierin beschriebenen Drahtlosnetzwerk-Sendeempfänger 1766 erwähnt wurden. Der Sendeempfänger 1766 kann zum Beispiel einen zellbasierten Sendeempfänger beinhalten, der Kommunikationen mit gespreiztem Spektrum (SPA/SAS-Kommunikationen) zum Umsetzen von Hochgeschwindigkeitskommunikationen verwendet. Ferner kann eine beliebige Anzahl anderer Protokolle verwendet werden, wie etwa WiFi®-Netzwerke für Kommunikationen mittlerer Geschwindigkeit und Bereitstellung von Netzkommunikationen. Der Sendeempfänger 1766 kann Funkgeräte beinhalten, die mit einer beliebigen Anzahl von 3GPP-Spezifikationen kompatibel sind, wie etwa LTE- und 5G/NR-Kommunikationssystemen, die am Ende der vorliegenden Offenbarung ausführlicher besprochen werden. Eine Netzwerkschnittstellensteuerung (NIC) 1768 kann enthalten sein, um eine drahtgebundene Kommunikation zu Knoten der Edge-Cloud 1763 oder zu anderen Vorrichtungen bereitzustellen, wie etwa den angebundenen Edge-Vorrichtungen 1762 (die z. B. in einem vermaschten Netz arbeiten). Die drahtgebundene Kommunikation kann eine Ethernet-Verbindung bereitstellen oder kann auf anderen Arten von Netzwerken basieren, wie etwa Controller Area Network (CAN), Local Interconnect Network (LIN), DeviceNet, ControlNet, Data Highway+ oder PROFINET unter vielen anderen. Eine zusätzliche NIC 1768 kann enthalten sein, um das Verbinden mit einem zweiten Netzwerk zu ermöglichen, wobei zum Beispiel eine erste NIC 1768 Kommunikationen mit der Cloud über Ethernet bereitstellt und eine zweite NIC 1768 Kommunikationen mit anderen Vorrichtungen über einen anderen Typ von Netzwerk bereitstellt.
  • Angesichts der Vielfalt von Typen anwendbarer Kommunikationen von der Vorrichtung zu einer anderen Komponente oder einem anderen Netzwerk kann eine anwendbare Kommunikationsschaltungsanordnung, die von der Vorrichtung verwendet wird, eine beliebige oder mehrere beliebige der Komponenten 1764, 1766, 1768 oder 1770 beinhalten oder durch diese ausgebildet sein. Dementsprechend können in verschiedenen Beispielen anwendbare Mittel zum Kommunizieren (z. B. Empfangen, Senden usw.) durch eine derartige Kommunikationsschaltungsanordnung ausgebildet sein.
  • Der Rechenknoten 1750 kann eine Beschleunigungsschaltungsanordnung 1764 beinhalten oder mit dieser gekoppelt sein, die durch einen oder mehrere KI-Beschleuniger, einen neuronalen Rechenstick, neuromorphe Hardware, ein FPGA, eine Anordnung von GPUs, einen oder mehrere SoCs (einschließlich programmierbarer SoCs), eine oder mehrere CPUs, einen oder mehrere Digitalsignalprozessoren, dedizierte ASICs (einschließlich programmierbarer ASICs), PLDs, wie etwa CPLDs oder HCPLDs, und/oder andere Formen spezialisierter Prozessoren oder Schaltungsanordnung, die zum Erfüllen einer oder mehrerer spezialisierter Aufgaben ausgelegt sind, umgesetzt werden können. Diese Aufgaben können KI-Verarbeitung (einschließlich Maschinenlern-, Trainings-, Inferenz- und Klassifizierungsoperationen), visuelle Datenverarbeitung, Netzdatenverarbeitung, Objektdetektion, Regelanalyse oder dergleichen beinhalten. Bei FPGA-basierten Implementierungen kann die Beschleunigungsschaltungsanordnung 1764 Logikblöcke oder Logik-Fabric und andere miteinander verbundene Ressourcen umfassen, die dazu programmiert (konfiguriert) sein können, verschiedene Funktionen durchzuführen, wie etwa die hier besprochenen Prozeduren, Verfahren, Funktionen usw. Bei solchen Implementierungen kann die Beschleunigungsschaltungsanordnung 1764 auch Speicherzellen (z. B. EPROM, EEPROM, Flash-Speicher, statischen Speicher (z. B. SRAM, Anti-Fuses usw.) beinhalten, die zum Speichern von Logikblöcken, Logik-Fabric, Daten usw. in LUTs und dergleichen verwendet werden.
  • Die IX 1756 koppelt auch den Prozessor 1752 an einen Sensor-Hub oder eine externe Schnittstelle 1770, der bzw. die zum Verbinden zusätzlicher Vorrichtungen oder Teilsysteme verwendet wird. Die zusätzlichen/externen Vorrichtungen können Sensoren 1772, Aktuatoren 1774 und eine Positionierungsschaltungsanordnung 1775 beinhalten.
  • Die Sensorschaltungsanordnung 1772 beinhaltet Vorrichtungen, Module oder Teilsysteme, deren Zweck es ist, Ereignisse oder Änderungen in ihrer Umgebung zu detektieren und die Informationen (Sensordaten) über die detektierten Ereignisse an eine andere Vorrichtung, ein anderes Modul, ein anderes Teilsystem usw. zu senden. Beispiele für solche Sensoren 1772 beinhalten unter anderem Trägheitsmesseinheiten (IMU), die Beschleunigungsmesser, Gyroskope und/oder Magnetometer umfassen; mikroelektromechanische Systeme (MEMS) oder nanoelektromechanische Systeme (NEMS), die 3-Achsen-Beschleunigungsmesser, 3-Achsen-Gyroskope und/oder Magnetometer umfassen; Niveausensoren; Durchflusssensoren; Temperatursensoren (z. B. Thermistoren, die Sensoren zum Messen der Temperatur interner Komponenten und Sensoren zum Messen einer Temperatur außerhalb des Rechenknotens 1750 beinhalten); Drucksensoren; barometrische Drucksensoren; Gravimeter; Höhenmesser; Bildaufnahmevorrichtungen (z. B. Kameras); Lichtdetektions- und Entfernungsmesssensoren (LiDAR-Sensoren); Näherungssensoren (z. B. einen Infrarotstrahlungsdetektor und dergleichen); Tiefensensoren, Umgebungslichtsensoren; optische Lichtsensoren; Ultraschallsendeempfänger; Mikrofone und dergleichen.
  • Die Aktuatoren 1774 ermöglichen es der Plattform 1750, ihren Zustand, ihre Position und/oder ihre Orientierung zu ändern oder einen Mechanismus oder ein System zu bewegen oder zu steuern. Die Aktuatoren 1774 umfassen elektrische und/oder mechanische Vorrichtungen zum Bewegen oder Steuern eines Mechanismus oder Systems und wandeln Energie (z. B. elektrischen Strom oder sich bewegende Luft und/oder Flüssigkeit) in irgendeine Art von Bewegung um. Die Aktuatoren 1774 können eine oder mehrere elektronische (oder elektrochemische) Vorrichtungen beinhalten, wie etwa piezoelektrische Biomorphe, Festkörperaktuatoren, Festkörperrelais (SSRs), Aktuatoren auf Basis einer Formgedächtnislegierung, Aktuatoren auf Basis eines elektroaktiven Polymers, integrierte Relaistreiberschaltungen (Relaistreiber-ICs) und/oder dergleichen. Die Aktuatoren 1774 können eine oder mehrere elektromechanische Vorrichtungen beinhalten, wie etwa pneumatische Aktuatoren, hydraulische Aktuatoren, elektromechanische Schalter einschließlich elektromechanischer Relais (EMRs), Motoren (z. B. Gleichstrommotoren, Schrittmotoren, Servomechanismen usw.), Leistungsschalter, Ventilaktuatoren, Räder, Triebwerke, Propeller, Klauen, Klemmen, Haken, Hörschallgeneratoren, visuelle Warnvorrichtungen und/oder andere ähnliche elektromechanische Komponenten. Die Plattform 1750 kann dazu konfiguriert sein, einen oder mehrere Aktoren 1774 basierend auf einem oder mehreren erfassten Ereignissen und/oder Anweisungen oder Steuersignalen, die von einem Dienstanbieter und/oder verschiedenen Client-Systemen empfangen werden, zu betreiben.
  • Die Positionierungsschaltungsanordnung 1775 beinhaltet eine Schaltungsanordnung zum Empfangen und Decodieren von Signalen, die durch ein Positionierungsnetzwerk eines globalen Navigationssatellitensystems (GNSS) übertragen/rundgesendet werden. Beispiele für Navigationssatellitenkonstellationen (oder GNSS) beinhalten das globale Positionierungssystem (GPS) der Vereinigten Staaten, das globale Navigationssystem (GLONASS) Russlands, das Galileo-System der Europäischen Union, das Navigationssatellitensystem BeiDou Chinas, ein regionales Navigationssystem oder GNSS-Erweiterungssystem (z. B. Navigation with Indian Constellation (NAVIC), Quasi-Zenit-Satellite-System (QZSS) Japans, Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS) Frankreichs usw.) oder dergleichen. Die Positionierungsschaltungsanordnung 1775 umfasst verschiedene Hardwareelemente (z. B. einschließlich Hardwarevorrichtungen, wie etwa Schalter, Filter, Verstärker, Antennenelemente und dergleichen, um OTA-Kommunikationen zu ermöglichen), um mit Komponenten eines Positionierungsnetzwerks, wie etwa Navigationssatellitenkonstellationsknoten, zu kommunizieren. Zusätzlich oder alternativ kann die Positionierungsschaltungsanordnung 1775 eine Micro-PNT-IC (Mikrotechnologie für Positionierung, Navigation und Timing) beinhalten, die einen primären Timing-Takt verwendet, um eine Positionsverfolgung/-schätzung ohne GNSS-Unterstützung durchzuführen. Die Positionierungsschaltungsanordnung 1775 kann auch Teil der Kommunikationsschaltungsanordnung 1766 sein oder mit dieser interagieren, um mit den Knoten und Komponenten des Positionierungsnetzwerks zu kommunizieren. Die Positionierungsschaltungsanordnung 1775 kann auch Positionsdaten und/oder Zeitdaten an die Anwendungsschaltungsanordnung liefern, die die Daten verwenden kann, um Operationen mit verschiedenen Infrastrukturen (z. B. Funkbasisstationen) zur Navigation mit Routenführung oder dergleichen zu synchronisieren. Wenn kein GNSS-Signal verfügbar ist oder wenn die GNSS-Positionsgenauigkeit für eine bestimmte Anwendung oder einen bestimmten Dienst nicht ausreicht, kann eine Positionierungserweiterungstechnologie verwendet werden, um erweiterte Positionierungsinformationen und -daten an die Anwendung oder den Dienst bereitzustellen. Eine derartige Positionierungserweiterungstechnologie kann zum Beispiel satellitenbasierte Positionierungserweiterung (z. B. EGNOS) und/oder bodenbasierte Positionierungserweiterung (z. B. DGPS) beinhalten. In manchen Implementierungen ist oder beinhaltet die Positionierungsschaltungsanordnung 1775 ein INS, das ein System oder eine Vorrichtung ist, das/die eine Sensorschaltungsanordnung 1772 (zum Beispiel Bewegungssensoren, wie etwa Beschleunigungsmesser, Rotationssensoren, wie etwa Gyroskope, und Höhenmesser, Magnetsensoren, und/oder dergleichen) verwendet, um (zum Beispiel unter Verwenden von Koppelnavigation, Triangulation oder dergleichen) eine Position, Orientierung und/oder Geschwindigkeit (einschließlich Richtung und Geschwindigkeit der Bewegung) der Plattform 1750 ohne die Notwendigkeit externer Referenzen kontinuierlich zu berechnen.
  • Bei manchen optionalen Beispielen können verschiedene Eingabe/Ausgabe- bzw. E/A-Vorrichtungen innerhalb des Rechenknotens 1750 vorhanden oder mit diesem verbunden sein, die in 17 als Eingabeschaltungsanordnung 1786 und Ausgabeschaltungsanordnung 1784 bezeichnet werden. Die Eingabeschaltungsanordnung 1786 und die Ausgabeschaltungsanordnung 1784 beinhalten eine oder mehrere Benutzerschnittstellen, die konfiguriert sind, um eine Benutzerinteraktion mit der Plattform 1750 zu ermöglichen, und/oder Peripheriekomponentenschnittstellen, die konfiguriert sind, um eine Peripheriekomponenteninteraktion mit der Plattform 1750 zu ermöglichen. Die Eingabeschaltungsanordnung 1786 kann ein beliebiges physisches oder virtuelles Mittel zum Annehmen einer Eingabe beinhalten, einschließlich unter anderem einer oder mehrerer physischer oder virtueller Tasten (z. B. einer Rücksetztaste), einer physischen Tastatur, eines Tastenfelds, einer Maus, eines Touchpads, eines Touchscreens, Mikrofonen, eines Scanners, eines Headsets und/oder dergleichen. Die Ausgabeschaltungsanordnung 1784 kann enthalten sein, um Informationen zu zeigen oder anderweitig Informationen zu übermitteln, wie Sensorlesewerte, eine oder mehrere Aktuatorpositionen oder andere ähnliche Informationen. Daten und/oder Grafiken können auf einer oder mehreren Benutzeroberflächenkomponenten der Ausgabeschaltungsanordnung 1784 angezeigt werden. Die Ausgabeschaltungsanordnung 1784 kann eine beliebige Anzahl und/oder Kombinationen einer Audio- oder visuellen Anzeige umfassen, einschließlich unter anderem einer/eines oder mehrerer einfacher visueller Ausgaben/Indikatoren (z. B. binärer Statusindikatoren (z. B. Leuchtdioden (LEDs)) und visueller Mehrzeichenausgaben oder komplexerer Ausgaben, wie etwa Anzeigevorrichtungen oder Touchscreens (z. B. Flüssigkristallanzeigen (LCD), LED-Anzeigen, Quantenpunktanzeigen, Projektoren usw.), wobei die Ausgabe von Zeichen, Grafiken, Multimediaobjekten und dergleichen aus dem Betrieb der Plattform 1750 erzeugt oder produziert wird. Die Ausgabeschaltungsanordnung 1784 kann auch Lautsprecher oder andere audioemittierende Vorrichtungen, einen oder mehrere Drucker und/oder dergleichen beinhalten. Zusätzlich oder alternativ dazu kann die Sensorschaltungsanordnung 1772 als die Eingabeschaltungsanordnung 1784 (z. B. eine Bilderfassungsvorrichtung, Bewegungserfassungsvorrichtung oder dergleichen) verwendet werden, und ein oder mehrere Aktoren 1774 können als die Ausgabevorrichtungsschaltungsanordnung 1784 (z. B. ein Aktuator zum Bereitstellen einer haptischen Rückmeldung oder dergleichen) verwendet werden. In einem anderen Beispiel kann eine Nahfeldkommunikations- bzw. NFC-Schaltungsanordnung, die eine NFC-Steuerung umfasst, die mit einem Antennenelement und einer Verarbeitungsvorrichtung gekoppelt ist, enthalten sein, um elektronische Tags zu lesen und/oder eine Verbindung mit einer anderen NFC-fähigen Vorrichtung herzustellen. Peripheriekomponentenschnittstellen können unter anderem einen nichtflüchtigen Speicheranschluss, einen USB-Anschluss, eine Audio-Buchse, eine Stromversorgungsschnittstelle usw. umfassen. Eine Anzeige- oder Konsolenhardware kann im Kontext des vorliegenden Systems verwendet werden, um Ausgaben bereitzustellen und Eingaben eines Edge-Computing-Systems zu empfangen; Komponenten oder Dienste eines Edge-Computing-Systems zu verwalten; einen Zustand einer Edge-Computing-Komponente oder eines Edge-Computing-Dienstes zu identifizieren; oder eine beliebige andere Anzahl von Management- oder Verwaltungsfunktionen oder Dienstanwendungsfällen durchzuführen.
  • Eine Batterie 1776 kann den Rechenknoten 1750 mit Leistung versorgen, obwohl er bei Beispielen, bei denen der Rechenknoten 1750 an einem festen Ort montiert ist, eine Leistungsversorgung aufweisen kann, die mit einem Stromnetz gekoppelt ist, oder die Batterie als Backup oder für temporäre Fähigkeiten verwendet werden kann. Die Batterie 1776 kann eine Lithiumionenbatterie oder eine Metall-Luft-Batterie, wie etwa eine Zink-Luft-Batterie, eine Aluminium-Luft-Batterie, eine Lithium-Luft-Batterie und dergleichen, sein.
  • Eine Batterieüberwachungs-/-ladevorrichtung 1778 kann in dem Rechenknoten 1750 enthalten sein, um den Ladezustand (SoCh) der Batterie 1776, falls enthalten, zu verfolgen. Die Batterieüberwachungs-/-ladevorrichtung 1778 kann verwendet werden, um andere Parameter der Batterie 1776 zu überwachen, um Ausfallvorhersagen bereitzustellen, wie etwa den Gesundheitszustand (SoH) und den Funktionszustand (SoF) der Batterie 1776. Die Batterieüberwachungs-/-ladevorrichtung 1778 kann eine integrierte Batterieüberwachungsschaltung beinhalten, wie etwa einen LTC4020 oder einen LTC2990 von Linear Technologies, einen ADT7488A von ON Semiconductor in Phoenix, Arizona, oder einen IC der UCD90xxx-Familie von Texas Instruments in Dallas, TX. Die Batterieüberwachungs-/- ladevorrichtung 1778 kann die Informationen über die Batterie 1776 über die IX 1756 an den Prozessor 1752 kommunizieren. Die Batterieüberwachungs-/-ladevorrichtung 1778 kann auch einen Analog-Digital-Wandler (ADC) beinhalten, der es dem Prozessor 1752 ermöglicht, die Spannung der Batterie 1776 oder den Stromfluss von der Batterie 1776 direkt zu überwachen. Die Batterieparameter können verwendet werden, um Aktionen zu bestimmen, die der Rechenknoten 1750 durchführen kann, wie etwa Übertragungsfrequenz, Mesh-Netzwerkoperation, Erfassungsfrequenz und dergleichen.
  • Ein Leistungsblock 1780 oder eine andere Leistungsversorgung, die an ein Stromnetz gekoppelt ist, kann mit der Batterieüberwachungs-/-ladevorrichtung 1778 gekoppelt werden, um die Batterie 1776 zu laden. Bei manchen Beispielen kann der Leistungsblock 1780 durch einen Drahtlosleistungsempfänger ersetzt werden, um die Leistung drahtlos, zum Beispiel über eine Schleifenantenne in dem Rechenknoten 1750, zu erhalten. Eine Drahtlosbatterieladeschaltung, wie unter anderem ein LTC4020-Chip von Linear Technologies aus Milpitas, Kalifornien, kann in der Batterieüberwachungs-/-ladevorrichtung 1778 enthalten sein. Die spezifischen Ladeschaltungen können basierend auf der Größe der Batterie 1776 und somit dem erforderlichen Strom ausgewählt werden. Das Laden kann unter anderem unter Verwendung des von der Airfuel Alliance veröffentlichten Airfuel-Standards, des von dem Wireless Power Consortium veröffentlichten Qi-Ladestandards oder des von der Alliance for Wireless Power veröffentlichten Rezence-Ladestandards durchgeführt werden.
  • Die Speicherung 1758 kann Anweisungen 1783 in Form von Software-, Firmware- oder Hardwarebefehlen enthalten, um die hierin beschriebenen Techniken zu implementieren. Obwohl solche Anweisungen 1782, 1783 als Codeblöcke gezeigt sind, die in dem Speicher 1754 und der Speicherung 1758 enthalten sind, können beliebige der Codeblöcke 1782, 1783 durch festverdrahtete Schaltungen ersetzt werden, die zum Beispiel in eine anwendungsspezifische integrierte Schaltung (ASIC) eingebaut oder in ein FPGA programmiert werden oder dergleichen.
  • Bei einem Beispiel können die Anweisungen 1781, 1782, 1783, die über den Speicher 1754, die Speicherung 1758 oder den Prozessor 1752 bereitgestellt werden, als ein nichtflüchtiges maschinenlesbares Medium (NTMRM) 1760 umgesetzt sein, das Code beinhaltet, um den Prozessor 1752 anzuweisen, elektronische Operationen in dem Rechenknoten 1750 durchzuführen. Der Prozessor 1752 kann über das IX 1756 auf das NTMRM 1760 zugreifen. Beispielsweise kann das NTMRM 1760 durch Vorrichtungen umgesetzt werden, die für die Speicherung 1758 beschrieben sind, oder kann spezifische Speicherungseinheiten beinhalten, wie etwa Speicherungsvorrichtungen und/oder Speicherungsplatten, die optische Platten (z. B. Digital Versatile Disk (DVD), Compact Disk (CD), CD-ROM, Blu-Ray-Disk), Flash-Laufwerke, Disketten, Festplatten (z. B. SSDs) oder eine beliebige Anzahl anderer Hardwarevorrichtungen beinhalten, in denen Informationen für eine beliebige Dauer (z. B. für längere Zeiträume, permanent, für kurze Fälle, zum temporären Puffern und/oder Zwischenspeichern) gespeichert sind. Das NTMRM 1760 kann Anweisungen beinhalten, um den Prozessor 1752 anzuweisen, eine spezifische Sequenz oder einen spezifischen Fluss von Aktionen durchzuführen, wie zum Beispiel mit Bezug auf das (die) Flussdiagramm(e) und Blockdiagramm(e) von Operationen und Funktionalität, die oben dargestellt sind, beschrieben. Wie hierin verwendet, sind die Begriffe „maschinenlesbares Medium“ und „computerlesbares Medium“ austauschbar. Wie hier verwendet, ist der Begriff nicht-flüchtiges computerlesbares Medium ausdrücklich definiert, alle Typen von computerlesbarer Speichervorrichtung und/oder Speicherplatte zu beinhalten und sich ausbreitende Signale auszuschließen und Übertragungsmedien auszuschließen.
  • Computerprogrammcode zum Ausführen von Operationen der vorliegenden Offenbarung (z. B. Rechenlogik und/oder Anweisungen 1781, 1782, 1783) können in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, die Folgendes beinhalten: eine objektorientierte Programmiersprache, wie etwa Python, Ruby, Scala, Smalltalk, Java™, C++, C# oder dergleichen; eine prozedurale Programmiersprache, wie etwa die Programmiersprache „C“, die Programmiersprache Go (oder „Gelang“) oder dergleichen; eine Skriptsprache, wie etwa JavaScript, Server-Side JavaScript (SSJS), JQuery, PHP, Pearl, Python, Ruby on Rails, Accelerated Mobile Pages Script (AMPskript), Mustache Template Language, Handlebar Template Language, Guide Template Language (GTL), PHP, Java und/oder Java Server Pages (JSP), Node.js, ASP.NET, JAMskript und/oder dergleichen; eine Markup-Sprache, wie etwa Hypertext Markup Language (HTML), Extensible Markup Language (XML), Java Script Object Notion (JSON), Apex®, Cascading Stylesheets (CSS), JavaServer Pages (JSP), MessagePack™, Apache® Thrift, Abstract Syntax Notation One (ASN. 1), Google® Protocol Buffers (protobuf) oder dergleichen; manche andere geeignete Programmiersprachen, einschließlich proprietärer Programmiersprachen und/oder Entwicklungswerkzeuge, oder beliebige andere Sprachwerkzeuge. Der Computerprogrammcode 1781, 1782, 1783 zum Ausführen von Operationen der vorliegenden Offenbarung kann auch in einer beliebigen Kombination der hier besprochenen Programmiersprachen geschrieben werden. Der Programmcode kann vollständig auf dem System 1750, teilweise auf dem System 1750, als ein eigenständiges Softwarepaket, teilweise auf dem System 1750 und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Szenario kann der ferne Computer über eine beliebige Art von Netzwerk, einschließlich eines LAN oder WAN, mit dem System 1750 verbunden sein, oder die Verbindung kann mit einem externen Computer (z. B. über das Internet unter Verwendung eines Internetdienstanbieters) hergestellt werden.
  • Bei einem Beispiel können die Anweisungen 1781, 1782, 1783 auf der Prozessorschaltungsanordnung 1752 (separat oder in Kombination mit den Anweisungen 1781, 1782, 1783) die Ausführung oder Operation einer vertrauenswürdigen Ausführungsumgebung (TEE) 1790 konfigurieren. Die TEE 1790 arbeitet als ein geschützter Bereich, der für die Prozessorschaltungsanordnung 1702 zugänglich ist, um einen sicheren Zugriff auf Daten und eine sichere Ausführung von Anweisungen zu ermöglichen. Bei manchen Ausführungsformen kann die TEE 1790 eine physische Hardwarevorrichtung sein, die von anderen Komponenten des Systems 1750 getrennt ist, wie eine sicher eingebettete Steuerung, ein dediziertes SoC oder ein manipulationssicherer Chipsatz oder Mikrocontroller mit eingebetteten Verarbeitungsvorrichtungen und Speichervorrichtungen. Beispiele für solche Ausführungsformen beinhalten Desktop-and-mobile-Architecture-Hardware(DASH)-konforme Netzwerkschnittstellenkarte (NIC), Intel® Management/Manageability Engine, Intel® Converged Security Engine (CSE) oder Converged Security Management/Manageability Engine (CSME), Trusted Execution Engine (TXE), bereitgestellt von Intel®, welche jeweils zusammen mit Intel® Active Management Technology (AMT) und/oder Intel® vPro™ Technology betrieben werden können; AMD® Platform Security coProcessor (PSP), AMD® PRO A-Series Accelerated Processing Unit (APU) mit DASH-Verwaltbarkeit, Apple® Secure Enclave-Coprozessor; IBM® Crypto Express3®, IBM® 4807, 4808, 4809 und/oder 4765 Cryptographic Coprocessors, IBM® Baseboard Management Controller (BMC) mit Intelligent Platform Management Interface (IPMI), Dell™ Remote Assistant Card II (DRAC II), integrated Dell™ Remote Assistant Card (iDRAC) und dergleichen.
  • Zusätzlich oder alternativ dazu kann die TEE 1790 als sichere Enklaven implementiert sein, die isolierte Code- und/oder Datengebiete innerhalb des Prozessors und/oder der Speicher-/Speicherungsschaltungsanordnung des Systems 1750 sind. Nur Code, der innerhalb einer sicheren Enklave ausgeführt wird, kann auf Daten innerhalb derselben sicheren Enklave zugreifen, und die sichere Enklave kann nur unter Verwendung der sicheren Anwendung zugänglich sein (die durch einen Anwendungsprozessor oder einen manipulationssicheren Mikrocontroller implementiert werden kann). Verschiedene Implementierungen der TEE 1790 und eines begleitenden sicheren Bereichs in der Prozessorschaltungsanordnung 1752 oder der Speicherschaltungsanordnung 1754 und/oder der Speicherschaltungsanordnung 1758 können beispielsweise durch Verwendung von Intel® Software Guard Extensions (SGX), ARM®-TrustZone®-Hardwaresicherheitserweiterungen, Keystone Enclaves, die durch Oasis Labs™ bereitgestellt werden, und/oder dergleichen bereitgestellt werden. Andere Aspekte von Sicherheitshärtung, Hardware-Vertrauenswurzeln und vertrauenswürdigen oder geschützten Operationen können in der Vorrichtung 1700 durch die TEE 1790 und die Prozessorschaltungsanordnung 1752 implementiert werden. Zusätzlich oder alternativ dazu können die Speicherschaltungsanordnung 1754 und/oder die Speicherschaltungsanordnung 1758 in isolierte Benutzerrauminstanzen, wie etwa Container, Partitionen, virtuelle Umgebungen (VEs) usw., unterteilt werden. Die isolierten Benutzerrauminstanzen können unter Verwendung einer geeigneten Virtualisierungstechnologie auf OS-Ebene implementiert werden, wie etwa Docker®-Container, Kubernetes®-Container, Solaris®-Container und/oder -Zonen, virtuelle OpenVZ®-Privatserver, virtuelle DragonFly-BSD®-Kernels und/oder -Jails, Chroot-Jacils und/oder dergleichen. Bei manchen Implementierungen könnten auch virtuelle Maschinen verwendet werden. In einigen Ausführungsformen können die Speicherschaltungsanordnung 1704 und/oder die Speicherschaltungsanordnung 1708 in ein oder mehrere vertrauenswürdige Speichergebiete zum Speichern von Anwendungen oder Softwaremodulen der TEE 1790 unterteilt werden.
  • In weiteren Beispielen beinhaltet ein maschinenlesbares Medium ein beliebiges greifbares Medium, das dazu in der Lage ist, Anweisungen zur Ausführung durch eine Maschine zu speichern, zu codieren oder zu tragen, welche bewirken, dass die Maschine eine oder mehrere der Methodologien der vorliegenden Offenbarung durchführt, oder das dazu in der Lage ist, Datenstrukturen, die durch solche Anweisungen genutzt werden oder mit diesen assoziiert sind, zu speichern, zu codieren oder zu tragen. Ein „maschinenlesbares Medium“ kann dementsprechend unter anderem Festkörperspeicher und optische und magnetische Medien beinhalten. Spezielle Beispiele von maschinenlesbaren Medien umfassen nicht-flüchtigen Speicher, umfassend, aber nicht beschränkt auf, in Form von Beispielen, Halbleiterspeichervorrichtungen (z. B. elektrisch programmierbaren Nur-Lese-Speicher (EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM)) und Flash-Speichervorrichtungen; Magnetplatten, wie etwa interne Festplatten und herausnehmbare Platten; magneto-optische Platten; und CD-ROM- sowie DVD-ROM-Disks. Die durch ein maschinenlesbares Medium verkörperten Anweisungen können ferner über ein Kommunikationsnetzwerk unter Verwendung eines Übertragungsmediums über eine Netzwerkschnittstelleneinrichtung übertragen oder empfangen werden, die ein beliebiges einer Anzahl von Übertragungsprotokollen (z. B. HTTP) nutzt.
  • Ein maschinenlesbares Medium kann durch eine Speichervorrichtung oder eine andere Einrichtung bereitgestellt sein, die in der Lage ist, Daten in einem nichtflüchtigen Format zu hosten. In einem Beispiel können auf einem maschinenlesbaren Medium gespeicherte oder anderweitig bereitgestellte Informationen Anweisungen repräsentieren, wie etwa Anweisungen selbst oder ein Format, aus dem die Anweisungen abgeleitet werden können. Dieses Format, aus dem die Anweisungen abgeleitet werden können, kann Quellcode, codierte Anweisungen (z. B. in komprimierter oder verschlüsselter Form), verpackte Anweisungen (z. B. in mehrere Pakete aufgeteilt) oder dergleichen beinhalten. Die Informationen, die Anweisungen in dem maschinenlesbaren Medium repräsentieren, können durch eine Verarbeitungsschaltungsanordnung zu den Anweisungen verarbeitet werden, um beliebige der vorliegend besprochenen Operationen zu implementieren. Zum Beispiel kann das Ableiten der Anweisungen aus den Informationen (z. B. Verarbeiten durch die Verarbeitungsschaltungsanordnung) Folgendes beinhalten: Kompilieren (z. B. aus Quellcode, Objektcode usw.), Interpretieren, Laden, Organisieren (z. B. dynamisches oder statisches Linken), Codieren, Decodieren, Verschlüsseln, Entschlüsseln, Verpacken, Entpacken oder anderweitiges Manipulieren der Informationen in die Anweisungen.
  • In einem Beispiel kann das Ableiten der Anweisungen Assemblieren, Kompilieren oder Interpretieren der Informationen (z. B. durch die Verarbeitungsschaltungsanordnung) beinhalten, um die Anweisungen aus irgendeinem Zwischenformat oder irgendeinem vorverarbeiteten Format zu erzeugen, das durch das maschinenlesbare Medium bereitgestellt wird. Die Informationen können, wenn sie in mehreren Teilen bereitgestellt werden, kombiniert, entpackt und modifiziert werden, um die Anweisungen zu erzeugen. Die Informationen können sich zum Beispiel in mehreren komprimierten Quellcodepaketen (oder Objektcode oder ausführbarem Binär-Code usw.) auf einem oder mehreren Fernservern befinden. Die Quellcodepakete können verschlüsselt sein, wenn sie über ein Netzwerk übertragen werden, und können an einer lokalen Maschine falls notwendig entschlüsselt, dekomprimiert, zusammengesetzt (z. B. verknüpft) und kompiliert oder interpretiert (z. B. in eine Bibliothek, alleinstehende ausführbare Datei usw.) werden und durch die lokale Maschine ausgeführt werden.
  • 17 stellt eine Ansicht auf hoher Ebene von Komponenten einer variierenden Vorrichtung, eines variierenden Teilsystems oder einer variierenden Anordnung eines Rechenknotens dar. Jedoch können manche der gezeigten Komponenten weggelassen werden, können zusätzliche Komponenten vorhanden sein und kann eine andere Anordnung der gezeigten Komponenten bei anderen Implementierungen auftreten. Ferner sind diese Anordnungen in einer Vielzahl von Anwendungsfällen und Umgebungen verwendbar, einschließlich jener, die unten erörtert werden (z. B. ein mobiles UE beim industriellen Rechnen für Smart Cities oder intelligente Fabriken, unter vielen anderen Beispielen).
  • 17 stellt eine Ansicht auf hoher Ebene von Komponenten einer variierenden Vorrichtung, eines variierenden Teilsystems oder einer variierenden Anordnung eines Rechenknotens dar. Jedoch können manche der gezeigten Komponenten weggelassen werden, können zusätzliche Komponenten vorhanden sein und kann eine andere Anordnung der gezeigten Komponenten bei anderen Implementierungen auftreten. Ferner sind diese Anordnungen in einer Vielzahl von Anwendungsfällen und Umgebungen verwendbar, einschließlich jener, die unten erörtert werden (z. B. ein mobiles UE beim industriellen Rechnen für Smart Cities oder intelligente Fabriken, unter vielen anderen Beispielen).
  • 16 veranschaulicht eine beispielhafte Software(SW)-Verteilungsplattform (SDP) 1605 zum Verteilen von Software 1660, wie etwa der beispielhaften computerlesbaren Anweisungen 1781, 1782, 1783 aus 17, an eine oder mehrere Vorrichtungen, wie etwa beispielhafte Prozessorplattform(en) (pp) 1600, verbundene Edge-Vorrichtungen 1762 (siehe z. B. 17) und/oder beliebige der anderen hier erörterten Rechensysteme/-vorrichtungen. Die SDP 1605 (oder Komponenten davon) kann durch einen beliebigen Computerserver, eine beliebige Datenanlage, einen beliebigen Cloud-Dienst, ein beliebiges CDN, ein beliebiges Edge-Computing-Framework usw. implementiert werden, der/die/das dazu in der Lage ist, Software (z. B. Code, Skripte, ausführbare Binärdateien, Container, Pakete, komprimierte Dateien und/oder Ableitungen davon) zu speichern und an andere Rechenvorrichtungen (z. B. an Dritte, die beispielhaften verbundenen Edge-Vorrichtungen 1762 aus 17) zu übertragen. Die SDP 1605 (oder Komponenten davon) kann sich in einer Cloud (z. B. Datenzentrum usw.), einem lokalen Netzwerk, einem Edge-Netzwerk, einem Weitbereichsnetzwerk, im Internet und/oder einem beliebigen anderen Ort befinden, der kommunikativ mit der pp 1600 gekoppelt ist.
  • Die pp 1600 und/oder die verbundenen Edge-Vorrichtungen 1762, die mit den Edge-Vorrichtungen 1762 verbunden sind, können Kunden, Clients, Verwaltungsvorrichtungen (z. B. Server), Dritte (z. B. Kunden einer Entität, die die SDP 1605 besitzt und/oder betreibt), IoT-Vorrichtungen und dergleichen beinhalten. Die pp 1600/verbundenen Edge-Vorrichtungen 1762 können in kommerziellen und/oder Heimautomatisierungsumgebungen arbeiten. Bei manchen Beispielen ist ein Dritter ein Entwickler, ein Verkäufer und/oder ein Lizenzgeber von Software, wie etwa der beispielhaften computerlesbaren Medien 1781, 1782, 1783 aus 17. Die Dritten können Verbraucher, Benutzer, Einzelhändler, OEMs usw. sein, die die Software zur Verwendung und/oder zum Weiterverkauf und/oder zum Sublizenzieren erwerben und/oder lizenzieren. In manchen Beispielen bewirkt verteilte Software, dass eine Anzeige einer oder mehrerer Benutzeroberflächen (UIs) und/oder grafischer Benutzeroberflächen (GUIs) die eine oder die mehreren Vorrichtungen (z. B. verbundene Edge-Vorrichtungen) geographisch und/oder logisch voneinander getrennt (z. B. physisch getrennte IoT-Vorrichtungen, beauftragt mit der Verantwortung zur Wasserverteilungssteuerung (z. B. Pumpen), Stromverteilungssteuerung (z. B. Relais) usw.) identifiziert. In einigen Beispielen können sich die pp 1600/verbundenen Edge-Vorrichtungen 1762 physisch an unterschiedlichen geografischen Orten, gesetzlichen Zuständigkeiten usw. befinden.
  • In 16 beinhaltet die SDP 1605 einen oder mehrere Server (als „Server 1605“ bezeichnet) und eine oder mehrere Speicherungsvorrichtungen (als „Speicherung 1605“ bezeichnet). Die Speicherung 1605 speichert die computerlesbaren Anweisungen 1660, die den Anweisungen 1781, 1782,1783 aus 17 entsprechen können. Die Server 1605 stehen in Kommunikation mit einem Netzwerk 1610, das einem beliebigen oder mehreren beliebigen aus dem Internet und/oder beliebigen der beispielhaften Netzwerke, wie hier beschrieben, entsprechen kann. Die Server 1605 reagieren auf Anforderungen, die Software als Teil einer kommerziellen Transaktion an eine anfordernde Partei zu übertragen. Die Zahlung für die Lieferung, den Verkauf und/oder die Lizenz der Software kann durch die Server 1605 und/oder über eine Drittparteizahlungsentität abgewickelt werden. Die Server 1605 ermöglichen Käufern und/oder Lizenzgebern, die computerlesbaren Anweisungen 1660 von der SDP 1605 herunterzuladen.
  • Die Server 1605 sind kommunikativ mit einer oder mehreren Sicherheitsdomänen und/oder Sicherheitsvorrichtungen verbunden, durch die Anforderungen und Übertragungen der beispielhaften computerlesbaren Anweisungen 1660 passieren müssen. Zusätzlich oder alternativ dazu bieten die Server 1605 periodisch Updates an, übertragen und/oder erzwingen diese an bzw. für die Software 1660, um sicherzustellen, dass Verbesserungen, Patches, Updates usw. verteilt und auf die Software an den Endbenutzervorrichtungen angewandt werden. Die computerlesbaren Anweisungen 1660 werden auf der Speicherung 1605 in einem speziellen Format gespeichert. Ein Format computerlesbarer Anweisungen beinhaltet unter anderem eine spezielle Codesprache (z. B. Java, JavaScript, Python, C, C#, SQL, HTML usw.) und/oder einen speziellen Codezustand (z. B. unkompilierter Code (z. B. ASCII), interpretierter Code, verknüpfter Code, ausführbarer Code (z. B. Binär) usw.) und/oder ein beliebiges anderes Format, wie etwa jene hier erörterten. Bei manchen Beispielen befinden sich die computerlesbaren Anweisungen 1660, die in der SDP 1605 gespeichert sind, in einem ersten Format, wenn sie an die pp 1600 übertragen werden. Zusätzlich oder alternativ dazu ist das erste Format ein ausführbares Binärformat, wobei bestimmte Typen durch die pp 1600 ausgeführt werden können. Zusätzlich oder alternativ dazu ist das erste Format unkompilierter Code, der eine oder mehrere Vorbereitungsaufgaben erfordert, um das erste Format in ein zweites Format umzuwandeln, um eine Ausführung auf der pp 1600 zu ermöglichen. Zum Beispiel muss die empfangende pp 1600 möglicherweise die computerlesbaren Anweisungen 1660 in dem ersten Format kompilieren, um ausführbaren Code in einem zweiten Format zu erzeugen, der dazu in der Lage ist, auf der pp 1600 ausgeführt zu werden. Zusätzlich oder alternativ dazu ist das erste Format interpretierter Code, der beim Erreichen der pp 1600 durch einen Interpreter interpretiert wird, um die Ausführung von Anweisungen zu ermöglichen. Zusätzlich oder alternativ dazu können unterschiedliche Komponenten der computerlesbaren Anweisungen 1782 von unterschiedlichen Quellen und/oder an unterschiedliche Prozessorplattformen verteilt werden; zum Beispiel können unterschiedliche Bibliotheken, Plug-ins, Komponenten und andere Arten von Rechenmodulen, ob kompiliert oder interpretiert, von unterschiedlichen Quellen und/oder an unterschiedliche Prozessorplattformen verteilt werden. Zum Beispiel kann ein Teil der Softwareanweisungen (z. B. ein Skript, das an sich nicht ausführbar ist) von einer ersten Quelle verteilt werden, während ein Interpreter (der dazu in der Lage ist, das Skript auszuführen) von einer zweiten Quelle verteilt werden kann.
  • 6. BEISPIELHAFTE IMPLEMENTIERUNGEN
  • Zusätzliche Beispiele der vorliegend beschriebenen Verfahrens-, System- und Vorrichtungsausführungsformen beinhalten die folgenden, nicht einschränkenden Implementierungen. Jedes der folgenden nicht einschränkenden Beispiele kann für sich allein stehen oder kann in einer beliebigen Permutation oder Kombination mit einem oder mehreren beliebigen der anderen Beispiele, die unten oder in der gesamten vorliegenden Offenbarung bereitgestellt werden, kombiniert werden.
  • Beispiel A01 beinhaltet ein Verfahren zum Bereitstellen von Zuverlässigkeitsverbesserungen in einem Mehrfachzugangskommunikationsnetzwerk, wobei das Verfahren Folgendes umfasst: Sammeln von Metriken bezüglich des Mehrfachzugangskommunikationsnetzwerks von einer oder mehreren Datenquellen innerhalb des Mehrfachzugangskommunikationsnetzwerks; Bestimmen, basierend auf den gesammelten Metriken, eines Zuverlässigkeitsziels, einer Netzwerkcodierungs- bzw. NC-Gruppengröße und von pfadweisen Charakteristiken für jeden Netzwerkpfad einer Menge von Netzwerkpfaden in der Mehrfachzugangsumgebung; Bestimmen einer Verkehrsverteilungsstrategie basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße und dem Zuverlässigkeitsziel; Erzeugen einer NC-Gruppe aus einer Menge von eingehenden Paketen, wobei die NC-Gruppe eine Menge von netzwerkcodierten Paketen umfasst, um das Zuverlässigkeitsziel zu erreichen; und Routen einzelner Teilmengen aus der NC-Gruppe zu jeweiligen Netzwerkpfaden der Menge von Netzwerkpfaden gemäß der Verkehrsverteilungsstrategie.
  • Beispiel A02 beinhaltet das Verfahren aus Beispiel A01, wobei die Verkehrsverteilungsstrategie eine Anzahl von netzwerkcodierten Paketen in den einzelnen Teilmengen spezifiziert, die über die jeweiligen Netzwerkpfade geroutet werden sollen.
  • Beispiel A03 beinhaltet das Verfahren aus den Beispielen A01-A02, wobei das Erzeugen der NC-Gruppe Folgendes umfasst: Anwenden von NC auf Pakete in der Menge von eingehenden Paketen, um die Menge von netzwerkcodierten Paketen in der NC-Gruppe zu erzeugen.
  • Beispiel A04 beinhaltet das Verfahren aus Beispiel A03, wobei eine Anzahl von Paketen in der Menge von eingehenden Paketen gleich der NC-Gruppengröße ist.
  • Beispiel A05 beinhaltet das Verfahren aus den Beispielen A01-A04, ferner umfassend: Bestimmen einer Coderate zum Codieren der Menge von eingehenden Paketen.
  • Beispiel A06 beinhaltet das Verfahren aus Beispiel A05, wobei das Bestimmen der Coderate Folgendes umfasst:
  • Bestimmen der Coderate als ein Verhältnis der NC-Gruppengröße zu einer Gesamtzahl von netzcodierten Paketen in der NC-Gruppe.
  • Beispiel A07 beinhaltet das Verfahren aus den Beispielen A01-A06, wobei die NC-Gruppengröße eine erste NC-Gruppengröße unter mehreren NC-Gruppengrößen ist, die Verkehrsverteilungsstrategie eine erste Verkehrsverteilungsstrategie ist und das Verfahren ferner Folgendes umfasst: Bestimmen einer jeweiligen Verkehrsverteilungsstrategie mehrerer Verkehrsverteilungsstrategien für jede NC-Gruppengröße der mehreren NC-Gruppengrößen basierend auf den pfadweisen Charakteristiken, einer entsprechenden NC-Gruppengröße der mehreren NC-Gruppengrößen und dem Zuverlässigkeitsziel.
  • Beispiel A08 beinhaltet das Verfahren aus Beispiel A07, das ferner Folgendes umfasst: Durchführen einer Headerprüfung auf der Menge von Paketen, um eine Paketkennung der Menge von eingehenden Paketen zu bestimmen, die mit einem Zuverlässigkeitsfluss assoziiert sind.
  • Beispiel A09 beinhaltet das Verfahren aus Beispiel A08, wobei die Paketkennung eine Quellknotennetzwerkadresse und/oder eine Zielknotennetzwerkadresse und/oder eine Eingangsport-Nummer und/oder eine Ausgangsport-Nummer und/oder eine QoS-Flusskennung ist.
  • Beispiel A10 beinhaltet das Verfahren aus den Beispielen A08-A09, ferner umfassend: Durchführen einer automatischen Burst-Größendetektion basierend auf einem Burst-Zeitspreizparameter, wobei der Burst-Zeitspreizparameter eine maximale Ankunftszeitdifferenz zwischen einem ersten Paket eines Bursts von Paketen und einem letzten Paket des Bursts von Paketen spezifiziert.
  • Beispiel A11 beinhaltet das Verfahren aus Beispiel A10, wobei das Durchführen der automatischen Burst-Größendetektion Folgendes umfasst: Bestimmen einer Burst-Größe durch Zählen einer Anzahl von eingehenden Paketen der Menge von eingehenden Paketen, die innerhalb eines Zeitfensters nach Ankunft des ersten Pakets des Bursts von Paketen ankommen, wobei das Zeitfenster eine gleiche Größe wie der Burst-Zeitspreizparameter aufweist; und Auswählen einer Verkehrsverteilungsstrategie aus den mehreren Verkehrsverteilungsstrategien basierend auf der bestimmten Burst-Größe.
  • Beispiel A12 beinhaltet das Verfahren aus Beispiel A11, wobei, wenn die Menge von eingehenden Paketen systematische Codepakete sind, das Durchführen der automatischen Burst-Größendetektion ferner Folgendes umfasst: Routen eingehender Pakete der Menge von eingehenden Paketen, die innerhalb des Zeitfensters ankommen, zur Übertragung über einen oder mehrere Netzwerkpfade der Menge von Netzwerkpfaden, ohne NC auf den eingehenden Paketen durchzuführen, die innerhalb des Zeitfensters ankommen.
  • Beispiel A13 beinhaltet das Verfahren aus den Beispielen A01-A12, wobei die pfadweisen Charakteristiken Folgendes umfassen: eine Löschwahrscheinlichkeit zum Senden von Paketen über einzelne Netzwerkpfade der Menge von Netzwerkpfaden; und Verzögerungscharakteristiken, die eine erwartete Zeit angeben, die zum Senden einer Anzahl von Paketen über die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden erforderlich ist.
  • Beispiel A14 beinhaltet das Verfahren aus den Beispielen A01-A13, wobei das Zuverlässigkeitsziel eine Wahrscheinlichkeit ist, dass ein Empfänger in der Lage sein wird, die Menge von Paketen zu decodieren.
  • Beispiel A15 beinhaltet das Verfahren aus den Beispielen A13-A14, ferner umfassend: Betreiben eines Optimierers zum Bestimmen einer optimalen Teilmenge von Netzwerkpfaden aus der Menge von Netzwerkpfaden und einer optimalen Anzahl von netzwerkcodierten Paketen, die zu den einzelnen Teilmengen der NC-Gruppe gehören sollen.
  • Beispiel A16 beinhaltet das Verfahren aus Beispiel A15, ferner umfassend: Bestimmen einer Worst-Case-Verzögerung für die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden basierend auf der Löschwahrscheinlichkeit, den Verzögerungscharakteristiken, dem Zuverlässigkeitsziel und der NC-Gruppengröße; Bestimmen einer Burst-Größe basierend auf der NC-Gruppengröße; und Erzeugen einer Abbildungsfunktion, die die Worst-Case-Verzögerung auf die Burst-Größe abbildet, wobei die Abbildungsfunktion zum Bestimmen von Zulassungssteuerkriterien zum Durchführen einer Zulassungssteuerung dient.
  • Beispiel A17 beinhaltet das Verfahren aus Beispiel A16, wobei das Bestimmen der Worst-Case-Verzögerung Folgendes umfasst: Betreiben des Optimierers zum Ableiten der Worst-Case-Verzögerung für die einzelnen Netzwerkpfade basierend auf einer Optimierung der Löschwahrscheinlichkeit, der Verzögerungscharakteristiken, des Zuverlässigkeitsziels und der NC-Gruppengröße für die einzelnen Netzwerkpfade.
  • Beispiel A18 beinhaltet das Verfahren aus Beispiel A17, wobei die abgeleitete Worst-Case-Verzögerung ein maximaler Betrag akzeptabler Verzögerung zum Liefern der Menge von netzwerkcodierten Paketen über die einzelnen Netzwerkpfade ist, die immer noch das Zuverlässigkeitsziel erfüllt.
  • Beispiel A19 beinhaltet das Verfahren aus den Beispielen A16-A18, ferner umfassend: Durchführen einer Zulassungssteuerung für stoßartigen Ankunftsverkehr mit einer festen Burst-Größe und einem Burst-Intervall, wobei das Burst-Intervall auf der Worst-Case-Verzögerung an der Burst-Size-Abbildung basiert.
  • Beispiel A20 beinhaltet das Verfahren aus Beispiel A19, ferner umfassend: Bestimmen eines Verschachtelungsfaktors basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße und dem Zuverlässigkeitsziel; und Verschachteln von Paketen, die zu einem oder mehreren anderen Bursts gehören.
  • Beispiel A21 beinhaltet das Verfahren aus den Beispielen A16-A18, ferner umfassend: Durchführen einer Zulassungssteuerung für periodischen Ankunftsverkehr basierend auf einer Ankunftszeit des periodischen Ankunftsverkehrs und der Burst-Größe.
  • Beispiel A22 beinhaltet das Verfahren aus den Beispielen A16-A21, ferner umfassend: Durchführen der Zulassungssteuerung unter Verwendung eines Leaky-Bucket-Verkehrs-Pacing-Mechanismus oder eines Token-Bucket-Verkehrs-Pacing-Mechanismus.
  • Beispiel A23 beinhaltet das Verfahren aus Beispiel A15, ferner umfassend: Bestimmen, basierend auf den gesammelten Metriken, einer Verzögerungsgrenze für die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden.
  • Beispiel A24 beinhaltet das Verfahren aus Beispiel A23, ferner umfassend: Bestimmen einer Durchführbarkeit für die Menge von netzwerkcodierten Paketen basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße, dem Zuverlässigkeitsziel und der Verzögerungsgrenze; und Erzeugen eines Durchführbarkeitsindikators basierend auf der bestimmten Durchführbarkeit, wobei ein Wert des Durchführbarkeitsindikators angibt, ob Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist oder nicht.
  • Beispiel A25 beinhaltet das Verfahren aus Beispiel A24, wobei das Bestimmen der Durchführbarkeit Folgendes umfasst: Betreiben des Optimierers zum Bestimmen, als die optimale Teilmenge von Netzwerkpfaden, einer ressourceneffizientesten Teilmenge der Menge von Netzwerkpfaden unter verschiedenen anderen Teilmengen von Netzwerkpfaden aus der Menge von Netzwerkpfaden.
  • Beispiel A26 beinhaltet das Verfahren aus den Beispielen A24-A25, wobei der Durchführbarkeitsindikator einen Wert von „wahr“ beinhaltet, um anzugeben, dass Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist, und wobei der Durchführbarkeitsindikator einen Wert von „falsch“ beinhaltet, um anzugeben, dass das Senden von Verkehr über die einzelnen Netzwerkpfade nicht durchführbar ist.
  • Beispiel A27 beinhaltet das Verfahren aus den Beispielen A24-A25, wobei der Durchführbarkeitsindikator einen numerischen Wert beinhaltet, wobei der numerische Wert, der über einem vorbestimmten oder konfigurierten Schwellenwert liegt, angibt, dass das Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist, und wobei der numerische Wert, der unter dem vorbestimmten oder konfigurierten Schwellenwert liegt, angibt, dass das Senden von Verkehr über die einzelnen Netzwerkpfade nicht durchführbar ist.
  • Beispiel A28 beinhaltet das Verfahren aus den Beispielen A26-A27, ferner umfassend: Durchführen einer Zulassungssteuerung unter Verwendung des Durchführbarkeitsindikators, einschließlich: Zurückweisen der Zulassung der Menge von netzwerkcodierten Paketen, wenn der Wert des Durchführbarkeitsindikators angibt, dass Senden von Verkehr über die einzelnen Netzwerkpfade nicht möglich ist; und Zulassen der Menge von netzwerkcodierten Paketen, wenn der Wert des Durchführbarkeitsindikators angibt, dass Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist.
  • Beispiel A29 umfasst das Verfahren aus Beispiel A28, ferner umfassend: Bestimmen, ob Liefern einzelner Teilmengen der optimalen Teilmengen von netzwerkcodierten Paketen, die über jeweilige der optimalen Teilmenge von Netzwerkpfaden gesendet werden sollen, eine Zuverlässigkeitsfluss-Ressourcenzuordnungsschwelle während eines Zeitraums überschreitet, der innerhalb eines Inter-Burst-Intervalls oder der Verzögerungsgrenze liegt; und Zurückweisen der Zulassung der Menge von netzwerkcodierten Paketen, wenn Liefern mindestens einer der optimalen Teilmengen die Zuverlässigkeitsfluss-Ressourcenzuordnungsschwelle während des Zeitraums überschreitet.
  • Beispiel A30 beinhaltet das Verfahren aus den Beispielen A01-A29, wobei die Metriken Funkcharakteristiken und QoS-Anforderungen beinhalten.
  • Beispiel A31 beinhaltet das Verfahren aus den Beispielen A01-A30, wobei die eine oder die mehreren Datenquellen einen oder mehrere Netzwerkzugangsknoten (NANs) beinhalten und die Metriken bezüglich der Mehrfachzugangsumgebung Zugangsnetzwerkmessungen beinhalten.
  • Beispiel A32 beinhaltet das Verfahren aus Beispiel A31, wobei die Zugangsnetzwerkmessungen eines oder mehrere aus Referenzsignalempfangsleistung (RSRP), Referenzsignalempfangsqualität (RSRQ), Empfangssignalstärkenindikator (RSSI), Empfangskanalleistungsindikator (RCPI), Empfangssignal-Rausch-Indikator (RSNI), Durchschnittsrauschen-plus-Interferenz (ANPI), Signal-Rausch-Verhältnis (SNR), Signal-Rausch-und-Interferenz-Verhältnis (SINR), erwartete Spitzendatenrate, Ende-zu-Ende-Verzögerungsmessungen, Backhaul-Verzögerungsmessungen, Planungsverzögerungsmessungen, Paketverwerfungsrate und Paketfehlerverhältnis beinhalten.
  • Beispiel A33 beinhaltet das Verfahren aus den Beispielen A31-A32, wobei die Metriken bezüglich der Mehrfachzugangsumgebung ferner Fähigkeiten beinhalten, die durch eine oder mehrere Konfigurationen angegeben werden.
  • Beispiel A34 beinhaltet das Verfahren aus Beispiel A33, wobei die Fähigkeiten eine oder mehrere aus Dienstgüte- bzw. QoS-Fähigkeiten, die in einer QoS-Konfiguration enthalten sind, und Drahtlos-Lokalbereichsnetzwerk- bzw. WLAN-Fähigkeiten, die in einer WLAN-Konfiguration enthalten sind, und Funkressourcensteuerungs- bzw. RRC-Informationen, die in einer RRC-Konfiguration enthalten sind, beinhalten.
  • Beispiel A35 beinhaltet das Verfahren aus den Beispielen A31-A34, wobei die Metriken bezüglich der Mehrfachzugangsumgebung ferner Anwendungsschichtmetriken beinhalten.
  • Beispiel A36 beinhaltet das Verfahren aus Beispiel A35, wobei die Anwendungsschichtmetriken eines oder mehrere aus Prioritätsindikatoren für Datenflüsse, QoS-Anforderungen der Datenflüsse beinhalten, wobei die QoS-Anforderungen eines oder mehrere aus dem Zuverlässigkeitsziel, einer Latenzgrenze, einer minimalen garantierten Bitrate und einer maximalen Burst-Größe beinhalten.
  • Beispiel A37 umfasst das Verfahren aus den Beispielen A31-A36, wobei die Metriken bezüglich der Mehrfachzugangsumgebung ferner Datenebenen-Telemetriemetriken umfassen.
  • Beispiel A38 beinhaltet das Verfahren aus Beispiel A37, wobei die Datenebenen-Telemetriemetriken eines oder mehrere aus Verkehrsvolumenschätzungen von Zuverlässigkeitsflüssen, Verkehrsvolumenschätzungen von Nicht-Zuverlässigkeitsflüssen, Flusspfad- und Latenzmetriken, Paketverwerfungsmetriken, Verkehrsüberlastmetriken, Plattformlastmetriken und Anwendungslastmetriken beinhalten.
  • Beispiel B01 beinhaltet das Verfahren aus den Beispielen A15-A38, ferner umfassend: Bestimmen einer Anzahl verfügbarer Übertragungseinheiten auf jedem Netzwerkpfad der Menge von Netzwerkpfaden; Durchführen von NC auf der Menge eingehender Pakete, um die Menge von netzwerkcodierten Paketen zu erhalten; und Liefern der einzelnen Teilmengen der Menge von netzwerkcodierten Paketen an die jeweiligen Netzwerkpfade der Menge von Netzwerkpfaden.
  • Beispiel B02 beinhaltet das Verfahren aus Beispiel B01, wobei das Bestimmen der Anzahl verfügbarer Übertragungseinheiten auf jedem Netzwerkpfad Folgendes umfasst: Berechnen einer Anzahl unabhängig übertragener Pakete, die auf jedem Netzwerkpfad unterstützt werden, innerhalb einer Übertragungsverzögerungsgrenze der Menge eingehender Pakete.
  • Beispiel B03 beinhaltet das Verfahren aus den Beispielen B01-B02, wobei das Durchführen von NC auf der Menge eingehender Pakete und das Liefern der einzelnen Teilmengen an die jeweiligen Netzwerkpfade Folgendes umfasst: Gruppieren einer Folge der Menge von eingehenden Paketen, wobei eine Länge der Folge der Menge von eingehenden Paketen durch eine vordefinierte NC-Konfiguration spezifiziert wird; Bestimmen einer Anzahl von netzcodierten Paketen in der Menge von netzcodierten Paketen, die aus jeder Gruppierung der eingehenden Pakete erzeugt werden sollen; Bestimmen jeweiliger Größen entsprechender Teilmengen der einzelnen Teilmengen, die an die jeweiligen Netzwerkpfade geliefert werden sollen; Erzeugen der einzelnen Teilmengen aus jeder Gruppierung der eingehenden Pakete gemäß der NC-Konfiguration und einer Gesamtanzahl von netzwerkcodierten Paketen in der Menge von netzwerkcodierten Paketen; und Liefern der einzelnen Teilmengen an die jeweiligen Netzwerkpfade gemäß den jeweiligen Größen.
  • Beispiel B04 beinhaltet das Verfahren aus Beispiel B03, wobei das Bestimmen der jeweiligen Größen der entsprechenden Teilmengen Folgendes umfasst: Betreiben des Optimierers zum Bestimmen der jeweiligen Größen der entsprechenden Teilmengen basierend auf der NC-Gruppengröße, dem Zuverlässigkeitsziel, der Löschwahrscheinlichkeit der jeweiligen Netzwerkpfade, einer spektralen Effizienz der jeweiligen Netzwerkpfade und der Anzahl verfügbarer Übertragungseinheiten und zum Ausgeben.
  • Beispiel B05 beinhaltet das Verfahren aus Beispiel B04, ferner umfassend: Bestimmen einer Bewertung für jeden Netzwerkpfad der Menge von Netzwerkpfaden; Erzeugen einer Präferenzreihenfolge für jeden der jeweiligen Netzwerkpfade gemäß der Bewertung jedes Netzwerkpfads; und Betreiben des Optimierers zum Bestimmen der jeweiligen Größen der entsprechenden Teilmengen ferner basierend auf der Präferenzreihenfolge.
  • Beispiel B06 beinhaltet das Verfahren aus Beispiel B05, wobei das Bestimmen der Bewertung für jeden Netzwerkpfad Folgendes umfasst: Bestimmen der Bewertung für jeden Netzwerkpfad basierend auf der Löschwahrscheinlichkeit eines entsprechenden der einzelnen Netzwerkpfade und einer spektralen Effizienz des entsprechenden der einzelnen Netzwerkpfade.
  • Beispiel B07 beinhaltet das Verfahren aus Beispiel B06, wobei das Bestimmen der Bewertung für jeden Netzwerkpfad Folgendes umfasst: Bestimmen der Bewertung für jeden Netzwerkpfad ferner basierend auf der NC-Gruppengröße und dem Zuverlässigkeitsziel.
  • Beispiel B08 umfasst das Verfahren aus den Beispielen B05-B07, ferner umfassend: Betreiben des Optimierers, um die jeweiligen Größen der entsprechenden Teilmengen gemäß einem Algorithmus vom Greedy-Typ unter Verwendung der Präferenzreihenfolge zu bestimmen.
  • Beispiel B09 beinhaltet das Verfahren aus Beispiel B08, wobei der Algorithmus vom Greedy-Typ ein Greedy-Algorithmus mit Liniensuche oder ein Greedy-Algorithmus mit binärer Suche ist.
  • Beispiel B 10 beinhaltet das Verfahren aus den Beispielen B08-B09, ferner umfassend: Anwenden einer rekursiven Endeinheitsanpassungsprozedur auf ein Ergebnis des Algorithmus vom Greedy-Typ.
  • Beispiel C01 beinhaltet das Verfahren aus den Beispielen A01-B10, ferner umfassend: Bestimmen von Übertragungsverzögerungen jedes Netzwerkpfads der Menge von Netzwerkpfaden; und Bestimmen der Verkehrsverteilungsstrategie ferner basierend auf den bestimmten Übertragungsverzögerungen.
  • Beispiel C02 beinhaltet das Verfahren aus Beispiel C01, wobei das Bestimmen der Übertragungsverzögerungen Folgendes umfasst: Bestimmen anfänglicher Schätzungen der Übertragungsverzögerungen aus einer Senderdatenratenauswahl, einer Transportblock- bzw. TB-Größe und einer Zielpaketfehlerquote (PER); und Anpassen der anfänglichen Schätzungen der Übertragungsverzögerungen basierend auf Paketverzögerungsmessungen, wobei die Senderdatenratenauswahl, die TB-Größe, das Ziel-PER und die Paketverzögerungsmessungen unter den gesammelten Metriken sind.
  • Beispiel C03 beinhaltet das Verfahren aus den Beispielen C01-C02, wobei das Bestimmen der Übertragungsverzögerungen jedes Netzwerkpfads auf einer Datenrate, die mit entsprechenden der einzelnen Netzwerkpfade assoziiert ist, und einem Planungsintervall, das mit den entsprechenden der einzelnen Netzwerkpfade assoziiert ist, basiert.
  • Beispiel C04 beinhaltet das Verfahren aus den Beispielen C02-C03, ferner umfassend: Bestimmen von Paketlöschwahrscheinlichkeiten jedes Netzwerkpfads der Menge von Netzwerkpfaden; und Bestimmen der Verkehrsverteilungsstrategie ferner basierend auf den bestimmten Paketlöschwahrscheinlichkeiten.
  • Beispiel C05 beinhaltet das Verfahren aus Beispiel C04, wobei das Bestimmen von Paketlöschwahrscheinlichkeiten Folgendes umfasst: Bestimmen anfänglicher Schätzungen der Löschwahrscheinlichkeiten basierend auf der Datenratenauswahl, der TB-Größe und dem Ziel-PER; und Anpassen der anfänglichen Schätzungen der Löschwahrscheinlichkeiten basierend auf einer Anzahl von Paketlöschungen während Datenübertragungen über jeden der Netzwerkpfade oder basierend auf Bestätigungs- (ACK-)/negativen ACK- (NACK-) Statistiken.
  • Beispiel C06 beinhaltet das Verfahren aus Beispiel C05, ferner umfassend: Hinzufügen eines NC-Headers zu jedem netzwerkcodierten Paket in der NC-Gruppe, wobei der NC-Header einen NC-Gruppenindikator zum Identifizieren, welche Menge von Paketen gemeinsam codiert werden sollte, und zusätzliche NC-Konfigurationsparameter zur Bestimmung erfolgreicher Decodierungskriterien beinhaltet, einschließlich einer Anzahl empfangener Pakete, die zur erfolgreichen Wiederherstellung ursprünglicher Datenpakete benötigt werden; und Erhalten einer pfadübergreifenden NC-Bestätigung (NC-ACK) über einen Netzwerkzugangsknoten (NAN), der die Menge von netzwerkcodierten Paketen weiterleitet, wenn die Kriterien für erfolgreiche Decodierung für die NC-Gruppe erfüllt sind, wobei die NC-ACK den NC-Gruppenindikator erfolgreich decodierter Pakete beinhaltet.
  • Beispiel C07 beinhaltet das Verfahren aus Beispiel C06, ferner umfassend: Weiterleiten der NC-ACK an einen anderen NAN; und Verwerfen eines oder mehrerer netzwerkcodierter Pakete, die zur NC-Gruppe gehören, wie durch die NC-ACK angegeben, die in einem Sendepuffer verbleibt, wenn die NC-ACK empfangen wird.
  • Beispiel C08 beinhaltet das Verfahren aus den Beispielen A13-C07, wobei mindestens ein Netzwerkpfad in der Menge von Netzwerkpfaden eine Löschwahrscheinlichkeit aufweist, die sich von einer Löschwahrscheinlichkeit mindestens eines anderen Netzwerkpfads in der Menge von Netzwerkpfaden unterscheidet.
  • Beispiel C09 beinhaltet das Verfahren aus den Beispielen A13-C08, wobei ein einzelnes netzwerkcodiertes Paket, das über einen Pfad in der Menge von Netzwerkpfaden übertragen wird, unabhängigen Löschungen oder abhängigen Löschungen unterliegt.
  • Beispiel C10 beinhaltet das Verfahren aus den Beispielen A13-C09, wobei mindestens ein Netzwerkpfad in der Menge von Netzwerkpfaden Paketlöschungen aufweist, die unabhängig und identisch verteilt sind (IID).
  • Beispiel D01 beinhaltet das Verfahren aus den Beispielen A01-C10, wobei das Verfahren durch eine Zuverlässigkeitsverbesserungs-Engine (REE) durchgeführt wird.
  • Beispiel D02 beinhaltet das Verfahren aus Beispiel D01, wobei die REE Teil einer Mehrfachzugangsverkehrsverwaltung (MA-TM) ist.
  • Beispiel D03 umfasst das Verfahren ais den Beispielen D01-D02, wobei die REE und die MA-TM als jeweilige Edge-Anwendungen (Apps) eines Edge-Computing-Knotens implementiert sind.
  • Beispiel D04 beinhaltet das Verfahren aus den Beispielen D01-D02, wobei die MA-TM Teil einer Edge-Plattform eines Edge-Computing-Knotens ist und die REE eine Edge-App ist, die durch den Edge-Edge-Computing-Knoten betrieben wird.
  • Beispiel D05 beinhaltet das Verfahren aus Beispiel D03 oder D04, wobei der Edge-Computing-Knoten ein Mehrfachzugang-Edge-Computing- bzw. MEC-Server eines MEC-Frameworks ist und die REE als eine MEC-App implementiert ist, die dazu konfiguriert ist, durch eine MEC-Plattform des MEC-Servers betrieben zu werden.
  • Beispiel D06 beinhaltet das Verfahren aus Beispiel D03 oder D04, wobei der Edge-Computing-Knoten ein Mehrfachzugangsverwaltungsdienst- bzw. MAMS-Server oder ein MAMS-Client eines MAMS-Frameworks ist und die REE implementiert ist als ein Netzwerkverbindungsmanager (NCM), der dazu ausgelegt ist, durch den MAMS-Server betrieben zu werden, oder ein Client-Verbindungsmanager (CCM), der dazu ausgelegt ist, durch den MAMS-Client betrieben zu werden.
  • Beispiel D07 beinhaltet das Verfahren aus Beispiel D03 oder D04, wobei der Edge-Computing-Knoten eine intelligente Funkzugangsnetzwerk- bzw. RAN-Steuerung (RIC) eines Open-RAN-Alliance- bzw. O-RAN-Frameworks ist und die REE als eine xApp implementiert ist, die dazu ausgelegt ist, durch die RIC betrieben zu werden.
  • Beispiel D08 beinhaltet das Verfahren aus Beispiel D03 oder D04, wobei der Edge-Computing-Knoten eine Zentraleinheit (CU) einer auf CU/verteilte Einheit (DU) aufgeteilten Architektur einer Next-Generation- bzw. NG-RAN-Architektur eines 3GPP-Mobilfunknetzes (3rd Generation Partnership Project) ist und die REE als eine Netzwerkfunktion (NF) implementiert ist, die dazu ausgelegt ist, durch die CU betrieben zu werden.
  • Beispiel D09 beinhaltet das Verfahren aus Beispiel D03 oder D04, wobei der Edge-Computing-Knoten ein Edge-Enabler-Server (EES) oder ein Edge-Konfigurationsserver (ECS) einer 3GPP-Edge-Computing-Architektur ist und die REE als Edge-Anwendungsserver (EAS) implementiert ist, der dazu ausgelegt ist, von dem EES oder dem ECS betrieben zu werden.
  • Beispiel Z01 beinhaltet ein oder mehrere computerlesbare Medien, die Anweisungen umfassen, wobei die Ausführung der Anweisungen durch die Prozessorschaltungsanordnung die Prozessorschaltungsanordnung veranlassen soll, das Verfahren nach einem der Ansprüche A01-D09 und/oder einem beliebigen anderen hierin erörterten Aspekt durchzuführen.
  • Beispiel Z02 beinhaltet ein Computerprogramm, das die Anweisungen nach Anspruch Z01 umfasst.
  • Beispiel Z03 beinhaltet eine Anwendungsprogrammierschnittstelle, die Funktionen, Verfahren, Variablen, Datenstrukturen und/oder Protokolle für das Computerprogramm nach Anspruch Z02 definiert.
  • Beispiel Z04 beinhaltet eine Einrichtung, die eine Schaltungsanordnung umfasst, die mit den Anweisungen nach Anspruch Z01 geladen ist.
  • Beispiel Z05 beinhaltet eine Einrichtung, die eine Schaltungsanordnung umfasst, die betreibbar ist, um die Anweisungen nach Anspruch Z01 auszuführen.
  • Beispiel Z06 beinhaltet eine integrierte Schaltung, die die Prozessorschaltungsanordnung nach Anspruch Z01 und/oder das eine oder die mehreren computerlesbaren Medien nach Anspruch Z01 umfasst.
  • Beispiel Z07 beinhaltet ein Rechensystem, das das eine oder die mehreren computerlesbaren Medien und die Prozessorschaltungsanordnung nach Anspruch Z01 umfasst.
  • Beispiel Z08 beinhaltet eine Einrichtung, die Mittel zum Ausführen der Anweisungen nach Anspruch Z01 umfasst.
  • Beispiel Z09 beinhaltet ein Signal, das als Ergebnis eines Ausführens der Anweisungen nach Anspruch Z01 erzeugt wird.
  • Beispiel Z10 beinhaltet eine Dateneinheit, die als Ergebnis eines Ausführens der Anweisungen nach Anspruch Z01 erzeugt wird.
  • Beispiel Z11 beinhaltet die Dateneinheit nach Anspruch Z10, wobei es sich bei der Dateneinheit um ein Datagramm, ein Netzwerkpaket, einen Datenrahmen, ein Datensegment, eine Protokolldateneinheit (PDU, Protocol Data unit), eine Dienstdateneinheit (SDU, Service Data unit), eine Nachricht oder ein Datenbankobjekt handelt.
  • Beispiel Z12 beinhaltet ein Signal, das mit der Dateneinheit nach Anspruch Z10 oder Z1 1 codiert ist.
  • Beispiel Z13 beinhaltet ein elektromagnetisches Signal, das die Anweisungen nach Anspruch Z01 trägt.
  • Beispiel Z14 beinhaltet eine Einrichtung, die Mittel zum Durchführen des Verfahrens nach einem der Ansprüche A01 bis D09 umfasst.
  • 7. TERMINOLOGIE
  • Wie hierin verwendet, sollen die Singularformen „ein“, „eine“ und „der/die/das“ auch Pluralformen einschließen, sofern der Kontext nicht eindeutig etwas anderes angibt. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“, wenn in dieser Beschreibung verwendet, das Vorhandensein aufgeführter Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht das Vorhandensein oder das Hinzufügen eines oder mehrerer anderer Merkmale, ganzer Zahlen, Schritte, Operation, Elemente, Komponenten und/oder Gruppen davon ausschließt. Der Ausdruck „A und/oder B“ bedeutet (A), (B) oder (A und B). Für die Zwecke der vorliegenden Offenbarung bedeutet der Ausdruck „A, B und/oder C“ (A), (B), (C), (A und B), (A und C), (B und C) oder (A, B und C). Die Beschreibung kann die Ausdrücke „in einer Ausführungsform“ oder „in manchen Ausführungsformen“ verwenden, die sich jeweils auf eine oder mehrere der gleichen oder unterschiedlichen Ausführungsformen beziehen können. Weiterhin sind die Begriffe „umfassend“, „beinhaltend“, „aufweisend“ und dergleichen, wie sie mit Bezug auf die vorliegende Offenbarung verwendet werden, synonym.
  • Die Begriffe „gekoppelt“, „kommunikativ gekoppelt“ werden, zusammen mit Ableitungen davon, hierin verwendet. Der Begriff „gekoppelt“ kann bedeuten, dass sich zwei oder mehr Elemente in direktem physischem oder elektrischem Kontakt miteinander befinden, kann bedeuten, dass sich zwei oder mehr Elemente indirekt berühren, aber immer noch miteinander zusammenwirken oder interagieren, und/oder kann bedeuten, dass ein oder mehrere andere Elemente zwischen den Elementen gekoppelt oder verbunden sind, die als miteinander gekoppelt bezeichnet werden. Der Begriff „direkt gekoppelt“ kann bedeuten, dass zwei oder mehr Elemente in direktem Kontakt miteinander stehen. Der Begriff „kommunikativ gekoppelt“ kann bedeuten, dass zwei oder mehr Elemente durch ein Kommunikationsmittel, einschließlich über einen Draht oder eine andere Zusammenschaltungsverbindung, über einen Drahtloskommunikationskanal oder -Link und/oder dergleichen, miteinander in Kontakt stehen können.
  • Der Begriff „Herstellen“ oder „Herstellung“ verweist zumindest in einigen Ausführungsformen auf (teilweise oder vollständige) Aktionen, Aufgaben, Operationen usw. in Bezug auf das Herbeiführen oder die Vorbereitung auf das Herbeiführen von etwas, entweder aktiv oder passiv (z. B. Aufdecken einer Vorrichtungsidentität oder Entitätsidentität). Zusätzlich oder alternativ dazu verweist der Begriff „Herstellen“ oder „Herstellung“ zumindest in einigen Ausführungsformen auf (teilweise oder vollständige) Aktionen, Aufgaben, Operationen usw. in Bezug auf Initiieren, Starten oder Aufwärmen einer Kommunikation oder Initiieren, Starten oder Aufwärmen einer Beziehung zwischen zwei Entitäten oder Elementen verweisen (z. B. Herstellen einer Sitzung, Herstellen einer Sitzung usw.). Zusätzlich oder alternativ dazu verweist der Begriff „Herstellen“ oder „Herstellung“ zumindest in einigen Ausführungsformen auf das Initiieren von etwas in einen Zustand der Arbeitsbereitschaft. Der Begriff „hergestellt“ verweist zumindest in einigen Ausführungsformen auf einen betriebsbereiten oder gebrauchsfertigen Zustand (zum Beispiel vollständige Herstellung). Darüber hinaus kann eine beliebige Definition für den Begriff „Herstellen“ oder „Herstellung“, die in einer beliebigen Spezifikation oder einem beliebigen Standard definiert ist, für Zwecke der vorliegenden Offenbarung verwendet werden, und derartige Definitionen werden nicht von einer der oben genannten Definitionen verworfen.
  • Der Begriff „erhalten“ verweist zumindest in einigen Ausführungsformen auf (partielle oder vollständige) Aktionen, Aufgaben, Operationen usw. zum Abfangen, Verschieben, Kopieren, Abrufen oder Erfassen (z. B. aus einem Speicher, einer Schnittstelle oder einem Puffer), auf den ursprünglichen Paketstrom oder auf eine Kopie (z. B. eine neue Instanz) des Paketstroms. Andere Aspekte des Erhaltens oder Empfangens können Instanziieren, Aktivieren oder Steuern der Fähigkeit zum Erhalten oder Empfangen des Stroms von Paketen (oder der folgenden Parameter und Vorlagen oder Vorlagenwerte) beinhalten.
  • Der Begriff „Empfang“ verweist zumindest in einigen Ausführungsformen auf eine beliebige Aktion (oder eine Menge von Aktionen), die beim Empfangen oder Erhalten eines Objekts, von Daten, einer Dateneinheit usw. und/oder der Tatsache, dass das Objekt, die Daten, die Dateneinheit usw. empfangen werden, involviert sind. Der Begriff „Empfang“ verweist zumindest in einigen Ausführungsformen darauf, dass ein Objekt, Daten, eine Dateneinheit usw. zu einer Vorrichtung, einem System, einem Element usw. gepusht werden (z. B. oft als ein Push-Modell bezeichnet), durch eine Vorrichtung, ein System, ein Element usw. gezogen werden (z. B. oft als ein Pull-Modell bezeichnet) und/oder dergleichen.
  • Der Begriff „Element“ verweist zumindest in einigen Ausführungsformen auf eine Einheit, die auf einem gegebenen Abstraktionsniveau unteilbar ist und eine klar definierte Grenze aufweist, wobei ein Element eine beliebige Art von Entität sein kann, einschließlich zum Beispiel einer/eines oder mehrerer Vorrichtungen, Systeme, Steuerungen, Netzwerkelemente, Module usw. oder Kombinationen davon.
  • Der Begriff „Messung“ verweist zumindest in einigen Ausführungsformen auf die Beobachtung und/oder Quantifizierung von Attributen eines Objekts, Ereignisses oder Phänomens.
  • Der Begriff „Signal“ verweist zumindest in einigen Ausführungsformen auf eine beobachtbare Änderung einer Qualität und/oder Quantität. Zusätzlich oder alternativ dazu verweist der Begriff „Signal“ zumindest in einigen Ausführungsformen auf eine Funktion, die Informationen über ein Objekt, ein Ereignis oder ein Phänomen vermittelt. Zusätzlich oder alternativ dazu verweist der Begriff „Signal“ zumindest in einigen Ausführungsformen auf eine beliebige zeitlich variierende Spannung, einen beliebigen zeitlich variierenden Strom oder eine beliebige zeitlich variierende elektromagnetische Welle, die/der Informationen tragen kann oder nicht. Der Begriff „digitales Signal“ verweist zumindest in einigen Ausführungsformen auf ein Signal, das aus einer diskreten Menge von Wellenformen einer physikalischen Größe konstruiert ist, um eine Sequenz diskreter Werte zu repräsentieren.
  • Die Begriffe „Ego“ (wie z. B. in „Ego-Vorrichtung“) und „Subjekt“ (wie z. B. „Datensubjekt“) beziehen sich zumindest in einigen Ausführungsformen auf eine Entität, ein Element, eine Vorrichtung, ein System usw., die in Betracht gezogen oder in Betracht gezogen wird. Die Begriffe „Nachbar“ und „nahe“ (wie z. B. in „nahe Vorrichtung“) verweisen wenigstens in einigen Ausführungsformen auf eine Entität, ein Element, eine Vorrichtung, ein System usw., die/das sich von einer Ego-Vorrichtung oder einem Subjekt unterscheidet.
  • Der Begriff „Schaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf eine Schaltung oder ein System aus mehreren Schaltungen, die bzw. das dazu konfiguriert ist, eine bestimmte Funktion in einer elektronischen Vorrichtung durchzuführen. Die Schaltung oder das System von Schaltungen kann Teil einer oder mehrerer Hardwarekomponenten sein oder diese beinhalten, wie etwa eine Logikschaltung, ein Prozessor (gemeinsam genutzt, dediziert oder Gruppe) und/oder Speicher (gemeinsam genutzt, dediziert oder Gruppe), eine anwendungsspezifische integrierte Schaltung (ASIC), feldprogrammierbares Gate-Array (FPGA), programmierbare Logiksteuerung (PLC), System-on-Chip (SoC), System-in-Package (SiP), Multi-Chip-Package (MCP), Digitalsignalprozessor (DSP) usw., die dazu konfiguriert sind, die beschriebene Funktionalität bereitzustellen. Außerdem kann der Begriff „Schaltungsanordnung“ auf eine Kombination eines oder mehrerer Hardwareelemente mit dem Programmcode verweisen, der zum Ausführen der Funktionalität dieses Programmcodes verwendet wird. Einige Arten von Schaltungsanordnungen können ein oder mehrere Software- oder Firmware-Programme ausführen, um zumindest einen Teil der beschriebenen Funktionalität bereitzustellen. Eine solche Kombination aus Hardwareelementen und Programmcode kann als ein bestimmter Typ von Schaltungsanordnung bezeichnet werden.
  • Der Begriff „Prozessorschaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf eine Schaltungsanordnung, ist ein Teil davon oder beinhaltet diese, welche dazu in der Lage ist, sequenziell und automatisch eine Sequenz arithmetischer oder logischer Operationen oder Aufzeichnen, Speichern und/oder Übertragen digitaler Daten auszuführen. Der Begriff „Prozessorschaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf einen oder mehrere Anwendungsprozessoren, einen oder mehrere Basisbandprozessoren, eine physische CPU, einen Einzelkernprozessor, einen Doppelkernprozessor, einen Dreikernprozessor, einen Vierkernprozessor und/oder eine beliebige andere Vorrichtung, die dazu in der Lage ist, computerausführbare Anweisungen, wie etwa Programmcode, Softwaremodule und/oder funktionale Prozesse, auszuführen oder anderweitig zu betreiben. Die Begriffe „Anwendungsschaltungsanordnung“ und/oder „Basisbandschaltungsanordnung“ können als synonym zu „Prozessorschaltungsanordnung“ angesehen werden und können als solche bezeichnet werden.
  • Der Begriff „Speicher“ und/oder „Speicherschaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf eine oder mehrere Hardwarevorrichtungen zum Speichern von Daten, einschließlich RAM, MRAM, PRAM, DRAM und/oder SDRAM, Kernspeicher, ROM, Magnetplattenspeicherungsmedien, optische Speicherungsmedien, Flash-Speichervorrichtungen oder andere maschinenlesbare Medien zum Speichern von Daten. Der Begriff „computerlesbares Medium“ kann unter anderem Speicher, portable oder feste Speicherungsvorrichtungen, optische Speicherungsvorrichtungen und verschiedene andere Medien beinhalten, die dazu in der Lage sind, Anweisungen oder Daten zu speichern, zu halten oder zu tragen.
  • Der Begriff „Schnittstellenschaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf eine Schaltungsanordnung, ist Teil davon oder beinhaltet diese, welche den Austausch von Informationen zwischen zwei oder mehr Komponenten oder Vorrichtungen ermöglicht. Der Begriff „Schnittstellenschaltungsanordnung“ verweist zumindest in einigen Ausführungsformen auf eine oder mehrere Hardwareschnittstellen, zum Beispiel Busse, E/A-Schnittstellen, Peripheriekomponentenschnittstellen, Netzwerkschnittstellenkarten und/oder dergleichen.
  • Der Begriff „Vorrichtung“ verweist zumindest in einigen Ausführungsformen auf eine physische Entität, die innerhalb einer anderen physischen Entität in ihrer Nähe eingebettet oder an dieser angebracht ist, mit Fähigkeiten, digitale Informationen von oder zu dieser physischen Entität zu übertragen.
  • Der Begriff „Entität“ verweist zumindest in einigen Ausführungsformen auf eine distinkte Komponente einer Architektur oder Vorrichtung, oder Informationen, die als Nutzdaten übertragen werden.
  • Der Begriff „Steuerung“ verweist zumindest in einigen Ausführungsformen auf ein Element oder eine Entität, das/die die Fähigkeit aufweist, eine physische Entität zu beeinflussen, wie etwa durch Ändern ihres Zustands oder Veranlassen der physischen Entität, sich zu bewegen.
  • Der Begriff „Anschluss“ verweist zumindest in einigen Ausführungsformen auf einen Punkt, an dem ein Leiter von einer Komponente, einer Vorrichtung oder einem Netzwerk endet. Zusätzlich oder alternativ verweist der Begriff „Anschluss“ zumindest in einigen Ausführungsformen auf einen elektrischen Verbinder, der als eine Schnittstelle zu einem Leiter fungiert und einen Punkt erzeugt, an dem externe Schaltungen verbunden werden können. Bei manchen Ausführungsformen können Anschlüsse elektrische Zuleitungen, elektrische Verbinder, elektrische Verbinder, Lötbecher oder -kelche und/oder dergleichen beinhalten.
  • Der Begriff „Rechenknoten“ oder „Rechenvorrichtung“ verweist zumindest in einigen Ausführungsformen auf eine identifizierbare Entität, die einen Aspekt von Rechenoperationen implementiert, sei es Teil eines größeren Systems, einer verteilten Sammlung von Systemen oder einer eigenständigen Einrichtung. Bei manchen Beispielen kann ein Rechenknoten als eine „Datenverarbeitungsvorrichtung“, ein „Datenverarbeitungssystem“ oder dergleichen bezeichnet werden, sei es im Betrieb als ein Client, ein Server oder eine Zwischenentität. Spezielle Implementierungen eines Rechenknotens können in einen Server, eine Basisstation, ein Gateway, eine Straßenrandeinheit, eine Vor-Ort-Einheit, ein Benutzergerät, eine Endverbrauchervorrichtung, ein Gerät oder dergleichen integriert sein.
  • Der Begriff „Computersystem“ verweist zumindest in einigen Ausführungsformen auf eine beliebige Art von miteinander verbundenen elektronischen Vorrichtungen, Computervorrichtungen oder Komponenten davon. Zusätzlich verweisen die Begriffe „Computersystem“ und/oder „System“ zumindest in einigen Ausführungsformen auf verschiedene Komponenten eines Computers, die kommunikativ miteinander gekoppelt sind. Ferner verweist der Begriff „Computersystem“ und/oder „System“ zumindest in einigen Ausführungsformen auf mehrere Computervorrichtungen und/oder mehrere Rechensysteme, die kommunikativ miteinander gekoppelt und dazu konfiguriert sind, Rechen- und/oder Vernetzungsressourcen gemeinsam zu nutzen.
  • Der Begriff „Architektur“ verweist zumindest in einigen Ausführungsformen auf eine Computerarchitektur oder eine Netzwerkarchitektur. Eine „Computerarchitektur“ ist eine physische und logische Gestaltung oder Anordnung von Software- und/oder Hardwareelementen in einem Datenverarbeitungssystem oder einer Datenverarbeitungsplattform einschließlich Technologiestandards für Interaktionen dazwischen. Eine „Netzwerkarchitektur“ ist eine physische und logische Gestaltung oder Anordnung von Software- und/oder Hardwareelementen in einem Netzwerk einschließlich Kommunikationsprotokollen, Schnittstellen und Medienübertragung.
  • Der Begriff „Gerät“, „Computergerät“ oder dergleichen verweist zumindest in einigen Ausführungsformen auf eine Computervorrichtung oder ein Computersystem mit Programmcode (z. B. Software oder Firmware), der speziell dazu gestaltet ist, eine spezielle Rechenressource bereitzustellen. Ein „virtuelles Gerät“ ist ein virtuelles Maschinenabbild, das durch eine Hypervisor-ausgestattete Vorrichtung zu implementieren ist, die ein Computergerät virtualisiert oder emuliert oder anderweitig dediziert ist, eine spezifische Rechenressource bereitzustellen.
  • Der Begriff „Benutzergerät“ oder „UE“ verweist zumindest in einigen Ausführungsformen auf eine Vorrichtung mit Funkkommunikationsfähigkeiten und kann einen fernen Benutzer von Netzwerkressourcen in einem Kommunikationsnetzwerk beschreiben. Der Begriff „Benutzergerät“ oder „UE“ kann als Synonym für Client, Mobilteil, Mobilvorrichtung, Mobilendgerät, Benutzerendgerät, Mobileinheit, Station, Mobilstation, Mobilbenutzer, Teilnehmer, Benutzer, Fernstation, Zugangsagent, Benutzeragent, Empfänger, Funkgerät, rekonfigurierbares Funkgerät, rekonfigurierbare Mobilvorrichtung usw. angesehen und als solche bezeichnet werden. Des Weiteren kann der Begriff „Benutzergerät“ oder „UE“ eine beliebige Art von drahtloser/drahtgebundener Vorrichtung oder eine beliebige Rechenvorrichtung mit einer Drahtloskommunikationsschnittstelle beinhalten. Beispiele für UEs, Client-Vorrichtungen usw. beinhalten Desktop-Computer, Workstations, Laptop-Computer, mobile Datenendgeräte, Smartphones, Tablet-Computer, Wearable-Vorrichtungen, Maschine-zu-Maschine- bzw. M2M-Vorrichtungen, Maschinentyp-Kommunikations- bzw. MTC-Vorrichtungen, Internet-der-Dinge- bzw. IoT-Vorrichtungen, eingebettete Systeme, Sensoren, autonome Fahrzeuge, Drohnen, Roboter, fahrzeuginterne Infotainmentsysteme, Instrumentencluster, Onboard-Diagnosevorrichtungen, Dashtop-Mobilgeräte, elektronische Motorverwaltungssysteme, Elektronik-/Motorsteuereinheiten/-module, Mikrocontroller, Steuermodul, Servervorrichtungen, Netzwerkgeräte, Head-Up-Display- bzw. HUD-Vorrichtungen, helmmontierte Anzeigevorrichtungen, Augmented-Reality- bzw. AR-Vorrichtungen, Virtual-Reality- bzw. VR-Vorrichtungen, Mixed-Reality- bzw. MR-Vorrichtungen und/oder andere ähnliche Systeme oder Vorrichtungen.
  • Der Begriff „Station“ oder „STA“ verweist wenigstens in einigen Ausführungsformen auf eine logische Entität, die eine einzeln adressierbare Instanz einer Medienzugriffssteuerungs- bzw. MAC- und Bitübertragungsschicht- bzw. PHY-Schnittstelle zu dem drahtlosen Medium (WM) ist. Der Begriff „drahtloses Medium“ oder „WM“ verweist zumindest in einigen Ausführungsformen auf das Medium, das verwendet wird, um die Übertragung von Protokolldateneinheiten (PDUs) zwischen Peer-Bitübertragungsschicht- bzw. PHY-Entitäten eines drahtlosen Lokalbereichsnetzwerks (LAN) zu implementieren.
  • Der Begriff „Netzwerkelement“ verweist zumindest in einigen Ausführungsformen auf ein physisches oder virtualisiertes Gerät und/oder eine physische oder virtualisierte Infrastruktur, die verwendet werden, um drahtgebundene oder drahtlose Kommunikationsnetzwerkdienste bereitzustellen. Der Begriff „Netzwerkelement“ kann als synonym zu einem vernetzten Computer, einer vernetzten Hardware, einem Netzwerkgerät, einem Netzwerkknoten, einem Router, einem Switch, einem Hub, einer Brücke, einer Funknetzwerksteuerung, einem Netzwerkzugangsknoten (NAN), einer Basisstation, einem Zugangspunkt (AP), einer RAN-Vorrichtung, einem RAN-Knoten, einem Gateway, einem Server, einem Netzwerkgerät, einer Netzwerkfunktion (NF), einer virtualisierten NF (VNF) und/oder dergleichen angesehen und/oder als diese bezeichnet werden.
  • Der Begriff „Zugangspunkt“ oder „AP“ verweist zumindest in einigen Ausführungsformen auf eine Entität, die eine Station (STA) enthält und Zugang zu den Verteilungsdiensten über das drahtlose Medium (WM) für assoziierte STAs bereitstellt. Ein AP umfasst eine STA und eine Verteilungssystemzugangsfunktion (DSAF).
  • Der Begriff „Basisstation“ verweist zumindest in einigen Ausführungsformen auf ein Netzwerkelement in einem Funkzugangsnetzwerk (RAN), wie etwa einem Mobilkommunikationsnetzwerk der vierten Generation (4G) oder der fünften Generation (5G), das für die Übertragung und den Empfang von Funksignalen in einer oder mehreren Zellen zu oder von einem (UE) zuständig ist. Eine Basisstation kann eine integrierte Antenne aufweisen oder über Zubringerkabel mit einem Antennenarray verbunden sein. Eine Basisstation verwendet spezialisierte digitale Signalverarbeitung und Netzwerkfunktionshardware. In einigen Beispielen kann die Basisstation für Flexibilität, Kosten und Leistungsfähigkeit in mehrere Funktionsblöcke aufgeteilt sein, die in Software arbeiten. Bei manchen Beispielen kann eine Basisstation einen evolved Node B (eNB) oder einen Next Generation Node B (gNB) beinhalten. In einigen Beispielen kann die Basisstation Rechenhardware betreiben oder umfassen, um als ein Rechenknoten zu arbeiten. In vielen der hier besprochenen Szenarien kann jedoch ein RAN-Knoten mit einem Zugangspunkt (zum Beispiel Drahtlosnetzwerkzugangspunkt) oder einer anderen Netzwerkzugangs-Hardware ersetzt werden.
  • Der Begriff „E-UTEAN-NodeB“, „eNodeB“ oder „eNB“ verweist zumindest in einigen Ausführungsformen auf einen RAN-Knoten, der E-UTRA-Benutzerebenen-(PDCP/RLC/MAC/PHY-) und Steuerebenen- (RRC-) Protokollabschlüsse zu einem UE bereitstellt und über eine S1-Schnittstelle mit dem Evolved Packet Core (EPC) verbunden ist. Zwei oder mehr eNBs sind mittels eines X2-Interconnect miteinander (und/oder mit einem oder mehreren en-gNBs) verbunden.
  • Der Begriff „next generation eNB“ oder „ng-eNB“ verweist zumindest in einigen Ausführungsformen auf einen RAN-Knoten, der E-UTRA-Benutzerebenen- und Steuerebenenprotokollabschlüsse zu einem UE bereitstellt und über die NG-Schnittstelle mit dem 5GC verbunden ist. Zwei oder mehr ng-eNBs sind mittels einer Xn-Schnittstelle miteinander (und/oder mit einem oder mehreren gNBs) verbunden.
  • Der Begriff „next generation NodeB“, „gNodeB“ oder „gNB“ verweist zumindest in einigen Ausführungsformen auf einen RAN-Knoten, der NR-Benutzerebenen- und Steuerebenenprotokollabschlüsse zu einem UE bereitstellt und über die NG-Schnittstelle mit dem 5GC verbunden ist. Zwei oder mehr gNBs sind über eine Xn-Schnittstelle miteinander (und/oder mit einem oder mehreren ng-eNBs) verbunden.
  • Der Begriff „E-UTRA-NR-gNB“ oder „en-gNB“ verweist wenigstens in einigen Ausführungsformen auf einen RAN-Knoten, der NR-Benutzerebenen- und Steuerebenenprotokollabschlüsse gegenüber einem UE bereitstellt und als ein Sekundärknoten in E-UTRA-NR-Dual-Connectivity(EN-DC)-Szenarien fungiert (vgl. z. B. 3GPP TS 37.340 v16.6.0 (9.7.2021)). Zwei oder mehr en-gNBs sind über eine X2-Schnittstelle miteinander (und/oder mit einem oder mehreren eNBs) verbunden.
  • Der Begriff „Next Generation RAN-Knoten“ oder „NG-RAN-Knoten“ verweist zumindest in einigen Ausführungsformen auf entweder einen gNB oder einen ng-eNB.
  • Der Begriff „IAB-Knoten“ verweist zumindest in einigen Ausführungsformen auf einen RAN-Knoten, der New-Radio- bzw. NR-Zugangsverbindungen zu Benutzergeräten (UEs) und NR-Backhaul-Verbindungen zu übergeordneten Knoten und untergeordneten Knoten unterstützt. Der Begriff „IAB-Donor“ verweist zumindest in einigen Ausführungsformen auf einen RAN-Knoten (z. B. einen gNB), der UEs einen Netzwerkzugang über ein Netzwerk aus Backhaul- und Zugangsverbindungen bereitstellt.
  • Der Begriff „Zentraleinheit“ oder „CU“ verweist zumindest in einigen Ausführungsformen auf einen logischen Knoten, der Funkressourcensteuerungs- (RRC-), Service-Data-Adaptation-Protocol- (SDAP-) und/oder Packet-Data-Convergence-Protocol- (PDCP-) Protokolle/Schichten eines NG-RAN-Knotens, oder RRC- und PDCP-Protokolle des en-gNB hostet, die den Betrieb einer oder mehrerer DUs steuern; eine CU schließt eine F1-Schnittstelle ab, die mit einer DU verbunden ist, und kann mit mehreren DUs verbunden sein.
  • Der Begriff „verteilte Einheit“ oder „DU“ verweist zumindest in einigen Ausführungsformen auf einen logischen Knoten, der Funkverbindungssteuerungs- (RLC-), Medienzugriffssteuerungs- (MAC-) und Bitübertragungs- (PHY-) Schichten des NG-RAN-Knotens oder en-gNB hostet, und ihr Betrieb wird teilweise von einer CU gesteuert; eine DU unterstützt eine oder mehrere Zellen, und eine Zelle wird von nur einer DU unterstützt; und eine DU schließt die F1-Schnittstelle ab, die mit einer CU verbunden ist.
  • Der Begriff „Residential Gateway“ oder „RG“ verweist zumindest in einigen Ausführungsformen auf eine Vorrichtung, die zum Beispiel Sprache, Daten, Rundfunkvideo, Video auf Abruf an andere Vorrichtungen an Kundenstandorten liefert. Der Begriff „Wireline 5G Access Network“ oder „W-5GAN“ verweist zumindest in einigen Ausführungsformen auf ein Wireline-AN, das über N2- und N3-Referenzpunkte mit einem 5GC verbunden ist. Das W-5GAN kann ein W-5GBAN oder ein W-5GCAN sein. Der Begriff „Wireline 5G Cable Access Network“ oder „W-5GCAN“ bezieht sich zumindest in einigen Ausführungsformen auf ein Zugangsnetzwerk, das in/durch CableLabs definiert ist. Der Begriff „Wireline BBF Cable Access Network“ oder „W-5GBAN“ verweist zumindest in einigen Ausführungsformen auf ein Zugangsnetzwerk, das in/durch Broadband Forum (BBF) definiert ist. Der Begriff „Wireline Access Gateway Function“ oder „W-AGF“ verweist zumindest in einigen Ausführungsformen auf eine Netzwerkfunktion in W-5GAN, die Konnektivität zu einem 3GPP-5G-Kernnetzwerk (5GC) mit 5G-RG und/oder FN-RG bereitstellt. Der Begriff „5G-RG“ bezieht sich zumindest in einigen Ausführungsformen auf ein RG, das dazu in der Lage ist, sich mit einem 5GC zu verbinden, das die Rolle eines Benutzergeräts mit in Bezug auf das 5GC spielt; es unterstützt ein sicheres Element und tauscht eine N1-Signalisierung mit dem 5GC aus. Das 5G-RG kann ein 5G-BRG oder ein 5G-CRG sein.
  • Der Begriff „Edge-Computing“ umfasst viele Implementierungen verteilter Datenverarbeitung, die Verarbeitungsaktivitäten und -Ressourcen (z. B. Berechnung, Speicherung, Beschleunigungsressourcen) in Richtung des Randes („Edge“) des Netzwerks bewegen, in einem Bestreben, Latenz zu reduzieren und den Durchsatz für Endpunktbenutzer (Client-Vorrichtungen, Benutzergeräte usw.) zu erhöhen. Solche Edge-Computing-Implementierungen umfassen typischerweise das Anbieten solcher Aktivitäten und Ressourcen in Cloud-ähnlichen Diensten, Funktionen, Anwendungen und Teilsystemen von einem oder mehreren Orten, auf die über drahtlose Netzwerke zugegriffen werden kann. Somit sind die Verweise auf ein „Edge“ eines Netzwerks, Clusters, einer Domäne, eines Systems oder einer Rechenanordnung, die hier verwendet werden, Gruppen oder Gruppierungen funktioneller verteilter Rechenelemente und stehen daher allgemein nicht in Beziehung zu „Kanten“ (Links oder Verbindungen), wie sie in der Graphentheorie verwendet werden.
  • Der Begriff „Zentrale“ (oder CO) gibt einen Aggregationspunkt für eine Telekommunikationsinfrastruktur innerhalb eines zugänglichen oder definierten geographischen Bereichs an, wo oft Telekommunikationsdienstanbieter traditionell oft Vermittlungsausrüstung für einen oder mehrere Typen von Zugangsnetzwerken angeordnet haben. Die CO kann physisch so ausgestaltet sein, dass sie Telekommunikationsinfrastrukturausrüstung oder Rechen-, Datenspeicherungs- und Netzwerkressourcen beherbergt. Die CO muss jedoch kein designierter Ort eines Telekommunikationsdienstleisters sein. Die CO kann eine beliebige Anzahl an Rechenvorrichtungen für Edge-Anwendungen und -Dienste oder sogar lokale Implementierungen von Cloud-ähnlichen Diensten hosten.
  • Der Begriff „Cloud-Computing“ oder „Cloud“ bezieht sich zumindest in einigen Ausführungsformen auf ein Paradigma zum Ermöglichen von Netzwerkzugriff auf einen skalierbaren und elastischen Pool von gemeinsam nutzbaren Rechenressourcen mit Selbstbedienungsbereitstellung und -Verwaltung bei Bedarf und ohne aktive Verwaltung durch Benutzer. Cloud-Computing stellt Cloud-Computing-Dienste (oder Cloud-Dienste) bereit, bei denen es sich um eine oder mehrere über Cloud-Computing angebotene Fähigkeiten handelt, die unter Verwendung einer definierten Schnittstelle (z. B. einer API oder dergleichen) aufgerufen werden.
  • Der Begriff „Rechenressource“ oder einfach „Ressource“ verweist zumindest in einigen Ausführungsformen auf eine beliebige physische oder virtuelle Komponente oder Verwendung solcher Komponenten mit eingeschränkter Verfügbarkeit innerhalb eines Computersystems oder Netzwerks. Beispiele für Rechenressourcen umfassen Nutzung von/Zugang zu Servern, Prozessor(en), Speichergeräten, Speichervorrichtungen, Speicherbereichen, Netzwerken, elektrischer Leistung, (periphere) Eingabe-/Ausgabevorrichtungen, mechanischen Vorrichtungen, Netzwerkverbindungen (z. B. Kanäle/Links, Ports, Netzwerkbuchsen usw.), Betriebssystemen, virtuellen Maschinen (VMs), Software/Anwendungen, Computerdateien und/oder dergleichen für eine Zeitdauer. Eine „Hardwareressource“ verweist zumindest in einigen Ausführungsformen auf Rechen-, Speicherungs- und/oder Netzwerkressourcen, die durch ein oder mehrere physische Hardwareelemente bereitgestellt werden. Eine „virtualisierte Ressource“ bezieht sich zumindest in einigen Ausführungsformen auf Rechen-, Speicherungs- und/oder Netzwerkressourcen, die durch eine Virtualisierungsinfrastruktur für eine Anwendung, eine Vorrichtung, ein System usw. bereitgestellt werden. Der Begriff „Netzwerkressource“ oder „Kommunikationsressource“ bezieht sich zumindest in einigen Ausführungsformen auf Ressourcen, auf die Computervorrichtungen/- systeme über ein Kommunikationsnetzwerk zugreifen können. Der Begriff „Systemressourcen“ verweist zumindest in einigen Ausführungsformen auf eine beliebige Art gemeinsam genutzter Entitäten zum Bereitstellen von Diensten und kann Rechen- und/oder Netzwerkressourcen beinhalten. Systemressourcen können als eine Menge kohärenter Funktionen, Netzwerkdatenobjekte oder Dienste angesehen werden, auf die durch einen Server zugegriffen werden kann, wobei sich solche Systemressourcen auf einem einzigen Host oder mehreren Hosts befinden und eindeutig identifizierbar sind.
  • Der Begriff „Arbeitslast“ verweist zumindest in einigen Ausführungsformen auf eine Menge an Arbeit, die durch ein Rechensystem, eine Vorrichtung, eine Entität usw. während eines Zeitraums oder zu einem bestimmten Zeitpunkt durchgeführt wird. Eine Arbeitslast kann als eine Richtgröße repräsentiert werden, wie etwa eine Reaktionszeit, ein Durchsatz (z. B. wie viel Arbeit über einen Zeitraum erreicht wird) und/oder dergleichen. Zusätzlich oder alternativ dazu kann die Arbeitslast als eine Speicherarbeitslast (z. B. eine Menge an Speicherplatz, der zur Programmausführung benötigt wird, um temporäre oder permanente Daten zu speichern und Zwischenberechnungen durchzuführen), eine Prozessorarbeitslast (z. B. eine Anzahl an Anweisungen, die von einem Prozessor während einer gegebenen Zeitspanne oder zu einem bestimmten Zeitpunkt ausgeführt werden), eine E/A-Arbeitslast (z. B. eine Anzahl von Ein- und Ausgaben oder Systemzugriffen während eines gegebenen Zeitraums oder zu einem bestimmten Zeitpunkt), Datenbankarbeitslasten (z. B. eine Anzahl von Datenbankabfragen während eines Zeitraums), eine netzwerkbezogene Arbeitslast (z. B. eine Anzahl von Netzwerkanhängen, eine Anzahl von Mobilitätsaktualisierungen, eine Anzahl von Funkverknüpfungsausfällen, eine Anzahl von Handovers, eine Menge von über eine Luftschnittstelle zu übertragenden Daten usw.) und/oder dergleichen. Verschiedene Algorithmen können verwendet werden, um eine Arbeitslast und/oder Arbeitslastcharakteristiken zu bestimmen, die auf einem beliebigen der zuvor genannten Arbeitslasttypen basieren können.
  • Der Begriff „Cloud-Dienstanbieter“ (oder CSP) bezeichnet eine Organisation, die typischerweise umfangreiche „Cloud“-Ressourcen betreibt, die zentralisierte, regionale und Edge-Datenzentren (z. B. wie im Kontext der öffentlichen Cloud verwendet) umfassen. In anderen Beispielen kann ein CSP auch als ein Cloud-Dienstbetreiber (CSO) bezeichnet werden. Verweise auf „Cloud-Computing“ beziehen sich allgemein auf Rechenressourcen und -dienste, die von einem CSP oder einem CSO an fernen Orten mit wenigstens etwas erhöhter Latenz, Entfernung oder Beschränkungen relativ zu Edge-Computing angeboten werden.
  • Der Begriff „Datenzentrum“ verweist zumindest in einigen Ausführungsformen auf eine zweckgestaltete Struktur, die mehrere Hochleistungsrechen- und -datenspeicherungsknoten beherbergen soll, sodass eine große Menge an Rechen-, Datenspeicherungs- und Netzwerkressourcen an einem einzigen Standort vorhanden ist. Dabei handelt es sich häufig um spezialisierte Rack- und Gehäusesysteme, geeignete Heiz-, Kühl-, Lüftungs-, Sicherheits-, Brandschutz- und Stromversorgungssysteme. Der Begriff kann in manchen Zusammenhängen auch auf einen Rechen- und Datenspeicherungsknoten verweisen. Ein Datenzentrum kann im Maßstab zwischen einem zentralisierten oder Cloud-Datenzentrum (z. B. größtes), einem regionalen Datenzentrum und einem Edge-Datenzentrum (z. B. kleinstes) variieren.
  • Der Begriff „Zugangs-Edge-Schicht“ gibt die Teilschicht des Infrastruktur-Edge an, die dem Endbenutzer oder der Endvorrichtung am nächsten ist. Eine solche Schicht kann zum Beispiel durch ein Edge-Datenzentrum umgesetzt werden, das an einem zellularen Netzwerkstandort bereitgestellt wird. Die Zugangs-Edge-Schicht fungiert als die vordere Linie des Infrastruktur-Edge und kann mit einer Aggregations-Edge-Schicht verbunden sein, die in der Hierarchie höher ist.
  • Der Begriff „Aggregations-Edge-Schicht“ gibt die Schicht des Infrastruktur-Edge einen Hop von der Zugangs-Edge-Schicht entfernt an. Diese Schicht kann entweder als ein Datenzentrum im mittleren Maßstab an einem einzigen Ort existieren oder kann aus mehreren miteinander verbundenen Mikrodatenzentren gebildet sein, um eine hierarchische Topologie mit dem Zugriffs-Edge zu bilden, um eine größere Kollaboration, eine größere Arbeitslastausfallsicherheit und Skalierbarkeit als das Zugriffs-Edge allein zu ermöglichen.
  • Der Begriff „Netzwerkfunktionsvirtualisierung“ (oder NFV) gibt die Migration von NFs von eingebetteten Diensten innerhalb proprietärer Hardwaregeräte zu softwarebasierten virtualisierten NFs (oder VNFs) an, die auf standardisierten CPUs (z. B. innerhalb standardmäßiger x86®- und ARM®-Server, wie etwa jener einschließlich Intel®-Xeon™- oder AMD®-Epyc™- oder Opteron™-Prozessoren) unter Verwendung von Virtualisierungs- und Cloud-Rechentechnologien nach Industriestandard laufen. Zusätzlich oder alternativ dazu werden NFV-Verarbeitung und Datenspeicherung an den Edge-Datenzentren, die direkt mit dem lokalen Zellularstandort verbunden sind, innerhalb des Infrastruktur-Edge stattfinden.
  • Der Begriff „virtualisierte NF“ (oder VNF) gibt eine softwarebasierte NF an, die auf multifunktionalen, universellen Rechenressourcen (z. B. x86-, ARM-Verarbeitungsarchitektur) arbeitet, die von der NFV anstelle dedizierter physischer Geräte verwendet werden. Zusätzlich oder alternativ dazu werden einige VNFs in einem Edge-Datenzentrum an dem Infrastruktur-Edge arbeiten.
  • Der Begriff „Edge-Computing-Knoten“ oder „Edge-Computing-Vorrichtung“ verweist mindestens bei einigen Ausführungsformen auf eine identifizierbare Entität, die einen Aspekt von Edge-Computing-Operationen implementiert, sei es als Teil eines größeren Systems, einer verteilten Sammlung von Systemen oder eine eigenständige Einrichtung. Bei manchen Beispielen kann ein Rechenknoten als „Edge-Knoten“, „Edge-Vorrichtung“, „Edge-System“ bezeichnet werden, ob er nun als ein Client, Server oder eine Zwischenentität in Betrieb ist. Zusätzlich oder alternativ verweist der Begriff „Edge-Computing-Knoten“ mindestens bei einigen Ausführungsformen auf eine reale, logische oder virtualisierte Implementierung eines rechenfähigen Elements in der Form einer Vorrichtung, eines Gateways, einer Brücke, eines Systems oder eines Teilsystems, einer Komponente, egal ob er in einem Server-, Client-, Endpunkt- oder Peer-Modus arbeitet, und ob er sich an einem „Rand“ eines Netzwerks oder an einem verbundenen Ort weiter innerhalb des Netzwerks befindet. Bezugnahmen auf einen „Knoten“, die hierin verwendet werden, sind im Allgemeinen mit „Vorrichtung“, „Komponente“ und „Teilsystem“ austauschbar; Bezugnahmen auf ein „Edge-Computing-System“ verweisen jedoch im Allgemeinen auf eine verteilte Architektur, Organisation oder Sammlung mehrerer Knoten und Vorrichtungen, die organisiert ist, um einen gewissen Aspekt von Diensten oder Ressourcen in einer Edge-Computing-Umgebung zu erreichen oder anzubieten.
  • Der Begriff „Cluster“ verweist zumindest in einigen Ausführungsformen auf eine Menge oder eine Gruppierung von Entitäten als Teil eines Edge-Computing-Systems (oder -Systemen) in der Form physischer Entitäten (zum Beispiel unterschiedlicher Rechensysteme, Netzwerke oder Netzwerkgruppen), logischer Entitäten (zum Beispiel Anwendungen, Funktionen, Sicherheitskonstrukte, Container) und dergleichen. An einigen Stellen wird ein „Cluster“ auch als eine „Gruppe“ oder eine „Domäne“ bezeichnet. Die Zugehörigkeit des Clusters kann basierend auf Bedingungen oder Funktionen modifiziert oder beeinflusst werden, einschließlich aus dynamischer oder eigenschaftsbasierter Mitgliedschaft, aus Netzwerk- oder Systemverwaltungsszenarien oder aus verschiedenen nachstehend besprochenen beispielhaften Techniken, die eine Entität in einem Cluster hinzufügen, modifizieren oder entfernen können. Cluster können auch mehrere Schichten, Ebenen oder Eigenschaften, einschließlich Variationen von Sicherheitsmerkmalen und Ergebnissen basierend auf solchen Schichten, Ebenen oder Eigenschaften, beinhalten oder damit assoziiert sein.
  • Der Begriff „Datennetzwerk“ oder „DN“ verweist zumindest in einigen Ausführungsformen auf ein Netzwerk, das datenzentrierte Dienste hostet, wie etwa zum Beispiel Betreiberdienste, das Internet, Dienste von Dritten oder Unternehmensnetzwerke. Zusätzlich oder alternativ dazu verweist ein DN zumindest in einigen Ausführungsformen auf Dienstnetzwerke, die einem Betreiber oder einem Dritten gehören und die einem Client oder einem Benutzergerät (UE) als ein Dienst angeboten werden. DNs werden manchmal als „Paketdatennetzwerke“ oder „PDNs“ bezeichnet. Der Begriff „lokales Datennetz“ oder „LADN“ verweist zumindest in einigen Ausführungsformen auf ein DN, auf das das UE nur an speziellen Orten zugreifen kann, das Konnektivität mit einem speziellen DNN bereitstellt und dessen Verfügbarkeit dem UE bereitgestellt wird.
  • Der Begriff „Internet der Dinge“ oder „IoT“ verweist zumindest in einigen Ausführungsformen auf ein System von miteinander in Beziehung stehenden Rechenvorrichtungen, mechanischen und digitalen Maschinen, die dazu in der Lage sind, Daten mit geringer oder keiner menschlichen Interaktion zu übertragen, und kann Technologien, wie etwa Echtzeitanalytik, Maschinenlernen und/oder KI, eingebettete Systeme, Drahtlossensornetzwerke, Steuersysteme, Automatisierung (z. B. Smart-Home-, Smart-Building- und/oder Smart-City-Technologien) und dergleichen beinhalten. IoT-Vorrichtungen sind üblicherweise Niedrigleistungsvorrichtungen ohne schwere Rechen- oder Speicherungsfähigkeiten. Der Begriff „Edge-IoT-Vorrichtungen“ verweist zumindest in einigen Ausführungsformen auf eine beliebige Art von IoT-Vorrichtungen, die am Edge eines Netzwerks eingesetzt werden.
  • Der Begriff „Funktechnologie“ verweist zumindest in einigen Ausführungsformen auf eine Technologie zum drahtlosen Senden und/oder Empfangen elektromagnetischer Strahlung zur Informationsübertragung. Der Begriff „Funkzugangstechnologie“ oder „RAT“ verweist zumindest in einigen Ausführungsformen auf die Technologie, die für die zugrundeliegende physische Verbindung mit einem funkbasierten Kommunikationsnetzwerk verwendet wird.
  • Der Begriff „Kommunikationsprotokoll“ (entweder drahtgebunden oder drahtlos) verweist zumindest in einigen Ausführungsformen auf eine Menge standardisierter Regeln oder Anweisungen, die durch eine Kommunikationsvorrichtung und/oder ein Kommunikationssystem implementiert werden, um mit anderen Vorrichtungen und/oder Systemen zu kommunizieren, einschließlich Anweisungen zum Paketieren/Depaketieren von Daten, Modulieren/Demodulieren von Signalen, Implementieren von Protokollstapeln und/oder dergleichen.
  • Der Begriff „RAT-Typ“ kann zumindest in einigen Ausführungsformen eine Übertragungstechnologie und/oder ein Kommunikationsprotokoll definieren, die/das in einem Zugangsnetzwerk verwendet wird, zum Beispiel New Radio (NR), Long Term Evolution (LTE), Schmalband-IoT (NB-IOT), nicht vertrauenswürdiges Nicht-3GPP, vertrauenswürdiges Nicht-3GPP, vertrauenswürdiges IEEE 802.11, Nicht-3GPP-Zugang, MuLTEfire, WiMAX, Wireline, Wireline-Kabel, Wireline-Breitbandforum (Wireline-BBF) usw. Beispiele für RATs und/oder Drahtloskommunikationsprotokolle beinhalten Folgendes: Advanced-Mobile-Phone-System(AMPS)-Technologien, wie etwa Digital AMPS (D-AMPS), Total Access Communication System (TACS) (und Varianten davon, wie etwa Extended TACS (ETACS), usw.); Global-System-for-Mobile-Communications(GSM)-Technologien, wie etwa Circuit Switched Data (CSD), High Speed CSD (HSCSD), General Packet Radio Service (GPRS) und Enhanced Data Rates for GSM Evolution (EDGE); Third-Generation -Partnership-Project(3GPP)-Technologien, einschließlich zum Beispiel Universal Mobile Telecommunications System (UMTS) (und Varianten davon, wie etwa UMTS Terrestrial Radio Access), Wide Band Code Division Multiple Access /W-CDMA), Freedom of Multimedia Access (FOMA), Time Division-Code Division Multiple Access (TD-CDMA), Time Division-Synchronous Code Division Multiple Access (TD-SCDMA) usw.), Generic Access Network (GAN) / Unlicensed Mobile Access (UMA), High Speed Packet Access (HSPA) (und Varianten davon, wie etwa HSPA Plus (HSPA+) usw.), Long Term Evolution (LTE) (und Varianten davon, wie etwa LTE-Advanced (LTE-A), Evolved UTRA (E-UTRA), LTE Extra, LTE-A Pro, LTE-LAA, MuLTEfire usw.), Fifth Generation (5G) oder New Radio (NR) usw.; ETSI-Technologien, wie etwa High Performance Radio Metropolitan Area Network (HiperMAN) und dergleichen; IEEE-Technologien, wie etwa WiFi (IEEE 802.11 und Varianten davon), Worldwide Interoperability for Microwave Access (WiMAX) (IEEE 802.16 und Varianten davon), Mobile Broadband Wireless Access (MBWA)/iBurst (IEEE 802.20 und Varianten davon) usw.; Integrated Digital Enhanced Network (iDEN) (und Varianten davon, wie etwa Wideband Integrated Digital Enhanced Network (WiDEN); Millimeterwelle(mmWave)-Technologien/Standards (z. B. Drahtlossysteme, die bei 10-300 GHz und darüber arbeiten, wie etwa 3GPP 5G, Wireless Gigabit Alliance (WiGig) -Standards (IEEE 802.11ad, IEEE 802.11ay usw.) usw.); Kurzreichweiten- und/oder Wireless-Personal-Area-Network(WPAN)-Technologien/Standards, wie etwa Bluetooth (und Varianten davon, wie etwa Bluetooth 5.3, Bluetooth Low Energy (BLE) usw.), IEEE-802.15-Technologien/Standards (z. B. IEEE 802.15.4 (Low-Rate WPAN), ZigBee, Thread, IPv6 over Low Power WPAN (6LoWPAN), WirelessHART, MiWi, ISA100.11a, IEEE 802.15.6 (Body Area Networks (BANs), usw.), WiFi-direct, ANT/ANT+, Z-Wellen, 3GPP Proximity Services (ProSe), Universal Plug and Play (UPnP), Low Power Wide Area Networks (LPWANs), Long Range Wide Area Network (LoRA oder LoRaWAN™) und dergleichen; VLC(optische und/oder Sichtbares-Licht-Kommunikation)-Technologien/Standards, wie etwa IEEE 802.15.7 und dergleichen; V2X-Kommunikation einschließlich 3GPP-Zellular-V2X (C-V2X), Wireless Access in Vehicular Environments (WAVE) (IEEE 802.11 p), IEEE 802.11bd, Dedicated Short Range Communications (DSRC), Intelligent-Transport-Systems (ITS) (einschließlich der europäischen ITS-G5, ITS-G5B, ITS-G5C usw.); Sigfox; Mobitex; 3GPP2-Technologien, wie etwa cdmaOne (2G), Code Division Multiple Access 2000 (CDMA 2000) und Evolution-Data Optimized oder Evolution-Data Only (EV-DO); Push-to-talk (PTT), Mobile Telephone System (MTS) (und Varianten davon, wie etwa Improved MTS (IMTS), Advanced MTS (AMTS), usw.); Personal Digital Cellular (PDC); Personal Handy-Phone System (PHS), Cellular Digital Packet Data (CDPD); Cellular Digital Packet Data (CDPD); DataTAC; Digital Enhanced Cordless Telecommunications (DECT) (und Varianten davon, wie etwa DECT Ultra Low Energy (DECT ULE), DECT-2020, DECT-5G usw.); Ultra-High-Frequency(UHF)-Kommunikation; Very-High-Frequency(VHF)-Kommunikation; und/oder eine beliebige andere geeignete RAT oder ein beliebiges anderes geeignetes Protokoll. Zusätzlich zu den oben erwähnten RATs/Standards kann eine beliebige Anzahl an Satelliten-Uplink-Technologien für Zwecke der vorliegenden Offenbarung verwendet werden, einschließlich zum Beispiel Funkgeräte, die unter anderem mit Standards konform sind, die von der International Telecommunication Union (ITU) oder der ETSI ausgegeben werden. Die hier bereitgestellten Beispiele verstehen sich somit als auf verschiedene andere Kommunikationstechnologien, sowohl bestehende als auch noch nicht formulierte, anwendbar.
  • Der Begriff „Kanal“ verweist zumindest in einigen Ausführungsformen auf ein beliebiges Übertragungsmedium, entweder greifbar oder nicht, das verwendet wird, um Daten oder einen Datenstrom zu kommunizieren. Der Begriff „Kanal“ kann synonym mit und/oder äquivalent zu „Kommunikationskanal“, „Datenkommunikationskanal“, „Übertragungskanal“, „Datenübertragungskanal“, „Zugangskanal“, „Datenzugangskanal“, „Link“, „Datenlink“, „Träger“, „Hochfrequenzträger“ und/oder einem beliebigen anderen ähnlichen Begriff sein, der einen Pfad oder ein Medium bezeichnet, über den/das Daten kommuniziert werden. Zusätzlich verweist der Begriff „Link“ zumindest in einigen Ausführungsformen auf eine Verbindung zwischen zwei Vorrichtungen durch eine RAT zum Zweck des Übertragens und Empfangens von Informationen.
  • Der Begriff „Teilrahmen“ verweist zumindest in einigen Ausführungsformen auf ein Zeitintervall, während dessen ein Signal signalisiert wird. Bei manchen Implementierungen ist ein Teilrahmen gleich 1 Millisekunde (ms). Der Begriff „Zeitschlitz“ verweist zumindest in einigen Ausführungsformen auf ein ganzzahliges Vielfaches aufeinanderfolgender Teilrahmen. Der Begriff „Überrahmen“ bezieht sich zumindest in einigen Ausführungsformen auf ein Zeitintervall, das zwei Zeitschlitze umfasst.
  • Der Begriff „Interoperabilität“ verweist zumindest in einigen Ausführungsformen auf die Fähigkeit von STAs, die ein Kommunikationssystem oder eine RAT nutzen, mit anderen STAs zu kommunizieren, die ein anderes Kommunikationssystem oder eine andere RAT nutzen. Der Begriff „Koexistenz“ verweist zumindest in einigen Ausführungsformen auf das gemeinsame Nutzen oder Zuordnen von Hochfrequenzressourcen unter STAs, die entweder ein Kommunikationssystem oder eine RAT verwenden.
  • Der Begriff „Zuverlässigkeit“ verweist zumindest in einigen Ausführungsformen auf die Fähigkeit einer computerbezogenen Komponente (zum Beispiel Software, Hardware oder Netzwerkelement/Entität), konsistent eine gewünschte Funktion durchzuführen und/oder gemäß einer Spezifikation zu arbeiten. Zusätzlich oder alternativ verweist der Begriff „Zuverlässigkeit“ zumindest bei einigen Ausführungsformen auf die Wahrscheinlichkeit, dass ein Produkt, ein System oder ein Dienst seine beabsichtigte Funktion für einen spezifizierten Zeitraum angemessen durchführen wird oder in einer definierten Umgebung mit einer niedrigen Ausfallwahrscheinlichkeit arbeiten wird. Zusätzlich oder alternativ verweist der Begriff „Zuverlässigkeit“ im Kontext von Netzwerkkommunikationen (z. B. „Netzwerkzuverlässigkeit“) zumindest bei einigen Ausführungsformen auf die Fähigkeit eines Netzwerks, eine Kommunikation auszuführen. Der Begriff „Netzwerkzuverlässigkeit“ verweist zumindest in einigen Ausführungsformen auf eine Wahrscheinlichkeit oder ein Maß des Lieferns einer spezifizierten Datenmenge von einer Quelle an ein Ziel (oder eine Senke).
  • Der Begriff „Fluss“ verweist zumindest in einigen Ausführungsformen auf eine Sequenz von Daten und/oder Dateneinheiten (z. B. Datagramme, Pakete oder dergleichen) von einer Quellenentität/einem Quellenelement zu einer Zielentität/einem Zielelement. Zusätzlich oder alternativ verweisen die Begriffe „Fluss“ oder „Verkehrsfluss“ zumindest in einigen Ausführungsformen auf ein künstliches und/oder logisches Äquivalent zu einem Anruf, einer Verbindung oder einem Link. Zusätzlich oder alternativ verweisen die Begriffe „Fluss“ oder „Verkehrsfluss“ zumindest in einigen Ausführungsformen auf eine Sequenz von Paketen, die von einer bestimmten Quelle zu einem bestimmten Unicast-, Anycast- oder Multicast-Ziel gesendet werden, die die Quelle als einen Fluss kennzeichnen möchte; von einem Blickpunkt einer oberen Schicht kann ein Fluss alle Pakete in einer speziellen Transportverbindung oder einem Medienstrom beinhalten, jedoch wird ein Fluss nicht notwendigerweise 1:1 auf eine Transportverbindung abgebildet. Zusätzlich oder alternativ verweisen die Begriffe „Fluss“ oder „Verkehrsfluss“ zumindest in einigen Ausführungsformen auf eine Menge von Daten und/oder Dateneinheiten (z. B. Datagramme, Pakete oder dergleichen), die einen Beobachtungspunkt in einem Netzwerk während eines gewissen Zeitintervalls passieren. Zusätzlich oder alternativ verweist der Begriff „Fluss“ zumindest in einigen Ausführungsformen auf einen Benutzerebenendaten-Link, der an eine Assoziation angehängt ist. Beispiele sind leitungsvermittelter Telefonanruf, Voice-Over-IP-Anruf, Empfang einer SMS, Senden einer Kontaktkarte, PDP-Kontext für Internetzugang, Demultiplexen eines TV-Kanals aus einem Kanalmultiplex, Berechnen von Positionskoordinaten aus Geopositionierungssatellitensignalen usw. Für Zwecke der vorliegenden Offenbarung können die Begriffe „Verkehrsfluss“, „Daten-Fluss“, „Datenfluss“, „Paketfluss“, „Netzwerkfluss“ und/oder „Fluss“ austauschbar verwendet werden, wenngleich sich diese Begriffe zumindest in einigen Ausführungsformen auf unterschiedliche Konzepte beziehen.
  • Der Begriff „Strom“ verweist zumindest in einigen Ausführungsformen auf eine Sequenz von Datenelementen, die mit der Zeit zur Verfügung gestellt werden. Funktionen, die an einen Datenstrom arbeiten, was einen anderen Strom erzeugen kann, werden zumindest in einigen Ausführungsformen als „Filter“ bezeichnet und können in Analogie zur Funktionszusammensetzung in Pipelines verbunden werden. Filter können jeweils an einem Element eines Datenstroms arbeiten oder können ein Ausgabeelement auf mehreren Eingabeelementen basieren, wie etwa einem gleitenden Mittelwert.
  • Der Begriff „verteiltes Rechnen“ verweist zumindest in einigen Ausführungsformen auf Rechenressourcen, die geografisch in der Nähe von Abschlüssen eines oder mehrerer lokalisierter Netzwerke verteilt sind.
  • Der Begriff „verteilte Berechnungen“ bezieht sich zumindest in einigen Ausführungsformen auf ein Modell, in dem Komponenten, die sich auf vernetzten Computern befinden, kommunizieren und ihre Aktionen koordinieren, indem sie Nachrichten weiterleiten, die miteinander interagieren, um ein gemeinsames Ziel zu erreichen.
  • Der Begriff „Dienst“ verweist zumindest in einigen Ausführungsformen auf die Bereitstellung einer diskreten Funktion innerhalb eines Systems und/oder einer Umgebung. Zusätzlich oder alternativ verweist der Begriff „Dienst“ zumindest in einigen Ausführungsformen auf eine Funktionalität oder eine Menge von Funktionalitäten, die wiederverwendet werden können.
  • Der Begriff „Mikrodienst“ verweist zumindest in einigen Ausführungsformen auf einen oder mehrere Prozesse, die über ein Netzwerk kommunizieren, um ein Ziel unter Verwendung technologieagnostischer Protokolle (z. B. HTTP oder dergleichen) zu erfüllen. Zusätzlich oder alternativ bezieht sich der Begriff „Mikrodienst“ zumindest in einigen Ausführungsformen auf Dienste, die relativ klein bezüglich der Größe, nachrichtenfähig, durch Kontexte begrenzt, autonom entwickelt, unabhängig einsetzbar, dezentralisiert und/oder mit automatisierten Prozessen aufgebaut und freigegeben sind. Zusätzlich oder alternativ bezieht sich der Begriff „Mikrodienst“ zumindest in einigen Ausführungsformen auf ein in sich geschlossenes Stück an Funktionalität mit klaren Schnittstellen, und kann eine Schichtarchitektur durch seine eigenen internen Komponenten implementieren. Zusätzlich oder alternativ verweist der Begriff „Mikrodienstarchitektur“ zumindest in einigen Ausführungsformen auf eine Variante des strukturellen Typs der dienstorientierten Architektur (SOA), bei dem Anwendungen als eine Sammlung lose gekoppelter Dienste (z. B. feinkörnige Dienste) angeordnet sind und leichtgewichtige Protokolle verwenden können.
  • Der Begriff „Sitzung“ verweist zumindest in einigen Ausführungsformen auf einen temporären und interaktiven Informationsaustausch zwischen zwei oder mehr Kommunikationsvorrichtungen, zwei oder mehr Anwendungsinstanzen, zwischen einem Computer und einem Benutzer und/oder zwischen zwei oder mehr beliebigen Entitäten oder Elementen. Zusätzlich oder alternativ verweist der Begriff „Sitzung“ zumindest in einigen Ausführungsformen auf einen Konnektivitätsdienst oder einen anderen Dienst, der den Austausch von Daten zwischen zwei Entitäten oder Elementen bereitstellt oder ermöglicht. Der Begriff „Netzwerksitzung“ verweist zumindest in einigen Ausführungsformen auf eine Sitzung zwischen zwei oder mehr Kommunikationsvorrichtungen über ein Netzwerk. Der Begriff „Web-Sitzung“ verweist zumindest in einigen Ausführungsformen auf eine Sitzung zwischen zwei oder mehr Kommunikationsvorrichtungen über das Internet oder ein anderes Netzwerk. Der Begriff „Sitzungskennung“, „Sitzungs-ID“ oder „Sitzungs-Token“ verweist zumindest in einigen Ausführungsformen auf ein Datenelement, das in Netzwerkkommunikationen verwendet wird, um eine Sitzung und/oder eine Reihe von Nachrichtenaustauschen zu identifizieren.
  • Der Begriff „Qualität“ verweist zumindest in einigen Ausführungsformen auf eine Eigenschaft, einen Charakter, ein Attribut oder ein Merkmal von etwas als positiv oder negativ und/oder einen Gütegrad von etwas. Zusätzlich oder alternativ verweist der Begriff „Qualität“ zumindest in einigen Ausführungsformen im Kontext von Datenverarbeitung auf einen Zustand qualitativer und/oder quantitativer Aspekte von Daten, Prozessen und/oder einiger anderer Aspekte von Datenverarbeitungssystemen.
  • Der Begriff „Dienstgüte/-qualität“ oder „QoS“ bezieht sich zumindest in einigen Ausführungsformen auf eine Beschreibung oder Messung der Gesamtperformanz eines Dienstes (z. B. Telefonie und/oder Zellulardienst, Netzwerkdienst, Drahtloskommunikations-/- konnektivitätsdienst, Cloud-Computing-Dienst usw.). In einigen Fällen kann die QoS aus der Perspektive der Benutzer dieses Dienstes beschrieben oder gemessen werden, und entsprechend kann QoS der kollektive Effekt der Dienst-Leistungsfähigkeit sein, die den Grad der Zufriedenheit eines Benutzers dieses Dienstes ermittelt. In anderen Fällen verweist QoS wenigstens in manchen Ausführungsformen auf Verkehrspriorisierungs- und Ressourcenreservierungssteuermechanismen anstelle der erzielten Wahrnehmung der Dienstqualität. In diesen Fällen ist QoS die Fähigkeit, für verschiedene Anwendungen, Benutzer oder Flüsse unterschiedliche Prioritäten bereitzustellen oder für einen Fluss ein gewisses Leistungsfähigkeitsniveau zu garantieren. In beiden Fällen ist QoS durch die kombinierten Aspekte von Leistungsfaktoren gekennzeichnet, die auf einen oder mehrere Dienste anwendbar sind, wie beispielsweise Dienstoperabilitätsleistung, Dienstzugänglichkeitsleistung, Dienstbeibehaltungsfähigkeitsleistung, Dienstzuverlässigkeitsleistung, Dienstintegritätsleistung und andere Faktoren, die für jeden Dienst spezifisch sind. Mehrere verwandte Aspekte des Dienstes können berücksichtigt werden, wenn die QoS quantifiziert wird, einschließlich Paketverlustraten, Bitraten, Durchsatz, Übertragungsverzögerung, Verfügbarkeit, Zuverlässigkeit, Jitter, Signalstärke und/oder Qualitätsmessungen und/oder anderer Messungen, wie etwa der hierin erörterten. Zusätzlich oder alternativ verweist der Begriff „Dienstgüte/-qualität“ oder „QoS“ zumindest in einigen Ausführungsformen auf Mechanismen, die eine Verkehrsweiterleitungsbehandlung basierend auf flussspezifischer Verkehrsklassifikation bereitstellen. In einigen Implementierungen kann der Begriff „Dienstgüte/-qualität“ oder „QoS“ austauschbar mit dem Begriff „Dienstklasse“ oder „CoS“ verwendet werden.
  • Der Begriff „Dienstklasse“ oder „CoS“ verweist zumindest in einigen Ausführungsformen auf Mechanismen, die eine Verkehrsweiterleitungsbehandlung basierend auf einer nichtflussspezifischen Verkehrsklassifikation bereitstellen. In einigen Implementierungen kann der Begriff „Dienstklasse“ oder „CoS“ austauschbar mit dem Begriff „Dienstgüte/-qualität“ oder „QoS“ verwendet werden.
  • Der Begriff „QoS-Fluss“ verweist zumindest in einigen Ausführungsformen auf die feinste Granularität für QoS-Weiterleitungsbehandlung in einem Netzwerk. Der Begriff „5G-QoS-Fluss“ verweist zumindest in einigen Ausführungsformen auf die feinste Granularität für QoS-Weiterleitungsbehandlung in einem 5G-System (5GS). Verkehr, der demselben QoS-Fluss (oder 5G-QoS-Fluss) zugeordnet ist, empfängt die gleiche Weiterleitungsbehandlung.
  • Der Begriff „Zuverlässigkeitsfluss“ verweist zumindest in einigen Ausführungsformen auf die feinste Granularität zur Zuverlässigkeitsweiterleitungsbehandlung in einem Netzwerk, wobei Verkehr, der dem gleichen Zuverlässigkeitsfluss zugeordnet wird, die gleiche Zuverlässigkeitsbehandlung empfängt. Zusätzlich oder alternativ verweist der Begriff „Zuverlässigkeitsfluss“ zumindest in einigen Ausführungsformen auf eine Zuverlässigkeitsbehandlung, die Paketen eines Datenflusses zugewiesen ist.
  • Der Begriff „Zuverlässigkeitsweiterleitungsbehandlung“ oder „Zuverlässigkeitsbehandlung“ verweist auf die Art und Weise, auf die Pakete, die zu einem Datenfluss gehören, behandelt werden, um für diesen Datenfluss ein bestimmtes Zuverlässigkeitsniveau bereitzustellen, darunter zum Beispiel eine Erfolgswahrscheinlichkeit der Paketlieferung, QoS oder Erfahrungsqualität (QoE) über einen Zeitraum (oder eine Zeiteinheit), Zulassungssteuerungsfähigkeiten, ein spezielles Codierungsschema und/oder Codierungsrate für Ankunftsdaten-Bursts.
  • Der Begriff „Weiterleitungsbehandlung“ verweist zumindest in einigen Ausführungsformen auf die Präzedenz, Präferenzen und/oder Priorisierung, die ein Paket, das zu einem bestimmten Datenfluss gehört, in Bezug auf anderen Verkehr anderer Datenflüsse empfängt. Zusätzlich oder alternativ verweist der Begriff „Weiterleitungsbehandlung“ zumindest in einigen Ausführungsformen auf eine(n) oder mehrere Parameter, Charakteristiken und/oder Konfigurationen, die auf Pakete anzuwenden sind, die zu einem Datenfluss gehören, wenn die Pakete zur Weiterleitung verarbeitet werden. Beispiele für solche Charakteristiken können Folgendes beinhalten: Ressourcentyp (z. B. nichtgarantierte Bitrate (GBR), GBR, verzögerungskritische GBR usw.); Prioritätsstufe; Klasse oder Klassifizierung; Paketverzögerungsbudget; Paketfehlerrate; Mittelungsfenster; maximales Daten-Burst-Volumen; minimales Daten-Burst-Volumen; Planungsrichtlinie/-gewichtungen; Warteschlangenverwaltungsrichtlinie; Ratenformungsrichtlinie; Verbindungs-Link-Protokoll und/oder RLC-Konfiguration; Zulassungsschwellen usw. In einigen Implementierungen kann der Begriff „Weiterleitungsbehandlung“ als „Pro-Hop-Verhalten“ oder „PHB“ bezeichnet werden.
  • Der Begriff „Zulassungssteuerung“ verweist zumindest in einigen Ausführungsformen auf eine Funktion oder einen Prozess, die/der entscheidet, ob neue Pakete, Nachrichten, Arbeit, Aufgaben usw., die in ein System eintreten, dazu zugelassen werden sollten, in das System einzutreten, oder nicht. Zusätzlich oder alternativ verweist der Begriff „Zulassungssteuerung“ zumindest in einigen Ausführungsformen auf einen Validierungsprozess, bei dem eine Prüfung durchgeführt wird, bevor eine Verbindung hergestellt wird, um zu sehen, ob aktuelle Ressourcen für die vorgeschlagene Verbindung ausreichend sind.
  • Der Begriff „QoS-Kennung“ verweist zumindest in einigen Ausführungsformen auf einen Skalar, der als eine Referenz für ein spezifisches QoS-Weiterleitungsverhalten (z. B. Paketverlustrate, Paketverzögerungsbudget usw.) verwendet wird, das einem QoS-Fluss bereitzustellen ist. Das kann in einem Zugangsnetzwerk implementiert werden, indem knotenspezifische Parameter referenziert werden, die eine QoS-Weiterleitungsbehandlung steuern (z. B. Planungsgewichte, Zulassungsschwellen, Warteschlangenverwaltungsschwellen, Verbindungsschichtprotokollkonfiguration usw.).
  • Der Begriff „Lebensdauer“ (oder „TTL“) oder „Hop-Grenze“ verweist zumindest in einigen Ausführungsformen auf einen Mechanismus, der die Lebensspanne oder Lebenszeit von Daten in einem Computer oder Netzwerk begrenzt. TTL kann als ein Zähler oder Zeitstempel implementiert sein, der an die Daten angehängt oder in diese eingebettet ist. Sobald die vorgeschriebene Ereigniszählung oder Zeitspanne abgelaufen ist, werden Daten verworfen oder erneut validiert.
  • Der Begriff „Warteschlange“ verweist zumindest in einigen Ausführungsformen auf eine Sammlung von Entitäten (z. B. Daten, Objekte, Ereignisse usw.), die gespeichert und gehalten werden, um später verarbeitet zu werden, und die in einer Sequenz beibehalten werden und durch Hinzufügen von Entitäten an einem Ende der Sequenz und Entfernen von Entitäten von dem anderen Ende der Sequenz modifiziert werden können; das Ende der Sequenz, an dem Elemente hinzugefügt werden, kann als „Rückseite“, „Schwanz“ oder „Ende“ der Warteschlange bezeichnet werden, und das Ende, an dem Elemente entfernt werden, kann als der „Kopf“ oder die „Vorderseite“ der Warteschlange bezeichnet werden. Zusätzlich kann eine Warteschlange die Funktion eines Puffers durchführen und die Begriffe „Warteschlange“ und „Puffer“ können in der gesamten vorliegenden Offenbarung austauschbar verwendet werden. Der Begriff „Einreihen in eine Warteschlange“ verweist zumindest in einigen Ausführungsformen auf eine oder mehrere Operationen zum Hinzufügen eines Elements zum Ende einer Warteschlange. Der Begriff „Entfernen aus der Warteschlange“ verweist zumindest in einigen Ausführungsformen auf eine oder mehrere Operationen zum Entfernen eines Elements von der Vorderseite einer Warteschlange.
  • Der Begriff „Kanalcodierung“ verweist zumindest in einigen Ausführungsformen auf Prozesse und/oder Techniken, um Redundanz zu Nachrichten oder Paketen hinzuzufügen, um diese Nachrichten oder Pakete robuster gegenüber Rauschen, Kanalinterferenz, begrenzter Kanalbandbreite und/oder anderen Fehlern zu machen. Für Zwecke der vorliegenden Offenbarung kann der Begriff „Kanalcodierung“ austauschbar mit den Begriffen „Vorwärtsfehlerkorrektur“ oder „FEC“; „Fehlerkorrekturcodierung“, „Fehlerkorrekturcode“ oder „ECC“; und/oder „Netzwerkcodierung“ oder „NC“ verwendet werden.
  • Der Begriff „Netzwerkcodierung“ verweist zumindest in einigen Ausführungsformen auf Prozesse und/oder Techniken, in denen übertragene Daten codiert und decodiert werden, um die Netzwerkperformanz zu verbessern
  • Der Begriff „Coderate“ verweist zumindest in einigen Ausführungsformen auf den Anteil eines Datenstroms oder Datenflusses, der nützlich oder nicht redundant ist (z. B. für eine Coderate von kIn erzeugt der (die) Codierer für alle k Bits nützlicher Informationen insgesamt n Bits an Daten, von denen n - k redundant sind).
  • Der Begriff „systematischer Code“ verweist zumindest in einigen Ausführungsformen auf einen beliebigen Fehlerkorrekturcode, bei dem die Eingabedaten in die codierte Ausgabe eingebettet sind. Der Begriff „nicht-systematischer Code“ verweist zumindest in einigen Ausführungsformen auf einen beliebigen Fehlerkorrekturcode, bei dem die Eingabedaten nicht in die codierte Ausgabe eingebettet sind.
  • Der Begriff „Verschachteln“ verweist zumindest in einigen Ausführungsformen auf einen Prozess zum Umordnen von Codesymbolen, um Fehler-Bursts über mehrere Codewörter zu verteilen, die durch ECCs korrigiert werden können.
  • Der Begriff „Code-Wort“ oder „Codewort“ verweist zumindest in einigen Ausführungsformen auf ein Element eines Codes oder Protokolls, das gemäß speziellen Regeln des Codes oder Protokolls zusammengesetzt wird.
  • Der Begriff „PDU-Verbindungsdienst“ verweist zumindest in einigen Ausführungsformen auf einen Dienst, der einen Austausch von Protokolldateneinheiten (PDUs) zwischen einem UE und einem Datennetzwerk (DN) bereitstellt. Der Begriff „PDU-Sitzung“ verweist zumindest in einigen Ausführungsformen auf eine Assoziation zwischen einem UE und einem DN, das einen PDU-Konnektivitätsdienst bereitstellt. Ein PDU-Sitzungstyp kann IPv4, IPv6, IPv4v6, Ethernet, Unstructured oder ein beliebiger anderer Netzwerk-/Verbindungstyp, wie etwa die hier besprochenen, sein. Der Begriff „MA-PDU-Sitzung“ verweist zumindest in einigen Ausführungsformen auf eine PDU-Sitzung, die einen PDU-Konnektivitätsdienst bereitstellt, der jeweils ein Zugangsnetzwerk oder mehrere Zugangsnetzwerke simultan verwenden kann.
  • Der Begriff „Verkehrsformen“ verweist zumindest in einigen Ausführungsformen auf eine Bandbreitenverwaltungstechnik, die eine Datenübertragung verwaltet, um einem gewünschten Verkehrsprofil oder einer gewünschten Dienstklasse zu entsprechen. Das Verkehrsformen stellt eine ausreichende Netzwerkbandbreite für zeitsensitive kritische Anwendungen unter Verwendung von Richtlinienregeln, Datenklassifizierung, Warteschlangen, QoS und anderen Techniken sicher. Der Begriff „Drosseln“ verweist zumindest in einigen Ausführungsformen auf die Regelung von Flüssen in ein Netzwerk oder aus diesem heraus oder in eine spezielle Vorrichtung oder ein spezielles Element oder daraus heraus.
  • Der Begriff „Zugangsverkehrslenkung“ oder „Verkehrslenkung“ verweist zumindest in einigen Ausführungsformen auf eine Prozedur, die ein Zugangsnetzwerk für einen neuen Datenfluss auswählt und den Verkehr eines oder mehrerer Datenflüsse über das ausgewählte Zugangsnetzwerk überträgt. Zugangsverkehrslenkung ist zwischen einem 3GPP-Zugang und einem Nicht-3GPP-Zugang anwendbar.
  • Der Begriff „Zugangsverkehrsvermittlung“ oder „Verkehrsvermittlung“ verweist zumindest in einigen Ausführungsformen auf eine Prozedur, die einen Teil oder den gesamten Verkehr eines andauernden Datenflusses von wenigstens einem Zugangsnetzwerk zu wenigstens einem anderen Zugangsnetzwerk auf eine Weise bewegt, die die Kontinuität des Datenflusses beibehält.
  • Der Begriff „Zugangsverkehrsaufteilung“ oder „Verkehrsaufteilung“ verweist zumindest in einigen Ausführungsformen auf eine Prozedur, die den Verkehr wenigstens eines Datenflusses über mehrere Zugangsnetzwerke aufteilt. Wenn eine Verkehrsaufteilung auf einen Datenfluss angewandt wird, wird ein Teil des Verkehrs des Datenflusses über wenigstens einen Zugangskanal, Link oder Pfad übertragen, und ein anderer Teil des Verkehrs desselben Datenflusses wird über einen anderen Zugangskanal, Link oder Pfad übertragen.
  • Der Begriff „Netzwerkadresse“ verweist zumindest in einigen Ausführungsformen auf eine Kennung für einen Knoten oder Host in einem Computernetzwerk und kann eine eindeutige Kennung über ein Netzwerk hinweg sein und/oder kann für einen lokal verwalteten Teil des Netzwerks eindeutig sein. Beispiele für Netzwerkadressen beinhalten eine geschlossene Zugangsgruppenkennung (CAG-ID), eine Bluetooth-Hardwarevorrichtungsadresse (BD_ADDR), eine Mobilfunknetzadresse (z. B. einen Zugangspunktnamen (APN), eine AMF-Kennung (AMF-ID), eine AF-Dienstkennung, eine Edge-Anwendungsserver(EAS)-ID, eine Datennetzwerkzugangskennung (DNAI), einen Datennetzwerknamen (DNN), eine EPS-Trägerkennung (EBI), ein Geräteidentitätsregister (EIR) und/oder 5G-EIR, eine erweiterte eindeutige Kennung (EUI), eine Gruppen-ID zur Netzwerkauswahl (GIN), eine generische öffentliche Teilnehmerkennung (GPSI), eine globale eindeutige AMF-Kennung (GUAMI), eine globale eindeutige temporäre Kennung (GUTI) und/oder 5G-GUTI, eine International Mobile Equipment Identity (IMEI), einen IMEI-Typ-Zuordnungscode (IMEA/TAC), eine internationale Mobilfunk-Teilnehmerkennung (IMSI), eine lokale Datennetz(LADN)-DNN, eine mobile Teilnehmeridentifikationsnummer (MSIN), eine mobile Teilenhmer/Station-ISDN-Nummer (MSISDN), eine Netzwerkkennung (NID), eine Netzwerk-Slice-Instanz(NSI)-ID, Permanentgerätekennung (PEI), eine öffentliche terrestrische Mobilfunknetz(PLMN)-ID, eine QOS-Fluss-ID (QFI) und/oder 5G-QoS-Kennung (5QI), eine RAN-ID, einen Routing-Indikator, eine SMS-Funktions(SMSF)-ID, eine eigenständige nichtöffentliche Netzwerk(SNPN)-ID, eine verdeckte Teilnehmerkennung (SUCI), eine permanente Teilnehmerkennung (SUPI), eine temporäre mobile Teilnehmerkennung (TMSI) und Varianten davon, UE-Zugriffskategorie und - kennung und/oder andere mobilfunknetzbezogene Kennungen), eine E-Mail-Adresse, eine Unternehmensanwendungsserver(EAS)-ID, eine Endpunktadresse, einen elektronischen Produktcode (EPC), wie durch den EPCglobal Tag Data Standard definiert, einen Fully Qualified Domain Name (FQDN), eine Internet-Protocol(IP)-Adresse in einem IP-Netzwerk (z. B. IP-Version 4 (Ipv4), IP-Version 6 (IPv6) usw.), eine Internet-Packet-Exchange(IPX)-Adresse, eine ID eines Lokalbereichsnetzwerks (LAN), eine Medienzugangssteuerungs- bzw. MAC-Adresse, eine ID eines persönlichen Netzwerks, eine Anschlussnummer (z. B. eine Transmission-Control-Protocol(TCP)-Anschlussnummer, eine User-Datagram-Protocol(UDP)-Anschlussnummer), eine QUIC-Verbindungs-ID, einen RFID-Tag, einen Service Set Identifier (SSID) und Varianten davon, Telefonnummern in einem öffentlichen Telefonnetz (PTSN), einen Universally Unique Identifier (UUID) (wie z. B. in ISO/IEC 11578:1996 spezifiziert), einen Uniform Resource Locator (URL) und/oder Uniform Resource Identifier (URI), eine virtuelle LAN(VLAN)-ID, eine X.21-Adresse, eine X.25-Adresse, eine Zigbee®-ID, eine Zigbee®-Vorrichtungsnetz-ID und/oder eine beliebige geeignete Netzwerkadresse oder Komponenten davon.
  • Der Begriff „Anwendungskennung“, „Anwendungs-ID“ oder „App-ID“ verweist zumindest in einigen Ausführungsformen auf eine Kennung, die einer speziellen Anwendung oder Anwendungsinstanz zugeordnet werden kann; im Kontext von 3GPP-5G/NR-Systemen verweist eine „Anwendungskennung“ zumindest in einigen Ausführungsformen auf eine Kennung, die einer speziellen Anwendungsverkehrsdetektionsregel zugeordnet werden kann.
  • Der Begriff „Endpunktadresse“ verweist zumindest in einigen Ausführungsformen auf eine Adresse, die verwendet wird, um den Host-/Autoritätsteil einer Ziel-URI zu bestimmen, wobei die Ziel-URI verwendet wird, um auf einen NF-Dienst eines NF-Diensterzeugers zuzugreifen (z. B. um Dienstoperationen aufzurufen), oder für Benachrichtigungen an einen NF-Dienstverbraucher.
  • Der Begriff „geschlossene Zugangsgruppe“ oder „CAG“ verweist zumindest in einigen Ausführungsformen auf eine Gruppe einer Liste von Benutzern, denen erlaubt ist, sich mit einem speziellen Netzwerk, einem speziellen Zugangsnetzwerk zu verbinden und/oder darauf zuzugreifen und/oder einer Anbindung an eine spezielle Zelle oder einen speziellen Netzwerkzugangsknoten vorzunehmen. Geschlossene Zugangsgruppen (CAGs) werden manchmal als Zugangskontrolllisten (ACLs), geschlossene Teilnehmergruppen (CSGs), geschlossene Benutzergruppen (CUGs) und dergleichen bezeichnet. Der Begriff „CAG-ID“ verweist zumindest in einigen Ausführungsformen auf eine Kennung eines CAG.
  • Der Begriff „Port“ verweist im Kontext von Computernetzwerken zumindest in einigen Ausführungsformen auf einen Kommunikationsendpunkt, eine virtuelle Datenverbindung zwischen zwei oder mehr Entitäten und/oder einen virtuellen Punkt, an dem Netzwerkverbindungen beginnen und enden. Zusätzlich oder alternativ ist ein „Port“ zumindest in einigen Ausführungsformen mit einem speziellen Prozess oder Dienst assoziiert.
  • Der Begriff „Teilnetzwerk“ oder „Teilnetz“ verweist zumindest in einigen Ausführungsformen auf eine logische Untergliederung eines Netzwerks, wie etwa eines IP-Netzwerks. Die Praxis des Aufteilens eines Netzwerks in zwei oder mehr Netzwerke wird als „Subnetting“ bezeichnet.
  • Der Begriff „Netzmaske“ oder „Teilnetzmaske“ verweist zumindest in einigen Ausführungsformen auf eine Bitmaske, die durch bitweise UND-Operationen auf eine Netzwerkadresse (z. B. eine IP-Adresse in einem IP-Netzwerk) angewandt wird, um ein Routing-Präfix zu erhalten, und/oder ist eine 32-Bit-„Maske“, die verwendet wird, um eine IP-Adresse in Teilnetze aufzuteilen und die verfügbaren Hosts des Netzwerks zu spezifizieren.
  • Der Begriff „lokalisiertes Netzwerk“ verweist zumindest in einigen Ausführungsformen auf ein lokales Netzwerk, das eine begrenzte Anzahl verbundener Fahrzeuge in einem bestimmten Bereich oder Gebiet abdeckt.
  • Der Begriff „lokale Datenintegrationsplattform“ verweist zumindest in einigen Ausführungsformen auf eine Plattform, eine Vorrichtung, ein System, ein Netzwerk oder (ein) Element(e), die lokale Daten durch Nutzen einer Kombination von (einem) lokalisierten Netzwerk(en) und verteilter Berechnung integrieren.
  • Der Begriff „Bitübertragungs-/physische Rate“ oder „PHY-Rate“ verweist zumindest in einigen Ausführungsformen auf eine Geschwindigkeit, mit der ein oder mehrere Bits tatsächlich über ein Übertragungsmedium gesendet werden. Zusätzlich oder alternativ verweist der Begriff „Bitübertragungs-/physische Rate“ oder „PHY-Rate“ zumindest in einigen Ausführungsformen auf eine Geschwindigkeit, mit der sich Daten über eine drahtlose Verbindung zwischen einem Sender und einem Empfänger bewegen können.
  • Der Begriff „Verzögerung“ verweist zumindest in einigen Ausführungsformen auf ein Zeitintervall zwischen zwei Ereignissen. Zusätzlich oder alternativ verweist der Begriff „Verzögerung“ zumindest in einigen Ausführungsformen auf ein Zeitintervall zwischen der Ausbreitung eines Signals und seinem Empfang.
  • Der Begriff „Paketverzögerung“ verweist zumindest in einigen Ausführungsformen auf die Zeit, die benötigt wird, um ein beliebiges Paket von einem Punkt zu einem anderen zu übertragen. Zusätzlich oder alternativ verweist der Begriff „Paketverzögerung“ oder „Verzögerung pro Paket“ zumindest in einigen Ausführungsformen auf die Differenz zwischen einer Paketempfangszeit und einer Paketübertragungszeit. Zusätzlich oder alternativ kann die „Paketverzögerung“ oder „Verzögerung pro Paket“ gemessen werden, indem die Paketsendezeit von der Paketempfangszeit subtrahiert wird, wobei der Sender und der Empfänger wenigstens zu einem gewissen Grad synchronisiert sind.
  • Der Begriff „Verarbeitungsverzögerung“ verweist zumindest in einigen Ausführungsformen auf eine Zeitdauer, die benötigt wird, um ein Paket in einem Netzwerkknoten zu verarbeiten.
  • Der Begriff „Übertragungsverzögerung“ verweist zumindest in einigen Ausführungsformen auf eine Zeitdauer, die benötigt wird (oder notwendig ist), um ein Paket (oder alle Bits eines Pakets) in ein Übertragungsmedium zu schieben („pushen“).
  • Der Begriff „Ausbreitungsverzögerung“ verweist zumindest in einigen Ausführungsformen auf die Zeitdauer, die der Header eines Signals benötigt, um sich von einem Sender zu einem Empfänger zu bewegen.
  • Der Begriff „Netzwerkverzögerung“ verweist zumindest in einigen Ausführungsformen auf die Verzögerung einer Dateneinheit innerhalb eines Netzwerks (zum Beispiel eines IP-Pakets innerhalb eines IP-Netzwerks).
  • Der Begriff „Warteschlangenverzögerung“ verweist zumindest in einigen Ausführungsformen auf eine Zeitdauer, die ein Auftrag in einer Warteschlange wartet, bis dieser Auftrag ausgeführt werden kann. Zusätzlich oder alternativ verweist der Begriff „Warteschlangenverzögerung“ zumindest in einigen Ausführungsformen auf eine Zeitdauer, die ein Paket in einer Warteschlange wartet, bis es verarbeitet und/oder übertragen werden kann.
  • Der Begriff „Verzögerungsgrenze“ verweist zumindest in einigen Ausführungsformen auf einen vorbestimmten oder konfigurierten akzeptablen Verzögerungsbetrag. Der Begriff „Verzögerungsgrenze pro Paket“ verweist zumindest in einigen Ausführungsformen auf einen vorbestimmten oder konfigurierten akzeptablen Verzögerungsbetrag, wobei Pakete, die nicht innerhalb der Verzögerungsgrenze verarbeitet und/oder übertragen werden, als Lieferausfälle betrachtet werden und verworfen oder fallen gelassen werden.
  • Der Begriff „Paketverwerfungsrate“ verweist zumindest in einigen Ausführungsformen auf einen Anteil an Paketen, die aufgrund hoher Verkehrslast oder Verkehrsverwaltung nicht an das Ziel gesendet wurden, und sollte als Teil der Paketverlustrate angesehen werden.
  • Der Begriff „Paketverlustrate“ verweist zumindest in einigen Ausführungsformen auf einen Anteil an Paketen, die nicht durch das Ziel empfangen werden konnten, einschließlich Paketen, die fallen gelassen werden, Paketen, die bei der Übertragung verloren gehen, und Paketen, die in falschem Format empfangen werden.
  • Der Begriff „Latenz“ verweist zumindest in einigen Ausführungsformen auf die Zeitdauer, die benötigt wird, um eine erste/anfängliche Dateneinheit in einem Daten-Burst von einem Punkt zu einem anderen zu übertragen.
  • Der Begriff „Durchsatz“ oder „Netzwerkdurchsatz“ verweist zumindest in einigen Ausführungsformen auf eine Produktionsrate oder die Rate, mit der etwas verarbeitet wird. Zusätzlich oder alternativ verweist der Begriff „Durchsatz“ oder „Netzwerkdurchsatz“ mindestens bei einigen Ausführungsformen auf eine Rate einer erfolgreichen Nachricht-Lieferung (Datum-Lieferung) über einen Kommunikationskanal.
  • Der Begriff „Datendurchsatz“ (Goodput) verweist zumindest in einigen Ausführungsformen auf eine Anzahl an nützlichen Informationsbits, die durch das Netzwerk pro Zeiteinheit an ein bestimmtes Ziel geliefert werden.
  • Der Begriff „Leistungsfähigkeitsindikator“ verweist zumindest in einigen Ausführungsformen auf über eine Gruppe von Netzwerkfunktionen (NFs) aggregierte Leistungsfähigkeitsdaten, die aus an den NFs, die zu der Gruppe gehören, gesammelten Leistungsfähigkeitsmessungen gemäß dem in einer Leistungsfähigkeitsindikatordefinition identifizierten Aggregationsverfahren abgeleitet werden.
  • Der Begriff „Anwendung“ verweist zumindest in einigen Ausführungsformen auf ein Computerprogramm, das dazu ausgelegt ist, eine spezielle Aufgabe außer einer, die den Betrieb des Computers selbst betrifft, auszuführen. Zusätzlich oder alternativ verweist der Begriff „Anwendung“ zumindest in einigen Ausführungsformen auf ein(e) vollständige(s) und einsetzbares Package, Umgebung, um eine gewisse Funktion in einer Betriebsumgebung zu erreichen.
  • Der Begriff „Algorithmus“ verweist zumindest in einigen Ausführungsformen auf eine eindeutige Spezifikation davon, wie ein Problem oder eine Klasse von Problemen durch Durchführen von Berechnungen, Eingabe/Ausgabe-Operationen, Datenverarbeitung, automatisierten Schlussfolgerungsaufgaben und/oder dergleichen zu lösen ist.
  • Die Begriffe „Instanziieren“, „Instanziierung“ und dergleichen verweisen zumindest in einigen Ausführungsformen auf die Erzeugung einer Instanz. Eine „Instanz“ verweist auch zumindest in einigen Ausführungsformen auf ein konkretes Auftreten eines Objekts, das zum Beispiel während der Ausführung von Programmcode auftreten kann.
  • Der Begriff „Datenverarbeitung“ oder „Verarbeitung“ verweist zumindest in einigen Ausführungsformen auf eine beliebige Operation oder eine beliebige Menge von Operationen, die an Daten oder an Sätzen von Daten durchgeführt wird/werden, unabhängig davon, ob durch automatisierte Mittel, wie etwa Sammlung, Aufzeichnung, Schreiben, Organisation, Strukturierung, Speicherung, Anpassung, Änderung, Abruf, Konsultation, Verwendung, Offenbarung durch Übertragung, Verbreitung oder anderweitige Bereitstellung, Ausrichtung oder Kombination, Beschränkung, Löschung und/oder Zerstörung.
  • Der Begriff „Softwareagent“ verweist zumindest in einigen Ausführungsformen auf ein Computerprogramm, das für einen Benutzer oder ein anderes Programm in einer Agenturbeziehung agiert.
  • Der Begriff „Verwendungsfall“ verweist zumindest in einigen Ausführungsformen auf eine Beschreibung eines Systems aus der Perspektive eines Benutzers. Verwendungsfälle behandeln manchmal ein System als eine Blackbox, und die Interaktionen mit dem System, einschließlich Systemantworten, werden als von außerhalb des Systems wahrgenommen. Verwendungsfälle vermeiden typischerweise technischen Jargon, wobei stattdessen die Sprache des Endbenutzers oder Domänenfachmanns bevorzugt wird.
  • Der Begriff „Benutzer“ im Kontext umkonfigurierbarer Funkgeräte/-Systeme verweist mindestens bei einigen Ausführungsformen auf eine abstrakte Darstellung einer beliebigen Instanz, die Befehlsanforderungen (zum Beispiel unter Verwenden der Dienste) an den Multifunkcomputer ausgibt. Drei Arten von Benutzern werden basierend auf der Art der verwendeten Dienste unterschieden: Administrator für Multifunkverwaltungsebene, Mobilitätsrichtlinienmanager für Steuerungsebene und Vernetzungsstapel für Benutzerebene.
  • Der Begriff „Analytik“ verweist zumindest in einigen Ausführungsformen auf die Erkennung, Interpretation und Kommunikation bedeutungstragender Muster in Daten.
  • Der Begriff „Anwendungsprogrammierungsschnittstelle“ oder „API“ verweist zumindest in einigen Ausführungsformen auf eine Menge von Subroutinedefinitionen, Kommunikationsprotokollen und Werkzeugen zum Aufbauen von Software. Zusätzlich oder alternativ verweist der Begriff „Anwendungsprogrammierungsschnittstelle“ oder „API“ zumindest in einigen Ausführungsformen auf eine Menge klar definierter Verfahren zur Kommunikation zwischen verschiedenen Komponenten. Eine API kann für ein webbasiertes System, Betriebssystem, Datenbanksystem, Computerhardware oder Softwarebibliothek sein.
  • Der Begriff „Datagramm“ verweist zumindest in einigen Ausführungsformen auf eine Basisübertragungseinheit, die mit einem paketvermittelten Netzwerk assoziiert ist; ein Datagramm kann so strukturiert sein, dass es Header- und Nutzdatenabschnitte aufweist. Der Begriff „Datagramm“ kann zumindest in einigen Ausführungsformen als eine „Dateneinheit“, eine „Protokolldateneinheit“ oder „PDU“, eine „Dienstdateneinheit“ oder „SDU“, ein Rahmen, ein Paket und/oder dergleichen bezeichnet werden.
  • Der Begriff „Informationselement“ verweist zumindest in einigen Ausführungsformen auf ein Strukturelement, das ein oder mehrere Felder enthält.
  • Der Begriff „Feld“ verweist zumindest in einigen Ausführungsformen auf individuelle Inhalte eines Informationselements oder eines Datenelements, das Inhalte enthält.
  • Der Begriff „Datenelement“ oder „DE“ verweist zumindest in einigen Ausführungsformen auf einen Datentyp, der ein einziges Datenstück enthält.
  • Der Begriff „Datenrahmen“ oder „DF“ (data frame) verweist zumindest in einigen Ausführungsformen auf einen Datentyp, der mehr als ein Datenelement in einer vordefinierten Reihenfolge enthält.
  • Der Begriff „Datenelement“ verweist zumindest in einigen Ausführungsformen auf einen atomaren Zustand eines speziellen Objekts mit wenigstens einer speziellen Eigenschaft zu einem gewissen Zeitpunkt und kann einen Datenelementnamen und/oder eine Datenelementkennung und/oder eine Datenelementkennung und/oder eine Datenelementdefinition, einen oder mehrere Repräsentationsbegriffe, aufgezählte Werte oder Codes (z. B. Metadaten) und/oder eine Liste von Synonymen zu Datenelementen in anderen Metadatenregistern beinhalten. Zusätzlich oder alternativ dazu verweist ein „Datenelement“ zumindest in einigen Ausführungsformen auf einen Datentyp, der ein einziges Datenstück enthält. Datenelemente können Daten speichern, die als der Inhalt des Datenelements (oder „Inhaltselemente“) bezeichnet werden können. Inhaltselemente können Textinhalt, Attribute, Eigenschaften und/oder andere Elemente beinhalten, die als „Kind-Elemente/untergeordnete Elemente“ bezeichnet werden. Zusätzlich oder alternativ dazu können Datenelemente null oder mehr Eigenschaften und/oder null oder mehr Attribute beinhalten, von denen jedes als Datenbankobjekte (z. B. Felder, Aufzeichnungen usw.), Objektinstanzen und/oder andere Datenelemente definiert sein kann. Ein „Attribut“ verweist zumindest in einigen Ausführungsformen auf ein Markup-Konstrukt, das ein Namen-Wert-Paar beinhaltet, das innerhalb eines Start-Tags oder Leer-Element-Tags existiert. Attribute enthalten Daten bezüglich ihres Elements und/oder steuern das Verhalten des Elements.
  • Der Begriff „Referenz“ verweist zumindest in einigen Ausführungsformen auf Daten, die verwendet werden können, um andere Daten zu lokalisieren, und kann auf vielfältige Weise implementiert werden (z. B. ein Zeiger, ein Index, ein Handle, ein Schlüssel, eine Kennung, ein Hyperlink usw.).
  • Der Begriff „Übersetzung“ verweist zumindest in einigen Ausführungsformen auf den Prozess des Konvertierens oder anderweitigen Änderns von Daten von einer ersten Gestalt, Form, Konfiguration, Struktur, Anordnung, Ausführungsform, Beschreibung usw. in eine zweite Gestalt, Form, Konfiguration, Struktur, Anordnung, Ausführungsform, Beschreibung usw.; zumindest in einigen Ausführungsformen kann es zwei verschiedene Arten von Übersetzung geben: Transcodierung und Transformation.
  • Der Begriff „Transcodieren“ verweist zumindest in einigen Ausführungsformen auf das Nehmen von Informationen/Daten in einem Format (z. B. einem gepackten Binärformat) und Übersetzen derselben Informationen/Daten in ein anderes Format in derselben Sequenz. Zusätzlich oder alternativ dazu verweist der Begriff „Transcodieren“ zumindest in einigen Ausführungsformen auf das Nehmen derselben Informationen in derselben Sequenz und unterschiedliches Verpacken der Informationen (z. B. Bits oder Bytes).
  • Der Begriff „Transformation“ verweist zumindest in einigen Ausführungsformen auf das Ändern von Daten von einem Format und Schreiben davon in ein anderes Format, wobei die gleiche Reihenfolge, Sequenz und/oder Verschachtelung von Datenelementen beibehalten wird. Zusätzlich oder alternativ dazu beinhaltet der Begriff „Transformation“ zumindest in einigen Ausführungsformen den Prozess des Konvertierens von Daten von einem ersten Format oder einer ersten Struktur in ein zweites Format oder eine zweite Struktur und beinhaltet Umformen der Daten in das zweite Format, um einem Schema oder einer anderen ähnlichen Spezifikation zu entsprechen. Die Transformation kann Umordnen von Datenelementen oder Datenobjekten beinhalten, was Ändern der Reihenfolge, Sequenz und/oder Verschachtelung der Datenelemente/Objekte beinhalten kann. Zusätzlich oder alternativ dazu verweist der Begriff „Transformation“ zumindest in einigen Ausführungsformen auf das Ändern des Schemas eines Datenobjekts in ein anderes Schema.
  • Der Begriff „Strom“ oder „Streaming“ bezieht sich auf eine Art der Verarbeitung, bei der ein Objekt nicht durch eine vollständige logische Datenstruktur von Knoten repräsentiert wird, die Speicher proportional zu einer Größe dieses Objekts belegen, sondern „im Vorübergehen“ als eine Sequenz von Ereignissen verarbeitet werden.
  • In diesem Zusammenhang kann der Begriff „logische Datenstruktur“, „logische Struktur“ oder dergleichen eine beliebige Organisation oder Sammlung von Datenwerten und/oder Datenelementen, die Beziehungen zwischen den Datenwerten/Elementen und/oder die Funktionen oder Operationen, die auf die bereitgestellten Datenwerte/Elemente angewendet werden können, sein. Eine „logische Datenstruktur“ kann ein Aggregat, ein Baum (z. B. abstrakter Syntaxbaum oder dergleichen), ein Graph (z. B. ein gerichteter azyklischer Graph (DAG)), ein endlicher Automat, eine endliche Zustandsmaschine (FSM) oder eine andere ähnliche Datenstruktur, umfassend zumindest einen elternlosen Knoten (oder Wurzelknoten) zusammen mit null oder mehr abhängigen Knoten, plus alle Attribute und Namenräume der elternlosen und nachgeordneten Knoten, sein.
  • Der Begriff „kryptographische Hash-Funktion“, „Hash-Funktion“ oder „Hash“ verweist zumindest in einigen Ausführungsformen auf einen mathematischen Algorithmus, der Daten beliebiger Größe (manchmal als eine „Nachricht“ bezeichnet) einem Bitarray einer festen Größe (manchmal als ein „Hashwert“, „Hash“ oder „Nachrichtenübersicht“ bezeichnet) zuordnet. Eine kryptographische Hash-Funktion ist üblicherweise eine Einwegfunktion, die eine Funktion ist, die praktisch nicht invertierbar ist.
  • Der Begriff „Genauigkeit“ verweist zumindest in einigen Ausführungsformen auf die Nähe einer oder mehrerer Messungen zu einem speziellen Wert.
  • Der Begriff „Künstliche Intelligenz“ oder „KI“ verweist zumindest in einigen Ausführungsformen im Gegensatz zu der natürlichen Intelligenz, die von Menschen und anderen Tieren gezeigt wird, auf eine beliebige Intelligenz, die von Maschinen demonstriert wird. Zusätzlich oder alternativ dazu verweist der Begriff „künstliche Intelligenz“ oder „KI“ zumindest in einigen Ausführungsformen auf die Untersuchung von „intelligenten Agenten“ und/oder einer beliebigen Vorrichtung, die ihre Umgebung wahrnimmt und Aktionen ergreift, die ihre Chance zum erfolgreichen Erreichen eines Ziels maximieren.
  • Die Begriffe „künstliches neuronales Netzwerk“, „neuronales Netzwerk“ oder „NN“ verweisen auf eine ML-Technik, die eine Sammlung verbundener künstlicher Neuronen oder Knoten umfasst, die (lose) Neuronen in einem biologischen Gehirn modellieren, die Signale an andere künstliche Neuronen oder Knoten übertragen können, wobei Verbindungen (oder Kanten) zwischen den künstlichen Neuronen oder Knoten (lose) nach Synapsen eines biologischen Gehirns modelliert werden. Die künstlichen Neuronen und Kanten weisen üblicherweise eine Gewichtung auf, die mit fortschreitendem Lernen angepasst wird. Die Gewichtung erhöht oder verringert die Stärke des Signals an einer Verbindung. Die Neuronen können eine Schwelle aufweisen, sodass ein Signal nur dann gesendet wird, wenn das aggregierte Signal diese Schwelle überschreitet. Die künstlichen Neuronen können in eine oder mehrere Schichten aggregiert oder gruppiert werden, wobei unterschiedliche Schichten unterschiedliche Transformationen an ihren Eingaben durchführen können. Signale bewegen sich von der ersten Schicht (der Eingabeschicht) zur letzten Schicht (der Ausgabeschicht), möglicherweise nach mehrmaligem Durchlaufen der Schichten. NNs werden üblicherweise für überwachtes Lernen verwendet, können aber auch für unüberwachtes Lernen verwendet werden. Beispiele für NNS beinhalten ein tiefes NN (DNN), ein vorwärtsgekoppeltes NN (FFN), ein tiefes FNN (DFF), ein faltendes NN (CNN), ein tiefes CNN (DCN), ein entfaltendes NN (DNN), ein Deep-Belief-NN, ein Perzeptron-NN, ein rekurrentes NN (RNN) (z. B. einschließlich eines LSTM-Algorithmus (langes Kurzzeitgedächtnis)), eine Gated Recurrent Unit (GRU), ein Echo-State-Netzwerk (ESN) usw.), ein gepulstes NN (SNN), ein Deep-Stacking-Netzwerk (DSN), eine Markov-Kette, ein Perzeptron-NN, ein erzeugendes gegnerisches Netzwerk (GAN, Generative Adversarial Network), Transformatoren, stochastische NNs (z. B. ein Bayessches Netzwerk (BN), ein Bayessches-Belief-Netzwerk (BBN), ein Bayessches NN (BNN), ein tiefes BNN (DBNN), ein dynamisches BN (DBN), ein probabilistisches grafisches Modell (BMC), eine Boltzmann-Maschine, eine beschränkte Boltzmann-Maschine (RBM), ein Hopfield-Netz oder Hopfield-NN, ein faltendes Deep-Belief-Netzwerk (CDBN) usw.), ein lineares dynamisches System (LDS), ein Schalt-LDS (SLDS), optische NNs (ONNs), ein NN für bestärkendes (RL) und/oder tiefes RL (DRL) und/oder dergleichen.
  • Der Begriff „Bayes-Optimierung“ verweist zumindest in einigen Ausführungsformen auf eine sequenzielle Gestaltungsstrategie zur globalen Optimierung von Black-Box-Funktionen, die keine funktionalen Formen annimmt.
  • Der Begriff „Epoche“ verweist wenigstens bei manchen Ausführungsformen auf einen Zyklus durch einen vollständigen Trainingsdatensatz. Zusätzlich oder alternativ dazu verweist der Begriff „Epoche“ zumindest in einigen Ausführungsformen auf einen vollständigen Trainingsdurchlauf über einen gesamten Trainingsdatensatz, so dass jedes Trainingsbeispiel einmal gesehen wurde; hier repräsentiert eine Epoche N/Batch-Größen-Trainingsiterationen, wobei N die Gesamtanzahl an Beispielen ist.
  • Der Begriff „Ereignis“ verweist in der Wahrscheinlichkeitstheorie zumindest in einigen Ausführungsformen auf eine Menge von Ergebnissen eines Experiments (z. B. eine Teilmenge eines Probenraums), dem eine Wahrscheinlichkeit zugewiesen ist. Zusätzlich oder alternativ dazu verweist der Begriff „Ereignis“ zumindest in einigen Ausführungsformen auf eine Softwarenachricht, die angibt, dass etwas stattgefunden hat. Zusätzlich oder alternativ dazu verweist der Begriff „Ereignis“ zumindest in einigen Ausführungsformen auf ein Objekt in der Zeit oder eine Instanziierung einer Eigenschaft in einem Objekt. Zusätzlich oder alternativ dazu verweist der Begriff „Ereignis“ zumindest in einigen Ausführungsformen auf einen Punkt im Raum zu einem Zeitpunkt (z. B. einen Ort in der Raum-Zeit). Zusätzlich oder alternativ dazu verweist der Begriff „Ereignis“ zumindest in einigen Ausführungsformen auf ein bemerkenswertes Auftreten zu einem bestimmten Zeitpunkt.
  • Der Begriff „Experiment“ in der Wahrscheinlichkeitstheorie verweist zumindest in einigen Ausführungsformen auf eine beliebige Prozedur, die wiederholt werden kann und eine wohldefinierte Menge von Ergebnissen aufweist, die als ein Probenraum bekannt ist.
  • Der Begriff „Merkmal“ verweist zumindest in einigen Ausführungsformen auf eine einzelne messbare Eigenschaft, quantifizierbare Eigenschaft oder Charakteristik eines beobachteten Phänomens. Zusätzlich oder alternativ dazu verweist der Begriff „Merkmal“ zumindest in einigen Ausführungsformen auf eine Eingangsvariable, die beim Erstellen von Vorhersagen verwendet wird. Zumindest in einigen Ausführungsformen können Merkmale unter Verwendung von Zahlen/Ziffern (z. B. ganze Zahlen), Strings, Variablen, Ordinalen, Real-Werten, Kategorien und/oder dergleichen repräsentiert werden.
  • Der Begriff „Merkmalsextraktion“ verweist zumindest in einigen Ausführungsformen auf einen Prozess der Dimensionalitätsreduzierung, bei dem ein anfänglicher Satz von Rohdaten auf besser handhabbare Gruppen zur Verarbeitung reduziert wird. Zusätzlich oder alternativ dazu verweist der Begriff „Merkmalsextraktion“ zumindest in einigen Ausführungsformen auf das Abrufen von Zwischenmerkmalsrepräsentationen, die durch ein unüberwachtes Modell oder ein vortrainiertes Modell berechnet werden, zur Verwendung in einem anderen Modell als eine Eingabe. Merkmalsextraktion wird manchmal als Synonym für „Merkmals-Engineering“ verwendet.
  • Der Begriff „Merkmalsabbildung“ verweist zumindest in einigen Ausführungsformen auf eine Funktion, die Merkmalsvektoren (oder Merkmalstensoren) in einem Raum nimmt und sie in Merkmalsvektoren (oder Merkmalstensoren) in einem anderen Raum transformiert. Zusätzlich oder alternativ dazu verweist der Begriff „Merkmalsabbildung“ zumindest in einigen Ausführungsformen auf eine Funktion, die einen Datenvektor (oder Tensor) einem Merkmalsraum zuordnet. Zusätzlich oder alternativ dazu verweist der Begriff „Merkmalsabbildung“ zumindest in einigen Ausführungsformen auf eine Funktion, die die Ausgabe eines Filters anwendet, das auf eine vorherige Schicht angewandt wird. In manchen Ausführungsformen kann der Begriff „Merkmalsabbildung“ auch als eine „Aktivierungsabbildung“ bezeichnet werden.
  • Der Begriff „Merkmalsvektor“ verweist zumindest in einigen Ausführungsformen im Kontext von ML auf eine Menge von Merkmalen und/oder eine Liste von Merkmalswerten, die ein Beispiel repräsentieren, das an ein Modell übergeben wird. Zusätzlich oder alternativ dazu verweist der Begriff „Merkmalsvektor“ zumindest in einigen Ausführungsformen im Kontext von ML auf einen Vektor, der ein Tupel aus einem oder mehreren Merkmalen beinhaltet.
  • Der Begriff „Inferenz-Engine“ verweist zumindest in einigen Ausführungsformen auf eine Komponente eines Rechensystems, die logische Regeln auf eine Wissensbasis anwendet, um neue Informationen abzuleiten.
  • Der Begriff „intelligenter Agent“ verweist zumindest in einigen Ausführungsformen auf einen Softwareagenten oder eine andere autonome Entität, der/die dahingehend agiert, seine/ihre Aktivität zum Erreichen von Zielen an eine Umgebung unter Verwendung von Beobachtung durch Sensoren und Folgeaktuatoren zu richten (d. h. er/sie ist intelligent). Intelligente Agenten können auch Wissen lernen oder verwenden, um ihre Ziele zu erreichen.
  • Der Begriff „Iteration“ verweist zumindest in einigen Ausführungsformen auf die Wiederholung eines Prozesses, um eine Sequenz von Ergebnissen zu erzeugen, wobei jede Wiederholung des Prozesses eine einzelne Iteration ist und das Ergebnis jeder Iteration der Startpunkt der nächsten Iteration ist. Zusätzlich oder alternativ dazu verweist der Begriff „Iteration“ zumindest in einigen Ausführungsformen auf eine einzelne Aktualisierung der Gewichtungen eines Modells während des Trainings.
  • Der Begriff „Verlustfunktion“ oder „Kostenfunktion“ verweist zumindest in einigen Ausführungsformen auf ein Ereignis oder Werte einer oder mehrerer Variablen auf eine reelle Zahl, die irgendwelche mit dem Ereignis assoziierte „Kosten“ repräsentiert. Ein durch eine Verlustfunktion berechneter Wert kann als ein „Verlust“ oder „Fehler“ bezeichnet werden. Zusätzlich oder alternativ dazu verweist der Begriff „Verlustfunktion“ oder „Kostenfunktion“ zumindest in einigen Ausführungsformen auf eine Funktion, die verwendet wird, um den Fehler oder den Verlust zwischen der Ausgabe eines Algorithmus und einem Zielwert zu bestimmen. Zusätzlich oder alternativ dazu verweist der Begriff „Verlustfunktion“ oder „Kostenfunktion“ zumindest in einigen Ausführungsformen auf eine Funktion, die in Optimierungsproblemen mit dem Ziel des Minimierens eines Verlusts oder Fehlers verwendet wird.
  • Der Begriff „mathematisches Modell“ verweist zumindest in einigen Ausführungsformen auf ein System von Postulaten, Daten und Inferenzen, das als eine mathematische Beschreibung einer Entität oder eines Sachverhalts präsentiert wird, einschließlich beherrschender Gleichungen, Annahmen und Beschränkungen.
  • Der Begriff „maschinelles Lernen“ oder „ML“ verweist zumindest in einigen Ausführungsformen auf die Verwendung von Computersystemen zur Optimierung eines Leistungsfähigkeitskriteriums unter Verwendung beispielhafter (Trainings-) Daten und/oder vergangener Erfahrung. ML beinhaltet das Verwenden von Algorithmen zum Durchführen (einer) spezifischen/spezifischer Aufgabe(n), ohne explizite Anweisungen zum Durchführen der spezifischen Aufgabe(n) zu verwenden und/oder sich auf Muster, Vorhersagen und/oder Inferenzen zu stützen. ML verwendet Statistik, um ein oder mehrere mathematische Modelle (auch als „ML-Modelle“ oder einfach „Modelle“ bezeichnet) zu erstellen, um Vorhersagen oder Entscheidungen basierend auf Probendaten (z. B. Trainingsdaten) zu treffen. Das Modell ist so definiert, dass es eine Menge von Parametern aufweist, und Lernen ist die Ausführung eines Computerprogramms zum Optimieren der Parameter des Modells unter Verwendung der Trainingsdaten oder der vergangenen Erfahrung. Das trainierte Modell kann ein prädiktives Modell, das Vorhersagen basierend auf einem Eingabedatensatz trifft, ein deskriptives Modell, das Wissen aus einem Eingabedatensatz gewinnt, oder sowohl prädiktiv als auch deskriptiv sein. Sobald das Modell gelernt (trainiert) ist, kann es verwendet werden, um Inferenzen (z. B. Vorhersagen) zu treffen. ML-Algorithmen führen einen Trainingsprozess an einem Trainingsdatensatz durch, um ein zugrundeliegendes ML-Modell zu schätzen. Ein ML-Algorithmus ist ein Computerprogramm, das aus Erfahrung in Bezug auf manche Aufgabe(n) und manche Leistungsfähigkeitsmessung(en)/-metrik(en) lernt, und ein ML-Modell ist ein Objekt oder eine Datenstruktur, das/die erzeugt wird, nachdem ein ML-Algorithmus mit Trainingsdaten trainiert wurde. Mit anderen Worten kann der Begriff „ML-Modell“ oder „Modell“ die Ausgabe eines ML-Algorithmus beschreiben, der mit Trainingsdaten trainiert wird. Nach dem Training kann ein ML-Modell verwendet werden, um Vorhersagen über neue Datensätze zu treffen. Zusätzlich können separat trainierte KI/ML-Modelle in einer KI/ML-Pipeline während der Inferenz- oder Vorhersageerzeugung miteinander verkettet werden. Obwohl der Begriff „ML-Algorithmus“ zumindest in einigen Ausführungsformen auf unterschiedliche Konzepte als der Begriff „ML-Modell“ verweist, können diese Begriffe für die Zwecke der vorliegenden Offenbarung austauschbar verwendet werden. Des Weiteren verweist der Begriff „KI/ML-Anwendung“ oder dergleichen zumindest in einigen Ausführungsformen auf eine Anwendung, die einige KI/ML-Modelle und Beschreibungen auf Anwendungsebene enthält. ML-Techniken fallen im Allgemeinen in die folgenden Haupttypen von Lernproblemkategorien: überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen.
  • Der Begriff „Matrix“ verweist zumindest in einigen Ausführungsformen auf ein rechteckiges Array von Zahlen, Symbolen oder Ausdrücken, die in Zeilen und Spalten angeordnet sind, die verwendet werden können, um ein Objekt oder eine Eigenschaft eines solchen Objekts zu repräsentieren.
  • Der Begriff „nichtdeterministische Polynomzeit“ oder „NP“ verweist zumindest in einigen Ausführungsformen auf eine Klasse von Rechenentscheidungsproblemen, für die eine beliebige gegebene Ja-Lösung als eine Lösung in der Polynomzeit durch eine deterministische Turing-Maschine verifiziert werden kann (oder durch eine nichtdeterministische Turing-Maschine in der Polynomzeit lösbar ist). Der Begriff „NP-schwer“ verweist zumindest in einigen Ausführungsformen auf eine Klasse von Problemen, die wenigstens so schwer sind wie die schwersten Probleme in NP; Probleme, die Np-schwer sind, müssen keine Elemente von NP sein und sind möglicherweise nicht einmal entscheidbar. Der Begriff „NP-vollständig“ verweist zumindest in einigen Ausführungsformen auf eine Klasse von Entscheidungsproblemen, die die schwersten Probleme in NP enthält; jedes NP-vollständige Problem ist in NP.
  • Der Begriff „Zielfunktion“ verweist zumindest in einigen Ausführungsformen auf eine Funktion, die für ein spezielles Optimierungsproblem maximiert oder minimiert werden soll. In manchen Fällen wird eine Zielfunktion durch ihre Entscheidungsvariablen und ein Ziel definiert. Das Ziel ist der Wert, die Zielvorgabe oder die Zielsetzung, der/die optimiert werden soll, wie etwa Maximieren des Gewinns oder Minimieren der Nutzung einer bestimmten Ressource. Die spezifische gewählte Zielfunktion hängt von dem spezifischen zu lösenden Problem und den zu optimierenden Zielen ab. Beschränkungen können auch definiert werden, um die Werte zu beschränken, die die Entscheidungsvariablen annehmen können, wodurch der Zielwert (die Ausgabe) beeinflusst wird, der erreicht werden kann. Während eines Optimierungsprozesses werden die Entscheidungsvariablen einer Zielfunktion häufig innerhalb der Grenzen der Beschränkungen geändert oder manipuliert, um die Werte der Zielfunktion zu verbessern. Allgemein nimmt die Schwierigkeit beim Lösen einer Zielfunktion zu, wenn die Anzahl an Entscheidungsvariablen, die in dieser Zielfunktion enthalten sind, zunimmt. Der Begriff „Entscheidungsvariable“ bezieht sich auf eine Variable, die eine zu treffende Entscheidung repräsentiert.
  • Der Begriff „Optimierung“ verweist zumindest in einigen Ausführungsformen auf eine Aktion, einen Prozess oder eine Methodik, um etwas (z. B. eine Gestaltung, ein System oder eine Entscheidung) so vollständig perfekt, funktional oder effektiv wie möglich zu machen. Die Optimierung beinhaltet üblicherweise mathematische Prozeduren, wie das Finden des Maximums oder Minimums einer Funktion. Der Begriff „optimal“ verweist zumindest in einigen Ausführungsformen auf ein(e) wünschenswerteste(s) oder zufriedenstellendste(s) Ende, Ergebnis oder Ausgabe. Der Begriff „Optimum“ verweist zumindest in einigen Ausführungsformen auf eine Menge oder einen Grad von etwas, das auf irgendeine Weise am besten ist. Der Begriff „Optima“ verweist zumindest in einigen Ausführungsformen auf eine Bedingung, einen Grad, eine Menge oder einen Kompromiss, die/der ein bestmögliches Ergebnis erzeugt. Zusätzlich oder alternativ dazu verweist der Begriff „Optima“ zumindest in einigen Ausführungsformen auf ein bestes oder vorteilhaftestes Ergebnis oder Resultat.
  • Der Begriff „Wahrscheinlichkeit“ verweist zumindest in einigen Ausführungsformen auf eine numerische Beschreibung, wie wahrscheinlich ein Ereignis auftreten wird und/oder wie wahrscheinlich es ist, dass eine Behauptung wahr ist. Der Begriff „Wahrscheinlichkeitsverteilung“ verweist zumindest in einigen Ausführungsformen auf eine mathematische Funktion, die die Wahrscheinlichkeiten des Auftretens unterschiedlicher möglicher Ausgänge für ein Experiment oder Ereignis angibt.
  • Der Begriff „Wahrscheinlichkeitsverteilung“ verweist zumindest in einigen Ausführungsformen auf eine Funktion, die Wahrscheinlichkeiten des Auftretens unterschiedlicher möglicher Ausgänge für ein Experiment oder Ereignis angibt. Zusätzlich oder alternativ dazu verweist der Begriff „Wahrscheinlichkeitsverteilung“ zumindest in einigen Ausführungsformen auf eine statistische Funktion, die alle möglichen Werte und Wahrscheinlichkeiten beschreibt, die eine Zufallsvariable innerhalb eines gegebenen Bereichs (z. B. einer Grenze zwischen minimalen und maximalen möglichen Werten) annehmen kann. Eine Wahrscheinlichkeitsverteilung kann einen oder mehrere Faktoren oder Attribute aufweisen, wie zum Beispiel Mittel oder Durchschnitt, Modus, Unterstützung, Ende, Kopf, Median, Varianz, Standardabweichung, Quantil, Symmetrie, Schiefe, Wölbung usw. Eine Wahrscheinlichkeitsverteilung kann eine Beschreibung eines zufälligen Phänomens hinsichtlich eines Probenraums und der Wahrscheinlichkeiten von Ereignissen (Teilmengen des Probenraums) sein. Beispielhafte Wahrscheinlichkeitsverteilungen beinhalten diskrete Verteilungen (z. B. Bernoulli-Verteilung, diskrete Gleichverteilung, Binomial, Dirac-Maß, Gauß-Kuzmin-Verteilung, geometrische, hypergeometrische, Negativ-Binomial, negative hypergeometrische, Poisson, Poisson-Binomial, Rademacher-Verteilung, Yule-Simon-Verteilung, Zeta-Verteilung, Zipf-Verteilung usw.), kontinuierliche Verteilungen (z. B. Bates-Verteilung, Beta, kontinuierliche Gleichverteilung, Normalverteilung, Gaußsche Verteilung, Glockenkurve, gemeinsame Normalverteilung, Gamma, Chi-Quadrat, nicht-zentrales Chi-Quadrat, exponentiell, Cauchy, Log-Normal, Logit-Normal, F-Verteilung, t-Verteilung, Dirac-Deltafunktion, Pareto-Verteilung, Lomax-Verteilung, Wishart-Verteilung, Weibull-Verteilung, Gumbel-Verteilung, Irwin-Hall-Verteilung, Gompertz-Verteilung, inverse Gaußverteilung (oder Wald-Verteilung), Chernoff-Verteilung, Laplace-Verteilung, Polya-Gamma-Verteilung usw.) und/oder kombinierte Verteilungen (z. B. Dirichlet-Verteilung, Ewens-Abtastformel, Multinomialverteilung, multivariate Normalverteilung, multivariate t-Verteilung, Wishart-Verteilung, Matrixnormalverteilung, Matrix-t-Verteilung usw.).
  • Der Begriff „Wahrscheinlichkeitsdichtefunktion“ oder „PDF“ verweist zumindest in einigen Ausführungsformen auf eine Funktion, deren Wert bei einer beliebigen gegebenen Probe (oder einem beliebigen gegebenen Punkt) in einem Probenraum als eine relative Wahrscheinlichkeit bereitstellend interpretiert werden kann, dass der Wert der Zufallsvariablen nahe dieser Probe liegen würde. Zusätzlich oder alternativ dazu verweist der Begriff „Wahrscheinlichkeitsdichtefunktion“ oder „PDF“ zumindest in einigen Ausführungsformen auf eine Wahrscheinlichkeit, dass eine Zufallsvariable in einen bestimmten Wertebereich fällt. Zusätzlich oder alternativ dazu verweist der Begriff „Wahrscheinlichkeitsdichtefunktion“ oder „PDF“ zumindest in einigen Ausführungsformen auf einen Wert bei zwei unterschiedlichen Proben, der verwendet werden kann, um bei einer beliebigen bestimmten Ziehung der Zufallsvariablen zu inferieren, wie wahrscheinlicher es ist, dass die Zufallsvariable im Vergleich zu der anderen Probe nahe einer Probe wäre.
  • Der Begriff „Präzision“ verweist zumindest in einigen Ausführungsformen auf die Nähe der zwei oder mehr Messungen zueinander. Der Begriff „Präzision“ kann auch als „positiver prädiktiver Wert“ bezeichnet werden.
  • Der Begriff „Probenraum“ in der Wahrscheinlichkeitstheorie (auch als „Probenbeschreibungsraum“ oder „Möglichkeitsraum“ bezeichnet) eines Experiments oder zufälligen Versuchs verweist zumindest in einigen Ausführungsformen auf eine Menge aller möglichen Ausgänge oder Ergebnisse dieses Experiments.
  • Der Begriff „Suchraum“ verweist im Kontext von Optimierung zumindest in einigen Ausführungsformen auf eine Domäne einer zu optimierenden Funktion. Zusätzlich oder alternativ dazu verweist der Begriff „Suchraum“ im Kontext von Suchalgorithmen zumindest in einigen Ausführungsformen auf ein mögliches Gebiet, das eine Menge aller möglichen Lösungen definiert. Zusätzlich oder alternativ dazu verweist der Begriff „Suchraum“ zumindest in einigen Ausführungsformen auf eine Teilmenge aller Hypothesen, die mit den beobachteten Trainingsbeispielen konsistent sind. Zusätzlich oder alternativ dazu verweist der Begriff „Suchraum“ zumindest in einigen Ausführungsformen auf einen Versionsraum, der über Maschinenlernen entwickelt werden kann.
  • Der Begriff „stochastisch“ verweist zumindest in einigen Ausführungsformen auf eine Eigenschaft, dass etwas durch eine zufällige Wahrscheinlichkeitsverteilung beschrieben wird. Obwohl sich die Begriffe „Stochastizität“ und „Zufälligkeit“ darin unterscheiden, dass sich ersteres auf einen Modellierungsansatz bezieht und sich letzteres auf Phänomene selbst bezieht, können diese beiden Begriffe für Zwecke der vorliegenden Offenbarung synonym verwendet werden, es sei denn, der Kontext gibt etwas anderes an.
  • Der Begriff „Vektor“ verweist zumindest in einigen Ausführungsformen auf eine eindimensionale Array-Datenstruktur. Zusätzlich oder alternativ dazu verweist der Begriff „Vektor“ zumindest in einigen Ausführungsformen auf ein Tupel aus einem oder mehreren Werten, die Skalare genannt werden.
  • Auch wenn viele der vorstehenden Beispiele unter Verwendung von spezieller Zellular-/Mobilnetzwerkterminologie bereitgestellt sind, einschließlich unter Verwendung von 4G/5G-3GPP-Netzwerkkomponenten (oder erwarteten terahertzbasierten Technologien von 6G/6G+), versteht es sich, dass diese Beispiele auf viele andere Anwendungen von Weitverkehrs- und Lokaldrahtlosnetzwerken sowie die Integration drahtgebundener Netzwerke (einschließlich optischer Netzwerke und assoziierter Fasern, Sendeempfänger usw.) angewandt werden können. Ferner können verschiedene Standards (z. B. 3GPP, ETSI usw.) verschiedene Nachrichtenformate, PDUs, Container, Rahmen usw. als eine Sequenz von optionalen oder obligatorischen Datenelementen (DEs), Datenrahmen (DFs), Informationselementen (IEs) und/oder dergleichen umfassend definieren. Es versteht sich jedoch, dass die Anforderungen eines beliebigen bestimmten Standards die hierin besprochenen Ausführungsformen nicht einschränken sollen und daher eine beliebige Kombination von Containern, Rahmen, DFs, DEs, IEs, Werten, Aktionen und/oder Merkmalen in verschiedenen Ausführungsformen möglich ist, einschließlich einer beliebigen Kombination von Containern, DEs, Werten, Aktionen und/oder Merkmalen, die streng befolgt werden müssen, um derartige Standards einzuhalten, oder einer beliebigen Kombination von Containern, Rahmen, DFs, DEs, IEs, Werten, Aktionen und/oder Merkmalen, die stark empfohlen werden und/oder mit oder in Anwesenheit/Abwesenheit optionaler Elemente verwendet werden.
  • Auch wenn diese Implementierungen unter Bezugnahme auf spezifische beispielhafte Aspekte beschrieben wurden, ist es offensichtlich, dass verschiedene Modifikationen und Änderungen an diesen Aspekten vorgenommen werden können, ohne vom breiteren Schutzumfang der vorliegenden Offenbarung abzuweichen. Viele der hierin beschriebenen Anordnungen und Prozesse können in Kombination oder in parallelen Umsetzungen verwendet werden, um eine größere Bandbreite/einen größeren Durchsatz bereitzustellen und Randdienstauswahlen zu unterstützen, die den zu bedienenden Randsystemen zur Verfügung gestellt werden können. Dementsprechend sind die Spezifikation und die Zeichnungen eher in einem veranschaulichenden statt in einem einschränkenden Sinne aufzufassen. Die begleitenden Zeichnungen, die einen Teil hiervon bilden, zeigen zur Veranschaulichung, aber nicht zur Einschränkung, spezifische Aspekte, in denen der Gegenstand der Erfindung in die Praxis umgesetzt werden kann. Die veranschaulichten Aspekte sind hinreichend detailliert beschrieben, um einen Fachmann zu befähigen, die hier offenbarten Lehren in die Praxis umzusetzen. Andere Aspekte können genutzt und daraus abgeleitet werden, so dass strukturelle und logische Substitutionen und Änderungen vorgenommen werden können, ohne vom Schutzumfang dieser Offenbarung abzuweichen. Diese ausführliche Beschreibung ist daher nicht in einem beschränkenden Sinne aufzufassen und der Schutzumfang verschiedener Aspekte ist nur durch die angehängten Ansprüche, zusammen mit dem vollen Umfang von Äquivalenten, zu denen solche Ansprüche berechtigt sind, definiert.
  • Auf solche Aspekte des erfindungsgemäßen Gegenstands kann hier einzeln und/oder kollektiv lediglich der Einfachheit halber Bezug genommen werden, und ohne zu beabsichtigen, den Schutzumfang dieser Anmeldung freiwillig auf einen beliebigen einzelnen Aspekt oder einen beliebigen einzelnen Erfindungsgedanken zu beschränken, falls tatsächlich mehr als einer offenbart ist. Obwohl spezielle Aspekte hierin veranschaulicht und beschrieben wurden, versteht es sich daher, dass eine beliebige Anordnung, die berechnet ist, um denselben Zweck zu erfüllen, die gezeigten speziellen Aspekte ersetzen kann. Diese Offenbarung ist so zu verstehen, dass sie alle Anpassungen oder Variationen der zahlreichen Aspekte samt und sonders abdecken. Kombinationen der obigen Aspekte und anderer Aspekte, die hierin nicht speziell beschrieben sind, ergeben sich für Fachleute bei der Durchsicht der obigen Beschreibung.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 17/484743 [0015]
    • US 17014945 [0128]
    • US 63/003834 [0199]
    • US 20/066969 PCT [0199]
    • US 17/484719 [0201]

Claims (25)

  1. Edge-Computing-Knoten zum Bereitstellen von Zuverlässigkeitsverbesserungen in einem Mehrfachzugangskommunikationsnetzwerk, wobei der Edge-Computing-Knoten Folgendes umfasst: eine Schnittstellenschaltungsanordnung, angeordnet zum kommunikativen Koppeln des Edge-Computing-Knotens mit einer Menge von Netzwerkzugangsknoten (NANs) in dem Mehrfachzugangskommunikationsnetzwerk, wobei ein oder mehrere NANs in der Menge von NANs kommunikativ mit einer oder mehreren Benutzervorrichtungen gekoppelt sind; und eine Prozessorschaltungsanordnung, die mit der Schnittstellenschaltungsanordnung verbunden ist, wobei die Prozessorschaltungsanordnung dient zum: Sammeln, über die Schnittstellenschaltungsanordnung, von Metriken bezüglich des Mehrfachzugangskommunikationsnetzwerks von einer oder mehreren Datenquellen innerhalb des Mehrfachzugangskommunikationsnetzwerks; Bestimmen, basierend auf den gesammelten Metriken, eines Zuverlässigkeitsziels, einer Netzwerkcodierungs- bzw. NC-Gruppengröße und von pfadweisen Charakteristiken für jeden Netzwerkpfad einer Menge von Netzwerkpfaden in der Mehrfachzugangsumgebung; Bestimmen einer Verkehrsverteilungsstrategie basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße und dem Zuverlässigkeitsziel, wobei die Verkehrsverteilungsstrategie eine Anzahl von netzwerkcodierten Paketen spezifiziert, die über jeweilige Netzwerkpfade der Menge von Netzwerkpfaden geroutet werden sollen; Erzeugen einer NC-Gruppe aus einer Menge von eingehenden Paketen, wobei die NC-Gruppe eine Menge von netzwerkcodierten Paketen umfasst, um das Zuverlässigkeitsziel zu erreichen; und Routen einzelner Teilmengen aus der NC-Gruppe zu den jeweiligen Netzwerkpfaden gemäß der Verkehrsverteilungsstrategie.
  2. Edge-Computing-Knoten nach Anspruch 1, wobei, zum Erzeugen der NC-Gruppe, die Prozessorschaltungsanordnung dient zum: Anwenden von NC auf Pakete in der Menge von eingehenden Paketen, um die Menge von netzwerkcodierten Paketen in der NC-Gruppe zu erzeugen.
  3. Edge-Computing-Knoten nach Ansprüchen 1-2, wobei die Prozessorschaltungsanordnung dient zum: Bestimmen einer Coderate zum Codieren der Menge eingehender Pakete basierend auf einem Verhältnis der NC-Gruppengröße zu einer Gesamtanzahl von netzwerkcodierten Paketen in der NC-Gruppe.
  4. Edge-Computing-Knoten nach Ansprüchen 1-3, wobei die NC-Gruppengröße eine erste NC-Gruppengröße unter mehreren NC-Gruppengrößen ist, die Verkehrsverteilungsstrategie eine erste Verkehrsverteilungsstrategie ist und die Prozessorschaltungsanordnung dient zum: Bestimmen einer jeweiligen Verkehrsverteilungsstrategie mehrerer Verkehrsverteilungsstrategien für jede NC-Gruppengröße der mehreren NC-Gruppengrößen basierend auf den pfadweisen Charakteristiken, einer entsprechenden NC-Gruppengröße der mehreren NC-Gruppengrößen und dem Zuverlässigkeitsziel.
  5. Edge-Computing-Knoten nach Anspruch 4, wobei die Prozessorschaltungsanordnung dient zum: Durchführen einer Headerprüfung auf der Menge von Paketen zum Bestimmen einer Paketkennung der Menge von eingehenden Paketen, die mit einem Zuverlässigkeitsfluss verknüpft sind, wobei die Paketkennung eine oder mehrere aus einer Quellknoten-Netzwerkadresse, einer Zielknoten-Netzwerkadresse, einer Eingangs-Portnummer, einer Ausgangs-Portnummer und einer Dienstgüte- bzw. QoS-Flusskennung ist.
  6. Edge-Computing-Knoten nach Anspruch 5, wobei die Prozessorschaltungsanordnung dient zum: Durchführen einer automatischen Burst-Größendetektion basierend auf einem Burst-Zeitspreizparameter, wobei der Burst-Zeitspreizparameter eine maximale Ankunftszeitdifferenz zwischen einem ersten Paket eines Bursts von Paketen und einem letzten Paket des Bursts von Paketen spezifiziert, wobei, zum Durchführen der automatischen Burst-Größendetektion , die Prozessorschaltungsanordnung dient zum: Bestimmen einer Burst-Größe durch Zählen einer Anzahl von eingehenden Paketen der Menge von eingehenden Paketen, die innerhalb eines Zeitfensters nach Ankunft des ersten Pakets des Bursts von Paketen ankommen, wobei das Zeitfenster eine gleiche Größe wie der Burst-Zeitspreizparameter aufweist; Auswählen einer Verkehrsverteilungsstrategie aus den mehreren Verkehrsverteilungsstrategien basierend auf der bestimmten Burst-Größe; und wenn die Menge von eingehenden Paketen systematische Codepakete sind, Routen eingehender Pakete der Menge von eingehenden Paketen, die innerhalb des Zeitfensters ankommen, zur Übertragung über einen oder mehrere Netzwerkpfade der Menge von Netzwerkpfaden, ohne NC auf den eingehenden Paketen durchzuführen, die innerhalb des Zeitfensters ankommen.
  7. Edge-Computing-Knoten nach Ansprüchen 1-6, wobei die pfadweisen Charakteristiken Folgendes umfassen: eine Löschwahrscheinlichkeit zum Senden von Paketen über einzelne Netzwerkpfade der Menge von Netzwerkpfaden; und Verzögerungscharakteristiken, die eine erwartete Zeit angeben, die zum Senden einer Anzahl von Paketen über die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden erforderlich ist.
  8. Edge-Computing-Knoten nach Anspruch 7, wobei die Prozessorschaltungsanordnung dient zum: Betreiben eines Optimierers zum Bestimmen einer optimalen Teilmenge von Netzwerkpfaden aus der Menge von Netzwerkpfaden und einer optimalen Anzahl von netzwerkcodierten Paketen, die zu den einzelnen Teilmengen der NC-Gruppe gehören sollen.
  9. Edge-Computing-Knoten nach Anspruch 8, wobei die Prozessorschaltungsanordnung dient zum: Betreiben des Optimierers zum Ableiten einer Worst-Case-Verzögerung für die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden basierend auf der Löschwahrscheinlichkeit, den Verzögerungscharakteristiken, dem Zuverlässigkeitsziel und der NC-Gruppengröße, wobei die abgeleitete Worst-Case-Verzögerung ein maximaler Betrag einer akzeptablen Verzögerung zum Liefern der Menge von netzwerkcodierten Paketen über die einzelnen Netzwerkpfade ist, die immer noch das Zuverlässigkeitsziel erfüllt; Bestimmen einer Burst-Größe basierend auf der NC-Gruppengröße; und Erzeugen einer Abbildungsfunktion, die die Worst-Case-Verzögerung auf die Burst-Größe abbildet, wobei die Abbildungsfunktion dient zum Bestimmen von Zulassungssteuerkriterien zum Durchführen einer Zulassungssteuerung.
  10. Edge-Computing-Knoten nach Anspruch 9, wobei die Prozessorschaltungsanordnung dient zum: Durchführen einer Zulassungssteuerung für stoßartigen Ankunftsverkehr mit einer festen Burst-Größe und einem Burst-Intervall, wobei das Burst-Intervall auf der Worst-Case-Verzögerung an der Burst-Size-Abbildung basiert; Durchführen einer Zulassungssteuerung für periodischen Ankunftsverkehr basierend auf einer Ankunftszeit des periodischen Ankunftsverkehrs und der Burst-Größe; und Durchführen der Zulassungssteuerung für den stoßartigen Ankunftsverkehr oder den periodischen Ankunftsverkehr unter Verwendung eines Leaky-Bucket-Verkehrs-Pacing-Mechanismus oder eines Token-Bucket-Verkehrs-Pacing-Mechanismus.
  11. Edge-Computing-Knoten nach Anspruch 8 bis 10, wobei die Prozessorschaltungsanordnung dient zum: Bestimmen, basierend auf den gesammelten Metriken, einer Verzögerungsgrenze für die einzelnen Netzwerkpfade der Menge von Netzwerkpfaden; und Betreiben des Optimierers zum: Bestimmen, als die optimale Teilmenge von Netzwerkpfaden, einer ressourceneffizientesten Teilmenge der Menge von Netzwerkpfaden unter verschiedenen anderen Teilmengen von Netzwerkpfaden aus der Menge von Netzwerkpfaden Bestimmen einer Durchführbarkeit für die Menge von netzwerkcodierten Paketen basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße, dem Zuverlässigkeitsziel und der Verzögerungsgrenze; und Erzeugen eines Durchführbarkeitsindikators basierend auf der bestimmten Durchführbarkeit, wobei ein Wert des Durchführbarkeitsindikators angibt, ob Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist oder nicht.
  12. Edge-Computing-Knoten nach Anspruch 11, wobei: der Durchführbarkeitsindikator einen Wert von „wahr“ beinhaltet, um anzugeben, dass Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist, und wobei der Durchführbarkeitsindikator einen Wert von „falsch“ beinhaltet, um anzugeben, dass das Senden von Verkehr über die einzelnen Netzwerkpfade nicht durchführbar ist; oder der Durchführbarkeitsindikator einen numerischen Wert beinhaltet, wobei der numerische Wert, der über einem vorbestimmten oder konfigurierten Schwellenwert liegt, angibt, dass das Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist, und wobei der numerische Wert, der unter dem vorbestimmten oder konfigurierten Schwellenwert liegt, angibt, dass das Senden von Verkehr über die einzelnen Netzwerkpfade nicht durchführbar ist.
  13. Edge-Computing-Knoten nach Ansprüchen 11-12, wobei die Prozessorschaltungsanordnung dient zum: Durchführen einer Zulassungssteuerung unter Verwendung des Durchführbarkeitsindikators, wobei die Durchführung der Zulassungssteuerung Folgendes umfasst: Zurückweisen der Zulassung der Gruppe von netzwerkcodierten Paketen, wenn der Wert des Durchführbarkeitsindikators angibt, dass Senden von Verkehr über die einzelnen Netzwerkpfade nicht durchführbar ist; und Zulassen der Gruppe von netzwerkcodierten Paketen, wenn der Wert des Durchführbarkeitsindikators angibt, dass Senden von Verkehr über die einzelnen Netzwerkpfade durchführbar ist.
  14. Edge-Computing-Knoten nach Anspruch 13, wobei die Prozessorschaltungsanordnung dient zum: Bestimmen, ob das Liefern einzelner Teilmengen der optimalen Teilmengen von netzwerkcodierten Paketen, die über jeweilige der optimalen Teilmenge von Netzwerkpfaden gesendet werden sollen, eine Zuverlässigkeitsfluss-Ressourcenzuordnungsschwelle während eines Zeitraums überschreitet, der innerhalb eines Inter-Burst-Intervalls oder der Verzögerungsgrenze liegt; und Zurückweisen der Zulassung der Menge von netzwerkcodierten Paketen, wenn Liefern mindestens einer der optimalen Teilmengen die Zuverlässigkeitsfluss-Ressourcenzuordnungsschwelle während des Zeitraums überschreitet.
  15. Edge-Computing-Knoten nach Ansprüchen 1-14, wobei die eine oder die mehreren Datenquellen die Menge von NANs oder die eine oder die mehreren Benutzervorrichtungen umfassen und die Metriken bezüglich der Mehrfachzugangsumgebung Folgendes umfassen: Zugangsnetzwerkmessungen, wobei die Zugangsnetzwerkmessungen eines oder mehrere aus Referenzsignalempfangsleistung (RSRP), Referenzsignalempfangsqualität (RSRQ), Empfangssignalstärkenindikator (RSSI), Empfangskanalleistungsindikator (RCPI), Empfangssignal-Rausch-Indikator (RSNI), Durchschnittsrauschen-plus-Interferenz (ANPI), Signal-Rausch-Verhältnis (SNR), Signal-Rausch-und-Interferenz-Verhältnis (SINR), erwartete Spitzendatenrate, Ende-zu-Ende-Verzögerungsmessungen, Backhaul-Verzögerungsmessungen, Planungsverzögerungsmessungen, Paketverwerfungsrate und Paketfehlerverhältnis umfassen; Fähigkeiten, die durch eine oder mehrere Konfigurationen angegeben werden, wobei die Fähigkeiten eine oder mehrere aus QoS-Fähigkeiten, die in einer QoS-Konfiguration enthalten sind, Drahtlos-Lokalbereichsnetzwerks- bzw. WLAN-Fähigkeiten, die in einer WLAN-Konfiguration enthalten sind, und Funkressourcensteuerungs- bzw. RRC-Informationen, die in einer RRC-Konfiguration enthalten sind, umfassen; Anwendungsschichtmetriken, wobei die Anwendungsschichtmetriken eines oder mehrere aus Prioritätsindikatoren für Datenflüsse, QoS-Anforderungen der Datenflüsse umfassen, wobei die QoS-Anforderungen eines oder mehrere aus dem Zuverlässigkeitsziel, einer Latenzgrenze, einer minimalen garantierten Bitrate und einer maximalen Burst-Größe umfassen; und Datenebenen-Telemetriemetriken, wobei die Datenebenen-Telemetriemetriken eines oder mehrere aus Verkehrsvolumenschätzungen von Zuverlässigkeitsflüssen, Verkehrsvolumenschätzungen von Nicht-Zuverlässigkeitsflüssen, Flusspfad- und Latenzmetriken, Paketverwerfungsmetriken, Verkehrsüberlastmetriken, Plattformlastmetriken und Anwendungslastmetriken umfassen.
  16. Edge-Computing-Knoten nach Ansprüchen 1-15, wobei der Edge-Computing-Knoten eines aus einem Mehrfachzugangs-Edge-Computing- bzw. MEC-Server eines MEC-Frameworks, einem Mehrfachzugangsverwaltungsdienst- bzw. MAMS-Server eines MAMS-Frameworks, einem MAMS-Client eines MAMS-Frameworks; einer intelligenten Funkzugangsnetzwerk- bzw. RAN-Steuerung (RIC) eines Open-RAN-Alliance- bzw. O-RAN-Frameworks; einer zentralen Einheit (CU) einer auf CU/verteilte Einheit (DU) aufgeteilten Architektur einer Next-Generation- bzw. NG-RAN-Architektur eines 3GPP-Mobilfunknetzes (3rd Generation Partnership Project); einem Edge-Enabler-Server (EES) einer 3GPP-Edge-Computing-Architektur; oder einem Edge-Konfigurationsserver (ECS) einer 3GPP-Edge-Computing-Architektur ist.
  17. Zuverlässigkeitsverbesserungs-Engine (REE), die Folgendes umfasst: Mittel zum Sammeln von Metriken bezüglich eines Mehrfachzugangskommunikationsnetzwerks von einer oder mehreren Datenquellen innerhalb des Mehrfachzugangskommunikationsnetzwerks, wobei die eine oder die mehreren Datenquellen eine Menge von Netzwerkzugangsknoten (NANs) in dem Mehrfachzugangskommunikationsnetzwerk oder eine oder mehrere Benutzervorrichtungen, die mit der Menge von NANs verbunden sind, umfassen; Mittel zum Bestimmen, basierend auf den gesammelten Metriken, eines Zuverlässigkeitsziels, einer Netzwerkcodierungs- bzw. NC-Gruppengröße und von pfadweisen Charakteristiken für jeden Netzwerkpfad einer Menge von Netzwerkpfaden in der Mehrfachzugangsumgebung; Mittel zum Bestimmen einer Verkehrsverteilungsstrategie basierend auf den pfadweisen Charakteristiken, der NC-Gruppengröße und dem Zuverlässigkeitsziel; Mittel zum Erzeugen einer NC-Gruppe aus einer Menge von eingehenden Paketen, wobei die NC-Gruppe eine Menge von netzwerkcodierten Paketen umfasst, um das Zuverlässigkeitsziel zu erreichen; und Mittel zum Routen einzelner Teilmengen von der NC-Gruppe zu jeweiligen Netzwerkpfaden der Menge von Netzwerkpfaden gemäß der Verkehrsverteilungsstrategie.
  18. REE nach Anspruch 17, Folgendes umfassend: Mittel zum Bestimmen einer Anzahl verfügbarer Übertragungseinheiten auf jedem Netzwerkpfad der Menge von Netzwerkpfaden; Mittel zum Durchführen von NC auf der Menge von eingehenden Paketen, um die Menge von netzwerkcodierten Paketen zu erhalten; und Mittel zum Liefern der einzelnen Teilmengen der Menge von netzwerkcodierten Paketen an die jeweiligen Netzwerkpfade der Menge von Netzwerkpfaden.
  19. REE nach Ansprüchen 17-18, wobei das Mittel zum Bestimmen der Anzahl verfügbarer Übertragungseinheiten auf jedem Netzwerkpfad Folgendes umfasst: Mittel zum Berechnen einer Anzahl von unabhängig übertragenen Paketen, die auf jedem Netzwerkpfad unterstützt werden, innerhalb einer Übertragungsverzögerungsgrenze der Menge von eingehenden Paketen.
  20. REE nach Anspruch 17-19, wobei das Mittel zum Durchführen von NC auf der Menge von eingehenden Paketen und zum Liefern der einzelnen Teilmengen an die jeweiligen Netzwerkpfade Folgendes umfasst: ein Mittel zum Gruppieren einer Folge der Menge von eingehenden Paketen, wobei eine Länge der Folge der Menge von eingehenden Paketen durch eine vordefinierte NC-Konfiguration spezifiziert wird; ein Mittel zum Bestimmen einer Anzahl von netzwerkcodierten Paketen in der Menge von netzwerkcodierten Paketen, die aus jeder Gruppierung der eingehenden Pakete erzeugt werden sollen; ein Mittel zum Bestimmen jeweiliger Größen entsprechender Teilmengen der einzelnen Teilmengen, die an die jeweiligen Netzwerkpfade geliefert werden sollen; ein Mittel zum Erzeugen der einzelnen Teilmengen aus jeder Gruppierung der eingehenden Pakete gemäß der NC-Konfiguration und einer Gesamtanzahl von netzwerkcodierten Paketen in der Menge von netzwerkcodierten Paketen; und ein Mittel zum Liefern der einzelnen Teilmengen an die jeweiligen Netzwerkpfade gemäß den jeweiligen Größen.
  21. REE nach Anspruch 20, wobei das Mittel zum Bestimmen der jeweiligen Größen der entsprechenden Teilmengen Folgendes umfasst: Optimierungsmittel zum Bestimmen der jeweiligen Größen der entsprechenden Teilmengen basierend auf der NC-Gruppengröße, dem Zuverlässigkeitsziel, der Löschwahrscheinlichkeit der jeweiligen Netzwerkpfade, einer spektralen Effizienz der jeweiligen Netzwerkpfade und der Anzahl verfügbarer Übertragungseinheiten, und zum Ausgeben.
  22. REE nach Anspruch 21, Folgendes umfassend: ein Mittel zum Bestimmen einer Bewertung für jeden Netzwerkpfad der Menge von Netzwerkpfaden basierend auf der Löschwahrscheinlichkeit eines entsprechenden der einzelnen Netzwerkpfade, einer spektralen Effizienz des entsprechenden der einzelnen Netzwerkpfade, der NC-Gruppengröße und dem Zuverlässigkeitsziel; und ein Mittel zum Erzeugen einer Präferenzreihenfolge für jeden der jeweiligen Netzwerkpfade gemäß der Bewertung jedes Netzwerkpfads.
  23. REE nach Anspruch 22, wobei das Optimierungsmittel ausgelegt ist zum Bestimmen der jeweiligen Größen der entsprechenden Teilmengen gemäß einem Algorithmus vom Greedy-Typ unter Verwendung der Präferenzreihenfolge, wobei der Algorithmus vom Greedy-Typ ein Greedy-Algorithmus mit Liniensuche oder ein Greedy-Algorithmus mit binärer Suche ist, und wobei die REE Folgendes umfasst: ein Mittel zum Anwenden einer rekursiven Endeinheitsanpassungsprozedur auf ein Ergebnis des Algorithmus vom Greedy-Typ
  24. REE nach Ansprüchen 17-23, wobei die REE Teil einer Mehrfachzugangsverkehrsverwaltung (MA-TM) eines Edge-Computing-Knotens ist, wobei die MA-TM Teil einer Edge-Plattform des Edge-Computing-Knotens ist und die REE eine Edge-App ist, die durch den Edge-Computing-Knoten betrieben wird, oder wobei die REE und die MA-TM als jeweilige Edge-Anwendungen (Apps) des Edge-Computing-Knotens implementiert sind.
  25. REE nach Anspruch 24, wobei: der Edge-Computing-Knoten ein Mehrfachzugang-Edge-Computing- bzw. MEC-Server eines MEC-Frameworks ist und die REE als eine MEC-App implementiert ist, die dazu ausgelegt ist, durch eine MEC-Plattform des MEC-Servers betrieben zu werden; der Edge-Computing-Knoten ein Mehrfachzugangsverwaltungsdienst- bzw. MAMS-Server oder ein MAMS-Client eines MAMS-Frameworks ist und die REE implementiert ist als ein Netzwerkverbindungsmanager (NCM), der dazu ausgelegt ist, durch den MAMS-Server betrieben zu werden, oder ein Client-Verbindungsmanager (CCM), der dazu ausgelegt ist, durch den MAMS-Client betrieben zu werden; der Edge-Computing-Knoten eine intelligente Funkzugangsnetzwerk- bzw. RAN-Steuerung (RIC) eines Open-RAN-Alliance- bzw. O-RAN-Frameworks ist und die REE als eine xApp implementiert ist, die dazu ausgelegt ist, durch die RIC betrieben zu werden; der Edge-Computing-Knoten eine Zentraleinheit (CU) einer auf CU/verteilte Einheit (DU) aufgeteilten Architektur einer Next-Generation- bzw. NG-RAN-Architektur eines 3GPP-Mobilfunknetzes (3rd Generation Partnership Project) ist und die REE als eine Netzwerkfunktion (NF) implementiert ist, die dazu ausgelegt ist, durch die CU betrieben zu werden; oder der Edge-Computing-Knoten ein Edge-Enabler-Server (EES) oder ein Edge-Konfigurationsserver (ECS) einer 3GPP-Edge-Computing-Architektur ist und die REE als Edge-Anwendungsserver (EAS) implementiert ist, der dazu ausgelegt ist, von dem EES oder dem ECS betrieben zu werden.
DE102022211605.4A 2021-12-14 2022-11-03 Zuverlässigkeitsverbesserungen für mehrfachzugangsverkehrsverwaltung Pending DE102022211605A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/550,936 US20220109622A1 (en) 2021-12-14 2021-12-14 Reliability enhancements for multi-access traffic management
US17/550,936 2021-12-14

Publications (1)

Publication Number Publication Date
DE102022211605A1 true DE102022211605A1 (de) 2023-06-15

Family

ID=80931754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022211605.4A Pending DE102022211605A1 (de) 2021-12-14 2022-11-03 Zuverlässigkeitsverbesserungen für mehrfachzugangsverkehrsverwaltung

Country Status (2)

Country Link
US (1) US20220109622A1 (de)
DE (1) DE102022211605A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110234112B (zh) * 2018-03-05 2020-12-04 华为技术有限公司 消息处理方法、系统及用户面功能设备
US11470017B2 (en) * 2019-07-30 2022-10-11 At&T Intellectual Property I, L.P. Immersive reality component management via a reduced competition core network component
US11777863B2 (en) * 2020-12-21 2023-10-03 Landis+ Gyr Innovations Optimized route for time-critical traffic in mesh network
US20230062393A1 (en) * 2021-08-31 2023-03-02 At&T Intellectual Property I, L.P. Radio Access Network Congestion Response
US20230261976A1 (en) * 2022-02-15 2023-08-17 Federated Wireless, Inc. Systems and methods for providing multipath connectivity intelligence
US11700191B1 (en) * 2022-03-11 2023-07-11 Dell Products L.P. Packet replication for delay-sensitive traffic
WO2023200885A1 (en) * 2022-04-14 2023-10-19 Dish Wireless L.L.C. Telecommunication service provider controlling an underlay network in cloud service provider environment
US11843537B2 (en) 2022-04-14 2023-12-12 Dish Wireless L.L.C. Telecommunication service provider controlling an underlay network in cloud service provider environment
US11507041B1 (en) * 2022-05-03 2022-11-22 The Florida International University Board Of Trustees Systems and methods for boosting resiliency of a power distribution network
US11968566B2 (en) * 2022-05-09 2024-04-23 Verizon Patent And Licensing Inc. Systems and methods for inter-entity system configuration management using distributed ledger system
CN115002155B (zh) * 2022-05-25 2023-02-21 安徽江淮汽车集团股份有限公司 基于时延优化的路侧单元服务迁移方法
WO2024026820A1 (en) * 2022-08-05 2024-02-08 Qualcomm Incorporated Distributed network coding with complementary network coding devices
CN115550367B (zh) * 2022-11-30 2023-03-07 成都中星世通电子科技有限公司 基于分布式任务管理和资源调度的无线电监测方法及系统
CN118138660A (zh) * 2022-12-01 2024-06-04 中兴通讯股份有限公司 网络优化方法、边缘设备及计算机可读存储介质
CN117857423A (zh) * 2023-11-29 2024-04-09 慧之安信息技术股份有限公司 一种基于电力的低时延通信路由方法和系统

Also Published As

Publication number Publication date
US20220109622A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
DE102022211605A1 (de) Zuverlässigkeitsverbesserungen für mehrfachzugangsverkehrsverwaltung
NL2033617B1 (en) Resilient radio resource provisioning for network slicing
DE102022202872A1 (de) Neuronales graphennetzwerk und bestärkendes-lernen-techniken zur verbindungsverwaltung
US20220014963A1 (en) Reinforcement learning for multi-access traffic management
US20210409335A1 (en) Multi-access management service packet classification and prioritization techniques
DE102021211176A1 (de) Interoperables framework für sicheren verbrauch von dual-modus-edge-anwendungsprogrammierungsschnittstellen in hybriden edge-computing-plattformen
US20200195495A1 (en) 5g network slicing with distributed ledger traceability and resource utilization inferencing
US20220232423A1 (en) Edge computing over disaggregated radio access network functions
US20220124043A1 (en) Multi-access management service enhancements for quality of service and time sensitive applications
DE112020004736T5 (de) Edge-computing-technologien für transportschichtüberlastregelung und point-of-presence-optimierungen auf grundlage erweiterter vorab-dienstgüte-benachrichtigungen
DE112020001183T5 (de) Multi-slice-unterstützung für mec-fähige 5g-implementierungen
DE112020003766T5 (de) Linkleistungsprognose und Medienstreaming-Technologien
DE102022211529A1 (de) Methoden zum einreihen und neuordnen für mehrfachzugangsverwaltungsdienste
DE102021208087A1 (de) Kontextbewusstes Handover
DE112020007003T5 (de) Multi-funkzugangstechnologie-verkehrsverwaltung
DE102022200588A1 (de) Überlastungs- und mehrkanalsteuerung eines verkehrstelematiksystems
DE102020202398A1 (de) Edge-server-cpu mit dynamischer deterministischer skalierung
US11515890B2 (en) Technologies for applying a redundancy encoding scheme to segmented network packets
CN114567875A (zh) 用于无线电设备网络空间安全和多个无线电接口测试的技术
DE102023200988A1 (de) Dynamische latenz-responsive cache-verwaltung
DE102019217367A1 (de) VERWALTUNG DER DIENSTQUALITÄT (QoS) IN EDGE-COMPUTING-UMGEBUNGEN
US20230006889A1 (en) Flow-specific network slicing
US20220123849A1 (en) Technologies to compensate for errors in time synchronization due to clock drift
DE102022202963A1 (de) Verkehrsaufteilungs- und neuübertragungsmechanismen mit schichtübergreifender und zugangsübergreifender technologie
DE112020006555T5 (de) Rekonfigurierbare funksysteme mit funkschnittstellen-engines und virtuellen funkmaschinen