CN118077180A - 基于网络的人工智能(ai)模型配置 - Google Patents

基于网络的人工智能(ai)模型配置 Download PDF

Info

Publication number
CN118077180A
CN118077180A CN202280062545.8A CN202280062545A CN118077180A CN 118077180 A CN118077180 A CN 118077180A CN 202280062545 A CN202280062545 A CN 202280062545A CN 118077180 A CN118077180 A CN 118077180A
Authority
CN
China
Prior art keywords
model
machine learning
network
neural network
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280062545.8A
Other languages
English (en)
Inventor
朱西鹏
G·B·霍恩
R·普拉卡什
R·库马尔
S·克里希南
T·余
E·巴莱维
A·戈尔米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN118077180A publication Critical patent/CN118077180A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0806Configuration setting for initial configuration or provisioning, e.g. plug-and-play
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/082Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices
    • H04W88/085Access point devices with remote components

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

一种由基站进行无线通信的方法包括接收用户设备(UE)无线电能力和UE机器学习能力。该方法还包括基于UE无线电能力来确定神经网络函数(NNF)。该方法包括确定神经网络模型。神经网络模型包括基于NNF、UE机器学习能力和网络实体的能力的模型结构和参数集合。该方法还包括利用神经网络模型配置网络实体。

Description

基于网络的人工智能(AI)模型配置
相关申请的交叉引用
本申请要求于2021年9月24日递交的、发明名称为“NETWORK-BASED ARTIFICIALINTELLIGENCE(AI)MODEL CONFIGURATION”的美国专利申请第17/484,580号的优先权,该申请的公开内容的全部内容以引用的方式明确地并入本文中。
技术领域
本公开内容大体上涉及无线通信,以及更具体地涉及对基于网络的人工智能或机器学习(AI/ML)模型的配置。
背景技术
广泛地部署无线通信系统,以提供诸如电话、视频、数据、消息传送和广播的各种电信服务。典型的无线通信系统可以采用能够通过共享可用的系统资源(例如,带宽、发射功率等)来支持与多个用户进行的通信的多址技术。这样的多址技术的示例包括码分多址(CDMA)系统、时分多址(TDMA)系统、频分多址(FDMA)系统、正交频分多址(OFDMA)系统、单载波频分多址(SC-FDMA)系统、时分同步码分多址(TD-SCDMA)系统和长期演进(LTE)。LTE/改进的LTE是由第三代合作伙伴计划(3GPP)分布的通用移动电信系统(UMTS)移动标准的增强集合。窄带(NB)物联网(IoT)和增强型机器类型通信(eMTC)是对于LTE的用于机器类型通信的增强集合。
无线通信网络可以包括一数量个基站(BS),BS可以支持针对一数量个用户设备(UE)的通信。UE可以经由下行链路和上行链路与基站(BS)进行通信。下行链路(或前向链路)指的是从BS到UE的通信链路,以及上行链路(或反向链路)指的是从UE到BS的通信链路。如将更详细地描述的,BS可以称为节点B、演进型节点B(eNB)、gNB、接入点(AP)、无线电头端、发送和接收点(TRP)、新无线电(NR)BS、5G节点B等。
在各种电信标准中已经采纳上文的多址技术,以提供使得不同的用户设备能在城市层面、国家层面、地域层面、和甚至全球层面上进行通信的通用协议。新无线电(NR)(其还可以称为5G)是对由第三代合作伙伴计划(3GPP)发布的LTE移动标准的增强集合。NR被设计为通过提高频谱效率、降低成本、改进服务、利用新频谱以及在下行链路(DL)上使用具有循环前缀(CP)的正交频分复用(OFDM)(CP-OFDM)、在上行链路(UL)上使用CP-OFDM和/或SC-FDM(例如,还称为离散傅里叶变换扩展OFDM(DFT-s-OFDM))来更好地与其它开放标准整合,以及支持波束成形、多输入多输出(MIMO)天线技术和载波聚合,从而更好地支持移动宽带互联网接入。
人工神经网络可以包括互连的人工神经元的群组(例如,神经元模型)。人工神经网络可以是计算设备或表示为要由计算设备执行的方法。卷积神经网络(诸如深度卷积神经网络)是一种类型的前馈人工神经网络。卷积神经网络可以包括可以在分块化(tiled)感受野中配置的神经元的层。将期望的是,将神经网络处理应用于无线通信以实现更高的效率。
发明内容
在本公开内容的各方面,一种由基站进行无线通信的方法包括接收用户设备(UE)无线电能力和UE机器学习能力。所述方法还包括基于所述UE无线电能力来确定神经网络函数(NNF)。所述方法还包括确定神经网络模型。所述神经网络模型包括基于所述NNF、所述UE机器学习能力和网络实体的能力的模型结构和参数集合。所述方法包括利用所述神经网络模型来配置所述网络实体。
在本公开内容的其它方面,一种由用户设备(UE)进行无线通信的方法包括向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求。所述请求具有UE辅助信息(UAI)消息,所述UAI消息包括针对模型、神经网络函数(NNF)和机器学习触发事件的信息元素。所述方法还包括响应于从所述基站接收UE模型激活消息,激活基于UE的神经网络模型。
本公开内容的其它方面涉及一种用于由基站进行无线通信的装置,其具有存储器以及耦合到所述存储器的至少一个处理器。所述(多个)处理器被配置为接收用户设备(UE)无线电能力和UE机器学习能力。所述(多个)处理器还被配置为基于所述UE无线电能力来确定神经网络函数(NNF)。所述(多个)处理器还被配置为确定神经网络模型,所述神经网络模型具有基于所述NNF、所述UE机器学习能力和网络实体的能力的模型结构和参数集合。所述(多个)处理器还被配置为利用所述神经网络模型来配置所述网络实体。
各方面大体上包括如基本上参考附图和说明书描述的和如通过附图和说明书示出的方法、装置、系统、计算机程序产品、非暂时性计算机可读介质、用户设备、基站、无线通信设备和处理系统。
上文已经相当广泛地概述了根据本公开内容的示例的特征和技术优势,以便可以更好地理解下文的详细描述。将描述另外的特征和优点。所公开的概念和具体示例可以容易地被利用作为用于修改或设计用于实现本公开内容的相同目的的其它结构的基础。这样的等效结构不背离所附权利要求的范围。当结合附图考虑时,根据下文的描述,将更好地理解所公开的概念的特性(它们的组织和操作方法两者)连同相关联的优点。提供附图中的每个附图是出于说明和描述的目的,而不是作为对权利要求的界限的限定。
附图说明
为了可以详细地理解本公开内容的特征,通过参照各方面(其中的一些方面在附图中示出),可以获得特定的描述。然而,要注意的是,附图仅示出本公开内容的某些方面以及因此不被认为是对其范围的限制,因为该描述可以容许其它等同有效的方面。不同附图中的相同的附图标记可以标识相同或相似的元素。
图1是根据本公开内容的各个方面的概念性地示出无线通信网络的示例的框图。
图2是根据本公开内容的各个方面的概念性地示出在无线通信网络中基站与用户设备(UE)相通信的示例的框图。
图3示出根据本公开内容的某些方面的使用包括通用处理器的片上系统(SOC)来设计神经网络的示例实现方式。
图4A、图4B和图4C是示出根据本公开内容的各方面的神经网络的示意图。
图4D是示出根据本公开内容的各方面的示例性深度卷积网络(DCN)的示意图。
图5是示出根据本公开内容的各方面的示例性深度卷积网络(DCN)的框图。
图6是示出根据本公开内容的各方面的示例性神经网络模型的框图。
图7是示出根据本公开内容的各方面的用于管理神经网络模型的示例性架构的框图。
图8是示出根据本公开内容的各方面的用于管理神经网络模型的调用流程的时序图。
图9是示出根据本公开内容的各方面的用于配置基于网络的神经网络模型的更详细的调用流程的时序图。
图10是示出根据本公开内容的各方面的用于激活基于网络的神经网络模型的调用流程的时序图。
图11是示出根据本公开内容的各方面的用于由UE请求发起的机器学习的调用流程的时序图。
图12是示出根据本公开内容的各方面的用于UE和网络能力交换的调用流程的时序图。
图13是示出根据本公开内容的各方面的用于UE机器学习请求的调用流程的时序图。
图14是示出根据本公开内容的各个方面的例如由基站执行的示例过程的流程图。
图15是示出根据本公开内容的各个方面的例如由用户设备(UE)执行的示例过程的流程图。
具体实施方式
本公开内容的各个方面是下文中参考附图更加充分地描述的。然而,本公开内容可以以许多不同的形式来体现,以及不应被解释为限于贯穿本公开内容所给出的任何特定结构或功能。而是,提供这些方面使得本公开内容将是透彻的和完整的,以及将向本领域技术人员完整地传达本公开内容的保护范围。基于教导,本领域技术人员应当认识到,本公开内容的范围旨在涵盖本公开内容的任何方面,无论该方面是独立于本公开内容的任何其它方面来实现的还是与任何其它方面结合地实现的。例如,使用所阐述的任何数量的方面,可以实现装置或可以实践方法。此外,本公开内容的保护范围旨在覆盖这样的装置或方法,其是使用除所阐述的本公开内容的各个方面之外的其它结构、功能、或者结构和功能、或不同于所阐述的本公开内容的各个方面的其它结构、功能、或者结构和功能来实践的。应当理解的是,所公开的本公开内容的任何方面可以通过权利要求的一个或多个元素来体现。
现在将参考各种装置和技术给出电信系统的若干方面。这些装置和技术将是通过各种框、模块、组件、电路、步骤、过程、算法等(统称为“元素”)在以下详细描述中进行描述的,以及是在附图中进行示出的。这些元素可以使用硬件、软件或其组合来实现。这样的元素是实现为硬件还是软件,取决于特定的应用程序和施加于整个系统的设计约束。
应当注意,虽然各方面是使用通常与5G以及之后的无线技术相关联的术语来描述的,但是本公开内容的各方面可以应用于基于其它代的通信系统,诸如以及包括3G和/或4G技术。
人工智能解决方案(诸如利用神经网络模型实现的机器学习)可以改进无线通信。例如,可以采用机器学习来改进信道估计、小区选择或其它无线功能。神经网络模型可以在用户设备(UE)、网络实体或两个设备上运行,以执行一个或多个神经网络函数(NNF)。例如,对信道状态反馈的压缩和解压缩可以利用在UE和网络实体(其可以是例如基站)两者上运行的神经网络模型来实现。贯穿本公开内容,神经网络模型还可以称为机器学习模型。
在一些情况下,可能有利的是,无线通信网络的基站利用至少一个NNF和/或一个或多个相应的神经网络模型来动态地配置UE和网络实体。这个动态配置可以提供在无线通信网络内的灵活性。例如,这个动态配置可以允许UE或网络实体避免存储针对特定NNF的所有可能的神经网络模型,节省在UE和网络实体上的存储空间。反而,UE和/或网络实体可以在被指示为使用特定神经网络模型时单独地下载该特定神经网络模型。神经网络模型可以包括模型结构和模型参数。另外,动态配置可以向基站提供灵活性以在任何给定时间以及针对特定场景来选择性地选择使用哪个(哪些)NNF和/或相应的(哪些)模型来执行一个或多个基于机器学习的无线通信管理规程。此外,动态配置可以允许基站动态地更新用于NNF的神经网络模型。
然而,基站当前不能配置UE或网络实体为使用特定NNF和/或机器学习模型(例如,以执行某些基于机器学习的无线通信管理规程)。因此,本公开内容的各方面提供了促进在无线通信网络内对NNF和相应的神经网络模型的配置和使用的技术。
神经网络(NN)模型可以被定义为模型结构加上参数集合。网络运营商、基础设施供应商或第三方可以定义模型。模型结构可以是通过模型标识符(ID)来标识的,其应该是在网络中唯一的。在一些方面,模型结构包括默认参数集合。每个模型ID与神经网络函数相关联。参数集合包括神经网络模型的权重和其它配置参数。参数集合可以是位置或配置特定的。
根据本公开内容的各方面,集中式单元控制平面(CU-CP)和/或集中式单元机器学习平面(CU-XP)可以决定配置用于推理和/或训练的网络模型。配置可以是由网络来发起的,或是响应于UE请求来发起的。配置的模型可以在网络实体(诸如分布式单元(DU)、无线电接入网(RAN)智能控制器(RIC)、集中式单元用户平面(CU-UP)、集中式单元控制平面(CU-CP)、集中式单元机器学习平面(CU-XP)或任何其它网络实体)中运行。如果在运行的主机(诸如DU/RIC/CU-UP等)未在本地缓存模型和参数集合,则将下载模型和参数集合。当模型和参数集合准备好时,CU-CP和/或CU-XP激活模型。UE模型可以与网络模型一起被配置为例如压缩和解压缩信道状态反馈。
为了配置基于网络的模型,CU-CP例如基于UE能力交换、UE请求或一些其它触发,来决定使用哪个NNF。CU-CP在NNF请求消息中将确定的NNF的ID发送给CU-XP。CU-XP基于所请求的NNF来选择模型和参数集合。CU-XP将模型建立请求发送给将运行模型的RAN节点。模型建立请求可以包括模型ID和参数集合ID。RAN节点通过向位置数据库(诸如模型和数据存取协调器(MDAC))发送模型查询请求,来确定参数集合和模型的位置。模型查询请求可以包括模型ID和参数集合ID。MDAC利用用于指示模型和参数集合的位置的模型查询响应来进行响应。MDAC可以利用模型URL(统一资源定位符)和参数集合URL来指示位置。
在取回位置之后,RAN节点从模型库(MR)下载模型和参数集合。RAN节点可以例如利用用户平面协议与MR进行通信,以下载模型结构和参数集合。在模型配置之后,应当发生激活以使得能够使用模型。一旦模型和参数集合准备好,RAN侧模型激活可以是通过基站通知推理和/或训练节点开始运行模型来实现的。
在本公开内容的一些方面,UE触发网络模型的配置。UE无线电能力交换可以发生在UE与CU-CP之间。UE机器学习能力交换可以发生在UE与CU-XP之间。在UE处的事件可以触发针对基于网络的模型的机器学习。在本公开内容的一些方面,针对UE机器学习(ML)请求的触发可以是基于模型的范围。也就是说,每个人工智能或机器学习(AI/ML)模型可以具有适用的范围。当UE转换到模型的适用范围或转换出模型的适用范围时,UE ML请求可以被触发用于对网络模型的配置。为了避免太多UE ML请求的泛滥,网络可以配置UE触发的黑名单和/或白名单。网络还可以配置禁止定时器以防止过于频繁地对请求的发送。黑名单、禁止定时器和/或白名单可以是通过无线电资源控制(RRC)重新配置消息来配置的。对于既不在白名单中也不在黑名单中的神经网络函数(NNF)或模型,UE可以自主地请求网络配置。在一些方面,网络仅允许对在白名单中的模型的请求。在UE能力交换和接收禁止定时器、白名单和黑名单之后,UE可以请求网络配置用于在网络上执行的机器学习功能。
UE可以向网络请求具有UE辅助信息(UAI)消息的机器学习(ML)配置。根据本公开内容的各方面,机器学习辅助信息元素(IE)可以添加到UAI消息中。机器学习辅助IE可以包括针对模型或模型列表的机器学习请求。机器学习请求还可以指示NNF或NNF列表请求。机器学习辅助IE可以包括用于指示适用条件改变的事件,换言之,向网络通知针对已经配置的模型已经改变了什么。
图1是示出在其中可以实践本公开内容的各方面的网络100的示意图。网络100可以是5G或NR网络、或者某种其它无线网络(诸如LTE网络)。无线网络100可以包括一数量个BS110(示出为BS110a、BS110b、BS110c和BS110d)和其它网络实体。BS是与用户设备(UE)进行通信的实体,以及还可以称为基站、NR BS、节点B、gNB、5G节点B(NB)、接入点、发送和接收点(TRP)等。每个BS可以为特定的地理区域提供通信覆盖。在3GPP中,术语“小区”可以指的是BS的覆盖区域和/或为这个覆盖区域服务的BS子系统,取决于在其中使用该术语的上下文。
BS可以提供针对宏小区、微微小区、毫微微小区和/或另一类型的小区的通信覆盖。宏小区可以覆盖相对大的地理区域(例如,半径若干千米),以及可以允许由具有服务订制的UE进行不受限制的接入。微微小区可以覆盖相对小的地理区域,以及可以允许由具有服务订制的UE进行不受限制的接入。毫微微小区可以覆盖相对小的地理区域(例如,住宅),以及可以允许由具有与毫微微小区的关联的UE(例如,在封闭用户组(CSG)中的UE)进行受限制的接入。用于宏小区的BS可以称为宏BS。用于微微小区的BS可以称为微微BS。用于毫微微小区的BS可以称为毫微微BS或家庭BS。在图1中示出的示例中,BS110a可以是用于宏小区102a的宏BS,BS110b可以是用于微微小区102b的微微BS,以及BS110c可以是用于毫微微小区102c的毫微微BS。BS可以支持一个或多个(例如,三个)小区。术语“eNB”、“基站”、“NRBS”、“gNB”、“AP”、“节点B”、“5G NB”、“TRP”和“小区”可以是可互换地使用的。
在一些方面,小区不一定是静止的,以及小区的地理区域可以根据移动BS的位置进行移动。在一些方面,BS可以使用任何适当的传输网络,通过各种类型的回程接口(诸如直接物理连接、虚拟网络等),彼此之间互连和/或互连到在无线网络100中的一个或多个其它BS或网络节点(未示出)。
无线网络100还可以包括中继站。中继站是可以从上游站(例如,BS或UE)接收对数据的传输并且将对数据的传输发送给下游站(例如,UE或BS)的实体。中继站还可以是可以为其它UE中继传输的UE。在图1所示的示例中,中继站110d可以与宏BS110a和UE 120d进行通信,以便促进在BS110a和UE 120d之间的通信。中继站还可以称为中继BS、中继基站、中继器等。
无线网络100可以是包括不同类型的BS(例如,宏BS、微微BS、毫微微BS、中继BS等)的异构网络。这些不同类型的BS可以具有不同的发射功率电平、不同的覆盖区域和对于在无线网络100中的干扰的不同的影响。例如,宏BS可以具有高发射功率电平(例如,5至40瓦特),而微微BS、毫微微BS和中继BS可以具有较低的发射功率电平(例如,0.1至2瓦特)。
网络控制器130可以耦合到一组BS,以及可以为这些BS提供协调和控制。网络控制器130可以经由回程与BS进行通信。BS还可以经由无线或有线回程例如直接地或间接地相互进行通信。
UE 120(例如,120a、120b、120c)可以分散于无线网络100各处,以及每个UE可以是静止的或者移动的。UE还可以称为接入终端、终端、移动台、用户单元、站等。UE可以是蜂窝电话(例如,智能电话)、个人数字助理(PDA)、无线调制解调器、无线通信设备、手持设备、膝上型计算机、无绳电话、无线本地环路(WLL)站、平板设备、照相机、游戏设备、上网本、智能本、超极本、医疗设备或装备、生物传感器/设备、可穿戴设备(智能手表、智能服装、智能眼镜、智能腕带、智能珠宝(例如,智能戒指、智能手环))、娱乐设备(例如,音乐或视频设备、或卫星无线电单元)、车载组件或者传感器、智能仪表/传感器、工业制造装备、全球定位系统设备、或者被配置为经由无线介质或有线介质进行通信的任何其它适当的设备。
一些UE可以被认为是机器类型通信(MTC)或者演进型或增强型机器类型通信(eMTC)UE。MTC和eMTC UE包括例如机器人、无人机、远程设备、传感器、仪表、监控器、位置标签等,其可以与基站、另一设备(例如,远程设备)或者某种其它实体进行通信。无线节点可以例如经由有线通信链路或无线通信链路来提供针对网络(例如,诸如互联网或蜂窝网络的广域网)的连接或到网络(例如,诸如互联网或蜂窝网络的广域网)的连接。一些UE可以被认为是物联网(IoT)设备,和/或可以实现为NB-IoT(窄带物联网)设备。一些UE可以被认为是客户驻地设备(CPE)。UE 120可以被包括在容纳UE 120的组件(诸如处理器组件、存储器组件等)的壳体内部。
通常,在给定的地理区域内可以部署任何数量的无线网络。每个无线网络可以支持特定的RAT,以及可以在一个或多个频率上操作。RAT还可以称为无线电技术、空中接口等。频率还可以称为载波、频道等。每个频率可以支持在给定的地理区域中的单个RAT,以便避免在不同RAT的无线网络之间的干扰。在一些情况下,可以部署NR或5G RAT网络。
在一些方面,两个或更多个UE 120(例如,示出为UE 120a和UE 120e)可以使用一个或多个侧行链路信道直接地进行通信(例如,不使用基站110作为中间设备来彼此通信)。例如,UE 120可以使用对等(P2P)通信、设备到设备(D2D)通信、车联网(V2X)协议(例如,其可以包括运载工具到运载工具(V2V)协议、运载工具到基础设施(V2I)协议等)、网状网络等进行通信。在这种情况下,UE 120可以执行调度操作、资源选择操作和/或在别处描述为由基站110执行的其它操作。例如,基站110可以经由下行链路控制信息(DCI)、无线电资源控制(RRC)信令、介质访问控制-控制元素(MAC-CE)或者经由系统信息(例如,系统信息块(SIB))来配置UE 120。
UE 120可以包括机器学习(ML)配置模块140。为了简洁起见,仅一个UE 120d示出为包括ML配置模块140。ML配置模块140可以向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求。请求可以是以UE辅助信息(UAI)消息的形式。UAI消息可以具有针对模型、神经网络函数和机器学习触发事件的信息元素。模块140还可以响应于从基站接收UE模型激活消息,来激活基于UE的神经网络模型。
基站110可以包括机器学习(ML)配置模块150。为了简洁起见,仅一个基站110a示出为包括ML配置模块150。ML配置模块150可以接收用户设备(UE)无线电能力和UE机器学习能力,以及基于UE无线电能力来确定神经网络函数(NNF)。ML配置模块150还可以基于神经网络函数、UE机器学习能力和网络实体的能力,来确定包括模型结构和参数集合的神经网络模型。模块150可以利用神经网络模型来配置网络实体。
如上文所指示的,图1是仅作为示例来提供的。其它示例可以与关于图1所描述的示例不同。
图2示出基站110和UE 120的设计200的框图,基站110可以是图1中的基站中的一个基站,以及UE 120可以是图1中的UE中的一个UE。基站110可以配备有T个天线234a至234t,以及UE 120可以配备有R个天线252a至252r,其中通常T≥1并且R≥1。
在基站110处,发送处理器220可以从数据源212接收针对一个或多个UE的数据,至少部分地基于从每个UE接收的信道质量指示符(CQI)来选择用于该UE的一个或多个调制和编码方案(MCS),至少部分地基于针对每个UE选择的(多个)MCS来对针对该UE的数据进行处理(例如,编码和调制),以及提供针对所有UE的数据符号。降低MCS减少了吞吐量,但是增加了传输的可靠性。发送处理器220还可以处理系统信息(例如,用于半静态资源划分信息(SRPI)等)和控制信息(例如,CQI请求、准许、上层信令等),以及提供开销符号和控制符号。发送处理器220还可以生成针对参考信号(例如,小区特定参考信号(CRS))和同步信号(例如,主同步信号(PSS)和辅同步信号(SSS))的参考符号。发送(TX)多输入多输出(MIMO)处理器230可以对数据符号、控制符号、开销符号和/或参考符号执行空间处理(例如,预编码)(如果适用的话),以及可以向T个调制器(MOD)232a至232t提供T个输出符号流。每个调制器232可以处理各自的输出符号流(例如,用于OFDM等),以获得输出采样流。每个调制器232还可以处理(例如,转换到模拟、放大、滤波和上变频)输出采样流以获得下行链路信号。来自调制器232a至232t的T个下行链路信号可以是分别经由T个天线234a至234t进行发送的。根据下文更详细地描述的各个方面,同步信号可以是利用位置编码来生成的以传达另外的信息。
在UE 120处,天线252a至252r可以从基站110和/或其它基站接收下行链路信号,以及可以将接收的信号分别提供给解调器(DEMOD)254a至254r。每个解调器254可以调节(例如,滤波、放大、下变频和数字化)接收的信号以获得输入采样。每个解调器254可以(例如,针对OFDM等)进一步处理输入采样以获得接收的符号。MIMO检测器256可以从所有R个解调器254a至254r获得接收的符号,对接收的符号执行MIMO检测(如果适用的话),以及提供检测到的符号。接收处理器258可以处理(例如,解调和解码)检测到的符号,向数据宿260提供经解码的针对UE 120的数据,以及向控制器/处理器280提供经解码的控制信息和系统信息。信道处理器可以确定参考信号接收功率(RSRP)、接收信号强度指示符(RSSI)、参考信号接收质量(RSRQ)、信道质量指示符(CQI)等。在一些方面,UE 120的一个或多个组件可以被包括在壳体之中。
在上行链路上,在UE 120处,发送处理器264可以接收以及处理来自数据源262的数据和来自控制器/处理器280的控制信息(例如,用于包括RSRP、RSSI、RSRQ、CQI等的报告)。发送处理器264还可以生成针对一个或多个参考信号的参考符号。来自发送处理器264的符号可以由TX MIMO处理器266进行预编码(如果适用的话),由调制器254a至254r进行进一步处理(例如,用于DFT-s-OFDM、CP-OFDM等),以及发送给基站110。在基站110处,来自UE120和其它UE的上行链路信号可以由天线234接收,由解调器254处理,由MIMO检测器236检测(如果适用的话),以及由接收处理器238进一步处理,以获得经解码的由UE 120发送的数据和控制信息。接收处理器238可以向数据宿239提供经解码的数据,以及向控制器/处理器240提供经解码的控制信息。基站110可以包括通信单元244以及经由通信单元244来向网络控制器130进行传送。网络控制器130可以包括通信单元294、控制器/处理器290和存储器292。
基站110的控制器/处理器240、UE 120的控制器/处理器280、和/或图2的任何其它(多个)组件可以执行与基于网络的神经网络模型的配置相关联的一个或多个技术,如在别处更详细地描述的。例如,基站110的控制器/处理器240、UE 120的控制器/处理器280和/或图2的任何其它(多个)组件可以执行或指导例如图8-图15的过程和/或如所描述的其它过程的操作。存储器242和282可以分别存储针对基站110和UE 120的数据和程序代码。调度器246可以调度UE用于在下行链路和/或上行链路上进行的数据传输。
在一些方面,UE 120和/或基站110可以包括用于接收的单元、用于确定的单元、用于配置的单元、用于发送的单元、用于激活的单元。这样的单元可以包括结合图2所描述的UE 120或基站110的一个或多个组件。
如上文所指示的,图2是仅作为示例来提供的。其它示例可以与关于图2所描述的示例不同。
在一些情况下,支持不同类型的应用和/或服务的不同类型的设备可以在小区中共存。不同类型的设备的示例包括UE手持设备、客户驻地设备(CPE)、运载工具、物联网(IoT)设备等。不同类型的应用的示例包括超可靠低时延通信(URLLC)应用、大规模机器类型通信(mMTC)应用、增强型移动宽带(eMBB)应用、运载工具到万物(V2X)应用等。此外,在一些情况下,单个设备可以同时地支持不同的应用或服务。
图3示出根据本公开内容的某些方面的片上系统(SOC)300的示例实现方式,SOC300可以包括被配置用于生成用于神经网络训练的梯度的中央处理单元(CPU)302或多核CPU。SOC 300可以被包括在基站110或UE 120中。变量(例如,神经信号和突触权重)、与计算设备(例如,具有权重的神经网络)相关联的系统参数、延迟、频段信息、以及任务信息可以被存储在与神经处理单元(NPU)308相关联的存储块中、被存储在与CPU 302相关联的存储块中、被存储在与图形处理单元(GPU)304相关联的存储块中、被存储在与数字信号处理器(DSP)306相关联的存储块中、被存储在存储器块318中、或可以跨越多个块来分布。在CPU302处执行的指令可以是从与CPU 302相关联的程序存储器加载的,或者可以是从存储器块318加载的。
SOC 300还可以包括为特定功能定制的另外的处理块,诸如GPU 304、DSP 306、连接块310(其可以包括第五代(5G)连接、第四代长期演进(4G LTE)连接、Wi-Fi连接、USB连接、蓝牙连接等)、以及多媒体处理器312(其可以例如检测和识别手势)。在一个实现方式中,NPU是在CPU、DSP和/或GPU中实现的。SOC 300还可以包括传感器处理器314、图像信号处理器(ISP)316和/或导航模块320,其可以包括全球定位系统。
SOC 300可以是基于ARM指令集。在本公开内容的各方面,加载到通用处理器302中的指令可以包括用于接收用户设备(UE)无线电能力和UE机器学习能力,以及基于UE无线电能力来确定神经网络函数(NNF)的代码。通用处理器302还可以包括用于确定神经网络模型的代码。神经网络模型包括基于NNF、UE机器学习能力和网络实体的能力的模型结构和参数集合。通用处理器302还可以包括用于利用神经网络模型来配置网络实体的代码。通用处理器302还可以包括用于向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求的代码。请求包括UE辅助信息(UAI)消息,其具有针对模型、神经网络函数(NNF)和机器学习触发事件的信息元素。通用处理器302可以进一步包括用于响应于从基站接收UE模型激活消息来激活基于UE的神经网络模型的代码。
深度学习架构可以通过学习在每个层中在连续较高抽象级别上表示输入,来执行对象识别任务,从而建立输入数据的有用特征表示。以这种方式,深度学习解决了传统机器学习的主要瓶颈。在深度学习出现之前,对于对象识别问题的机器学习方式可能在很大程度上依赖于人类工程特征,也许结合了浅分类器。浅分类器可以是两等级线性分类器,例如,在其中可以将特征向量分量的加权和与门限进行比较,以预测输入属于哪个等级。人类工程特征可以是由具有领域专业知识的工程师对于特定问题领域定制的模板或内核。相比之下,深度学习架构可以学习表示与人类工程师可能设计的特征相似的特征,但是通过训练。此外,深度网络可以学习表示以及识别人类可能没有考虑过的新类型的特征。
深度学习架构可以学习特征的层次。例如,如果给出视觉数据,则第一层可以学习识别在输入流中相对简单的特征,诸如边缘。在另一示例中,如果给出听觉数据,则第一层可以学习识别在特定频率中的频谱功率。采用第一层的输出作为输入的第二层可以学习识别特征的组合,诸如针对视觉数据的简单形状或针对听觉数据的声音的组合。例如,较高层可以学习表示在视觉数据中的复杂的形状,或者在听觉数据中的词语。更高层可以学习识别常见的视觉对象或口语短语。
深度学习架构在应用于具有自然分层结构的问题时可以执行得特别好。例如,对机动车的分类可以受益于首先学习识别车轮、挡风玻璃和其它特征。这些特征可以以不同的方式在较高层处组合,以识别汽车、卡车和飞机。
神经网络可以被设计具有各种连接模式。在前馈网络中,信息从较低层传递给较高层,其中在给定的层中的每个神经元向在较高层中的神经元进行传送。分层表示可以是在前馈网络的连续层中构建的,如上文所描述的。神经网络也可以具有循环连接或反馈(还称为自顶向下)连接。在循环连接中,来自在给定的层中的神经元的输出可以被传送给在同一层中的另一神经元。循环架构可以在识别横跨按顺序递送给神经网络的输入数据组块(chunk)中的多于一个输入数据组块的模式时是有帮助的。从在给定的层中的神经元到在较低层中的神经元的连接称为反馈(或自顶向下)连接。当识别高级概念可以帮助区分输入的特定低级特征时,具有许多反馈连接的网络可能是有帮助的。
在神经网络的各层之间的连接可以是完全地连接的或局部地连接的。图4A示出完全地连接的神经网络402的示例。在完全地连接的神经网络402中,在第一层中的神经元可以将其输出传送给在第二层中的每个神经元,使得在第二层中的每个神经元将接收来自在第一层中的每个神经元的输入。图4B示出局部地连接的神经网络404的示例。在局部地连接的神经网络404中,在第一层中的神经元可以连接到在第二层中的有限数量的神经元。更普遍地,局部地连接的神经网络404的局部地连接的层可以被配置为使得在一层中的每个神经元将具有相同或相似的连接模式,但是具有可能具有不同的值(例如,410、412、414和416)的连接强度。局部地连接的连接模式可以在较高层中造成空间上有区别的感受野,这是因为在给定的区域中的较高层神经元可以接收通过训练来调谐到对于网络的总输入的受限部分的属性的输入。
局部地连接的神经网络的一个示例是卷积神经网络。图4C示出卷积神经网络406的示例。卷积神经网络406可以被配置为使得与针对在第二层中的每个神经元的输入相关联的连接强度是共享的(例如,408)。卷积神经网络可能非常适合于在其中输入的空间位置是有意义的问题。
一种类型的卷积神经网络是深度卷积网络(DCN)。图4D示出DCN 400的详细示例,DCN 400被设计为根据从图像捕获设备430(诸如车载照相机)输入的图像426来识别视觉特征。当前示例的DCN 400可以被训练来识别交通标志和在交通标志上提供的数字。当然,DCN400可以被训练用于其它任务,诸如识别车道标记或识别交通灯。
DCN 400可以是利用监督学习来训练的。在训练期间,DCN 400可以被呈现有图像(诸如限速标志的图像426),然后可以计算向前传递(forward pass)以产生输出422。DCN400可以包括特征提取部分和分类部分。在接收图像426时,卷积层432可以将卷积内核(未示出)应用于图像426以生成第一特征图集合418。作为一示例,用于卷积层432的卷积内核可以是生成28x28特征图的5x5内核。在本示例中,因为四个不同的特征图是在第一特征图集合418中生成的,所以四个不同的卷积内核在卷积层432处应用于图像426。卷积内核还可以称为滤波器或卷积滤波器。
第一特征图集合418可以是通过最大池化层(未示出)来二次采样的,以生成第二特征图集合420。最大池化层减小第一特征图418的大小。即,第二特征图集合420的大小(诸如14x14)小于第一特征图集合418的大小(诸如28x28)。减小的大小向后续层提供类似的信息,同时减少存储器消耗。第二特征图集合420可以经由一个或多个后续卷积层(未示出)进一步被卷积,以生成一个或多个后续特征图集合(未示出)。
在图4D的示例中,第二特征图集合420被卷积以生成第一特征向量424。此外,第一特征向量424进一步被卷积以生成第二特征向量428。第二特征向量428的每个特征可以包括与图像426的可能特征相对应的数字,诸如“标志”、“60”和“100”。softmax函数(未示出)可以将在第二特征向量428中的数字转换为概率。照此,DCN 400的输出422是图像426的包括一个或多个特征的概率。
在本示例中,在输出422中针对“标志”和“60”的概率高于输出422中的其它项(诸如“30”、“40”、“50”、“70”、“80”、“90”和“100”)的概率。在训练之前,由DCN 400产生的输出422很可能不正确。因此,可以计算在输出422与目标输出之间的误差。目标输出是图像426的基准真值(例如,“标志”和“60”)。然后可以调整DCN 400的权重,使得DCN 400的输出422与目标输出更紧密地对准。
为了调整权重,学习算法可以计算针对权重的梯度向量。梯度可以指示如果调整权重,则误差将增加或减少的量。在顶层处,梯度可以直接地对应于连接在倒数第二层中的激活神经元和在输出层中的神经元的权重的值。在较低层中,梯度可以取决于权重的值以及取决于较高层的计算误差梯度。然后可以调整权重以减少误差。这种调整权重的方式可以称为“反向传播”,因为这涉及通过神经网络的“向后传递”。
在实践中,权重的误差梯度可以是在少量示例上计算的,使得计算的梯度近似于真实误差梯度。这种近似方法可以称为随机梯度下降。可以重复随机梯度下降,直到整个系统的可实现误差率已经停止下降为止,或者直到误差率已经达到目标水平为止。在学习之后,DCN可以被呈现有新的图像(例如,图像426的限速标志),以及通过网络的前向传递可以产生输出422,输出422可以被认为是对DCN的推断或预测。
深度信任网络(DBN)是包括多个层的隐藏节点的概率模型。DBN可以用于提取训练数据集合的分层表示。DBN可以是通过将受限玻尔兹曼机(RBM)的层进行堆积来获得的。RBM是一种人工神经网络,其可以学习在一组输入上的概率分布。由于RBM可以在没有关于每个输入应当分类到的类别的信息的情况下学习概率分布,因此RBM通常是在无监督学习时使用的。使用混合的无监督的和有监督的范式,DBN的底部RBM可以是以无监督的方式进行训练的,以及可以充当特征提取器,以及顶部RBM可以是以有监督的方式进行训练的(关于来自先前层的输入和目标类别的联合分布),以及可以充当分类器。
深度卷积网络(DCN)是卷积网络的网络,其被配置具有另外的池化层和归一化层。DCN已经在许多任务上实现了最先进的性能。DCN可以是使用监督学习来训练,在监督学习中输入目标和输出目标两者对于许多范例是已知的,以及用于通过对梯度下降方法的使用来修改网络的权重。
DCN可以是前馈网络。此外,如上文所描述的,从在DCN的第一层中的神经元到在下一较高层中的一组神经元的连接是跨越在第一层中的神经元共享的。DCN的前馈和共享连接可以被利用用于快速处理。DCN的计算负担可能远小于例如包括循环连接或反馈连接的类似大小的神经网络的计算负担。
对卷积网络的每个层的处理可以被认为是空间不变的模板或基础投影。如果首先将输入分解为多个通道(诸如彩色图像的红色、绿色和蓝色通道),则对该输入训练的卷积网络可以被认为是三维的,其中两个空间维度沿着图像的轴线,以及第三维度捕捉彩色信息。卷积连接的输出可以被认为形成在后续层中的特征图,其中特征图(例如,220)的每个元素接收来自在先前层(例如,特征图218)中的一系列神经元和来自多个通道中的每个通道的输入。在特征图中的值可以是利用非线性来进一步处理的,诸如修正、max(0,x)。来自邻近神经元的值可以被进一步池化,这对应于下采样以及可以提供另外的局部不变性和维度降低。归一化(其对应于白化)还可以是通过在特征图中的各神经元之间的侧向抑制来应用的。
随着更多被标记的数据点变得可用,或随着计算能力提高,深度学习架构的性能可以提高。现代深度神经网络是常规地利用比对于仅十五年前典型的研究人员而言可用的计算资源高出数千倍的计算资源进行训练的。新的架构和训练范式可以进一步提升深度学习的性能。修正的线性单元可以减少称为消失梯度的训练问题。新的训练技术可以减少过度拟合,以及因此使得较大的模型能够实现更好的泛化。封装技术可以在给定的感受野中对数据进行抽象化,以及进一步提升总体性能。
图5是示出深度卷积网络550的框图。深度卷积网络550可以包括基于连接性和权重共享的多个不同类型的层。如图5所示,深度卷积网络550包括卷积块554A、554B。卷积块554A、554B中的每一者可以被配置具有卷积层(CONV)556、归一化层(LNorm)558和最大池化层(MAX POOL)560。
卷积层556可以包括一个或多个卷积滤波器,其可以应用于输入数据以生成特征图。虽然仅示出卷积块中的两个卷积块554A、554B,但是本公开内容并不如此限制,以及反而,根据设计偏好,任何数量的卷积块554A、554B可以被包括在深度卷积网络550中。归一化层558可以对卷积滤波器的输出进行归一化。例如,归一化层558可以提供白化或侧向抑制。最大池化层560可以提供在空间上的下采样聚合,用于局部不变性和维度降低。
例如,深度卷积网络的并行滤波器组可以加载在SOC 300的CPU 302或GPU 304上,以实现高性能和低功耗。在替代的实施例中,并行滤波器组可以加载在SOC 300的DSP 306或ISP 316上。另外,深度卷积网络550可以存取在SOC 300上可能存在的其它处理块,诸如分别专用于传感器和导航的传感器处理器314和导航模块320。
深度卷积网络550还可以包括一个或多个完全地连接的层562(FC1和FC2)。深度卷积网络550可以进一步包括逻辑回归(LR)层564。在深度卷积网络550的每个层556、558、560、562、564之间是要更新的权重(未示出)。层(例如,556、558、560、562、564)中的每个层的输出可以充当在深度卷积网络550的层(例如,556、558、560、562、564)中的随后一个层的输入,以从在卷积块554A的最开始处提供的输入数据552(例如,图像、音频、视频、传感器数据和/或其它输入数据)学习分层特征表示。深度卷积网络550的输出是针对输入数据552的分类得分566。分类得分566可以是概率集合,其中每个概率是输入数据(包括来自特征集合中的特征)的概率。
如上文所指示的,图3-图5是作为示例来提供的。其它示例可以与关于图3-图5所描述的示例不同。
人工智能解决方案(诸如利用神经网络模型实现的机器学习)可以改进无线通信。例如,可以采用机器学习来改进信道估计、小区选择或其它无线功能。神经网络模型可以在UE、网络实体或两个设备上一起运行,以执行一个或多个神经网络函数(NNF)。例如,对信道状态反馈的压缩和解压缩可以是利用在UE和网络实体(其可以是例如基站)两者上运行的神经网络模型来实现的。贯穿本公开内容,神经网络模型还可以称为机器学习模型。
在一些情况下,可能有利的是,无线通信网络的基站利用至少一个NNF和/或一个或多个相应的神经网络模型来动态地配置UE和网络实体。这个动态配置可以提供在无线通信网络内的灵活性。例如,这个动态配置可以允许UE或网络实体避免存储针对特定NNF的所有可能的神经网络模型,节省在UE和网络实体上的存储空间。反而,UE和/或网络实体可以在被指示为使用特定神经网络模型时单独地下载该特定神经网络模型。神经网络模型可以包括模型结构和模型参数。另外,动态配置可以向基站提供灵活性以在任何给定时间以及针对特定场景来选择性地选择使用哪个(哪些)NNF和/或相应的(哪些)模型来执行一个或多个基于机器学习的无线通信管理规程。此外,动态配置可以允许基站动态地更新用于NNF的神经网络模型。
然而,基站当前不能配置UE或网络实体为使用特定NNF和/或机器学习模型(例如,以执行某些基于机器学习的无线通信管理规程)。因此,本公开内容的各方面提供了促进在无线通信网络内对NNF和相应的神经网络模型的配置和使用的技术。
神经网络函数(NNF)可以被定义为要由神经网络模型支持的函数Y=F(X)。许多不同的模型可以支持任何特定的NNF。例如,供应商特定的模型或标准化模型可以实现NNF。不同的NNF可以对应于不同的基于机器学习的无线通信管理规程。这些基于机器学习的无线通信管理规程的示例可以包括小区重选规程、空闲或非活动模式测量规程、无线资源管理(RRM)测量规程、信道状态反馈、压缩等。每个不同的NNF可以是通过NNF标识符(ID)来标识的,NNF ID对应于特定的基于机器学习(ML)的无线通信管理规程。
每个神经网络函数(NNF)是通过标准化的NNF ID来标识的。非标准化的NNF ID也被允许用于私有扩展。输入X和输出Y可以是针对每个NNF来标准化的。一些信息元素(IE)可以是针对供应商间互通来强制的,而其它IE可以是针对灵活的实现方式来可选的。
图6是示出根据本公开内容的各方面的示例性神经网络模型的框图。神经网络(NN)模型可以被定义为模型结构加上参数集合。网络运营商、基础设施供应商或第三方可以定义模型。模型结构可以通过模型ID来标识的,模型ID应该是在网络中唯一的。在一些方面,模型结构包括默认参数集合。每个模型ID与神经网络函数相关联。参数集合包括神经网络模型的权重和其它配置参数。参数集合可以是位置或配置特定的。
图7是示出根据本公开内容的各方面的用于管理神经网络模型的示例性架构的框图。集中式单元模型库(CU-MR)702a、702b可以由第三方或移动网络运营商(MNO)托管,例如,在基站110处。CU-MR 702a、702b存储用于在UE 120或网络实体(诸如集中式单元(CU)706、分布式单元(DU)708或无线电接入网(RAN)智能控制器(RIC)(未示出))处使用的用于训练或推断的神经网络模型。
基站110可以包括一数量个逻辑实体,其包括CU 706、至少一个DU 708(仅示出一个)和至少一个无线电单元(RU)710(仅示出一个)。CU 706包括用于管理基站110的无线电资源控制(RRC)层和分组数据汇聚协议(PDCP)层的集中式单元控制平面(CU-CP)712、用于管理PDCP层的用户平面部分和服务数据适配协议(SDAP)层的用户平面部分的集中式单元用户平面(CU-UP)714、以及用于管理机器学习功能(诸如选择哪个模型来执行NNF)的集中式单元机器学习平面(CU-XP)716。CU-CP 712、CU-UP 714和CU-XP 716经由E1接口彼此进行通信。虽然CU-XP 716在图7中被示出为基站110的与CU-CP 712分开的一部分,但是CU-XP716可以替代地实现为CU-CP 712的一部分或实现为与基站110分开的网络实体(的一部分)。集中式单元(CU)706经由F1接口与DU 708中的每一个DU 708进行通信。DU 708用于管理基站110的无线电链路控制(RLC)层、介质访问控制(MAC)层和部分的物理(PHY)层。DU708经由前传与RU 710中的每个RU 710进行通信,前传可以是ORAN前传接口(OFI)接口。基站110的RU 710管理用于与UE 120无线地进行通信的数字前端和部分的PHY层。
图8是示出根据本公开内容的各方面的用于管理神经网络模型的调用流程的时序图。在时间1处,UE 120向基站110发送UE能力信息,UE能力信息指示UE的至少一个无线电能力和UE的至少一个机器学习能力。在一些情况下,UE 120可以在无线电资源控制(RRC)建立规程期间在RRC连接建立消息中发送UE能力信息。在一些情况下,UE能力信息可以由基站110的CU-CP 712接收,CU-CP 712可以与CU-XP 716共享信息作为容器。
在一些情况下,UE 120的无线电能力可以指示UE 120执行一个或多个无线通信管理规程的能力,这可以是基于机器学习的。例如,UE 120的无线电能力可以指示以下各项中的至少一项:执行(基于机器学习的)小区重选规程的能力、执行(基于机器学习的)空闲或非活动模式测量规程的能力、执行(基于机器学习的)无线电资源管理(RRM)测量规程的能力、执行(基于机器学习的)无线电链路监测(RLM)规程的能力、执行(基于机器学习的)信道状态信息(CSI)测量规程的能力、执行(基于机器学习的)预编码矩阵指示符(PMI)、秩指示符(RI)和信道质量指示符(CQI)反馈规程的能力、执行(基于机器学习的)无线电链路故障(RLF)和波束故障恢复(BFR)规程的能力、和/或执行(基于机器学习的)RRM松弛(relaxation)规程的能力。
在一些情况下,UE 120的至少一个机器学习能力可以指示由UE 120支持的用于执行机器学习的一个或多个能力。例如,UE 120的机器学习能力可以指示长期能力,诸如机器学习训练能力、机器学习推理能力、处理能力、一个或多个支持的机器学习模型格式、一个或多个支持的机器学习文库、和/或对一个或多个本地缓存的机器学习模型的指示。机器学习训练和推理能力还可以指示是否支持硬件加速和最大模型大小。UE 120的机器学习能力还可以指示短期能力,诸如针对每个NNF的支持的模型的列表和支持的模型组合的列表。
在时间2处,CU-CP 712确定是否使用机器学习功能来执行一个或多个无线通信管理规程。例如,在一些情况下,CU-CP 712可以选择要在UE 120处使用的基于机器学习的无线通信管理规程,以及确定用于执行所选择的基于机器学习的无线通信管理规程的至少一部分的至少一个NNF。换言之,基站110可以确定由UE 120支持哪些NF(如果有的话),以及可以生成请求的NNF列表。
CU-CP 712可以向CU-XP 716发送诸如上下文建立请求消息的消息,以建立供UE120用于使用至少一个NNF的上下文。上下文建立请求消息包括对由CU-CP 712确定的至少一个NNF的指示(例如,请求的NNF列表)和对于CU-XP 716支持对至少一个NNF的使用的请求。
上下文建立请求消息可以包括UE 120的至少一个机器学习能力。CU-XP 716可以接着选择至少一个机器学习模型用于在至少一个NNF中使用,以执行基于机器学习的无线通信管理规程的至少一部分。在一些情况下,CU-XP 716可以至少部分地基于UE的至少一个机器学习能力来选择至少一个机器学习模型。另外,在一些情况下,CU-XP 716可以基于小区ID、gNB ID或UE上下文信息中的至少一者,来选择至少一个机器学习模型。在一些情况下,UE上下文信息可以指示诸如UE类型、数据无线电承载(DRB)配置和/或天线切换(AS)配置的这样的信息。
此后,CU-XP 716将上下文建立响应消息发送给CU-CP 712。上下文建立响应消息可以提供关于UE上下文已经针对在上下文建立请求消息中指示的至少一个NNF(例如,接受的NNF列表)成功地建立的指示。另外,上下文建立响应消息可以提供对为至少一个NNF选择的至少一个机器学习模型的指示,以执行基于机器学习的无线通信管理规程的至少一部分。在一些情况下,对至少一个机器学习模型的指示可以包括机器学习模型ID。
此后,基站110(例如,经由CU-CP 712)基于在时间1处接收的UE能力信息来向UE120发送机器学习配置信息。在一些情况下,基站110可以在RRC重新配置消息中发送机器学习配置信息。机器学习配置信息可以包括对至少一个NNF(例如,接受的NNF列表)的指示和与至少一个NNF相对应的至少一个机器学习模型。在一些情况下,至少一个NNF是通过NNFID来指示的,以及至少一个机器学习模型是通过机器学习模型ID来指示的。如上所述,至少一个机器学习模型可以与模型结构和一个或多个参数集合(例如,权重、偏差和/或激活函数)相关联。在一些情况下,机器学习模型ID可以指示与至少一个机器学习模型相关联的模型结构,而一个或多个参数集合可以是在机器学习配置信息中通过参数集合ID来指示的。
在一些情况下,机器学习模型和机器学习模型结构可以与多个参数集合相关联(例如,一个或多个参数集合包括多个参数集合)。在这样的情况下,每个参数集合可以是对与针对特定地理区域(诸如小区、或特定配置)的模型结构一起使用有效的。换言之,取决于例如UE 120的特定地理区域或配置,不同的参数集合可以与模型结构一起使用。这可以允许UE 120使用一个模型结构用于执行基于机器学习的无线通信管理规程,同时取决于UE120的特定地理区域或配置来自适应地改变与模型结构一起使用的参数集合。
响应于接收包括机器学习配置信息的RRC重新配置消息,UE 120将RRC重新配置完成消息发送给基站110,RRC重新配置完成消息可以指示UE 120成功地接收到机器学习配置信息。
在一些情况下,NNF和相应的机器学习模型可以是在基站110和UE 120两者中使用。例如,基站110可以配置UE 120具有用于执行一个或多个基于机器学习的无线通信管理规程的至少一部分的特定NNF和相应的第一ML模型。然而,基站110还可以配置其自身具有用于执行基于机器学习的无线通信管理规程的至少一部分的第二机器学习模型,如在时间3处所见。在一些情况下,第一机器学习模型和第二机器学习模型可以包括匹配的机器学习模型,凭此机器学习模型中的一个机器学习模型的输出被使用作为对于另一机器学习模型的输入。
在建立用于与至少一个NNF相关联的UE 120的上下文以及选择与至少一个NNF相对应的至少一个机器学习模型(例如,第一机器学习模型)之后,CU-XP 716可以另外地确定供基站110执行基于机器学习的无线通信管理规程的至少一部分的第二机器学习模型。在一些情况下,CU-XP 716可以基于与执行第二机器学习模型的网络实体802相关联的机器学习能力信息,来确定用于基站110的其它机器学习模型。网络实体802可以是DU(诸如图8的DU 708)、CU-UP(诸如图7的CU-UP 714)或无线电接入网(RAN)智能控制器(RIC)。CU-XP 716可以将机器学习模型建立请求消息发送给网络实体802,请求网络实体802建立用于执行基于机器学习的无线通信管理规程的至少一部分的第二机器学习模型。此后,一旦已经建立第二机器学习模型,网络实体802就将机器学习模型建立响应消息发送给CU-XP 716,指示对第二机器学习模型的建立完成。
在时间4处,如果至少一个机器学习模型未本地存储在UE 120或网络实体802处,则UE 120和/或网络实体802可以下载与至少一个NNF相对应的至少一个机器学习模型。例如,在一些情况下,如果机器学习模型未被本地存储,则UE 120或网络实体802可以从基站110的集中式单元模型库(CU-MR)702接收与至少一个机器学习模型相对应的机器学习模型结构或与机器学习模型结构相关联的一个或多个参数集合(例如,权重、偏差和/或激活函数)中的至少一者。
一旦UE 120和网络实体802已经接收到机器学习结构和/或与至少一个机器学习模型相关联的一个或多个参数,UE 120和/或网络实体802就指示至少一个机器学习模型准备好被使用。在一些情况下,该消息可以由CU-CP 712接收,以及此后被转发给CU-XP 716。
在将来的某个时刻,基站110可以决定UE 120和/或网络实体802应当使用至少一个NNF和相应的至少一个机器学习模型,来执行基于机器学习的无线通信管理规程的至少一部分。在这样的情况下,在时间5处,基站110发送用于激活对至少一个机器学习模型的使用来执行基于机器学习的无线通信管理规程的至少一部分的信号。在一些情况下,用于激活对至少一个机器学习模型的使用的信号可以是由基站110(例如,经由CU-CP 712或CU-XP716)在介质访问控制-控制元素(MAC-CE)中或在去往UE的RRC信令中或经由去往网络实体802的F1或E2信令来发送的。
此后,UE 120和/或网络实体802可以基于激活信号使用至少一个机器学习模型来执行基于机器学习的无线通信管理规程。在一些情况下,执行基于机器学习的无线通信管理规程可以包括将一个或多个输入变量输入到至少一个机器学习模型,以及基于一个或多个输入变量来从至少一个机器学习模型获得输出。
如上所述,至少一个机器学习模型可以与模型结构和一个或多个参数集合相关联。当执行基于机器学习的无线通信管理规程时,UE 120可以确定要与机器学习结构结合使用以处理一个或多个输入变量的特定参数集合。这个确定可以是基于例如特定地理区域(诸如小区)或UE 120的配置。例如,在一些情况下,当UE 120在第一小区中时,UE 120可以选择用于与模型结构一起使用的第一参数集合,以执行基于机器学习的无线通信管理规程。在其它情况下,当UE 120在第二小区中时,UE 120可以选择用于与模型结构一起使用的第二参数集合,以执行基于机器学习的无线通信管理规程。
作为示例,基于机器学习的无线通信管理规程可以包括蜂窝小区重选和空闲/非活动模式测量规程。在这样的情况下,为了执行小区重选和空闲/非活动模式测量规程,UE120可以将一个或多个输入变量输入到专门训练用于小区重选和空闲/非活动模式测量的机器学习模型的模型结构中。如上所述,UE 120还可以选择要与模型结构一起使用的参数集合(例如,权重、偏差和/或激活函数)。在一些情况下,对于机器学习模型的输入变量可以包括例如服务小区测量(例如,与基站110相关联的参考信号接收功率(RSRP)测量)、邻近小区测量和/或由UE 120指定的服务。至少一个机器学习模型可以考虑服务小区测量、邻近小区测量和由UE 120指定的服务,以及提供用于指示要重选的目标小区和/或要执行空闲/非活动模式测量的目标小区的输出。
根据本公开内容的各方面,集中式单元控制平面(CU-CP)和/或集中式单元机器学习平面(CU-XP)可以决定配置用于推理和/或训练的网络模型。配置可以由网络来发起,或响应于UE请求来发起。配置的模型可以在网络实体(诸如分布式单元(DU)、RAN智能控制器(RIC)、集中式单元用户平面(CU-UP)、CU-CP、CU-XP或任何其它网络实体)中运行。如果在运行的主机(诸如DU/RIC/CU-UP等)未在本地缓存模型和参数集合,则将下载模型和参数集合。当模型和参数集合准备好时,CU-CP和/或CU-XP激活模型。UE模型可以与网络模型一起被配置例如为压缩和解压缩跨越无线接口发送的信道状态反馈(CSF)。
图9是示出根据本公开内容的各方面的用于配置基于网络的神经网络模型的更详细的调用流程的时序图。在时间1处,CU-CP 712例如基于UE能力交换、UE请求或一些其它触发来决定使用哪个NNF。CU-CP 712在NNF请求消息中向CU-XP 716发送所确定的NNF的ID。在时间2处,CU-XP 716基于所请求的NNF来选择模型和参数集合。CU-XP 716将模型建立请求发送给网络实体802,网络实体802将运行模型。模型建立请求可以包括模型ID和参数集合ID。网络实体802通过在时间3处向位置数据库(诸如模型和数据存取协调器(MDAC)902)发送模型查询请求,来确定参数集合和模型的位置。模型查询请求可以包括模型ID和参数集合ID。在时间4处,MDAC 902利用用于指示模型和参数集合的位置的模型查询响应来进行响应。MDAC 902可以利用模型URL(统一资源定位符)和参数集合URL来指示位置。
在取回位置之后,网络实体802从集中式单元模型库(CU-MR)702下载模型和参数集合。网络实体802可以例如利用用户平面协议与CU-MR 702进行通信。在时间5处,网络实体802利用用于指示模型URL的超文本传输协议(HTTP)获取消息来发送针对模型的请求。在时间6处,网络实体802从CU-MR 702接收响应作为200OK消息,包括模型。在时间7处,网络实体802发送针对具有用于指示参数集合URL的HTTP获取消息的参数集合的请求。在时间8处,网络实体802从CU-MR 702接收响应作为200OK消息,包括参数集合。
在下载模型之后,在时间9处,网络实体802向CU-XP 716发送模型建立响应,确认模型ID和参数集合ID是响应于在时间2处发送的模型建立请求来配置的。在时间10处,CU-XP 716向CU-CP 712发送用于确认NNF被配置的NNF响应。
在模型配置之后,应当发生激活以使得能够使用模型。图10是示出根据本公开内容的各方面的用于激活基于网络的神经网络模型的调用流程的时序图。一旦模型和参数集合准备好,无线电接入网(RAN)侧模型激活可以是通过基站110通知网络实体802的推断和/或训练节点开始运行模型来实现的。更具体地,在时间1处,CU-CP 712将模型激活消息发送给CU-XP 716。作为响应,在时间2处,CU-XP 716将模型激活消息发送给执行训练和/或推理的网络实体802。在分布式单元(DU)模型激活的情况下,可以采用F1信令。对于其它网络节点模型激活,可能发生E2信令。CU-XP 716可以经模型激活并行地发送给多个其它网络节点。尽管未示出,但是UE侧模型激活可以是通过介质访问控制-控制元素(MAC-CE)或无线电资源控制(RRC)信令来实现的。
在本公开内容的一些方面,UE触发网络模型的配置。图11是示出根据本公开内容的各方面的用于由UE请求发起的机器学习的调用流程的时序图。在时间1处,UE能力交换发生。UE无线电能力交换可以发生在UE 120与CU-CP 712之间。UE机器学习能力交换可以发生在UE 120和CU-XP 716之间。能力交换的更多细节将是关于图12来提供的。
在时间2处,在UE 120处的事件触发针对基于网络的模型的机器学习。在本公开内容的一些方面,针对UE机器学习(ML)请求的触发可以是基于模型的范围。也就是说,每个人工智能或机器学习(AI/ML)模型可以具有适用的范围,诸如适用的位置(例如,小区、小区列表、区域(跟踪区域标识(TAI)、基于RAN的通知区域(RNA)、多媒体广播单频网络(MBSFN)区域和地理区域)、适用的网络切片、适用的数据网络名称(DNN)、适用的公共陆地移动网络(PLMN)(包括专用网络ID-非公共网络(PNI-NPN)或独立非公共网络(SNPN)ID)列表。其它范围包括适用的UE类型,其可以是通过掩蔽的国际移动设备身份软件版本(IMEISV)比特、适用的无线电资源控制(RRC)状态、适用的服务(例如,多媒体广播服务(MBS))、侧行链路和适用的配置(例如,多输入、多输出(MIMO)、双连接/载波聚合(DC/CA)和毫米波(mmW))来定义的。
当UE转换到模型的适用范围或转换出模型的适用范围时,UE机器学习(ML)请求可以被触发用于对网络模型的配置。为了避免太多UE ML请求的泛滥,网络可以配置UE触发的黑名单和/或白名单。网络还可以配置禁止定时器以防止过于频繁地对请求的发送。黑名单、禁止定时器和/或白名单可以是通过RRC重新配置消息来配置的。对于既不在白名单中也不在黑名单中的神经网络函数(NNF)或模型,UE可以自主地请求网络配置。在一些方面,网络仅允许对在白名单中的模型的请求。
在时间3处,UE 120可以请求具有基于UE辅助信息(UAI)的网络配置的机器学习(ML)配置。消息传送可以是无线电资源控制(RRC)重新配置过程的一部分。图12是示出根据本公开内容的各方面的用于UE机器学习请求的调用流程的时序图。在时间1处,RRC配置过程发生在UE 120与基站110之间。在时间2处,UE 120将包括NNF或模型请求的UAI消息发送给基站110。
根据本公开内容的各方面,机器学习辅助IE可以被添加到UAI消息中。机器学习辅助IE可以包括针对模型或模型列表的机器学习请求。模型可以是通过模型ID或模型ID加上参数集合ID来标识的。机器学习请求还可以指示NNF或NNF列表请求。机器学习辅助IE可以包括用于指示适用条件改变的事件,换言之,向网络通知已经配置的模型已经改变了什么。例如,对于小区特定模型,UE可以向网络通知小区改变,其指定网络需要新的模型和/或参数集合。事件可以指示模型ID、条件(例如,小区、区域)以及UE是转换到条件中还是转换出条件。
返回到图11,在时间4处,配置网络模型,如先前关于图9所描述的。在时间5处,激活网络模型,如先前关于图10所描述的。
现在将提供UE能力交换的更多细节。图13是示出根据本公开内容的各方面的用于UE 120和网络能力交换的调用流程的时序图。对于UE无线电能力,基站或集中式单元控制平面(CU-CP)712在无线电资源控制(RRC)建立或恢复规程期间,在时间1处使用UE现有能力处置规程,从核心网(CN)或UE 120接收UE无线电能力。在图13中,整个聚合式基站和基站组件是通过附图标记712来命名的。任一者可以执行与命名为712的框相关联的功能。根据本公开内容的各方面,引入了新能力比特,诸如用于指示对UE请求的机器学习(ML)配置的支持、用于指示UE支持的神经网络函数(NNF)、以及用于指示UE支持的模型的比特。
在时间2处,基站的CU-CP 712将UE机器学习(ML)能力报告给CU-XP 716。UE机器学习能力可以包括UE机器学习能力的细节。在其它方面,这些细节是在UE无线电能力内提供的。CU-CP 712在时间3处确定针对UE 120的适用的神经网络函数(NNF)和/或模型。
在CU-XP 716确定哪些AI/ML模型支持NF之后,在时间4处,CU-CP 712配置UE 120用于机器学习请求。例如,CU-CP 712可以发送RRC重新配置消息,RRC重新配置消息包括针对UE机器学习请求的禁止定时器、允许的NNF和/或供UE 120请求的模型列表。这个信息可以是以UAI格式来发送的。神经网络函数(NNF)/模型列表(白名单)允许UE 120请求特定的NNF/模型。RRC重新配置消息还可以包括神经网络函数(NNF)/模型列表(黑名单),指示UE120被禁止进行请求的NNF/模型。RRC重新配置消息还可以指示允许UE 120报告用于触发网络模型配置的事件。在一些方面,UE 120知道网络通过接收这个消息来支持UE触发的网络模型配置。
图14是示出根据本公开内容的各个方面的例如由基站执行的示例过程1400的流程图。示例过程1400是基于网络的人工智能或机器学习(AI/ML)模型的配置的示例。过程1400的操作可以由基站110来实现。
在框1402处,基站接收用户设备(UE)无线电能力和UE机器学习能力。例如,基站(例如,使用天线234、MOD/DEMOD 232、MIMO检测器236、接收处理器238、控制器/处理器240和/或存储器242)可以接收无线电能力。UE能力信息可以由基站的CU-CP接收,CU-CP可以与CU-XP共享信息作为容器。在一些情况下,UE 120的无线电能力可以指示UE 120执行一个或多个无线通信管理规程的能力,其可以是基于机器学习的。在一些情况下,UE的至少一个机器学习能力可以指示由UE支持的用于执行机器学习的一个或多个能力。例如,UE的机器学习能力可以指示长期能力,以及还可以指示短期能力。
在框1404处,基站基于UE无线电能力来确定神经网络函数(NNF)。例如,UE(例如,使用控制器/处理器240、和/或存储器242)可以确定神经网络函数。在一些方面,CU-CP可以选择要在UE处使用的基于机器学习的无线通信管理规程,以及确定用于执行所选择的基于机器学习的无线通信管理规程的至少一部分的NNF。换言之,基站可以确定由UE支持哪些NF(如果有的话),以及可以生成请求的NNF列表。
在框1406处,基站基于NNF、UE机器学习能力和网络实体的能力来确定包括模型结构和参数集合的神经网络模型。例如,UE(例如,使用控制器/处理器240和/或存储器242)可以确定神经网络模型。网络实体可以是基站的一个或多个单元,包括分布式单元(DU)、集中式单元控制平面(CU-CP)、集中式单元用户平面(CU-UP)、或集中式单元机器学习平面(CU-XP)。在其它方面,网络实体是包括无线电接入网智能控制器(RIC)的另一网络设备。
在框1408,基站利用神经网络模型来配置网络实体。例如,基站(例如,使用天线234、MOD/DEMOD 232、TX MIMO处理器230、发送处理器220、控制器/处理器240、和/或存储器242)可以配置网络实体。基站可以响应于从UE接收用于触发配置的UE消息来配置网络实体。
图15是示出根据本公开内容的各个方面的例如由UE执行的示例过程1500的流程图。示例过程1500是基于网络的人工智能或机器学习(AI/ML)模型的配置的示例。过程1400的操作可以由用户设备120来实现。
在框1502处,用户设备向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求。请求可以包括UE辅助信息(UAI)消息。UAI消息可以包括针对模型、神经网络函数(NNF)和机器学习触发事件的信息元素。例如,基站(例如,使用天线252、DEMOD/MOD 254、TX MIMO处理器266、发送处理器264、控制器/处理器280、和/或存储器282)可以发送请求。请求消息传送可以是无线电资源控制(RRC)重新配置过程的一部分。
在框1504处,用户设备响应于从基站接收UE模型激活消息,来激活基于UE的神经网络模型。例如,UE(例如,使用控制器/处理器280、和/或存储器82)可以激活神经网络模型。激活使得能够使用神经网络模型。
示例方面
方面1:一种由基站进行无线通信的方法,包括:接收用户设备(UE)无线电能力和UE机器学习能力;基于所述UE无线电能力来确定神经网络函数(NNF);基于所述NNF、所述UE机器学习能力和网络实体的能力,来确定包括模型结构和参数集合的神经网络模型;以及利用所述神经网络模型来配置所述网络实体。
方面2:根据方面1的方法,其中,所述网络实体包括所述基站的一个或多个单元,包括分布式单元(DU)、集中式单元控制平面(CU-CP)、集中式单元用户平面(CU-UP)、或集中式单元机器学习平面(CU-XP)。
方面3:根据方面1的方法,其中,所述网络实体包括另一网络设备,所述另一网络设备包括无线电接入网智能控制器(RIC)。
方面4:根据前述方面中任一项的方法,还包括:从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送包括NNF标识符(ID)的NNF请求;从所述CU-XP向所述网络实体发送模型建立请求,所述模型建立请求包括与所述模型结构相对应的模型ID和与所述参数集合相对应的参数集合ID;基于所述参数集合ID和所述模型ID,来向所述网络实体发送所述神经网络模型;以及从所述网络实体接收模型建立响应,所述模型建立响应确认所述神经网络模型被配置在所述网络实体中。
方面5:根据前述方面中任一项的方法,还包括:经由用户平面协议向所述网络实体发送所述神经网络模型。
方面6:根据前述方面中任一项的方法,还包括激活所述神经网络模型。
方面7:根据前述方面中任一项的方法,其中,所述激活包括:从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送网络模型激活消息,以及从所述CU-XP向所述网络实体发送所述网络模型激活消息。
方面8:根据前述方面中任一项的方法,还包括:通过向分布式单元(DU)发送用于转发给UE的UE模型激活消息,来激活UE模型用于在所述UE处进行操作。
方面9:根据前述方面中任一项的方法,还包括:从UE接收用于触发对所述网络实体的所述配置的UE消息。
方面10:根据前述方面中任一项的方法,其中,所述UE消息包括UE辅助信息消息,所述UE辅助信息消息包括所述NNF或模型请求。
方面11:根据前述方面中任一项的方法,还包括:响应于接收所述UE无线电能力和所述UE机器学习能力,向UE发送针对UE机器学习请求的禁止定时器;基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送允许的NNF和神经网络模型的白名单;基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送禁止的NNF和神经网络模型的黑名单;以及从所述UE接收针对利用所述神经网络模型配置所述网络实体的请求。
方面12:根据前述方面中任一项的方法,还包括:向所述UE发送用于触发所述UE报告在用于发起对所述神经网络模型的更新的条件上的变化的事件的列表。
方面13:根据前述方面中任一项的方法,其中,用于配置所述网络实体的所述请求包括UE辅助信息消息。
方面14:一种由用户设备(UE)进行无线通信的方法,包括:向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求,所述请求包括UE辅助信息(UAI)消息,所述UAI消息包括针对模型、神经网络函数(NNF)和机器学习触发事件的信息元素;以及响应于从所述基站接收UE模型激活消息,激活基于UE的神经网络模型。
方面15:根据方面14的方法,还包括:响应于发送UE无线电能力和UE机器学习能力,从所述基站接收针对对于所述机器学习配置的所述请求的禁止定时器;从所述基站接收基于所述UE无线电能力和所述UE机器学习能力的、允许的NNF和神经网络模型的白名单;以及从所述基站接收禁止的NNF和神经网络模型的黑名单。
方面16:根据方面14或15的方法,还包括:从所述基站接收用于触发所述UE报告在发起对所述基于网络的神经网络模型的更新的条件上的改变的事件的列表。
方面17:一种用于由基站进行无线通信的装置,包括:存储器;以及耦合到所述存储器的至少一个处理器,所述至少一个处理器被配置为:接收用户设备(UE)无线电能力和UE机器学习能力;基于所述UE无线电能力来确定神经网络函数(NNF);基于所述NNF、所述UE机器学习能力和网络实体的能力,来确定包括模型结构和参数集合的神经网络模型;以及利用所述神经网络模型来配置所述网络实体。
方面18:根据方面17的装置,其中,所述网络实体包括所述基站的一个或多个单元,包括分布式单元(DU)、集中式单元控制平面(CU-CP)、集中式单元用户平面(CU-UP)、或集中式单元机器学习平面(CU-XP)。
方面19:根据方面17的装置,其中,所述网络实体包括另一网络设备,所述另一网络设备包括无线电接入网智能控制器(RIC)。
方面20:根据方面17-19中任一项的装置,其中,至少一个处理器还被配置为:从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送包括NNF标识符(ID)的NNF请求;从所述CU-XP向所述网络实体发送模型建立请求,所述模型建立请求包括与所述模型结构相对应的模型ID和与所述参数集合相对应的参数集合ID;基于所述参数集合ID和所述模型ID,来向所述网络实体发送所述神经网络模型;以及从所述网络实体接收模型建立响应,所述模型建立响应确认所述神经网络模型被配置在所述网络实体中。
方面21:根据方面17-20中任一项的装置,其中,所述至少一个处理器还被配置为经由用户平面协议将所述神经网络模型发送给所述网络实体。
方面22:根据方面17-21中任一项的装置,其中,所述至少一个处理器还被配置为激活所述神经网络模型。
方面23:根据方面17-22中任一项的装置,所述至少一个处理器被配置为:通过从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送网络模型激活消息,以及从所述CU-XP向所述网络实体发送所述网络模型激活消息,来进行激活。
方面24:根据方面17-23中任一项的装置,其中,所述至少一个处理器还被配置为通过向分布式单元(DU)发送用于转发给UE的UE模型激活消息,来激活UE模型用于在所述UE处进行操作。
方面25:根据方面17-24中任一项的装置,其中,所述至少一个处理器还被配置为从UE接收用于触发对所述网络实体的所述配置的UE消息。
方面26:根据方面17-25中任一项的装置,其中,所述UE消息包括UE辅助信息消息,所述UE辅助信息消息包括所述NNF或模型请求。
方面27:根据方面17-26中任一项的装置,其中,至少一个处理器还被配置为:响应于接收所述UE无线电能力和所述UE机器学习能力,向UE发送针对UE机器学习请求的禁止定时器;基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送允许的NNF和神经网络模型的白名单;基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送禁止的NNF和神经网络模型的黑名单;以及从所述UE接收针对利用所述神经网络模型配置所述网络实体的请求。
方面28:根据方面17-27中任一项的装置,其中,所述至少一个处理器还被配置为向所述UE发送用于触发所述UE报告在用于发起对所述神经网络模型的更新的条件上的变化的事件的列表。
方面29:根据方面17-28中任一项的装置,其中,用于配置所述网络实体的所述请求包括UE辅助信息消息。
前述公开内容提供说明和描述,但是并不旨在是详尽的或者将各方面限制为所公开的精确形式。按照以上公开内容,可以进行修改和变型,或者可以从对各方面的实践中获得修改和变型。
如所使用的,术语“组件”旨在广义地解释为硬件、固件、和/或硬件和软件的组合。如所使用的,处理器是用硬件、固件、和/或硬件和软件的组合来实现的。
一些方面是结合门限来描述的。如所使用的,取决于上下文,满足门限可以指的是值大于门限、大于或等于门限、小于门限、小于或等于门限、等于门限、不等于门限等。
将显而易见的是,所描述的系统和/或方法可以以不同形式的硬件、固件和/或硬件和软件的组合来实现。用于实现这些系统和/或方法的实际专用控制硬件或软件代码不限于各方面。因此,系统和/或方法的操作和行为是在未引用特定的软件代码的情况下描述的—要理解的是,软件和硬件可以被设计为至少部分地基于描述来实现系统和/或方法。
尽管在权利要求书中阐述了和/或在说明书中公开了特征的特定组合,但是这些组合并不是旨在限制各个方面的公开内容。事实上,这些特征中的许多特征可以是以未具体地在权利要求书中阐述和/或在说明书中公开的方式来组合的。虽然下文所列出的每个从属权利要求可以直接地取决于仅一个权利要求,但是各个方面的公开内容包括与在权利要求集合中的每一个其它权利要求相结合的各个从属权利要求。提及项的列表中的“至少一者”的短语指的是那些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一者”旨在覆盖a、b、c、a-b、a-c、b-c和a-b-c、以及具有倍数个相同元素的任何组合(例如,a-a、a-a-a、a-a-b、a-a-c、a-b-b、a-c-c、b-b、b-b-b、b-b-c、c-c和c-c-c,或者a、b和c的任何其它排序)。
所使用的元素、动作或指令中没有一者应当解释为关键或必不可少的,除非明确地描述为如此。此外,如所使用的,冠词“一(a)”和“一个(an)”旨在包括一个或多个项,以及可以是与“一个或多个”互换地使用的。此外,如所使用的,术语“集合”和“群组”旨在包括一个或多个项(例如,相关项、无关项、相关项和无关项的组合等),以及可以是与“一个或多个”互换地使用的。在旨在仅一个项的情况下,使用短语“仅一个”或类似语言。此外,如所使用的,术语“具有(has)”、“具有(have)”、“具有(having)”等旨在是开放式术语。进一步地,短语“基于”旨在意指“至少部分地基于”,除非另外明确地陈述。

Claims (29)

1.一种由基站进行无线通信的方法,包括:
接收用户设备(UE)无线电能力和UE机器学习能力;
基于所述UE无线电能力来确定神经网络函数(NNF);
基于所述NNF、所述UE机器学习能力和网络实体的能力,来确定包括模型结构和参数集合的神经网络模型;以及
利用所述神经网络模型来配置所述网络实体。
2.根据权利要求1所述的方法,其中,所述网络实体包括所述基站的一个或多个单元,包括分布式单元(DU)、集中式单元控制平面(CU-CP)、集中式单元用户平面(CU-UP)、或集中式单元机器学习平面(CU-XP)。
3.根据权利要求1所述的方法,其中,所述网络实体包括另一网络设备,所述另一网络设备包括无线电接入网智能控制器(RIC)。
4.根据权利要求1所述的方法,还包括:
从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送包括NNF标识符(ID)的NNF请求;
从所述CU-XP向所述网络实体发送模型建立请求,所述模型建立请求包括与所述模型结构相对应的模型ID和与所述参数集合相对应的参数集合ID;
基于所述参数集合ID和所述模型ID,来向所述网络实体发送所述神经网络模型;以及
从所述网络实体接收模型建立响应,所述模型建立响应确认所述神经网络模型被配置在所述网络实体中。
5.根据权利要求4所述的方法,还包括:经由用户平面协议向所述网络实体发送所述神经网络模型。
6.根据权利要求1所述的方法,还包括激活所述神经网络模型。
7.根据权利要求6所述的方法,其中,所述激活包括:从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送网络模型激活消息,以及从所述CU-XP向所述网络实体发送所述网络模型激活消息。
8.根据权利要求6所述的方法,还包括:通过向分布式单元(DU)发送用于转发给UE的UE模型激活消息,来激活UE模型用于在所述UE处进行操作。
9.根据权利要求1所述的方法,还包括:从UE接收用于触发对所述网络实体的所述配置的UE消息。
10.根据权利要求9所述的方法,其中,所述UE消息包括UE辅助信息消息,所述UE辅助信息消息包括所述NNF或模型请求。
11.根据权利要求1所述的方法,还包括:
响应于接收所述UE无线电能力和所述UE机器学习能力,向UE发送针对UE机器学习请求的禁止定时器;
基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送允许的NNF和神经网络模型的白名单;
基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送禁止的NNF和神经网络模型的黑名单;以及
从所述UE接收针对利用所述神经网络模型配置所述网络实体的请求。
12.根据权利要求11所述的方法,还包括:向所述UE发送用于触发所述UE报告在用于发起对所述神经网络模型的更新的条件上的变化的事件的列表。
13.根据权利要求11所述的方法,其中,用于配置所述网络实体的所述请求包括UE辅助信息消息。
14.一种由用户设备(UE)进行无线通信的方法,包括:
向基站发送针对用于基于网络的神经网络模型的机器学习配置的请求,所述请求包括UE辅助信息(UAI)消息,所述UAI消息包括针对模型、神经网络函数(NNF)和机器学习触发事件的信息元素;以及
响应于从所述基站接收UE模型激活消息,激活基于UE的神经网络模型。
15.根据权利要求14所述的方法,还包括:
响应于发送UE无线电能力和UE机器学习能力,从所述基站接收针对对于所述机器学习配置的所述请求的禁止定时器;
从所述基站接收基于所述UE无线电能力和所述UE机器学习能力的、允许的NNF和神经网络模型的白名单;以及
从所述基站接收禁止的NNF和神经网络模型的黑名单。
16.根据权利要求14所述的方法,还包括:从所述基站接收用于触发所述UE报告在发起对所述基于网络的神经网络模型的更新的条件上的改变的事件的列表。
17.一种用于由基站进行无线通信的装置,包括:
存储器;以及
耦合到所述存储器的至少一个处理器,所述至少一个处理器被配置为:
接收用户设备(UE)无线电能力和UE机器学习能力;
基于所述UE无线电能力来确定神经网络函数(NNF);
基于所述NNF、所述UE机器学习能力和网络实体的能力,来确定包括模型结构和参数集合的神经网络模型;以及
利用所述神经网络模型来配置所述网络实体。
18.根据权利要求17所述的装置,其中,所述网络实体包括所述基站的一个或多个单元,包括分布式单元(DU)、集中式单元控制平面(CU-CP)、集中式单元用户平面(CU-UP)、或集中式单元机器学习平面(CU-XP)。
19.根据权利要求17所述的装置,其中,所述网络实体包括另一网络设备,所述另一网络设备包括无线电接入网智能控制器(RIC)。
20.根据方面17所述的装置,其中,所述至少一个处理器还被配置为:
从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送包括NNF标识符(ID)的NNF请求;
从所述CU-XP向所述网络实体发送模型建立请求,所述模型建立请求包括与所述模型结构相对应的模型ID和与所述参数集合相对应的参数集合ID;
基于所述参数集合ID和所述模型ID,来向所述网络实体发送所述神经网络模型;以及
从所述网络实体接收模型建立响应,所述模型建立响应确认所述神经网络模型被配置在所述网络实体中。
21.根据权利要求20所述的装置,其中,所述至少一个处理器还被配置为:经由用户平面协议将所述神经网络模型发送给所述网络实体。
22.根据权利要求17所述的装置,其中,所述至少一个处理器还被配置为:激活所述神经网络模型。
23.根据权利要求22所述的装置,其中,所述至少一个处理器被配置为:通过从集中式单元控制平面(CU-CP)向集中式单元机器学习平面(CU-XP)发送网络模型激活消息,以及从所述CU-XP向所述网络实体发送所述网络模型激活消息,来进行激活。
24.根据权利要求22所述的装置,其中,所述至少一个处理器还被配置为:通过向分布式单元(DU)发送用于转发给UE的UE模型激活消息,来激活UE模型用于在所述UE处进行操作。
25.根据权利要求17所述的装置,其中,所述至少一个处理器还被配置为:从UE接收用于触发对所述网络实体的所述配置的UE消息。
26.根据权利要求25所述的装置,其中,所述UE消息包括UE辅助信息消息,所述UE辅助信息消息包括所述NNF或模型请求。
27.根据方面17所述的装置,其中,至少一个处理器还被配置为:
响应于接收所述UE无线电能力和所述UE机器学习能力,向UE发送针对UE机器学习请求的禁止定时器;
基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送允许的NNF和神经网络模型的白名单;
基于所述UE无线电能力和所述UE机器学习能力,来向所述UE发送禁止的NNF和神经网络模型的黑名单;以及
从所述UE接收针对利用所述神经网络模型配置所述网络实体的请求。
28.根据权利要求27所述的装置,其中,所述至少一个处理器还被配置为:向所述UE发送用于触发所述UE报告在用于发起对所述神经网络模型的更新的条件上的变化的事件的列表。
29.根据权利要求27所述的装置,其中,用于配置所述网络实体的所述请求包括UE辅助信息消息。
CN202280062545.8A 2021-09-24 2022-08-26 基于网络的人工智能(ai)模型配置 Pending CN118077180A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/484,580 US20230100253A1 (en) 2021-09-24 2021-09-24 Network-based artificial intelligence (ai) model configuration
US17/484,580 2021-09-24
PCT/US2022/041713 WO2023048898A1 (en) 2021-09-24 2022-08-26 Network-based artificial intelligence (ai) model configuration

Publications (1)

Publication Number Publication Date
CN118077180A true CN118077180A (zh) 2024-05-24

Family

ID=83689167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280062545.8A Pending CN118077180A (zh) 2021-09-24 2022-08-26 基于网络的人工智能(ai)模型配置

Country Status (4)

Country Link
US (1) US20230100253A1 (zh)
KR (1) KR20240071374A (zh)
CN (1) CN118077180A (zh)
WO (1) WO2023048898A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230021835A1 (en) * 2021-07-26 2023-01-26 Qualcomm Incorporated Signaling for additional training of neural networks for multiple channel conditions
US11916754B2 (en) * 2021-09-03 2024-02-27 Qualcomm Incorporated Configuring a user equipment for machine learning
WO2024109110A1 (en) * 2023-07-13 2024-05-30 Lenovo (Beijing) Limited Assistance information provision for lcm

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011759B1 (ja) * 2019-02-19 2022-01-27 ノキア ソリューションズ アンド ネットワークス オサケユキチュア 無線アクセスネットワーク(ran)ノードに対するニューラルネットワークの構成
US20220279341A1 (en) * 2019-09-13 2022-09-01 Nokia Technologies Oy Radio resource control procedures for machine learning
US11689940B2 (en) * 2019-12-13 2023-06-27 Google Llc Machine-learning architectures for simultaneous connection to multiple carriers

Also Published As

Publication number Publication date
US20230100253A1 (en) 2023-03-30
WO2023048898A1 (en) 2023-03-30
KR20240071374A (ko) 2024-05-22

Similar Documents

Publication Publication Date Title
CN115136518B (zh) 信道状态信息(csi)学习
WO2021208061A1 (en) Configurable neural network for channel state feedback (csf) learning
US20230100253A1 (en) Network-based artificial intelligence (ai) model configuration
US20230396514A1 (en) Zone-based federated learning
US11863495B2 (en) Signaling for a channel state information reference signal (CSI-RS)
EP4226593A1 (en) User equipment (ue) capability report for machine learning applications
KR20230066330A (ko) 인공 뉴럴 네트워크들의 협력 트레이닝을 위한 기지의 데이터의 송신
US11456834B2 (en) Adaptive demodulation reference signal (DMRS)
WO2022073167A1 (en) Signaling configuration for communicating parameters of a neural network configuration
WO2022073162A1 (en) Compression and segmenting for communicating parameters of a neural network configuration
EP4107895A1 (en) Indication triggering transmission of known data for training artificial neural networks
US11950215B2 (en) Artificial intelligence-based user equipment (UE) capability band combination prioritization
WO2023019380A1 (en) Physical downlink control channel (pdcch) to indicate machine learning (ml) model group switching
WO2023056580A1 (en) Monitoring of messages that indicate switching between machine learning (ml) model groups
US20230259754A1 (en) Machine learning model validation with verification data
US20240147267A1 (en) Model status monitoring, reporting, and fallback in machine learning applications
US20230325652A1 (en) Gradient grouping for compression in federated learning for machine learning models
WO2022225627A1 (en) Reporting for machine learning model updates
EP4378129A1 (en) Signaling for additional training of neural networks for multiple channel conditions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination