CN115802370A - 一种通信方法及装置 - Google Patents

一种通信方法及装置 Download PDF

Info

Publication number
CN115802370A
CN115802370A CN202111063199.9A CN202111063199A CN115802370A CN 115802370 A CN115802370 A CN 115802370A CN 202111063199 A CN202111063199 A CN 202111063199A CN 115802370 A CN115802370 A CN 115802370A
Authority
CN
China
Prior art keywords
model
training
information
terminal
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111063199.9A
Other languages
English (en)
Inventor
柴晓萌
孙琰
吴艺群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202111063199.9A priority Critical patent/CN115802370A/zh
Priority to PCT/CN2022/117930 priority patent/WO2023036268A1/zh
Publication of CN115802370A publication Critical patent/CN115802370A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

一种通信方法及装置,该方法包括:终端接收来自网络设备的第一信息;终端根据第一信息,确定N个训练数据,所述N为整数;终端根据所述N个训练数据进行模型训练,得到第一AI模型。在本申请的方法及装置中,网络设备为终端配置用于确定N个训练数据的第一信息,终端根据N个训练数据自己进行模型训练,而无需网络设备单独为终端配置AI模型,在一定程度上降低了空口开销。

Description

一种通信方法及装置
技术领域
本申请涉及通信技术领域,尤其涉及一种通信方法及装置。
背景技术
在无线通信网络中,例如在移动通信网络中,网络支持的业务越来越多样,因此需要满足的需求越来越多样。例如,网络需要能够支持超高速率、超低时延、和/或超大连接。该特点使得网络规划、网络配置、和/或资源调度越来越复杂。此外,由于网络的功能越来越强大,例如支持的频谱越来越高、支持高阶多入多出(multiple input multiple output,MIMO)技术、支持波束赋形、和/或支持波束管理等新技术,使得网络节能成为了热门研究课题。这些新需求、新场景和新特性给网络规划、运维和高效运营带来了前所未有的挑战。为了迎接该挑战,可以将人工智能技术引入无线通信网络中,从而实现网络智能化。基于此,如何在网络中有效地实现人工智能是一个值得研究的问题。
发明内容
本申请提供一种通信方法及装置,基站向终端发送用于确定训练数据的第一信息,终端基于该训练数据自己训练AI模型,无需基站再向终端发送AI模型,一定程度上节省了网络开销。
第一方面,提供一种通信方法,该方法的执行主体为终端,还可以为配置于终端中的部件(处理器、芯片或其它),或者可以为软件模块等,包括:接收来自网络设备的第一信息,所述第一信息用于确定N个训练数据,所述N为整数;根据所述N个训练数据进行模型训练,得到第一AI模型。
通过上述方法,终端根据来自网络设备的第一信息,确定N个训练数据,根据该N个训练数据进行模型训练,得到第一AI模型,无需网络设备向终端单独配置AI模型,在一种定程度上降低了网络开销。
在一种可能的实现中,所述第一信息用于指示以下至少一项:至少一个训练集,每个训练集中包括至少一个训练数据;第二AI模型,所述第一AI模型是根据所述第二AI模型训练得到的,或者所述第二AI模型用于训练得到所述第一AI模型;所述第一AI模型的输入格式和/或输出格式;或所述第一AI模型的性能要求信息。
通过上述方法,网络设备为终端配置用于模型训练的训练集、初始AI模型、以及所训练的AI模型的输入格式和输出格式,以及训练好的AI模型的性能要求等信息,以使得网络设备可以对终端使用AI模型的管理和掌控等。
在一种可能的实现中,还包括:接收来自所述网络设备的第二信息,所述第二信息用于指示以下至少一项:在所述至少一个训练集中的第一训练集中,包括于所述N个训练数据中的训练数据;所述N的取值;或所述至少一个训练集中不同训练集中获取所述训练数据的比例。
通过上述方法,网络设备除了向终端配置用于模型训练的训练集外,还可以向终端配置训练集中用于模型训练的训练数据,从而更精准的为终端配置训练数据。
在一种可能的实现中,当所述训练集的数量和所述第一AI模型的数量均为多个时,所述第一信息还用于指示:所述多个训练集与所述多个第一AI模型的对应关系。
在一种可能的实现中,所述第一信息为参考信号,还包括:根据所述参考信号,确定所述N个训练数据。
通过上述方法,网络设备可以不再为终端单独配置训练数据,而是借助已有的参考信号,终端根据参考信号,可以确定N训练数量,从而节省信令开销。
在一种可能的实现中,还包括:向所述网络设备发送请求信息,所述请求信息用于请求所述第一信息,或者用于请求进行模型训练,所述请求信息用于指示以下至少一项:所述第一AI模型的应用场景;所述第一AI模型的功能;所述训练数据的类型;所述第一AI模型的输入格式和/或输出格式;终端的计算能力;或所述终端的存储能力。
在一种可能的实现中,还包括:在所述第一AI模型训练完成后,向所述网络设备发送第三信息,所述第三信息用于指示以下至少一项:所述第一AI模型的标识;或所述第一AI模型的性能。
通过上述方法,终端在完成模型训练后,可以将训练好的AI模型的标识和性能等信息上报给网络设备,从而实现网络设备对终端的管理和掌控。
第二方面,提供一种通信方法,该方法为上述第一方面方法对应的网络设备侧所执行的方法,有益效果可参见上述第一方面,不再赘述。该方法的执行主体为网络设备,还可以为配置于网络设备中的部件(处理器、芯片或其它),或者可以为软件模块等,包括:确定第一信息;向终端发送所述第一信息,所述第一信息用于确定训练第一AI模型的N个训练数据,所述N为整数。
关于第一信息的描述可参见上述第一方面,不再赘述。
在一种可能的实现中,还包括:向所述终端设备发送第二信息,所述第二信息用于指示以下至少一项:在所述至少一个训练集的第一训练集中,包括于所述N个训练数据中的训练数据;所述N的取值;或所述至少一个训练集中不同训练集中获取所述训练数据的比例。
在一种可能的实现中,还包括:接收来自所述终端的请求信息,所述请求信息用于请求所述第一信息,或者用于请求进行模型训练,所述请求信息用于指示以下至少一项:所述第一AI模型的应用场景;所述第一AI模型的功能;所述训练数据的类型;所述第一AI模型的输入格式和/或输出格式;所述终端的计算能力;或所述终端的存储能力。
在一种可能的实现中,还包括:接收来自所述终端的第三信息,所述第三信息用于指示以下至少一项:所述第一AI模型的标识;或所述第一AI模型的性能。
第三方面,提供一种装置,有益效果可参见第一方面的记载,该装置可以是终端,或者配置于终端中的装置,或者能够和终端匹配使用的装置。一种设计中,该装置包括执行第一方面中所描述的方法/操作/步骤/动作一一对应的单元,该单元可以是硬件电路,也可是软件,也可以是硬件电路结合软件实现。
示例性地,该装置可以包括处理单元和通信单元,且处理单元和通信单元可以执行上述第一方面任一种设计示例中的相应功能,具体的:
通信单元,用于接收来自网络设备的第一信息,所述第一信息用于确定N个训练数据,所述N为整数;
处理单元,用于根据所述N个训练数据进行模型训练,得到第一AI模型。
上述处理单元和通信单元的具体执行过程可以参考第一方面,这里不再赘述。
示例性地,所述装置包括存储器,用于实现上述第一方面描述的方法。所述装置还可以包括存储器,用于存储指令和/或数据。所述存储器与所述处理器耦合,所述处理器执行所述存储器中存储的程序指令时,可以实现上述第一方面描述的方法。所述装置还可以包括通信接口,所述通信接口用于该装置和其它设备进行通信。示例性地,通信接口可以是收发器、电路、总线、模块、管脚或其它类型的通信接口,其它设备可以为网络设备等。在一种可能的设计中,该装置包括:
存储器,用于存储程序指令;
通信接口,用于接收来自网络设备的第一信息,所述第一信息用于确定N个训练数据,所述N为整数;
处理器,用于根据所述N个训练数据进行模型训练,得到第一AI模型。
关于通信接口与处理器的具体执行过程,可参见上述第一方面的记载,不再赘述。
第四方面,提供一种装置,有益效果可参见第二方面的记载,该装置可以是网络设备,或者配置于网络设备中的装置,或者能够和网络设备匹配使用的装置。一种设计中,该装置包括执行第二方面中所描述的方法/操作/步骤/动作一一对应的单元,该单元可以是硬件电路,也可是软件,也可以是硬件电路结合软件实现。
示例性地,该装置可以包括处理单元和通信单元,且处理单元和通信单元可以执行上述第二方面任一种设计示例中的相应功能,具体的:
处理单元,用于确定第一信息;
通信单元,向终端发送所述第一信息,所述第一信息用于确定训练第一AI模型的N个训练数据,所述N为整数。
上述处理单元和通信单元的具体执行过程可以参考第二方面,这里不再赘述。
示例性地,所述装置包括存储器,用于实现上述第二方面描述的方法。所述装置还可以包括存储器,用于存储指令和/或数据。所述存储器与所述处理器耦合,所述处理器执行所述存储器中存储的程序指令时,可以实现上述第二方面描述的方法。所述装置还可以包括通信接口,所述通信接口用于该装置和其它设备进行通信。示例性地,通信接口可以是收发器、电路、总线、模块、管脚或其它类型的通信接口,其它设备可以为终端等。在一种可能的设计中,该装置包括:
存储器,用于存储程序指令;
处理器,用于确定第一信息。
通信接口,用于向终端发送第一信息,所述第一信息用于确定训练第一AI模型的N个训练数据,所述N为整数。
关于通信接口与处理器的具体执行过程,可参见上述第二方面的记载,不再赘述。
第五方面,本申请还提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行第一方面或第二方面任一方面的方法。
第六方面,本申请还提供一种芯片系统,该芯片系统包括处理器,还可以包括存储器,用于实现第一方面或第二方面任一方面的方法。该芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。
第七方面,本申请中还提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得计算机执行第一方面或第二方面任一方面的方法。
第八方面,本申请中提供一种系统,该系统中包括第三方面的装置,和第四方面的装置。
附图说明
图1为本申请提供的通信系统的示意图;
图2为本申请提供的神经元的示意图;
图3为本申请提供的神经网络的示意图;
图4为本申请提供的AI架构的示意图;
图5a和图5b为本申请提供的网络架构的示意图;
图6和图7为本申请提供的通信方法的流程图;
图8和图9为本申请提供的通信装置的示意图。
具体实施方式
图1是本申请能够应用的通信系统1000的架构示意图。如图1所示,该通信系统包括无线接入网100和核心网200,可选的,通信系统1000还可以包括互联网300。其中,无线接入网100可以包括至少一个接入网设备(如图1中的110a和110b),还可以包括至少一个终端(如图1中的120a-120j)。终端通过无线的方式与接入网设备相连,接入网设备通过无线或有线方式与核心网连接。核心网设备与接入网设备可以是独立的不同的物理设备,或者可以是将核心网设备的功能与接入网设备的逻辑功能集成在同一个物理设备上,或者可以是一个物理设备上集成了部分核心网设备的功能和部分的接入网设备的功能。终端和终端之间以及接入网设备和接入网设备之间可以通过有线或无线的方式相互连接。图1只是示意图,该通信系统中还可以包括其它网络设备,如还可以包括无线中继设备和无线回传设备等,在图1中未画出。
接入网设备可以是基站(base station)、演进型基站(evolved NodeB,eNodeB)、发送接收点(transmission reception point,TRP)、第五代(5th generation,5G)移动通信系统中的下一代基站(next generation NodeB,gNB)、开放无线接入网(open radioaccess network,O-RAN)中的接入网设备、第六代(6th generation,6G)移动通信系统中的下一代基站、未来移动通信系统中的基站或无线保真(wireless fidelity,WiFi)系统中的接入节点等;或者可以是完成基站部分功能的模块或单元,例如,可以是集中式单元(central unit,CU)、分布式单元(distributed unit,DU)、集中单元控制面(CU controlplane,CU-CP)模块、或集中单元用户面(CU user plane,CU-UP)模块。接入网设备可以是宏基站(如图1中的110a),也可以是微基站或室内站(如图1中的110b),还可以是中继节点或施主节点等。本申请中对接入网设备所采用的具体技术和具体设备形态不做限定。
在本申请中,用于实现接入网设备的功能的装置可以是接入网设备;也可以是能够支持接入网设备实现该功能的装置,例如芯片系统、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在接入网设备中或可以与接入网设备匹配使用。在本申请中,芯片系统可以由芯片构成,也可以包括芯片和其他分立器件。为了便于描述,下文以用于实现接入网设备的功能的装置是接入网设备,接入网设备为基站为例,描述本申请提供的技术方案。
(1)协议层结构。
接入网设备和终端之间的通信遵循一定的协议层结构。该协议层结构可以包括控制面协议层结构和用户面协议层结构。例如,控制面协议层结构可以包括无线资源控制(radio resource control,RRC)层、分组数据汇聚层协议(packet data convergenceprotocol,PDCP)层、无线链路控制(radio link control,RLC)层、媒体接入控制(mediaaccess control,MAC)层和物理层等协议层的功能。例如,用户面协议层结构可以包括PDCP层、RLC层、MAC层和物理层等协议层的功能,在一种可能的实现中,PDCP层之上还可以包括业务数据适配协议(service data adaptation protocol,SDAP)层。
可选的,接入网设备和终端之间的协议层结构还可以包括人工智能(artificialintelligence,AI)层,用于传输AI功能相关的数据。
(2)集中单元(central unit,CU)和分布单元(distributed unit,DU)。
接入设备可以包括CU和DU。多个DU可以由一个CU集中控制。作为示例,CU和DU之间的接口可以称为F1接口。其中,控制面(control panel,CP)接口可以为F1-C,用户面(userpanel,UP)接口可以为F1-U。本申请不限制各接口的具体名称。CU和DU可以根据无线网络的协议层划分:比如,PDCP层及以上协议层的功能设置在CU,PDCP层以下协议层(例如RLC层和MAC层等)的功能设置在DU;又比如,PDCP层以上协议层的功能设置在CU,PDCP层及以下协议层的功能设置在DU,不予限制。
上述对CU和DU的处理功能按照协议层的划分仅仅是一种举例,也可以按照其他的方式进行划分。例如可以将CU或者DU划分为具有更多协议层的功能,又例如将CU或DU还可以划分为具有协议层的部分处理功能。在一种设计中,将RLC层的部分功能和RLC层以上的协议层的功能设置在CU,将RLC层的剩余功能和RLC层以下的协议层的功能设置在DU。在另一种设计中,还可以按照业务类型或者其他系统需求对CU或者DU的功能进行划分,例如按时延划分,将处理时间需要满足时延要求的功能设置在DU,不需要满足该时延要求的功能设置在CU。在另一种设计中,CU也可以具有核心网的一个或多个功能。示例性的,CU可以设置在网络侧方便集中管理。在另一种设计中,将DU的无线单元(radio unit,RU)拉远设置。可选的,RU可以具有射频功能。
可选的,DU和RU可以在物理层(physical layer,PHY)进行划分。例如,DU可以实现PHY层中的高层功能,RU可以实现PHY层中的低层功能。其中,用于发送时,PHY层的功能可以包括以下至少一项:添加循环冗余校验(cyclic redundancy check,CRC)码、信道编码、速率匹配、加扰、调制、层映射、预编码、资源映射、物理天线映射、或射频发送功能。用于接收时,PHY层的功能可以包括以下至少一项:CRC校验、信道解码、解速率匹配、解扰、解调、解层映射、信道检测、资源解映射、物理天线解映射、或射频接收功能。其中,PHY层中的高层功能可以包括PHY层的一部分功能,例如该部分功能更加靠近MAC层,PHY层中的低层功能可以包括PHY层的另一部分功能,例如该部分功能更加靠近射频功能。例如,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、和层映射,PHY层中的低层功能可以包括预编码、资源映射、物理天线映射、和射频发送功能;或者,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、层映射和预编码,PHY层中的低层功能可以包括资源映射、物理天线映射、和射频发送功能。例如,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、和解层映射,PHY层中的低层功能可以包括信道检测、资源解映射、物理天线解映射、和射频接收功能;或者,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、解层映射、和信道检测,PHY层中的低层功能可以包括资源解映射、物理天线解映射、和射频接收功能。
示例性的,CU的功能可以由一个实体来实现,或者也可以由不同的实体来实现。例如,可以对CU的功能进行进一步划分,即将控制面和用户面分离并通过不同实体来实现,分别为控制面CU实体(即CU-CP实体)和用户面CU实体(即CU-UP实体)。该CU-CP实体和CU-UP实体可以与DU相耦合,共同完成接入网设备的功能。
可选的,上述DU、CU、CU-CP、CU-UP和RU中的任一个可以是软件模块、硬件结构、或者软件模块+硬件结构,不予限制。其中,不同实体的存在形式可以是不同的,不予限制。例如DU、CU、CU-CP、CU-UP是软件模块,RU是硬件结构。这些模块及其执行的方法也在本公开的保护范围内。
一种可能的实现中,接入网设备包括CU-CP、CU-UP、DU和RU。例如,本申请的执行主体包括DU,或者包括DU和RU,或者包括CU-CP、DU和RU,或者包括CU-UP、DU和RU,不予限制。各模块所执行的方法也在本申请的保护范围内。
终端也可以称为终端设备、用户设备(user equipment,UE)、移动台、移动终端等。终端可以广泛应用于各种场景中的通信,例如包括但不限于以下至少一个场景:设备到设备(device-to-device,D2D)、车物(vehicle to everything,V2X)、机器类通信(machine-type communication,MTC)、物联网(internet of things,IOT)、虚拟现实、增强现实、工业控制、自动驾驶、远程医疗、智能电网、智能家具、智能办公、智能穿戴、智能交通、或智慧城市等。终端可以是手机、平板电脑、带无线收发功能的电脑、可穿戴设备、车辆、无人机、直升机、飞机、轮船、机器人、机械臂、或智能家居设备等。本申请对终端所采用的具体技术和具体设备形态不做限定。
在本申请中,用于实现终端的功能的装置可以是终端;也可以是能够支持终端实现该功能的装置,例如芯片系统、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在终端中或可以与终端匹配使用。为了便于描述,下文以用于实现终端的功能的装置是终端为例,描述本申请提供的技术方案。
基站和终端可以是固定位置的,也可以是可移动的。基站和/或终端可以部署在陆地上,包括室内或室外、手持或车载;也可以部署在水面上;还可以部署在空中的飞机、气球和人造卫星上。本申请对基站和终端的应用场景不做限定。基站和终端可以部署在相同的场景或不同的场景,例如,基站和终端同时部署在陆地上;或者,基站部署在陆地上,终端部署在水面上等,不再一一举例。
基站和终端的角色可以是相对的,例如,图1中的直升机或无人机120i可以被配置成移动基站,对于那些通过120i接入到无线接入网100的终端120j来说,终端120i是基站;但对于基站110a来说,120i是终端,即110a与120i之间是通过无线空口协议进行通信的。110a与120i之间也可以是通过基站与基站之间的接口协议进行通信的,此时,相对于110a来说,120i也是基站。因此,基站和终端都可以统一称为通信装置,图1中的110a和110b可以称为具有基站功能的通信装置,图1中的120a-120j可以称为具有终端功能的通信装置。
基站和终端之间、基站和基站之间、终端和终端之间可以通过授权频谱进行通信,也可以通过免授权频谱进行通信,也可以同时通过授权频谱和免授权频谱进行通信;可以通过6千兆赫(gigahertz,GHz)以下的频谱进行通信,也可以通过6GHz以上的频谱进行通信,还可以同时使用6GHz以下的频谱和6GHz以上的频谱进行通信。本申请对无线通信所使用的频谱资源不做限定。
在本申请中,基站向终端发送下行信号或下行信息,下行信息承载在下行信道上;终端向基站发送上行信号或上行信息,上行信息承载在上行信道上。终端为了与基站进行通信,可以与基站控制的小区建立无线连接。与终端建立了无线连接的小区称为该终端的服务小区。当终端与该服务小区进行通信的时候,可能会受到来自邻区的信号的干扰。
在本申请中,可以在前述图1所示的通信系统中引入独立的网元(如称为AI网元、或AI节点等)来实现AI相关的操作,AI网元可以和通信系统中的接入网设备之间直接连接,或者可以通过第三方网元和接入网设备实现间接连接,其中,第三方网元可以是认证管理功能(authentication management function,AMF)网元、或用户面功能(user planefunction,UPF)网元等核心网网元;或者,可以在通信系统中的其他网元内配置AI功能、AI模块或AI实体来实现AI相关的操作,例如该其他网元可以是接入网设备(如gNB)、核心网设备、或网管(operation,administration and maintenance,OAM)等,在这种情况下,执行AI相关的操作的网元为内置AI功能的网元。本申请以AI功能内置在其他网元内部为例进行说明。
本申请中,OAM用于操作、管理和/或维护核心网设备,和/或,用于操作、管理和/或维护接入网设备。
在本请中,AI模型是实现AI功能的具体方法,AI模型表征了模型的输入和输出之间的映射关系。AI模型可以是神经网络或者其他机器学习模型。其中,AI模型可以简称为模型。AI相关的操作可以包括以下至少一项:数据收集、模型训练、模型信息发布、模型推断(模型推理)、或推理结果发布等。
以神经网络为例,神经网络是机器学习技术的一种具体实现形式。根据通用近似定理,神经网络在理论上可以逼近任意连续函数,从而使得神经网络具备学习任意映射的能力。传统的通信系统需要借助丰富的专家知识来设计通信模块,而基于神经网络的深度学习通信系统可以从大量的数据集中自动发现隐含的模式结构,建立数据之间的映射关系,获得优于传统建模方法的性能。
神经网络的思想来源于大脑组织的神经元结构。每个神经元都对其输入值做加权求和运算,将加权求和结果通过一个激活函数产生输出。如图2所示,为神经元结构示意图。假设神经元的输入为x=[x0,x1,…,xn],与各输入对应的权值分别为w=[w,w1,…,wn],加权求和的偏置为b。激活函数的形式可以多样化,假设一个神经元的激活函数为:y=f(z)=max(0,z),则该神经元的输出为:
Figure BDA0003257386760000071
Figure BDA0003257386760000072
再例如一个神经元的激活函数为:y=f(z)=z,则该神经元的输出为:
Figure BDA0003257386760000073
Figure BDA0003257386760000074
b可以为小数、整数(包括0、正整数或负整数等)、或复数等各种可能的取值。神经网络中不同神经元的激活函数可以相同或不同。
神经网络一般包括多层结构,每层可包括一个或多个神经元。增加神经网络的深度和/或宽度可以提高该神经网络的表达能力,为复杂系统提供更强大的信息提取和抽象建模能力。其中,神经网络的深度可以指神经网络包括的层数,每层包括的神经元个数可以称为该层的宽度。如图3所示,为神经网络的层关系示意图。一种实现中,神经网络包括输入层和输出层。神经网络的输入层将接收到的输入经过神经元处理后,将结果传递给输出层,由输出层得到神经网络的输出结果。另一种实现中,神经网络包括输入层、隐藏层和输出层。神经网络的输入层将接收到的输入经过神经元处理后,将结果传递给中间的隐藏层,隐藏层再将计算结果传递给输出层或者相邻的隐藏层,最后由输出层得到神经网络的输出结果。一个神经网络可以包括一层或多层依次连接的隐藏层,不予限制。神经网络的训练过程中,可以定义损失函数。损失函数描述了神经网络的输出值和理想目标值之间的差距或差异,本申请不限制损失函数的具体形式。神经网络的训练过程就是通过调整神经网络参数,如神经网络的层数、宽度、神经元的权值、和/或神经元的激活函数中的参数等,使得损失函数的值小于阈值门限值或者满足目标需求的过程。
如图4所示为AI的一种应用框架的示意图。数据源(data source)用于存储训练数据和推理数据。模型训练节点(model trainning host)通过对数据源提供的训练数据(training data)进行分析或训练,得到AI模型,且将AI模型部署在模型推理节点(modelinference host)中。可选的,模型训练节点还可以对已部署在模型推理节点的AI模型进行更新。模型推理节点还可以向模型训练节点反馈已部署模型的相关信息,以使得模型训练节点对已部署的AI模型进行优化或更新等。
其中,AI模型表征了模型的输入和输出之间的映射关系。通过模型训练节点学习得到AI模型,相当于由模型训练节点利用训练数据学习得到模型的输入和输出之间的映射关系。模型推理节点使用AI模型,基于数据源提供的推理数据进行推理,得到推理结果。该方法还可以描述为:模型推理节点将推理数据输入到AI模型,通过AI模型得到输出,该输出即为推理结果。该推理结果可以指示:由执行对象使用(执行)的配置参数、和/或由执行对象执行的操作。推理结果可以由执行(actor)实体统一规划,并发送给一个或多个执行对象(例如,网络实体)去执行。
图5a和图5b为本申请提供的网络架构示意图,核心网设备、接入网设备、终端或OAM等中的至少一个设备可以部署有AI模型,利用该AI模型实现相应的功能。在本申请中,不同节点中部署的AI模型相同或不同,模型不同包括以下至少一项不同:模型的结构参数不同,例如,模型的层数和/或权值等不同;模型的输入参数不同;或模型的输出参数不同等。其中,模型的输入参数和/或模型的输出参数不同还可以描述为模型的功能不同。与上述图5a不同的是,在图5b中,将接入网设备的功能拆分为CU和DU。可选的,CU中可以部署有一个或多个AI模型。和/或,DU中可以部署有一个或多个AI模型。可选的,还可以进一步将图5b中的CU拆分为CU-CP和CU-UP。可选的,CU-CP中可以部署有一个或多个AI模型。和/或,CU-UP中可以部署有一个或多个AI模型。可选的,图5a或图5b中,接入网设备的OAM和核心网设备的OAM可以分开独立部署。
本申请提供的通信方法,可实现在各个设备中部署AI模型。例如,第一设备向第二设备发送用于确定N个训练数据的第一信息;第二设备根据N个训练数据进行模型训练,得到AI模型。通过该方法,第一设备可以对第二设备中部署的AI模型进行管理和掌控。本申请对第一设备和第二设备,并不作限定。比如,第一设备为核心网设备,第二设备为接入网设备。或者,第一设备为接入网设备,第二设备为终端。或者,第一设备为核心网设备,第二设备为终端。或者,第一设备为OAM,第二设备为核心网设备,接入网设备,或终端等。在后续的具体描述中,是以第一设备为基站,第二设备为终端为例描述的。当第一设备和第二设备无法直接通信时,可以由第三设备辅助他们二者进行通信。例如,第一设备为核心网设备或OAM,第二设备为终端,则第一设备可以通过第三设备(例如接入网设备)的转发向第二设备发送信号或信息,第二设备也可以通过第三设备的转发向第一设备发送信号或信息。其中,该转发可以是透传或者对转发的信号或信息加工(例如增加包头、分段或级联等)后转发。
在无线网络中,AI模型训练和AI模型部署可能位于不同的节点。例如,基站通过训练得到AI模型,再将该AI模型通过空口传输给终端。终端可以利用该AI模型,执行相应的操作。在空口中传输AI模型有两种方式,一种是在无线空口相关的协议中定义AI模型,或者定义AI模型的解读格式,即可以将传输的AI模型按照预定义的格式编码为可恢复的信息流,通过无线空口传输给终端,终端将接收到的信息流按照预定义的格式再恢复为AI模型,完成空口AI模型的传输。另一种方式是将AI模型看作是应用层的数据包,无线空口协议无需理解该AI模型或者该AI模型的解读格式,仅仅作为一个普通的应用层数据包在空口传输给终端,基站和终端在应用层对该AI模型进行编解码,即AI模型或该AI模型的解读格式在对应的应用层上定义。
在上述方案中,由于需要在空口中传输AI模型。一方面,当AI模型比较大,在空口传输AI模型的开销较大。另一方面,由于AI模型类型和格式种类很多。例如,从大的分类上,有多层感知机(multi-layer perceptron,MLP)、卷积神经网络(convolutional neuralnetworks,CNN)和递归神经网络(recurrent neural network,RNN)等。从细节上,不同AI模型在每层神经元的个数,每层神经元之间的连接关系,层与层之间的连接关系,激活函数类型等可能都不相同。无论是无线空口协议还是应用层协议,定义AI模型或者AI模型的解读格式需要大量的标准化工作。此外,AI技术还处于快速发展的阶段,有很多新的AI模型的类型、格式再不断被提出,需要频繁的对相应的协议进行修改和补充。
另外,由于终端的计算能力差异较大,可支持的AI模型规模也不尽相同。如果所有终端都从基站下载AI模型,则需要基站针对各种计算能力的终端都训练好了对应的AI模型,对基站而言计算和存储开销比较大。
本申请提供一种通信方法,在该方法中,第一设备(例如基站)不再向第二设备(例如终端)发送AI模型,而是向终端发送训练数据,终端根据基站提供的训练数据,自己训练AI模型,从而可以解决上述基站直接向终端传输AI模型所带来的种种弊端。如图6所示,本申请提供一种通信方法的流程,至少包括以下步骤:
步骤600:终端向基站发送请求信息,该请求信息用于请求进行模型训练,或者用于请求下述步骤601中的第一信息。
例如,终端在想进行AI模型训练时,可以向基站发送请求信息,用于请求基站给自己配置训练数据。该请求信息可用于指示以下至少一项:
-待训练AI模型的应用场景,即待训练的AI模型具体应用在何种场景下。例如,当应用上述待训练的AI模型时,终端的移动速度,终端的位置(例如,终端的位置是处于小区边缘还是小区中心),或信道的多径时延等中的至少一项,都可称为待训练AI模型的应用场景。终端将上述应用场景发送给基站,基站可以根据该应用场景,为终端配置与上述应用场景相匹配的训练数据。或者,可以预定义多个典型的应用场景,终端将自己的待训练AI模型的应用场景最匹配的典型应用场景的标识发送给基站。
-待训练AI模型的功能,还可称为待训练AI模型的用途。即该待训练的AI模型具体用于执行何种操作。例如,该AI模型用于信道估计,或预测终端的移动轨迹等。例如,终端想要训练一个用于信道估计的AI模型,则终端可以向基站发送请求信息,用于请求基站为自己配置用于训练信道估计AI模型的训练数据。上述请求消息可以携带有信道估计的指示信息。或者,可以预定义多种AI模型的功能,终端将自己的待训练AI模型的功能的标识发送给基站。
-训练数据的类型。如上文所述,待训练AI模型有不同的功能或用途,针对不同功能或用途的AI模型可能需要不同类型的训练数据。例如,对于用于信道估计的AI模型,可能需要的训练数据类型为无线信道信息。用于预测终端移动轨迹的AI模型,可能需要的训练数据类型为终端的移动轨迹以及一些用于预测终端移动轨迹的信息,比如接收信号或无线信道。上述训练数据的类型具体是指终端在模型训练时,具体需要训练数据的类型。在本申请中,可以在上述请求消息中携带训练数据类型的指示信息。或者,可以预定义多种训练数据的类型,例如,无线信道信息、无线信道特征、接收信号、接收信号功率、终端位置信息等类型,终端将自己需要的训练数据的类型标识发送给基站。
-待训练AI模型的输入格式和/或输出格式。在一种设计中,终端在请求信息中携带上述待训练AI模型的输入格式和/或输出格式的指示信息,发送给基站。基站根据上述待训练AI模型的输入格式,确定为终端配置的训练数据的格式。在监督学习的情况下,基站可以根据上述待训练AI模型的输出格式,确定训练标签的格式。或者,上述请求信息可以不携带待训练AI模型的输入格式和/或输出格式的指示信息,终端可以根据待训练AI模型的输入格式,调整基站配置的训练数据的格式,以使得两者相匹配。在监督学习的情况下,终端根据待训练AI模型的输出格式,调整基站为其配置的训练标签的格式,以使两者相匹配。或者,终端可以自行决定AI模型的输入格式和/或输出格式。终端根据基站配置的训练数据和/或训练标签的格式,设计匹配该格式的AI模型,即终端设计的AI模型的输入格式应该与基站配置的训练数据格式相匹配,设计的AI模型的输出格式应该与基站配置的训练标签的格式相匹配。
可选的,AI模型的输入格式可以包括AI模型的输入数据的维度等,输入数据的维度指输入数据的具体表达形式。AI模型的输出格式可以包括AI模型的输出数据的维度等,输出数据的维度指输出数据的具体表达形式。例如,输入数据的维度可以是时域、频域、空域、波束域、时延域等维度中的一种或多种。输入数据的维度还包括在每个维度的尺寸。例如,输入数据在时域维度的尺寸为2,在频域维度的尺寸为72,则输入数据为一个2*72的矩阵。输入数据或输出数据的维度还包括在每个维度的单位。例如,在时域维度的单位可以是时隙或正交频分复用(orthogonal frequency division multiplexing,OFDM)符号等,在频域维度的单位可以是子载波或者资源块(resource block,RB)等。
-终端的计算能力。例如,终端所支持的AI模型规模、终端所支持AI模型的输入参数量、或终端所支持的训练数据的数量等。或者,也可以预定义多个档位的计算能力,终端将与终端的计算能力所匹配档位的标识发送给基站。基站可以根据终端的计算能力,确定与该计算能力所匹配的训练数据。例如,若终端所支持的训练数据的数量最多为100个,则基站为终端所配置训练数据的数量可以小于或等于100。
-或终端的存储能力等。例如,终端可以将自己存储训练数据的最大能力或当前剩余能力上报给基站,基站在为终端配置训练数据时,应该考虑终端的存储能力。例如,基站为终端所配置的训练数据的总量应该小于终端的最大存储能力等。
可选的,上述请求信息的传输资源可以是预配置的,或者终端动态向基站请求的等,不作限定。例如,上述请求信息通过控制信道(例如,物理上行控制信道(physicaluplink control channel,PUCCH))传输,或者通过数据信道(例如,物理上行数据信道(physical uplink shared channel,PUSCH))传输,或者通过随机接入信道(randomaccess channel,RACH)传输,或者通过上述多个信道的组合进行传输等。例如,请求信息中的一部分信息通过PUCCH传输,请求信息中的另一部分信息通过PUSCH传输等。上述请求信息可以是一个信息,例如该信息中包括上述请求信息中的全部内容。或者,上述请求信息可以是多个信息,例如该多个信息中的一个信息携带上述请求信息中的部分内容,该多个信息中的另一个信息携带上述请求信息中的剩余内容等。
在一种设计中,终端在发送上述请求信息后,期望在T1个时间单元内接收到基站发送的下述步骤601中的第一信息。若在T1个时间单元内,终端没有接收到第一信息,则重新执行上述步骤600,重新向基站请求训练数据。
步骤601:基站向终端发送第一信息,该第一信息用于确定N个训练数据,所述N为整数。
在一种设计中,上述第一信息用于指示以下至少一项:
-至少一个训练集。
在本申请中,训练集是训练数据的集合,每个训练数据对应于模型训练过程中的一次输入。基站可以直接将至少一个训练集发送给终端。或者,基站可以向终端发送至少一个训练集的指示信息,该指示信息可以为至少一个训练集的标识等。终端根据该至少一个训练集的指示信息,在预定的多个训练集中,确定至少一个训练集。例如,训练集可以存储在训练数据库中,该训练数据库可以位于基站内部,或者位于终端设备内部,或者位于独立于基站和终端的其它节点等。该训练数据库中的数据可以是固定的,或者也可以是可以更新的。基站可以对训练数据库进行管理或维护。例如,基站可以新增、删除或更新训练数据库中的训练集,或者,基站可以授权终端向该训练数据库中新增训练集等。例如,该训练数据库中包括X个训练集,基站可以指示或授权终端访问其中的Y个训练集,用于训练AI模型,该Y个训练集即为上述至少一个训练集,所述X和Y均为整数,且Y的取值小于或等于X。可选的,对于监督学习等需要训练标签的场景,上述第一信息中还包括训练标签,训练标签对应于模型训练过程中的一次正确输出。
在本申请中,在终端获取到至少一个训练集时,可以直接利用该至少一个训练集进行模型训练。即该至少一个训练集中每个训练集所包括的训练数据均作为模型训练的训练数据。举例来说,基站向终端指示2个训练集,每个训练集中包括100个训练数据,则终端可以利用训练集1中的100个训练数据,以及训练集2中的100个训练数据进行模型训练。或者,终端可以利用训练集中的部分训练数据进行模型训练。沿用上述举例,终端可以利用上述训练集1中的部分训练数据(例如,前50个训练数据),和训练集2中的全部训练数据(例如,前述100个训练数据)进行模型训练。可选的,在每个训练集中具体取多少个训练数据进行模型训练,和/或在训练集中取训练数据的方式,可以是基站配置的,或者协议规定的等,不作限定。在一种设计中,基站还可以向终端发送以下至少一项的指示信息:
-在所述至少一个训练集中的第一训练集中,包括于所述N个训练数据中的训练数据的数量,也就是,第一训练集中用于模型训练的训练数据的数量,第一训练集可以为上述至少一个训练集中的任一个或多个训练集。
在一种设计中,基站可以向终端指示至少一个训练集中每个训练集中用于模型训练的训练数据。举例来说,基站向终端发送3个训练集的指示信息,每个训练集中包括600个训练数据。基站可以指示终端分别使用训练集1中的第0至50号训练数据,训练集2中的第1号至第51号训练数据,和训练集3中的第3号至第53号训练数据,进行模型训练等。或者,基站可以仅向终端指示至少一个训练集中每个训练集中用于模型训练的训练数据的数量,从每个训练集中如何选取该这些数量的训练数据不做限定。沿用上述举例。基站向终端发送3个训练集的指示信息,每个训练集包括600个训练数据。基站可以指示终端设备从训练集1中选取50个训练数据,则终端设备可以选取训练集1中的第1号至第50号训练数据,也可以选取第61号至110号训练数据。或者,基站可以仅向终端指示至少一个训练集中的部分训练集中用于模型训练的训练数据的数量,关于至少一个训练集中的剩余训练集如何获取训练数据,不作限定。沿用上述举例。基站向终端发送3个训练集的指示信息,每个训练集包括600个训练数据。基站可指示终端使用训练集1中的第0号至第50号训练数据进行模型训练,关于训练集2和训练集3不再发送相应的指示信息。则终端可以利用训练集2中的第0号至第50号训练数据,以及训练集2和3的全部训练数据,进行模型训练。
-所述N的取值,N是指终端进行模型训练时,训练数据的总数量,N的取值可以是协议预定义的,或者基站通知终端的等,不作限定。
-或在所述至少一个训练集中不同训练集中获取所述训练数据的比例。比如,基站向终端发送2个训练集的指示信息,且指示在训练集1中获取训练数据,与在训练集2中获取训练数据的比例为2:1,则终端可以根据训练数据的总量N,以及在各个训练集中获取训练数据的比例,在各个训练集中获取训练数据。例如,上述N的取值为300,训练集1与训练集2中获取训练数据的比例为2:1,则终端可以在训练集1中获取200个训练数据,在训练集2中获取100个训练数据。关于终端如何在训练集1和2获取训练数据的方式,可以由终端自行决定。例如,可以在训练集1获取编号前200个训练数据,或者获取编号后100个训练数据,或者按照某种规则抽取200个训练数据等。其中,在训练集中抽取训练数据的方式,可以是基站配置给终端的,或者预定义的等,不作限定。
在本申请中,关于上述:在所述至少一个训练集中的第一训练集中,包括于所述N个训练数据中的训练数据的数量,N的取值,或在所述至少一个训练集中不同训练集中获取训练数的比例等指示信息,可以携带于第一信息中。或者,基站可以单独发送一个信息,用于指示上述信息。关于基站单独发送的上述信息可称为第二信息。
-第二AI模型,所述第一AI模型是根据第二AI模型训练得到的,或者所述第二AI模型用于训练得到所述第一AI模型。
在本申请中,将待训练的AI模型,称为第一AI模型,第一AI模型的数量可以为一个或多个。将初始AI模型,称为第二AI模型。在本申请中,可以利用训练数据,对初始AI模型(即第二AI模型)进行训练,得到第一AI模型。在本申请中,基站可以在上述第一信息中携带第二AI模型的指示信息。终端可以根据第二AI模型的指示信息,确定第二AI模型。例如,上述第二AI模型的指示信息可以是第二AI模型的标识,指示终端将第二AI模型作为初始AI模型,又例如,上述第二AI模型的指示信息可以是第二AI模型的具体内容,指示第二AI模型的全部或部分结构和/或参数信息。关于第二AI模型的具体说明,可参见下述步骤602。
-第一AI模型的输入格式和/或输出格式。
在本申请中,基站可以向终端配置待训练的第一AI模型的输入格式和/或输出格式等,终端按照基站的配置,设计第一AI模型的输入格式和/或输出格式等。例如,第一信息中可以包括终端待训练的AI模型(即第一AI模型)的输入格式和/或输出格式的指示信息等,用于指示或建议终端按照该输入格式和/或输出格式设计AI模型。
可以理解的是,如果基站发送的上述第一AI模型的输入格式和/或输出格式是指示,则终端需要按该指示设计第一AI模型的输入格式和/或输出格式。如果基站发送的上述第一AI模型的输入格式和/或输出格式仅是建议,则终端可以自己决定第一AI模型的输入格式和/或输出格式。
例如,在信道状态信息(channel state information,CSI)反馈场景中,基站需要给终端配置测量的CSI资源,该CSI资源与终端的CSI压缩模型的输入有关。基站还可以配置终端反馈CSI报告的信息大小,该CSI报告的信息大小与终端的CSI压缩模型的输出有关,则基站根据该CSI-RS资源和CSI报告的信息大小,确定CSI压缩模型的输入和输出的格式,并将该CSI压缩模型的输入格式和输出格式指示给终端。可以理解的是,上述CSI压缩模型为AI模型的一种,该CSI压缩模型具体用于对CSI进行压缩。
-所述第一AI模型的性能要求信息。
在本申请中,基站可以配置终端训练第一AI模型时的性能要求信息。例如,上述第一信息中还可以包括基站对终端训练的第一AI模型的性能要求信息的指示。终端根据该性能要求信息,可以判断第一AI模型训练到何种程度,可以结束训练。例如,上述性能要求信息可以是损失函数的门限、最小均方误差(mean square error,MSE)门限、正则化最小均方误差(normalized mean square error,NMSE)门限、或者误块率(block error rate,BLER)门限或信干噪比(signal to interference and noise ratio,SINR)门限等。或者,上述第一AI模型的性能要求可以是预定义的,上述第一信息中可以不包括第一AI模型的性能要求信息等。
举例来说,终端可以利用验证集验证第一AI模型的输出是否满足要求,该过程可以称为模型验证。模型验证,通常发生在模型训练过程中。例如,模型每经过一次或多次迭代(EPOCH)的训练,可以用验证集对当前模型进行验证,来监测模型训练的状态,例如,欠拟合、过拟合或收敛等现象,决定是否结束训练。可选的,在模型验证过程中,还可以调整模型的超参数,所述超参数可以指模型中神经网络的层数、神经元的个数、激活函数,或损失函数等。
在本申请中,在监督学习的场景下,终端可以比较第一AI模型在验证集下的输出与对应的训练标签(该训练标签可以认为为验证集下的正确输出),确定两者之间的误差。根据两者之间的误差,确定当前AI模型是否可以停止训练。例如,若两者之间的差值低于上述性能要求中的门限信息,例如MSE门限等,则可以停止对第一AI模型进行训练;否则要继续对第一AI模型进行训练。在非监督学习或强化学习的情况下,不存在AI模型的输出对应的训练标签,则终端根据第一AI模型在验证集下的输出,确定AI模型的性能指标,根据AI模型的性能指标与上述性能要求性信中的门限信息,确定AI模型是否满足性能要求,即该AI模型是否可以停止训练等。
上述步骤601中的第一信息可以是一个信息,该一个信息中携带上述至少一个训练集、第二AI模型、第一AI模型的输入格式和/或输出格式、或所述第一AI模型的性能要求信息等中的指示信息。或者,上述步骤601中的第一信息可以是多个信息,该多个信息中的一个信息中携带上述指示信息中的一部分信息,该多个信息中的另一个信息中携带上述指示信息中的剩余部分信息。
在另一种设计中,上述步骤601中的第一信息为参考信号,终端可以根据所述参考信号,确定所述N个训练数据。或者,上述第一信息中包括参考信号的配置信息,终端根据该配置信息接收参考信号,根据参考信号,根据N个训练数据等。
可选的,基站可以根据待训练的第一AI模型的功能,向终端发送对应的参考信号。也就是,当第一AI模型的功能不同时,基站向终端发送的用于产生N个训练数据的参考信号可能不同。例如,在信道估计或预测场景,即第一AI模型用于信道估计或预测时,基站向终端发送的参考信号可以是解调参考信号(demodulation reference signal,DMRS)或信道状态信息参考信号(channel state information reference signal,CSI-RS)。终端根据DMRS或CSI-RS等,确定N个训练数据;根据该N个训练数据进行模型训练,确定用于信道估计或预测的第一AI模型。此时,可称为在信道估计或预测场景,用于产生N个训练数据的参考信号为DMRS或CSI-RS等。或者,在CSI反馈场景,用于产生N个训练数据的参考信号是CSI-RS。或者,在定位或视距识别场景,用于产生N个训练数据的参考信号为定位参考信号(positioning reference signal,PRS);在波束管理或预测场景,用于产生N个训练数据的参考信号是同步信号/物理层广播信道块(synchronization signal/physical broadcastchannel block,SSB)或CSI-RS。或者,在接收机增强、解码器增强或译码器增强场景,用于产生N个训练数据的是承载数据或控制信息的信道,例如物理下行数据信道(physicaldown shared channel,PDSCH)、物理下行控制信道(physical down control channel,PDCCH)、或物理广播信道(physical broadcast channel,PBCH)等。
在本申请中,基站可以给终端配置多种不同的参考信号,例如周期、时域图样、频域图样、空域图样、带宽等配置不同,分别用于产生不同类型的数据。比如,针对同一种参考信号,基站可以为终端配置3种不同的类型,不同类型的参考信号的时域图样、频域图样、空域图样,或带宽等中至少一项的配置不同。例如,第一类型的参考信号,用于正常的模型推理。第二类型的参考信号用于生成训练数据,即模型训练的。第三类型的参考信号用于生成测试数据,用于模型测试或验证的等。可选的,针对同一用途的参考信号,在不同的场景下,还可以进一步配置不同的多个参考信号。比如,对于用于模型训练的参考信号,在单终端场景和多终端场景所配置的参考信号可以不同。在低速移动场景和高速移动场景,可能配置的参考信号也不同等。
以信道估计为例,基站可以为终端配置多种DMRS。其中,第一种DMRS用于模型推断或者正常使用。例如,该DMRS的配置为正常的用于解调的DMRS,例如,具体可为双前置符号、类型2的DMRS;第二种DMRS用于生成训练数据。例如,该DMRS的配置具体可为时域和/或频域加密的DMRS,这样,可以使用传统的信道估计算法,获取较为准确的信道信息,用于生成训练数据。第三种DMRS用于生成模型测试或验证的测试数据,该DMRS的配置也可为时域和/或频域加密的DMRS,这样,可以使用传统的信道估计算法或者其他AI模型,获取较为准确的信道信息,用于测试或验证使用上述训练数据训练得到的AI模型的性能。
在本申请中,在同一时刻,可以仅有一种DMRS配置处于激活状态,即基站只向终端发送一种配置的DMRS,也可以有多种DMRS配置处于激活状态,即基站可以向终端同时发送多种配置的DMRS。例如,正常配置的DMRS只有在发送PDSCH才发送,而用于模型训练的DMRS可以周期性发送,并且,为了加快训练速度,可以给该DMRS配置较小的周期,用于模型验证和测试的DMRS可以在模型训练完成后再周期性的发送,且可以配置较大的周期,降低开销等。
步骤602:终端根据所述N个训练数据进行模型训练,得到第一AI模型。
在本申请中,终端可以利用N个训练数据,对初始的AI模型(即第二AI模型)进行模型训练,得到第一AI模型。可以理解的是,上述第一信息中可以指示AI模型的性能要求信息,当训练的AI模型,满足上述性能要求时,终端可以停止对AI模型的训练。可选的,如果基站在上述第一信息中配置了AI模型的输入格式和/或输出格式等,则训练出的第一AI模型应该符合基站的配置。
其中,上述初始的AI模型,即第二AI模型,可以是基站指示的,例如,上述步骤601中的第一信息可以指示第二AI模型。例如,基站可以指示终端采用之前训练过的AI模型中一个AI模型作为初始化AI模型,这种方式适用于当AI模型应用场景发生变化时,新场景与之前经历过的某个场景比较相似,则基站可以指示终端采用该场景对应的AI模型作为初始化模型,从而加快训练过程;又例如,基站也可以指示终端重新训练AI模型,即使用随机初始化的AI模型进行训练。
或者,初始的AI模型可以是终端自己决定的。例如,终端在出厂时已经内置了AI模型,则终端可以使用该AI模型作为初始化AI模型;或者终端也可以使用随机初始化的AI模型进行训练;或者终端也可以使用之前训练的某个AI模型作为初始化AI模型。
或者,第二AI模型的结构是基站指示的,例如,AI模型的结构包括AI模型的层数、每层的运算类型、每层的神经元数量等中的一项或多项,而第二AI模型的参数是终端自己初始化的。
利用上述N个训练数据,终端可以训练得到一个或多个AI模型,即第一AI模型的数量为一个或多个。在极端情况下,当N的取值为1时,终端可以利用该1个训练数据,进行模型训练,得到一个或多个AI模型。当N的取值为大于1之外的其它整数时,在一种设计中,终端可以利用该N个训练数据进行模型训练,得到一个或多个AI模型。可以理解的是,在模型训练过程中,是利用训练数据对初始模型进行训练,得到AI模型。具体训练出的AI模型是与训练数据与初始模型等至少两个因素相关的,因此可能会出现采用同一个训练数据,训练出的AI模型不同的情况出现。例如,终端可以利用该N个训练数据,对初始模型1进行训练,得到AI模型1,利用该N个训练数据,对初始模型2进行训练,得到AI模型2。或者,在另一种设计中,终端可以利用该N个训练数据中的N1个训练数据进行模型训练,得到AI模型1。利用该N个训练数据中的N2个训练数据进行模型训练,得到AI模型2。依次类推,利用该N个训练数据中的Nn个训练数据进行模型训练,得到AI模型n。上述N1个训练数据、N2个训练数据直至Nn个训练数据,都为N个训练数据的子集,且彼此之间可以存在交集,或完全不重叠等。关于训练数据与AI模型之间的对应关系,可以是基站指示的。例如,在训练数据的数量与第一AI模型的数量均为多个时,上述步骤601中的第一信息还可以指示:多个训练数据与多个第一AI模型间的对应关系。
或者,训练集是训练数据的集合。通过前述可知,基站可以具体向终端指示至少一个训练集,终端根据该至少一个训练集,获取N个训练数据。该至少一个训练集为一个或多个,当该训练集为一个时,终端可以利用该一个训练集进行模型训练,得到一个或多个AI模型。或者,当训练集为多个,例如用Y表示多个训练集,则终端可以利用Y1个训练集进行模型训练,得到AI模型1,利用Y2个训练集进行模型训练,得至AI模型2,依次类推,利用Yn个训练集进行模型训练,得到AI模型n。上述Y1个训练集、Y2个训练集直至Yn个训练值都属于Y个训练集,且Y1、Y2至Yn间彼此之间可以存在交集,或彼此间的训练集完全不重叠等。同理,关于训练集与AI模型间的对应关系可以是基站指示的。例如,当所述训练集的数量与待训练的第一AI模型的数量均为多个时,所述第一信息还用于指示:所述多个训练集与所述多个第一AI模型的对应关系。
步骤603:在第一AI模型训练完成时,终端向基站发送第三信息,该第三信息可用于指示对第一AI模型的训练完成,该第三信息可称为训练完成信息。
在一种设计中,所述第三信息中用于指示以下至少一项:
-第一AI模型的标识,该第一AI模型的标识可以为第一AI模型的索引、编号,或其它可以唯一标识第一AI模型的标识等。终端向基站上报训练完成的AI模型的标识,可方便基站对终端内的训练完成的AI模型进行统一管理。例如,终端利用数据集a,训练了一个AI模型1。利用训练集b,训练了一个AI模型2。AI模型1与AI模型2实现相同的功能,例如均用于预测终端的移动轨迹。当基站需要终端预测自己的移动轨迹时,可以判断上述AI模型1和AI模型2哪一个,更与当前终端的应用场景相匹配,从而指示一个AI模型给终端,用于轨迹预迹。在本申请中,所述第一AI模型的标识可以是终端自己为第一AI模型分配的,或者基站为第一AI模型分配的。可选的,若第一AI模型的标识是基站分配的,则终端可以不再向基站上报训练好的第一AI模型的标识,即上述步骤603中的第三信息中可以不再包括第一AI模型的标识信息。例如,在一种实现中,在上述步骤600的请求信息中可携带终端待训练的AI模型的标识信息,基站在接收到上述步骤603中的训练完成信息时,即便该训练完成信息,即第三信息中不再携带第一AI模型的标识信息,基站也可以确定当前训练完成的AI模型即为原来请求训练的AI模型。
若终端为AI模型分配标识,且在AI模型训练完成时,终端向基站上报训练好的AI模型的标识,则基站在具体存储训练好的AI模型时,可以采用终端标识和AI模型标识两个维度来标识一个AI模型。例如,基站的具体存储可以为:终端1:AI模型1,AI模型2,…,AI模型n;终端2:AI模型1,AI模型2,…,AI模型m等。或者,为了统一对AI模型进行管理,基站可以将不同终端上报的训练好的AI模型再统一编号,那么每个AI模型可以有两个编号,一个编号为基站分配的,在基站侧唯一标识一个AI模型,另一个编号为终端分配的,在终端侧唯一唯识一个AI模型。
-第一AI模型的性能信息。例如,第一AI模型的损失函数、或者该AI模型在测试集下的MSE值、NMSE值、BLER值,或SINR值等。在一种实现中,在模型训练完成之后,终端可以利用测试集对训练好的AI模型进行测试。例如,评估AI模型的泛化能力,判断AI模型性能是否满足要求,或决定AI模型是否可用等。该过程可称为模型测试过程。例如,在监督学习的情况下,终端可以对比第一AI模型在测试下的输出与对应的训练标签,确定两者之间的误差,该误差可以用MSE值、NMSE值,或BLER值等表示。或者,以第一AI模型的输出为波束赋形向量或预编码矩阵为例,终端可以计算第一AI模型在测试集下输出的波束赋形向量或预编码矩阵对应的SINR。比如,第一AI模型在测试集下的输出为预编码矩阵W,则终端计算使用功率P和预编码矩阵W发送的信号经过信道H后,在接收端的接收功率。结合接收端的接收功率以及噪声功率,计算SINR。
在本申请中,当终端删除或更新本地的AI模块时,可以通知基站删除了哪些AI模型,或者对哪些AI模型进行了更新,以及更新后AI模型的性能等。
在本申请中,基站通过给终端配置AI模型的训练数据、性能要求、或AI模型的输入输出格式等内容,终端可以自己训练AI模型,基站无需直接给UE配置AI模型,一定程度上节省了网络开销,同时达到基站对终端的AI模型有一定程度的管控和感知的目的。
上述图6所示的流程中的步骤600和603是可选的,并不一定需要执行,在图6中用虚线表示。例如,图6所示的流程,可以由终端发起,终端向基站发送请求消息,用于请求训练数据,上述步骤600是需要执行的。或者,可以由基站发起,基站主动给终端配置训练数据,即基站可直接执行下述步骤601向终端发送第一信息,上述步骤600无需再执行。例如,图6所示的流程中,终端在训练完成AI模型后,可以不再向基站上报,上述步骤603无需再执行。或者,终端在训练完成AI模型后,需要向基站上报,上述步骤603是需要执行的。
在本申请中,请求信息、第一信息或第三信息等可以指示至少一项信息。可以理解的是,上述请求信息、第一信息或第三信息可以显示指示相应的信息。例如,第一信息中可以显示指示至少一个训练集、第二AI模型、第一AI模型的输入格式和/或输出格式、或第一AI模型的性能要求信息。该显示指示的方式可以是直接携带对应的信息,例如第一信息中直接携带至少一个训练集。或者,可以携带上述对应信息的标识,例如第一信息中可以携带至少一个训练集的标识信息。或者,上述请求信息、第一信息或第三信息中可以隐示指示相应的信息,该隐示指示可以通过加扰、参考信号序列、资源位置等方式中的一种或多种隐示指示。例如,基站可以为终端配置多个训练集,基站可以通过对用于模型训练的至少一个训练集采用特定方式加扰的方式,指示终端采用特定方式加扰的至少一个测试集进行模型训练等。
在上述图6所示的流程中,是以基站向终端配置训练AI模型的相关信息为例描述的,并不作为本申请的限定。除基站外,其它设备,例如,核心网设备、OAM、远程智能通信、无线智能控制器,或AI节点等,也可以向终端配置训练AI模型的相关信息,而基站具体仅起信息转发的作用。例如,以核心网设备向终端配置训练AI模型的相关信息为例。如图7所示,提供一种通信方法的流程,至少包括:
步骤700:终端向核心网设备发送请求消息,该请求消息用于请求对AI模型进行训练,或者请求下述步骤701中的第一信息。
与上述图6中的步骤600相似,该步骤700是可选的,并非一定需要执行,在图7中用虚线表示。例如,基站可以接收来自终端的请求消息,将该请求信息转发给核心网设备。
步骤701:核心网设备向终端发送第一信息,该第一信息用于确定N个训练数据。
例如,基站接收来自核心网设备的第一信息,将第一信息转发给终端。
步骤702:终端根据N个训练数据进行模型训练,确定第一AI模型。
步骤703:终端向核心网设备发送第三信息,该第三信息用于指示对AI模型的训练完成。
与上述图6中的步骤603类似,该步骤703是可选的,并非一定需要执行,在图7中用虚线表示。例如,基站可以接收上述第三信息,将第三信息转发给核心网设备等。
可以理解的是,为了实现上述方法中的功能,基站和终端包括了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本申请描述的各示例的单元及方法步骤,本申请能够以硬件或硬件和计算机软件相结合的形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用场景和设计约束条件。
图8和图9为本申请的提供的可能的通信装置的结构示意图。这些通信装置可以用于实现上述方法中终端或基站的功能,因此也能实现上述方法所具备的有益效果。在本申请的中,该通信装置可以是如图1所示的终端120a-120j中的一个,也可以是如图1所示的基站110a或110b,还可以是应用于终端或基站的模块(如芯片)。
如图8所示,通信装置800包括处理单元810和收发单元820。通信装置800用于实现上述图6或图7中所示的方法中终端或基站的功能。
当通信装置800用于实现图6或图7所示的方法中终端的功能时:收发单元820用于接收来自基站中的第一信息;处理单元810用于根据N个训练数据进行模型训练,得到第一AI模型。
当通信装置800用于实现图6或图7所示的方法中基站的功能时:处理单元810用于确定第一信息;收发单元820用于向终端发送第一信息。
有关上述处理单元810和收发单元820更详细的描述可以直接参考图6或图7所示的方法中相关描述直接得到,这里不加赘述。
如图9所示,通信装置900包括处理器910和接口电路920。处理器910和接口电路920之间相互耦合。可以理解的是,接口电路920可以为收发器或输入输出接口。可选的,通信装置900还可以包括存储器930,用于存储处理器910执行的指令或存储处理器910运行指令所需要的输入数据或存储处理器910运行指令后产生的数据。
当通信装置900用于实现上述方法时,处理器910用于实现上述处理单元810的功能,接口电路920用于实现上述收发单元820的功能。
当上述通信装置为应用于终端的芯片时,该终端芯片实现上述方法中终端的功能。该终端芯片从终端中的其它模块(如射频模块或天线)接收信息,该信息是基站发送给终端的;或者,该终端芯片向终端中的其它模块(如射频模块或天线)发送信息,该信息是终端发送给基站的。
当上述通信装置为应用于基站的模块时,该基站模块实现上述方法中基站的功能。该基站模块从基站中的其它模块(如射频模块或天线)接收信息,该信息是终端发送给基站的;或者,该基站模块向基站中的其它模块(如射频模块或天线)发送信息,该信息是基站发送给终端的。这里的基站模块可以是基站的基带芯片,也可以是DU或其他模块,这里的DU可以是开放式无线接入网(open radio access network,O-RAN)架构下的DU。
可以理解的是,本申请中的处理器可以是中央处理单元(central processingunit,CPU),还可以是其它通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其它可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
本申请中的存储器可以是随机存取存储器、闪存、只读存储器、可编程只读存储器、可擦除可编程只读存储器、电可擦除可编程只读存储器、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质。
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于基站或终端中。当然,处理器和存储介质也可以作为分立组件存在于基站或终端中。
本申请中的方法可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机程序或指令。在计算机上加载和执行所述计算机程序或指令时,全部或部分地执行本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、网络设备、用户设备、核心网设备、OAM或者其它可编程装置。所述计算机程序或指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机程序或指令可以从一个网站站点、计算机、服务器或数据中心通过有线或无线方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是集成一个或多个可用介质的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,例如,软盘、硬盘、磁带;也可以是光介质,例如,数字视频光盘;还可以是半导体介质,例如,固态硬盘。该计算机可读存储介质可以是易失性或非易失性存储介质,或可包括易失性和非易失性两种类型的存储介质。
在本申请中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。在本申请的文字描述中,字符“/”,一般表示前后关联对象是一种“或”的关系;在本申请的公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“包括A,B或C中的至少一个”可以表示:包括A;包括B;包括C;包括A和B;包括A和C;包括B和C;包括A、B和C。
可以理解的是,在本申请中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的范围。上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定。

Claims (21)

1.一种通信方法,其特征在于,包括:
接收来自网络设备的第一信息,所述第一信息用于确定N个训练数据,所述N为整数;
根据所述N个训练数据进行模型训练,得到第一人工智能AI模型。
2.如权利要求1所述的方法,其特征在于,所述第一信息用于指示以下至少一项:
至少一个训练集,每个训练集中包括至少一个训练数据;
第二AI模型,所述第一AI模型是根据所述第二AI模型训练得到的;
所述第一AI模型的输入格式和/或输出格式;
或所述第一AI模型的性能要求信息。
3.如权利要求2所述的方法,其特征在于,还包括:
接收来自所述网络设备的第二信息,所述第二信息用于指示以下至少一项:
在所述至少一个训练集中的第一训练集中,包括于所述N个训练数据中的训练数据;
所述N的取值;
或所述至少一个训练集中不同训练集中获取所述训练数据的比例。
4.如权利要求2或3所述的方法,其特征在于,当所述训练集的数量和所述第一AI模型的数量均为多个时,所述第一信息还用于指示:所述多个训练集与所述多个第一AI模型的对应关系。
5.如权利要求1所述的方法,其特征在于,所述第一信息为参考信号,还包括:
根据所述参考信号,确定所述N个训练数据。
6.如权利要求1至5中任一项所述的方法,其特征在于,还包括:
向所述网络设备发送请求信息,所述请求信息用于请求所述第一信息,或者用于请求进行模型训练,所述请求信息用于指示以下至少一项:
所述第一AI模型的应用场景;
所述第一AI模型的功能;
所述训练数据的类型;
所述第一AI模型的输入格式和/或输出格式;
终端的计算能力;
或所述终端的存储能力。
7.如权利要求1至6中任一项所述的方法,其特征在于,还包括:
在所述第一AI模型训练完成后,向所述网络设备发送第三信息,所述第三信息用于指示以下至少一项:
所述第一AI模型的标识;
或所述第一AI模型的性能。
8.一种通信方法,其特征在于,包括:
确定第一信息;
向终端发送所述第一信息,所述第一信息用于确定训练第一人工智能AI模型的N个训练数据,所述N为整数。
9.如权利要求8所述的方法,其特征在于,所述第一信息用于指示以下至少一项:
至少一个训练集,每个训练集中包括至少一个训练数据;
第二AI模型,所述第二AI模型用于训练得到所述第一AI模型;
所述第一AI模型的输入格式和/或输出格式;
或所述第一AI模型的性能要求信息。
10.如权利要求9所述的方法,其特征在于,还包括:
向所述终端发送第二信息,所述第二信息用于指示以下至少一项:
在所述至少一个训练集的第一训练集中,包括于所述N个训练数据中的训练数据;
所述N的取值;
或所述至少一个训练集中不同训练集中获取所述训练数据的比例。
11.如权利要求9或10所述的方法,其特征在于,当所述训练集的数量和所述第一AI模型的数量均为多个时,所述第一信息还用于指示:所述多个训练集与所述多个第一AI模型的对应关系。
12.如权利要求8所述的方法,其特征在于,所述第一信息为用于确定训练数据的参考信号。
13.如权利要求8至12中任一项所述的方法,其特征在于,还包括:
接收来自所述终端的请求信息,所述请求信息用于请求所述第一信息,或者用于请求进行模型训练,所述请求信息用于指示以下至少一项:
所述第一AI模型的应用场景;
所述第一AI模型的功能;
所述训练数据的类型;
所述第一AI模型的输入格式和/或输出格式;
所述终端的计算能力;
或所述终端的存储能力。
14.如权利要求8至13中任一项所述的方法,其特征在于,还包括:
接收来自所述终端的第三信息,所述第三信息用于指示以下至少一项:
所述第一AI模型的标识;
或所述第一AI模型的性能。
15.一种通信装置,其特征在于,包括用于实现权利要求1至7中任一项所述方法的单元。
16.一种通信装置,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,所述处理器用于实现权利要求1至7中任一项所述的方法。
17.一种通信装置,其特征在于,包括用于实现权利要求8至14中任一项所述方法的单元。
18.一种通信装置,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,所述处理器用于实现权利要求8至14中任一项所述的方法。
19.一种通信系统,其特征在于,包括权利要求15或16所述的通信装置,和权利要求17或18所述的通信装置。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至7中任一项所述的方法,或者权利要求8至14中任一项所述的方法。
21.一种计算机程序产品,其特征在于,包括指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至7中任一项所述的方法,或者权利要求8至14中任一项所述的方法。
CN202111063199.9A 2021-09-10 2021-09-10 一种通信方法及装置 Pending CN115802370A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111063199.9A CN115802370A (zh) 2021-09-10 2021-09-10 一种通信方法及装置
PCT/CN2022/117930 WO2023036268A1 (zh) 2021-09-10 2022-09-08 一种通信方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111063199.9A CN115802370A (zh) 2021-09-10 2021-09-10 一种通信方法及装置

Publications (1)

Publication Number Publication Date
CN115802370A true CN115802370A (zh) 2023-03-14

Family

ID=85416823

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111063199.9A Pending CN115802370A (zh) 2021-09-10 2021-09-10 一种通信方法及装置

Country Status (2)

Country Link
CN (1) CN115802370A (zh)
WO (1) WO2023036268A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117676716A (zh) * 2024-02-01 2024-03-08 荣耀终端有限公司 通信方法、系统及相关设备
CN117812604A (zh) * 2024-02-28 2024-04-02 荣耀终端有限公司 通信方法、系统及相关设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4089549A4 (en) * 2020-01-14 2023-01-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND DEVICE FOR RESOURCE PLANNING AND READABLE STORAGE MEDIUM
WO2021142609A1 (zh) * 2020-01-14 2021-07-22 Oppo广东移动通信有限公司 信息上报方法、装置、设备和存储介质
WO2022000188A1 (zh) * 2020-06-29 2022-01-06 北京小米移动软件有限公司 用户设备辅助信息的上报方法及装置、用户设备、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117676716A (zh) * 2024-02-01 2024-03-08 荣耀终端有限公司 通信方法、系统及相关设备
CN117812604A (zh) * 2024-02-28 2024-04-02 荣耀终端有限公司 通信方法、系统及相关设备

Also Published As

Publication number Publication date
WO2023036268A1 (zh) 2023-03-16

Similar Documents

Publication Publication Date Title
KR102034955B1 (ko) 무선 통신 시스템에서 신경망 기반의 송신전력 제어 방법 및 장치
Liu et al. Application of NOMA in 6G networks: Future vision and research opportunities for next generation multiple access
WO2023036268A1 (zh) 一种通信方法及装置
WO2023143267A1 (zh) 一种模型配置方法及装置
US11818806B2 (en) ML model training procedure
WO2023104169A1 (zh) 一种无线网络中的人工智能ai模型训练方法及装置
US20230403588A1 (en) Machine learning data collection, validation, and reporting configurations
WO2023066346A1 (zh) 一种通信方法及装置
WO2024067245A1 (zh) 模型匹配的方法和通信装置
WO2023093725A1 (zh) 一种校准方法及装置
WO2023093777A1 (zh) 一种通信方法及装置
US20230084883A1 (en) Group-common reference signal for over-the-air aggregation in federated learning
WO2023036280A1 (zh) 一种模型测试方法及装置
WO2024007248A1 (en) Layer 1 report enhancement for base station aided beam pair prediction
WO2023184156A1 (en) Techniques to determine ue communication states via machine learning
WO2024051789A1 (zh) 一种波束管理方法
Jamshed et al. Green UAV-enabled Internet-of-Things Network with AI-assisted NOMA for Disaster Management
US20240107594A1 (en) User equipment pairing and cooperative machine learning inference result sharing
WO2023060417A1 (en) Ue clustering in fl model update reporting
US20230422175A1 (en) Machine learning (ml)-based dynamic demodulator parameter selection
US20230325654A1 (en) Scalable deep learning design for missing input features
US20230039254A1 (en) Transfer/federated learning approaches to mitigate blockage in millimeter wave systems
US20230275632A1 (en) Methods for beam coordination in a near-field operation with multiple transmission and reception points (trps)
US20230419101A1 (en) Machine learning (ml)-based dynamic demodulator selection
US20240080165A1 (en) Ack coalescing performance through dynamic stream selection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication