CN117501777A - 人工智能模型的确定方法及装置、通信设备及存储介质 - Google Patents

人工智能模型的确定方法及装置、通信设备及存储介质 Download PDF

Info

Publication number
CN117501777A
CN117501777A CN202280002058.2A CN202280002058A CN117501777A CN 117501777 A CN117501777 A CN 117501777A CN 202280002058 A CN202280002058 A CN 202280002058A CN 117501777 A CN117501777 A CN 117501777A
Authority
CN
China
Prior art keywords
terminal
power consumption
model
capability
base station
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280002058.2A
Other languages
English (en)
Inventor
乔雪梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Publication of CN117501777A publication Critical patent/CN117501777A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开实施例提供一种AI模型的确定方法及装置、通信设备及存储介质。其中,AI模型的确定方法,由终端执行,包括:确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。

Description

人工智能模型的确定方法及装置、通信设备及存储介质 技术领域
本公开涉及无线通信技术领域但不限于无线通信技术领域,尤其涉及一种人工智能(Artificial Intelligence,AI)模型的确定方法及装置、通信设备及存储介质。
背景技术
相关技术中,终端往往需要通过AI模型处理终端的业务,例如基于AI推理进行图像处理或者自动驾驶等。而对于AI模型的选择,目前通常依据AI模型的推理时延、复杂度和准确度等模型自身参数在多个AI模型中进行选择,或者在可选的AI模型仅有一个时,根据上述参数确定是否启用该AI模型进行终端业务处理。
但是通过这种方式选择的AI模型,在终端实际通过选取的AI模型进行业务处理时,会存在AI模型与终端的性能不匹配。例如终端的性能较低或者对功耗敏感度较高,而采用了较为复杂的AI模型时,会导致终端由于该AI模型功耗过高而影响终端正常运行,甚至被终端结束AI模型执行过程导致业务中断。
发明内容
本公开实施例提供一种AI模型的确定方法及装置、通信设备及存储介质。
本公开实施例第一方面提供一种AI模型的确定方法,由终端执行,所述方法包括:
确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
本公开实施例第二方面提供一种AI模型的确定方法,由基站执行,所述方法包括:
确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
本公开实施例第三方面提供一种AI模型的确定装置,应用于终端,所述装置包括:
第一确定单元,被配置为确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
本公开实施例第四方面提供一种AI模型的确定装置,应用于基站,所述装置包括:
第二确定单元,被配置为确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
本公开实施例第五方面提供一种通信设备,包括处理器、存储器及存储在存储器上并能够有所述处理器运行的可执行程序,其中,所述处理器运行所述可执行程序时执行如前述第一方面或第二方面提供的AI模型的确定方法。
本公开实施例第六方面提供一种计算机存储介质,所述计算机存储介质存储有可执行程序;所述可执行程序被处理器执行后,能够实现前述的第一方面或第二方面提供的AI模型的确定方法。
本公开实施例提供的技术方案,确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。如此,根据终端的功耗能力确定匹配的AI模型,可以采用更加符合终端性能的AI模型处理业务,减少AI模型的功耗及复杂度与终端性能无法匹配的情况,从而减少AI模型对终端产生不必要的消耗,提升终端与AI模型的适配性以及基于AI模型处理终端业务的流畅性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开实施例。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明实施例,并与说明书一起用于解释本发明实施例的原理。
图1是根据一示例性实施例示出的一种无线通信系统的结构示意图;
图2是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图3是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图4是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图5是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图6是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图7是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图8是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图9是根据一示例性实施例示出的一种AI模型的确定方法的流程示意图;
图10是根据一示例性实施例示出的一种AI模型的确定装置的结构示意图;
图11是根据一示例性实施例示出的一种AI模型的确定装置的结构示意图;
图12是根据一示例性实施例示出的一种终端的结构示意图;
图13是根据一示例性实施例示出的一种通信设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明实施例相一致的所有实施方式。相反,它们仅是本发明实施例的一些方面相一致的装置和方法的例子。
在本公开实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开实施例。在本公开所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开实施例范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
请参考图1,其示出了本公开实施例提供的一种无线通信系统的结构示意图。如图1所示,无线通信系统是基于蜂窝移动通信技术的通信系统,该无线通信系统可以包括:若干个终端11以及若干个接入设备12。
其中,终端11可以是指向用户提供语音和/或数据连通性的设备。终端11可以经无线接入网(Radio Access Network,RAN)与一个或多个核心网进行通信,终端11可以是物联网终端,如传感器设备、移动电话(或称为“蜂窝”电话)和具有物联网终端的计算机,例如,可以是固定式、便携式、袖珍式、手持式、计算机内置的或者车载的装置。例如,站(Station,STA)、订户单元(subscriber unit)、订户站(subscriber station)、移动站(mobile station)、移动台(mobile)、远程站(remote station)、接入点、远程终端(remote terminal)、接入终端(access terminal)、用户装置(user terminal)、用户代理(user agent)、用户设备(user device)、或用户终端(user equipment,终端)。或者,终端11也可以是无人飞行器的设备。或者,终端11也可以是车载设备,比如,可以是具有无线通信功能的行车电脑,或者是外接行车电脑的无线通信设备。或者,终端11也可以是路边设备,比如,可以是具有无线通信功能的路灯、信号灯或者其它路边设备等。
接入设备12可以是无线通信系统中的网络侧设备。其中,该无线通信系统可以是第四代移动通信技术(the 4th generation mobile communication,4G)系统,又称长期演进(Long Term Evolution,LTE)系统;或者,该无线通信系统也可以是5G系统,又称新空口(new radio,NR)系统或5G NR系统。或者,该无线通信系统也可以是5G系统的再下一代系统。其中,5G系统中的接入网可以称为NG-RAN(New Generation-Radio Access Network,新一代无线接入网)。或者,MTC系统。
其中,接入设备12可以是4G系统中采用的演进型接入设备(eNB)。或者,接入设备12也可 以是5G系统中采用集中分布式架构的接入设备(gNB)。当接入设备12采用集中分布式架构时,通常包括集中单元(central unit,CU)和至少两个分布单元(distributed unit,DU)。集中单元中设置有分组数据汇聚协议(Packet Data Convergence Protocol,PDCP)层、无线链路层控制协议(Radio Link Control,RLC)层、媒体访问控制(Media Access Control,MAC)层的协议栈;分布单元中设置有物理(Physical,PHY)层协议栈,本公开实施例对接入设备12的具体实现方式不加以限定。
接入设备12和终端11之间可以通过无线空口建立无线连接。在不同的实施方式中,该无线空口是基于第四代移动通信网络技术(4G)标准的无线空口;或者,该无线空口是基于第五代移动通信网络技术(5G)标准的无线空口,比如该无线空口是新空口;或者,该无线空口也可以是基于5G的更下一代移动通信网络技术标准的无线空口。
可选的,上述无线通信系统还可以包含网络管理设备13。若干个接入设备12分别与网络管理设备13相连。其中,网络管理设备13可以是无线通信系统中的核心网设备,比如,该网络管理设备13可以是演进的数据分组核心网(Evolved Packet Core,EPC)中的移动性管理实体(Mobility Management Entity,MME)。或者,该网络管理设备也可以是其它的核心网设备,比如服务网关(Serving GateWay,SGW)、公用数据网网关(Public Data Network GateWay,PGW)、策略与计费规则功能单元(Policy and Charging Rules Function,PCRF)或者归属签约用户服务器(Home Subscriber Server,HSS)等。对于网络管理设备13的实现形态,本公开实施例不做限定。
如图2所示,本公开实施例提供一种AI模型的确定方法,由终端执行,包括:
S210:确定与终端功耗能力匹配的AI模型,其中,功耗能力用于表征终端在单位功耗下的运算能力,或,功耗能力用于表征终端在单位运算量下的功耗;AI模型至少用于终端执行AI推理操作。
在本公开的所有实施例中,终端可以为具备业务处理能力的电子设备,例如手机、电脑、平板电脑或智能手表等智能设备。功耗能力(capability on power consumption)用于表征终端的性能水平,例如可以包括终端在单位功耗下的运算能力,还可以包括终端在一定量级或者一定数值的功耗下的运算能力。例如通过FLOPs/W或者FLOPs/mW等表示功耗能力,其中,FLOPs/W为终端在1W功耗下计算的浮点运算数(Floating Point operations,FLOPs),FLOPs/mW为终端在1mW功耗下的浮点运算数。
又例如,功耗能力用于表征终端在单位运算量下的功耗,可以通过W/FLOPs或者mW/FLOPs等表示功耗能力,其中,W/FLOPs为终端在单位浮点运算数(Floating Point operations,FLOPs)下的功耗量(单位为W),mW/FLOPs为终端在单位FLOPs下的功耗量(单位为mW)。以下实施例中可以用FLOPs/W或FLOPs/mW为例进行说明,但是本领域内技术人员可以理解,可以用于表征功耗能力的参数可以有很多种,本公开的以下实施例中并不对此进行限定。
在一个实施例中,根据待执行的AI推理操作对应的业务类型,AI模型的类型可以包括分析类AI模型、视觉类AI模型、文本类AI模型和交互类AI模型等。
在一个实施例中,AI推理操作(AI Model Inference)示例性的可以包括:终端与基站之间AI 协作场景下的AI推理操作,例如,终端与基站之间AI协作可以包括信道状态信息(Channel State Information,CSI)压缩传输业务处理。其中,终端可通过一个AI模型执行CSI的压缩业务,压缩后的CSI用于上报给基站,基站可通过一个AI模型执行CSI的解压缩等。
在一个实施例中,AI推理操作还可以包括终端与基站之间不进行AI协作场景下的AI推理操作,例如终端与基站之间不进行AI协作,可以包括基于解调参考信号(Demodulation Reference Signa,DMRS)的信道估计。其中,终端基于AI模型进行信道估计,并基于AI模型估计出来的信道检测接收到的数据。
在一个实施例中,根据AI模型所应用的算法,AI模型示例性的可以包括:深度神经网络模型、向量机模型和线性回归模型等。
在一个实施例中,终端可以自行确定与终端功耗能力匹配的AI模型,或者,也可以获取基站确定的与终端功耗能力匹配的AI模型,或是,还可以根据通信协议确定与终端功耗能力匹配的AI模型。例如,终端与基站之间进行AI协作时,终端与基站分别通过一个AI模型协作执行一项业务。终端可以根据自身功耗能力确定匹配的AI模型,或者,终端可以采用基站根据终端功耗能力确定的与其匹配的AI模型。
其中,终端与基站之间进行AI协作,可以指终端与网络侧的AI协作。终端采用的AI模型与基站采用的AI模型可以为相同的模型,也可以为不同的模型。例如,终端确定的与功耗能力匹配的AI模型,可以与基站确定的与终端功耗能力匹配的AI模型相同,或者与基站确定的与终端功耗能力匹配的AI模型具备相同的输入输出关系。
在一个实施例中,终端与基站之间进行AI协作,终端使用的AI模型在训练过程中使用的训练集可以与基站使用的AI模型训练过程使用的训练集相同。
在一个实施例中,具备相同的输入输出关系,可以为两个AI模型的输入相同时输出也相同。例如,两个AI模型具备相同的超参数和/或具备相同的网络层数或网络节点数等。
在一个实施例中,具备相同的输入输出关系,还可以为两个AI模型的输入数据和/或输出数据的维度与长度也是相同的。
在一个实施例中,终端与基站之间不进行AI协作时,终端可以自行确定与自身功耗能力匹配的AI模型,或者,也可以获取基站确定的与终端功耗能力匹配的AI模型。例如,终端可以将功耗能力对应的能力信息发送至基站,并获取基站根据能力信息确定的与终端功耗能力匹配的AI模型。
在一个实施例中,终端获取基站确定的与终端功耗能力匹配的AI模型,可以包括终端获取基站确定的与终端功耗能力匹配的AI模型的模型参数等模型信息,基于该模型信息生成及训练对应的AI模型。
其中,模型参数可以包括AI模型的网络架构参数,例如模型包含的网络层数、各层网络的节点数以及超参数等。
在一个实施例中,终端获取基站确定的与终端功耗能力匹配的AI模型,可以包括获取基站下发的与终端功耗能力匹配且经过训练的AI模型的模型参数。例如,获取基站生成并训练后的与终端功 耗能力匹配的AI模型的模型参数;基于模型参数获得训练后的AI模型。
在一个实施例中,终端获取基站确定的与终端功耗能力匹配的AI模型,可以包括获取基站确定的与终端功耗能力匹配的AI模型的模型标识,基于该模型标识获取对应的AI模型,例如向模型库或者服务器等获取对应的AI模型。
在一个实施例中,与终端功耗能力匹配的AI模型,可以为AI模型的功耗水平与终端功耗能力匹配。例如,根据终端功耗能力确定终端在单位功耗下的运算能力,则根据终端单位功耗下的运算能力以及AI模型的运算能力可以确定AI模型应用于终端所产生的功耗,进而可以确定功耗与终端功耗能力匹配的AI模型。
在一个实施例中,确定功耗与终端功耗能力匹配的AI模型,可以包括确定功耗与终端功耗能力对应的功耗阈值匹配的AI模型。例如,可以包括确定功耗低于终端功耗能力对应的功耗阈值的AI模型,或者,确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者,确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型。
其中,功耗阈值可以指示终端所能支持的AI模型功耗水平,例如,功耗阈值可以为终端功耗能力对应的功耗最大值或者功耗平均值等。
在一个实施例中,预设值可以指示AI模型的功耗所需低于功耗阈值的数值水平,例如1W、3W或10W等。预设占比可以指示AI模型的功耗所需低于的最大功耗水平,例如90%、80%或者50%等。
在一个实施例中,确定功耗低于终端功耗能力对应的功耗阈值的AI模型,可以包括确定功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最低或最高的AI模型。其中,选择功耗最低的AI模型,可以更好地降低AI模型产生的功耗;选择功耗最高的AI模型,可以在AI模型功耗低于功耗阈值的基础上,选用运算能力更好的AI模型以提升AI推理操作的效率和稳定性。
在一个实施例中,确定功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最低或最高的AI模型,可以包括:根据终端当前运行情况以及待执行的AI推理操作类型,在功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最低或最高的AI模型。
示例性的,在终端当前运行情况指示的终端当前功耗高于预设功耗上限值时,在功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最低的AI模型;在待执行的AI推理操作类型为需要运算量高于预设运算量的类型时,在功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最高的AI模型。
在一个实施例中,确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型,可以包括确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型中功耗最低或最高的AI模型。
在一个实施例中,确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型,可以包括确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型中功耗最低或最高的AI模型。
在一个实施例中,功耗阈值可以由终端基于自身功耗能力确定,也可以由终端基于自身功耗能力和当前终端功耗水平确定。例如终端每隔预设时间段重新确定功耗阈值,从而可以提高功耗阈值与终端当前所能支持功耗水平的匹配程度。
在一个实施例中,终端获取基站确定的与终端功耗能力匹配的AI模型时,功耗阈值可以由终端确定并发送给基站,或者,也可以根据终端和基站预先设定的协议确定。
如此,通过终端功耗能力匹配得到AI模型供终端进行业务处理,可以提高AI模型的功耗水平与终端功耗能力的适配性,减少终端功耗能力无法支持较为复杂的AI模型。通过AI模型匹配终端支持的功耗水平,提高终端利用AI模型执行业务处理的流畅性,从而减少终端由于AI模型功耗过高中断业务进程导致的业务处理失败。
如图3所示,本公开实施例提供一种AI模型的确定方法,由终端执行,可包括:
S310:终端自行确定与终端功耗能力匹配的AI模型;
或者,
S320:接收基站根据终端功耗能力确定的AI模型的模型信息。
在本公开实施例中,终端自行确定与终端功耗能力匹配的AI模型,可以为终端基于终端功耗能力选择匹配的AI模型,或者,也可以为终端接收基站下发的与终端功耗能力匹配的多个备选AI模型的指示信息,并自行在该多个备选AI模型中选择与功耗能力匹配的AI模型等,或是,还可以根据通信协议确定与终端功耗能力匹配的AI模型。
在一个实施例中,接收基站下发的与终端功耗能力匹配的多个备选AI模型的指示信息,可以包括:接收基站下发的与终端功耗能力匹配的AI模型的类型信息;类型信息可指示属于该类型的多个备选AI模型。
在一个实施例中,接收基站下发的与终端功耗能力匹配的多个备选AI模型的指示信息,可以包括:接收基站下发的与终端功耗能力匹配的多个备选AI模型的模型信息,例如模型参数或模型标识等。
在一个实施例中,终端基于终端功耗能力选择匹配的AI模型,可以包括终端基于终端功耗能力确定与功耗能力匹配的功耗水平的AI模型的模型标识;基于模型标识获取对应的AI模型。
在一个实施例中,基于模型标识获取对应的AI模型,可以为向基站、服务器或者模型库等发送模型标识,获取对应的AI模型。
在一个实施例中,接收基站根据终端功耗能力确定的AI模型的模型信息,可以为直接接收基站根据终端功耗能力提供的AI模型,或者,接收基站根据终端功耗能力下发的与功耗能力匹配AI模型的类型信息,或者,接收基站根据终端功耗能力发送的与功耗能力匹配的AI模型的模型参数或模型标识等。
其中,基站提供的AI模型的模型信息,可以为基站对根据终端功耗能力确定的AI模型进行训练后得到的AI模型的模型信息。
其中,模型参数可以包括AI模型的网络架构参数,例如模型包含的网络层数、各层网络的节点数以及超参数等。基于模型参数可以获取对应的经过训练或者未经训练的AI模型。
其中,模型标识可以包括AI模型的模型ID、模型类型或模型采用的算法标识等。所述方法还可包括:基于模型标识获取对应的AI模型。
在一个实施例中,直接接收基站根据终端功耗能力提供的AI模型后,终端可以直接基于接收到的AI模型执行AI推理操作。
在一个实施例中,基于模型标识获取对应的AI模型,可以包括向基站、模型库或者服务器等获取对应的AI模型。
在一个实施例中,接收基站根据终端功耗能力确定的AI模型的模型信息,可以为接收基站根据终端功耗能力确定的一个或多个AI模型的模型信息。
在一个实施例中,接收基站根据终端功耗能力确定的AI模型的模型信息后,所述方法还可包括:确定模型信息对应的AI模型是否与终端当前运行情况匹配,若匹配,则应用模型信息对应的AI模型。例如,确定接收的模型参数是否与终端当前运行参数匹配,或者,确定接收的模型标识是否与终端当前待执行的AI推理操作的业务类型匹配等。
如此,对于终端侧AI模型的选择决策行为可以由终端或基站完成,既提升了与终端功耗能力的匹配性,从而提升了AI模型选择的智能性,又可以实现终端与基站的协作能力,尤其在存在终端与基站间的AI协作时,可以提高AI模型选择决策行为的灵活性。
如图4所示,本公开实施例提供一种AI模型的确定方法,由终端执行,可包括:
S410:向基站发送指示终端功耗能力的能力信息;
S420:接收基站根据终端功耗能力确定的AI模型的模型信息;其中,模型信息,为基站根据能力信息发送的。
在本公开实施例中,终端向基站发送指示终端功耗能力的能力信息,可以为在检测到终端存在需要应用AI模型的待处理业务时,或者在接收到基站请求获取终端功耗能力的请求信息时,或者在终端能力上报命令中或定时上报的终端辅助信息中向基站发送指示终端功耗能力的能力信息。
在一个实施例中,向基站发送的指示终端功耗能力的能力信息,可以包括指示终端功耗能力的能力参数,例如终端中每1W功耗执行的浮点运算数FLOPs/W,或者每1mW功耗执行的浮点运算数FLOPs/mW等参数。
在一个实施例中,向基站发送的指示终端功耗能力的能力信息,还可以包括指示终端支持的AI模型功耗水平的功耗阈值。例如,功耗阈值可以用于供基站确定AI模型的功耗水平是否与终端匹配。
示例性的,终端向基站发送的能力信息包括能力参数和功耗阈值,能力参数用于供基站确定不同运算能力的AI模型对应的功耗参数,功耗阈值用于供基站确定与终端功耗能力匹配的功耗参数对应的AI模型。
在一个实施例中,功耗阈值可以由终端基于终端功耗能力和/或终端当前运行情况确定,或者,也可以根据终端和基站预先生成的协议确定。
在一个实施例中,对于终端与基站间不进行AI协作的场景,终端可以自行确定与终端功耗能力匹配的AI模型,或者,向基站发送指示终端功耗能力的能力信息并获取由基站确定的与能力信息匹配的AI模型的模型信息。
在一个实施例中,终端自行确定与终端功耗能力匹配的AI模型,可以包括:根据备选AI模型的运算能力和指示终端功耗能力的能力参数确定备选AI模型的功耗参数;根据功耗参数确定与终端功耗能力匹配的AI模型。其中,运算能力可以为AI模型的运算量,例如浮点运算数(FLOPs of AI model)。
示例性的,终端获取备选AI模型的浮点运算数(FLOPs of AI model),以及指示终端功耗能力的能力参数FLOPS/mW。根据公式FLOPs of AI model/(FLOPS/mW)计算得到备选AI模型的功耗参数。基于功耗参数与功耗阈值进行比对,确定功耗参数低于功耗阈值的AI模型,或者确定功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者确定功耗参数相对于功耗阈值的占比低于预设占比的AI模型。在确定得到的AI模型中可确定功耗参数最低的AI模型为与终端功耗能力匹配的AI模型。
在一个实施例中,根据功耗参数确定与终端功耗能力匹配的AI模型,可以包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型。其中,推理时延表征AI模型完成一次AI推理操作的耗时情况,例如指示完成AI推理操作的平均时延等。
在一个实施例中,根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型,可包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力以及终端当前运行情况匹配的AI模型。
在一个实施例中,根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型,可包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力以及终端当前待执行AI推理操作匹配的AI模型。
在一个实施例中,对于终端与基站间进行AI协作的场景,终端与基站需各自通过一个AI模型进行业务协作处理。其中,终端也可以自行确定与终端功耗能力匹配的AI模型,或者向基站发送指示功耗能力的能力信息后,接收基站指示的与终端功耗能力匹配的AI模型的模型信息。
示例性的,终端自行确定与终端功耗能力匹配的AI模型后,可以通过向基站发送该AI模型的模型信息,例如模型参数或模型标识,用于供基站确定对应的AI模型。
示例性的,向基站发送指示功耗能力的能力信息后,接收的基站指示的与终端功耗能力匹配的AI模型的模型信息,可以为基站生成与终端功耗能力匹配的AI模型后下发的该AI模型的模型信息。
在一个实施例中,接收基站根据终端功耗能力确定的AI模型的模型信息,也可以为接收基站基于前述终端采用的相似的方法,确定的与终端功耗能力匹配的AI模型的模型信息。
如此,终端向基站提供功耗能力信息,利于基站高效准确的获取终端的功耗能力,从而在AI协作等多种场景下,供终端和/或基站更加灵活智能地确定与终端功耗能力匹配的AI模型。
如图5所示,本公开实施例提供一种AI模型的确定方法,由终端执行,可包括:
S510:基站与终端进行AI协作,向基站发送指示终端功耗能力的能力信息;
S520:接收基站根据能力信息返回的与终端功耗能力匹配的AI模型的类型信息;
S530:从类型信息指示的AI模型的模型类型中,选择与终端功耗能力匹配的AI模型。
在本公开实施例中,基站与终端进行AI协作的场景下,终端可以获取基站指示的与终端功耗能力匹配的AI模型的类型。例如,接收的基站返回的类型信息可以指示属于对应的模型类型的多个AI模型,终端在属于该模型类型的多个AI模型中选择与终端功耗能力匹配的AI模型。
在一个实施例中,从类型信息指示的AI模型的模型类型中,选择与终端功耗能力匹配的AI模型,可以包括:从类型信息指示的模型类型对应的多个AI模型中,选择与终端功耗能力匹配的AI模型。
在一个实施例中,从类型信息指示的AI模型的模型类型中,选择与终端功耗能力匹配的AI模型,可以包括:从类型信息携带的属于同一模型类型的多个AI模型的模型标识中,选择与终端功耗能力匹配的AI模型。
在一个实施例中,选择与终端功耗能力匹配的AI模型,可以包括:选择功耗参数与终端功耗能力匹配的AI模型。其中,AI模型的功耗参数可以根据终端功耗能力及AI模型运算能力确定。例如,根据公式FLOPs of AI model/(FLOPS/mW)计算得到AI模型的功耗参数。
在一个实施例中,选择与终端功耗能力匹配的AI模型,可以包括:选择与终端功耗能力匹配且功耗参数最低的AI模型。
在一个实施例中,选择功耗参数与终端功耗能力匹配的AI模型,可以包括:选择功耗参数低于终端的功耗阈值的AI模型,或者选择功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者选择功耗参数相对于功耗阈值的占比低于预设占比的AI模型。
在一个实施例中,选择与终端功耗能力匹配的AI模型,可以包括:选择与终端功耗能力以及终端当前运行情况匹配的AI模型。例如,选择与终端功耗能力以及终端当前运行参数匹配的AI模型,或者,选择与终端当前待执行AI推理操作的业务类型匹配的AI模型等。
其中,终端当前运行参数,可以包括以下至少之一:终端当前资源占用率、终端当前功耗以及终端当前可用内存量等。
如此,当基站确定与终端功耗能力匹配的AI模型的类型时,终端可以基于基站确定的类型从对应的AI模型中进一步选择匹配的AI模型,从而进一步提升AI模型与终端功耗能力的匹配性,以及AI模型选择的灵活性。
如图6所示,本公开实施例提供一种AI模型的确定方法,由终端执行,可包括:
S610:根据终端功耗能力,在多个备选AI模型中选择与终端功耗能力匹配的AI模型;
S620:向基站发送AI模型的模型信息;模型信息,用于基站确定终端选择的AI模型。
在本公开实施例中,根据终端功耗能力在多个备选AI模型中选择的与终端功耗能力匹配的AI 模型,可以为功耗参数与终端功耗能力匹配的AI模型。其中,AI模型的功耗参数可以根据终端功耗能力及AI模型运算能力确定。例如,根据公式FLOPs of AI model/(FLOPS/mW)计算得到AI模型的功耗参数。
在一个实施例中,选择与终端功耗能力匹配的AI模型,可以包括:选择与终端功耗能力匹配且功耗参数最低的AI模型。
在一个实施例中,选择功耗参数与终端功耗能力匹配的AI模型,可以包括:选择功耗参数低于终端的功耗阈值的AI模型,或者选择功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者选择功耗参数相对于功耗阈值的占比低于预设占比的AI模型。
在一个实施例中,选择与终端功耗能力匹配的AI模型,可以包括:选择与终端功耗能力以及终端当前运行情况匹配的AI模型。例如,选择与终端功耗能力以及终端当前运行参数匹配的AI模型,或者,选择与终端当前待执行AI推理操作的业务类型匹配的AI模型等。
其中,终端当前运行参数,可以包括以下至少之一:终端当前资源占用率、终端当前功耗以及终端当前可用内存量等。这里,终端当前功耗,可以为终端当前剩余电量或者终端当前耗电速度等。
在一个实施例中,向基站发送AI模型的模型信息,可以包括:向基站发送AI模型的模型参数和/或模型标识。其中,模型参数可用于供基站生成对应的AI模型,模型标识可用于供基站获取对应的AI模型。
在一些实施例中,向基站发送AI模型的模型信息,可包括:
基站与终端进行AI协作,向基站发送AI模型的模型信息。
如此,在基站与终端进行AI协作时,例如终端与基站需要分别确定一个AI模型用于AI协作。向基站发送的AI模型的模型信息可以供基站确定终端基于终端功耗能力选择的AI模型,从而减少基站重复进行AI模型选择决策行为产生的时间浪费,提升AI模型选择的灵活性和效率。
如图7所示,本公开实施例提供一种AI模型的确定方法,由终端执行,可包括:
S710:基站与终端进行AI协作且终端自行确定与终端功耗能力匹配的AI模型,向基站发送指示终端功耗能力的能力信息,其中,能力信息,用于基站确定与终端功耗能力匹配的AI模型。
在本公开实施例中,终端与基站进行AI协作时,终端与基站分别自行确定与终端功耗能力匹配的AI模型作为本侧使用的AI模型。因此,终端基于功耗能力确定匹配的AI模型,且将终端功耗能力的能力信息发送给基站,供基站确定与终端功耗能力匹配的AI模型。
在一个实施例中,向基站发送的指示终端功耗能力的能力信息,可以包括指示终端功耗能力的能力参数,例如终端中每1W功耗执行的浮点运算数FLOPs/W,或者每1mW功耗执行的浮点运算数FLOPs/mW等参数。
在一个实施例中,向基站发送的指示终端功耗能力的能力信息,还可以包括指示终端支持的AI模型功耗水平的功耗阈值。例如,功耗阈值可以用于供基站确定AI模型的功耗水平是否与终端匹配。
示例性的,终端向基站发送的能力信息包括能力参数和功耗阈值,能力参数用于供基站确定不 同运算能力的AI模型对应的功耗参数,功耗阈值用于供基站确定与终端功耗能力匹配的功耗参数对应的AI模型。
在一个实施例中,功耗阈值可以由终端基于终端功耗能力和/或终端当前运行情况确定,或者,也可以根据终端和基站预先生成的协议确定。
在一个实施例中,将指示终端功耗能力的能力信息发送给基站之后,所述方法还可包括:接收基站基于能力信息确定的与终端功耗能力匹配的AI模型的模型信息;若模型信息与终端自行确定的AI模型不一致,则向基站发送异常提示信息。其中,异常提示信息用于指示基站重新确定AI模型。
如此,在终端与基站AI协作的场景下,终端和基站可以分别基于终端的功耗能力确定匹配的AI模型,从而在提升AI协作时基站与终端选择AI模型的灵活性的同时,提升对AI模型选择的容错率,进而提升AI模型选择的准确性。
在一些实施例中,向基站发送指示终端功耗能力的能力信息,包括:
确定终端功耗能力对应的数值范围;
根据数值范围与功耗能力标识的对应关系,确定终端的功耗能力标识;
向基站发送功耗能力标识。
在本公开实施例中,确定终端功耗能力对应的数值范围,可以为确定终端功耗能力对应的能力参数的数值范围,例如终端中每1W功耗执行的浮点运算数FLOPs/W,或者每1mW功耗执行的浮点运算数FLOPs/mW等对应的数值范围。
在一个实施例中,数值范围与功耗能力标识的对应关系,可以包括不同数值范围对应不同的功耗能力标识,且不同的数值范围之间没有交集。
示例性的,能力参数FLOPs/mW的数值范围为[A,B),对应的功耗能力标识可以为Capability 1,代表第一类功耗能力。能力参数FLOPs/mW的数值范围为[B,C),对应的功耗能力标识可以为Capability 2,代表第二类功耗能力。能力参数FLOPs/mW的数值范围为[C,D),对应的功耗能力标识可以为Capability 3,代表第三类功耗能力。能力参数FLOPs/mW的数值范围为[D,F),对应的功耗能力标识可以为Capability 4,代表第四类功耗能力。
其中,A<B<C<D<F。
在一个实施例中,若终端能力参数不属于预设的数值范围,则向基站上报“不支持AI能力”的指令,用以指示终端不进行AI模型的确定。
在一个实施例中,向基站发送功耗能力标识,可以包括:向基站发送功耗能力标识对应的信令。例如,Capability 1对应的信令可以为00,Capability 2对应的信令可以为01,Capability 3对应的信令可以为10,Capability 4对应的信令可以为11等。
如此,可以简化向基站发送的信息,通过功耗能力标识或者信令表征终端功耗参数的数值范围,从而利于基站更快速地确定终端功耗能力,进而提升确定匹配终端功耗能力的AI模型的效率。
在一些实施例中,向基站发送的所述能力信息,通过以下至少一种信令方式携带:
终端能力信息(User Equipment capability,UE capability);
终端辅助信息(UE assistance information);
上行控制信息(Uplink Control Information,UCI);
媒体访问控制控制单元(Medium Access Control-Control Element,MAC-CE);
无线资源控制(Radio Resource Control,RRC)。
如图8所示,本公开实施例提供一种AI模型的确定方法,由基站执行,可包括:
S810:确定与终端功耗能力匹配的AI模型,其中,功耗能力用于表征终端在单位功耗下的运算能力,或,功耗能力用于表征终端在单位运算量下的功耗;AI模型至少用于终端执行AI推理操作。
在本公开实施例中,基站用于确定与终端功耗能力匹配的AI模型,例如在基站与终端进行AI协作场景下,基站还可以用于训练生成确定的与终端能力匹配的AI模型,从而与终端应用的AI模型协作处理业务。基站还可以由网络侧用于与终端交互进行AI协作的其他对象代替。
在一个实施例中,根据待执行的AI推理操作对应的业务类型,AI模型的类型可以包括分析类AI模型、视觉类AI模型、文本类AI模型和交互类AI模型等。
在一个实施例中,AI推理操作可以包括终端与基站之间AI协作场景下的AI推理操作,例如,终端与基站之间AI协作可以包括CSI压缩传输业务处理。其中,终端可通过一个AI模型执行CSI的压缩业务,压缩后的CSI用于上报给基站,基站可通过一个AI模型执行CSI的解压缩等。
在终端与基站AI协作的场景下,基站可以根据终端发送的指示功耗能力的能力信息确定与功耗能力的匹配的AI模型,在终端不进行AI模型的确定时基站可以将确定的AI模型指示给终端,在终端自行确定匹配的AI模型时基站可以不向终端指示基站确定的AI模型,也可以向终端指示基站确定的AI模型用以确定基站和终端确定的AI模型是否一致。
其中,终端与基站之间进行AI协作,终端采用的AI模型与基站采用的AI模型可以为相同的模型,也可以为不同的模型。例如,终端确定的与功耗能力匹配的AI模型,可以与基站确定的与终端功耗能力匹配的AI模型相同,或者与基站确定的与终端功耗能力匹配的AI模型具备相同的输入输出关系。
在一个实施例中,终端与基站之间进行AI协作,终端使用的AI模型在训练过程中使用的训练集可以与基站使用的AI模型训练过程使用的训练集相同。
在一个实施例中,具备相同的输入输出关系,可以为两个AI模型的输入相同时输出也相同。例如,两个AI模型具备相同的超参数和/或具备相同的网络层数或网络节点数等。
在一个实施例中,具备相同的输入输出关系,还可以为两个AI模型的输入数据或输出数据的维度与长度也是相同的。
在一个实施例中,AI推理操作还可以包括终端与基站之间不进行AI协作场景下的AI推理操作,例如终端与基站之间不进行AI协作,可以包括基于DMRS的信道估计。其中,终端基于AI模型进行信道估计,并检测基于信道接收到的数据。
在终端与基站不进行AI协作的场景下,基站不应用AI模型执行推理操作,可以仅用于确定与 终端功耗能力匹配的AI模型。例如,基站获取终端的功耗能力,并将与功耗能力匹配的AI模型指示给终端。
在一个实施例中,终端与基站之间不进行AI协作时,基站也可以向终端提供终端自行确定的AI模型,例如,终端自行确定与功耗能力匹配的AI模型的模型标识,基站基于该模型标识向终端提供对应的AI模型。
在一个实施例中,所述方法还可包括:将确定的与终端功耗能力匹配的AI模型指示给终端,可以包括基站将确定的与终端功耗能力匹配的AI模型的模型参数等模型信息发送给终端,该模型信息用于终端生成及训练对应的AI模型。
其中,模型参数可以包括AI模型的网络架构参数,例如模型包含的网络层数、各层网络的节点数以及超参数等。
在一个实施例中,将确定的与终端功耗能力匹配的AI模型指示给终端,可以包括向终端发送与终端功耗能力匹配且经过训练的AI模型的模型参数。例如,基站将生成并训练后的与终端功耗能力匹配的AI模型的模型参数发送给终端;该模型参数用于终端获得训练后的AI模型。
在一个实施例中,将确定的与终端功耗能力匹配的AI模型指示给终端,可以包括将确定的与终端功耗能力匹配的AI模型的模型标识发送给终端,该模型标识用于终端获取对应的AI模型,例如用于向模型库或者服务器等获取对应的AI模型。
在一个实施例中,与终端功耗能力匹配的AI模型,可以为AI模型的功耗水平与终端功耗能力匹配。例如,根据终端功耗能力确定终端在单位功耗下的运算能力,则根据终端单位功耗下的运算能力以及AI模型的运算能力可以确定AI模型应用于终端所产生的功耗,进而可以确定功耗与终端功耗能力匹配的AI模型。
在一个实施例中,确定功耗与终端功耗能力匹配的AI模型,可以包括确定功耗与终端功耗能力对应的功耗阈值匹配的AI模型。例如,可以包括确定功耗低于终端功耗能力对应的功耗阈值的AI模型,或者,确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者,确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型。
其中,功耗阈值可以指示终端所能支持的AI模型功耗水平,例如,功耗阈值可以为终端功耗能力对应的功耗最大值或者功耗平均值等。
在一个实施例中,预设值可以指示AI模型的功耗所需低于功耗阈值的数值水平,例如1W、3W或10W等。预设占比可以指示AI模型的功耗所需低于的最大功耗水平,例如90%、80%或者50%等。
在一个实施例中,确定功耗低于终端功耗能力对应的功耗阈值的AI模型,可以包括确定功耗低于终端功耗能力对应的功耗阈值的AI模型中功耗最低或最高的AI模型。
在一个实施例中,确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型,可以包括确定功耗低于终端功耗能力对应的功耗阈值且与功耗阈值的差值大于预设值的AI模型中功耗最低或最高的AI模型。
在一个实施例中,确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型,可以包括确定功耗相对于终端功耗能力对应的功耗阈值的占比低于预设占比的AI模型中功耗最低或最高的AI模型。
在一个实施例中,功耗阈值可以由终端基于自身功耗能力确定,也可以由终端基于自身功耗能力和当前终端功耗水平确定。例如功耗阈值由终端每隔预设时间段重新确定并发送给基站,从而可以提高功耗阈值与终端当前所能支持功耗水平的匹配程度。
在一个实施例中,功耗阈值可以向终端获取,或者也可以根据终端和基站预先设定的协议确定。
如此,通过终端功耗能力匹配得到AI模型供终端进行业务处理,可以提高AI模型的功耗水平与终端功耗能力的适配性,减少终端功耗能力无法支持较为复杂的AI模型。通过AI模型匹配终端支持的功耗水平,提高终端利用AI模型执行业务处理的流畅性,从而减少终端由于AI模型功耗过高中断业务进程导致的业务处理失败。
如图9所示,本公开实施例提供一种AI模型的确定方法,由基站执行,可包括:
S910:接收终端确定的与终端功耗能力匹配的AI模型的模型信息;
S920:根据模型信息确定模型信息对应的AI模型。
在本公开实施例中,接收的终端确定的AI模型的模型信息,可以包括AI模型的模型参数和/或模型标识等,其中,模型参数可用于供基站生成对应的AI模型,模型标识可用于供基站获取对应的AI模型。
在一个实施例中,步骤S910可包括:在终端与基站进行AI协作的场景下,接收终端确定的与终端功耗能力匹配的AI模型的模型信息。在此场景下,基站无需自行确定与终端功耗能力匹配的AI模型,可通过接收终端确定的AI模型的模型信息,确定对应的AI模型并在基站侧进行训练。
在一个实施例中,所述方法还可包括:训练从终端接收的模型信息对应的AI模型。其中,基站用于训练AI模型的训练数据集可以与终端训练终端确定的AI模型的训练数据集相同。
在一些实施例中,步骤S810,可包括:
接收指示终端功耗能力的能力信息;
根据能力信息确定与终端功耗能力匹配的AI模型。
在本公开实施例中,接收的指示终端功耗能力的能力信息,可以为在检测到终端存在需要应用AI模型的待处理业务时接收到终端发送的指示终端功耗能力的能力信息,或者向终端发出请求获取终端功耗能力的请求信息后接收到终端发送的指示终端功耗能力的能力信息,或者在终端能力上报命令中或定时上报的终端辅助信息中检测到终端发送的指示终端功耗能力的能力信息。
在一个实施例中,指示终端功耗能力的能力信息,可以包括指示终端功耗能力的能力参数,例如终端中每1W功耗执行的浮点运算数FLOPs/W,或者每1mW功耗执行的浮点运算数FLOPs/mW等参数。
在一个实施例中,指示终端功耗能力的能力信息,还可以包括指示终端支持的AI模型功耗水平 的功耗阈值。例如,功耗阈值可以用于供基站确定AI模型的功耗水平是否与终端匹配。
示例性的,基站接收的能力信息包括能力参数和功耗阈值,能力参数用于确定不同运算能力的AI模型对应的功耗参数,功耗阈值用于确定与终端功耗能力匹配的功耗参数对应的AI模型。
在一个实施例中,功耗阈值可以由终端基于终端功耗能力和/或终端当前运行情况确定,或者,也可以根据终端和基站预先生成的协议确定。
在一个实施例中,对于终端与基站间不进行AI协作的场景,基站可以接收指示终端功耗能力的能力信息,并将确定的与能力信息匹配的AI模型的模型信息或类型信息指示给终端。
在一个实施例中,根据能力信息确定与终端功耗能力匹配的AI模型,可以包括:根据能力参数和备选AI模型的运算能力,确定备选AI模型的功耗参数;根据功耗参数确定与终端功耗能力匹配的AI模型。其中,运算能力可以为AI模型的运算量,例如浮点运算数(FLOPs of AI model)。
示例性的,获取备选AI模型的浮点运算数(FLOPs of AI model),以及指示终端功耗能力的能力参数FLOPs/mW。根据公式FLOPs of AI model/(FLOPS/mW)计算得到备选AI模型的功耗参数。基于功耗参数与功耗阈值进行比对,确定功耗参数低于功耗阈值的AI模型,或者确定功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者确定功耗参数相对于功耗阈值的占比低于预设占比的AI模型。在确定得到的AI模型中可确定功耗参数最低的AI模型为与终端功耗能力匹配的AI模型。
在一个实施例中,根据功耗参数确定与终端功耗能力匹配的AI模型,可以包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型。其中,推理时延表征AI模型完成一次AI推理操作的耗时情况,例如指示完成AI推理操作的平均时延等。
在一个实施例中,根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型,可包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力以及终端当前运行情况匹配的AI模型。
在一个实施例中,根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力匹配的AI模型,可包括:根据备选AI模型的功耗参数以及推理时延、准确度等参数,确定与终端功耗能力以及终端当前待执行AI推理操作匹配的AI模型。
在一个实施例中,对于终端与基站间进行AI协作的场景,终端与基站需各自通过一个AI模型进行业务协作处理。其中,基站可以基于接收到的指示功耗能力的能力信息,向终端发送与终端功耗能力匹配的AI模型的模型信息或类型信息。
如此,基站获取终端提供的功耗能力信息,利于基站高效准确的获取终端的功耗能力,从而在AI协作等多种场景下,供终端和/或基站更加灵活智能地确定与终端功耗能力匹配的AI模型。
在一些实施例中,所述方法还包括:
向终端发送AI模型的模型信息。
在一些实施例中,接收指示终端功耗能力的能力信息,可包括:
基站与终端进行AI协作,接收指示终端功耗能力的能力信息;
所述方法还可包括:
根据能力信息确定与终端功耗能力匹配的AI模型的类型信息;
向终端发送所述类型信息。
在本公开实施例中,基站与终端进行AI协作的场景下,可以向终端指示与终端功耗能力匹配的AI模型的类型。例如,类型信息可以指示属于对应的模型类型的多个AI模型,用于供终端在属于该模型类型的多个AI模型中选择与终端功耗能力匹配的AI模型。
在一个实施例中,类型信息可以指示一个或多个模型类型。
在一个实施例中,类型信息可以指示属于一个或多个模型类型的多个AI模型的模型标识。
在一个实施例中,根据能力信息确定与终端功耗能力匹配的AI模型的类型信息,可以包括:根据能力信息确定AI模型的功耗参数;选择功耗参数与终端功耗能力匹配的AI模型。其中,AI模型的功耗参数可以根据终端功耗能力及AI模型运算能力确定。例如,根据公式FLOPs of AI model/(FLOPS/mW)计算得到AI模型的功耗参数。
在一个实施例中,根据能力信息确定与终端功耗能力匹配的AI模型的类型信息,可以包括:根据能力信息确定AI模型的功耗参数;选择功耗参数低于终端的功耗阈值的AI模型,或者选择功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者选择功耗参数相对于功耗阈值的占比低于预设占比的AI模型。
如此,当基站确定与终端功耗能力匹配的AI模型的类型时,终端可以基于基站确定的类型从对应的AI模型中进一步选择匹配的AI模型,从而进一步提升AI模型与终端功耗能力的匹配性,以及AI模型选择的灵活性。
在一些实施例中,根据能力信息确定与终端功耗能力匹配的AI模型,包括:
根据能力信息,在多个备选AI模型中选择与终端功耗能力匹配的AI模型。
在本公开实施例中,根据能力信息在多个备选AI模型中选择的与终端功耗能力匹配的AI模型,可以为功耗参数与终端功耗能力匹配的AI模型。其中,AI模型的功耗参数可以根据终端功耗能力及AI模型运算能力确定。例如,根据公式FLOPs of AI model/(FLOPS/mW)计算得到AI模型的功耗参数。
在一个实施例中,在多个备选AI模型中选择与终端功耗能力匹配的AI模型,可以包括:在多个备选AI模型中选择与终端功耗能力匹配且功耗参数最低的AI模型。
在一个实施例中,在多个备选AI模型中选择的与终端功耗能力匹配的AI模型,可以包括:在多个备选AI模型中,选择功耗参数低于终端的功耗阈值的AI模型,或者选择功耗参数低于功耗阈值且与功耗阈值的差值大于预设值的AI模型,或者选择功耗参数相对于功耗阈值的占比低于预设占比的AI模型。
在一个实施例中,在多个备选AI模型中选择的与终端功耗能力匹配的AI模型,可以包括:在 多个备选AI模型中,选择与终端功耗能力以及终端当前运行情况匹配的AI模型。例如,选择与终端功耗能力以及终端当前运行参数匹配的AI模型,或者,选择与终端当前待执行AI推理操作的业务类型匹配的AI模型等。
其中,终端当前运行参数,可以包括以下至少之一:终端当前资源占用率、终端当前功耗以及终端当前可用内存量等。
在一些实施例中,根据能力信息确定与终端功耗能力匹配的AI模型,包括:
根据能力信息指示的功耗能力标识以及功耗能力标识与功耗能力数值范围的对应关系,确定终端功耗能力对应的数值范围;
确定与数值范围对应的下限值、中值或上限值匹配的AI模型。
在本公开实施例中,接收到的能力信息,可以为指示终端功耗能力对应的数值范围的功耗能力标识。例如,功耗能力标识指示终端中每1W功耗执行的浮点运算数FLOPs/W,或者每1mW功耗执行的浮点运算数FLOPs/mW等对应的数值范围。
在一个实施例中,数值范围与功耗能力标识的对应关系,可以包括不同数值范围对应不同的功耗能力标识,且不同的数值范围之间没有交集。
示例性的,能力参数FLOPs/mW的数值范围为[A,B),对应的功耗能力标识可以为Capability 1,代表第一类功耗能力。能力参数FLOPs/mW的数值范围为[B,C),对应的功耗能力标识可以为Capability 2,代表第二类功耗能力。能力参数FLOPs/mW的数值范围为[C,D),对应的功耗能力标识可以为Capability 3,代表第三类功耗能力。能力参数FLOPs/mW的数值范围为[D,F),对应的功耗能力标识可以为Capability 4,代表第四类功耗能力。
在一个实施例中,若基站接收到的功耗能力标识指示终端不支持AI能力,则确定终端能力参数不属于预设的数值范围。此时,基站不确定与终端功耗能力匹配的AI模型。
在一个实施例中,功耗能力标识可以通过预设信令指示,例如,Capability 1对应的预设信令可以为00,Capability 2对应的预设信令可以为01,Capability 3对应的预设信令可以为10,Capability 4对应的预设信令可以为11等。
基站可以根据预设信令与功耗能力信息对应的数值范围的对应关系,确定终端功耗能力对应的数值范围。
在一个实施例中,确定与数值范围对应的下限值、中值或上限值匹配的AI模型,可以为根据数值范围对应的下限值、中值或上限值作为指示终端功耗能力的能力参数,用于确定匹配的AI模型。
示例性的,数值范围为[A,B)时,可以确定终端能力参数FLOPS/mW为A、B或者(A+B)/2,用于根据公式FLOPs of AI model/(FLOPS/mW)计算得到AI模型的功耗参数,进而确定功耗参数与终端功耗能力匹配的AI模型。
如此,可以简化基站从终端接收的信息,通过功耗能力标识或者信令表征终端能力参数的数值范围,从而利于更快速地确定终端功耗能力,减少数据交互量,进而提升确定匹配终端功耗能力的 AI模型的效率。
在一些实施例中,接收的能力信息,通过以下至少一种信令方式携带:
终端能力信息;
终端辅助信息;
上行控制信息UCI;
媒体访问控制控制单元MAC-CE;
无线资源控制RRC。
本公开实施例提供一种基于终端功耗能力的AI模型选择方案,具体可如下:
场景1:对于基站侧下发和/或部署AI模型的场景,方案可包括:
步骤1:终端能力上报
终端上报具体的功耗硬件能力,如上报每1W功耗的浮点运算数FLOPs/W或每1mW功耗的浮点运算数FLOPs/mW等。例如,可以通过终端能力信息、终端辅助信息、MAC-CE、UCI或RRC等信令方式进行上报。
步骤2:基站侧计算执行一次AI模型推理所需要的功耗,并根据该功耗做出是否进行模型下发以及下发哪种AI模型等决策。
作为一种实现方式,基站可以通过下述公式计算不同AI模型的功耗:FLOPs of AI model/(FLOPS/mW),其中,FLOPs of AI model为AI模型的浮点运算数。综合AI模型功耗以及AI模型的推理时延、AI模型的准确度等判断具体采用哪种AI模型。此外,若全部AI模型的功耗均较大,比如大于一定功耗阈值,则可采用传统的方法进行无线接入网(Radio Access Network,RAN)侧的传输。
示例性的,由于该功耗阈值主要影响终端的能耗,因此该功耗阈值还可由协议进行规定以约束基站侧行为。
场景2:对于基站侧与终端侧进行AI协作的场景(如CSI压缩),可能存在下述模型部署方式:终端侧与基站侧均自行使用相同的数据集进行模型训练与部署。对于该场景,方案可包括如下几种方式:
方式一:基站侧与终端侧均自行根据终端的硬件功耗能力进行AI模型的确定或CSI上报方法的确定等。
步骤1:终端能力上报:终端上报具体的功耗硬件能力,如FLOPs/W或FLOPs/mW等。例如,可以通过终端能力信息、终端辅助信息、MAC-CE、UCI或RRC等信令进行上报。
步骤2:基站侧与终端侧均计算执行一次AI模型推理所需要的功耗,并根据该功耗做出是否启用AI模型以及启用哪种AI模型等决策。
作为一种实现方式,基站与终端侧可以通过下述公式计算不同AI模型的功耗:FLOPs of AI model/(FLOPS/mW)。综合不同AI模型功耗之间的比较,判断具体采用哪种AI模型。此外,若全部AI模型的功耗均较大,比如大于一定功耗阈值,则采用传统方法。
示例性的,由于该功耗阈值主要影响到终端的能耗,因此该功耗阈值还可由协议进行规定以约束基站侧行为;此外,该功耗阈值还可以由终端自行上报给基站。
方式二:终端侧根据自身的硬件功耗能力和AI复杂度判断具体使用哪种AI模型,并将AI模型信息指示给基站。
步骤1:终端侧根据自身的硬件功耗能力与不同AI模型的复杂度,计算执行一次AI模型推理所需要的功耗,并根据该功耗做出是否启用AI模型,以及启用哪种AI模型等决策。
作为一种实现方式,终端侧可以通过下述公式计算不同AI模型的功耗:FLOPs of AI model/(FLOPS/mW)。综合不同AI模型的功耗比较判断具体采用哪种AI模型。此外,若全部AI模型的功耗均较大,比如大于一定功耗阈值,则采用传统方法。
示例性的,上述功耗阈值可以由协议规定或终端自行决定。
步骤2:终端将选择的AI模型类型,上报给基站,基站侧采用该AI类型进行AI模型的训练与生成。
具体地,可以通过终端能力信息、终端辅助信息、MAC-CE、UCI或RRC等信令方式进行上报。
作为一种实现方式,对所有可能的方式的AI模型采用基站与终端双方共同约定的方式进行编号,以简化上报信令;或者双方采用一种简化的模型表示方式,进行模型上报。
方式三:基站侧根据终端的硬件功耗能力进行AI模型的确定,并将确定的模型类型再次下发给终端。
步骤1:终端能力上报:终端上报具体的功耗硬件能力,如FLOPs/W或FLOPs/mW等。例如可以通过终端能力信息、终端辅助信息、MAC-CE、UCI或RRC等信令进行上报。
步骤2:基站侧计算执行一次AI模型推理所需要的功耗,并根据该功耗做出是否启用AI模型以及启用哪种AI模型等决策。
作为一种实现方式,比如基站与终端侧可以通过下述公式计算不同AI模型的功耗:FLOPs of AI model/(FLOPS/mW)。综合不同AI模型功耗之间的比较,判断具体采用哪种AI模型。此外,若全部AI模型的功耗均较大,比如大于一定功耗阈值,则采用传统方法。
示例性的,由于该功耗阈值主要影响到终端的能耗,因此该功耗阈值还可由协议进行规定以约束基站侧行为。此外,该功耗阈值还可以由终端自行上报给基站。
步骤3:基站侧向终端指示所选择的终端类型等信息。
在一个实施例中,考虑到不同的终端的硬件功耗能力不同,为了简化上报信令开销,可以通过功耗能力标识对硬件的功耗能力进行量化,一种可能的量化方式如下表所示:
量化后的功耗能力 终端实际功耗能力 上报信令
Capability 1 [A,B)FLOPs/mW 00
Capability 2 [B,C)FLOPs/mW 01
Capability 3 [C,D)FLOPs/mW 10
Capability 4 [D,F)FLOPs/mW 11
表1
其中,Capability 1代表第一类功耗能力,对应功耗能力FLOPs/mW的数值范围为[A,B);Capability 2代表第二类功耗能力,对应功耗能力FLOPs/mW的数值范围为[B,C);Capability 3代表第三类功耗能力,对应功耗能力FLOPs/mW的数值范围为[C,D);Capability 4代表第四类功耗能力,对应功耗能力FLOPs/mW的数值范围为[D,F)。
在一个实施例中,对于不满足上述任一区间的终端功耗能力,可以通过“不支持AI能力”的指示隐式上报给基站。
另外,对于量化后的功耗能力上报,基站在进行AI模型功耗的实际计算时,可以使用对应实际功耗能力区间的最小取值、最大取值或中间值进行计算。
如图10所示,本公开实施例提供一种AI模型的确定装置,应用于终端,可包括:
第一确定单元110,用于确定与终端功耗能力匹配的AI模型,其中,功耗能力用于表征终端在单位功耗下的运算能力,或,功耗能力用于表征终端在单位运算量下的功耗;AI模型至少用于终端执行AI推理操作。
在一些实施例中,所述第一确定单元110,具体被配置为:
终端自行确定与终端功耗能力匹配的AI模型;
或者,
接收基站根据终端功耗能力确定的AI模型的模型信息。
在一些实施例中,所述装置还包括:
第一发送单元,被配置为向基站发送指示终端功耗能力的能力信息;其中,模型信息,为基站根据能力信息发送的。
在一些实施例中,所述装置还包括:
第二发送单元,被配置为基站与终端进行AI协作,向基站发送指示终端功耗能力的能力信息;
接收单元,被配置为接收基站根据能力信息返回的与终端功耗能力匹配的AI模型的类型信息;
所述第一确定单元110,具体被配置为:
从类型信息指示的AI模型的模型类型中,选择与终端功耗能力匹配的AI模型。
在一些实施例中,所述第一确定单元110,具体被配置为:
根据终端功耗能力,在多个备选AI模型中选择与终端功耗能力匹配的AI模型;
所述装置还包括:
第三发送单元,被配置为向基站发送AI模型的模型信息;模型信息,用于基站确定终端选择的AI模型。
在一些实施例中,所述第三发送单元,具体被配置为:
基站与终端进行AI协作,向基站发送AI模型的模型信息。
在一些实施例中,所述第一确定单元110,具体被配置为:
基站与终端进行AI协作且终端自行确定与终端功耗能力匹配的AI模型,向基站发送指示终端功耗能力的能力信息,其中,能力信息,用于基站确定与终端功耗能力匹配的AI模型。
在一些实施例中,所述第一发送单元或第二发送单元,具体被配置为:
确定终端功耗能力对应的数值范围;
根据数值范围与功耗能力标识的对应关系,确定终端的功耗能力标识;
向基站发送功耗能力标识。
如图11所示,本公开实施例提供一种AI模型的确定装置,应用于基站,可包括:
第二确定单元210,被配置为确定与终端功耗能力匹配的AI模型,其中,功耗能力用于表征终端在单位功耗下的运算能力,或,功耗能力用于表征终端在单位运算量下的功耗;AI模型至少用于终端执行AI推理操作。
在一些实施例中,所述第二确定单元210,具体被配置为:
接收终端确定的与终端功耗能力匹配的AI模型的模型信息;
根据模型信息确定模型信息对应的AI模型。
在一些实施例中,所述第二确定单元210,具体被配置为:
接收指示终端功耗能力的能力信息;
根据能力信息确定与终端功耗能力匹配的AI模型。
在一些实施例中,所述装置还包括:
第四发送单元,被配置为向终端发送AI模型的模型信息。
在一些实施例中,所述第二确定单元210,具体被配置为:
基站与终端进行AI协作,接收指示终端功耗能力的能力信息;
所述装置还包括:
第五发送单元,被配置为根据能力信息确定与终端功耗能力匹配的AI模型的类型信息;向终端发送类型信息。
在一些实施例中,所述第二确定单元210,具体被配置为:
根据能力信息,在多个备选AI模型中选择与终端功耗能力匹配的AI模型。
在一些实施例中,所述第二确定单元210,具体被配置为:
根据能力信息指示的功耗能力标识以及功耗能力标识与功耗能力数值范围的对应关系,确定终端功耗能力对应的数值范围;
确定与数值范围对应的下限值、中值或上限值匹配的AI模型。
本公开实施例提供一种通信设备,包括:
用于存储处理器可执行指令的存储器;
处理器,分别存储器连接;
其中,处理器被配置为执行前述任意技术方案提供的AI模型的确定方法。
处理器可包括各种类型的存储介质,该存储介质为非临时性计算机存储介质,在通信设备掉电之后能够继续记忆存储其上的信息。
这里,所述通信设备包括:终端或者网元。
所述处理器可以通过总线等与存储器连接,用于读取存储器上存储的可执行程序,例如,如图2至图9所示的方法的至少其中之一。
图12是根据一示例性实施例示出的一种终端800的框图。例如,终端800可以是移动电话,计算机,数字广播用户设备,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图12,终端800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制终端800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以生成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在终端800的操作。这些数据的示例包括用于在终端800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为终端800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为终端800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述终端800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当终端800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC), 当终端800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为终端800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为终端800的显示器和小键盘,传感器组件814还可以检测终端800或终端800一个组件的位置改变,用户与终端800接触的存在或不存在,终端800方位或加速/减速和终端800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于终端800和其他设备之间有线或无线方式的通信。终端800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,终端800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由终端800的处理器820执行以生成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
如图13所示,本公开一实施例示出一种通信设备900的结构。例如,通信设备900可以被提供为一网络侧设备。该通信设备900可为前述基站。
参照图13,通信设备900包括处理组件922,其进一步包括一个或多个处理器,以及由存储器932所代表的存储器资源,用于存储可由处理组件922的执行的指令,例如应用程序。存储器932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件922被配置为执行指令,以执行上述方法前述应用在所述基站执行的任意方法,例如,如图2至图9所示的方法的至少其中之一。
通信设备900还可以包括一个电源组件926被配置为执行通信设备900的电源管理,一个有线或无线网络接口950被配置为将通信设备900连接到网络,和一个输入输出(I/O)接口958。通信 设备900可以操作基于存储在存储器932的操作系统,例如Windows Server TM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本公开旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (21)

  1. 一种人工智能AI模型的确定方法,其中,由终端执行,所述方法包括:
    确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
  2. 根据权利要求1所述的方法,其中,所述确定与终端功耗能力匹配的AI模型,包括:
    终端自行确定与所述终端功耗能力匹配的AI模型;
    或者,
    接收基站根据所述终端功耗能力确定的AI模型的模型信息。
  3. 根据权利要求2所述的方法,其中,所述方法还包括:
    向所述基站发送指示所述终端功耗能力的能力信息;其中,所述模型信息,为所述基站根据所述能力信息发送的。
  4. 根据权利要求2所述的方法,其中,所述方法还包括:
    所述基站与所述终端进行AI协作,向所述基站发送指示所述终端功耗能力的能力信息;
    接收所述基站根据所述能力信息返回的与所述终端功耗能力匹配的AI模型的类型信息;
    所述终端自行确定与所述与终端功耗能力匹配的AI模型,包括:
    从所述类型信息指示的AI模型的模型类型中,选择与所述终端功耗能力匹配的AI模型。
  5. 根据权利要求2所述的方法,其中,所述终端自行确定与所述与终端功耗能力匹配的AI模型,包括:
    根据所述终端功耗能力,在多个备选AI模型中选择与所述终端功耗能力匹配的AI模型;
    所述方法还包括:
    向所述基站发送所述AI模型的模型信息;所述模型信息,用于所述基站确定所述终端选择的所述AI模型。
  6. 根据权利要求5所述的方法,其中,所述向所述基站发送所述AI模型的模型信息,包括:
    所述基站与所述终端进行AI协作,向所述基站发送所述AI模型的模型信息。
  7. 根据权利要求2所述的方法,其中,所述方法还包括:
    所述基站与所述终端进行AI协作且所述终端自行确定与所述终端功耗能力匹配的AI模型,向基站发送指示所述终端功耗能力的能力信息,其中,所述能力信息,用于所述基站确定与终端功耗能力匹配的AI模型。
  8. 根据权利要求3或4所述的方法,其中,所述向所述基站发送指示所述终端功耗能力的能力信息,包括:
    确定所述终端功耗能力对应的数值范围;
    根据所述数值范围与功耗能力标识的对应关系,确定所述终端的功耗能力标识;
    向所述基站发送所述功耗能力标识。
  9. 根据权利要求3或4所述的方法,其中,向所述基站发送的所述能力信息,通过以下至少一种信令方式携带:
    终端能力信息;
    终端辅助信息;
    上行控制信息UCI;
    媒体访问控制控制单元MAC-CE;
    无线资源控制RRC。
  10. 一种AI模型的确定方法,其中,由基站执行,所述方法包括:
    确定与终端功耗能力匹配的AI模型,其中,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
  11. 根据权利要求10所述的方法,其中,所述确定与终端功耗能力匹配的AI模型,包括:
    接收终端确定的与所述终端功耗能力匹配的AI模型的模型信息;
    根据所述模型信息确定所述模型信息对应的AI模型。
  12. 根据权利要求10所述的方法,其中,所述确定与终端功耗能力匹配的AI模型,包括:
    接收指示终端功耗能力的能力信息;
    根据所述能力信息确定与所述终端功耗能力匹配的AI模型。
  13. 根据权利要求12所述的方法,其中,所述方法还包括:
    向所述终端发送所述AI模型的模型信息。
  14. 根据权利要求12所述的方法,其中,所述接收指示所述终端功耗能力的能力信息,包括:
    所述基站与所述终端进行AI协作,接收指示所述终端功耗能力的能力信息;
    所述方法还包括:
    根据所述能力信息确定与所述终端功耗能力匹配的AI模型的类型信息;
    向所述终端发送所述类型信息。
  15. 根据权利要求12所述的方法,其中,所述根据所述能力信息确定与所述终端功耗能力匹配的AI模型,包括:
    根据所述能力信息,在多个备选AI模型中选择与所述终端功耗能力匹配的AI模型。
  16. 根据权利要求12所述的方法,其中,所述根据所述能力信息确定与所述终端功耗能力匹配的AI模型,包括:
    根据所述能力信息指示的功耗能力标识以及功耗能力标识与功耗能力数值范围的对应关系,确定所述终端功耗能力对应的数值范围;
    确定与所述数值范围对应的下限值、中值或上限值匹配的AI模型。
  17. 根据权利要求12所述的方法,其中,接收的所述能力信息,通过以下至少一种信令方式携 带:
    终端能力信息;
    终端辅助信息;
    上行控制信息UCI;
    媒体访问控制控制单元MAC-CE;
    无线资源控制RRC。
  18. 一种AI模型的确定装置,其中,应用于终端,所述装置包括:
    第一确定单元,被配置为确定与终端功耗能力匹配的AI模型,其其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
  19. 一种AI模型的确定装置,其中,应用于基站,所述装置包括:
    第二确定单元,被配置为确定与终端功耗能力匹配的AI模型,其中,所述功耗能力用于表征所述终端在单位功耗下的运算能力,或,所述功耗能力用于表征所述终端在单位运算量下的功耗;所述AI模型至少用于所述终端执行AI推理操作。
  20. 一种通信设备,包括处理器、存储器及存储在存储器上并能够由所述处理器运行的可执行程序,其中,所述处理器运行所述可执行程序时执行如权利要求1至9或10至17任一项提供的方法。
  21. 一种计算机存储介质,所述计算机存储介质存储有可执行程序;所述可执行程序被处理器执行后,能够实现如权利要求1至9或10至17任一项提供的方法。
CN202280002058.2A 2022-06-01 2022-06-01 人工智能模型的确定方法及装置、通信设备及存储介质 Pending CN117501777A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/096704 WO2023230969A1 (zh) 2022-06-01 2022-06-01 人工智能模型的确定方法及装置、通信设备及存储介质

Publications (1)

Publication Number Publication Date
CN117501777A true CN117501777A (zh) 2024-02-02

Family

ID=89026787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280002058.2A Pending CN117501777A (zh) 2022-06-01 2022-06-01 人工智能模型的确定方法及装置、通信设备及存储介质

Country Status (2)

Country Link
CN (1) CN117501777A (zh)
WO (1) WO2023230969A1 (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108243216B (zh) * 2016-12-26 2020-02-14 华为技术有限公司 数据处理的方法、端侧设备、云侧设备与端云协同系统
WO2020042112A1 (zh) * 2018-08-30 2020-03-05 华为技术有限公司 一种终端对ai任务支持能力的评测方法及终端
CN111047045B (zh) * 2018-10-12 2021-03-19 中科寒武纪科技股份有限公司 机器学习运算的分配系统及方法
CN112329909B (zh) * 2019-08-05 2022-10-21 杭州海康威视数字技术股份有限公司 生成神经网络模型的方法、装置及存储介质
EP4135438A4 (en) * 2020-04-10 2023-06-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. RESOURCE ALLOCATION METHOD, DEVICE, APPARATUS AND RECORDING MEDIUM
CN113747462B (zh) * 2020-05-30 2024-07-19 华为技术有限公司 一种信息处理方法及相关设备
EP4167645A4 (en) * 2020-06-10 2024-03-06 Beijing Xiaomi Mobile Software Co., Ltd. ACCESS METHOD, ACCESS DEVICE AND STORAGE MEDIUM
CN114064280B (zh) * 2021-11-20 2024-08-02 东南大学 一种多约束下的端边协同推断方法

Also Published As

Publication number Publication date
WO2023230969A1 (zh) 2023-12-07

Similar Documents

Publication Publication Date Title
CN112005565B (zh) 用户设备辅助信息的上报方法及装置、用户设备、存储介质
CN111837425A (zh) 一种接入方法、接入装置及存储介质
CN112823544B (zh) 条件切换的方法、装置、通信设备及存储介质
WO2023173262A1 (zh) 信息处理方法及装置、通信设备及存储介质
US20230262665A1 (en) Method and apparatus for determining resource, and storage medium
CN112385267B (zh) Ue的目标小区确定方法、装置、通信设备及存储介质
CN115349232B (zh) 信道状态信息的处理方法及装置、通信设备及存储介质
CN111919500B (zh) 用户直连通信方法及装置、用户设备、存储介质
US20230133309A1 (en) Network data collection method
CN114374962A (zh) 自组网的通信方法、终端、车辆及存储介质
CN114631105A (zh) 无线通信方法及装置、通信设备及存储介质
CN117501777A (zh) 人工智能模型的确定方法及装置、通信设备及存储介质
EP4340300A1 (en) Model inference method, model inference apparatus, and storage medium
CN112954774B (zh) Wi-Fi网络的识别方法、装置、电子设备和存储介质
EP4373154A1 (en) Communication processing method and apparatus, communication device, and storage medium
US20230308967A1 (en) Information transmission method, communication device, and storage medium
CN115280827A (zh) 空口处理方法及装置、存储介质
CN110100478A (zh) 网络配置方法、网络测量方法及装置
CN114189867A (zh) 基于基站的资源处理方法、装置及设备
WO2024207360A1 (zh) 信息处理方法、系统及装置、通信设备及存储介质
WO2024207364A1 (zh) 量化值确定方法、装置及存储介质
WO2024182960A1 (zh) 业务预测方法、装置及存储介质
WO2023130442A1 (zh) 测量方法、装置、通信设备及存储介质
CN115022965A (zh) 小区定位方法、装置、电子设备及存储介质
CN116097714A (zh) 确定bfd放松状态的方法、装置、通信设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination