CN116156526A - 一种人工智能ai通信方法及装置 - Google Patents

一种人工智能ai通信方法及装置 Download PDF

Info

Publication number
CN116156526A
CN116156526A CN202111464756.8A CN202111464756A CN116156526A CN 116156526 A CN116156526 A CN 116156526A CN 202111464756 A CN202111464756 A CN 202111464756A CN 116156526 A CN116156526 A CN 116156526A
Authority
CN
China
Prior art keywords
model
information
terminal device
models
network device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111464756.8A
Other languages
English (en)
Inventor
王四海
秦城
杨锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to PCT/CN2022/131952 priority Critical patent/WO2023088241A1/zh
Publication of CN116156526A publication Critical patent/CN116156526A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0619Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
    • H04B7/0621Feedback content
    • H04B7/0626Channel coefficients, e.g. channel state information [CSI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提供一种人工智能AI通信方法,应用于通信系统中进行通信的任意两个设备,该方法包括:第一设备接收第二设备发送的AI模型信息,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;第一设备向所述第二设备发送反馈信息。这样,第一设备能够通过第二设备发送的AI模型信息评估第一设备的AI能力和AI模型的匹配情况,可以提高第一设备评估结果的简便性、高效性和准确度。

Description

一种人工智能AI通信方法及装置
本申请要求于2021年11月16日提交国家知识产权局、申请号为202111357588.2、申请名称为“一种AI能力表示方法和装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及通信技术领域,尤其涉及一种人工智能AI通信方法及装置。
背景技术
人工智能(artificial intelligence,AI)技术是计算机科学的一个分支,贯穿在计算机发展的历史过程中,是信息科技业界的一个重要的发展方向。随着通信技术的发展,越来越多的应用将通过AI实现智能化。目前,无线通信系统引入AI技术,可能会逐步使用AI模块代替无线通信系统中的功能模块。无线通信系统引入AI技术后,一种可能的工作模式是,网络设备将AI模型发送给终端设备,终端设备从网络设备接收AI模型并应用AI模型进行无线通信。
不同的终端设备的AI能力存在差异,因此,网络设备下发的AI模型可能无法被终端设备执行,这样就会导致无法应用AI模型进行无线通信。
发明内容
本申请提供一种人工智能AI通信方法及装置,以期更好地在无线通信系统中应用AI技术。
第一方面,本申请提供了一种AI通信方法,该方法可以由第一设备执行,其中,第一设备可以是终端设备,或者通信系统中AI模型的接收方。该方法可以通过以下步骤实现:第一设备接收第二设备发送的AI模型信息,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;第一设备向第二设备发送反馈信息。
本实现方式中,通过第二设备向第一设备发送AI模型信息,第一设备能够对AI模型与第一设备的AI能力的匹配情况进行评估,保证第一设备和第二设备使用AI模型进行通信的可行性。
在一个可能的设计中,该反馈信息是AI模型信息的响应信息。
在一个可能的设计中,该反馈信息请求第二设备启动AI通信模式;或者该反馈信息包括M个AI模型中至少一个AI模型的评估结果;或者该反馈信息请求获取M个AI模型中的至少一个AI模型。
在一个可能的设计中,第一设备向第二设备发送反馈信息之后,第一设备接收第二设备发送的配置信息,其中,该配置信息指示第一设备启动AI通信模式,或者该配置信息指示M个AI模型中的至少一个AI模型,或者该配置信息指示M个AI模型中的至少一个AI模型的配置参数,或者该配置信息指示M个AI模型中的至少一个AI模型的获取方法。
在一个可能的设计中,该至少一个AI模型包括第一AI模型,第一AI模型的评估结果包括第一AI模型与第一设备是否匹配,或第一AI模型的评估结果包括第一设备执行第一AI模型的预期时间和/或能耗。
在一个可能的设计中,第一设备接收第二设备发送的AI模型信息之前,第一设备向第二设备发送请求信息,该请求信息用于请求第二设备向第一设备发送AI模型信息。
在一个可能的设计中,M个AI模型包括第一AI模型,N个参考AI执行环境包括第一参考AI执行环境,第一AI模型在第一参考AI执行环境中的执行时间为第一时间数值、第一时间等级或第一时间范围,第一AI模型在第一参考执行环境中的执行能耗为第一能耗数值、第一能耗等级或第一能耗范围。
在一个可能的设计中,M个AI模型包括第一AI模型,M组AI模型复杂度信息包括第一AI模型对应的第一组AI模型复杂度信息,该第一组AI模型复杂度信息包括以下一种或多种:第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数量;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数值精度;第一AI模型的权值的数值精度;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时的运算精度。
在一个可能的设计中,该AI模型信息包括第一设备用于执行M个AI模型中的每个AI模型的时间上限值。
第二方面,本申请提供了一种AI通信方法,该方法可以由第二设备执行,其中,第二设备可以是网络设备,或者通信系统中AI模型的发送方。该方法可以通过以下步骤实现:第二设备获取AI模型信息,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;第二设备向第一设备发送该AI模型信息。
在一个可能的设计中,第二设备向第一设备发送AI模型信息之后,第二设备接收第一设备发送的反馈信息,其中,该反馈信息请求第二设备启动AI通信模式;或者该反馈信息包括M个AI模型中至少一个AI模型的评估结果;或者该反馈信息请求获取M个AI模型中的至少一个AI模型。
在一个可能的设计中,该反馈信息是AI模型信息的响应信息。
在一个可能的设计中,第二设备接收第一设备发送的反馈信息之后,第二设备向第一设备发送配置信息,其中,该配置信息指示第一设备启动AI通信模式,或者该配置信息指示M个AI模型中的至少一个AI模型,或者该配置信息指示M个AI模型中的至少一个AI模型的配置参数,或者该配置信息指示M个AI模型中的至少一个AI模型的获取方法。
在一个可能的设计中,该至少一个AI模型包括第一AI模型,第一AI模型的评估结果包括第一AI模型与所述第一设备是否匹配,或第一AI模型的评估结果包括第一设备执行第一AI模型的预期时间和/或能耗。
在一个可能的设计中,第二设备向第一设备发送AI模型信息之前,第二设备接收第一设备发送的请求信息,该请求信息用于请求第二设备向第一设备发送AI模型信息。
在一个可能的设计中,第二设备向第一设备发送AI模型信息,包括:第二设备周期性向第一设备发送AI模型信息;或者第一设备接入第二设备所在的网络时,第二设备向第一设备发送AI模型信息;或者第一设备与第二设备建立通信连接时,第二设备向第一设备发送AI模型信息;或者M个AI模型的结构或计算量发生改变时,第二设备向第一设备发送AI模型信息。
在一个可能的设计中,M个AI模型包括第一AI模型,N个参考AI执行环境包括第一参考AI执行环境,第一AI模型在第一参考AI执行环境中的执行时间为第一时间数值、第一时间等级或第一时间范围,第一AI模型在第一参考执行环境中的执行能耗为第一能耗数值、第一能耗等级或第一能耗范围。
在一个可能的设计中,M个AI模型包括第一AI模型,M组AI模型复杂度信息包括第一AI模型对应的第一组AI模型复杂度信息,该第一组AI模型复杂度信息包括以下一种或多种:第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数量;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数值精度;第一AI模型的权值的数值精度;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时的运算精度。
在一个可能的设计中,该AI模型信息包括第一设备用于执行M个AI模型中的每个AI模型的时间上限值。
第二方面及各个可能的设计的有益效果可以参考第一方面相关的描述,在此不予赘述。
第三方面,本申请提供了一种AI通信方法,该方法可以由第一设备执行,其中,第一设备可以是终端设备,或者通信系统中AI模型的接收方。该方法可以通过以下步骤实现:第一设备获取AI能力信息,该AI能力信息包括第一设备与至少一个参考AI执行环境中每个参考AI执行环境的相似度;第一设备向第二设备发送该AI能力信息。
本实现方式中,第一设备向第二设备发送AI能力信息,第二设备能够对AI模型和第一设备的AI能力的匹配情况进行评估,保证第一设备和第二设备使用AI模型进行通信的可行性。
在一个可能的设计中,第一设备向第二设备发送AI能力信息之后,第一设备接收第二设备发送的配置信息,其中,该配置信息指示第一设备启动AI通信模式,或者该配置信息指示至少一个AI模型,或者该配置信息指示至少一个AI模型的配置参数,或者该配置信息指示至少一个AI模型的获取方法。
在一个可能的设计中,该配置信息是AI能力信息的响应信息。
在一个可能的设计中,第一设备向第二设备发送AI能力信息之前,第一设备接收来自第二设备的请求信息,该请求信息用于请求第一设备向第二设备发送AI能力信息。
在一个可能的设计中,第一设备向第二设备发送AI能力信息,包括:第一设备周期性向所述第二设备发送AI能力信息;或者第一设备接入第二设备所在的网络时,第一设备向第二设备发送AI能力信息;或者第一设备与第二设备建立通信连接时,第一设备向第二设备发送AI能力信息;或者第一设备用于执行AI模型的计算资源改变时,第一设备向第二设备发送所述AI能力信息。
在一个可能的设计中,相似度信息包括第一设备与至少一个参考AI执行环境中每个参考AI执行环境的算力相似度和/或能耗相似度。
在一个可能的设计中,AI能力信息包括以下一种或多种:第一设备用于执行AI模型的时间上限值;第一设备用于执行AI模型的能耗上限值;第一设备用于执行AI模型的资源使用情况。
第四方面,本申请提供了一种AI通信方法,该方法可以由第二设备执行,其中,第二设备可以是网络设备,或者通信系统中AI模型的发送方。该方法可以通过以下步骤实现:第二设备接收第一设备发送的AI能力信息,该AI能力信息包括第一设备与至少一个参考AI执行环境中每个参考AI执行环境的相似度。
在一个可能的设计中,第二设备接收第一设备发送的AI能力信息之后,第二设备向第一设备发送配置信息,其中,该配置信息指示第一设备启动AI通信模式,或者该配置信息指示至少一个AI模型,或者该配置信息指示至少一个AI模型的配置参数,或者该配置信息指示至少一个AI模型的获取方法。
在一个可能的设计中,该配置信息指示至少一个AI模型,或该配置信息指示至少一个AI模型的配置参数,或该配置信息指示至少一个AI模型的获取方法时,第二设备向第一设备发送配置信息之前,第二设备还根据AI能力信息确定至少一个AI模型。
在一个可能的设计中,该配置信息是AI能力信息的响应信息。
在一个可能的设计中,第二设备接收第一设备发送的AI能力信息之前,第二设备向第一设备发送请求信息,该请求信息用于请求第一设备向第二设备发送AI能力信息。
在一个可能的设计中,相似度信息包括第一设备与至少一个参考AI执行环境中每个参考AI执行环境的算力相似度和/或能耗相似度。
在一个可能的设计中,AI能力信息包括以下一种或多种:第一设备用于执行AI模型的时间上限值;第一设备用于执行AI模型的能耗上限值;第一设备用于执行AI模型的资源使用情况。
第四方面及各个可能的设计的有益效果可以参考第三方面相关的描述,在此不予赘述。
第五方面,本申请还提供了一种通信装置,所述通信装置可以是终端设备,或者所述通信装置可以是通信系统中的接收端设备,该通信装置具有实现上述第一方面或第三方面中任一方面的第一设备的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述通信装置的结构中包括收发单元和处理单元,这些单元可以执行上述第一方面或第三方面中任一方面的第一设备的相应功能,具体参见方法示例中的详细描述,此处不做赘述。
在一个可能的设计中,所述通信装置的结构中包括收发器和处理器,可选的还包括存储器,所述收发器用于收发数据,以及用于与通信系统中的其他设备进行通信交互,所述处理器被配置为支持所述通信装置执行上述第一方面或第三方面中任一方面的第一设备的相应的功能。所述存储器与所述处理器耦合,其保存所述通信装置必要的程序指令和数据。
第六方面,本申请还提供了一种通信装置,所述通信装置可以是网络设备,或者所述通信装置可以是通信系统中的发送端设备,该通信装置具有实现上述第二方面或第四方面中任一方面的第二设备的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述通信装置的结构中包括收发单元和处理单元,这些单元可以执行上述第二方面或第四方面中任一方面的第二设备的相应功能,具体参见方法示例中的详细描述,此处不做赘述。
在一个可能的设计中,所述通信装置的结构中包括收发器和处理器,可选的还包括存储器,所述收发器用于收发数据,以及用于与通信系统中的其他设备进行通信交互,所述处理器被配置为支持所述通信装置执行上述第二方面或第四方面中任一方面的第二设备的相应的功能。所述存储器与所述处理器耦合,其保存所述通信装置必要的程序指令和数据。
第七方面,本申请实施例提供了一种通信系统,可以包括上述提及的第一设备和第二设备。
第八方面,本申请实施例提供的一种计算机可读存储介质,该计算机可读存储介质存储有程序指令,当程序指令在计算机上运行时,使得计算机执行上述第一方面至第四方面中任一方面及其任一可能的设计中的方法。示例性的,计算机可读存储介质可以是计算机能够存取的任何可用介质。以此为例但不限于:计算机可读介质可以包括非瞬态计算机可读介质、随机存取存储器(random-access memory,RAM)、只读存储器(read-onlymemory,ROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)、CD-ROM或其他光盘存储、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质。
第九方面,本申请实施例提供一种包括计算机程序代码或指令的计算机程序产品,当其在计算机上运行时,使得计算机实现上述第一方面至第四方面中任一方面及其任一可能的设计中的方法。
第十方面,本申请还提供了一种芯片,包括处理器,所述处理器与存储器耦合,用于读取并执行所述存储器中存储的程序指令,以使所述芯片实现上述第一方面至第四方面中任一方面及其任一可能的设计中的方法。
上述第五方面至第十方面中的各个方面以及各个方面可能达到的技术效果请参照上述针对第一方面至第四方面中的各种可能方案可以达到的技术效果说明,这里不再重复赘述。
附图说明
图1为本申请提供的一种通信系统的架构示意图;
图2为本申请实施例中网络设备与终端设备利用AI模型进行无线通信的过程示意图;
图3为本申请实施例中AI通信方法流程示意图之一;
图4为本申请实施例中终端设备进行AI能力和AI模型匹配度评估的流程示意图之一;
图5为本申请实施例中AI执行环境相似度定义的示意图;
图6为本申请实施例中AI通信方法流程示意图之二;
图7为本申请实施例中网络设备进行AI能力和AI模型匹配度评估的流程示意图;
图8为本申请实施例中终端设备进行AI能力和AI模型匹配度评估的流程示意图之二;
图9为本申请实施例中AI模型相似度定义的示意图;
图10为本申请实施例中参考AI执行环境列表的架构图及维护与同步流程示意图;
图11为本申请实施例中参考AI执行环境列表的维护与同步的流程示意图;
图12为本申请实施例中通信装置结构示意图之一;
图13为本申请实施例中通信装置结构示意图之二。
具体实施方式
下面将结合附图,对本申请中的技术方案作进一步地详细描述。
本申请提供的技术方案可以应用于各种通信系统,例如:第五代(5thgeneration,5G)或新无线(new radio,NR)系统、长期演进(long term evolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time divisionduplex,TDD)系统等。本申请提供的技术方案还可以应用于未来的通信系统,如第六代移动通信系统。本申请提供的技术方案还可以应用于设备到设备(device to device,D2D)通信,车到万物(vehicle-to-everything,V2X)通信,机器到机器(machine to machine,M2M)通信,机器类型通信(machine type communication,MTC),以及物联网(internet ofthings,IoT)通信系统或者其他通信系统。
本申请实施例提供一种人工智能AI通信方法及装置。其中,本申请所述方法和装置基于同一技术构思,由于方法及装置解决问题的原理相似,因此装置与方法的实施可以相互参见,重复之处不再赘述。
在本申请的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
在本申请的描述中,“至少一个(种)”是指一个(种)或者多个(种),多个(种)是指两个(种)或者两个(种)以上。
在本申请的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。为了更加清晰地描述本申请实施例的技术方案,下面结合附图,对本申请实施例提供的下行调度方法及装置进行详细说明。
图1示出了适用于本申请实施例的无线通信系统的示意图。如图1所示,该无线通信系统可以包括至少一个网络设备,例如图1所示的网络设备111、网络设备112,该无线通信系统还可以包括至少一个终端设备,例如图1所示的终端设备121、终端设备122、终端设备123、终端设备124、终端设备125、终端设备126、终端设备127。网络设备和终端设备均可配置多个天线,网络设备与终端设备可使用多天线技术通信。
其中,网络设备和终端设备通信时,网络设备可以管理一个或多个小区,一个小区中可以有整数个终端设备。需要说明的是,小区可以理解为网络设备的无线信号覆盖范围内的区域。
本申请可以用于网络设备和终端设备之间通信的场景,如网络设备111与终端设备121、终端设备122、终端设备123之间可以通信;又如网络设备111和网络设备112可以与终端设备124通信。本申请还可以用于终端设备和终端设备之间通信的场景,如终端设备122可以与终端设备125通信。本申请还可以用于网络设备与网络设备之间通信的场景,如网络设备111可以与网络设备112通信。
应理解,图1仅为便于理解而示例的简化示意图,本申请并未限定于此。本申请实施例可以适用于发送端设备和接收端设备通信的任何通信场景。
本申请实施例中的终端设备也可以称为用户设备(user equipment,UE)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置。
终端设备可以是一种向用户提供语音/数据的设备,例如,具有无线连接功能的手持式设备、车载设备等。目前,一些终端的举例为:手机(mobile phone)、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,MID)、可穿戴设备,虚拟现实(virtual reality,VR)设备、增强现实(augmented reality,AR)设备、工业控制(industrial control)中的无线终端、无人驾驶(self-driving)中的无线终端、远程手术(remote medical surgery)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端、蜂窝电话、无绳电话、会话启动协议(session initiationprotocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、可穿戴设备,5G网络中的终端设备或者未来演进的公用陆地移动通信网络(public land mobile network,PLMN)中的终端设备等,本申请实施例对此并不限定。
作为示例而非限定,在本申请实施例中,该终端设备还可以是可穿戴设备。可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
本申请实施例中,用于实现终端设备的功能的装置可以是终端设备,也可以是能够支持终端设备实现该功能的装置,例如芯片系统或芯片,该装置可以被安装在终端设备中。本申请实施例中,芯片系统可以由芯片构成,也可以包括芯片和其他分立器件。
本申请实施例中的网络设备可以是用于与终端设备通信的设备,该网络设备也可以称为接入网设备或无线接入网设备,如网络设备可以是基站。本申请实施例中的网络设备可以是指将终端设备接入到无线网络的无线接入网(radio access network,RAN)节点(或设备)。基站可以广义的覆盖如下中的各种名称,或与如下名称进行替换,比如:节点B(NodeB)、演进型基站(evolved NodeB,eNB)、下一代基站(next generation NodeB,gNB)、中继站、接入点、传输点(transmitting and receiving point,TRP)、发射点(transmitting point,TP)、主站、辅站、多制式无线(motor slide retainer,MSR)节点、家庭基站、网络控制器、接入节点、无线节点、接入点(AP)、传输节点、收发节点、基带单元(BBU)、射频拉远单元(remote radio unit,RRU)、有源天线单元(active antenna unit,AAU)、射频头(remote radio head,RRH)、中心单元(central unit,CU)、分布式单元(distributed unit,DU)、定位节点等。基站可以是宏基站、微基站、中继节点、施主节点或类似物,或其组合。基站还可以指用于设置于前述设备或装置内的通信模块、调制解调器或芯片。基站还可以是移动交换中心以及D2D、V2X、M2M通信中承担基站功能的设备、6G网络中的网络侧设备、未来的通信系统中承担基站功能的设备等。基站可以支持相同或不同接入技术的网络。本申请的实施例对网络设备所采用的具体技术和具体设备形态不做限定。
基站可以是固定的,也可以是移动的。例如,直升机或无人机可以被配置成充当移动基站,一个或多个小区可以根据该移动基站的位置移动。在其他示例中,直升机或无人机可以被配置成用作与另一基站通信的设备。
在一些部署中,本申请实施例所提及的网络设备可以为包括CU、或DU、或包括CU和DU的设备、或者控制面CU节点(控制面的中央单元(central unit-control plane,CU-CP))和用户面CU节点(用户面的中央单元(central unit-user plane,CU-UP))以及DU节点的设备。
网络设备和终端设备可以部署在陆地上,包括室内或室外、手持或车载;也可以部署在水面上;还可以部署在空中的飞机、气球和卫星上。本申请实施例中对网络设备和终端设备所处的场景不做限定。
人工智能AI技术可以与无线空口相结合以提升无线网络性能。例如,基于AI的信道估计和信号检测。其中,信号检测可以是从无线信道中把所接收到的含干扰噪声的信号提取出来的过程;信道估计是从接收到的信号中将假定的某个信道模型的模型参数估计出来的过程。又例如,基于AI的端到端的通信链路设计。再例如,基于AI的信道状态信息(channel state information,CSI)反馈方案,即通过神经网络对CSI进行编码并反馈给网络设备。
以基于AI的信道状态信息(channel state information,CSI)反馈方案为例,介绍网络设备与终端设备利用AI模型进行无线通信的过程。如图2中(a)所示,网络设备中可以部署有AI编码器和对应的AI解码器。网络设备可以向终端设备发送或下发AI编码器,或指示终端设备获取AI编码器,以便后续终端设备使用AI编码器进行CSI编码。如图2中(b)所示,终端设备可以使用该AI编码器对CSI进行编码,并将编码后的信息发送给网络设备。然后,网络设备可以使用AI解码器对终端设备编码后的信息进行解码,以得到恢复后的信息。需要说明的是,AI编码器也可以理解为用于信息编码的AI模型,AI解码器也可以理解为用于信息解码的AI模型。
AI模型多种多样,不同的应用场景中,可以采用不同的AI模型。常见的,AI模型可以基于神经网络(neural network)模型实现。神经网络模型是一种模仿人脑神经网络的行为特征,进行分布式并行信息处理的数学计算模型。一些复杂的神经网络模型可能包含的参数量或计算量很大,而终端设备的能力(例如计算能力、存储能力或能量)可能受限。因此,网络设备和终端设备之间进行AI通信之前,需要确保终端设备的AI能力能够支持执行(或称:运行、处理)网络设备发送的AI模型,例如,终端设备的存储能力能够容纳该AI模型、终端设备的计算能力能够支持该AI模型在要求的时间内完成计算、终端设备执行该AI模型的运行功耗(或称,能量功耗)在预期的可接受范围内。
通常,AI模型计算时延上限ti(即AI模型推理完成时间上限)是已知的,因此,一种方案中,可以通过比较终端设备的计算能力CUE和AI模型的计算复杂度CM来评估AI模型和终端设备AI能力的匹配情况,当CM/CUE+tth≤ti时,表示AI模型可以在要求的时延内完成计算,即AI模型复杂度和终端设备的计算能力相匹配,否则认为AI模型复杂度和终端设备的计算能力不匹配。其中,终端设备的计算能力CUE可以以每秒浮点运算次数(floating-pointoperations per second,FLOPS)为单位,AI模型的计算复杂度CM可以以浮点运算数(floating-point operations,FLOP)为单位,tth为可以提前配置的裕量。
然而,相同用途的AI模型的内部结构可能差异较大,在实际计算时,因为硬件计算率、数据调度时延等不同,不同结构的AI模型的计算效率可能大相径庭。另外,由于AI模型到硬件计算资源之间,需要大量的软件转换和优化,不同的软件转换和优化方法同样带来了不同的计算效率。除此之外,终端设备不同的AI计算硬件实现也可能会带来不同的AI模型计算效率。因此,上述AI模型结构设计、软件环境、硬件实现等因素均可能导致上百倍的计算效率偏差,仅通过配置裕量tth可能难以评估AI模型和终端设备AI能力的实际匹配情况。例如,tth过大可能浪费算力资源,tth过小则可能导致无法在时延上限内完成AI模型的执行;而且AI模型结构、软件环境、硬件实现等不同时,tth取值可能也是不同的。
另一种方案中,可以在匹配服务器上配置终端硬件信息,例如终端设备的模拟器。在获取到AI模型的详细信息和计算时延之后,匹配服务器可以获得精准的AI模型复杂度和终端设备AI能力的匹配情况的评估结果。然而,该方案需要引入匹配服务器和相应的交互协议,使得网络结构和交互流程复杂,同时增加了成本和评估时延。
基于此,本申请提出了一种AI通信方法及装置,可以实现AI模型复杂度和设备AI能力的匹配情况的评估,保证使用AI模型进行通信业务的可行性。
需要说明的是,本申请可以应用于通信系统中任意两个设备(第一设备和第二设备)进行通信的场景。其中,第一设备中可以有执行AI模型的执行(计算)环境、并准备从第二设备中获取AI模型并使用,第一设备的AI能力可以用于表示该执行环境,例如可以包括第一设备的算力、存储能力、或能量支持能力等。第二设备中可以有AI模型、并准备发送给第二设备使用。例如,第一设备为图1中的终端设备121、终端设备122、或终端设备123,第二设备为图1中的网络设备111;又例如,第一设备为图1中的终端设备122,第二设备为图1中的终端设备125;再例如,第一设备为图1中的网络设备111,第二设备为图1中的网络设备112。
下文示出的实施例中,仅为便于理解和说明,以网络设备与终端设备之间的交互为例,详细说明本申请实施例提供的方法。
下面结合附图详细介绍本申请实施例提供的方法及相关装置。需要说明的是,本申请实施例的展示顺序仅代表实施例的先后顺序,并不代表实施例所提供的技术方案的优劣。
基于以上描述,本申请实施例提供了一种AI通信方法,适用于图1所示的通信系统。如图3所示,该方法可以包括但不限于以下步骤:
S301:网络设备获取AI模型信息。其中,该AI模型信息可以指示M个AI模型中每个AI模型的复杂度信息。
示例性地,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,该M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间(或称:耗时)和/或能耗,其中,M和N为正整数。
例如,当M=3、N=5时,该AI模型复杂度信息包括3个AI模型(P1、P2和P3)对应的3组AI模型复杂度信息(第一组AI模型复杂度信息、第二组AI模型复杂度信息、第三组AI模型复杂度信息),其中,第一组AI模型复杂度信息为AI模型P1在5个参考AI执行环境中执行的时间和/或能耗,第二组AI模型复杂度信息为AI模型P2在5个参考AI执行环境中执行的时间和/或能耗,第三组AI模型复杂度信息为AI模型P3在5个参考AI执行环境中执行的时间和/或能耗。
具体地,该参考AI执行环境信息可以是提前标准化或者离线指定的,并向网络设备和终端设备公开。
其中,AI模型在参考AI执行环境中执行,可以替换描述为在参考AI执行环境中执行AI模型。AI模型在参考AI执行环境中执行,也可以理解为AI模型在参考AI执行环境中执行推理或训练操作。示例性地,AI模型可以为神经网络模型。其中,常见的神经网络模型例如ResNet系列、MobileNet系列、Transformer系列等。
可选地,AI模型在AI执行环境中执行的时间和/或能耗可以使用实际数值、近似数值、等级(例如:低/中/高、或1/2/3/4)、或者范围表示。具体地,上述M个AI模型可以包括第一AI模型,上述N个参考AI执行环境可以包括第一参考AI执行环境,该第一AI模型在第一参考AI执行环境中执行的时间可以为第一时间数值、第一时间等级或第一时间范围,该第一AI模型在第一参考AI执行环境执行的能耗可以为第一能耗数值、第一能耗等级或第一能耗范围。
一种可能的实现方式中,网络设备可以自己在参考AI环境中执行该M个AI模型,通过本地计算获取上述AI模型信息,可选地,该M个AI模型可以是网络设备预先存储的,或者该M个AI模型可以是网络设备从第三方设备获取的,或者该M个AI模型可以是网络设备生成的。另一种可能的实现方式中,网络设备可以从第三方设备或网络设备服务器中获取上述AI模型信息,可选地,网络设备不需要获取该M个AI模型。又一种可能的实现方式中,网络设备可以在出厂或软件升级时被配置获取上述AI模型信息,可选地,网络设备不需要获取该M个AI模型。
S302:网络设备向终端设备发送AI模型信息。相应地,终端设备接收网络设备发送的AI模型信息。
可选地,网络设备发送的AI模型信息可以包括网络设备(或第三方设备、或模拟器、或网络设备服务器)在N个参考AI执行环境中每个参考AI执行环境执行M个AI模型使用的输入数据的数量,可选的,也可以包括在每个参考AI执行环境执行M个AI模型中每个AI模型使用的输入数据的数量。其中,输入数据的数量也可以称为样本数量。通常进行模型训练时,一次执行一批(batch)样本,样本批量大小决定一次训练的样本数目,使用不同的数量的输入数据时会得到不同的计算效率。
神经网络可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入数据的运算单元,该运算单元的输出可以为:
Figure BDA0003390883070000101
其中,s=1、2、……n,n为自然数,Ws即为xs的权重,b为神经单元的偏置(也可以看作是一种权重)。输入数据和权值的数值精度会影响终端设备的计算效率。其中,数值精度例如可以是int8(8比特整型)、int16(16比特整型)、float16(16比特浮点型)等。数值精度也可以等效地表示为其中的乘法和加法运算精度,运算精度同样会影响终端设备的计算效率,运算精度例如可以是int8、int16、float16等。
可选地,网络设备发送的AI模型复杂度信息还可以包括以下至少一种:网络设备(或第三方设备、或模拟器、或网络设备服务器)在N个参考AI执行环境中每个参考AI执行环境执行M个AI模型使用的输入数据的数值精度;该M个AI模型各自的权值(或称权重、系数)的数值精度;该M个AI模型各自的总计算量;该M个AI模型各自的总层数;网络设备(或第三方设备、或模拟器、或网络设备服务器)在N个参考AI执行环境中每个参考AI执行环境执行M个AI模型的运算精度。
例如,M个AI模型可以包括第一AI模型P1,M组AI模型复杂度信息包括第一AI模型P1对应的第一组AI模型复杂度信息,该第一组AI模型复杂度信息包括以下一种或多种:第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数量;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数值精度;第一AI模型的权值的数值精度;第一AI模型在N个参考AI执行环境中每个参考AI环境执行时的运算精度。
不同的应用场景下,执行AI模型的时间预算信息有所差别。进一步地,上述AI模型信息还可以包括网络设备希望(或称期待、要求)终端设备执行完AI模型的时间上限值,也即终端设备需要在多长时间内执行完AI模型。可以理解地,时间上限值或称为时间上限、最大时间、或最大时间要求。
一种实现方式中,上述AI模型信息包括终端设备执行M个AI模型中每个AI模型的时间上限值,也就是说,网络设备分别为每个AI模型配置时间上限值。另一种实现方式中,M个AI模型中的至少一个AI模型可以使用(或称:共享)同一个时间上限值,也就是说,网络设备为M个AI模型中的至少一个AI模型配置同一个时间上限值。可选地,M个AI模型可以使用同一个时间上限值,此时,网络设备只需要配置一个时间上限值。
需要说明的是,上述AI模型信息中包括的信息可以在同一信令中,也可以包括在不同信令中。
当上述AI模型信息中包括的信息在同一信令中时,网络设备可以一次性将上述AI模型信息发送给终端设备,例如,网络设备向终端设备发送第一信息,该第一信息可以包括或指示上述AI模型信息,或该第一信息为上述AI模型信息。
当上述AI模型信息中包括的信息在不同信令中时,网络设备可以一次或多次将AI模型信息发送给网络设备。具体可以包括:
示例一:网络设备一次或多次将在参考AI执行环境中执行AI模型的时间和/或能耗、输入数据的数量、输入数据的精度等不同复杂度信息发送给终端设备。例如,网络设备向终端设备发送第一信息,该第一信息包括或指示在参考AI执行环境中执行AI模型的时间和/或能耗,网络设备向终端设备发送第二信息,该第二信息包括或指示在参考AI执行环境中执行AI模型使用的输入数据的数量,上述AI模型信息可以包括该第一信息和第二信息。
示例二:网络设备一次或多次将上述AI模型信息发送给终端设备。例如,网络设备向终端设备发送第一信息,该第一信息包括或指示在参考AI执行环境中执行AI模型的时间和/或能耗、输入数据的数量、输入数据的精度等复杂度信息,网络设备向终端设备发送第二信息,该第二信息包括或指示更新后的复杂度信息,上述AI模型可以包括该第一信息和第二信息。
S303:终端设备向网络设备发送反馈信息。相应地,网络设备接收终端设备发送的反馈信息。在一实施例中,该反馈信息是上述AI模型信息的响应信息。
示例性地,该反馈信息可以满足以下一项或多项:该反馈信息可以用于请求网络设备启动AI通信模式。或者,该反馈信息可以包括或指示M个AI模型中至少一个AI模型的评估结果。或者,该反馈信息可以用于请求获取M个AI模型中的至少一个AI模型。
例如:上述至少一个AI模型可以包括第一AI模型,该第一AI模型的评估结果可以包括或指示第一AI模型与终端设备是否匹配,或者,该第一AI模型的评估结果可以包括或指示终端设备执行第一AI模型的预期时间和/或能耗。可选地,当第一AI模型与终端设备的AI能力不匹配时,该第一AI模型的评估结果可以包括AI模型不匹配的原因等。
在一种实施方式中,如图3所示,在前述的步骤S303之后,也就是终端设备向网络设备发送反馈信息之后,该方法还包括:
S304:网络设备向终端设备发送配置信息。相应地,终端设备接收网络设备发送的配置信息。在一实施例中,该配置信息是上述反馈信息的响应信息。
具体地,该配置信息可以满足以下一项或多项:该配置信息可以指示终端设备启动AI通信模式,进一步地,终端设备和网络设备之间可以进行AI通信。或者,该配置信息可以指示上述M个AI模型中的至少一个AI模型,进一步地,终端设备和网络设备之间可以使用该至少一个AI模型进行AI通信。又或者,该配置信息可以指示上述M个AI模型中的至少一个AI模型的配置参数。再或者,该配置信息可以指示上述M个AI模型中的至少一个AI模型的获取方法,例如,该配置信息可以指示至少一个AI模型的下载地址或获取地址。其中,该至少一个AI模型是根据上述反馈信息确定的。
当配置信息指示至少一个AI模型的获取方法时,具体地,网络设备可以指示至少一个AI模型的下载地址或获取地址。如前所述,该M个AI模型可以是其他设备(例如:第三设备)中预先存储的,此时,网络设备可以指示终端设备从第三设备中获取该至少一个AI模型。
可以理解,网络设备接收终端设备发送的上述反馈信息后,也可以不做响应。
在一种实施方式中,网络设备向终端设备发送上述AI模型信息,具体触发方式可以包括:
方式1:在前述的步骤S302之前,也就是网络设备向终端设备发送AI模型信息之前,该方法还包括:终端设备向网络设备发送请求信息(或称查询信息),该请求信息用于请求网络设备向终端设备发送上述AI模型信息。
方式2:网络设备周期性地向终端设备发送上述AI模型信息。或者,网络设备按照预定义的时间间隔或者预定义的特定时间向终端设备发送上述AI模型信息。
方式3:当终端设备接入网络设备所在的网络时,网络设备向终端设备发送上述AI模型信息。其中,终端设备接入网络设备所在的网络时,也可以描述为终端设备接入网络设备所在的网络后、或终端设备接入网络设备所在的网络一定时间内。此外,终端设备接入网络设备所在的网络,也可以理解为,终端设备与网络设备建立通信连接。
方式4:当AI模型的结构或者计算量发生改变时,网络设备向终端设备发送AI模型信息。一种实现方式中,上述M个AI模型中至少一个AI模型的结构或者计算量发生改变时,网络设备可以向终端设备发送M个AI模型对应的AI模型复杂度信息。另一种实现方式中,当M个AI模型中的M1个AI模型的结构或者计算量发生改变时,网络设备可以向终端设备发送这M1个AI模型对应的AI模型复杂度信息,其中,M1为不大于M的正整数。网络设备仅对发生变化的AI模型复杂度信息发送给终端设备,可以节省信令开销。同上,AI模型的结构或者计算量发生改变时,也可以描述为AI模型的结构或者计算量发生变化后、或AI模型的结构或者计算量发生变化后一定时间内,此处不再赘述。
通过上述实施方式,网络设备向终端设备发送M个AI模型对应的M组AI模型复杂度信息后,终端设备可以评估确定该M个AI模型与终端设备的AI能力的匹配情况,可以提高评估结果的简便性、高效性和准确度,进而更好地进行AI通信。
上述实施例中,在前述的步骤S303之前,也就是终端设备向网络设备发送反馈信息之前,该方法还包括:终端设备根据步骤S302中收到的AI模型信息确定反馈信息。下面通过具体实施例示例性介绍一种终端设备对M个AI模型与终端设备的AI能力进行评估,进而确定反馈信息的方法。
图4示例性给出一种终端设备进行AI能力和AI模型匹配度评估的方法流程图。如图4所示,网络设备获取AI模型信息之前,可选的,步骤S401中,网络设备和终端设备可以获取参考AI执行环境信息。
如前文所述,该参考AI执行环境信息可以是提前标准化或者离线制定的,并向网络设备和终端设备公开。
示例性地,可以事先标准化或离线制定参考AI执行环境列表(或表格),其中,该参考AI执行环境列表可以包括K个参考AI执行环境的名称或编号或索引,以及该K个参考AI执行环境的描述参数,其中,参考AI执行环境的描述参数可以包括:硬件环境(例如CPU类型、CPU主频、主板型号、内存、或者硬件整机的具体型号)、软件环境(例如操作系统、深度学习框架)、模型格式等。该参考AI执行环境列表可以提前向网络设备和终端设备公开。具体地,步骤S301中,执行M个AI模型的N个参考AI执行环境,可以是该K个参考AI执行环境中的N个参考AI执行环境,其中,K为正整数,N为不大于K的正整数。
可以理解地,步骤S301中,当网络设备不通过本地计算得到AI模型信息时,网络设备可以不需要获取参考AI执行环境信息,也就是说,网络设备可以不执行步骤S401。
S402:终端设备获取其AI能力信息。
可以理解地,终端设备也是一个AI执行环境。终端设备的AI能力信息可以用终端设备与参考AI执行环境间的相似度来表示或定义。可选地,终端设备的AI能力信息可以为终端设备与参考AI执行环境间的相似度信息,该相似度信息包括算力相似度和/或能耗相似度,每种相似度信息又包括两个指标:能力比值和效率相似度。例如,算力相似度包括:算力比值和计算效率相似度;能耗相似度包括:能耗比值和能耗效率相似度。
一种实现方式中,终端设备可以在本地计算得到上述相似度信息。另一种实现方式中,计算相似度信息的过程也可以在与该终端设备AI能力相同或相近的设备、或能够真实体现该终端设备AI能力的模拟器、或终端设备服务器中完成。具体地,在与终端设备AI能力相同或相近的设备或模拟器中得到的计算结果的误差可以不超过预期值。此时,终端设备可以从其他设备或模拟器或终端设备服务器中获取该AI能力信息。又一种实现方式中,终端设备与至少一个参考AI执行环境之间的相似度可以是出厂配置的。可以理解地,步骤S402中,当终端设备不通过本地计算得到上述相似度信息(即AI能力信息)时,终端设备可以不需要获取参考AI执行环境信息,也就是说,终端设备可以不执行步骤S401。
对于某一个特定的AI执行环境,其算力和/或能耗特征可以包括能力值与效率向量。以算力特征为例,如图5所示,以参考AI执行环境列表中的AI执行环境2为例,其算力特征的计算方法为:首先制定一个参考AI模型列表,该参考AI模型列表中的L1个参考AI模型可以逐个在AI执行环境2中执行(或称训练、推理),进而得到L1个参考AI模型对应的L1个执行完成时间构成的执行时间向量,对该向量取均值可以得到AI执行环境2算力的能力值(算力值)C,对该向量做归一化处理可以得到AI执行环境2算力的效率向量
Figure BDA0003390883070000141
可选地,在取均值获取算力值和/或归一化获取效率向量之前或之后可以对执行时间向量进行数据处理,例如,可以在取均值获取算力值和/或归一化获取效率向量之前对执行时间向量中的每个执行时间除以其对应的参考AI模型的总计算量。
示例性地,参考AI模型列表可以是事先标准化或离线制定的,也可以是仅由终端设备制定掌握的,其中,该AI参考表格可以包括L个参考AI模型的名称或编号或索引,以及该L个参考AI模型的结构描述参数,其中,该L个参考AI模型的结构描述参数也可以通过引用参考文献或链接的方式提供。通过参考AI模型列表,网络设备和终端设备可以统一理解L个参考AI模型的网络结构。可选地,每个AI单元的具体权重系数值(权值)可以不定义、或者预定义、或者为随机数。具体地,上述在AI执行环境2中执行的L1个参考AI模型,可以是该L个参考AI模型中的L1个参考AI模型,其中,L为正整数,L1为不大于L的正整数。
通过上述方法,可以获取终端设备以及参考AI执行环境的算力特征信息。进一步地,可以通过AI执行环境之间的算力比值r和计算效率相似度s来获取AI执行环境之间的算力相似度信息。具体地,一种可能的实现方法中,任意两个AI执行环境之间的算力比值为r=C1/C2、效率相似度
Figure BDA0003390883070000142
其中,C1和C2分别为两个AI执行环境的算力值;/>
Figure BDA0003390883070000143
和/>
Figure BDA0003390883070000144
分别为两个AI执行环境算力的效率向量;sim为两个向量间的相似度函数,例如余弦相似度函数,或欧式距离计算函数,或标准化欧氏距离函数;norm为[0,1]归一化计算函数,即将其输入值归一化至[0,1]范围,例如,如果sim为余弦相似度计算,其结果取值范围为[-1,1],则归一化函数/>
Figure BDA0003390883070000145
在此过程中,还可以根据需要进行必要的数据处理。
上述方法是通过参考AI模型在AI执行环境中的执行完成时间来定义AI执行环境之间的算力相似度。类似地,还可以通过参考AI模型在AI执行环境中的执行能耗来定义AI执行环境之间的能耗相似度,此处不再赘述。
S403:终端设备进行AI能力与AI模型匹配度评估。
在前述的步骤S302之后,即网络设备向终端设备发送AI模型信息之后,终端设备可以基于步骤S302中收到的AI模型信息,以及基于步骤S402获取的终端设备的AI能力信息(即终端设备和参考AI执行环境之间的相似度信息),评估终端设备的AI能力和M个AI模型的匹配情况,即M个AI模型在终端设备中执行的预期性能,例如完成时间、能耗等。
例如,当N=3,即参考AI执行环境的数量为3个时,通过步骤S402中的方法可以得到终端设备与3个参考AI执行环境的相似度信息:终端设备与3个参考AI执行环境的算力比值分别为r1、r2、r3,也可以表示为:r(i),i=1/2/3;终端设备与3个参考AI执行环境的计算效率相似度分别为s1、s2、s3,也可以表示为:s(i),i=1/2/3。步骤S302中,终端设备获取M个AI模型在该3个参考AI执行环境中的执行时间,以M个AI模型中的第一AI模型为例,终端设备可以获取第一AI模型在该3个参考AI执行环境中的执行时间分别为t1、t2、t3,也可以表示为:t(i),i=1/2/3。进一步地,终端设备可以通过以下两种计算方法获取第一AI模型在终端设备中执行的预期完成时间。
计算方法1:加权平均。具体地,第一AI模型在终端设备中的预期完成时间为:(t1*s1*r1+t2*s2*r2+t3*s3*r3)/(s1+s2+s3)+Δt,其中,Δt为时间余量。或者,第一AI模型在终端设备中的预期完成时间为(t1*s1*r1+t2*s2*r2+t3*s3*r3)*(1+Δx)/(s1+s2+s3),其中,Δx为余量比例。
计算方法2:最优选择。具体地,i=argmax(s(1),s(2),s(3)),预期完成时间为:t(i)*r(i)+Δt,其中,Δt为时间余量。或者,预期完成时间为:t(i)*r(i)*(1+Δx),其中,Δx是余量比例。可选地,Δt和Δx二者都可以与s(i)有关,例如,Δt和/或Δx为常数除以s(i),即s(i)越小,余量Δt和Δx越大。
此外,上述计算过程中,如果终端设备AI能力信息是基于终端设备的所有AI计算资源获得的,而终端设备只能使用部分AI计算资源执行第一AI模型,则还需进行相应的折算,一种可能的折算方法是:用步骤S403中计算得到的预期完成时间除以该部分AI计算资源占所有AI计算资源的比例,得到折算后的预期完成时间。
通过上述方法,终端设备可以获取M个AI模型在终端设备中执行的预期完成时间。类似地,终端设备还可以获取M个AI模型在终端设备中执行的预期能耗。
应理解,上述描述是终端设备进行AI能力与AI模型匹配度评估的示例性方法,另一些实施例中,终端设备也可以通过其他方法进行评估,本申请对此不予限定。
基于上述评估获得的M个AI模型的预期完成时间和/或预期能耗,以及前述网络设备发送的用于执行AI模型的时间上限值信息和/或终端设备本地判定的用于执行AI模型的能耗上限值,终端设备可以判断该M个AI模型与终端设备的AI能力是否匹配。例如,如果M个模型中的第一AI模型的预期完成时间不超过终端设备的时间预算要求,和/或预期消耗能量不超过终端设备的能量消耗限制,终端设备即可确定该第一AI模型与终端设备的AI能力相匹配。其中,终端设备的时间预算要求可以是前述网络设备发送的终端设备用于执行AI模型的时间预算信息,也可以是终端设备本地的时间预算要求;终端设备的能量消耗限制可以是终端设备本地的能量消耗限制。
进一步地,终端设备可以向网络设备发送反馈信息。例如,步骤S303中,该反馈信息可以指示至少一个AI模型,具体地,终端设备可以从与其AI能力相匹配的模型中选择至少一个AI模型,并通过反馈信息申请网络设备发送该AI模型,终端设备的选取原则可以为预期完成时间最短、预期消耗能量最少、或者随机原则。
需要说明的是,图4所示实施例中,步骤S301、S302、S303以及S304的具体实现过程可以参见图3所示实施例中的相关表述,在此不予赘述。
上述实施例中,网络设备将待下发的AI模型的复杂度传递给终端设备后,终端设备可以更加简便、高效、准确地评估待下发的AI模型与终端设备的AI能力的匹配情况,进而确定是否请求启动AI模型或请求下发的AI模型,可以提高终端设备对AI能力和AI模型匹配度评估的准确度和效率。
本申请实施例还提供了一种AI通信方法,适用于图1所示的通信系统。如图6所示,该方法可以包括但不限于以下步骤:
S601:终端设备获取AI能力信息,该AI能力信息包括终端设备与至少一个参考AI执行环境中每个参考AI执行环境的相似度信息。
例如,当至少一个参考AI执行环境的数量为3(参考AI执行环境1、参考AI执行环境2、参考AI执行环境3)时,该AI能力信息包括:终端设备与参考AI执行环境1的相似度信息,终端设备与参考AI执行环境2的相似度信息,以及终端设备与参考AI执行环境3的相似度信息。
示例性地,该参考AI执行环境信息可以是提前标准化或者离线制定的,并向网络设备和终端设备公开。例如,该至少一个参考AI执行环境可以是参考AI执行环境列表中的,参考AI执行环境列表的具体内容可以参见上文表述。
具体地,终端设备与参考AI执行环境之间的相似度信息包括算力相似度和/或能耗相似度,每种相似度信息又包括两个指标:能力比值和效率相似度。例如,算力相似度包括:算力比值和计算效率相似度;能耗相似度包括:能耗比值和能耗效率相似度。关于终端设备与参考AI执行环境之间相似度信息计算的具体示例可以参见图4所示步骤S402中的相关表述,此处不再赘述。
可选地,终端设备与至少一个参考AI执行环境之间的相似度可以使用实际数值、近似数值、等级、或者范围表示。例如,终端设备与参考AI执行环境1之间的相似度为第一相似度数值、第一相似度等级、或第一相似度范围。
一种实现方式中,终端设备可以在本地计算得到上述相似度信息。另一种实现方式中,计算相似度信息的过程也可以在与该终端设备AI能力相同或相近的设备、或能够真实体现该终端设备AI能力的模拟器、或终端设备服务器中完成。具体地,在与终端设备AI能力相同或相近的设备或模拟器中得到的计算结果的误差可以不超过预期值。此时,终端设备可以从其他设备或模拟器或终端设备服务器中获取该AI能力信息。又一种实现方式中,终端设备与至少一个参考AI执行环境之间的相似度可以是出厂配置的。
S602:终端设备向网络设备发送AI能力信息。相应地,网络设备接收终端设备发送的AI能力信息。
在一种实施方式中,如图6所示,在前述的步骤S602之后,也就是终端设备向网络设备发送AI能力信息之后,该方法还包括:
S603:网络设备向终端设备发送配置信息。相应地,终端设备接收网络设备发送的配置信息。在一实施例中,该配置信息是上述AI能力信息的响应信息。
具体地,该配置信息可以满足以下一项或多项:该配置信息可以指示终端设备启动AI模式,进一步地,终端设备和网络设备之间可以进行AI通信。或者,该配置信息可以指示至少一个AI模型,进一步地,终端设备和网络设备之间可以使用该至少一个AI模型进行AI通信。又或者,该配置信息可以指示至少一个AI模型的配置参数。再或者,该配置信息可以指示至少一个AI模型的获取方法,例如,该配置信息可以指示至少一个AI模型的下载地址或获取地址。其中,该至少一个AI模型可以是根据上述AI能力信息确定的。
可以理解,网络设备接收终端设备发送的上述AI能力信息后,也可以不做响应。
在一种实施方式中,终端设备向网络设备发送上述AI能力信息,具体触发方法可以包括:
方式1:网络设备向终端设备发送请求信息(或称:指示信息)。相应地,终端设备接收网络设备发送的请求信息。其中,该请求信息用于请求终端设备向网络设备发送(或称:上报)上述AI能力信息。
方式2:终端设备周期性地向网络设备发送上述AI能力信息。或者,终端设备按照预定义的时间间隔或者预定义的特定时间向网络设备发送上述AI能力信息。
方式3:当终端设备接入网络设备所在的网络时,终端设备向网络设备发送AI能力信息。其中,终端设备接入网络设备所在的网络时,也可以描述为终端设备接入网络设备所在的网络后、或终端设备接入网络设备所在的网络一定时间内。此外,终端设备接入网络设备所在的网络,也可以理解为,终端设备与网络设备建立通信连接。
方式4:当终端设备可以用于执行AI模型的计算资源发生变化(例如:增加或减少)时,或者终端设备可以用于执行AI模型的计算资源的比例发生变化时,终端设备向网络设备发送AI能力信息。同上,终端设备可以用于执行AI模型的计算资源发生变化时,也可以描述为终端设备可以用于执行AI模型的计算资源发送变化后、或终端设备可以用于执行AI模型的计算资源发送变化一定时间内,此处不再赘述。
当终端设备处于不同的应用场景时,需要完成的操作的复杂度不同,终端设备对执行AI模型所能接受(或称容忍)的功耗/能量要求、时间要求、使用的资源要求等也是不同的。也就是说,在不同的应用场景下,终端设备用于执行AI模型的最大时间要求、最大能耗要求、或资源使用情况要求不同,其中,最大时间要求可以是终端设备应该在多长时间内执行完AI模型,最大能耗要求可以是终端设备执行完AI模型允许消耗的最大能耗,资源使用情况要求可以是终端设备执行AI模型允许使用的资源占终端设备可用资源的最大比例、或者终端设备执行AI模型可以使用的硬件资源配置。需要说明的是,上述所称终端设备执行AI模型,指的是终端设备在AI通信模式下执行AI模型的过程,并不限定终端设备所执行的AI模型的种类。
进一步地,终端设备处于不同的应用场景时,可以向网络设备发送AI能力信息,其中,AI能力信息可以包括用于终端设备用于执行AI模型的时间上限值、能耗上限值、和资源使用情况中的至少一种。可以理解地,时间上限值或称为时间上限、最大时间、或最大时间要求,能耗上限值或称为能耗上限、最大能耗、或最大能耗要求,资源使用情况例如可以为终端设备可以使用的硬件资源配置、资源比例上限值等。其中,资源比例上限值或称为资源比例上限、最大资源比例、或最大资源比例要求。可选地,上述终端设备向网络设备发送AI能力之前,网络设备还可以向终端设备发送查询信息,其中,该查询信息指示终端设备上报上述用于执行AI模型的时间上限值、能耗上限值、和资源使用情况中的一个或多个。
应理解,当终端设备的应用场景改变时,终端设备可以向网络设备上报其用于执行AI模型的时间上限值、能耗上限值、和资源使用情况信息中的至少一种,以告知网络设备其执行AI模型的时间预算要求、能量消耗限制、和资源比例消耗限制中的至少一种。此时,该时间上限值信息、能耗上限值信息、或资源使用情况信息与步骤S602中上报的信息可以携带在不同信令中。
通过上述的实施方式,终端设备通过上报其AI能力信息,使网络设备能够通过该AI能力信息评估终端设备的AI能力和AI模型的匹配情况,进而决定是否启动AI通信模式或者下发合适的AI模型,可以提高网络设备评估结果的简便性、高效性和准确度,进而更好地进行AI通信。
上述实施例中,终端设备向网络设备发送其AI能力信息后,网络设备可以对终端设备的AI能力和AI模型的匹配情况进行评估,并确定配置信息。
图7示例性给出一种网络设备进行AI能力与AI模型匹配度评估的方法流程图。如图7所示,终端设备在获取AI能力信息之前,可选的,步骤S701中,终端设备和网络设备可以获取参考AI执行环境信息。
可选地,步骤S601中,当终端设备不通过本地计算得到上述相似度信息(即AI能力信息)时,终端设备可以不需要获取参考AI执行环境信息,也就是说,终端设备可以不执行步骤S701。
S702:网络设备获取参考AI执行环境信息后,获取AI模型信息即M个AI模型的AI模型复杂度信息,其中,M为正整数。其中,步骤S701中终端设备和网络设备获取参考AI执行环境信息的具体实现可以参见前述实施例步骤S401中的表述,步骤S702中网络设备获取M个AI模型的AI模型复杂度信息的具体实现可以参见前述实施例步骤S301中的表述,在此不再赘述。
可选地,步骤S702中,当网络设备不通过本地计算得到M个AI模型的AI模型复杂度信息(即AI模型信息)时,网络设备可以不需要获取参考AI执行环境信息,也就是说,网络设备可以不执行步骤S701。
S703:网络设备进行终端设备的AI能力与AI模型匹配度评估。
在前述的步骤S602之后,即网络设备接收到终端设备发送的AI能力信息之后,网络设备可以基于步骤S602中收到的AI能力信息及步骤S702获取的AI模型信息,评估终端设备的AI能力和M个AI模型的匹配情况。
如上文所述,可选地,该M个AI模型可以是网络设备预先存储的,或者该M个AI模型可以是网络设备从第三方设备获取的,或者该M个AI模型可以是网络设备生成的。又或者,网络设备不关心这M个AI模型的具体结构等,网络设备可以从第三方设备或者网络设备服务器中获取上述AI模型复杂度信息,又或者网络设备在出厂或软件升级时被配置或者获取上述AI模型信息。
与前述实施例类似,网络设备可以根据加权平均或最优选择评估获得M个AI模型在该终端设备中执行的预期完成时间和/或预期功耗。例如,当参考AI执行环境的数量为3个时,步骤S602中,终端设备发送给网络设备的AI能力信息包括:终端设备与3个参考AI执行环境的算力比值分别为r1、r2、r3,终端设备与3个参考AI执行环境的计算效率相似度分别为s1、s2、s3。步骤S702中,网络设备可以获取M个AI模型的每个AI模型分别在3个参考AI执行环境中执行的时间,以M个AI模型中的第一AI模型为例,网络设备可以获取第一AI模型在该3个参考AI执行环境中执行的时间分别为t1、t2、t3。则步骤S703中,采用加权平均方法时,网络设备可以评估终端设备执行第一AI模型的预期完成时间为:(t1*s1*r1+t2*s2*r2+t3*s3*r3)/(s1+s2+s3)+Δt、或者为(t1*s1*r1+t2*s2*r2+t3*s3*r3)*(1+Δx)/(s1+s2+s3)。采用最优选择方法时,网络设备可以评估终端设备执行第一AI模型的预期完成时间为t(i)*r(i)+Δt、或t(i)*r(i)*(1+Δx),其中i=argmax(s(1),s(2),s(3))。各参数的具体含义可以参见前述实施例中步骤S403的相关表述,此处不再赘述。此外,如果终端设备向网络设备上报了资源使用比例情况(资源比例上限值),则还需进行相应的折算,一种可能的折算方法是:用步骤S703中计算得到的预期完成时间除以资源比例上限值得到折算后的预期完成时间。
此外,网络设备评估终端设备执行该第一AI模型所消耗的预期能量的方法同样可以采用上述方法获得,此处不再赘述。
基于上述评估获得的预期完成时间和/或预期功耗,以及前述终端设备发送的用于执行AI模型的时间上限值信息和/或能耗上限值信息,网络设备可以判断该M个模型与终端设备的AI能力是否匹配。例如,如果M个模型中的第一AI模型的预期完成时间不超过终端设备的时间预算要求,和/或预期消耗能量不超过终端设备的能量消耗限制,即可确定该第一AI模型与终端设备的AI能力相匹配。
进一步地,如前文步骤S603所述,网络设备可以向终端设备发送配置信息。
步骤S603中,当配置信息指示至少一个AI模型,或配置信息指示至少一个AI模型的配置参数,或配置信息指示至少一个AI模型的获取方法时,网络设备向终端设备发送配置信息之前,网络设备根据AI能力信息确定至少一个AI模型。具体地,一种情况是,网络设备只有一个面向当前应用的AI模型,如果该AI模型与终端设备AI能力相匹配,则该AI模型即为网络设备确定的AI模型;另一种情况是,网络设备有多个面向当前应用的AI模型,网络设备可以从与终端设备AI能力相匹配的AI模型中选择至少一个AI模型发送或配置给该终端设备,其中,网络设备的选取原则可以为预期完成时间最短、预期消耗能量最少、预期使用的资源比例最小、或者随机原则。可以理解地,网络设备如果能够确定至少一个AI模型,则认为网络设备可以启动AI模式。
需要说明的是,图7所示实施例中,步骤S601、S602及S603的具体实现过程可以参见图6所示实施例中的相关表述,在此不予赘述。
上述实施例中,终端设备将其与参考AI执行环境的相似度信息作为AI能力信息发送给网络设备,可以准确地表示终端设备的AI能力,使网络设备获得更准确的评估结果,进而决定是否开启AI通信或者下发AI模型,从而提高评估的准确度和效率。
图3所示实施例中,网络设备向终端设备发送AI模型信息,进一步地,终端设备可以对其AI能力与AI模型匹配度进行评估。其中,网络设备发送的M个AI模型的复杂度信息是通过M个AI模型在参考AI执行环境中执行的时间和/或能耗来定义(或表示)的。可以理解地,AI模型复杂度信息也可以用其他方式来表示,下面具体介绍另一种AI模型信息的表示方法以及终端设备进行评估的过程。
图8示例性给出另一种终端设备进行AI能力和AI模型匹配度评估的方法流程图。如图8所示,可选的,步骤S801中,终端设备和网络设备可以获取参考AI模型信息。可选地,终端设备和网络设备可以通过参考AI模型列表获取参考AI模型信息。示例性地,该参考AI模型列表可以是事先标准化或离线制定的,并提前向终端设备和网络设备公开。其中,该AI参考表格可以包括U个参考AI模型的名称或编号或索引,以及该U个参考AI模型的结构描述参数,其中,该U个参考AI模型的结构描述参数也可以通过引用参考文献或链接的方式提供。通过参考AI模型列表,网络设备和终端设备可以统一理解U个参考AI模型的网络结构。可选地,每个AI单元的具体权重系数值(权值)可以不定义、或者预定义、或者为随机数。
如图3和图8所示,步骤S301中,网络设备获取AI模型信息。其中,该AI模型信息可以指示M个AI模型中每个AI模型的复杂度信息。
可选地,步骤S301中,当网络设备不通过本地计算得到上述AI模型信息时,网络设备可以不需要获取参考AI模型信息,也就是说,网络设备可以不执行步骤S801。
示例性地,M个AI模型中每个AI模型的复杂度信息可以用相似度数据来表示。例如,该AI模型信息指示M个AI模型对应的M组相似度信息(或称相似度数据),该M组相似度信息中的每组相似度信息为M个AI模型中的一个AI模型与U1个参考AI模型的相似度信息。其中,该U1个参考AI模型属于参考AI模型列表中的U个参考AI模型,M和U为正整数,U1为不大于U的正整数。
例如,当M=3、U1=5时,该AI模型信息包括3个AI模型(Q1、Q2和Q3)对应的3组相似度信息(第1组相似度信息、第2组相似度信息、第3组相似度信息),其中,第1组相似度信息为AI模型Q1与5个参考AI模型的相似度信息,第2组相似度信息为AI模型Q2与5个参考AI模型的相似度信息,第3组相似度信息为AI模型Q3与5个参考AI模型的相似度信息。
可选地,AI模型之间的相似度信息可以是计算量和/或能量消耗的相似度信息。例如,AI模型之间的计算量相似度信息可以包括计算量比值cr和计算效率相似度cs。
对于某一个特定的AI模型,其计算量特征可以包括计算量表示值与计算效率向量。如图9所示,以U个参考AI模型中的AI模型2的计算量特征为例,其计算方法为:首先制定一个参考AI执行环境列表,该参考AI执行环境列表可以包括V个参考AI执行环境,该AI模型2依次在V个参考AI执行环境中的V1个参考AI执行环境中执行(或称训练、推理),进而得到AI模型2对应的V1个执行完成时间构成的执行时间向量,其中,V为正整数,V1为不大于V的正整数。对该向量取均值可以得到AI模型2的计算量表示值CA,对该向量做归一化处理可以得到AI模型2计算量的计算效率向量
Figure BDA0003390883070000201
在此过程中,可以进行必要的数据处理。
通过上述方法,可以获取M个AI模型与参考AI模型的计算量特征信息。进一步地,可以通过AI模型之间的计算量比值cr和计算效率相似度cs来获取AI模型之间的计算量相似度信息。具体地,任意两个AI模型之间的计算量比值为cr=CA1/CA2、计算效率相似度
Figure BDA0003390883070000202
其中,CA1和CA2分别为两个AI模型的计算量表示值;/>
Figure BDA0003390883070000203
Figure BDA0003390883070000204
分别为两个AI模型的计算效率向量;sim为两个向量间的相似度函数,例如余弦相似度函数,或欧式距离计算函数,或标准化欧氏距离函数;norm为[0,1]归一化计算函数,即将其输入值归一化至[0,1]范围,例如,如果sim为余弦相似度计算,其结果取值范围为[-1,1],则归一化函数/>
Figure BDA0003390883070000205
在此过程中,还可以根据需要进行必要的数据处理。
上述方法是通过AI模型在一组AI执行环境中的执行完成时间来定义AI模型之间的计算量相似度。类似地,也可以通过AI模型在一组AI执行环境中的执行能耗来定义AI模型的能耗特征,进而定义AI模型之间的能耗相似度,此处不再赘述。
步骤S802中,终端设备获取其AI能力信息。
可选地,终端设备的AI能力信息可以为U1个参考AI模型中每个参考AI模型在终端设备中的执行时间和/或执行能耗。
可选地,步骤S802中,当终端设备不通过本地计算得到终端设备的AI能力信息时,终端设备可以不需要获取参考AI模型信息,也就是说,终端设备可以不执行步骤S801。
步骤S302中,网络设备将以AI模型的相似度信息表示的AI模型信息发送给终端设备之后,图8所示实施例中,步骤S803中,终端设备可以基于网络设备发送的AI模型信息和步骤S802中获取的终端设备AI能力信息,评估终端设备的AI能力与M个AI模型的匹配情况,即M个AI模型在终端设备中执行的预期性能,例如完成时间、能耗等。
例如,当U1=3,即参考AI模型的数量为3个时,步骤S802中可以得到3个参考AI模型在终端设备中执行的时间分别为t1、t2、t3。步骤S302中,终端设备获取M个AI模型与3个参考AI模型的相似度信息,以M个AI模型中的AI模型Q2为例,终端设备可以获取AI模型Q2与3个参考AI模型的相似度数据:AI模型Q2与3个参考AI模型的计算量比值分别为cr1、cr2、cr3,AI模型Q2与3个参考AI模型的计算效率相似度分别为cs1、cs2、cs3。进一步地,步骤S803中,终端设备可以通过上述加权平均方法和/或最优选择方法获取AI模型Q2在终端设备中执行的预期完成时间。
通过上述方法,终端设备可以获取M个AI模型在终端设备中执行的预期完成时间。类似地,终端设备还可以获取M个AI模型在终端设备中执行的预期能耗。
可选地,终端设备完成AI能力和AI模型匹配度评估后,进一步地,S303中,终端设备可以向网络设备发送反馈信息,步骤S304中,网络设备可以基于终端设备发送的反馈信息向终端设备发送配置信息。关于步骤S301、S302、S303以及S304的具体实现可以参考图3所示实施例中的相关表述,本申请在此不再赘述。
本实施例中,通过使用待下发AI模型与参考AI模型之间的相似度来定义待下发AI模型的复杂度信息,终端设备可以更加简便、高效、准确地评估待下发的AI模型与终端设备的AI能力的匹配情况,进而确定是否请求启动AI模型或请求下发的AI模型,可以提高终端设备对AI能力和AI模型匹配度评估的准确度和效率。
上述图4和图7所示实施例中,参考AI执行环境列表需要在终端设备和网络设备中进行同步;上述图8所示实施例中,参考AI模型列表需要在终端设备和网络设备中进行同步,以执行后续的评估流程。考虑到构成参考AI执行环境的软硬件以及典型的参考AI模型都在不断发展,参考AI执行环境列表以及参考AI模型列表也需要逐步更新。例如,每年发布一个新版本,在版本更新之后仍然需要保证参考AI执行环境列表以及参考AI模型列表在终端设备和网络设备之间同步。
图10示出了参考AI执行环境列表的架构图及维护与同步流程。如图10所示,本实施例的架构包括参考AI执行环境列表、分别对应于终端设备和网络设备的服务器、以及终端设备和网络设备。
参考AI执行环境列表可以包括多个版本,示例性地,参考AI执行环境列表可以对外公开,参考AI执行环境列表可以由3GPP标准化,也可以由厂商(例如网络设备厂商、网络设备AI模型提供厂商、网络运营商等)维护。
网络设备服务器可以用于同步参考AI执行环境列表,网络设备服务器还可以用于存储M个AI模型在各个参考AI执行环境中的执行表现,即前述实施例所述的AI模型信息。终端设备服务器可以用于同步参考AI执行环境列表,终端设备服务器还可以用于存储终端设备与参考AI执行环境列表中的参考AI执行环境的相似度信息。可选地,网络设备服务器和终端设备服务器可以不同时存在。例如,可以不设置和维护终端设备服务器,终端设备与参考AI执行环境列表中的参考AI执行环境的相似度信息可以在终端设备出厂时内置;或者在使用期间可以跟随参考AI执行环境列表更新而通过软件升级更新;或者不再进行更新升级,由网络设备负责对参考AI执行环境列表的后向兼容。
示例性地,当网络设备服务器和终端设备服务器同时存在时,一种可能的实施流程如图10所示,该方法可以包括但不限于如下步骤:
S1001:网络设备服务器与终端设备服务器进行列表同步。
一种实现方式中,网络设备服务器与终端设备服务器可以分别获取参考AI执行环境列表信息。进一步地,网络设备服务器可以计算得到M个AI模型的模型复杂度信息,并存储在网络设备服务器中。终端设备服务器可以计算得到终端设备与参考AI执行环境的相似度信息,并存储在终端设备服务器中。另一种实现方式中,也可以由网络设备厂商、终端设备厂商获取参考AI执行环境列表信息,并离线按照上述方法分别得到M个AI模型的模型复杂度信息(即AI模型信息)、终端设备与参考AI执行环境的相似度信息(即AI能力信息)之后,再分别存储至网络设备服务器、终端设备服务器上。
S1002:网络设备从网络设备服务器中获取AI模型信息,即M个AI模型的模型复杂度信息。终端设备从终端设备服务器中获取AI能力信息,即终端设备与参考AI执行环境的相似度信息。
S1003:网络设备与终端设备同步参考AI执行环境列表版本。
示例性地,网络设备获取(或查询)终端设备支持的参考AI执行环境版本之后,直接执行终端设备支持的版本。或者,网络设备获取终端设备支持的参考AI执行环境版本之后,从网络设备的服务器更新版本。可以理解的,当不存在终端设备服务器时,该方法同样适用。
基于该对齐的参考AI执行环境版本,网络设备和终端设备可以执行如图3或图6所示的流程。
例如,S1004:网络设备向终端设备发送AI模型信息。其具体过程和后续流程可以参见图3及图4所示实施例中相关的表述,在此不再赘述。
又例如,S1004:终端设备向网络设备发送AI能力信息(图10中未示出)。其具体过程和后续流程可以参见图6及图7所示实施例中相关的表述,在此不再赘述。
下面结合图3和图4所示实施例,示例性介绍一种参考AI执行环境列表的维护与同步的流程。
如图11所示,网络设备下接入两个终端(终端设备1和终端设备2),只有网络设备部署和维护服务器,终端设备没有部署服务器。该方法可以包括但不限于如下步骤:
S1101:网络设备和终端设备基于参考AI执行环境列表分别获取AI模型参考执行数据以及AI执行环境相似度数据。
示例性地,网络设备服务器获取AI模型参考执行数据。考虑到参考AI执行环境列表会不断更新,网络设备服务器可能获取到多个参考AI执行环境版本对应的AI模型参考执行数据,例如版本v1、v2、v3对应的AI模型参考执行数据,即AI模型分别在版本v1、v2、v3的参考AI执行环境列表中的每个参考AI执行环境中执行的时间和/或能耗,版本v1、v2、v3的参考AI执行环境列表中任意两个列表之间至少有一个参考AI执行环境不相同,也就是说,任意两个参考AI执行环境列表不相同。网络设备服务器获取AI模型参考执行数据的过程可以参见步骤S301中的相关表述。
终端设备1和终端设备2可以分别获取AI执行环境相似度数据。考虑到终端设备能力有限,终端设备可以只获取一个版本对应的AI执行环境相似度数据,例如,终端设备1获取版本v1对应的AI执行环境相似度数据,终端设备2获取版本v2对应的AI执行环境相似度数据。可选地,版本v1对应的AI执行环境相似度数据可以是终端设备1出厂配置的,版本v2对应的AI执行环境相似度数据可以是终端设备2出厂配置的。终端设备获取AI执行环境相似度数据的过程可以参见步骤S402中的相关表述。
S1102:网络设备从网络设备服务器获取至少一个版本或所有版本的AI模型参考执行数据。
例如:以存在3个参考AI执行环境版本v1、v2、v3为例,网络设备可以向网络设备服务器获取版本v1、v2、v3对应的AI模型参考执行数据。可选地,另一些实施例中,网络设备也可以在需要时向网络设备服务器获取相应版本的AI模型参考执行数据(参见步骤S1104),此时,步骤S1102可以不执行。
S1103:终端设备与网络设备对齐参考AI执行环境列表版本。
示例性地,网络设备查询或获取终端设备支持的参考AI执行环境列表版本。如图11所示,网络设备与终端设备1对齐参考AI执行环境列表版本为版本v1,网络设备与终端设备2对齐参考AI执行环境列表版本为版本v2。
S1104:网络设备从网络设备服务器获取对应版本的AI模型参考执行数据。
例如,如图11所示,网络设备可以从网络设备服务器获取版本1对应的AI模型参考执行数据,以对终端设备1进行后续配置。网络设备可以从网络设备服务器获取版本2对应的AI模型参考执行数据,以对终端设备2进行后续配置。
可以理解地,若网络设备在步骤S1102中获取了对应版本的AI模型参考执行数据,步骤S1104可以不执行。
S1105:网络设备向终端设备发送对应版本的AI模型信息。
例如,网络设备基于版本v1向终端设备1发送AI模型信息,网络设备基于版本v2向终端设备2发送AI模型信息。示例性地,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,该M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗。关于网络设备向终端设备发送AI模型信息的具体实现可以参见图3所示实施例中步骤S302中的相关描述,在此不再赘述。
进一步地,终端设备可以基于网络设备发送的AI模型信息和本地的AI执行环境相似度信息,评估AI模型与终端设备的AI能力是否匹配,并根据评估结果确定后续流程。例如,步骤S1106中,终端设备基于评估结果请求网络设备启动AI模型、或请求网络设备下发至少一个AI模型等。终端设备评估的具体过程和实施方式可以参见图4所示实施例中的相关表述,在此不再赘述。
上述示例以两个终端设备和网络设备之间的交互为例进行示例性介绍。可选地,在其他一些实施例中,也可以存在两个以上的终端设备。
上述示例以没有终端设备服务器为例进行介绍,应理解,其他一些实施例中,也可以同时部署网络设备服务器和终端设备服务器,本申请对此不做限定。
可以理解地,图11以图3和图4所示实施例为例介绍参考AI执行环境列表的维护与同步的流程,在其他一些实施例中,也可以参见图11所示设计思路进行参考AI模型列表的维护和同步。
上述方法中,在参考AI执行环境列表不断进行版本更新、终端版本不一致且缺乏版本更新跟踪途径的情况下,实现了终端设备与网络设备之间的参考AI执行环境版本的同步,可以确保评估结果的准确性。
通过本申请实施例提供的方法,网络设备可以向终端设备发送AI模型信息,以便终端设备准确高效地评估AI模型与其AI能力的匹配情况,或者,终端设备可以向网络设备发送其AI能力信息,以便网络设备准确高效地评估AI模型与终端设备的AI能力的匹配情况。此外,本申请实施例提供的方法无需引入额外的服务器设备和交互协议,即可实现终端设备和网络设备之间的AI能力和AI模型匹配度评估。同时,通过本申请实施例提供的方法,终端设备和网络设备之间可以对齐参考AI执行环境列表的版本,以提高匹配结果的准确度。
装置
可以理解的是,为了实现上述实施例中功能,网络设备和终端设备包括了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本申请中所公开的实施例描述的各示例的单元及方法步骤,本申请能够以硬件或硬件和计算机软件相结合的形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用场景和设计约束条件。
图12和图13为本申请的实施例提供的可能的通信装置的结构示意图。这些通信装置可以用于实现上述方法实施例中终端设备或网络设备的功能,因此也能实现上述方法实施例所具备的有益效果。在本申请的实施例中,该通信装置可以是终端设备或网络设备,还可以是应用于终端设备或网络设备的模块(如芯片)。
如图12所示,通信装置1200包括收发单元1201和处理单元1202。处理单元1202用于调用收发单元1201接收其他通信装置的信息或者向其他通信装置发送信息。收发单元1201还可以进一步包括接收单元和发送单元,接收单元用于接收其他通信装置的信息,发送单元用于向其他通信装置发送信息。通信装置1200用于实现上述图3、图4、图6、图7所示的方法实施例中终端设备或网络设备的功能。其中图4实施例是基于图3实施例的,图7实施例是基于图6实施例的。以下以图3实施例和图6实施例进行举例,说明收发单元1201和处理单元1202分别执行的操作,其它实施例中两个单元执行的操作可以参考方法实施例得到。
当通信装置1200用于实现图3所示的方法实施例中网络设备的功能时:收发单元1201,用于向终端设备发送AI模型信息,该AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,M组AI模型复杂度信息中的每组AI模型复杂度信息为M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;处理单元1202,用于获取该AI模型信息。当通信装置1200用于实现图3所示的方法实施例中终端设备的功能时:收发单元1201,用于接收网络设备发送的AI模型信息;收发单元1201,还用于向网络设备发送反馈信息,该反馈信息请求网络设备启动AI通信模式,或者该反馈信息包括M个AI模型中至少一个AI模型的评估结果,或者该反馈信息请求获取M个AI模型中的至少一个AI模型。
当通信装置1200用于实现图6所示的方法实施例中网络设备的功能时:收发单元1201,用于接收终端设备发送的AI能力信息,该AI能力信息包括终端设备与至少一个参考AI执行环境中每个参考AI执行环境的相似度;收发单元1201,还用于根据AI能力信息向终端设备发送配置信息,该配置信息指示终端设备启动AI通信模式,或者该配置信息指示至少一个AI模型,或者该配置信息指示至少一个AI模型的配置参数,或者该配置信息指示至少一个AI模型的获取方法。当通信装置1200用于实现图6所示的方法实施例中终端设备的功能时:收发单元1201,用于向终端设备发送AI能力信息,该AI能力信息包括终端设备与至少一个参考AI执行环境中每个参考AI执行环境的相似度;处理单元1202,用于获取该AI能力信息。
有关上述收发单元1201和处理单元1202更详细的描述可以直接参考图3、图6所示的方法实施例中相关描述直接得到,这里不加赘述。
基于同一技术构思,如图13所示,本申请实施例还提供一种通信装置1300。通信装置1300包括接口电路1301和处理器1302。接口电路1301和处理器1302之间相互耦合。可以理解的是,接口电路1301可以为收发器或输入输出接口。可选的,通信装置1300还可以包括存储器1303,用于存储处理器1302执行的指令、或存储处理器1302运行指令所需要的输入数据、或存储处理器1302运行指令后产生的数据。
当通信装置1300用于实现图3、图4、图6、图7所示的方法时,处理器1302用于实现上述处理单元1202的功能,接口电路1301用于实现上述收发单元1201的功能。
当上述通信装置为应用于终端设备的芯片时,该终端设备芯片实现上述方法实施例中终端设备的功能。该终端设备芯片从终端设备中的其它模块(如射频模块或天线)接收信息,该信息是网络设备发送给终端设备的;或者,该终端设备芯片向终端设备中的其它模块(如射频模块或天线)发送信息,该信息是终端设备发送给网络设备的。
可以理解的是,本申请的实施例中的处理器可以是中央处理单元(centralprocessing unit,CPU),还可以是其它通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其它可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
基于以上实施例,本申请实施例提供了一种通信系统,该通信系统可以包括上述实施例涉及的终端设备和网络设备等。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,该计算机程序被计算机执行时,所述计算机可以实现上述方法实施例提供的下行调度方法。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品用于存储计算机程序,该计算机程序被计算机执行时,所述计算机可以实现上述方法实施例提供的下行调度方法。
本申请实施例还提供一种芯片,包括处理器,所述处理器与存储器耦合,用于调用所述存储器中的程序使得所述芯片实现上述方法实施例提供的下行调度方法。
本申请实施例还提供一种芯片,所述芯片与存储器耦合,所述芯片用于实现上述方法实施例提供的下行调度方法。
本申请的实施例中的方法步骤可以通过硬件的方式来实现,也可以由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(random access memory,RAM)、闪存、只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于网络设备或终端设备中。当然,处理器和存储介质也可以作为分立组件存在于网络设备或终端设备中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机程序或指令。在计算机上加载和执行所述计算机程序或指令时,全部或部分地执行本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、网络设备、用户设备或者其它可编程装置。所述计算机程序或指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机程序或指令可以从一个网站站点、计算机、第一设备或数据中心通过有线或无线方式向另一个网站站点、计算机、第一设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是集成一个或多个可用介质的第一设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,例如,软盘、硬盘、磁带;也可以是光介质,例如,数字视频光盘(digital video disc,DVD);还可以是半导体介质,例如,固态硬盘(solid state drive,SSD)。
显然,本领域的技术人员可以对本申请实施例进行各种改动和变型而不脱离本申请实施例的范围。这样,倘若本申请实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (20)

1.一种人工智能AI通信方法,其特征在于,包括:
第一设备接收第二设备发送的AI模型信息,所述AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,所述M组AI模型复杂度信息中的每组AI模型复杂度信息为所述M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;
所述第一设备向所述第二设备发送反馈信息。
2.根据权利要求1所述的方法,其特征在于,所述反馈信息请求所述第二设备启动AI通信模式;或
所述反馈信息包括所述M个AI模型中至少一个AI模型的评估结果;或
所述反馈信息请求获取所述M个AI模型中的至少一个AI模型。
3.根据权利要求1或2所述的方法,其特征在于,所述第一设备向所述第二设备发送反馈信息之后,所述方法还包括:
所述第一设备接收所述第二设备发送的配置信息,其中,所述配置信息指示所述第一设备启动AI通信模式,或,所述配置信息指示所述M个AI模型中的至少一个AI模型,或,所述配置信息指示所述M个AI模型中的至少一个AI模型的配置参数,或,所述配置信息指示所述M个AI模型中的至少一个AI模型的获取方法。
4.根据权利要求2所述的方法,其特征在于,所述至少一个AI模型包括第一AI模型,所述第一AI模型的评估结果包括所述第一AI模型与所述第一设备是否匹配,或所述第一AI模型的评估结果包括所述第一设备执行所述第一AI模型的预期时间和/或能耗。
5.根据权利要求1至4中任一项所述的方法,所述第一设备接收第二设备发送的AI模型信息之前,所述方法还包括:
所述第一设备向所述第二设备发送请求信息,所述请求信息用于请求所述第二设备向所述第一设备发送所述AI模型信息。
6.一种人工智能AI通信方法,其特征在于,包括:
第二设备获取AI模型信息,所述AI模型信息包括M个AI模型对应的M组AI模型复杂度信息,所述M组AI模型复杂度信息中的每组AI模型复杂度信息为所述M个AI模型中的一个AI模型在N个参考AI执行环境中的每个参考AI执行环境中执行的时间和/或能耗,其中,M和N为正整数;
所述第二设备向第一设备发送所述AI模型信息。
7.根据权利要求6所述的方法,所述第二设备向第一设备发送所述AI模型信息之后,所述第二设备接收所述第一设备发送的反馈信息,其中,所述反馈信息请求所述第二设备启动AI通信模式;或所述反馈信息包括所述M个AI模型中至少一个AI模型的评估结果;或所述反馈信息请求获取所述M个AI模型中的至少一个AI模型。
8.根据权利要求7所述的方法,其特征在于,所述第二设备接收所述第一设备发送的反馈信息之后,所述方法还包括:
所述第二设备向所述第一设备发送配置信息,其中,所述配置信息指示所述第一设备启动AI通信模式,或,所述配置信息指示所述M个AI模型中的至少一个AI模型,或,所述配置信息指示所述M个AI模型中的至少一个AI模型的配置参数,或,所述配置信息指示所述M个AI模型中的至少一个AI模型的获取方法。
9.根据权利要求7所述的方法,其特征在于,所述至少一个AI模型包括第一AI模型,所述第一AI模型的评估结果包括所述第一AI模型与所述第一设备是否匹配,或所述第一AI模型的评估结果包括所述第一设备执行所述第一AI模型的预期时间和/或能耗。
10.根据权利要求6至9中任一项所述的方法,其特征在于,所述第二设备向第一设备发送所述AI模型信息之前,所述方法还包括:
所述第二设备接收所述第一设备发送的请求信息,所述请求信息用于请求所述第二设备向所述第一设备发送所述AI模型信息。
11.根据权利要求6至9中任一项所述的方法,其特征在于,所述第二设备向第一设备发送所述AI模型信息,包括:
所述第二设备周期性向所述第一设备发送所述AI模型信息;或
所述第一设备接入所述第二设备所在的网络时,所述第二设备向所述第一设备发送所述AI模型信息;或
所述第一设备与所述第二设备建立通信连接时,所述第二设备向所述第一设备发送所述AI模型信息;或
所述M个AI模型的结构或计算量发生改变时,所述第二设备向所述第一设备发送所述AI模型信息。
12.根据权利要求2或7所述的方法,其特征在于,所述反馈信息是所述AI模型信息的响应信息。
13.根据权利要求1至12中任一项所述的方法,其特征在于,所述M个AI模型包括第一AI模型,所述N个参考AI执行环境包括第一参考AI执行环境,所述第一AI模型在所述第一参考AI执行环境中的执行时间为第一时间数值、第一时间等级或第一时间范围,所述第一AI模型在所述第一参考执行环境中的执行能耗为第一能耗数值、第一能耗等级或第一能耗范围。
14.根据权利要求1至13中任一项所述的方法,其特征在于,所述M个AI模型包括第一AI模型,所述M组AI模型复杂度信息包括所述第一AI模型对应的第一组AI模型复杂度信息,所述第一组AI模型复杂度信息包括以下一种或多种:
所述第一AI模型在所述N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数量;
所述第一AI模型在所述N个参考AI执行环境中每个参考AI环境执行时使用的输入数据的数值精度;
所述第一AI模型的权值的数值精度;
所述第一AI模型在所述N个参考AI执行环境中每个参考AI环境执行时的运算精度。
15.根据权利要求1至14中任一项所述的方法,其特征在于,所述AI模型信息包括所述第一设备用于执行所述M个AI模型中的每个AI模型的时间上限值。
16.一种第一设备,其特征在于,包括:一个或多个处理器和一个或多个存储器;
所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,使得所述第一设备执行如权利要求1-5或权利要求12-15任一项所述的方法。
17.一种第二设备,其特征在于,包括:一个或多个处理器和一个或多个存储器;
所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,使得所述第二设备执行如权利要求6-15任一项所述的方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令在被所述计算机调用时用于使所述计算机执行上述权利要求1-15中任一项所述的方法。
19.一种包含指令的计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机如执行权利要求1-15中任一项所述的方法。
20.一种芯片,其特征在于,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,以实现如权利要求1-15中任一项所述的方法。
CN202111464756.8A 2021-11-16 2021-12-03 一种人工智能ai通信方法及装置 Pending CN116156526A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/131952 WO2023088241A1 (zh) 2021-11-16 2022-11-15 一种人工智能ai通信方法及装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2021113575882 2021-11-16
CN202111357588 2021-11-16

Publications (1)

Publication Number Publication Date
CN116156526A true CN116156526A (zh) 2023-05-23

Family

ID=86349406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111464756.8A Pending CN116156526A (zh) 2021-11-16 2021-12-03 一种人工智能ai通信方法及装置

Country Status (2)

Country Link
CN (1) CN116156526A (zh)
WO (1) WO2023088241A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100169154A1 (en) * 2008-12-29 2010-07-01 Nokia Corporation System and associated method for product selection
WO2020042112A1 (zh) * 2018-08-30 2020-03-05 华为技术有限公司 一种终端对ai任务支持能力的评测方法及终端
WO2021118173A1 (en) * 2019-12-09 2021-06-17 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
CN111260053A (zh) * 2020-01-13 2020-06-09 支付宝(杭州)信息技术有限公司 使用可信执行环境来进行神经网络模型训练的方法和装置
CN111949972B (zh) * 2020-02-19 2023-10-03 华控清交信息科技(北京)有限公司 人工智能模型的验证方法、系统、设备及存储介质

Also Published As

Publication number Publication date
WO2023088241A1 (zh) 2023-05-25

Similar Documents

Publication Publication Date Title
JP6701445B2 (ja) 物理アップリンク制御チャネル(pucch)リソース割り当て
CN114762276B (zh) 信道状态信息反馈
CN115462045A (zh) 用于非实时ran智能控制器的功能架构和接口
EP4014436A1 (en) Methods, apparatus and machine-readable media relating to machine-learning in a communication network
JP2021523639A (ja) ダウンリンク制御情報(dci)のサイズ調整用のシステムおよび方法
CN114303347A (zh) 通信网络中与机器学习相关的方法、装置和机器可读介质
CN115280338A (zh) 一种基于联邦学习的模型训练方法、电子设备及存储介质
US11601848B2 (en) Method and apparatus for offloading data in wireless communication system
CN105376696A (zh) 数据传输方法以及智能终端
JP6782373B2 (ja) PUSCHおよびMsg3用の時間領域表
CN115669047A (zh) 一种信道状态信息处理方法、电子设备及存储介质
CN105812092A (zh) 重复发送处理方法、装置及节点
WO2023040700A1 (zh) 一种人工智能ai通信方法及装置
KR20230073305A (ko) 무선 액세스 네트워크 동작 관리
WO2023088241A1 (zh) 一种人工智能ai通信方法及装置
WO2022253150A1 (zh) 数据传输方法及装置
US11956039B2 (en) Method and network device for beam vector selection
CN115942298A (zh) 一种人工智能ai模型传输方法及装置
EP4133842A1 (en) Control signaling for pucch reliability enhancement
EP4340283A1 (en) Data transmission method and related device
WO2022151167A1 (en) Bandwidth part and transmission configuration indication switching in non-terrestrial networks
WO2024045133A1 (en) Machine learning performance abstraction
WO2023208082A1 (zh) 一种通信方法、装置、芯片及模组设备
CN110933607A (zh) 一种定位信息的传输方法、装置及设备
WO2018072204A1 (zh) 一种天线端口配置方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination