CN115842737A - 机器学习模型处理方法、装置及存储介质 - Google Patents

机器学习模型处理方法、装置及存储介质 Download PDF

Info

Publication number
CN115842737A
CN115842737A CN202111028834.XA CN202111028834A CN115842737A CN 115842737 A CN115842737 A CN 115842737A CN 202111028834 A CN202111028834 A CN 202111028834A CN 115842737 A CN115842737 A CN 115842737A
Authority
CN
China
Prior art keywords
model
entity
machine learning
information
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111028834.XA
Other languages
English (en)
Inventor
段小嫣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datang Mobile Communications Equipment Co Ltd
Original Assignee
Datang Mobile Communications Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datang Mobile Communications Equipment Co Ltd filed Critical Datang Mobile Communications Equipment Co Ltd
Priority to CN202111028834.XA priority Critical patent/CN115842737A/zh
Priority to PCT/CN2022/116785 priority patent/WO2023030493A1/zh
Publication of CN115842737A publication Critical patent/CN115842737A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/082Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请提供一种机器学习模型处理方法、装置及存储介质,通过UE预先根据第一网络功能实体提供的全局机器学习模型创建目标应用的本地机器学习模型,UE确定与目标应用相关的本地训练数据,并根据本地训练数据对本地机器学习模型进行训练,将训练后的本地机器学习模型的本地模型参数发送给第一网络功能实体,以由第一网络功能实体更新全局机器学习模型。可实现UE和用于提供模型的第一网络功能实体之间的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。

Description

机器学习模型处理方法、装置及存储介质
技术领域
本申请涉及通信技术领域,尤其涉及一种机器学习模型处理方法、装置及存储介质。
背景技术
为了实现移动通信网络的智能化数据分析和控制,5G网络中引入了网络数据分析功能(Network Data Analytics Function,NWDAF)。NWDAF基于人工智能(ArtificialIntelligence,AI)算法,通过与其它网络功能实体的交互,为其它网络功能实体提供网络数据分析服务。
NWDAF可以与其它NWDAF之间进行联邦学习,其中联邦学习是一个机器学习框架,可以有效帮助多个NWDAF在满足用户隐私保护及数据安全的要求下,进行数据使用和机器学习建模,以得到优化的机器学习(Machine Learning,ML)模型。现有的涉及NWDAF的联邦学习方法仅能够在NWDAF实体之间实现,不适用于快速发展的通信业务与应用需求。
发明内容
本申请提供一种机器学习模型处理方法、装置及存储介质,以实现UE和用于提供模型的第一网络功能实体之间的联邦学习。
第一方面,本申请提供一种机器学习模型处理方法,应用于用户设备UE,该方法包括:
确定与目标应用相关的本地训练数据;
根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
可选的,所述方法还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述将所述本地模型参数发送给所述第一网络功能实体,包括:
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,以通过所述AF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,由所述AF实体通过网络能力开放功能NEF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
非接入层将携带所述本地模型参数的模型更新信息发送给接入与移动性管理功能AMF实体,以通过所述AMF实体将所述模型更新信息发送给所述第一网络功能实体。
可选的,所述模型更新信息中还包括以下任意一项或多项:UE标识、应用标识、第一网络功能实体标识,以用于所述AF实体或所述AMF实体确定所述第一网络功能实体和/或全局机器学习模型。
可选的,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,包括:
接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
可选的,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到,包括:
从第一网络功能实体获取全局机器学习模型的第一模型文件;
根据所述第一模型文件,创建本地机器学习模型。
可选的,所述从第一网络功能实体获取全局机器学习模型的第一模型文件,包括:
向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
可选的,所述向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息,包括:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件,包括:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
可选的,所述模型描述信息包括以下至少一项:
应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
第二方面,本申请提供一种机器学习模型处理方法,应用于AF实体,该方法包括:
接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
可选的,所述方法还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述将所述模型更新信息发送给所述第一网络功能实体,包括:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
可选的,所述接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还包括:
接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE。
可选的,所述根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体,包括:
若AF实体为可信AF实体,则选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体;或者,
若AF实体为不可信AF实体,则将所述模型获取信息发送给NEF实体,通过NEF实体选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
通过应用层向所述UE发送模型获取响应,其中所述模型获取响应中包括所述第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
第三方面,本申请提供一种机器学习模型处理方法,应用于用于提供模型的第一网络功能实体,该方法包括:
获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
根据所述本地模型参数更新所述全局机器学习模型。
可选的,所述根据所述本地模型参数更新所述全局机器学习模型后,还包括:
将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还包括:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
第四方面,本申请提供一种用户设备,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
确定与目标应用相关的本地训练数据;
根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
可选的,所述方法还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述将所述本地模型参数发送给所述第一网络功能实体,包括:
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,以通过所述AF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,由所述AF实体通过网络能力开放功能NEF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
非接入层将携带所述本地模型参数的模型更新信息发送给接入与移动性管理功能AMF实体,以通过所述AMF实体将所述模型更新信息发送给所述第一网络功能实体。
可选的,所述模型更新信息中还包括以下任意一项或多项:UE标识、应用标识、第一网络功能实体标识,以用于所述AF实体或所述AMF实体确定所述第一网络功能实体和/或全局机器学习模型。
可选的,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,包括:
接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
可选的,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到,包括:
从第一网络功能实体获取全局机器学习模型的第一模型文件;
根据所述第一模型文件,创建本地机器学习模型。
可选的,所述从第一网络功能实体获取全局机器学习模型的第一模型文件,包括:
向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
可选的,所述向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息,包括:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件,包括:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
可选的,所述模型描述信息包括以下至少一项:
应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
第五方面,本申请提供一种AF实体,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
可选的,所述方法还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述将所述模型更新信息发送给所述第一网络功能实体,包括:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
可选的,所述接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还包括:
接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE。
可选的,所述根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体,包括:
若AF实体为可信AF实体,则选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体;或者,
若AF实体为不可信AF实体,则将所述模型获取信息发送给NEF实体,通过NEF实体选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体。
可选的,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
通过应用层向所述UE发送模型获取响应,其中所述模型获取响应中包括所述第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
第六方面,本申请提供一种用于提供模型的第一网络功能实体,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
根据所述本地模型参数更新所述全局机器学习模型。
可选的,所述根据所述本地模型参数更新所述全局机器学习模型后,还包括:
将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
可选的,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还包括:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
第七方面,本申请提供一种机器学习模型处理装置,应用于UE,所述装置包括:
获取单元,用于确定与目标应用相关的本地训练数据;
训练单元,用于根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
发送单元,用于将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
第八方面,本申请提供一种机器学习模型处理装置,应用于AF实体,所述装置包括:
接收单元,用于接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
发送单元,用于将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
第九方面,本申请提供一种机器学习模型处理装置,应用于用于提供模型的第一网络功能实体,所述装置包括:
获取单元,用于获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
模型更新单元,用于根据所述本地模型参数更新所述全局机器学习模型。
第十方面,本申请提供一种处理器可读存储介质,所述处理器可读存储介质存储有计算机程序,所述计算机程序用于使所述处理器执行第一方面或第二方面或第三方面所述的方法。
第十一方面,本申请提供一种计算机程序产品,包括计算机程序,所述计算机程序用于使所述处理器执行第一方面或第二方面或第三方面所述的方法。
本申请提供一种机器学习模型处理方法、装置及存储介质,通过UE预先根据第一网络功能实体提供的全局机器学习模型创建目标应用的本地机器学习模型,UE确定与目标应用相关的本地训练数据,并根据本地训练数据对本地机器学习模型进行训练,将训练后的本地机器学习模型的本地模型参数发送给第一网络功能实体,以由第一网络功能实体更新全局机器学习模型。本申请实施例可实现UE和用于提供模型的第一网络功能实体之间的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
应当理解,上述发明内容部分中所描述的内容并非旨在限定本发明的实施例的关键或重要特征,亦非用于限制本发明的范围。本发明的其它特征将通过以下的描述变得容易理解。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的机器学习模型处理方法应用场景示意图;
图2a为本发明一实施例提供的机器学习模型处理方法的流程图;
图2b为本发明一实施例提供的机器学习模型处理方法的流程图;
图3为本发明另一实施例提供的机器学习模型处理方法的流程图;
图4为本发明另一实施例提供的机器学习模型处理方法的信令图;
图5为本发明另一实施例提供的机器学习模型处理方法的流程图;
图6为本发明另一实施例提供的机器学习模型处理方法的信令图;
图7为本发明另一实施例提供的机器学习模型处理方法的流程图;
图8为本发明另一实施例提供的机器学习模型处理方法的信令图;
图9为本发明另一实施例提供的机器学习模型处理方法的流程图;
图10为本发明另一实施例提供的机器学习模型处理方法的信令图;
图11为本发明另一实施例提供的机器学习模型处理方法的流程图;
图12为本发明另一实施例提供的机器学习模型处理方法的信令图;
图13为本发明另一实施例提供的机器学习模型处理方法的流程图;
图14为本发明另一实施例提供的机器学习模型处理方法的信令图;
图15a为本发明另一实施例提供的机器学习模型处理方法的流程图;
图15b为本发明另一实施例提供的机器学习模型处理方法的流程图;
图16为本发明另一实施例提供的机器学习模型处理方法的流程图;
图17为本发明一实施例提供的用户设备的结构图;
图18为本发明一实施例提供的AF实体的结构图;
图19为本发明一实施例提供的第一网络功能实体的结构图;
图20为本发明一实施例提供的机器学习模型处理装置的结构图;
图21为本发明另一实施例提供的机器学习模型处理装置的结构图;
图22为本发明另一实施例提供的机器学习模型处理装置的结构图。
具体实施方式
本申请中术语“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本申请实施例中术语“多个”是指两个或两个以上,其它量词与之类似。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。
为了实现移动通信网络的智能化数据分析和控制,5G网络中引入了网络数据分析功能(Network Data Analytics Function,NWDAF)。NWDAF基于人工智能(ArtificialIntelligence,AI)算法,通过与其它网络功能实体的交互,为其它网络功能实体提供网络数据分析(以下将“网络数据分析”简称为“分析”或“网络分析”)服务。
NWDAF可以与其它NWDAF之间进行联邦学习,以得到优化的机器学习(MachineLearning,ML)模型,用于AI推理。现有的一种NWDAF之间进行联邦学习的流程为:一个或多个机器学习模型用户NWDAF(ML model consumer)向机器学习模型提供者NWDAF(ML modelprovider)请求全局模型,然后使用本地采集的数据对该模型进行训练,生成本地模型,并将本地更新的模型参数发送给机器学习模型提供者NWDAF。机器学习模型提供者NWDAF根据机器学习模型用户NWDAF提供的本地更新的模型参数,更新全局模型,再将更新的全局模型提供给机器学习模型用户NWDAF。这样循环多次,最终得到针对该网络分析的更优的模型。
快速发展的通信业务与应用需求,要求用户设备UE(User Equiement)也支持AI功能,实现应用的智能化与通信的智能化。UE与网络之间的联邦学习将有利于提高UE和网络的机器学习模型的训练效率和性能,同时保护UE本地用户数据的隐私性。但是,现有技术尚不支持实现UE与网络(例如NWDAF)之间的联邦学习,包括UE向网络订阅和更新机器学习模型等。
为了解决上述技术问题,本申请实施例中通过UE预先根据第一网络功能实体提供的全局机器学习模型的第一模型文件创建目标应用的本地机器学习模型,UE根据本地训练数据对本地机器学习模型进行再训练,将训练后的本地机器学习模型的模型相关数据通过应用层或非接入层(Non-Access-Stratum,NAS)发送给第一网络功能实体,以由第一网络功能实体更新全局机器学习模型;UE再通过应用层或NAS从第一网络功能实体获取更新后的全局机器学习模型的第二模型文件,更新本地机器学习模型。通过应用层或非接入层NAS可实现UE和用于提供模型的第一网络功能实体之间的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
本申请实施例应用于如图1所示的应用场景,该应用场景中包括用户设备101和用于提供模型的第一网络功能实体102,可选的,第一网络功能实体102可以为NWDAF实体。用户设备101预先根据第一网络功能实体102提供的全局机器学习模型的第一模型文件创建目标应用的本地机器学习模型,第一模型文件可包括全局机器学习模型的模型参数,进一步的,用户设备101根据本地训练数据对本地机器学习模型进行训练,将训练后的本地机器学习模型的本地模型参数通过应用层或非接入层NAS发送给第一网络功能实体102,第一网络功能实体102更新全局机器学习模型,用户设备101再通过应用层或NAS从第一网络功能实体获取更新后的全局机器学习模型的第二模型文件的信息,更新本地机器学习模型。
其中,本申请实施例涉及的用户设备(UE),可以是指向用户提供语音和/或数据连通性的设备,具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备等。在不同的系统中,用户设备的名称可能也不相同,例如在5G系统中,用户设备可以称为UE。无线终端设备可以经无线接入网(Radio Access Network,RAN)与核心网(CoreNetwork,CN)进行通信,无线终端设备可以是移动终端设备,如移动电话(或称为“蜂窝”电话)和具有移动终端设备的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语言和/或数据。例如,个人通信业务(PersonalCommunication Service,PCS)电话、无绳电话、会话发起协议(Session InitiatedProtocol,SIP)话机、无线本地环路(Wireless Local Loop,WLL)站、个人数字助理(Personal Digital Assistant,PDA)等设备。无线终端设备也可以称为系统、订户单元(subscriber unit)、订户站(subscriber station),移动站(mobile station)、移动台(mobile)、远程站(remote station)、接入点(access point)、远程终端设备(remoteterminal)、接入终端设备(access terminal)、用户终端设备(user terminal)、用户代理(user agent)、用户装置(user device),本申请实施例中并不限定。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,并不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
其中,方法和装置是基于同一申请构思的,由于方法和装置解决问题的原理相似,因此装置和方法的实施可以相互参见,重复之处不再赘述。
实施例一
图2a为本实施例提供的机器学习模型处理方法的流程图。如图2a所示,本实施例提供一种机器学习模型处理方法,执行主体为用户设备UE,该方法具体步骤如下:
S201、确定与目标应用相关的本地训练数据;
S202、根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
S203、将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在本实施例中,用于提供模型的第一网络功能实体可以提供目标应用的全局机器学习模型,本实施例中不限制具体的机器学习模型,例如图像处理的机器学习模型。可选的,第一网络功能实体可以为NWDAF实体,或者其他能够提供机器学习模型的设备。
UE预先可从第一网络功能实体获取全局机器学习模型的第一模型文件(modelfile),第一模型文件可包括全局机器学习模型的模型参数,并根据第一模型文件创建目标应用的本地机器学习模型,可选的,UE可通过应用层或非接入层NAS从第一网络功能实体获取第一模型文件,具体过程此处先不赘述。
在UE创建本地机器学习模型后的任意时间,例如应用本地机器学习模型的阶段中,可以基于UE中与目标应用相关的本地训练数据对本地机器学习模型进行再训练,更新本地机器学习模型的模型参数,得到本地模型参数,具体的再训练过程可以采用任意的训练方法,此处不再赘述。其中本地训练数据可以为与目标应用相关的任意数据,例如使用本地机器学习模型过程中的相关数据,或者目标应用的历史数据等等。
进一步的,在本地机器学习模型完成训练后,为了实现联邦学习,UE可将训练后的本地机器学习模型的本地模型参数发送给第一网络功能实体,可选的,可通过应用层或非接入层NAS发送给第一网络功能实体,而第一网络功能实体可以接收到任意一个或多个UE发送的本地模型参数,此外,第一网络功能实体也可能接收其他网络功能实体(例如其它NWDAF)发送的本地模型参数,根据接收到本地模型参数更新全局机器学习模型,从而满足可以隔离各UE之间数据,保护用户隐私及数据安全,实现全局机器模型的学习建模,其中更新全局机器学习模型的过程可采用任意的联邦学习场景中的模型更新方法,此处不再赘述。
其中,在一种可选实施例中,UE可将训练后的本地机器学习模型的本地模型参数通过应用层发送给第一网络功能实体,也即UE采用用户面发送本地模型参数,具体的,UE通过应用层向AF(Application Function,应用功能)实体发送携带本地模型参数的模型更新信息,进而AF实体直接或通过NEF(Network Exposure Function,网络能力开放功能)实体将携带本地模型参数的模型更新信息发送给第一网络功能实体,以使第一网络功能实体根据本地模型参数更新全局机器学习模型。
在另一种可选实施例中,UE可将训练后的本地机器学习模型的本地模型参数通过非接入层NAS发送给第一网络功能实体,也即UE采用控制面发送本地模型参数,具体的,UE向AMF(Access and Mobility Management Function,接入与移动性管理功能)实体发送包括本地模型参数的模型更新信息,进而AMF实体可将包括本地模型参数的模型更新信息发送给第一网络功能实体,以使第一网络功能实体根据本地模型参数更新全局机器学习模型,
本实施例提供的机器学习模型处理方法,通过UE预先根据第一网络功能实体提供的全局机器学习模型创建目标应用的本地机器学习模型,UE确定与目标应用相关的本地训练数据,并根据本地训练数据对本地机器学习模型进行训练,将训练后的本地机器学习模型的本地模型参数发送给第一网络功能实体,以由第一网络功能实体更新全局机器学习模型。本实施例可实现UE和用于提供模型的第一网络功能实体之间的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
可选的,如图2b所示,在上述本实施例的基础上,在S203后还可包括:
S204、从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在本实施例中,在第一网络功能实体根据接收到的本地模型参数更新全局机器学习模型后,第一网络功能实体可将更新后的全局机器学习模型的全局模型参数传输给UE,使得UE根据更新后的全局模型参数更新本地机器学习模型,使得更新后的本地机器学习模型具有更好的预测能力。可选的,第一网络功能实体可将更新后的全局机器学习模型的第二模型文件传输给UE,或将第二模型文件的地址信息传输给UE,其中,第二模型文件中包括更新后的全局机器学习模型的全局模型参数。
其中,UE可接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
具体的,在一种可选实施例中,AF实体可从第一网络功能实体获取全局模型参数、或包括更新后的全局模型参数的第二模型文件、或第二模型文件的地址信息,并通过应用层向UE发送模型更新响应,其中模型更新响应中包括全局模型参数、或第二模型文件、或第二模型文件的地址信息,其中UE在获取到第二模型文件的地址信息时可根据第二模型文件的地址信息获取第二模型文件,从而获取新后的全局模型参数,此外模型更新响应中还可包括订阅关联信息及UE标识等,其中订阅关联信息可以为全局模型参数与UE的关联信息。
在另一种可选实施例中,AMF实体可从第一网络功能实体获取全局模型参数、或包括更新后的全局模型参数的第二模型文件、或第二模型文件的地址信息,并向UE发送模型更新响应,模型更新响应包括全局模型参数、或第二模型文件、或第二模型文件的地址信息,其中UE在获取到第二模型文件的地址信息时可根据第二模型文件的地址信息获取第二模型文件,从而获取新后的全局模型参数,此外模型更新响应中还可包括订阅关联信息、UE标识等。
需要说明的是,第一网络功能实体可能为多个不同的UE提供全局机器学习模型,因此,第一网络功能实体可能收到一个或多个UE发送的训练后的本地机器学习模型的本地模型参数,进而根据一个或多个本地模型参数更新更新全局机器学习模型;而在第一网络功能实体更新全局机器学习模型后,可将更新后的全局机器学习模型的第二模型文件传输给该一个或多个UE,或者传输给所有订阅了该全局机器学习模型的UE。
实施例二
本实施例中对实施例一中的S201之前UE根据第一网络功能实体训练的全局机器学习模型得到本地机器学习模型的实现方式进行详细介绍。
在本实施例中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到,具体包括:
从第一网络功能实体获取全局机器学习模型的第一模型文件;
根据所述第一模型文件,创建本地机器学习模型。
在本实施例中,UE在最初创建本地机器学习模型时,可从第一网络功能实体获取全局机器学习模型的第一模型文件,其中,第一模型文件中可包括全局机器学习模型的全局模型参数,进而UE可根据第一模型文件中的全局模型参数创建本地机器学习模型,作为UE根据本地训练数据对本地机器学习模型进行训练的基础。
在本实施例中,所述从第一网络功能实体获取全局机器学习模型的第一模型文件,包括:
向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
在本实施例中,可能存在至少一个第一网络功能实体为UE提供不同的全局机器模型,因此在UE向第一网络功能实体获取全局机器模型时,可携带UE标识和/或模型描述信息,以便于根据UE标识和/或模型描述信息选择服务于UE的第一网络功能实体、和/或能够提供满足模型描述信息的全局机器学习模型的第一网络功能实体,进而获取到UE所需的全局机器学习模型。
其中,模型描述信息包括以下至少一项:应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
其中,应用标识(Application ID),应用例如摄像应用、车联网(V2X:Vehicle toEverything)应用、远程控制;
应用子特性标识(Feature ID),应用子特性例如摄像应用中的人像摄影、车联网应用中的导航、远程控制中的挖掘机控制;
时间信息,表示该机器学习模型使用的时间段或时间点,例如摄像、车辆网服务或远程控制的时间段;
地点信息,表示该机器学习模型使用的区域或地点,还可以包含该区域/地点的特征信息,例如都市、乡村、山地、平原等;
其它模型特征信息,例如摄像应用的分辨率和滤镜信息(黑白、复古等)、车联网服务的定位/导航精度、远程控制的精度信息等。
在上述实施例的基础上,可选的,在向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息时,具体可包括:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
在本实施例中,可以采用上述不同的方式来将模型获取信息发送给第一网络功能实体,其中,UE通过应用层向AF实体发送模型获取信息是基于用户面实现模型获取信息的传输,而通过非接入层向AMF实体发送发送模型获取信息是基于控制面实现模型获取信息的传输;进一步的,在AF实体接收到模型获取信息后,可直接或通过NEF实体根据UE标识和/或模型描述信息选择第一网络功能实体后将模型获取信息传输给第一网络功能实体,而AMF实体接收到模型获取信息后,也可同样的根据UE标识和/或模型描述信息选择第一网络功能实体后将模型获取信息传输给第一网络功能实体。
在上述实施例的基础上,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件,具体可包括:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
在本实施例中,与实施例一中类似,AF实体可从第一网络功能实体获取全局模型参数、或包括全局模型参数的第一模型文件、或第一模型文件的地址信息,并通过应用层向UE发送模型获取响应,其中模型获取响应中包括全局模型参数、或第一模型文件、或第一模型文件的地址信息,其中UE在获取到第一模型文件的地址信息时可根据第一模型文件的地址信息获取第一模型文件,从而获取新后的全局模型参数,此外模型获取响应中还可包括订阅关联信息及UE标识等,其中订阅关联信息可以为全局模型参数与UE的关联信息。
在另一种可选实施例中,AMF实体可从第一网络功能实体获取全局模型参数、或包括全局模型参数的第一模型文件、或第一模型文件的地址信息,并向UE发送模型获取响应,模型获取响应包括全局模型参数、或第一模型文件、或第一模型文件的地址信息,其中UE在获取到第一模型文件的地址信息时可根据第一模型文件的地址信息获取第一模型文件,从而获取新后的全局模型参数,此外模型获取响应中还可包括订阅关联信息、UE标识等。
实施例三
本实施例中对实施例二中的UE根据第一网络功能实体训练的全局机器学习模型得到本地机器学习模型的实现方式进行详细介绍。
在本实施例中,UE可通过应用层从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息,其中第一模型文件的信息可包括全局模型参数、或者包括全局模型参数的第一模型文件、或者第一模型文件的地址信息,再根据所述第一模型文件的信息创建本地机器学习模型,也即UE通过应用层向AF实体向第一网络功能实体请求订阅全局机器学习模型,AF实体代表UE从第一网络功能实体获取全局机器学习模型的第一模型文件、并通过应用层提供给UE,从而在用户面实现机器学习模型订阅。
本实施例中的AF实体为可信AF实体,如图3所示,上述过程具体如下:
S301、通过应用层向AF实体发送第一模型获取请求,以使AF实体根据所述第一模型获取请求,确定第一网络功能实体后从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息,所述第一模型获取请求包括UE标识和/或模型描述信息;
S302、接收AF实体通过应用层发送的模型获取响应;
其中所述模型获取响应可包括所述第一模型文件的信息,第一模型文件的信息可包括全局模型参数、或者包括全局模型参数的第一模型文件、或者第一模型文件的地址信息,模型获取响应还可包括订阅关联信息、UE标识等,所述第一模型文件的信息为所述AF实体从所述第一网络功能实体获取;
S303、根据所述第一模型文件的信息创建本地机器学习模型。
在本实施例中,UE通过应用层借助AF实体向第一网络功能实体请求获取全局机器学习模型,AF实体获取到全局机器学习模型后,可通过应用层发送给UE。
可选的,在上述实施例的基础上,在S301之前,可先建立UE与AF实体之间的PDU(Protocol Data Unit,协议数据单元)会话,用于在应用层连接所述UE与所述AF实体,以传输第一模型获取请求以及模型获取响应。
其中所述PDU会话包括:专用于传输机器学习模型数据的PDU会话,或专用于承载特定应用数据的PDU会话。所述PDU会话中包含专门用于传输机器学习模型数据的QoSflow,和/或,专门用于传输机器学习模型相关信令的QoS flow,其中上述QoS flow通过PDU会话建立或修改流程来建立。
在上述实施例的基础上,第一模型获取请求包括UE标识和/或模型描述信息;其中,AF实体可根据UE标识和/或模型描述信息选择服务于UE的备选第一网络功能实体、和/或能够提供满足模型描述信息的全局机器学习模型的备选第一网络功能实体,确定为第一网络功能实体。其中,模型描述信息包括以下至少一项:应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
其中,应用标识(Application ID),应用例如摄像应用、车联网(V2X:Vehicle toEverything)应用、远程控制;
应用子特性标识(Feature ID),应用子特性例如摄像应用中的人像摄影、车联网应用中的导航、远程控制中的挖掘机控制;
时间信息,表示该机器学习模型使用的时间段或时间点,例如摄像、车辆网服务或远程控制的时间段;
地点信息,表示该机器学习模型使用的区域或地点,还可以包含该区域/地点的特征信息,例如都市、乡村、山地、平原等;
其它模型特征信息,例如摄像应用的分辨率和滤镜信息(黑白、复古等)、车联网服务的定位/导航精度、远程控制的精度信息等。
作为一种示例,下面结合如图4所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S311、建立UE与AF实体之间的PDU会话,以在应用层连接UE与AF实体;
其中,PDU会话包括:专用于传输机器学习模型数据的PDU会话,或专用于承载特定应用数据的PDU会话。
S312、UE通过应用层向AF实体发送对全局机器学习模型的第一模型获取请求;
其中,第一模型获取请求可包括UE标识和/或模型描述信息;
可选的,第一模型获取请求中也可包括NWDAF实体标识,指示服务于UE的NWDAF实体,则AF实体可直接确定NWDAF实体,无需执行下述的选择NWDAF实体的过程;NWDAF实体标识可以预配置在UE中或通过历史模型订阅、更新过程确定。
S313、AF实体根据第一模型获取请求,选择NWDAF实体;
其中,AF实体可以选择服务于所述UE的备选NWDAF实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的备选NWDAF实体,确定为最终的NWDAF实体;
S314、AF实体向NWDAF实体发送第二模型获取请求;
其中,第二模型获取请求包括UE标识和/或模型描述信息;其中AF实体可从第一模型获取请求中提取所需信息后生成能够发送给NWDAF的第二模型获取请求。
S315、NWDAF实体生成订阅关联信息,根据第二获取请求确定全局机器学习模型,并向AF实体发送模型获取通知;
其中,模型订阅是模型获取的一种可选方式,在UE订阅全局机器学习模型后,在全局机器学习模型发生更新后,第一网络功能实体可将更新后的全局机器学习模型的全局模型参数推送至UE。具体的,模型订阅通知包括全局机器学习模型的模型信息及订阅关联信息。所述模型信息包括第一模型文件的信息;该第一模型文件的信息可以是以下信息:全局机器学习模型的全局模型参数、或包含全局机器学习模型的全局模型参数的第一模型文件、或该第一模型文件的地址信息,或存储该第一模型文件的网络功能实体(例如数据库功能实体)的信息,等。订阅关联信息可以为订阅关联标识(Subscription Correlation ID),NWDAF实体分配订阅关联标识,具体地:NWDAF实体可以为订阅同一个模型的不同UE分配同一个订阅关联标识,或为订阅同一个模型的不同UE分配不同的订阅关联标识。当然本示例中也可不采用模型订阅方式,也即可不涉及上述订阅关联信息。
其中NWDAF实体可以提供满足模型描述信息的全局机器学习模型,例如模型描述信息为下午6点-7点乡村环境下的黑白人像摄影,NWDAF实体所提供的模型可以取得该场景下最佳/较佳的摄影效果;或者,模型描述信息为下午6点-7点区域A的交通导航信息,NWDAF实体所提供的模型可以取得该时间和区域下最佳/较佳的导航效果。
可选地,S316、AF实体根据第一模型文件的信息获取第一模型文件;
S317、AF实体通过应用层向UE发送模型获取响应;
其中,所述模型获取响应中包括所述第一模型文件的信息,还可包括订阅关联信息及UE标识;
S318、UE根据第一模型文件的信息获取第一模型文件,依据第一模型文件创建本地机器学习模型。也即UE可基于第一模型文件中的全局模型参数创建本地机器学习模型。
本实施例通过上述过程可通过应用层实现UE从用于提供模型的第一网络功能实体获取机器学习模型,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例四
本实施例中对实施例二中的UE根据第一网络功能实体训练的全局机器学习模型得到本地机器学习模型的实现方式进行详细介绍。
在本实施例中,UE可通过应用层从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息,第一模型文件的信息可包括全局模型参数、或者包括全局模型参数的第一模型文件、或者第一模型文件的地址信息,再根据所述第一模型文件的信息创建本地机器学习模型,也即UE通过应用层向AF实体向第一网络功能实体请求获取全局机器学习模型,AF实体代表UE从第一网络功能实体获取全局机器学习模型的第一模型文件、并通过应用层提供给UE,从而在用户面实现机器学习模型获取。
与上述实施例不同的是,本实施例中的AF实体为不可信AF实体,AF实体可以借助NEF来实现上述过程,如图5所示,其具体过程如下:
S401、通过应用层向AF实体发送第一模型获取请求,以使AF实体根据所述第一模型获取请求,通过NEF实体确定第一网络功能实体后从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息,所述第一模型获取请求包括UE标识和/或模型描述信息;
S402、接收AF实体通过应用层发送的模型获取响应,
其中所述模型获取响应包括所述第一模型文件的信息,第一模型文件的信息可包括全局模型参数、或者包括全局模型参数的第一模型文件、或者第一模型文件的地址信息,模型获取响应还可包括订阅关联信息、UE标识等,所述第一模型文件的信息为所述AF实体从所述第一网络功能实体获取;
S403、根据所述第一模型文件的信息创建本地机器学习模型。
在本实施例中,由于AF实体不可信,因此,AF与第一网络功能实体之间的通信通过NEF实体来实现,也即UE通过应用层向AF实体发送第一模型获取请求,AF实体向NEF实体发送第三模型获取请求,NEF实体选择第一网络功能实体后向第一网络功能实体发送第四模型获取请求;而第一网络功能实体可将第一模型文件的信息通过NEF实体发送给AF,AF实体获取到第一模型文件的信息后,可通过应用层发送给UE。
可选的,在上述实施例的基础上,在S401之前,可先建立UE与AF实体之间的PDU会话,用于在应用层连接所述UE与所述AF实体,以传输第一模型获取请求以及模型获取响应,可参见实施例二。
在上述实施例的基础上,第一模型获取请求包括UE标识和/或模型描述信息;其中,NEF实体可根据UE标识和/或模型描述信息选择服务于UE的备选第一网络功能实体、和/或能够提供满足模型描述信息的全局机器学习模型的备选第一网络功能实体,确定为第一网络功能实体,可参见实施例二。
作为一种示例,下面结合如图6所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S411、建立UE与AF实体之间的PDU会话,以在应用层连接UE与AF实体;
S412、UE通过应用层向AF实体发送对全局机器学习模型的第一模型获取请求;
其中,第一模型获取请求可包括UE标识和/或模型描述信息;
可选的,第一模型获取请求中也可包括NWDAF实体标识,指示服务于UE的NWDAF实体,则NEF实体可直接确定NWDAF实体,无需执行下述的选择NWDAF实体的过程;
S413、AF实体根据第一模型获取请求,向NEF实体发送第三模型获取请求;
其中,第三模型获取请求可包括UE标识和/或模型描述信息;其中
S414、NEF实体根据第三模型获取请求,选择NWDAF实体;AF实体可从第一模型获取请求中提取所需信息后生成能够发送给NEF的第三模型获取请求。
其中,NEF实体可以选择服务于所述UE的备选NWDAF实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的备选NWDAF实体,确定为最终的NWDAF实体;
S415、NEF实体向NWDAF实体发送第四模型获取请求;
其中,第四模型获取请求包括UE标识和/或模型描述信息;
S416、NWDAF实体生成订阅关联信息,根据第四获取请求确定全局机器学习模型,并向NEF实体发送模型获取通知;
其中,模型获取通知包括全局机器学习模型的模型信息及订阅关联信息。所述模型信息包括第一模型文件的信息。该第一模型文件的信息可以是以下信息:包含全局机器学习模型参数的第一模型文件、该第一模型文件的地址,或存储该第一模型文件的网络功能实体(例如数据库功能实体)的信息,等。所述订阅关联信息可以为订阅关联标识,NWDAF实体分配订阅关联标识,具体地:NWDAF实体可以为订阅同一个模型的不同UE分配同一个订阅关联标识,或为订阅同一个模型的不同UE分配不同的订阅关联标识。当然本示例中也可不采用模型订阅方式,也即可不涉及上述订阅关联信息。
S417、NEF实体向AF实体发送模型获取通知;
其中,模型获取通知包括全局机器学习模型的模型信息及订阅关联信息;模型信息包括第一模型文件的信息;该第一模型文件的信息可以是以下信息:包含全局机器学习模型参数的第一模型文件、该第一模型文件的地址,或存储该第一模型文件的网络功能实体(例如数据库功能实体)的信息,等。
可选地,S418、AF实体根据第一模型文件的信息获取第一模型文件;
S419、AF实体通过应用层向UE发送模型获取响应;
其中,所述模型获取响应中包括所述第一模型文件的信息,还可包括订阅关联信息及UE标识;
S4110、UE根据第一模型文件的信息获取第一模型文件,依据第一模型文件创建本地机器学习模型。也即UE可基于第一模型文件中的全局模型参数创建本地机器学习模型。
本实施例通过上述过程可通过应用层实现UE从用于提供模型的第一网络功能实体获取机器学习模型,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例五
本实施例中对实施例二中的UE根据第一网络功能实体训练的全局机器学习模型得到本地机器学习模型的实现方式进行详细介绍。
在本实施例中,UE可通过非接入层NAS从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息,其中第一模型文件的信息可包括全局模型参数、或者包括全局模型参数的第一模型文件、或者第一模型文件的地址信息,再根据所述第一模型文件的信息创建本地机器学习模型,如图7所示,具体过程如下:
S501、向AMF实体发送获取模型的第三NAS消息,以使所述AMF实体根据所述第三NAS消息,从所述第一网络功能实体获取全局机器学习模型的第一模型文件的信息;
该第一模型文件的信息可以是以下信息:全局模型参数、或者包含全局机器学习模型参数的第一模型文件、或者该第一模型文件的地址信息,或存储该第一模型文件的网络功能实体(例如数据库功能实体)的信息,等。
S502、接收AMF实体发送的响应获取模型的第四NAS消息,其中所述第四NAS消息包括所述第一模型文件的信息及获取关联信息;
S503、根据所述第一模型文件的信息获取所述第一模型文件;
S504、根据所述第一模型文件创建本地机器学习模型。
在本实施例中,UE通过控制面的非接入层NAS借助AMF实体向第一网络功能实体请求获取全局机器学习模型,AMF实体获取到全局机器学习模型的第一模型文件的信息后,可通过非接入层NAS发送给UE,UE可根据第一模型文件的信息获取全局机器学习模型。
在上述实施例的基础上,第三NAS消息包括UE标识和/或模型描述信息;其中,AMF实体可根据UE标识和/或模型描述信息选择服务于UE的备选第一网络功能实体、和/或能够提供满足模型描述信息的全局机器学习模型的备选第一网络功能实体,确定为第一网络功能实体,可参见实施例二。
可选的,UE向AMF实体发送的NAS消息可以包括但不限于上行非接入层传输(ULNAS Transport)消息、注册请求(Registration Request)消息、业务请求(ServiceRequest)消息等。
作为一种示例,下面结合如图8所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S511、向AMF实体发送获取模型的第三NAS消息;
其中,第三NAS消息包括UE标识和/或模型描述信息;
可选的,第三NAS消息中也可包括NWDAF实体标识,指示服务于UE的NWDAF实体,则AMF实体可直接确定NWDAF实体,无需执行下述的选择NWDAF实体的过程;
S512、AMF实体根据第三NAS消息,选择NWDAF实体;
其中,AMF实体可以选择服务于所述UE的备选NWDAF实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的备选NWDAF实体,确定为最终的NWDAF实体;
S513、AMF实体向NWDAF实体发送第五模型获取请求;
其中,第五模型获取请求包括UE标识和/或模型描述信息;其中AMF实体可从第三NAS消息请求中提取所需信息后生成能够发送给NWDAF的第五模型获取请求,当然,AMF实体可将第三NAS消息请求作为第五模型获取请求透传给NWDAF。
S514、NWDAF实体生成订阅关联信息,根据第五获取请求确定全局机器学习模型,并向AMF实体发送模型获取通知;
其中,模型获取通知包括全局机器学习模型的模型信息及订阅关联信息,所述模型信息包括第一模型文件的信息;该第一模型文件的信息可以是以下信息:全局机器学习模型的全局模型参数、或包含全局机器学习模型参数的第一模型文件、或该第一模型文件的地址信息,或存储该第一模型文件的网络功能实体(例如数据库功能实体)的信息,等。
所述订阅关联信息可以为订阅关联标识,NWDAF实体分配订阅关联标识,具体地:NWDAF实体可以为订阅同一个模型的不同UE分配同一个订阅关联标识,或为订阅同一个模型的不同UE分配不同的订阅关联标识。当然本示例中也可不采用模型订阅方式,也即可不涉及上述订阅关联信息。
S515、AMF实体向UE发送响应获取模型的第四NAS消息;
其中,第四NAS消息包括所述第一模型文件的信息及订阅关联信息;
S516、UE根据第一模型文件的信息获取第一模型文件;
S517、UE根据第一模型文件创建本地机器学习模型。也即UE可基于第一模型文件中的全局模型参数创建本地机器学习模型。
本实施例通过上述过程可通过非接入层NAS实现UE从用于提供模型的第一网络功能实体获取机器学习模型,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例六
在本实施例中对实施例一中的S201-S204的可能的实现方式进行详细介绍。
在本实施例中,UE可在对本地机器学习模型再训练后通过应用层的AF实体将本地模型参数传输给第一网络功能实体,并在第一网络功能实体更新全局机器学习模型后在通过应用层的AF实体将更新后的全局机器学习模型的第二模型文件的信息传输给UE,从而在用户面实现机器学习模型的更新。其中第二模型文件的信息可包括更新后的全局模型参数、或者包括更新后的全局模型参数的第二模型文件、或者第二模型文件的地址信息。
本实施例中的AF实体为可信AF实体,如图9所示,在UE创建本地机器学习模型、以及获取到本地训练数据后,上述过程具体如下:
S601、根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S602、通过应用层向应用功能AF实体发送第一模型更新请求,以使所述AF实体根据所述第一模型更新请求,请求所述第一网络功能实体更新全局机器学习模型,所述第一模型更新请求包括所述本地模型参数;
S603、接收所述AF实体通过应用层发送的模型更新响应;
其中所述模型更新响应中包括更新后的全局机器学习模型的第二模型文件的信息,第二模型文件的信息可包括更新后的全局模型参数、或者包括更新后的全局模型参数的第二模型文件、或者第二模型文件的地址信息,模型更新响应还可包括订阅关联信息、UE标识等,所述第二模型文件的信息为所述AF实体从所述第一网络功能实体获取;
S604、根据第二模型文件的信息,更新本地机器学习模型。
具体地,根据第二模型文件的信息获取第二模型文件包括的更新后的全局模型参数,根据更新后的全局模型参数,更新本地机器学习模型。
在本实施例中,UE通过应用层借助AF实体向第一网络功能实体发送本地模型参数,以使第一网络功能实体更新全局机器学习模型,AF实体获取到更新后的全局机器学习模型后,可通过应用层发送给UE。
可选的,在上述实施例的基础上,在S601之前,可先建立UE与AF实体之间的PDU会话,用于在应用层连接UE与AF实体,以传输第一模型更新请求以及模型更新响应。当然,也可采用模型获取阶段建立的PDU会话。
可选的,第一模型更新请求还包括以下至少一项,订阅关联信息、UE标识、应用标识、第一网络功能实体标识,以用于AF实体确定所述第一网络功能实体和/或全局机器学习模型。本实施例中,在模型订阅时可存储UE的模型订阅上下文,进而基于模型订阅上下文,通过订阅关联信息、UE标识、应用标识、第一网络功能实体标识确定为UE提供全局机器学习模型的第一网络功能实体。
作为一种示例,下面结合如图10所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S611、UE根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S612、UE通过应用层向AF实体发送第一模型更新请求;
其中,第一模型更新请求包括所述本地模型参数以及以下至少一项:订阅关联信息、UE标识、应用标识、NWDAF标识。
S613、AF实体根据第一模型更新请求确定NWDAF,向所述NWDAF发送第二模型更新请求;
其中,第二模型更新请求可包括本地模型参数;其中,AF实体可从第一模型更新请求中提取所需信息后生成能够发送给NWDAF的第二模型更新请求。
S614、NWDAF根据所述本地模型参数更新所述全局机器学习模型;
S615、NWDAF向AF实体发送模型更新完成的通知;
其中,模型更新完成的通知包括更新后的全局机器学习模型的模型信息及订阅关联信息,模型信息包括第二模型文件的信息;该第二模型文件的信息可以是以下信息:更新后的全局模型参数、或包含更新后的全局模型参数的第二模型文件、或该第二模型文件的地址信息,或存储该第二模型文件的网络功能实体(例如数据库功能实体)的信息,等。
可选的,S616、AF实体根据第二模型文件的信息获取第二模型文件;
S617、AF实体通过应用层向UE发送模型更新响应;
其中,模型更新响应中包括所述第二模型文件的信息,还可包括订阅关联信息及UE标识;
S618、UE根据第二模型文件的信息获取第二模型文件,根据第二模型文件更新本地机器学习模型。也即UE可基于第二模型文件中的更新后的全局模型参数更新本地机器学习模型。
本实施例通过上述过程可通过应用层实现UE与用于提供模型的NWDAF之间机器学习模型的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例七
在本实施例中对实施例一中的S201-S204的可能的实现方式进行详细介绍。
在本实施例中,UE可在对本地机器学习模型再训练后通过应用层的AF实体将本地模型参数传输给第一网络功能实体,并在第一网络功能实体更新全局机器学习模型后在通过应用层的AF实体将更新后的全局机器学习模型的第二模型文件的信息传输给UE,从而在用户面实现机器学习模型的更新。其中第二模型文件的信息可包括更新后的全局模型参数、或者包括更新后的全局模型参数的第二模型文件、或者第二模型文件的地址信息。与上述实施例不同的是,本实施例中的AF实体为不可信AF实体,AF实体可以借助NEF来实现上述过程,如图11,在UE创建本地机器学习模型、以及获取到本地训练数据后,上述过程具体如下:
S701、根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S702、通过应用层向应用功能AF实体发送第一模型更新请求,以使所述AF实体根据所述第一模型更新请求,通过NEF实体请求所述第一网络功能实体更新全局机器学习模型,所述第一模型更新请求包括所述本地模型参数;
S703、接收所述AF实体通过应用层发送的模型更新响应,
其中所述模型更新响应中包括更新后的全局机器学习模型的第二模型文件的信息,第二模型文件的信息可包括更新后的全局模型参数、或者包括更新后的全局模型参数的第二模型文件、或者第二模型文件的地址信息,模型更新响应还可包括订阅关联信息、UE标识等,所述第二模型文件的信息为所述AF实体从所述第一网络功能实体获取;
S704、根据第二模型文件的信息,更新本地机器学习模型。
具体地,根据第二模型文件的信息获取第二模型文件包括的更新后的全局模型参数,根据第二模型文件包括的更新后的全局模型参数,更新本地机器学习模型。
在本实施例中,由于AF实体不可信,因此,AF与第一网络功能实体之间的通信通过NEF实体来实现,也即UE通过应用层向AF实体发送第一模型更新请求,AF实体向NEF实体发送第三模型更新请求,NEF实体确定第一网络功能实体后向第一网络功能实体发送第四模型更新请求;而第一网络功能实体可将第二模型文件的信息通过NEF实体发送给AF,AF实体获取到第二模型文件的信息后,可通过应用层发送给UE。
可选的,在上述实施例的基础上,在S601之前,可先建立UE与AF实体之间的PDU会话,用于在应用层连接UE与AF实体,以传输第一模型更新请求以及模型更新响应。当然,也可采用模型获取阶段建立的PDU会话。
可选的,第一模型更新请求还包括以下至少一项,订阅关联信息、UE标识、应用标识、第一网络功能实体标识,以用于NEF实体确定所述第一网络功能实体和/或全局机器学习模型。本实施例中,在模型订阅时可存储UE的模型订阅上下文,进而基于模型订阅上下文,通过订阅关联信息、UE标识、应用标识、第一网络功能实体标识确定为UE提供全局机器学习模型的第一网络功能实体。
作为一种示例,下面结合如图12所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S711、UE根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S712、UE通过应用层向AF实体发送第一模型更新请求;
其中,第一模型更新请求包括所述本地模型参数以及以下至少一项:订阅关联信息、UE标识、应用标识、NWDAF标识;
S713、AF实体向NEF实体发送第三模型更新请求;
其中,第三模型更新请求可包括本地模型参数,以及订阅关联信息、UE标识、应用标识、NWDAF标识中的至少一项本地模型参数;其中,AF实体可从第一模型更新请求中提取所需信息后生成能够发送给NEF的第三模型更新请求。
S714、NEF实体根据第三模型更新请求确定NWDAF实体,向所述NWDAF实体发送第四模型更新请求;
其中,第四模型更新请求包括订阅关联信息及所述本地模型参数;其中,NEF实体可从第三模型更新请求中提取所需信息后生成能够发送给NWDAF的第四模型更新请求。
S715、NWDAF实体根据所述本地模型参数更新所述全局机器学习模型;
S716、NWDAF实体向NEF实体发送模型更新完成的通知;
其中,模型更新完成的通知包括更新后的全局机器学习模型的模型信息及订阅关联信息,模型信息包括第二模型文件的信息;该第二模型文件的信息可以是以下信息:更新后的全局模型参数、或包含更新后的全局模型参数的第二模型文件、或该第二模型文件的地址信息,或存储该第二模型文件的网络功能实体(例如数据库功能实体)的信息,等。
S717、NEF实体向AF实体发送模型更新完成的通知;
其中,模型更新完成的通知包括所述NWDAF实体更新后的全局机器学习模型的模型信息,还可包括订阅关联信息,所述模型信息包括所述第二模型文件的信息;
可选地,S718、AF实体根据第二模型文件的信息获取第二模型文件;
S719、AF实体通过应用层向UE发送模型更新响应;
其中,模型更新响应中包括所述第二模型文件的信息,还可包括订阅关联信息及UE标识;
S7110、UE根据第二模型文件的信息获取第二模型文件,根据第二模型文件更新本地机器学习模型。也即UE可基于第二模型文件中的更新后的全局模型参数更新本地机器学习模型。
本实施例通过上述过程可通过应用层实现UE与用于提供模型的第一网络功能实体之间机器学习模型的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例八
在本实施例中对实施例一中的S201-S204的可能的实现方式进行详细介绍。
在本实施例中,UE可在对本地机器学习模型再训练后通过非接入层NAS的AMF实体将本地模型参数传输给第一网络功能实体,并在第一网络功能实体更新全局机器学习模型后在通过非接入层NAS的AMF实体将更新后的全局机器学习模型的第二模型文件的信息传输给UE,从而在用户面实现机器学习模型的更新,如图13,在UE创建本地机器学习模型、以及获取到本地训练数据后,上述过程具体如下:
S801、根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S802、向接入与移动性管理功能AMF实体发送请求更新模型的第一NAS消息,以使所述AMF实体根据所述第一NAS消息,请求所述第一网络功能实体更新全局机器学习模型,所述第一NAS消息包括所述本地模型参数;
S803、接收所述AMF实体发送的响应模型更新的第二NAS消息;
其中所述第二NAS消息包括所述第二模型文件的信息,第二模型文件的信息可包括更新后的全局模型参数、或者包括更新后的全局模型参数的第二模型文件、或者第二模型文件的地址信息,模型更新响应还可包括订阅关联信息等;
S804、根据所述第二模型文件的信息获取所述第二模型文件;
S805、根据第二模型文件,更新本地机器学习模型。
具体地,根据所述第二模型文件的信息获取第二模型文件包括的更新后的全局模型参数,根据第二模型文件包括的更新后的全局模型参数,更新本地机器学习模型。
在本实施例中,UE通过控制面的非接入层NAS借助AMF实体向第一网络功能实体发送本地模型参数,以使第一网络功能实体更新全局机器学习模型,第一网络功能实体更新全局机器学习模型后,可通过非接入层NAS借助AMF实体将第二模型文件的信息发送给UE。该第二模型文件包含更新后的全局模型参数。
可选的,第一NAS消息还包括以下至少一项,订阅关联信息、UE标识、应用标识、第一网络功能实体标识,以用于AMF实体确定所述第一网络功能实体和/或全局机器学习模型。本实施例中,在模型订阅时AMF可存储UE的模型订阅上下文,进而基于模型订阅上下文,通过订阅关联信息、UE标识、应用标识、第一网络功能实体标识确定为UE提供全局机器学习模型的第一网络功能实体。
可选的,UE向AMF实体发送的NAS消息可以包括但不限于上行非接入层传输(ULNAS Transport)消息、注册请求(Registration Request)消息、业务请求(ServiceRequest)消息等。
作为一种示例,下面结合如图14所示的信令图,对本实施例的上述过程进行详细介绍,其中第一网络功能实体以NWDAF实体作为示例。
S811、UE根据本地训练数据对目标应用的本地机器学习模型进行再训练;
S812、UE向AMF实体发送请求更新模型的第一NAS消息;
其中,第一模型更新请求包括所述本地模型参数以及以下至少一项:订阅关联信息、UE标识、应用标识、NWDAF标识;
S813、AMF实体根据第一NAS消息确定NWDAF实体,向NWDAF实体发送第五模型更新请求;
其中,第五模型更新请求包括本地模型参数,还可包括订阅关联信息等;
S814、NWDAF根据所述本地模型参数更新所述全局机器学习模型;
S815、NWDAF向AMF实体发送模型更新完成的通知;
其中,模型更新完成的通知包括更新后的全局机器学习模型的模型信息及订阅关联信息,模型信息包括第二模型文件的信息;该第二模型文件的信息可以是以下信息:更新后的全局模型参数、或该第二模型文件的地址信息,或存储该第二模型文件的网络功能实体(例如数据库功能实体)的信息。
S816、AMF实体向UE发送响应模型更新的第二NAS消息;
其中,第二NAS消息包括所述第二模型文件的信息,还可包括订阅关联信息;
S817、UE根据第二模型文件的信息获取第二模型文件;
S818、UE根据第二模型文件,更新本地机器学习模型。也即UE可基于第二模型文件中的更新后的全局模型参数更新本地机器学习模型。
本实施例通过上述过程可通过非接入层NAS实现UE与用于提供模型的NWDAF之间机器学习模型的联邦学习,提高UE和网络之间共享、传输和训练机器学习模型的性能,满足快速发展的通信业务与应用需求。
实施例九
图15a为本实施例提供的机器学习模型处理方法的流程图。如图15a所示,本实施例提供一种机器学习模型处理方法,执行主体为AF实体,该机器学习模型处理方法具体步骤如下:
S901、接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
S902、将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在上述实施例的基础上,如图15b所示,在S902后还可包括:
S903、从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
S904、通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
本实施例提供的移动网络的联邦学习方法,是上述实施例中AF实体侧的方法,其原理和技术效果可参见上述实施例,此处不再赘述。
在上述实施例的基础上,所述将所述模型更新信息发送给所述第一网络功能实体,具体可包括:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
进一步的,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
在本实施例中,模型更新信息可以为UE通过应用层发送的第一模型更新请求,所述第一模型更新请求包括所述本地模型参数以及以下至少一项:订阅关联信息、UE标识、应用标识、第一网络功能实体标识。
其中,在一种可选实施例中,所述AF实体为可信AF实体;AF实体可根据所述第一模型更新请求确定所述第一网络功能实体;向所述第一网络功能实体发送第二模型更新请求,所述第二模型更新请求包括订阅关联信息及所述本地模型参数。其中AF实体可从第一模型更新请求中提取所需信息后生成能够发送给NWDAF的第二模型更新请求。
进一步的,AF实体还可接收所述第一网络功能实体发送的模型更新完成的通知,其中,所述模型更新完成的通知包括更新后的全局机器学习模型的模型信息,还可包括订阅关联信息,所述模型信息包括所述第二模型文件的信息;可选地,AF实体可根据所述第二模型文件的信息获取所述第二模型文件。
在另一种可选实施例中,所述AF实体为不可信AF实体;AF实体可向NEF实体发送第三模型更新请求,其中所述第三模型更新请求包括订阅关联信息、UE标识、应用标识、第一网络功能实体标识中的至少一项,以及所述本地模型参数,以使所述NEF实体根据所述第三模型更新请求确定所述第一网络功能实体,并向所述第一网络功能实体发送第四模型更新请求,所述第四模型更新请求可包括本地模型参数,还可包括订阅关联信息等。其中,AF实体可从第一模型更新请求中提取所需信息后生成能够发送给NEF的第三模型更新请求;NEF实体可从第三模型更新请求中提取所需信息后生成能够发送给第一网络功能实体的第四模型更新请求
进一步的,AF实体还可接收所述NEF实体发送的模型更新完成的通知,所述模型更新完成的通知包括所述第一网络功能实体更新后的全局机器学习模型的模型信息,还可包括订阅关联信息等,所述模型信息包括所述第二模型文件的信息;可选地,AF实体可根据所述第二模型文件的信息获取所述第二模型文件。
在上述实施例的基础上,AF实体可通过应用层向所述UE发送模型更新响应,其中所述模型更新响应中包括所述第二模型文件的信息,还可包括订阅关联信息、UE标识等。
在一种或多种可能的实施例中,在S901接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还可包括:
接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE。
其中,所述模型描述信息包括以下至少一项:应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
在上述实施例的基础上,所述根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体,包括:
若AF实体为可信AF实体,则选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体;或者,
若AF实体为不可信AF实体,则将所述模型获取信息发送给NEF实体,通过NEF实体选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体。在本实施例中,可选的,所述AF实体为可信AF实体;AF实体可根据所述第一模型获取请求,选择服务于所述UE的备选第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的备选第一网络功能实体,确定为所述第一网络功能实体;然后向所述第一网络功能实体发送第二模型获取请求,其中所述第二模型获取请求可包括所述UE标识和/或所述模型描述信息,以使所述第一网络功能实体确定全局机器学习模型并对所述UE生成订阅关联信息,其中AF实体可从第一模型获取请求中提取所需信息后生成能够发送给NWDAF的第二模型获取请求;最后接收所述第一网络功能实体发送模型获取通知,其中所述模型获取通知包括全局机器学习模型的模型信息及订阅关联信息,所述模型信息包括所述第一模型文件的信息;
可选的,根据所述第一模型文件的信息获取所述第一模型文件。
可选的,所述AF实体也可为不可信AF实体;AF实体可根据所述第一模型获取请求,向NEF实体发送第三模型获取请求,其中所述第三模型获取请求包括所述UE标识和/或所述模型描述信息,以使所述NEF实体选择服务于所述UE的备选第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的备选第一网络功能实体,确定为所述第一网络功能实体,并向所述第一网络功能实体发送第四模型获取请求,其中所述第四模型获取请求包括所述UE标识和/或所述模型描述信息,以使所述第一网络功能实体确定全局机器学习模型并对所述UE生成订阅关联信息,其中AF实体可从第一模型获取请求中提取所需信息后生成能够发送给NEF的第三模型获取请求,NEF实体可从第三模型获取请求中提取所需信息后生成能够发送给NWDAF的第四模型获取请求;接收所述NEF实体发送的模型获取通知,所述模型获取通知包括所述第一网络功能实体提供的全局机器学习模型的模型信息及订阅关联信息,所述模型信息包括所述第一模型文件的信息;
可选的,根据所述第一模型文件的信息获取所述第一模型文件。
在上述实施例的基础上,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
通过应用层向所述UE发送模型获取响应,其中所述模型获取响应中包括所述第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。可选的,所述模型获取响应中还可订阅关联信息及UE标识等。在一种或多种可能的实施例中,所述方法还包括:
建立所述UE与AF实体之间的PDU会话,用于在应用层连接所述UE与所述AF实体,其中所述PDU会话包括:专用于传输机器学习模型数据的PDU会话,或专用于承载特定应用数据的PDU会话。
在一种或多种可能的实施例中,所述第一网络功能实体为NWDAF实体。
实施例十
图16为本实施例提供的机器学习模型处理方法的流程图。如图16所示,本实施例提供一种方法,执行主体为用于提供模型的第一网络功能实体,该机器学习模型处理方法具体步骤如下:
S1001、获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
S1002、根据所述本地模型参数更新所述全局机器学习模型。
进一步的,在所述根据所述本地模型参数更新所述全局机器学习模型后,还可包括:
S1003、将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在上述实施例的基础上,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还包括:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
作为一种示例,第一网络功能实体执行的机器学习模型处理方法具体步骤如下:本实施例提供的机器学习模型处理方法,是上述实施例中第一网络功能实体侧的方法,其原理和技术效果可参见上述实施例,此处不再赘述。
在一种或多种可能的实施例中,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,包括:
接收AF实体直接或通过NEF实体发送的第二模型更新请求,其中,所述第二模型更新请求为AF实体接收到所述UE通过应用层发送的第一模型更新请求后发送的,所述第二模型更新请求包括本地模型参数,还可包括订阅关联信息等;从所述第二模型更新请求中获取所述本地模型参数;或者
接收AMF实体发送的第五模型更新请求,其中,所述第五模型更新请求为AMF实体接收到所述UE发送的请求更新模型的第一NAS消息后发送的,所述第五模型更新请求包括本地模型参数,还可包括订阅关联信息等;从所述第五模型更新请求中获取所述本地模型参数。
在一种或多种可能的实施例中,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还包括:
接收所述UE对全局机器学习模型的获取请求;
根据所述获取请求确定全局机器学习模型;
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,由所述UE根据所述第一模型文件创建本地机器学习模型。
其中,对于模型请阅的情况,还可针对于UE生成订阅关联信息。订阅关联信息可以为订阅关联标识(Subscription Correlation ID),可以为订阅同一个模型的不同UE分配同一个订阅关联标识,或为订阅同一个模型的不同UE分配不同的订阅关联标识。
在一种或多种可能的实施例中,所述接收所述UE对全局机器学习模型的获取请求,具体可包括:
接收AF实体直接或通过NEF实体发送的第二模型获取请求,其中,所述第二模型获取请求为AF实体接收到所述UE通过应用层发送的第一模型获取请求后发送的,所述第二模型获取请求包括UE标识和/或模型描述信息;或者
接收AMF实体发送的第五模型获取请求,其中,所述第五模型获取请求为AMF实体接收到所述UE发送的请求获取模型的第三NAS消息后发送的,第五模型获取请求包括UE标识和/或模型描述信息。
在上述实施例的基础上,将所述全局机器学习模型的第一模型文件的信息发送至所述UE,包括:
向AF实体或AMF实体发送模型获取通知,或者通过NEF实体向AF实体发送模型获取通知,其中所述模型获取通知包括所述全局机器学习模型的模型信息,还可包括订阅关联信息等,所述模型信息包括所述第一模型文件的信息,以使所述第二功能实体将所述第一模型文件的信息发送给所述UE。
在一种或多种可能的实施例中,所述第一网络功能实体为NWDAF实体。
实施例十一
图17为本发明实施例用户设备的结构图。本实施例提供的用户设备可以执行用户设备侧的方法实施例提供的处理流程,如图17所示,所述用户设备1100包括存储器1101,收发机1102,处理器1103。
其中,在图17中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器1103代表的一个或多个处理器和存储器1101代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机1102可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元,这些传输介质包括无线信道、有线信道、光缆等传输介质。处理器1101负责管理总线架构和通常的处理,存储器1103可以存储处理器1103在执行操作时所使用的数据。
处理器1103可以是中央处埋器(CPU)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或复杂可编程逻辑器件(Complex Programmable Logic Device,CPLD),处理器也可以采用多核架构。
存储器1101,用于存储计算机程序;收发机1102,用于在所述处理器1103的控制下收发数据;处理器1103,用于读取所述存储器1101中的计算机程序并执行以下操作:
确定与目标应用相关的本地训练数据;
根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在一种或多种可能的实施例中,所述处理器1103还用于:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述处理器1103在将所述本地模型参数发送给所述第一网络功能实体时,用于:
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,以通过所述AF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,由所述AF实体通过网络能力开放功能NEF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
非接入层将携带所述本地模型参数的模型更新信息发送给接入与移动性管理功能AMF实体,以通过所述AMF实体将所述模型更新信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述模型更新信息中还包括以下任意一项或多项:UE标识、应用标识、第一网络功能实体标识,以用于所述AF实体或所述AMF实体确定所述第一网络功能实体和/或全局机器学习模型。
在一种或多种可能的实施例中,所述处理器1103在从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数时,用于:
接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
在一种或多种可能的实施例中,所述处理器1103在根据第一网络功能实体训练的全局机器学习模型得到本地机器学习模型时,用于:
从第一网络功能实体获取全局机器学习模型的第一模型文件;
根据所述第一模型文件,创建本地机器学习模型。
在一种或多种可能的实施例中,所述处理器1103在从第一网络功能实体获取全局机器学习模型的第一模型文件时,用于:
向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
在一种或多种可能的实施例中,所述处理器1103在向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息时,用于:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述处理器1103在从所述第一网络功能实体中获取全局机器学习模型的第一模型文件时,用于:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
在一种或多种可能的实施例中,所述模型描述信息包括以下至少一项:
应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
本发明实施例提供的用户设备可以具体用于执行上述用户设备侧的方法实施例,具体功能此处不再赘述。
实施例十二
图18为本发明实施例AF实体的结构图。本实施例提供的AF实体可以执行AF实体侧的方法实施例提供的处理流程,如图18所示,所述AF实体1200包括存储器1201,收发机1202,处理器1203;
其中,在图18中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器1203代表的一个或多个处理器1203和存储器1201代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机1202可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元,这些传输介质包括无线信道、有线信道、光缆等传输介质。处理器12031201负责管理总线架构和通常的处理,存储器1203可以存储处理器1203在执行操作时所使用的数据。
处理器1203可以是中央处埋器(CPU)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或复杂可编程逻辑器件(CPLD),处理器1203也可以采用多核架构。
存储器1201,用于存储计算机程序;收发机1202,用于在所述处理器1203的控制下收发数据;处理器1203,用于读取所述存储器1201中的计算机程序并执行以下操作:
接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在一种或多种可能的实施例中,处理器1203还用于:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述处理器1203在将所述模型更新信息发送给所述第一网络功能实体时,用于:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述处理器1203在从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息时,用于:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
在一种或多种可能的实施例中,所述处理器1203在接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还用于:
接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE。
在一种或多种可能的实施例中,所述处理器1203在根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体时,用于:
若AF实体为可信AF实体,则选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体;或者,
若AF实体为不可信AF实体,则将所述模型获取信息发送给NEF实体,通过NEF实体选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述处理器1203在从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE时,用于:
直接或者通过NEF实体从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
通过应用层向所述UE发送模型获取响应,其中所述模型获取响应中包括所述第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
本发明实施例提供的AF实体可以具体用于执行上述AF实体侧的方法实施例,具体功能此处不再赘述。
实施例十三
图19为本发明实施例用于提供模型的第一网络功能实体的结构图。本实施例提供的用于提供模型的第一网络功能实体可以执行用于提供模型的第一网络功能实体侧的方法实施例提供的处理流程,如图19所示,所述用于提供模型的第一网络功能实体1300包括存储器1301,收发机1302,处理器1303;
其中,在图19中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器1303代表的一个或多个处理器1303和存储器1301代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机1302可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元,这些传输介质包括无线信道、有线信道、光缆等传输介质。处理器13031301负责管理总线架构和通常的处理,存储器1303可以存储处理器1303在执行操作时所使用的数据。
处理器1303可以是中央处埋器(CPU)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或复杂可编程逻辑器件(CPLD),处理器1303也可以采用多核架构。
存储器1301,用于存储计算机程序;收发机1302,用于在所述处理器1303的控制下收发数据;处理器1303,用于读取所述存储器1301中的计算机程序并执行以下操作:
获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
根据所述本地模型参数更新所述全局机器学习模型。
在一种或多种可能的实施例中,所述处理器1303在根据所述本地模型参数更新所述全局机器学习模型后,还用于:
将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述处理器1303在获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还用于:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
本发明实施例提供的用于提供模型的第一网络功能实体可以具体用于执行上述第一网络功能实体侧的方法实施例,具体功能此处不再赘述。
实施例十四
图20为本发明实施例提供的机器学习模型处理装置的结构图。本实施例提供的机器学习模型处理装置可以执行UE侧的方法实施例提供的处理流程,如图20所示,该机器学习模型处理装置1400包括获取单元1401、训练单元1402、发送单元1403:
获取单元1401,用于确定与目标应用相关的本地训练数据;
训练单元1402,用于根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
发送单元1403,用于将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在一种或多种可能的实施例中,所述获取单元1401还用于,从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数;
所述训练单元1402还用于根据所述全局模型参数更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述发送单元1403在将所述本地模型参数发送给所述第一网络功能实体时,用于:
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,以通过所述AF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,由所述AF实体通过网络能力开放功能NEF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
非接入层将携带所述本地模型参数的模型更新信息发送给接入与移动性管理功能AMF实体,以通过所述AMF实体将所述模型更新信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述模型更新信息中还包括以下任意一项或多项:UE标识、应用标识、第一网络功能实体标识,以用于所述AF实体或所述AMF实体确定所述第一网络功能实体和/或全局机器学习模型。
在一种或多种可能的实施例中,所述获取单元1401从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数时,用于:
接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
在一种或多种可能的实施例中,获取单元1401还用于,从第一网络功能实体获取全局机器学习模型的第一模型文件;
训练单元1402还用于,根据所述第一模型文件,创建本地机器学习模型。
在一种或多种可能的实施例中,所述获取单元1401在从第一网络功能实体获取全局机器学习模型的第一模型文件时,用于:
通过发送单元1403向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
在一种或多种可能的实施例中,所述发送单元1403在向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息时,用于:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述获取单元1401在从所述第一网络功能实体中获取全局机器学习模型的第一模型文件,包括:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
在一种或多种可能的实施例中,所述模型描述信息包括以下至少一项:
应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
本发明实施例提供的机器学习模型处理装置可以具体用于执行上述UE侧的方法实施例,具体功能此处不再赘述。
实施例十五
图21为本发明实施例提供的机器学习模型处理装置的结构图。本实施例提供的机器学习模型处理装置可以执行AF实体侧的方法实施例提供的处理流程,如图21所示,该用于机器学习模型处理装置1500包括:接收单元1501、发送单元1502、获取单元1503。
接收单元1501,用于接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
发送单元1502,用于将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
在一种或多种可能的实施例中,还包括:
获取单元1503,用于从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
发送单元1502还用于,通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述发送单元1502在将所述模型更新信息发送给所述第一网络功能实体时,用于:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
在一种或多种可能的实施例中,所述获取单元1503在从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息时,用于:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
在一种或多种可能的实施例中,所述接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还包括:
接收单元1501还用于,接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
发送单元1502还用于,根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
获取单元1503还用于,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
发送单元1502还用于,通过应用层发送给所述UE。在一种或多种可能的实施例中,
本发明实施例提供的机器学习模型处理装置可以具体用于执行上述AF实体侧的方法实施例,具体功能此处不再赘述。
实施例十六
图22为本发明实施例提供的机器学习模型处理装置的结构图。本实施例提供的机器学习模型处理装置可以执行用于提供模型的第一网络功能实体侧的方法实施例提供的处理流程,如图22所示,该机器学习模型处理装置1600包括:获取单元1601、模型更新单元1602、发送单元1603。
获取单元1601,用于获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
模型更新单元1602,用于根据所述本地模型参数更新所述全局机器学习模型。
在一种或多种可能的实施例中,还包括:
发送单元1603,用于将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
在一种或多种可能的实施例中,所述发送单元1603在获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还用于:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
本发明实施例提供的机器学习模型处理装置可以具体用于执行上述第一网络功能实体侧的方法实施例,具体功能此处不再赘述。
需要说明的是,本申请上述实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
实施例十七
本申请实施例十一提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序用于使处理器执行UE侧的机器学习模型处理方法。
实施例十八
本申请实施例十一提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序用于使处理器执行AF实体侧的机器学习模型处理方法。
实施例十九
本申请实施例十一提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序用于使处理器执行用于提供模型的第一网络功能实体侧的机器学习模型处理方法。
其中,计算机可读存储介质可以是处理器能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NANDFLASH)、固态硬盘(SSD))等。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机可执行指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机可执行指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些处理器可执行指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的处理器可读存储器中,使得存储在该处理器可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些处理器可执行指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (27)

1.一种机器学习模型处理方法,其特征在于,应用于用户设备UE,该方法包括:
确定与目标应用相关的本地训练数据;
根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
3.根据权利要求1或2所述的方法,其特征在于,所述将所述本地模型参数发送给所述第一网络功能实体,包括:
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,以通过所述AF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
通过应用层向应用功能AF实体发送携带所述本地模型参数的模型更新信息,由所述AF实体通过网络能力开放功能NEF实体将所述模型更新信息发送给所述第一网络功能实体;或者,
非接入层将携带所述本地模型参数的模型更新信息发送给接入与移动性管理功能AMF实体,以通过所述AMF实体将所述模型更新信息发送给所述第一网络功能实体。
4.根据权利要求3所述的方法,其特征在于,所述模型更新信息中还包括以下任意一项或多项:UE标识、应用标识、第一网络功能实体标识,以用于所述AF实体或所述AMF实体确定所述第一网络功能实体和/或全局机器学习模型。
5.根据权利要求3所述的方法,其特征在于,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数,包括:
接收AF实体或AMF实体发送的模型更新响应,其中,所述模型更新响应中包括更新后的全局机器学习模型的全局模型参数的信息。
6.根据权利要求1所述的方法,其特征在于,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到,包括:
从第一网络功能实体获取全局机器学习模型的第一模型文件;
根据所述第一模型文件,创建本地机器学习模型。
7.根据权利要求6所述的方法,其特征在于,所述从第一网络功能实体获取全局机器学习模型的第一模型文件,包括:
向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息;
基于所述模型获取信息,从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息。
8.根据权利要求7所述的方法,其特征在于,所述向第一网络功能实体发送携带UE标识和/或模型描述信息的模型获取信息,包括:
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,以通过所述AF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
通过应用层向AF实体发送携带UE标识和/或模型描述信息的模型获取信息,由所述AF实体通过NEF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;或者,
非接入层将携带UE标识和/或模型描述信息的模型获取信息发送给AMF实体,以通过所述AMF实体根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体。
9.根据权利要求7或8所述的方法,其特征在于,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件,包括:
接收AF实体或AMF实体发送的模型获取响应,其中,所述模型获取响应中包括第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
10.根据权利要求7或8所述的方法,其特征在于,所述模型描述信息包括以下至少一项:
应用标识、应用子特性标识、时间信息、地点信息、其它模型特征信息。
11.一种机器学习模型处理方法,其特征在于,应用于应用功能AF实体,该方法包括:
接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
12.根据权利要求11所述的方法,其特征在于,还包括:
从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,所述全局模型参数用于更新训练后的本地机器学习模型;
通过应用层向所述UE发送模型更新响应,其中,所述模型更新响应中包括所述全局模型参数的信息;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
13.根据权利要求11所述的方法,其特征在于,所述将所述模型更新信息发送给所述第一网络功能实体,包括:
若所述AF实体为可信AF实体,则直接将所述模型更新信息发送给所述第一网络功能实体;或者
若所述AF实体为不可信AF实体,则通过NEF实体将所述模型更新信息发送给所述第一网络功能实体。
14.根据权利要求12所述的方法,其特征在于,所述从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取更新后的全局机器学习模型的全局模型参数的信息。
15.根据权利要求11所述的方法,其特征在于,所述接收UE通过应用层发送的携带所述本地模型参数的模型更新信息之前,还包括:
接收所述UE通过应用层发送的携带UE标识和/或模型描述信息的模型获取信息;
根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体;
从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE。
16.根据权利要求15所述的方法,其特征在于,所述根据UE标识和/或模型描述信息将所述模型获取信息发送给所述第一网络功能实体,包括:
若AF实体为可信AF实体,则选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体;或者,
若AF实体为不可信AF实体,则将所述模型获取信息发送给NEF实体,通过NEF实体选择服务于所述UE的第一网络功能实体、和/或能够提供满足所述模型描述信息的全局机器学习模型的第一网络功能实体,将所述模型获取信息发送给所述第一网络功能实体。
17.根据权利要求15或16所述的方法,其特征在于,所述从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息,并通过应用层发送给所述UE,包括:
直接或者通过NEF实体从所述第一网络功能实体中获取全局机器学习模型的第一模型文件的信息;
通过应用层向所述UE发送模型获取响应,其中所述模型获取响应中包括所述第一模型文件的信息,用于根据所述第一模型文件的信息获取所述第一模型文件。
18.一种机器学习模型处理方法,其特征在于,应用于用于提供模型的第一网络功能实体,该方法包括:
获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
根据所述本地模型参数更新所述全局机器学习模型。
19.根据权利要求18所述的方法,其特征在于,所述根据所述本地模型参数更新所述全局机器学习模型后,还包括:
将更新后的全局机器学习模型的全局模型参数发送至所述UE,所述全局模型参数用于更新训练后的本地机器学习模型;
其中,所述全局模型参数为所述第一网络功能实体利用至少一个UE发送的本地模型参数对所述全局机器学习模型进行更新得到的。
20.根据权利要求18所述的方法,其特征在于,所述获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数之前,还包括:
将所述全局机器学习模型的第一模型文件的信息发送至所述UE,以由所述UE根据所述第一模型文件创建本地机器学习模型。
21.一种用户设备,其特征在于,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
确定与目标应用相关的本地训练数据;
根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
22.一种AF实体,其特征在于,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
23.一种用于提供模型的第一网络功能实体,其特征在于,包括存储器,收发机,处理器:
存储器,用于存储计算机程序;收发机,用于在所述处理器的控制下收发数据;处理器,用于读取所述存储器中的计算机程序并执行以下操作:
获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
根据所述本地模型参数更新所述全局机器学习模型。
24.一种机器学习模型处理装置,其特征在于,应用于UE,所述装置包括:
获取单元,用于确定与目标应用相关的本地训练数据;
训练单元,用于根据所述本地训练数据对所述目标应用的本地机器学习模型进行训练,得到训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
发送单元,用于将所述本地模型参数发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
25.一种机器学习模型处理装置,其特征在于,应用于AF实体,所述装置包括:
接收单元,用于接收UE通过应用层发送的携带所述本地模型参数的模型更新信息,其中,所述本地机器学习模型为第一网络功能实体预先提供向UE的全局机器学习模型;
发送单元,用于将所述模型更新信息发送给所述第一网络功能实体,所述本地模型参数用于更新所述全局机器学习模型。
26.一种机器学习模型处理装置,其特征在于,应用于用于提供模型的第一网络功能实体,所述装置包括:
获取单元,用于获取用户设备UE发送的训练后的本地机器学习模型的本地模型参数,其中,所述本地机器学习模型根据第一网络功能实体训练的全局机器学习模型得到;
模型更新单元,用于根据所述本地模型参数更新所述全局机器学习模型。
27.一种处理器可读存储介质,其特征在于,所述处理器可读存储介质存储有计算机程序,所述计算机程序用于使所述处理器执行权利要求1-10、11-17或18-20任一项所述的方法。
CN202111028834.XA 2021-09-02 2021-09-02 机器学习模型处理方法、装置及存储介质 Pending CN115842737A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111028834.XA CN115842737A (zh) 2021-09-02 2021-09-02 机器学习模型处理方法、装置及存储介质
PCT/CN2022/116785 WO2023030493A1 (zh) 2021-09-02 2022-09-02 机器学习模型处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111028834.XA CN115842737A (zh) 2021-09-02 2021-09-02 机器学习模型处理方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN115842737A true CN115842737A (zh) 2023-03-24

Family

ID=85411988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111028834.XA Pending CN115842737A (zh) 2021-09-02 2021-09-02 机器学习模型处理方法、装置及存储介质

Country Status (2)

Country Link
CN (1) CN115842737A (zh)
WO (1) WO2023030493A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021028063A1 (en) * 2019-08-12 2021-02-18 Telefonaktiebolaget Lm Ericsson (Publ) Predicting congestion levels in a communications network
CN114902622B (zh) * 2020-01-03 2024-03-26 华为技术有限公司 用于确定模型以数字化地分析输入数据的网络实体
EP4100892A4 (en) * 2020-02-03 2024-03-13 Intel Corporation DISTRIBUTED LEARNING SYSTEMS AND METHODS FOR WIRELESS EDGE DYNAMICS
CN111865826B (zh) * 2020-07-02 2022-01-04 大连理工大学 一种基于联邦学习的主动内容缓存方法
CN112686385B (zh) * 2021-01-07 2023-03-07 中国人民解放军国防科技大学 面向多站点三维影像的联邦深度学习方法及系统
CN113239404B (zh) * 2021-06-04 2022-07-19 南开大学 一种基于差分隐私和混沌加密的联邦学习方法

Also Published As

Publication number Publication date
WO2023030493A1 (zh) 2023-03-09

Similar Documents

Publication Publication Date Title
CN110972218B (zh) 一种通信方法及装置
CN109429361B (zh) 会话处理方法及装置
CN108605259B (zh) 一种网络切换方法及相关设备
US20220321423A1 (en) Methods, apparatus and machine-readable media relating to machine-learning in a communication network
CN109691179B (zh) 一种会话迁移方法及设备
CN109246780B (zh) 一种会话切换方法、装置及系统
US20170280406A1 (en) Synchronization method and apparatus for v2x communications
CN114303347A (zh) 通信网络中与机器学习相关的方法、装置和机器可读介质
CN114079902A (zh) 联邦学习的方法和装置
CN113411860B (zh) 一种通信路径变更方法及设备
JP6363214B2 (ja) デバイス・ツー・デバイスセッションのための分散セットアップのシステム、方法、及びデバイス
CN116569605A (zh) 网络资源选择方法、终端设备和网络设备
CN111836182A (zh) 一种终端定位服务方法及装置
CN111866799B (zh) 资源请求方法、资源分配方法、装置及介质
WO2021129111A1 (zh) 会话创建方法、网元及计算机可读存储介质
CN114007204B (zh) 基于中继通信与直连通信的通信选择方法和设备
CN104822141B (zh) 发现消息方法配置选择
US20240080340A1 (en) Security for Groupcast Message in D2D Communication
CN115842737A (zh) 机器学习模型处理方法、装置及存储介质
EP4398161A1 (en) Machine learning model processing method and apparatus, and storage medium
CN113950121B (zh) 一种上下文恢复方法及装置
CN108464056A (zh) 用户设备信息的配置方法、装置、基站及核心网设备
TW201532469A (zh) 與閒置及連接模式相關的使用者設備移動性資訊細節之發訊技術
JP6816822B2 (ja) エリア識別装置、方法及び通信システム
CN110896539B (zh) 处理方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination