CN115470936B - 一种基于nwdaf的机器学习模型更新方法及装置 - Google Patents

一种基于nwdaf的机器学习模型更新方法及装置 Download PDF

Info

Publication number
CN115470936B
CN115470936B CN202211162890.7A CN202211162890A CN115470936B CN 115470936 B CN115470936 B CN 115470936B CN 202211162890 A CN202211162890 A CN 202211162890A CN 115470936 B CN115470936 B CN 115470936B
Authority
CN
China
Prior art keywords
network data
data
current moment
time range
preset time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211162890.7A
Other languages
English (en)
Other versions
CN115470936A (zh
Inventor
吴维芝
王丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Aipu Road Network Technology Co Ltd
Original Assignee
Guangzhou Aipu Road Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Aipu Road Network Technology Co Ltd filed Critical Guangzhou Aipu Road Network Technology Co Ltd
Priority to CN202211162890.7A priority Critical patent/CN115470936B/zh
Publication of CN115470936A publication Critical patent/CN115470936A/zh
Application granted granted Critical
Publication of CN115470936B publication Critical patent/CN115470936B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本申请提供了一种基于NWDAF的机器学习模型更新方法及装置,机器学习模型应用于NWDAF,方法包括:获取当前时刻的网络数据;通过变点检测,判断当前时刻的网络数据是否为变点;若当前时刻的网络数据是变点,获取当前时刻对应的第一预设时间范围内的网络数据;将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。本申请通过确定当前时刻的网络数据是否为突变数据来更新机器学习模型,解决了现有技术中发现NWDAF中部署的机器学习模型的预测精度下降的时间滞后的技术问题,达到提高NWDAF预测准确率的技术效果。

Description

一种基于NWDAF的机器学习模型更新方法及装置
技术领域
本申请涉及5G通信技术领域,尤其涉及一种基于NWDAF的机器学习模型更新方法及装置。
背景技术
随着人工智能(Artificial Intelligence,AI)和机器学习(Machine Learning,ML)的发展,越来越多的领域开始运用AI/ML模型进行各种预测服务,以使操作人员依据AI/ML模型的预测结果进行分析或处理等操作。在通信领域中,AI/ML模型结合NWDAF(NetworkData Analytics Function,网络数据分析功能)可以在不同场景进行预测服务。
在现有技术中,NWDAF通过训练好的AI/ML模型进行预测得到预测数据,并计算AI/ML模型的预测精度(Accuracy in Use,AiU)。当AiU超过一定阈值后,则NWDAF就会触发对AI/ML模型进行重新训练。而计算AI/ML模型的预测精度AiU需要使用预测数据和真实数据进行计算,从而导致发现AI/ML模型的预测精度降低的时间滞后,进而影响NWDAF的预测准确率。
发明内容
有鉴于此,本申请的目的在于至少提供一种基于NWDAF的机器学习模型更新方法及装置,通过确定当前时刻的网络数据是否为突变数据,来更新机器学习模型,解决了现有技术中较为滞后的发现NWDAF中部署的机器学习模型的预测精度下降的技术问题,达到提高NWDAF的预测准确率的技术效果。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供一种基于NWDAF的机器学习模型更新方法,其中,机器学习模型应用于网络数据分析功能NWDAF,方法包括:获取当前时刻的网络数据;通过变点检测,判断当前时刻的网络数据是否为变点;若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。
可选地,NWDAF包括:模型训练功能模块MTLF和模型分析功能模块AnLF,方法还包括:AnLF接收用户发送的数据分析请求;MTLF确定数据分析请求对应的网络数据。
可选地,数据分析请求包括:预测终端的剩余电量、预测网络延时数据,预测网络传输速率。
可选地,获取当前时刻对应的第一预设时间范围内的网络数据,包括:确定第一预设时间范围内的网络数据的网络数据数量;将网络数据数量减去二得到剩余网络数据数量;将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的剩余网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;或者,将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的预设网络数据数量的网络数据、将当前时刻的网络数据之后的剩余网络数据数量减去预设网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据。
可选地,若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据之后,方法还包括:获取机器学习模型的多组历史训练样本;多组历史训练样本中的每组历史训练样本的样本数据数量与网络数据数量相同;针对每组历史训练样本,依据该组历史训练样本中的每个样本数据对应的时刻进行排序,确定该组历史训练样本中的每个样本数据的第一标号;针对每组历史训练样本的每个样本数据,将该样本数据与该样本数据后一个时刻对应的样本数据的差值,确定为该样本数据的第一标号对应的第一差值;依据第一预设时间范围内的网络数据中每个网络数据对应的时刻进行排序,确定第一预设时间范围内的网络数据中每个网络数据的第二标号;将该网络数据与该网络数据后一个时刻对应的网络数据的差值,确定为该网络数据的第二标号对应的第二差值;针对每组历史训练样本,判断是否存在任意一组历史训练样本的每个第一标号对应的第一差值,与第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间;若存在任意一组历史训练样本的每个第一标号对应的第一差值,与第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间,则将当前时刻对应的第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。
可选地,方法还包括:AnLF将当前时刻对应的预测数据发送至用户。
第二方面,本申请实施例还提供一种基于NWDAF的机器学习模型更新装置,基于NWDAF的机器学习模型更新装置包括:第一获取模块,用于获取当前时刻的网络数据;判断模块,用于通过变点检测,判断当前时刻的网络数据是否为变点;第二获取模块,用于若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;更新模块,用于将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。
可选地,基于NWDAF的机器学习模型更新装置还包括:接收模块,用于接收用户发送的数据分析请求;确定模块,用于确定数据分析请求对应的网络数据。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,存储器存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储器之间通过总线进行通信,机器可读指令被处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中的基于NWDAF的机器学习模型更新方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中的基于NWDAF的机器学习模型更新的步骤。
本申请实施例提供的一种基于NWDAF的机器学习模型更新方法及装置,机器学习模型应用于网络数据分析功能NWDAF,方法包括:获取当前时刻的网络数据;通过变点检测,判断当前时刻的网络数据是否为变点;若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。本申请通过确定当前时刻的网络数据是否为突变数据,来更新机器学习模型,解决了现有技术中较为滞后的发现NWDAF中部署的机器学习模型的预测精度下降的技术问题,达到提高NWDAF的预测准确率的技术效果。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种基于NWDAF的机器学习模型更新方法的流程图。
图2示出了本申请实施例所提供的一种基于NWDAF的机器学习模型更新方法的交互流程图。
图3示出了本申请实施例所提供的一种基于NWDAF的机器学习模型更新装置的功能模块图。
图4示出了本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
现有技术中需要一段时间才能计算出机器学习模型的预测精度,从而导致发现AI/ML模型的预测精度降低的时间滞后,进而影响NWDAF的预测准确率。
基于此,本申请实施例提供了一种基于NWDAF的机器学习模型更新方法及装置,通过确定当前时刻的网络数据是否为突变数据,来更新机器学习模型,解决了现有技术中较为滞后的发现NWDAF中部署的机器学习模型的预测精度下降的技术问题,达到提高NWDAF的预测准确率的技术效果。具体如下:
请参阅图1,图1为本申请实施例所提供的一种基于NWDAF的机器学习模型更新方法的流程图。如图1所示,本申请实施例提供的基于NWDAF的机器学习模型更新方法,包括以下步骤:
S101:获取当前时刻的网络数据。
机器学习模型应用于网络数据分析功能NWDAF,NWDAF包括:模型训练功能模块MTLF(Model Training logical function)和模型分析功能模块AnLF(Analytics logicalfunction)。
网络数据的获取周期恒定,也就是说,获取周期等于当前时刻与当前时刻的上一时刻的时间差。AnLF获取当前时刻的网络数据。
数据分析请求包括:预测终端的剩余电量、预测网络延时数据,预测网络传输速率。若数据分析请求为预测终端的剩余电量,则当前时刻网络数据为当前时刻的终端电量;若数据分析请求为预测网络延时数据,则当前时刻网络数据为当前时刻的网络延时数据;若数据分析请求为预测网络传输速率,则当前时刻网络数据为当前时刻的网络传输速率。
S102:通过变点检测,判断当前时刻的网络数据是否为变点。
也就是说,AnLF通过变点检测,判断当前时刻的网络数据是否为变点。
通过变点检测,判断当前时刻的网络数据是否为变点,包括:获取当前时刻之前的第三预设时间范围内的网络数据;计算当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的平均值;判断当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的平均值是否属于预设平均值范围;若当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的平均值属于预设平均值范围,则确定当前时刻的网络数据不是变点;若当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的平均值不属于预设平均值范围,则确定当前时刻的网络数据为变点。
或者,计算当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的方差;判断当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的方差是否属于预设方差范围;若当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的方差属于预设方差范围,则确定当前时刻的网络数据不是变点;若当前时刻的网络数据、当前时刻之前的第三预设时间范围内的网络数据的方差不属于预设方差范围,则确定当前时刻的网络数据为变点。
其中,第三预设时间范围可以和第一预设时间范围相同,并且是人为设定的。
S103:获取当前时刻对应的第一预设时间范围内的网络数据。
若当前时刻的网络数据是变点,则MTLF获取当前时刻对应的第一预设时间范围内的网络数据。
若当前时刻的网络数据不是变点,则AnLF获取当前时刻对应的第一预设时间范围内的网络数据,并将第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。也就是说,若当前时刻的网络数据不是变点,则认为当前时刻的网络数据不是突变数据,进而不需要更新机器学习模型。
其中,上一时刻的网络数据指的是当前时刻的上一时刻的网络数据。
获取当前时刻对应的第一预设时间范围内的网络数据,包括:确定第一预设时间范围内的网络数据的网络数据数量;将网络数据数量减去二得到剩余网络数据数量;将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的剩余网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;或者,将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的预设网络数据数量的网络数据、将当前时刻的网络数据之后的剩余网络数据数量减去预设网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据。
确定第一预设时间范围内的网络数据的网络数据数量,包括:将第一预设时间范围与获取周期做比,将比值确定为第一预设时间范围内的网络数据的网络数据数量。第一预设时间范围内的网络数据必然包含当前时刻的网络数据、上一时刻的网络数据。示例性的,若第一预设时间范围为20秒,获取周期为2秒,当前时刻为上午10:00,上一时刻为上午09:59:58,则将从上午09:59:40至上午10:00:00获取的10个网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;或者,若预设网络数据数量为2,则将从上午09:59:54至上午10:00:14获取的10个网络数据,作为当前时刻对应的第一预设时间范围内的网络数据。
S104:将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。
若数据分析请求为预测终端的剩余电量,则当前时刻网络数据为当前时刻的终端电量,当前时刻对应的预测数据为在当前时刻之后间隔第二预设时间范围的终端电量,以使用户可以判断是否需要提前对终端进行充电;若数据分析请求为预测网络延时数据,则当前时刻网络数据为当前时刻的网络延时数据,当前时刻对应的预测数据为在当前时刻之后间隔第二预设时间范围的网络延时数据,以使用户可以判断是否需要提前执行对应操作来预防在当前时刻之后间隔第二预设时间范围出现的较低的网络延时;若数据分析请求为预测网络传输速率,则当前时刻网络数据为当前时刻的网络传输速率,当前时刻对应的预测数据为在当前时刻之后间隔第二预设时间范围的网络传输速率,以使用户可以判断是否需要提前执行对应操作来预防在当前时刻之后间隔第二预设时间范围出现的较低的网络传输速率。从而可以使得NWDAF可以持续向用户提供较为准确的预测数据。
也就是说,通过增加机器学习模型的样本重新对机器学习模型进行训练。第二预设时间范围可以设置为3分钟,若当前时刻为上午10:00,则将上午10:03获取的网络数据作为标签。
MTLF将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。MTLF将更新后的机器学习模型部署至AnLF。
若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据之后,方法还包括:获取机器学习模型的多组历史训练样本;多组历史训练样本中的每组历史训练样本的样本数据数量与网络数据数量相同;针对每组历史训练样本,依据该组历史训练样本中的每个样本数据对应的时刻进行排序,确定该组历史训练样本中的每个样本数据的第一标号;针对每组历史训练样本的每个样本数据,将该样本数据与该样本数据后一个时刻对应的样本数据的差值,确定为该样本数据的第一标号对应的第一差值;依据第一预设时间范围内的网络数据中每个网络数据对应的时刻进行排序,确定第一预设时间范围内的网络数据中每个网络数据的第二标号;将该网络数据与该网络数据后一个时刻对应的网络数据的差值,确定为该网络数据的第二标号对应的第二差值;针对每组历史训练样本,判断是否存在任意一组历史训练样本的每个第一标号对应的第一差值,与第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间;若存在任意一组历史训练样本的每个第一标号对应的第一差值,与第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间,则将当前时刻对应的第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。
其中,样本数据对应的时刻指的是获取样本数据的时刻,网络数据对应的时刻指的是获取网络数据的时刻。
示例性的,若每组历史训练样本的样本数据数量与网络数据数量均为10,依据该组历史训练样本中的每个样本数据对应的时刻进行升序排序,每组历史训练样本的样本数据的第一标号为a1、a2、a3、a4、a5、a6、a7、a8、a9、a0(即,a1的样本数据对应的时刻是a2的样本数据对应的时刻的上一个时刻);依据第一预设时间范围内的网络数据中的每个网络数据对应的时刻进行升序排序,第一预设时间范围内的网络数据的第二标号为b1、b2、b3、b4、b5、b6、b7、b8、b9、b0(即,b1的网络数据对应的时刻是b2的网络数据对应的时刻的上一个时刻)。将a2的样本数据减去a1的样本数据的差值确定为a1对应的第一差值,将a3的样本数据减去a2的样本数据的差值确定为a2对应的第一差值,…,将a0的样本数据减去a9的样本数据的差值确定为a9对应的第一差值;将b2的网络数据减去b1的网络数据的差值确定为b1对应的第二差值,将b3的网络数据减去b2的网络数据的差值确定为b2对应的第二差值,…,将b0的网络数据减去b9的网络数据的差值确定为b9对应的第二差值。
若存在一组历史训练样本的a1对应的第一差值与b1对应的第二差值属于同一个预设差值区间、该组历史训练样本的a2对应的第一差值与b2对应的第二差值属于同一个预设差值区间、…、该组历史训练样本的a9对应的第一差值与b9对应的第二差值属于同一个预设差值区间,则认为该组历史训练样本的数据波形与第一预设时间范围内的网络数据的数据波形相同,则不需要对机器学习模型进行更新,只需将当前时刻对应的第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。
请参阅图2,图2为本申请实施例所提供的一种基于NWDAF的机器学习模型更新方法的交互流程图。如图2所示,获取当前时刻的网络数据之前,包括以下步骤:
S201:AnLF接收用户发送的数据分析请求。
也就是说,AnLF将用户发送的数据分析请求发送至MTLF。
S202:MTLF确定数据分析请求对应的网络数据。
S203:MTLF依据网络数据训练机器学习模型,将训练好的机器学习模型部署至AnLF。
也就是说,可以认为此时MTLF依据数据分析请求对应的历史网络数据训练机器学习模型,依据每个历史网络数据对应的时刻,确定多组历史训练样本及每组历史训练样本中的当前时刻的历史网络数据;将每组历史训练样本作为训练样本,将该组历史训练样本中的当前时刻的历史网络数据之后间隔第二预设时间范围的时刻获取的历史网络数据作为标签,训练机器学习模型。
确定每组历史训练样本中的当前时刻的历史网络数据,包括:针对每组历史网络数据,依据该组历史训练样本中的每个历史网络数据对应的时刻进行升序排列;将升序排序后的该组历史训练样本中的最后一个历史网络数据,作为该组历史训练样本中的当前时刻的历史网络数据;或者,将升序排序后的该组历史训练样本中的预设网络数据数量加二对应的历史网络数据,作为该组历史训练样本中的当前时刻的历史网络数据。
也就是说,机器学习模型与更新后的机器学习模型的训练样本是相对应的。若机器学习模型中的每组历史网络数据的最后一个历史网络数据,作为该组历史训练样本中的当前时刻的历史网络数据,则将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的剩余网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据。若机器学习模型中的每组历史网络数据的预设网络数据数量加二对应的历史网络数据,作为该组历史训练样本中的当前时刻的历史网络数据,则将当前时刻的网络数据、上一时刻的网络数据、在上一时刻的网络数据之前的预设网络数据数量的网络数据、将当前时刻的网络数据之后的剩余网络数据数量减去预设网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据。
S204:AnLF获取当前时刻的网络数据。
S205:AnLF通过变点检测,判断当前时刻的网络数据是否为变点。
S206:MTLF获取当前时刻对应的第一预设时间范围内的网络数据。
若当前时刻的网络数据是变点,则MTLF获取当前时刻对应的第一预设时间范围内的网络数据。
S207:AnLF获取当前时刻对应的第一预设时间范围内的网络数据,并将第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。
若当前时刻的网络数据不是变点,则AnLF获取当前时刻对应的第一预设时间范围内的网络数据,并将第一预设时间范围内的网络数据输入至机器学习模型,得到当前时刻对应的预测数据。
S208:AnLF将当前时刻对应的预测数据发送至用户。
基于同一申请构思,本申请实施例中还提供了与上述实施例提供的基于NWDAF的机器学习模型更新方法对应的基于NWDAF的机器学习模型更新装置,由于本申请实施例中的装置解决问题的原理与本申请上述实施例的基于NWDAF的机器学习模型更新方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
如图3所示,图3为本申请实施例提供的一种基于NWDAF的机器学习模型更新装置的功能模块图。基于NWDAF的机器学习模型更新装置10包括:第一获取模块101、判断模块102、第二获取模块103和更新模块104;第一获取模块101,用于获取当前时刻的网络数据;判断模块102,用于通过变点检测,判断当前时刻的网络数据是否为变点;第二获取模块103,用于若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;更新模块104,用于将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。
基于NWDAF的机器学习模型更新装置还包括:
接收模块,用于接收用户发送的数据分析请求;确定模块,用于确定数据分析请求对应的网络数据。
基于同一申请构思,参见图4所示,为本申请实施例提供的一种电子设备的结构示意图,电子设备20包括:处理器201、存储器202和总线203,存储器202存储有处理器201可执行的机器可读指令,当电子设备20运行时,处理器201与存储器202之间通过总线203进行通信,机器可读指令被处理器201运行时执行如上述实施例中任一的基于NWDAF的机器学习模型更新方法的步骤。
具体地,机器可读指令被处理器201执行时可以执行如下处理:获取当前时刻的网络数据;通过变点检测,判断当前时刻的网络数据是否为变点;若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;将第一预设时间范围内的网络数据作为训练样本,将在当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练机器学习模型。
基于同一申请构思,本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述实施例提供的基于NWDAF的机器学习模型更新方法的步骤。
具体地,存储介质能够为通用的存储介质,如移动磁盘、硬盘等,存储介质上的计算机程序被运行时,能够执行上述基于NWDAF的机器学习模型更新方法,通过确定当前时刻的网络数据是否为突变数据,来更新机器学习模型,解决了现有技术中较为滞后的发现NWDAF中部署的机器学习模型的预测精度下降的技术问题,达到提高NWDAF的预测准确率的技术效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种基于NWDAF的机器学习模型更新方法,其特征在于,所述机器学习模型应用于网络数据分析功能NWDAF,所述方法包括:
获取当前时刻的网络数据;
通过变点检测,判断当前时刻的网络数据是否为变点;
若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;
将第一预设时间范围内的网络数据作为训练样本,将在所述当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练所述机器学习模型;
所述NWDAF包括:模型训练功能模块MTLF和模型分析功能模块AnLF,所述方法还包括:所述AnLF接收用户发送的数据分析请求;述MTLF确定所述数据分析请求对应的网络数据;
所述获取当前时刻对应的第一预设时间范围内的网络数据,包括:
确定第一预设时间范围内的网络数据的网络数据数量;将所述网络数据数量减去二得到剩余网络数据数量;
将当前时刻的网络数据、上一时刻的网络数据、在所述上一时刻的网络数据之前的剩余网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;或者,将当前时刻的网络数据、上一时刻的网络数据、在所述上一时刻的网络数据之前的预设网络数据数量的网络数据、将当前时刻的网络数据之后的剩余网络数据数量减去所述预设网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;
所述若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据之后,所述方法还包括:获取所述机器学习模型的多组历史训练样本;所述多组历史训练样本中的每组历史训练样本的样本数据数量与所述网络数据数量相同;针对每组历史训练样本,依据该组历史训练样本中的每个样本数据对应的时刻进行排序,确定该组历史训练样本中的每个样本数据的第一标号;针对每组历史训练样本的每个样本数据,将该样本数据与该样本数据后一个时刻对应的样本数据的差值,确定为该样本数据的第一标号对应的第一差值;依据所述第一预设时间范围内的网络数据中每个网络数据对应的时刻进行排序,确定所述第一预设时间范围内的网络数据中每个网络数据的第二标号;将该网络数据与该网络数据后一个时刻对应的网络数据的差值,确定为该网络数据的第二标号对应的第二差值;针对每组历史训练样本,判断是否存在任意一组历史训练样本的每个第一标号对应的第一差值,与所述第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间;存在任意一组历史训练样本的每个第一标号对应的第一差值,与所述第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间,则该组历史训练样本的数据波形与第一预设时间范围内的网络数据的数据波形相同,不需要对机器学习模型进行更新,则将当前时刻对应的第一预设时间范围内的网络数据输入至所述机器学习模型,得到当前时刻对应的预测数据。
2.根据权利要求1所述的基于NWDAF的机器学习模型更新方法,其特征在于,所述数据分析请求包括:预测终端的剩余电量、预测网络延时数据,预测网络传输速率。
3.根据权利要求1所述的基于NWDAF的机器学习模型更新方法,其特征在于,所述方法还包括:
所述AnLF将当前时刻对应的预测数据发送至用户。
4.一种基于NWDAF的机器学习模型更新装置,其特征在于,所述基于NWDAF的机器学习模型更新装置包括:
第一获取模块,用于获取当前时刻的网络数据;
判断模块,用于通过变点检测,判断当前时刻的网络数据是否为变点;
第二获取模块,用于若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据;
更新模块,用于将第一预设时间范围内的网络数据作为训练样本,将在所述当前时刻之后间隔第二预设时间范围的时刻获取的网络数据作为标签,更新训练所述机器学习模型;
接收模块,用于接收用户发送的数据分析请求;确定模块,用于确定所述数据分析请求对应的网络数据;
第二获取模块,还用于确定第一预设时间范围内的网络数据的网络数据数量;将所述网络数据数量减去二得到剩余网络数据数量;将当前时刻的网络数据、上一时刻的网络数据、在所述上一时刻的网络数据之前的剩余网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;或者,将当前时刻的网络数据、上一时刻的网络数据、在所述上一时刻的网络数据之前的预设网络数据数量的网络数据、将当前时刻的网络数据之后的剩余网络数据数量减去所述预设网络数据数量的网络数据,作为当前时刻对应的第一预设时间范围内的网络数据;
预测数据确定模块,用于在若当前时刻的网络数据是变点,则获取当前时刻对应的第一预设时间范围内的网络数据之后,获取所述机器学习模型的多组历史训练样本;所述多组历史训练样本中的每组历史训练样本的样本数据数量与所述网络数据数量相同;针对每组历史训练样本,依据该组历史训练样本中的每个样本数据对应的时刻进行排序,确定该组历史训练样本中的每个样本数据的第一标号;针对每组历史训练样本的每个样本数据,将该样本数据与该样本数据后一个时刻对应的样本数据的差值,确定为该样本数据的第一标号对应的第一差值;依据所述第一预设时间范围内的网络数据中每个网络数据对应的时刻进行排序,确定所述第一预设时间范围内的网络数据中每个网络数据的第二标号;将该网络数据与该网络数据后一个时刻对应的网络数据的差值,确定为该网络数据的第二标号对应的第二差值;针对每组历史训练样本,判断是否存在任意一组历史训练样本的每个第一标号对应的第一差值,与所述第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间;存在任意一组历史训练样本的每个第一标号对应的第一差值,与所述第一预设时间范围内的网络数据中与该第一标号对应的第二标号的第二差值属于同一个预设差值区间,则该组历史训练样本的数据波形与第一预设时间范围内的网络数据的数据波形相同,不需要对机器学习模型进行更新,则将当前时刻对应的第一预设时间范围内的网络数据输入至所述机器学习模型,得到当前时刻对应的预测数据。
5.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行如权利要求1至3任一所述的基于NWDAF的机器学习模型更新方法的步骤。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至3任一所述的基于NWDAF的机器学习模型更新方法的步骤。
CN202211162890.7A 2022-09-23 2022-09-23 一种基于nwdaf的机器学习模型更新方法及装置 Active CN115470936B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211162890.7A CN115470936B (zh) 2022-09-23 2022-09-23 一种基于nwdaf的机器学习模型更新方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211162890.7A CN115470936B (zh) 2022-09-23 2022-09-23 一种基于nwdaf的机器学习模型更新方法及装置

Publications (2)

Publication Number Publication Date
CN115470936A CN115470936A (zh) 2022-12-13
CN115470936B true CN115470936B (zh) 2023-06-06

Family

ID=84335803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211162890.7A Active CN115470936B (zh) 2022-09-23 2022-09-23 一种基于nwdaf的机器学习模型更新方法及装置

Country Status (1)

Country Link
CN (1) CN115470936B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115988550B (zh) * 2022-12-16 2023-10-24 广州爱浦路网络技术有限公司 Ue不可用期获取方法及系统
CN116318344B (zh) * 2023-02-28 2023-10-24 广州爱浦路网络技术有限公司 获取ue不可达时间的优化方法、系统、装置和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191791A (zh) * 2019-12-02 2020-05-22 腾讯云计算(北京)有限责任公司 机器学习模型的应用方法、训练方法、装置、设备及介质
CN112039934A (zh) * 2019-06-03 2020-12-04 大唐移动通信设备有限公司 一种信息反馈、反馈信息处理方法及装置
CN114330544A (zh) * 2021-12-28 2022-04-12 国网冀北电力有限公司信息通信分公司 一种业务流量异常检测模型建立方法及异常检测方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107730087A (zh) * 2017-09-20 2018-02-23 平安科技(深圳)有限公司 预测模型训练方法、数据监控方法、装置、设备及介质
CN109697522B (zh) * 2017-10-20 2021-07-09 北京京东尚科信息技术有限公司 一种数据预测的方法和装置
CN108337685B (zh) * 2018-01-26 2019-05-24 重庆邮电大学 基于分簇dgm的无线传感器网络数据融合方法
CN108683468B (zh) * 2018-04-27 2020-09-22 河海大学常州校区 基于数据预测的水下传感网络中auv移动数据收集算法
KR20200018343A (ko) * 2018-08-09 2020-02-19 한국전자통신연구원 Nwdaf를 이용한 페이징 실패 예측 방법 및 페이징 실패 예측 방법을 실행하는 페이징 실패 예측 장치
CN110831029B (zh) * 2018-08-13 2021-06-22 华为技术有限公司 一种模型的优化方法和分析网元
CN109348497B (zh) * 2018-09-30 2019-12-03 南昌航空大学 无线传感器网络链路质量预测方法
CN109493979A (zh) * 2018-10-23 2019-03-19 平安科技(深圳)有限公司 一种基于智能决策的疾病预测方法和装置
US11381494B2 (en) * 2019-05-07 2022-07-05 Electronics And Telecommunications Research Institute Method and system for providing communication analysis of user equipment based on network data analysis
CN112448827B (zh) * 2019-08-27 2022-07-19 中国移动通信有限公司研究院 一种信息处理方法、装置、设备及计算机可读存储介质
CN110826695B (zh) * 2019-10-30 2021-05-25 京东数字城市(成都)科技有限公司 数据处理方法、装置和计算机可读存储介质
CN110839040B (zh) * 2019-11-20 2021-12-14 北京天融信网络安全技术有限公司 一种流量的监控方法、模型的训练方法、装置及存储介质
CN114339808A (zh) * 2020-09-30 2022-04-12 华为技术有限公司 一种数据传输方法以及装置
CN114978292B (zh) * 2022-06-24 2023-05-05 广州爱浦路网络技术有限公司 一种卫星网络的连接方法、系统、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112039934A (zh) * 2019-06-03 2020-12-04 大唐移动通信设备有限公司 一种信息反馈、反馈信息处理方法及装置
CN111191791A (zh) * 2019-12-02 2020-05-22 腾讯云计算(北京)有限责任公司 机器学习模型的应用方法、训练方法、装置、设备及介质
CN114330544A (zh) * 2021-12-28 2022-04-12 国网冀北电力有限公司信息通信分公司 一种业务流量异常检测模型建立方法及异常检测方法

Also Published As

Publication number Publication date
CN115470936A (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN115470936B (zh) 一种基于nwdaf的机器学习模型更新方法及装置
CN107480028B (zh) 磁盘可使用的剩余时长的获取方法及装置
CN106933650A (zh) 云应用系统的负载管理方法及系统
CN110782706B (zh) 智能车辆驾驶风险的预警方法和装置
CN110689084B (zh) 一种异常用户识别方法及装置
CN112291122B (zh) 网络流量检测方法、装置、电子设备及可读存储介质
CN110781960A (zh) 视频分类模型的训练方法、分类方法、装置及设备
CN115082752A (zh) 基于弱监督的目标检测模型训练方法、装置、设备及介质
CN112988440A (zh) 一种系统故障预测方法、装置、电子设备及存储介质
CN111860858A (zh) 一种模型更新参数的确定方法、确定装置及可读存储介质
CN111340287A (zh) 配电柜运行状态预测方法及装置
CN114924203A (zh) 一种电池soh预测分析方法及电动汽车
CN111090401B (zh) 存储设备性能预测方法及装置
CN110704614A (zh) 对应用中的用户群类型进行预测的信息处理方法及装置
CN116257885A (zh) 基于联邦学习的隐私数据通信方法、系统和计算机设备
CN112801156B (zh) 用于人工智能机器学习的业务大数据采集方法及服务器
CN113806070B (zh) 边缘计算和云计算的数据管理方法和装置
CN112684402B (zh) 用电量平稳电能运行误差数据的监测方法及系统
CN114938339A (zh) 一种数据处理方法和相关装置
CN112417767B (zh) 一种衰减趋势确定模型构建方法、衰减趋势确定方法
CN113986700A (zh) 数据采集频率的优化方法、系统、装置及存储介质
CN113038283B (zh) 视频推荐方法、装置和存储介质
CN114282940A (zh) 用于意图识别的方法及装置、存储介质及电子设备
CN110928634B (zh) 数据处理方法、装置及设备
CN115829755B (zh) 交易风险的预测结果的解释方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant