CN117014507A - 任务卸载模型的训练方法、任务的卸载方法及装置 - Google Patents

任务卸载模型的训练方法、任务的卸载方法及装置 Download PDF

Info

Publication number
CN117014507A
CN117014507A CN202310994265.7A CN202310994265A CN117014507A CN 117014507 A CN117014507 A CN 117014507A CN 202310994265 A CN202310994265 A CN 202310994265A CN 117014507 A CN117014507 A CN 117014507A
Authority
CN
China
Prior art keywords
task
model
target
initial
unloading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310994265.7A
Other languages
English (en)
Inventor
王冠国
李龙珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bank of China Ltd
Original Assignee
Bank of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bank of China Ltd filed Critical Bank of China Ltd
Priority to CN202310994265.7A priority Critical patent/CN117014507A/zh
Publication of CN117014507A publication Critical patent/CN117014507A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/59Providing operational support to end devices by off-loading in the network or by emulation, e.g. when they are unavailable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供一种任务卸载模型的训练方法、任务的卸载方法及装置,可用于人工智能领域。包括:获取训练数据,并根据训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,对其进行准确度校验得到校验结果,若校验结果指示初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型,其中,目标任务卸载模型用于将用户终端发送的任务卸载至目标云计算服务器或目标边缘计算节点。本申请的方法,降低了根据距离确定卸载至边缘计算节点或者云计算服务器,造成的边缘计算节点或者云计算服务器对任务的响应出现高延迟的情况,提升了用户体验。

Description

任务卸载模型的训练方法、任务的卸载方法及装置
技术领域
本申请涉及人工智能领域,尤其涉及一种任务卸载模型的训练方法、任务的卸载方法及装置。
背景技术
随着人工智能技术的飞速发展,银行开展的业务种类越来越多,为了提高业务的响应速率,会将业务卸载至云计算服务器或边缘计算节点,由云计算服务器或边缘计算节点执行。
现有技术中,对用户终端提交的任务进行卸载时,通常是根据用户终端与边缘计算节点之间的距离确定,当用户终端距离边缘计算节点在预设距离范围内时,则将该任务卸载至边缘计算节点,若距离在预设距离范围外时,则将该任务卸载至云计算服务器。
但是,现有技术若根据距离确定出将该任务卸载至边缘计算节点时,如果边缘计算节点当前处理的任务较多,容易使边缘计算节点对该任务的执行出现响应高延迟的情况,影响用户体验。
发明内容
本申请提供一种任务卸载模型的训练方法、任务的卸载方法及装置,用以解决现有技术若根据距离确定出将该任务卸载至边缘计算节点时,如果边缘计算节点当前处理的任务较多,容易使边缘计算节点对该任务的执行出现响应高延迟的情况,影响用户体验的问题。
第一方面,本申请提供一种任务卸载模型的训练方法,包括:
获取训练数据,所述训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据;
根据所述训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,所述初始的强化学习模型为神经网络模型;
对所述初始任务卸载模型进行准确度校验,得到校验结果,所述校验结果用于指示所述初始任务卸载模型训练是否通过;
若所述校验结果指示所述初始任务卸载模型训练未通过,则基于预设的反向传播算法,对所述初始任务卸载模型进行参数更新,得到目标任务卸载模型,所述目标任务卸载模型用于将用户终端发送的任务卸载至所述目标云计算服务器或所述目标边缘计算节点。
第二方面,本申请提供一种任务的卸载方法,包括:
获取用户终端发送的对目标任务的执行请求,所述执行请求中包括执行目标任务所需的网络资源;
将所述执行请求输入目标任务卸载模型,得到卸载结果,所述卸载结果用于指示所述目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点;
其中,所述目标任务卸载模型基于任务卸载至目标云计算服务器的训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
第三方面,本申请提供一种任务卸载模型的训练装置,包括:
第一获取模块,用于获取训练数据,所述训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据;
训练模块,用于根据所述训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,所述初始的强化学习模型为神经网络模型;
校验模块,用于对所述初始任务卸载模型进行准确度校验,得到校验结果,所述校验结果用于指示所述初始任务卸载模型训练是否通过;
所述训练模块,还用于若所述校验结果指示所述初始任务卸载模型训练未通过,则基于预设的反向传播算法,对所述初始任务卸载模型进行参数更新,得到目标任务卸载模型,所述目标任务卸载模型用于将用户终端发送的任务卸载至所述目标云计算服务器或所述目标边缘计算节点。
第四方面,本申请提供一种任务的卸载装置,包括:
第二获取模块,用于获取用户终端发送的对目标任务的执行请求,所述执行请求中包括执行目标任务所需的网络资源;
处理模块,用于将所述执行请求输入目标任务卸载模型,得到卸载结果,所述卸载结果用于指示所述目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点;
其中,所述目标任务卸载模型基于任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
第五方面,本申请提供一种电子设备,包括:至少一个处理器、存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述电子设备执行第一方面任一项所述的任务卸载模型的训练方法。
第六方面,本申请提供一种电子设备,包括:至少一个处理器、存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述电子设备执行第二方面任一项所述的任务的卸载方法。
第七方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如第一方面任一项所述的任务卸载模型的训练方法,和/或,用于实现第二方面任一项所述的任务的卸载方法。
第八方面,本申请提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如第一方面任一项所述的任务卸载模型的训练方法,和/或,用于实现第二方面任一项所述的任务的卸载方法。
本申请提供的一种任务卸载模型的训练方法、任务的卸载方法及装置,通过获取训练数据,其中,训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据。并根据训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,该初始的强化学习模型为神经网络模型。进而对初始任务卸载模型进行准确度校验,得到校验结果,该校验结果用于指示初始任务卸载模型训练是否通过,若校验结果指示初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型,目标任务卸载模型用于将用户终端发送的任务卸载至目标云计算服务器或目标边缘计算节点。本申请的方法,通过根据训练数据训练得到的目标任务卸载模型确定任务卸载至边缘计算节点或者云计算服务器的方式,降低了根据距离确定卸载至边缘计算节点或者云计算服务器,造成的边缘计算节点或者云计算服务器对任务的响应出现高延迟的情况,提高了任务的处理效率,提升了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请提供的一种应用场景示意图;
图2为本申请实施例提供的一种任务卸载模型的训练方法的流程示意图;
图3为本申请实施例提供的一种得到初始任务卸载模型的方法的流程示意图;
图4为本申请实施例提供的一种对初始任务卸载模型进行准确度校验的方法的流程示意图;
图5为本申请实施例提供的一种任务的卸载方法的流程示意图;
图6为本申请实施例提供的一种任务卸载模型的训练装置的结构示意图;
图7为本申请实施例提供的一种任务的卸载装置的结构示意图;
图8为本申请实施例提供的一种电子设备的结构示意图;
图9为本申请实施例提供的一种电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请实施例的描述中,术语“内”、“外”等指示的方向或位置关系的术语是基于附图所示的方向或位置关系,这仅仅是为了便于描述,而不是指示或暗示装置或构件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
此外,在本申请实施例的描述中,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个构件内部的连通。对于本领域技术人员而言,可根据具体情况理解上述术语在本申请实施例中的具体含义。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要说明的是,本申请的任务卸载模型的训练方法、任务的卸载方法及装置可用于人工智能领域,也可用于除人工智能领域之外的任意领域,本申请对任务卸载模型的训练方法、任务的卸载方法及装置的应用领域不做限定。
近年来,随着智能柜台的银行网点不断智能化,智能柜台所涉及的业务量越来越大,业务种类也越来越多。其中许多业务由于包含许多富文本信息(比如身份认证中的人脸识别需要上传视频、图片等信息),所需的业务计算量较大(比如一些基于用户画像的推荐类业务,需要依托大数据进行复杂的计算得出结果),因此,智能柜台需要将这些业务发送到云计算服务器中执行。
但是当云计算服务器距离用户终端较远时,会导致对任务的响应出现较高延迟。因此,为了降低距离对响应延迟的影响,会在用户终端较近的区域部署边缘计算节点,使边缘计算节点执行任务。
因此,当用户终端提交了一个任务时,智能柜台可以将该任务卸载至云计算服务器,或者,边缘计算节点。
现有技术中,在进行业务卸载时,通常是根据用户终端与边缘计算节点之间的距离确定,当用户终端距离边缘计算节点在预设距离范围内时,则将该任务卸载至边缘计算节点,若距离在预设距离范围外时,则将该任务卸载至云计算服务器。
但是现有技术中若根据距离确定出将该任务卸载至边缘计算节点时,如果边缘计算节点当前处理的任务较多,容易使边缘计算节点对该任务的执行出现响应高延迟的情况。相应的,若根据距离确定出将该任务卸载至云计算服务器时,如果云计算服务器当前处理的任务较多,也容易使云计算服务器对该任务的执行出现响应高延迟的情况。
因此,针对现有技术中的上述技术问题,本申请提出一种任务卸载模型的训练方法、任务的卸载方法及装置,通过根据获取的训练数据得到初始任务卸载模型,若初始任务卸载模型校验未通过,则基于反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型,进而根据训练好的目标任务卸载模型确定将任务卸载至云计算服务器或者边缘计算节点,从而降低了根据用户终端与边缘计算节点之间的距离确定任务卸载至云计算服务器或者边缘计算节点造成的任务响应高延迟的问题,提升了用户体验。
为了便于理解本申请的方法,下面实例性的提供一种应用场景,图1为本申请提供的一种应用场景示意图,如图1所示,包括用户终端101、智能柜台102、云计算服务器103、边缘计算节点104。
其中,智能柜台102中用于根据获取的训练数据进行模型训练,得到目标任务卸载模型,该目标任务卸载模型用于将用户终端发送的任务卸载至云计算服务器103或边缘计算节点104。
用户终端101,用于向智能柜台102发送任务执行请求。
智能柜台102,还用于将该任务执行请求输入目标任务卸载模型,得到任务的卸载结果。
云计算服务器103,用于若任务的卸载结果指示该任务被卸载至云计算服务器,云计算服务器则执行该任务。
边缘计算节点104,用于若任务的卸载结果指示该任务被卸载至边缘计算节点,边缘计算节点则执行该任务。
可以理解的是,本申请中不对应用场景中的包括用户终端101、智能柜台102、云计算服务器103、边缘计算节点104的数量、形态、功能及交互方式等进行限定,上述场景仅用于举例说明,在方案的具体应用中,可以根据实际的需求进行设定。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图2为本申请实施例提供的一种任务卸载模型的训练方法的流程示意图,该方法的执行主体可以为具备模型训练功能的终端,例如,可以为智能柜台、个人计算机、笔记本电脑、智能手机、平板电脑、便携式可穿戴设备、服务器或服务器集群等。本实施例中的方法可以通过软件、硬件或者软硬件结合的方式来实现。如图2所示,该方法具体包括以下步骤:
S201、获取训练数据。
其中,训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据。例如,奖励可以定义为响应时间的倒数。
本实施例中,执行主体以智能柜台为例,为了便于理解,下面首先对本实施例涉及的强化学习模型进行说明。
在学习强化模型中,动作、状态、奖励及策略是其重要组成部分,其交互过程为:智能体根据预测的策略,在当前所处状态中选择一个动作,并对这些动作做出相应的响应,转移到新状态,同时产生一个奖励信号,奖励的累加和称为回报或收益,是智能体在动作选择过程中想要达到的最大化的目标,进而往复循环。
因此,在本实施例的任务卸载场景中,获取的动作训练数据可以是由任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据组成,获取的状态训练数据可以是由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成,以及,根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据等。
可选的,获取训练数据的一种可能的实现方式是:
获取预设时间段内,目标云计算服务器在执行不同任务时对应的网络资源,以及目标云计算服务器执行每个任务的响应时间。
获取预设时间段内,目标边缘计算节点在执行不同任务时对应的网络资源,以及目标边缘计算节点执行每个任务的响应时间。
其中,网络资源包括但不限于以下几种:网络资源、CPU资源、内存资源、硬盘资源等。
示例性的,智能柜台可以获取一个月内,目标云计算服务器在执行每个任务时目标云计算服务器对应的网络资源、CPU资源、内存资源、硬盘资源等,以及目标云计算服务器对每个任务的响应时间。相应的,智能柜台可以获取一个月内,目标边缘计算节点在执行每个任务时目标边缘计算节点对应的网络资源、CPU资源、内存资源、硬盘资源等,以及目标边缘计算节点对每个任务的响应时间。
S202、根据训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,初始的强化学习模型为神经网络模型。
根据获取的动作训练数据、状态训练数据及奖励训练数据,对初始的强化学习模型进行训练,即重复上述步骤中S201的往复循环过程,直至预设的损失函数达到收敛时,得到训练后的初始任务卸载模型
其中,初始的强化学习模型可以为神经网络模型等,本申请不进行限定。
S203、对初始任务卸载模型进行准确度校验,得到校验结果,校验结果用于指示初始任务卸载模型训练是否通过。
由于得到的初始任务卸载模型不一定准确,因此,为了增强初始任务卸载模型对任务卸载的准确性,需要对初始任务卸载模型进行准确度校验,以得到校验结果。
校验结果用于指示初始任务卸载模型训练通过,或者,用于指示初始任务卸载模型训练未通过。
S204、若校验结果指示初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型。
该目标任务卸载模型用于将用户终端发送的任务卸载至目标云计算服务器或目标边缘计算节点。
本实施例中,若校验结果指示初始任务卸载模型训练未通过,说明训练得到的初始任务卸载模型准确度并不高,因此,需要对初始任务卸载模型进行进一步的更新。
反向传播(BP,back propagation)是“误差反向传播”的简称,可以用来训练人工神经网络。在本实施例中,根据预设的反向传播算法,通过对初始任务卸载模型进行参数更新,从而得到最终的目标任务卸载模型。
在本申请的上述实施例中,通过根据获取的训练数据,对初始的强化学习模型进行训练,得到初始任务卸载模型,进而对初始任务卸载模型进行准确度校验,得到校验结果,若校验结果指示初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型,其中,目标任务卸载模型用于将用户终端发送的任务卸载至目标云计算服务器或目标边缘计算节点。本实施例的方法,降低了根据距离确定卸载至边缘计算节点或者云计算服务器,造成的边缘计算节点或者云计算服务器对任务的响应出现高延迟的情况,提高了任务的处理效率,进而提升了用户体验。
进一步的,在上述实施例的基础之上,通过下方的实施例,详细的说明又一种任务卸载模型的训练方法。
图3为本申请实施例提供的一种得到初始任务卸载模型的方法的流程示意图,如图3所示,该方法具体包括以下步骤:
S301、根据预设的决策函数及初始状态数据,从动作训练数据中确定出初始动作数据。
决策函数也称为策略,规定了在每个可能的状态下,可以采取的动作。即针对状态训练数据中的每一个训练数据(目标云计算服务器在某时刻的网络资源或者目标边缘计算节点在某时刻的网络资源),从动作训练数据中确定出一个初始动作数据(任务卸载至目标云计算服务器或者任务卸载至目标边缘计算节点),得到从状态到动作的映射。
S302、根据初始动作数据及预设的评价函数,从奖励训练数据中确定出初始奖励数据并生成新的状态数据。
评价函数也被称为奖励函数,根据评价函数可以得到对所确定的动作的好坏评价,其通常表示为一个标量信号,例如,用一个正数表示奖,用一个负数表示罚,一般来说正数越大表示奖越多,负数越小表示罚越多。强化学习的目的就是使最终得到的总的奖励值达到最大,从而为策略的选择提供依据。
因此,根据预设的评价函数对初始动作数据进行评价,从而从奖励训练数据中确定出初始奖励数据并生成新的状态数据。
S303、将新的状态数据更新为当前的状态数据进行循环迭代,直至预设的损失函数达到收敛时,得到初始任务卸载模型。
将新的状态数据更新为当前的状态数据,进行循环迭代,当预设的损失函数收敛时说明模型训练完成,得到初始任务卸载模型。
进一步的,得到初始任务卸载模型后,对初始任务卸载模型的准确度进行校验,图4为本申请实施例提供的一种对初始任务卸载模型进行准确度校验的方法的流程示意图,如图4所示,该方法具体包括以下步骤:
S401、将预设数量的任务输入初始任务卸载模型,得到对每个任务的卸载结果。
其中,卸载结果用于指示任务卸载至目标云计算服务器或卸载至目标边缘计算节点。
S402、对于卸载至目标云计算服务器的每个任务,获取目标云计算服务器对每个任务的第一响应时间。
从目标云计算服务器中获取其对每个任务执行的响应时间。
S403、对于卸载至目标边缘计算节点的每个任务,获取目标边缘计算节点对每个任务的第二响应时间。
从目标边缘计算节点中获取其对每个任务执行的响应时间。
S404、判断第一响应时间及第二响应时间是否超过对应的响应时间阈值。
S405、若超过则初始任务卸载模型训练未通过,反之则通过。
若第一响应时间未超过第一响应时间阈值且第二响应时间未超过第二响应时间阈值,则校验结果指示初始任务卸载模型训练通过。
若第一响应时间超过第一响应时间阈值和/或第二响应时间超过第二响应时间阈值,则校验结果指示初始任务卸载模型训练未通过。
若初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型。
一种可能的实现方式是:
基于预设的反向传播算法,对初始任务卸载模型中的模型函数进行参数更新,得到更新后的模型函数,进而根据获取的训练数据及更新后的模型函数,对初始任务卸载模型进行训练,得到目标任务卸载模型。
其中,模型函数包括但不限于以下几种:决策函数、评价函数、损失函数等。
在本申请的上述实施例中,通过根据训练数据及初始的强化学习模型进行训练得到初始任务卸载模型,并根据初始任务卸载模型得到各个任务的卸载结果。分别获取目标云计算服务器和目标边缘计算节点对卸载的任务的响应时间,进而根据响应时间判断该初始任务卸载模型是否训练通过,若训练不通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,最终得到目标任务卸载模型。本实施例的方法,通过对初始任务卸载模型进行校验及更新,使得得到的任务卸载模型更加准确。
在上述的实施例中,主要对任务卸载模型的训练过程进行了说明,下面通过图5,说明任务卸载模型的应用。
图5为本申请实施例提供的一种任务的卸载方法的流程示意图,如图5所示,该方法包括以下步骤:
S501、获取用户终端发送的对目标任务的执行请求,执行请求中包括执行目标任务所需的网络资源。
本申请中执行主体以智能柜台为例,用户终端向智能柜台发送目标任务,因此,智能柜台可以获取到对目标任务的执行请求。
在该执行请求中包括但不限于:执行目标任务所需的网络资源、目标任务的标识信息、目标任务的业务数据等。
S502、将执行请求输入目标任务卸载模型,得到卸载结果,卸载结果用于指示目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点。
智能柜台将该执行请求输入训练好的目标任务卸载模型,目标任务卸载模型输出对该目标任务的卸载结果。
若卸载结果用于指示目标任务卸载至目标云计算服务器,则由目标云计算服务器执行该目标任务。
若卸载结果用于指示目标任务卸载至目标边缘计算节点,则由目标边缘计算节点执行该目标任务。
其中,目标任务卸载模型是基于任务卸载至目标云计算服务器的训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
在本申请的上述实施例中,通过获取用户终端发送的对目标任务的执行请求,该执行请求中包括执行目标任务所需的网络资源,将执行请求输入目标任务卸载模型,得到卸载结果,该卸载结果用于指示目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点。本实施例的方法降低了根据距离确定卸载至边缘计算节点或者云计算服务器,造成的边缘计算节点或者云计算服务器对任务的响应出现高延迟的情况,提升了用户体验。
图6为本申请实施例提供的一种任务卸载模型的训练装置的结构示意图,该装置包括:第一获取模块601、训练模块602、校验模块603。
第一获取模块601,用于获取训练数据,训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据。
训练模块602,用于根据训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,初始的强化学习模型为神经网络模型。
校验模块603,用于对初始任务卸载模型进行准确度校验,得到校验结果,校验结果用于指示初始任务卸载模型训练是否通过。
训练模块602,还用于若校验结果指示初始任务卸载模型训练未通过,则基于预设的反向传播算法,对初始任务卸载模型进行参数更新,得到目标任务卸载模型,目标任务卸载模型用于将用户终端发送的任务卸载至目标云计算服务器或目标边缘计算节点。
一种可能的实现方式是,第一获取模块601,具体用于:
获取预设时间段内,目标云计算服务器在执行不同任务时对应的网络资源,以及目标云计算服务器执行每个任务的响应时间。
获取预设时间段内,目标边缘计算节点在执行不同任务时对应的网络资源,以及目标边缘计算节点执行每个任务的响应时间。
其中,网络资源包括以下一种或多种:网络资源、CPU资源、内存资源、硬盘资源。
一种可能的实现方式是,训练模块602,具体用于:
根据预设的决策函数及初始状态数据,从动作训练数据中确定出初始动作数据。
根据初始动作数据及预设的评价函数,从奖励训练数据中确定出初始奖励数据并生成新的状态数据。
将新的状态数据更新为当前的状态数据进行循环迭代,直至预设的损失函数达到收敛时,得到初始任务卸载模型。
一种可能的实现方式是,校验模块603,具体用于:
将预设数量的任务输入初始任务卸载模型,得到对每个任务的卸载结果,卸载结果用于指示任务卸载至目标云计算服务器或卸载至目标边缘计算节点。
对于卸载至目标云计算服务器的每个任务,获取目标云计算服务器对每个任务的第一响应时间。
对于卸载至目标边缘计算节点的每个任务,获取目标边缘计算节点对每个任务的第二响应时间。
若第一响应时间超过第一响应时间阈值和/或第二响应时间超过第二响应时间阈值,则校验结果指示初始任务卸载模型训练未通过。
若第一响应时间未超过第一响应时间阈值且第二响应时间未超过第二响应时间阈值,则校验结果指示初始任务卸载模型训练通过。
一种可能的实现方式是,训练模块602,具体还用于:
基于预设的反向传播算法,对初始任务卸载模型中的模型函数进行参数更新,得到更新后的模型函数,模型函数包括以下一种或多种:决策函数、评价函数、损失函数。
根据获取的训练数据及更新后的模型函数,对初始任务卸载模型进行训练,得到目标任务卸载模型。
本实施例提供的任务卸载模型的训练装置,用于执行前述任一的方法实施例,其实现原理与技术效果类似,对此不再赘述。
图7为本申请实施例提供的一种任务的卸载装置的结构示意图,该装置包括:第二获取模块701、处理模块702。
第二获取模块701,用于获取用户终端发送的对目标任务的执行请求,执行请求中包括执行目标任务所需的网络资源。
处理模块702,用于将执行请求输入目标任务卸载模型,得到卸载结果,卸载结果用于指示目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点。
其中,目标任务卸载模型基于任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
本实施例提供的任务的卸载装置,用于执行前述任一的方法实施例,其实现原理与技术效果类似,对此不再赘述。
图8为本申请实施例提供的一种电子设备的结构示意图,如图8所示,该设备可以包括:至少一个处理器801和与处理器通信连接的存储器802。
存储器802,用于存放程序。具体地,程序可以包括程序代码,程序代码包括计算机操作/执行指令。
存储器802可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器801用于执行存储器802存储的计算机可执行指令,以实现前述任意实施例所描述的方法。其中,处理器801可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
可选的,该电子设备还可以包括通信接口803。在具体实现上,如果通信接口803、存储器802、处理器801独立实现,则通信接口803、存储器802、处理器801可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry StandardArchitecture,简称为ISA)总线、外部设备互连(Peripheral Component,简称为PCI)总线或扩展工业标准体系结构(Extended Industry Standard Architecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果通信接口803、存储器802、处理器801集成在一块芯片上实现,则通信接口803、存储器802、处理器801可以通过内部接口完成通信。
本实施例提供的电子设备,用于执行前述的任务卸载模型的训练方法,其实现原理与技术效果与方法实施例类似,对此不再赘述。
图9为本申请实施例提供的一种电子设备的结构示意图,如图9所示,该设备可以包括:至少一个处理器901和与处理器通信连接的存储器902。
存储器902,用于存放程序。具体地,程序可以包括程序代码,程序代码包括计算机操作/执行指令。
存储器902可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器901用于执行存储器902存储的计算机可执行指令,以实现前述任意实施例所描述的方法。其中,处理器901可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
可选的,该电子设备还可以包括通信接口903。在具体实现上,如果通信接口903、存储器902、处理器901独立实现,则通信接口903、存储器902、处理器901可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry StandardArchitecture,简称为ISA)总线、外部设备互连(Peripheral Component,简称为PCI)总线或扩展工业标准体系结构(Extended Industry Standard Architecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果通信接口903、存储器902、处理器901集成在一块芯片上实现,则通信接口903、存储器902、处理器901可以通过内部接口完成通信。
本实施例提供的电子设备,用于执行前述的任务的卸载方法,其实现原理与技术效果与方法实施例类似,对此不再赘述。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或者光盘等各种可以存储程序代码的介质,具体的,该计算机可读存储介质其上存储有计算机执行指令,计算机执行指令被处理器执行时用于实现上述的任务卸载模型的训练方法,和/或,任务的卸载方法。
本申请还提供一种计算机程序产品,该程序产品包括计算机程序,该计算机程序存储在可读存储介质中。电子设备的至少一个处理器可以从可读存储介质读取该计算机程序,至少一个处理器执行该程序使得电子设备实施上述的各种实施方式提供的上述的任务卸载模型的训练方法,和/或,任务的卸载方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (11)

1.一种任务卸载模型的训练方法,其特征在于,包括:
获取训练数据,所述训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据;
根据所述训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,所述初始的强化学习模型为神经网络模型;
对所述初始任务卸载模型进行准确度校验,得到校验结果,所述校验结果用于指示所述初始任务卸载模型训练是否通过;
若所述校验结果指示所述初始任务卸载模型训练未通过,则基于预设的反向传播算法,对所述初始任务卸载模型进行参数更新,得到目标任务卸载模型,所述目标任务卸载模型用于将用户终端发送的任务卸载至所述目标云计算服务器或所述目标边缘计算节点。
2.根据权利要求1所述的方法,其特征在于,所述获取训练数据,包括:
获取预设时间段内,所述目标云计算服务器在执行不同任务时对应的网络资源,以及所述目标云计算服务器执行每个任务的响应时间;
获取所述预设时间段内,所述目标边缘计算节点在执行不同任务时对应的网络资源,以及所述目标边缘计算节点执行每个任务的响应时间;
其中,所述网络资源包括以下一种或多种:网络资源、CPU资源、内存资源、硬盘资源。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,包括:
根据预设的决策函数及初始状态数据,从所述动作训练数据中确定出初始动作数据;
根据所述初始动作数据及预设的评价函数,从所述奖励训练数据中确定出初始奖励数据并生成新的状态数据;
将新的状态数据更新为当前的状态数据进行循环迭代,直至预设的损失函数达到收敛时,得到所述初始任务卸载模型。
4.根据权利要求3所述的方法,其特征在于,所述对所述初始任务卸载模型进行准确度校验,得到校验结果,包括:
将预设数量的任务输入所述初始任务卸载模型,得到对每个任务的卸载结果,所述卸载结果用于指示任务卸载至所述目标云计算服务器或卸载至所述目标边缘计算节点;
对于卸载至所述目标云计算服务器的每个任务,获取所述目标云计算服务器对每个任务的第一响应时间;
对于卸载至所述目标边缘计算节点的每个任务,获取所述目标边缘计算节点对每个任务的第二响应时间;
若所述第一响应时间超过第一响应时间阈值和/或所述第二响应时间超过第二响应时间阈值,则所述校验结果指示所述初始任务卸载模型训练未通过;
若所述第一响应时间未超过所述第一响应时间阈值且所述第二响应时间未超过所述第二响应时间阈值,则所述校验结果指示所述初始任务卸载模型训练通过。
5.根据权利要求4所述的方法,其特征在于,所述基于预设的反向传播算法,对所述初始任务卸载模型进行参数更新,得到目标任务卸载模型,包括:
基于预设的反向传播算法,对所述初始任务卸载模型中的模型函数进行参数更新,得到更新后的模型函数,所述模型函数包括以下一种或多种:所述决策函数、所述评价函数、所述损失函数;
根据获取的所述训练数据及所述更新后的模型函数,对所述初始任务卸载模型进行训练,得到所述目标任务卸载模型。
6.一种任务的卸载方法,其特征在于,包括:
获取用户终端发送的对目标任务的执行请求,所述执行请求中包括执行目标任务所需的网络资源;
将所述执行请求输入目标任务卸载模型,得到卸载结果,所述卸载结果用于指示所述目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点;
其中,所述目标任务卸载模型基于任务卸载至目标云计算服务器的训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
7.一种任务卸载模型的训练装置,其特征在于,包括:
第一获取模块,用于获取训练数据,所述训练数据包括:任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和根据目标边缘计算节点执行任务的响应时间确定的奖励训练数据;
训练模块,用于根据所述训练数据,对初始的强化学习模型进行训练,直至预设的损失函数达到收敛时,得到初始任务卸载模型,所述初始的强化学习模型为神经网络模型;
校验模块,用于对所述初始任务卸载模型进行准确度校验,得到校验结果,所述校验结果用于指示所述初始任务卸载模型训练是否通过;
所述训练模块,还用于若所述校验结果指示所述初始任务卸载模型训练未通过,则基于预设的反向传播算法,对所述初始任务卸载模型进行参数更新,得到目标任务卸载模型,所述目标任务卸载模型用于将用户终端发送的任务卸载至所述目标云计算服务器或所述目标边缘计算节点。
8.一种任务的卸载装置,其特征在于,包括:
第二获取模块,用于获取用户终端发送的对目标任务的执行请求,所述执行请求中包括执行目标任务所需的网络资源;
处理模块,用于将所述执行请求输入目标任务卸载模型,得到卸载结果,所述卸载结果用于指示所述目标任务卸载至目标云计算服务器或卸载至目标边缘计算节点;
其中,所述目标任务卸载模型基于任务卸载至目标云计算服务器的动作训练数据和任务卸载至目标边缘计算节点的动作训练数据、由目标云计算服务器不同的网络资源和目标边缘计算节点不同的网络资源组成的状态训练数据、以及根据目标云计算服务器执行任务的响应时间和由目标边缘计算节点执行任务的响应时间确定的奖励训练数据、强化学习模型及反向传播算法训练而成。
9.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至5任一项所述的任务卸载模型的训练方法。
10.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求6所述的任务的卸载方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至5任一项所述的任务卸载模型的训练方法,和/或,用于实现如权利要求6所述的任务的卸载方法。
CN202310994265.7A 2023-08-08 2023-08-08 任务卸载模型的训练方法、任务的卸载方法及装置 Pending CN117014507A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310994265.7A CN117014507A (zh) 2023-08-08 2023-08-08 任务卸载模型的训练方法、任务的卸载方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310994265.7A CN117014507A (zh) 2023-08-08 2023-08-08 任务卸载模型的训练方法、任务的卸载方法及装置

Publications (1)

Publication Number Publication Date
CN117014507A true CN117014507A (zh) 2023-11-07

Family

ID=88568791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310994265.7A Pending CN117014507A (zh) 2023-08-08 2023-08-08 任务卸载模型的训练方法、任务的卸载方法及装置

Country Status (1)

Country Link
CN (1) CN117014507A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117453377A (zh) * 2023-12-21 2024-01-26 腾讯科技(深圳)有限公司 模型调度方法、终端设备以及服务器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117453377A (zh) * 2023-12-21 2024-01-26 腾讯科技(深圳)有限公司 模型调度方法、终端设备以及服务器
CN117453377B (zh) * 2023-12-21 2024-04-26 腾讯科技(深圳)有限公司 模型调度方法、终端设备以及服务器

Similar Documents

Publication Publication Date Title
TWI703465B (zh) 核身方法和裝置
EP3690763A1 (en) Machine learning model training method and device, and electronic device
CN112395247B (zh) 数据的处理方法、存算一体芯片
CN111027428B (zh) 一种多任务模型的训练方法、装置及电子设备
CN117014507A (zh) 任务卸载模型的训练方法、任务的卸载方法及装置
CN112687266B (zh) 语音识别方法、装置、计算机设备和存储介质
CN113807353B (zh) 图像转换模型训练方法、装置、设备及存储介质
CN110032931B (zh) 生成对抗网络训练、网纹去除方法、装置及电子设备
US10956976B2 (en) Recommending shared products
CN114548300B (zh) 解释业务处理模型的业务处理结果的方法和装置
CN110163151B (zh) 人脸模型的训练方法、装置、计算机设备和存储介质
CN109190757B (zh) 任务处理方法、装置、设备及计算机可读存储介质
CN113283388B (zh) 活体人脸检测模型的训练方法、装置、设备及存储介质
CN111476668B (zh) 可信关系的识别方法、装置、存储介质和计算机设备
CN111325624A (zh) 网络交易的实时防控系统及方法
CN110781500A (zh) 一种数据风控系统以及方法
CN115797267A (zh) 图像质量评估方法、系统、电子设备和存储介质
CN114387480A (zh) 一种人像加扰的方法及装置
CN111984744B (zh) 基于远程通信和人工智能的信息处理方法及云端服务平台
CN111309495B (zh) 批量处理请求发起方法、装置及风险识别设备、存储介质
CN110443746B (zh) 基于生成对抗网络的图片处理方法、装置及电子设备
CN111783742A (zh) 一种防御对抗攻击的图像分类方法、业务决策方法及装置
CN112183270A (zh) 身份验证的拍摄参数的优化方法、装置及电子设备
CN113450124B (zh) 基于用户行为的外呼方法、装置、电子设备及介质
CN111105059B (zh) 属性冲突发现方法、装置和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination