CN111401566B - 机器学习训练方法及系统 - Google Patents

机器学习训练方法及系统 Download PDF

Info

Publication number
CN111401566B
CN111401566B CN202010195837.1A CN202010195837A CN111401566B CN 111401566 B CN111401566 B CN 111401566B CN 202010195837 A CN202010195837 A CN 202010195837A CN 111401566 B CN111401566 B CN 111401566B
Authority
CN
China
Prior art keywords
training
model
data
resources
tasks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010195837.1A
Other languages
English (en)
Other versions
CN111401566A (zh
Inventor
聂砂
赵筝
杨美红
贺潇铮
盛耀聪
王洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Corp
Original Assignee
China Construction Bank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Corp filed Critical China Construction Bank Corp
Priority to CN202010195837.1A priority Critical patent/CN111401566B/zh
Publication of CN111401566A publication Critical patent/CN111401566A/zh
Application granted granted Critical
Publication of CN111401566B publication Critical patent/CN111401566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种机器学习训练方法及系统。该机器学习训练方法包括:根据预先获取的配置文件生成训练任务;根据训练任务和预先获取的训练数据得到训练模型;根据预先获取的服务流程将训练模型发布为模型服务。本发明可以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。

Description

机器学习训练方法及系统
技术领域
本发明涉及机器学习技术领域,具体地,涉及一种机器学习训练方法及系统。
背景技术
机器学习的训练过程存在数据源复杂,技术难,参数调整需要大量建模经验,训练环境不易准备等诸多困难。对于普通软件从业人员甚至经验不足的建模人员而言,训练一个可以投入项目使用的模型需要很高的成本,且现有的机器学习训练不支持模型发布。
发明内容
本发明实施例的主要目的在于提供一种机器学习训练方法及系统,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
为了实现上述目的,本发明实施例提供一种机器学习训练方法,包括:
根据预先获取的配置文件生成训练任务;
根据训练任务和预先获取的训练数据得到训练模型;
根据预先获取的服务流程将训练模型发布为模型服务。
本发明实施例还提供一种机器学习训练系统,包括:
训练任务单元,用于根据预先获取的配置文件生成训练任务;
训练模型单元,用于根据训练任务和预先获取的训练数据得到训练模型;
模型服务单元,用于根据预先获取的服务流程将训练模型发布为模型服务。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,处理器执行计算机程序时实现所述的机器学习训练方法的步骤。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现所述的机器学习训练方法的步骤。
本发明实施例的机器学习训练方法及系统先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中机器学习训练方法的流程图;
图2是本发明实施例中机器学习训练系统的结构框图;
图3是本发明实施例中计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
鉴于目前机器学习的训练过程存在诸多困难,训练成本高且不支持模型发布,本发明实施例提供一种机器学习训练方法,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。以下结合附图对本发明进行详细说明。
图1是本发明一实施例中机器学习训练方法的流程图。如图1所示,机器学习训练方法包括:
S101:根据预先获取的配置文件生成训练任务。
一实施例中,S101包括:根据预先获取的配置文件生成流程处理逻辑文件;根据流程处理逻辑文件生成训练任务。
其中,配置文件可以为yaml配置文件,yaml配置文件更易于客户理解。流程处理逻辑文件可以为DAG(Directed acyclic graph,有向无环图)流程处理逻辑文件。
根据预先获取的配置文件生成流程处理逻辑文件包括:解析配置文件中的查询语言,根据查询语言生成流程处理逻辑文件。与现有技术相比,本发明通过解析查询语言的方式建立训练模型的流程处理逻辑文件,而代替繁琐的训练代码书写,并提供较高的灵活性。
在执行S101之前,还包括:与客户端的sdk接口或web页面建立连接,接收来自客户端的用户身份信息,并对用户身份信息进行授权认证。当授权认证成功时,从客户端获取该用户身份信息ID上传的配置文件、训练数据和服务流程。
S102:根据训练任务和预先获取的训练数据得到训练模型。
其中,训练模型可以被上传至用于存储训练模型的存储系统。当收到停止训练的指令时,可以杀死正在进行的训练任务并回收资源。
训练模型可以为人工智能模型。人工智能模型为根据训练数据总结出的数据结构,基于此数据结构可以对新的数据做预测,判定其目标分类或取值。训练数据包括结构化数据和非结构化数据(图像、视频、语音和文本等);根据用途不同还可分为原始数据和标注数据。
S103:根据预先获取的服务流程将训练模型发布为模型服务。
其中,可以将模型服务返回至客户端,客户在客户端上调用模型服务。
图1所示的资产配置数据的推送方法的执行主体可以为服务器。由图1所示的流程可知,本发明实施例的机器学习训练方法先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
一实施例中,执行S102之前还包括:确定配置文件对应的用户身份的训练资源,即该用户身份有权限调用的训练资源;
判断用户身份的训练资源是否大于训练任务对应的训练资源;
当用户身份的训练资源大于训练任务对应的训练资源时,根据训练任务和预先获取的训练数据得到训练模型。
其中,训练资源可以包括mysql、hdfs、hive、hbase、块存储和对象存储等。
一实施例中,执行S102之前还包括:判断当前空闲训练资源是否大于训练任务对应的训练资源;
当当前空闲训练资源和用户身份的训练资源均大于训练任务对应的训练资源时,根据训练任务和预先获取的训练数据得到训练模型。
一实施例中,当用户身份的训练资源大于训练任务对应的训练资源且当前空闲训练资源小于或等于训练任务对应的训练资源时,将训练任务放入等待队列,等当前空闲训练资源充足时再重新提交训练任务,得到训练模型。当训练资源充足时,可以同时执行多个训练任务得到多个训练模型。
一实施例中,客户可以在授权认证成功后登录查看模型训练过程的实时日志、模型训练结果和结果对比表格、以及模型服务的状态,还可以随时更改模型服务。
本发明实施例的具体流程如下:
1、与客户端的sdk接口或web页面建立连接,接收来自客户端的用户身份信息,并对用户身份信息进行授权认证。当授权认证成功时,从客户端获取该用户身份信息ID上传的配置文件、训练数据和服务流程。
2、根据配置文件生成流程处理逻辑文件,根据流程处理逻辑文件生成训练任务。
3、确定配置文件对应的用户身份的训练资源。
4、判断用户身份的训练资源是否大于训练任务对应的训练资源,判断当前空闲训练资源是否大于训练任务对应的训练资源。
5、当当前空闲训练资源和用户身份的训练资源均大于训练任务对应的训练资源时,根据训练任务和训练数据得到训练模型。
6、根据服务流程将训练模型发布为模型服务。
7、将模型服务返回至客户端,客户在客户端上调用模型服务。
综上,本发明实施例的机器学习训练方法先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
基于同一发明构思,本发明实施例还提供了一种机器学习训练系统,由于该系统解决问题的原理与机器学习训练方法相似,因此该系统的实施可以参见方法的实施,重复之处不再赘述。
图2是本发明实施例中机器学习训练系统的结构框图。如图2所示,机器学习训练系统包括:
训练任务单元,用于根据预先获取的配置文件生成训练任务;
训练模型单元,用于根据训练任务和预先获取的训练数据得到训练模型;
模型服务单元,用于根据预先获取的服务流程将训练模型发布为模型服务。
在其中一种实施例中,训练任务单元具体用于:
根据预先获取的配置文件生成流程处理逻辑文件;
根据流程处理逻辑文件生成训练任务。
在其中一种实施例中,还包括:
训练资源单元,用于确定配置文件对应的用户身份的训练资源;
第一判断单元,用于判断用户身份的训练资源是否大于训练任务对应的训练资源;
训练模型单元具体用于:当用户身份的训练资源大于训练任务对应的训练资源时,根据训练任务和预先获取的训练数据得到训练模型。
在其中一种实施例中,还包括:
第二判断单元,用于判断当前空闲训练资源是否大于训练任务对应的训练资源;
训练模型单元具体用于:当当前空闲训练资源和用户身份的训练资源均大于训练任务对应的训练资源时,根据训练任务和预先获取的训练数据得到训练模型。
综上,本发明实施例的机器学习训练系统先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
本发明实施例还提供能够实现上述实施例中的机器学习训练方法中全部步骤的一种计算机设备的具体实施方式。图3是本发明实施例中计算机设备的结构框图,参见图3,所述计算机设备具体包括如下内容:
处理器(processor)301和存储器(memory)302。
所述处理器301用于调用所述存储器302中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的机器学习训练方法中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
根据预先获取的配置文件生成训练任务;
根据训练任务和预先获取的训练数据得到训练模型;
根据预先获取的服务流程将训练模型发布为模型服务。
综上,本发明实施例的计算机设备先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
本发明实施例还提供能够实现上述实施例中的机器学习训练方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的机器学习训练方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
根据预先获取的配置文件生成训练任务;
根据训练任务和预先获取的训练数据得到训练模型;
根据预先获取的服务流程将训练模型发布为模型服务。
综上,本发明实施例的计算机可读存储介质先根据预先获取的配置文件生成训练任务,再根据训练任务和预先获取的训练数据得到训练模型,然后根据预先获取的服务流程将训练模型发布为模型服务,以自动训练模型,支持模型发布,简化模型训练流程,降低模型训练成本。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本领域技术人员还可以了解到本发明实施例列出的各种说明性逻辑块(illustrative logical block),单元,和步骤可以通过电子硬件、电脑软件,或两者的结合进行实现。为清楚展示硬件和软件的可替换性(interchangeability),上述的各种说明性部件(illustrative components),单元和步骤已经通用地描述了它们的功能。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本发明实施例保护的范围。
本发明实施例中所描述的各种说明性的逻辑块,或单元,或装置都可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本发明实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件模块、或者这两者的结合。软件模块可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于用户终端中。可选地,处理器和存储媒介也可以设置于用户终端中的不同的部件中。
在一个或多个示例性的设计中,本发明实施例所描述的上述功能可以在硬件、软件、固件或这三者的任意组合来实现。如果在软件中实现,这些功能可以存储与电脑可读的媒介上,或以一个或多个指令或代码形式传输于电脑可读的媒介上。电脑可读媒介包括电脑存储媒介和便于使得让电脑程序从一个地方转移到其它地方的通信媒介。存储媒介可以是任何通用或特殊电脑可以接入访问的可用媒体。例如,这样的电脑可读媒体可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁性存储装置,或其它任何可以用于承载或存储以指令或数据结构和其它可被通用或特殊电脑、或通用或特殊处理器读取形式的程序代码的媒介。此外,任何连接都可以被适当地定义为电脑可读媒介,例如,如果软件是从一个网站站点、服务器或其它远程资源通过一个同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或以例如红外、无线和微波等无线方式传输的也被包含在所定义的电脑可读媒介中。所述的碟片(disk)和磁盘(disc)包括压缩磁盘、镭射盘、光盘、DVD、软盘和蓝光光盘,磁盘通常以磁性复制数据,而碟片通常以激光进行光学复制数据。上述的组合也可以包含在电脑可读媒介中。

Claims (4)

1.一种机器学习训练方法,其特征在于,包括:
根据预先获取的配置文件生成训练任务;
根据所述训练任务和预先获取的训练数据得到训练模型;
根据预先获取的服务流程将所述训练模型发布为模型服务;
生成训练任务包括:
根据预先获取的配置文件生成流程处理逻辑文件;
根据所述流程处理逻辑文件生成训练任务;
根据预先获取的配置文件生成流程处理逻辑文件包括:
解析配置文件中的查询语言,根据查询语言生成流程处理逻辑文件;其中,所述流程处理逻辑文件为DAG流程处理逻辑文件;
根据预先获取的配置文件生成训练任务之前,还包括:与客户端的sdk接口或web页面建立连接,接收来自客户端的用户身份信息,并对用户身份信息进行授权认证;当授权认证成功时,从客户端获取该用户身份信息ID上传的配置文件、训练数据和服务流程;
其中,训练模型为根据训练数据总结出的数据结构,用于对新数据做预测以判定目标分类或取值;所述训练数据包括结构化数据和非结构化数据,或原始数据和标注数据;
得到训练模型之前还包括:
确定所述配置文件对应的用户身份的训练资源;
当当前空闲训练资源和所述用户身份的训练资源均大于所述训练任务对应的训练资源时,根据所述训练任务和预先获取的训练数据得到训练模型;
当用户身份的训练资源大于训练任务对应的训练资源且当前空闲训练资源小于或等于训练任务对应的训练资源时,将训练任务放入等待队列,等当前空闲训练资源充足时再重新提交训练任务,得到训练模型;当训练资源充足时,同时执行多个训练任务得到多个训练模型。
2.一种机器学习训练系统,其特征在于,包括:
训练任务单元,用于根据预先获取的配置文件生成训练任务;
训练模型单元,用于根据所述训练任务和预先获取的训练数据得到训练模型;
模型服务单元,用于根据预先获取的服务流程将所述训练模型发布为模型服务;
所述训练任务单元具体用于:
解析配置文件中的查询语言,根据查询语言生成流程处理逻辑文件;其中,所述流程处理逻辑文件为DAG流程处理逻辑文件;
根据所述流程处理逻辑文件生成训练任务;
所述机器学习训练系统还包括:
与客户端的sdk接口或web页面建立连接,接收来自客户端的用户身份信息,并对用户身份信息进行授权认证;当授权认证成功时,从客户端获取该用户身份信息ID上传的配置文件、训练数据和服务流程;
其中,训练模型为根据训练数据总结出的数据结构,用于对新数据做预测以判定目标分类或取值;所述训练数据包括结构化数据和非结构化数据,或原始数据和标注数据;
所述机器学习训练系统还包括:
训练资源单元,用于确定所述配置文件对应的用户身份的训练资源;
所述训练模型单元具体用于:当当前空闲训练资源和所述用户身份的训练资源均大于所述训练任务对应的训练资源时,根据所述训练任务和预先获取的训练数据得到训练模型;
当用户身份的训练资源大于训练任务对应的训练资源且当前空闲训练资源小于或等于训练任务对应的训练资源时,将训练任务放入等待队列,等当前空闲训练资源充足时再重新提交训练任务,得到训练模型;当训练资源充足时,同时执行多个训练任务得到多个训练模型。
3.一种计算机设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1所述的机器学习训练方法的步骤。
4.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1所述的机器学习训练方法的步骤。
CN202010195837.1A 2020-03-19 2020-03-19 机器学习训练方法及系统 Active CN111401566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010195837.1A CN111401566B (zh) 2020-03-19 2020-03-19 机器学习训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010195837.1A CN111401566B (zh) 2020-03-19 2020-03-19 机器学习训练方法及系统

Publications (2)

Publication Number Publication Date
CN111401566A CN111401566A (zh) 2020-07-10
CN111401566B true CN111401566B (zh) 2024-05-03

Family

ID=71428964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010195837.1A Active CN111401566B (zh) 2020-03-19 2020-03-19 机器学习训练方法及系统

Country Status (1)

Country Link
CN (1) CN111401566B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112685457A (zh) * 2020-12-31 2021-04-20 北京思特奇信息技术股份有限公司 一种套餐推荐机器学习模型的自动化训练系统及方法
CN114968412B (zh) * 2022-06-20 2024-02-02 中国平安财产保险股份有限公司 基于人工智能的配置文件生成方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018091A (zh) * 2016-02-29 2017-08-04 阿里巴巴集团控股有限公司 资源请求的调度方法和装置
CN109508238A (zh) * 2019-01-05 2019-03-22 咪付(广西)网络技术有限公司 一种用于深度学习的资源管理系统及方法
CN109828831A (zh) * 2019-02-12 2019-05-31 成都考拉悠然科技有限公司 一种人工智能云平台
CN109858817A (zh) * 2019-02-03 2019-06-07 北京奇艺世纪科技有限公司 一种工作流管理系统及方法
CN110413391A (zh) * 2019-07-24 2019-11-05 上海交通大学 基于容器集群的深度学习任务服务质量保证方法和系统
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003992B2 (en) * 2017-10-16 2021-05-11 Facebook, Inc. Distributed training and prediction using elastic resources

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018091A (zh) * 2016-02-29 2017-08-04 阿里巴巴集团控股有限公司 资源请求的调度方法和装置
CN109508238A (zh) * 2019-01-05 2019-03-22 咪付(广西)网络技术有限公司 一种用于深度学习的资源管理系统及方法
CN109858817A (zh) * 2019-02-03 2019-06-07 北京奇艺世纪科技有限公司 一种工作流管理系统及方法
CN109828831A (zh) * 2019-02-12 2019-05-31 成都考拉悠然科技有限公司 一种人工智能云平台
CN110413391A (zh) * 2019-07-24 2019-11-05 上海交通大学 基于容器集群的深度学习任务服务质量保证方法和系统
CN110688218A (zh) * 2019-09-05 2020-01-14 广东浪潮大数据研究有限公司 资源调度方法及装置

Also Published As

Publication number Publication date
CN111401566A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
US11682382B2 (en) Voice-activated selective memory for voice-capturing devices
CN109691036B (zh) 具有基于实体的通信的互联网云托管的自然语言交互式消息传送系统
US10642468B2 (en) Accessibility lock and accessibility pause
CN111401566B (zh) 机器学习训练方法及系统
CN106649164B (zh) 一种硬件接口管理方法
CN110113381A (zh) 一种区块链中订阅主题的方法及装置
US11082514B2 (en) Push notification management
US10893091B2 (en) Management of asynchronous content post and media file transmissions
US11095957B2 (en) Method and apparatus for publishing information, and method and apparatus for processing information
US20130007767A1 (en) Automated generation of service definitions for message queue application clients
CN113672748A (zh) 多媒体信息播放方法及装置
CN106445479B (zh) 信息推送方法及装置
CN116466930A (zh) 智能客服模型的构建方法、消息处理法、装置及电子设备
CN108073638B (zh) 数据诊断方法及装置
JP2022091933A (ja) 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
CN112306560B (zh) 用于唤醒电子设备的方法和装置
CN113241056A (zh) 语音合成模型的训练与语音合成方法、装置、系统及介质
US11736336B2 (en) Real-time monitoring of machine learning models in service orchestration plane
CN111460274B (zh) 信息处理方法和装置
CN107547579B (zh) 用于控制web系统的响应数据流的方法、装置和计算机可读存储介质
CN115914343A (zh) 基于paas平台统一管理自动化适配方法、装置、介质及设备
CN117539992A (zh) 一种人机对话的输出控制方法、终端及人机对话系统
CN115858960A (zh) 一种资源访问方法、装置、电子设备和计算机存储介质
CN113535313A (zh) 一种弹窗的显示方法及装置
CN117556299A (zh) 一种数据标注方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220914

Address after: 25 Financial Street, Xicheng District, Beijing 100033

Applicant after: CHINA CONSTRUCTION BANK Corp.

Address before: 25 Financial Street, Xicheng District, Beijing 100033

Applicant before: CHINA CONSTRUCTION BANK Corp.

Applicant before: Jianxin Financial Science and Technology Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant