CN109284828A - 一种超参数调优方法、装置及设备 - Google Patents

一种超参数调优方法、装置及设备 Download PDF

Info

Publication number
CN109284828A
CN109284828A CN201811038917.5A CN201811038917A CN109284828A CN 109284828 A CN109284828 A CN 109284828A CN 201811038917 A CN201811038917 A CN 201811038917A CN 109284828 A CN109284828 A CN 109284828A
Authority
CN
China
Prior art keywords
hyper parameter
determined
parameter
candidate value
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811038917.5A
Other languages
English (en)
Inventor
沈文策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201811038917.5A priority Critical patent/CN109284828A/zh
Publication of CN109284828A publication Critical patent/CN109284828A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Stored Programmes (AREA)

Abstract

本发明实施例提供了一种超参数调优方法、装置及设备。其中,该方法包括:确定待确定超参数;获取预先保存的超参数候选值组合,超参数候选值组合中包括待确定超参数的多个候选值;遍历超参数候选值组合中待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数;运行包括建立模型函数的训练模型,得到训练后模型;确定训练后模型对应的模型评分;选择所有模型评分中的最大值,其中,所有模型评分包括各个候选值分别对应的模型评分;确定最大值为待确定超参数的值。通过本发明实施例提供的超参数调优方法、装置及设备,能够实现超参数的自动调优,降低超参数调优过程的复杂度。

Description

一种超参数调优方法、装置及设备
技术领域
本发明涉及机器学习技术领域,特别是涉及一种超参数调优方法、装置及设备。
背景技术
超参数,用于定义关于模型的更高层次的概念,如复杂性或学习能力等。也可以理解为,超参数就是机器学习模型里面的框架参数,比如聚类方法里面类的个数,或者话题模型里面话题的个数等等。
在机器学习过程中,超参数是在开始学习过程之前设置的参数。不能直接从标准模型训练过程中的数据中学习,需要预先定义。
目前技术中通常是通过手动设定,实现超参数的调优。而手动调优过程一般情况下比较复杂。
发明内容
本发明实施例的目的在于提供一种超参数调优方法、装置及设备,以降低超参数调优过程的复杂度。具体技术方案如下:
第一方面,本发明实施例提供了一种超参数调优方法,包括:
确定待确定超参数;
获取预先保存的超参数候选值组合,所述超参数候选值组合中包括所述待确定超参数的多个候选值;
遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,所述函数参数为所述待确定超参数;
运行包括所述建立模型函数的训练模型,得到训练后模型;
确定所述训练后模型对应的模型评分;
选择所有模型评分中的最大值,其中,所述所有模型评分包括各个候选值分别对应的模型评分;
确定所述最大值为所述待确定超参数的值。
可选的,在所述获取预先保存的超参数候选值组合之前,所述方法还包括:
确定所述待确定超参数的候选值;
将所述待确定超参数的标识与所述待确定超参数的候选值对应保存至列表;
基于所述列表,得到所述超参数候选值组合。
可选的,在所述运行包括所述建立模型函数的训练模型,得到训练后模型之后,所述方法还包括:
保存所述训练后模型。
可选的,在所述遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数之前,所述方法还包括:
建立所述函数参数为所述待确定超参数的所述建立模型函数。
可选的,所述训练模型包括基于深度学习框架keras的模型。
第二方面,本发明实施例提供了一种超参数调优装置,包括:
第一确定模块,用于确定待确定超参数;
获取模块,用于获取预先保存的超参数候选值组合,所述超参数候选值组合中包括所述待确定超参数的多个候选值;
赋值模块,用于遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,所述函数参数为所述待确定超参数;
运行模块,用于运行包括所述建立模型函数的训练模型,得到训练后模型;
第二确定模块,用于确定所述训练后模型对应的模型评分;
选择模块,用于选择所有模型评分中的最大值,其中,所述所有模型评分包括各个候选值分别对应的模型评分;
第三确定模块,用于确定所述最大值为所述待确定超参数的值。
可选的,所述装置还包括:
第四确定模块,用于确定所述待确定超参数的候选值;
第一保存模块,用于将所述待确定超参数的标识与所述待确定超参数的候选值对应保存至列表;
第五确定模块,用于基于所述列表,得到所述超参数候选值组合。
可选的,所述装置还包括:
第二保存模块,用于保存所述训练后模型。
可选的,所述装置还包括:
建立模块,用于建立所述函数参数为所述待确定超参数的所述建立模型函数。
第三方面,本发明实施例提供了一种超参数调优设备,包括处理器、通信接口、存储器和通信总线,其中,所述处理器,所述通信接口,所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现第一方面所述的方法步骤。
本发明实施例提供的超参数调优方法、装置及设备,可以确定待确定超参数;获取预先保存的超参数候选值组合,超参数候选值组合中包括待确定超参数的多个候选值;遍历超参数候选值组合中待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数;运行包括建立模型函数的训练模型,得到训练后模型;确定训练后模型对应的模型评分;选择所有模型评分中的最大值,其中,所有模型评分包括各个候选值分别对应的模型评分;确定最大值为待确定超参数的值。如此,能够实现超参数的自动调优,降低超参数调优过程的复杂度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的超参数调优方法的流程图;
图2为本发明实施例提供的超参数调优装置的结构示意图;
图3为本发明实施例提供的超参数调优设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种超参数调优方法,如图1所示,包括:
S101,确定待确定超参数。
本发明实施例提供的超参数调优方法可以应用于电子设备。具体地,电子设备可以为智能手机、平板电脑、笔记本电脑或台式电脑等。
具体地,电子设备可以通过专门的调优程序来实现超参数调优方法的过程。
在机器学习过程中,在开始学习过程之前首先确定需要确定的超参数,即待确定超参数。如复杂性或学习能力等;机器学习模型里面的框架参数,比如聚类方法里面类的个数,或者话题模型里面话题的个数等等。
S102,获取预先保存的超参数候选值组合。
超参数候选值组合中包括待确定超参数的多个候选值。
本发明实施例中在获取预先保存的超参数候选值组合之前,还可以包括如下步骤:
A1,确定待确定超参数的候选值。
待确定超参数的候选值包括待确定超参数可能会取的值,可以根据实际需求或者经验等确定。
A2,将待确定超参数的标识与待确定超参数的候选值对应保存至列表。
一种可选的实施例中,包括多个待确定超参数。将各个待确定超参数的标识以及该待确定超参数的候选值对应保存至列表。
A3,基于列表,得到超参数候选值组合。
把需要调优的超参数,即待确定超参数设置为列表,列表中的值为调优时超参数的候选值,如batch_size=[10,20,40,60,80,100]。
循环遍历需要调优的队列,形成一个调优超参数的组合,根据调优参数组合,生成一个目录名,并建立目录。
如此,在进行超参数调优过程中可以获取预先保存的超参数候选值组合。
S103,遍历超参数候选值组合中待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数。
在遍历超参数候选值组合中待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数之前,方法还包括:
建立函数参数为待确定超参数的建立模型函数。
在训练模型的程序中,将建立模型的代码通过函数编程,需要调试的超参数,即待确定超参数设置为函数参数,并设置参数默认值。
S104,运行包括建立模型函数的训练模型,得到训练后模型。
运行不同的训练模型,不同的训练模型中包括函数参数为不同候选值的建立模型函数,如此得到对应的训练后模型。
其中,训练模型包括基于深度学习框架keras的模型。
Keras是一个高层神经网络应用程序编程接口(Application ProgrammingInterface,API),Keras由纯面向对象的解释型计算机程序设计语言Python编写而成,并基于开源数据库Tensorflow、Theano以及计算网络工具包(Microsoft Cognitive Toolkit,CNTK)后端。其中,Tensorflow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库;CNTK是一个非常强大的命令行系统,可以创建神经网络预测系统。
简单理解,本发明实施例提供的超参数调优方法是基于Python的keras的方法。
电子设备通过调优程序调用建立模型函数,把超参数候选值组合中的待确定调优参数的候选值赋值给建立模型函数,并运行训练模型,训练好的模型保存在新建的目录中。
在运行包括建立模型函数的训练模型,得到训练后模型之后,还可以包括:保存训练后模型。
S105,确定训练后模型对应的模型评分。
可以通过Keras提供生成模型,即训练后模型的模型评分,并保存该模型评分。具体地,将该模型评分与其对应的训练后模型对应保存。
不同的候选值对应的训练后模型、分别对应一个模型评分。具体地,模型评分可以根据模型的性能等确定。
S106,选择所有模型评分中的最大值。
其中,所有模型评分包括各个候选值分别对应的模型评分。
S107,确定最大值为待确定超参数的值。
电子设备通过调优程序执行所有的调优超参数组合并把训练后模型保存,并根据模型评分推荐评分最高模型组合。
如此,确定模型评分值最大值为最终确定的待确定超参数的值。
本发明实施例中,遍历预先保存的超参数候选值组合中待确定超参数的各个候选值,并将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数,运行包括建立模型函数的训练模型,得到训练后模型,并确定训练后模型对应的模型评分;选择所有模型评分中的最大值,确定最大值为待确定超参数的值。如此可以自动执行预设的超参数值,即超参数的候选值,而不需要人工手动执行,能够实现超参数的自动调优,降低超参数调优过程的复杂度。同时,分别对不同超参数候选值对应的训练模型进行训练,推荐模型评分最高的模型对应的候选值为最终确定的超参数的值,能够提高超参数确定的准确度,进一步能够保证机器学习过程中模型的性能。
本发明实施例提供了一种超参数调优装置,如图2所示,包括:
第一确定模块201,用于确定待确定超参数;
获取模块202,用于获取预先保存的超参数候选值组合,超参数候选值组合中包括待确定超参数的多个候选值;
赋值模块203,用于遍历超参数候选值组合中待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数;
运行模块204,用于运行包括建立模型函数的训练模型,得到训练后模型;
第二确定模块205,用于确定训练后模型对应的模型评分;
选择模块206,用于选择所有模型评分中的最大值,其中,所有模型评分包括各个候选值分别对应的模型评分;
第三确定模块207,用于确定最大值为待确定超参数的值。
本发明实施例中,遍历预先保存的超参数候选值组合中待确定超参数的各个候选值,并将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数,运行包括建立模型函数的训练模型,得到训练后模型,并确定训练后模型对应的模型评分;选择所有模型评分中的最大值,确定最大值为待确定超参数的值。如此可以自动执行预设的超参数值,即超参数的候选值,而不需要人工手动执行,能够实现超参数的自动调优,降低超参数调优过程的复杂度。同时,分别对不同超参数候选值对应的训练模型进行训练,推荐模型评分最高的模型对应的候选值为最终确定的超参数的值,能够提高超参数确定的准确度,进一步能够保证机器学习过程中模型的性能。
可选的,该装置还包括:
第四确定模块,用于确定待确定超参数的候选值;
第一保存模块,用于将待确定超参数的标识与待确定超参数的候选值对应保存至列表;
第五确定模块,用于基于列表,得到超参数候选值组合。
可选的,该装置还包括:
第二保存模块,用于保存训练后模型。
可选的,该装置还包括:
建立模块,用于建立函数参数为待确定超参数的建立模型函数。
可选的,训练模型包括基于深度学习框架keras的模型。
需要说明的是,本发明实施例提供的超参数调优装置是应用上述超参数调优方法的装置,则上述超参数调优方法的所有实施例均适用于该装置,且均能达到相同或相似的有益效果。
本发明实施例还提供了一种超参数调优设备,如图3所示,包括处理器301、通信接口302、存储器303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信。
存储器303,用于存放计算机程序;
处理器301,用于执行存储器303上所存放的程序时,实现上述超参数调优方法的方法步骤。
本发明实施例中,遍历预先保存的超参数候选值组合中待确定超参数的各个候选值,并将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数,运行包括建立模型函数的训练模型,得到训练后模型,并确定训练后模型对应的模型评分;选择所有模型评分中的最大值,确定最大值为待确定超参数的值。如此可以自动执行预设的超参数值,即超参数的候选值,而不需要人工手动执行,能够实现超参数的自动调优,降低超参数调优过程的复杂度。同时,分别对不同超参数候选值对应的训练模型进行训练,推荐模型评分最高的模型对应的候选值为最终确定的超参数的值,能够提高超参数确定的准确度,进一步能够保证机器学习过程中模型的性能。
上述超参数调优设备提到的通信总线可以是外设部件互连标准(PeripheralComponent Interconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述超参数调优设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述一种超参数调优方法的方法步骤。
本发明实施例中,遍历预先保存的超参数候选值组合中待确定超参数的各个候选值,并将该候选值赋值给建立模型函数中的函数参数,函数参数为待确定超参数,运行包括建立模型函数的训练模型,得到训练后模型,并确定训练后模型对应的模型评分;选择所有模型评分中的最大值,确定最大值为待确定超参数的值。如此可以自动执行预设的超参数值,即超参数的候选值,而不需要人工手动执行,能够实现超参数的自动调优,降低超参数调优过程的复杂度。同时,分别对不同超参数候选值对应的训练模型进行训练,推荐模型评分最高的模型对应的候选值为最终确定的超参数的值,能够提高超参数确定的准确度,进一步能够保证机器学习过程中模型的性能。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备及计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种超参数调优方法,其特征在于,包括:
确定待确定超参数;
获取预先保存的超参数候选值组合,所述超参数候选值组合中包括所述待确定超参数的多个候选值;
遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,所述函数参数为所述待确定超参数;
运行包括所述建立模型函数的训练模型,得到训练后模型;
确定所述训练后模型对应的模型评分;
选择所有模型评分中的最大值,其中,所述所有模型评分包括各个候选值分别对应的模型评分;
确定所述最大值为所述待确定超参数的值。
2.根据权利要求1所述的方法,其特征在于,在所述获取预先保存的超参数候选值组合之前,所述方法还包括:
确定所述待确定超参数的候选值;
将所述待确定超参数的标识与所述待确定超参数的候选值对应保存至列表;
基于所述列表,得到所述超参数候选值组合。
3.根据权利要求1所述的方法,其特征在于,在所述运行包括所述建立模型函数的训练模型,得到训练后模型之后,所述方法还包括:
保存所述训练后模型。
4.根据权利要求1所述的方法,其特征在于,在所述遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数之前,所述方法还包括:
建立所述函数参数为所述待确定超参数的所述建立模型函数。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述训练模型包括基于深度学习框架keras的模型。
6.一种超参数调优装置,其特征在于,包括:
第一确定模块,用于确定待确定超参数;
获取模块,用于获取预先保存的超参数候选值组合,所述超参数候选值组合中包括所述待确定超参数的多个候选值;
赋值模块,用于遍历所述超参数候选值组合中所述待确定超参数的各个候选值,将该候选值赋值给建立模型函数中的函数参数,所述函数参数为所述待确定超参数;
运行模块,用于运行包括所述建立模型函数的训练模型,得到训练后模型;
第二确定模块,用于确定所述训练后模型对应的模型评分;
选择模块,用于选择所有模型评分中的最大值,其中,所述所有模型评分包括各个候选值分别对应的模型评分;
第三确定模块,用于确定所述最大值为所述待确定超参数的值。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第四确定模块,用于确定所述待确定超参数的候选值;
第一保存模块,用于将所述待确定超参数的标识与所述待确定超参数的候选值对应保存至列表;
第五确定模块,用于基于所述列表,得到所述超参数候选值组合。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二保存模块,用于保存所述训练后模型。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
建立模块,用于建立所述函数参数为所述待确定超参数的所述建立模型函数。
10.一种超参数调优设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,所述处理器,所述通信接口,所述存储器通过所述通信总线完成相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
CN201811038917.5A 2018-09-06 2018-09-06 一种超参数调优方法、装置及设备 Pending CN109284828A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811038917.5A CN109284828A (zh) 2018-09-06 2018-09-06 一种超参数调优方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811038917.5A CN109284828A (zh) 2018-09-06 2018-09-06 一种超参数调优方法、装置及设备

Publications (1)

Publication Number Publication Date
CN109284828A true CN109284828A (zh) 2019-01-29

Family

ID=65184169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811038917.5A Pending CN109284828A (zh) 2018-09-06 2018-09-06 一种超参数调优方法、装置及设备

Country Status (1)

Country Link
CN (1) CN109284828A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751269A (zh) * 2019-10-18 2020-02-04 网易(杭州)网络有限公司 图神经网络训练方法、客户端设备及系统
CN110956272A (zh) * 2019-11-01 2020-04-03 第四范式(北京)技术有限公司 实现数据处理的方法和系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844837A (zh) * 2017-10-31 2018-03-27 第四范式(北京)技术有限公司 针对机器学习算法进行算法参数调优的方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107844837A (zh) * 2017-10-31 2018-03-27 第四范式(北京)技术有限公司 针对机器学习算法进行算法参数调优的方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751269A (zh) * 2019-10-18 2020-02-04 网易(杭州)网络有限公司 图神经网络训练方法、客户端设备及系统
CN110751269B (zh) * 2019-10-18 2022-08-05 网易(杭州)网络有限公司 图神经网络训练方法、客户端设备及系统
CN110956272A (zh) * 2019-11-01 2020-04-03 第四范式(北京)技术有限公司 实现数据处理的方法和系统
CN110956272B (zh) * 2019-11-01 2023-08-08 第四范式(北京)技术有限公司 实现数据处理的方法和系统

Similar Documents

Publication Publication Date Title
CN109065054A (zh) 语音识别纠错方法、装置、电子设备及可读存储介质
CN108090169A (zh) 问句扩展方法及装置、存储介质、终端
CN109726098A (zh) 接口测试方法、装置及计算机可读存储介质
CN108091333A (zh) 语音控制方法及相关产品
CN107463380B (zh) 消息处理方法、装置及电子设备
CN110245475A (zh) 身份验证方法和装置
CN110046088A (zh) 一种接口测试方法、装置及设备
CN110515871A (zh) 一种中断方法、装置及fpga和存储介质
CN109614095A (zh) 用户自定义组件的方法、平台代码的生成方法及装置
CN104461621B (zh) 一种更新属性信息的方法及装置
CN109284828A (zh) 一种超参数调优方法、装置及设备
CN109346079A (zh) 基于声纹识别的语音交互方法及装置
CN106777036A (zh) 一种数据渲染方法及数据渲染系统
CN110019305A (zh) 知识库扩展方法及存储介质、终端
CN106909454A (zh) 一种规则处理方法和设备
CN114091589A (zh) 模型训练方法、装置、电子设备及介质
CN113360300A (zh) 接口调用链路生成方法、装置、设备及可读存储介质
CN107391363A (zh) 一种测试资源的调度方法、装置及电子设备
CN106599637A (zh) 一种在验证界面输入验证码的方法和装置
CN106911634A (zh) 一种登录方法和设备
CN110233830A (zh) 域名识别和域名识别模型生成方法、装置及存储介质
CN110442353A (zh) 一种安装包管理的方法、装置及电子设备
CN105302336A (zh) 一种输入纠错方法和装置
CN106254575B (zh) 一种确定用户标识的方法和装置
CN115495188A (zh) 混合开发app的主题颜色切换方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190129