CN111539225B - 语义理解框架结构的搜索方法和装置 - Google Patents
语义理解框架结构的搜索方法和装置 Download PDFInfo
- Publication number
- CN111539225B CN111539225B CN202010592650.5A CN202010592650A CN111539225B CN 111539225 B CN111539225 B CN 111539225B CN 202010592650 A CN202010592650 A CN 202010592650A CN 111539225 B CN111539225 B CN 111539225B
- Authority
- CN
- China
- Prior art keywords
- semantic understanding
- sampling
- framework structure
- search space
- understanding framework
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000005070 sampling Methods 0.000 claims abstract description 87
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 108700019146 Transgenes Proteins 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种语义理解框架结构的搜索方法和装置,涉及人工智能、深度学习、云计算、自然语言处理、智能搜索等领域。具体实现方案为:利用编码生成器在搜索空间中采样语义理解框架结构;其中,搜索空间包括至少两个语义理解框架结构;对采样得到的语义理解框架结构进行训练,得到语义理解框架结构的性能信息;根据性能信息更新编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;将第N次采样得到的语义理解框架结构确定为目标结构。实施本申请实施例,可以自动搜索性能最优的语义理解框架结构。
Description
技术领域
本申请涉及数据处理领域,尤其涉及人工智能、深度学习、云计算、自然语言处理、智能搜索等领域。
背景技术
语义理解框架是一种较为通用的语义理解模型。语义理解框架在预训练阶段中利用大量的语料和语义任务,获得多个维度的自然语言信息。当用于具体的语义理解任务时,语义理解框架会被加上不同的输出层,以解决实际任务。语义理解框架一般部署在服务器上,使用较大型的模型结构承载海量的语义知识,提高语义表示能力。
发明内容
本申请提供了一种语义理解框架结构的搜索方法、装置、电子设备和存储介质。
根据本申请的一方面,提供了一种语义理解框架结构的搜索方法,包括:
利用编码生成器在搜索空间中采样语义理解框架结构;其中,搜索空间包括至少两个语义理解框架结构;
对采样得到的语义理解框架结构进行训练,得到语义理解框架结构的性能信息;
根据性能信息更新编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
将第N次采样得到的语义理解框架结构确定为目标结构。
根据本申请的另一方面,提供了一种语义理解框架结构的搜索装置,包括:
采样模块,用于利用编码生成器在搜索空间中采样语义理解框架结构;其中,搜索空间包括至少两个语义理解框架结构;
训练模块,用于对采样得到的语义理解框架结构进行训练,得到语义理解框架结构的性能信息;
更新模块,用于根据性能信息更新编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
确定模块,用于将第N次采样得到的语义理解框架结构确定为目标结构。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任一实施例提供的方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行本申请任一实施例提供的方法。
根据本申请的技术方案,利用编码生成器在搜索空间中采样得到的语义理解框架结构的性能信息,更新编码生成器,使得编码生成器每一次采样的结果都是对上一次采样的结果的优化,从而自动搜索出性能最优的语义理解框架结构。实施本申请的技术方案,可以优化语义理解框架结构,使得语义理解框架可应用于更广泛的设备场景。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请示例性实施例提供的语义理解框架结构的搜索方法的示意图;
图2是本申请示例性实施例提供的语义理解框架结构的搜索方法的示意图;
图3是本申请示例性实施例提供的语义理解框架结构的搜索方法的示意图;
图4是本申请示例性实施例提供的语义理解框架结构的搜索装置的示意图;
图5是本申请示例性实施例提供的语义理解框架结构的搜索装置的示意图;
图6是用来实现本申请实施例的语义理解框架结构的搜索方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了本申请一示例性实施例提供的语义理解框架结构的搜索方法的示意图。如图1所示,该方法包括:
步骤S11,利用编码生成器在搜索空间中采样语义理解框架结构;其中,搜索空间包括至少两个语义理解框架结构;
步骤S12,对采样得到的语义理解框架结构进行训练,得到语义理解框架结构的性能信息;
步骤S13,根据性能信息更新编码生成器;返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤S11,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
步骤S14,将第N次采样得到的语义理解框架结构确定为目标结构。
根据该示例性实施例,利用编码生成器在搜索空间中采样得到的语义理解框架结构的性能信息,更新编码生成器,使得编码生成器每一次采样的结果都是对上一次采样的结果的优化,从而自动搜索出性能最优的语义理解框架结构。因此,实施该方法,可以优化语义理解框架结构,使得语义理解框架可应用于更广泛的设备场景。举例而言,可以针对终端设备对模型大小的限制性需求,配置编码生成器或搜索空间,搜索出能够在终端设备上运行的性能较优的语义理解框架,使得终端设备也能够具备较强的语义理解能力。
示例性地,编码生成器可基于采样规则在搜索空间中采样语义理解框架结构,其中,采样规则可以包括采样范围、采样算法、约束条件等。例如,先根据一些先验信息初始化采样规则;再利用编码生成器根据采样规则进行采样;根据采样得到的语义理解框架结构的性能信息,通过更新采样规则的方式更新编码生成器;编码生成器基于更优化的采样规则进行采样,直至采样次数达到预设阈值。其中,更新采样规则的方式可以是缩小采样范围、调整采样算法、增加约束条件等
实际应用时,在步骤S12中,可以先通过对采样得到的语义理解框架结构进行训练,得到收敛的语义理解框架。然后,对该语义理解框架进行评估,得到语义理解框架结构的性能信息。在步骤S13中,可以将性能信息作为奖励反馈值(reward),根据reward更新编码生成器。
在一种示例性的实施方式中,可以基于预先筛选的语义理解框架结构得到搜索空间。例如,先筛选出多个符合终端设备的部署要求的语义理解框架结构,利用这些语义理解框架结构得到搜索空间,再自动搜索得到能够在终端设备上部署的最优的语义理解框架结构。
在一种示例性的实施方式中,可以通过遍历框架结构参数得到搜索空间。参见图2,在首次执行步骤S11,利用编码生成器在搜索空间中采样语义理解框架结构之前,语义理解框架结构的搜索方法还可以包括:
步骤S21,遍历框架结构参数,以得到至少两个采用框架结构参数表征的语义理解框架结构;
步骤S22,基于至少两个语义理解框架结构,得到搜索空间。
其中,框架结构参数包括能够确定出语义理解框架的具体结构的各种参数。例如,ERNIE(Enhanced Representation Knowledge Integration,知识增强语义表示)模型一般由多个Transformer模型堆叠组成,则框架结构参数可包括Transformer模型的堆叠个数。
举例而言,如果框架结构参数包括Transformer模型的堆叠个数和Transformer模型中隐层单元的个数,且Transformer模型的堆叠个数的遍历范围是1至12,Transformer模型中隐层单元的个数的遍历范围是1至1024,则在1至12之间逐个遍历得到Transformer模型的堆叠个数,针对每次的遍历结果中的每个Transformer模型,在1至1024间逐个遍历得到隐层单元的个数,最终得到遍历范围内的全部语义理解框架结构。
作为示例,遍历范围可基于一定的精度配置。例如,设定Transformer模型的堆叠个数的精度为2,则将遍历范围配置为集合{2,4,6,8,10,12}或{1,3,5,7,9,11}。又如,设定Transformer模型的堆叠个数的精度为4,则将遍历范围配置为{1,5,9}。通过设定遍历范围的精度,可以控制编码生成器的采样效率和目标结构的精度。
根据该示例性的实施方式,搜索空间可以包括遍历范围内的全部语义理解框架结构,使得确定出来的目标结构为遍历范围内的全局最优。
示例性地,框架结构参数可以包括以下参数中的一种或多种:
(1)Transformer模型的堆叠个数;
针对终端设备例如移动终端,Transformer模型的堆叠个数可以在1至12之间;针对服务器,在对延时不敏感的场景下,堆叠个数可以超过12,例如在1至24之间。
(2)Transformer模型中隐层单元的个数;
针对终端设备,Transformer模型中隐层单元的个数可以在1至1024之间;针对服务器,在对延时不敏感的场景下,隐层单元的个数可以超过1024,例如在1至2048之间。
(3)堆叠的各Transformer之间的残差参数;
残差参数用于表示一个Transformer模型能够与相邻多远的另一个Transformer模型进行残差,例如,第L个Transformer模型可以与任意的(L+n)个Transformer模型进行残差,则n为残差参数。其中,(L+n)小于或等于最大的Transformer模型堆叠个数。
根据该示例性的实施方式,框架结构参数可包括多种参数,因此,可以根据终端设备的需求,灵活地设置搜索空间,有利于搜索到满足终端设备需求的最优的语义理解框架结构。
在一种示例性的实施方式中,参见图3,在首次执行步骤S11,利用编码生成器在搜索空间中采样语义理解框架结构之前,语义理解框架结构的搜索方法还可以包括:
步骤S31,根据搜索空间,初始化编码生成器,以使编码生成器能够生成与搜索空间中的语义理解框架结构对应的采样编码。
根据该示例性的实施方式,编码生成器是根据搜索空间初始化的,因此,编码生成器基于搜索空间的全范围进行采样,有利于得到全局最优的目标结构。
在一种示例性的实施方式中,在步骤S11中,利用编码生成器在搜索空间中采样语义理解框架结构,包括:
利用编码生成器,生成采样编码;
对采样编码进行解码,得到采样编码对应的语义理解框架结构。
根据该示例性的实施方式,编码生成器通过生成采样编码和对采样编码进行解码,得到采样的语义理解框架结构。通过对语义理解框架结构进行编码,可以优化编码生成器的数据处理量,提高编码生成器的采样效率。
示例性地,搜索空间中的语义理解框架结构为知识增强语义表示ERNIE模型的结构。
ERNIE模型是基于持续学习的语义理解框架。利用ERNIE模型,新构建的预训练任务类型可以无缝的加入框架,持续的进行语义理解学习。通过新增的实体预测、句子因果关系判断、文章句子结构重建等语义任务,使ERNIE模型获得词法、句法、语义等多个维度的自然语言信息,极大地增强了通用语义表示能力。
根据该示例性实施方式,可以针对各种设备的需求,搜索出最优的ERNIE模型,使得ERNIE模型可应用于更广泛的设备场景。对模型大小有限制性需求的终端设备也可以运行ERNIE模型,增强终端设备的通用语义表示能力。
在一种示例性的实施方式中,语义理解框架结构的搜索方法还可以包括:
获取待识别文本;
根据目标结构,得到待识别文本的识别结果。
具体实施时,可以通过训练目标结构,得到收敛的语义理解框架,然后,根据该语义理解框架得到待识别文本的识别结果。
其中,待识别文本的识别结果,可以是与待识别文本对应的结构化的、电子设备可读的信息,例如待识别文本的翻译结果、待识别文本对应的控制指令、待识别文本的关键词、主题词等。
根据该示例性的实施方式,根据自动搜索得到的最优的语义理解框架结构,得到待识别文本的识别结果,可以提高识别结果的准确度。
根据本申请实施例的方法,利用编码生成器在搜索空间中采样得到的语义理解框架结构的性能信息,更新编码生成器,使得编码生成器每一次采样的结果都是对上一次采样的结果的优化,从而自动搜索出性能最优的语义理解框架结构。因此,实施本申请的技术方案,可以优化语义理解框架结构,使得语义理解框架可应用于更广泛的设备场景。
图4出了本申请一示例性实施例提供的语义理解框架结构的搜索装置的示意图。如图4所示,该装置包括:
采样模块410,用于利用编码生成器在搜索空间中采样语义理解框架结构;其中,所述搜索空间包括至少两个语义理解框架结构;
训练模块420,用于对采样得到的语义理解框架结构进行训练,得到所述语义理解框架结构的性能信息;
更新模块430,用于根据所述性能信息更新所述编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
确定模块440,用于将第N次采样得到的语义理解框架结构确定为目标结构。
示例性地,如图5所示,该装置还包括:
遍历模块510,用于遍历框架结构参数,以得到至少两个采用框架结构参数表征的语义理解框架结构;
搜索空间构建模块520,用于基于所述至少两个语义理解框架结构,得到所述搜索空间。
示例性地,所述框架结构参数包括Transformer模型的堆叠次数、Transformer模型中隐层单元的个数、堆叠的各Transformer模型之间的残差参数。
示例性地,如图5所示,该装置还包括:
初始化模块530,用于根据所述搜索空间,初始化所述编码生成器,以使所述编码生成器能够生成与所述搜索空间中的语义理解框架结构对应的采样编码。
示例性地,如图5所示,采样模块410包括:
生成单元411,用于利用编码生成器,生成采样编码;
解码单元412,用于对所述采样编码进行解码,得到所述采样编码对应的语义理解框架结构。
示例性地,所述搜索空间中的语义理解框架结构为知识增强语义表示ERNIE模型的结构。
示例性地,该装置还包括:
获取模块540,用于获取待识别文本;
识别模块550,用于根据所述目标结构,得到所述待识别文本的识别结果。
本申请实施例提供的语义理解框架结构的搜索装置,可实现本申请任一实施例提供的语义理解框架结构的搜索方法,具备相应的有益效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的语义理解框架结构的搜索方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语义理解框架结构的搜索方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语义理解框架结构的搜索方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语义理解框架结构的搜索方法对应的程序指令/模块(例如,附图4所示的采样模块410、训练模块420、更新模块430和确定模块440)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语义理解框架结构的搜索方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语义理解框架结构的搜索方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至语义理解框架结构的搜索方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语义理解框架结构的搜索方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与语义理解框架结构的搜索方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请的技术方案,利用在搜索空间中采样得到的语义理解框架结构的性能信息,更新用于采样的编码生成器,使得编码生成器每一次采样的结果都是对上一次采样的结果的优化,从而自动搜索出性能最优的语义理解框架结构。因此,实施本申请的技术方案,可以优化语义理解框架结构,使得语义理解框架可应用于更广泛的设备场景。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种语义理解框架结构的搜索方法,包括:
利用编码生成器在搜索空间中采样语义理解框架结构;其中,所述搜索空间包括至少两个语义理解框架结构,所述搜索空间是预先从多个符合终端设备部署要求的语义理解框架结构中筛选出来的;
对采样得到的语义理解框架结构进行训练,得到所述语义理解框架结构的性能信息;
根据所述性能信息更新所述编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
将第N次采样得到的语义理解框架结构确定为目标结构。
2.根据权利要求1所述的方法,其中,在首次利用编码生成器在搜索空间中采样语义理解框架结构之前,还包括:
遍历框架结构参数,以得到至少两个采用框架结构参数表征的语义理解框架结构;
基于所述至少两个语义理解框架结构,得到所述搜索空间。
3.根据权利要求2所述的方法,其中,所述框架结构参数包括Transformer模型的堆叠个数、Transformer模型中隐层单元的个数和/或堆叠的各Transformer模型之间的残差参数。
4.根据权利要求1至3中任一项所述的方法,其中,在首次利用编码生成器在搜索空间中采样语义理解框架结构之前,还包括:
根据所述搜索空间,初始化所述编码生成器,以使所述编码生成器能够生成与所述搜索空间中的语义理解框架结构对应的采样编码。
5.根据权利要求4所述的方法,其中,所述利用编码生成器在搜索空间中采样语义理解框架结构,包括:
利用编码生成器,生成采样编码;
对所述采样编码进行解码,得到所述采样编码对应的语义理解框架结构。
6.根据权利要求1至3中任一项所述的方法,其中,所述搜索空间中的语义理解框架结构为知识增强语义表示ERNIE模型的结构。
7.根据权利要求1至3中任一项所述的方法,还包括:
获取待识别文本;
根据所述目标结构,得到所述待识别文本的识别结果。
8.一种语义理解框架结构的搜索装置,包括:
采样模块,用于利用编码生成器在搜索空间中采样语义理解框架结构;其中,所述搜索空间包括至少两个语义理解框架结构,所述搜索空间是预先从多个符合终端设备部署要求的语义理解框架结构中筛选出来的;
训练模块,用于对采样得到的语义理解框架结构进行训练,得到所述语义理解框架结构的性能信息;
更新模块,用于根据所述性能信息更新所述编码生成器,返回利用编码生成器在搜索空间中采样语义理解框架结构的步骤,直至采样语义理解框架结构的次数达到预设阈值N;其中,N为大于或等于2的整数;
确定模块,用于将第N次采样得到的语义理解框架结构确定为目标结构。
9.根据权利要求8所述的装置,还包括:
遍历模块,用于遍历框架结构参数,以得到至少两个采用框架结构参数表征的语义理解框架结构;
搜索空间构建模块,用于基于所述至少两个语义理解框架结构,得到所述搜索空间。
10.根据权利要求9所述的装置,其中,所述框架结构参数包括Transformer模型的堆叠次数、Transformer模型中隐层单元的个数、堆叠的各Transformer模型之间的残差参数。
11.根据权利要求8至10中任一项所述的装置,还包括:
初始化模块,用于根据所述搜索空间,初始化所述编码生成器,以使所述编码生成器能够生成与所述搜索空间中的语义理解框架结构对应的采样编码。
12.根据权利要求11所述的装置,其中,采样模块包括:
生成单元,用于利用编码生成器,生成采样编码;
解码单元,用于对所述采样编码进行解码,得到所述采样编码对应的语义理解框架结构。
13.根据权利要求8至10中任一项所述的装置,其中,所述搜索空间中的语义理解框架结构为知识增强语义表示ERNIE模型的结构。
14.根据权利要求8至10中任一项所述的装置,还包括:
获取模块,用于获取待识别文本;
识别模块,用于根据所述目标结构,得到所述待识别文本的识别结果。
15.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010592650.5A CN111539225B (zh) | 2020-06-25 | 2020-06-25 | 语义理解框架结构的搜索方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010592650.5A CN111539225B (zh) | 2020-06-25 | 2020-06-25 | 语义理解框架结构的搜索方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111539225A CN111539225A (zh) | 2020-08-14 |
CN111539225B true CN111539225B (zh) | 2023-07-21 |
Family
ID=71976357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010592650.5A Active CN111539225B (zh) | 2020-06-25 | 2020-06-25 | 语义理解框架结构的搜索方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111539225B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116661758B (zh) * | 2023-08-01 | 2023-11-03 | 青岛蓝图智库信息技术有限公司 | 一种优化日志框架配置的方法、装置、电子设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180203921A1 (en) * | 2017-01-17 | 2018-07-19 | Xerox Corporation | Semantic search in document review on a tangible user interface |
CN108509411B (zh) * | 2017-10-10 | 2021-05-11 | 腾讯科技(深圳)有限公司 | 语义分析方法和装置 |
CN110795945B (zh) * | 2019-10-30 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 一种语义理解模型训练方法、语义理解方法、装置及存储介质 |
CN111325000B (zh) * | 2020-01-23 | 2021-01-26 | 北京百度网讯科技有限公司 | 语言生成方法、装置及电子设备 |
CN111159416B (zh) * | 2020-04-02 | 2020-07-17 | 腾讯科技(深圳)有限公司 | 语言任务模型训练方法、装置、电子设备及存储介质 |
-
2020
- 2020-06-25 CN CN202010592650.5A patent/CN111539225B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
《基于语义的异构三维CAD模型检索》;秦飞巍;《信息科技》(第2014年第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111539225A (zh) | 2020-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539514B (zh) | 用于生成神经网络的结构的方法和装置 | |
CN111667057B (zh) | 用于搜索模型结构的方法和装置 | |
CN111539224B (zh) | 语义理解模型的剪枝方法、装置、电子设备和存储介质 | |
CN111241819B (zh) | 词向量生成方法、装置及电子设备 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
JP2021197159A (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
CN113553414B (zh) | 智能对话方法、装置、电子设备和存储介质 | |
CN112580822B (zh) | 机器学习模型的对抗训练方法装置、电子设备和介质 | |
CN113723278B (zh) | 表格信息提取模型的训练方法及装置 | |
CN111539227A (zh) | 训练语义表示模型的方法、装置、设备和计算机存储介质 | |
CN111666751B (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN111177339B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN112560499B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
JP2021192286A (ja) | モデル訓練、画像処理方法及びデバイス、記憶媒体、プログラム製品 | |
CN111709252A (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN111652354B (zh) | 用于训练超网络的方法、装置、设备以及存储介质 | |
CN111882035A (zh) | 基于卷积核的超网络搜索方法、装置、设备和介质 | |
CN111553169B (zh) | 语义理解模型的剪枝方法、装置、电子设备和存储介质 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
CN111539225B (zh) | 语义理解框架结构的搜索方法和装置 | |
CN111680599B (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
CN112016524A (zh) | 模型训练方法、人脸识别方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |