CN111709252A - 基于预训练的语义模型的模型改进方法及装置 - Google Patents

基于预训练的语义模型的模型改进方法及装置 Download PDF

Info

Publication number
CN111709252A
CN111709252A CN202010555885.7A CN202010555885A CN111709252A CN 111709252 A CN111709252 A CN 111709252A CN 202010555885 A CN202010555885 A CN 202010555885A CN 111709252 A CN111709252 A CN 111709252A
Authority
CN
China
Prior art keywords
model
semantic
improved
initial
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010555885.7A
Other languages
English (en)
Other versions
CN111709252B (zh
Inventor
陈徐屹
黄世维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010555885.7A priority Critical patent/CN111709252B/zh
Publication of CN111709252A publication Critical patent/CN111709252A/zh
Priority to JP2021035706A priority patent/JP7269972B2/ja
Priority to US17/249,718 priority patent/US11775766B2/en
Priority to EP21161686.7A priority patent/EP3926512A1/en
Priority to KR1020210033589A priority patent/KR20210036875A/ko
Application granted granted Critical
Publication of CN111709252B publication Critical patent/CN111709252B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/325Hash tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了基于预训练的语义模型的模型改进方法及装置,涉及自然语言处理、深度学习技术领域。具体实现方案为:基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;基于模型蒸馏法,训练初始改进模型,得到改进模型。本方案通过基于对输入向量进行哈希查找以得到输入向量的语义结果信息,替代了原有的语义模型的繁杂的迭代计算过程,得到了模型参数少、压缩比例高的改进模型,并提高了改进模型的处理速度。

Description

基于预训练的语义模型的模型改进方法及装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及自然语言处理、深度学习技术,为一种基于预训练的语义模型的模型改进方法及装置。
背景技术
采用预训练的语义模型是自然语言处理领域的发展潮流,然而,当前的预训练语义模型参数规模一般都过分庞大,计算十分复杂,导致其难以在生产环境中部署。目前,一般采用模型蒸馏技术、量化裁剪技术等对模型进行压缩,以提升模型处理速度。基于模型蒸馏技术或量化裁剪技术得到的压缩后的语义模型的压缩比例和处理速度有待提高。
发明内容
本申请提供了一种用于基于预训练的语义模型的模型改进方法、装置、设备以及存储介质。
根据第一方面,本申请提供了一种基于预训练的语义模型的模型改进方法,包括:基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;基于模型蒸馏法,训练初始改进模型,得到改进模型。
根据第二方面,本申请提供了一种基于预训练的语义模型的模型改进装置,包括:改进单元,被配置成基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;训练单元,被配置成基于模型蒸馏法,训练初始改进模型,得到改进模型。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述第一方面中任一项的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,计算机指令用于使计算机执行上述第一方面中任一项的方法。
根据本申请的技术,通过基于对输入向量进行哈希查找以得到输入向量的语义结果信息,替代了原有的语义模型的繁杂的迭代计算过程,得到了模型参数少、压缩比例高的改进模型,并提高了改进模型的处理速度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的基于预训练的语义模型的模型改进方法的一个实施例的流程图;
图3是根据本公开的基于预训练的语义模型的模型改进方法的一个应用场景的示意图;
图4是根据本公开的基于预训练的语义模型的模型改进方法的又一个实施例的流程图;
图5是根据本公开的基于预训练的语义模型的模型改进装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备/终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本申请的基于预训练的语义模型的模型改进方法及装置的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以是支持网络连接从而进行数据交互和数据处理的硬件设备或软件。当终端设备101、102、103为硬件时,其可以是支持信息交互、网络连接、信息处理等功能的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如基于终端设备101、102、103发送的预训练的语义模型,进行模型改进和训练的后台处理服务器。后台处理服务器可以基于预训练的语义模型得到初始改进模型,并对初始改进模型进行训练得到改进模型。可选的,后台处理服务器还可以将改进模型反馈给终端设备,以供终端设备使用。作为示例,服务器105可以是云端服务器。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本公开的实施例所提供的基于预训练的语义模型的模型改进方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备彼此配合执行。相应地,信息处理装置包括的各个部分(例如各个单元、子单元、模块、子模块)可以全部设置于服务器中,也可以全部设置于终端设备中,还可以分别设置于服务器和终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当基于预训练的语义模型的模型改进方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括基于预训练的语义模型的模型改进方法运行于其上的电子设备(例如服务器或终端设备)。
继续参考图2,示出了基于预训练的语义模型的模型改进方法的一个实施例的流程200,包括以下步骤:
步骤201,基于预训练的语义模型,得到初始改进模型。
本实施例中,基于预训练的语义模型的模型改进方法的执行主体(例如图1中的终端设备或服务器)可以基于预训练的语义模型,得到初始改进模型。其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;基于模型蒸馏法,训练初始改进模型,得到改进模型。
预训练的语义模型是基于庞大的训练数据训练得到的语义识别模型,用于表征输入向量所表征的词句与语义识别结果的对应关系。
在大规模的机器学习领域,如物体检测、语义识别等,为了获得较好的性能,常常会训练复杂的大规模模型。训练得到的大规模模型基于确定的、数量众多的模型参数,经过复杂的迭代计算过程确定输入向量的语义识别结果。模型训练阶段,不需要考虑实时性、计算量等因素。但是,在模型部署阶段,小而精炼的模型易于部署,需要考虑模型的大小、计算复杂度、速度等诸多因素。
基于模型部署时小而精炼的部署追求,上述执行主体可以对预训练的语义模型进行改进。作为示例,上述执行主体可以基于输入向量进行哈希查找以得到输入向量的语义结果信息,以哈希查找过程替代原有的语义模型的繁杂的迭代计算过程。具体的,上述执行主体可以部署哈希存储模块,哈希存储模块中存储有大量的语义信息。其中,哈希存储模块可以与改进模型一起部署,也可单独部署,在此不做限定。
在哈希存储模块的语义信息存储过程中,以输入向量为自变量,通过一定的函数关系(散列函数或哈希函数),计算出对应的函数值(哈希地址),以该函数值作为数据元素的地址,并将数据元素存入到相应地址的存储单元中。
对应的,在哈希存储模块的语义信息查找过程中,以输入向量为自变量,通过一定的函数关系(散列函数或哈希函数),计算出对应的函数值(哈希地址),以该哈希地址中存储的语义信息作为输入向量的语义结果信息。
在本实施例的一些可选的实现方式中,在初始改进模型的运行过程中,首先,上述执行主体基于全连接层得到输入向量的变换向量;然后,根据哈希查找法,在存储有语义信息的哈希存储模块中确定对应于变换向量的目标位置,以目标位置存储的语义信息作为输入向量的语义结果信息。
本实现方式中,以全连接层的向量转换过程和哈希查找过程,替代原有的语义模型中繁琐的迭代计算过程,使得该模型可训练的模型参数少、压缩比例高;并且相比于繁琐的迭代计算过程,全连接层的向量转换过程和哈希查找过程提高了输入向量的处理速度。
本实施例中,基于预训练的语义模型得到的初始改进模型是未训练的模型,其上述的运行过程中得到的语义结果信息可能是错误的语义结果信息,初始改进模型需要经过后续的训练步骤进行训练。
步骤202,基于模型蒸馏法,训练初始改进模型,得到改进模型。
本实施例中,上述执行主体可以基于模型蒸馏法,训练步骤201得到的初始改进模型,得到训练后的改进模型。在模型蒸馏法中,由预设的教师网络模型的输出结果,在一定程度上替代真实训练数据来指导作为学生网络模型的初始改进模型的学习,从而鼓励学生网络模型去逼近教师模型的输入、输出向量。
在本实施例的一些可选的实现方式中,上述执行主体以预训练的语义模型为教师网络模型,训练作为学生网络模型的初始改进模型,得到改进模型。
作为教师网络模型的语义模型是提前训练好的、具有很好性能的网络模型,作为学生网络模型的初始改进模型的训练含有两个目标:一个是原始的目标函数,为该初始改进模型的输出结果与训练数据标签真值的交叉熵;另一个是改进的目标函数,为该初始改进模型的输出结果与语义模型的输出结果的交叉熵。
一般认为,改进的目标函数具有更高的熵,它能比原始的目标函数提供更加多的信息,因此,采用改进的目标函数可以在初始改进模型的训练过程中,使用较少的数据以及较大的学习率。作为示例,上述执行主体可以将加权平均后的原始的目标函数和改进的目标函数作为学生网络模型的目标函数,改进的目标函数所占的权重可以更大一些。
上述的教师学生网络模型的方法,利用一个性能较好的教师网络模型,在神经元的级别上,来监督学生网络模型的训练,提高了模型参数的利用率和改进模型的训练速度。
在本实施例的一些可选的实现方式中,预训练的语义模型为基于模型蒸馏法得到的、预训练的语义模型。作为实例,语义模型是基于其对应的教师网络模型,进行模型迁移得到的语义模型。本实现方式中,预训练的语义模型已基于模型蒸馏法进行模型压缩,在此基础上,针对语义模型进行进一步的模型改进,进一步提高了改进模型的精炼程度。
继续参见图3,图3是根据本实施例的基于预训练的语义模型的模型改进方法的应用场景的一个示意图。在图3的应用场景中,服务器301中存在预训练的语义模型302。语义模型302的运行过程包括:输入操作、迭代计算操作、输出操作。为了精简语义模型302,首先,服务器301基于预训练的语义模型,得到初始改进模型303,其中,初始改进模型303的运行过程包括:输入操作、查找操作、输出操作;也即,在初始改进模型303中,基于哈希查找法确定输入向量的语义结果信息。然后,基于模型蒸馏法,训练初始改进模型303,得到改进模型304。
本实施例中,通过基于对输入向量进行哈希查找以得到输入向量的语义结果信息,替代了原有的语义模型的繁杂的迭代计算过程,得到了模型参数少、压缩比例高的改进模型,并提高了改进模型的处理速度。
继续参考图4,示出了根据本申请的基于预训练的语义模型的模型改进方法的另一个实施例的示意性流程400,包括以下步骤:
步骤401,基于预训练的语义模型,得到初始改进模型。
本实施例中,步骤401与图2对应实施例中的步骤201基本一致,在此不再赘述。
步骤402,基于模型蒸馏法,训练初始改进模型,得到改进模型。
本实施例中,步骤402与图2对应实施例中的步骤202基本一致,在此不再赘述。
步骤403,将待识别向量输入改进模型,得到待识别向量的语义结果信息。
本实施例中,基于预训练的语义模型的模型改进方法的执行主体可以将待识别向量输入训练后的改进模型,得到待识别向量的语义结果信息。
其中,待识别向量用于表征与之对应的单字、词组或句子。本实施例中的单字、词组或句子可以是任意的单字、词组或句子。作为示例,上述执行主体可以对输入的词句进行处理,得到词句中的各单字或词组的待识别向量。
针对于输入的待识别向量,首先,上述执行主体可以在改进模型中,基于全连接层得到输入向量的变换向量;然后,根据哈希查找法,在存储有语义信息的哈希存储模块中确定对应于变换向量的目标位置,以目标位置存储的语义信息作为待识别向量的语义结果信息。本实施例中,改进模型是训练后的模型,基于改进模型可以得到待识别向量的准确地语义结果信息。
从图4中可以看出,与图2对应的实施例相比,本实施例中的基于预训练的语义模型的模型改进方法的流程500突出说明了将待识别向量输入改进模型,得到待识别向量的语义结果信息。如此,本实施例描述的方案根据待识别向量可以得到准确的语义结果信息,丰富了待识别向量的语义信息获取方式。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种基于预训练的语义模型的模型改进装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征,以及产生与图2所示的方法实施例相同或相应的效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的基于预训练的语义模型的模型改进装置,包括:改进单元501,被配置成基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;训练单元502,被配置成基于模型蒸馏法,训练初始改进模型,得到改进模型。
在一些实施例中,上述在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息,包括:在初始改进模型中,基于全连接层得到输入向量的变换向量;根据哈希查找法,在存储有语义信息的哈希存储模块中确定对应于变换向量的目标位置,以目标位置存储的语义信息作为输入向量的语义结果信息。
在一些实施例中,预训练的语义模型为基于模型蒸馏法得到的、预训练的语义模型。
在一些实施例中,上述训练单元502,进一步被配置成:以语义模型为教师网络模型,训练作为学生网络模型的初始改进模型,得到改进模型。
在一些实施例中,上述装置还包括:运行单元(图中未示出),被配置成将待识别向量输入改进模型,得到待识别向量的语义结果信息。
根据本申请的技术,通过改进单元基于预训练的语义模型,得到初始改进模型,其中,在初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;训练单元基于模型蒸馏法,训练初始改进模型,得到改进模型,从而基于对输入向量进行哈希查找以得到输入向量的语义结果信息,替代了原有的语义模型的繁杂的迭代计算过程,得到了模型参数少、压缩比例高的改进模型,并提高了改进模型的处理速度。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的基于预训练的语义模型的模型改进方法运行于其上的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的基于预训练的语义模型的模型改进方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的基于预训练的语义模型的模型改进方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的基于预训练的语义模型的模型改进方法对应的程序指令/模块(例如,附图5所示的改进单元501、训练单元502)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于预训练的语义模型的模型改进方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于预训练的语义模型的模型改进方法运行于其上的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至基于预训练的语义模型的模型改进方法运行于其上的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于预训练的语义模型的模型改进方法运行于其上的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与基于预训练的语义模型的模型改进方法运行于其上的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (12)

1.一种基于预训练的语义模型的模型改进方法,包括:
基于预训练的语义模型,得到初始改进模型,其中,在所述初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;
基于模型蒸馏法,训练所述初始改进模型,得到改进模型。
2.根据权利要求1所述的方法,其中,所述在所述初始改进模型中,基于哈希查找法确定输入向量的语义结果信息,包括:
在所述初始改进模型中,基于全连接层得到所述输入向量的变换向量;
根据哈希查找法,在存储有语义信息的哈希存储模块中确定对应于所述变换向量的目标位置,以所述目标位置存储的语义信息作为所述输入向量的语义结果信息。
3.根据权利要求1所述的方法,其中,预训练的语义模型为基于模型蒸馏法得到的、预训练的语义模型。
4.根据权利要求1所述的方法,其中,所述基于模型蒸馏法,训练所述初始改进模型,得到改进模型,包括:
以所述语义模型为教师网络模型,训练作为学生网络模型的所述初始改进模型,得到所述改进模型。
5.根据权利要求1-4任一所述的方法,其中,所述方法还包括:
将待识别向量输入所述改进模型,得到所述待识别向量的语义结果信息。
6.一种基于预训练的语义模型的模型改进装置,包括:
改进单元,被配置成基于预训练的语义模型,得到初始改进模型,其中,在所述初始改进模型中,基于哈希查找法确定输入向量的语义结果信息;
训练单元,被配置成基于模型蒸馏法,训练所述初始改进模型,得到改进模型。
7.根据权利要求6所述的装置,其中,所述在所述初始改进模型中,基于哈希查找法确定输入向量的语义结果信息,包括:
在所述初始改进模型中,基于全连接层得到所述输入向量的变换向量;
根据哈希查找法,在存储有语义信息的哈希存储模块中确定对应于所述变换向量的目标位置,以所述目标位置存储的语义信息作为所述输入向量的语义结果信息。
8.根据权利要求6所述的装置,其中,预训练的语义模型为基于模型蒸馏法得到的、预训练的语义模型。
9.根据权利要求6所述的装置,其中,所述训练单元,进一步被配置成:
以所述语义模型为教师网络模型,训练作为学生网络模型的所述初始改进模型,得到所述改进模型。
10.根据权利要求6-9任一所述的装置,其中,所述装置还包括:
运行单元,被配置成将待识别向量输入所述改进模型,得到所述待识别向量的语义结果信息。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
CN202010555885.7A 2020-06-17 2020-06-17 基于预训练的语义模型的模型改进方法及装置 Active CN111709252B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010555885.7A CN111709252B (zh) 2020-06-17 2020-06-17 基于预训练的语义模型的模型改进方法及装置
JP2021035706A JP7269972B2 (ja) 2020-06-17 2021-03-05 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置
US17/249,718 US11775766B2 (en) 2020-06-17 2021-03-10 Method and apparatus for improving model based on pre-trained semantic model
EP21161686.7A EP3926512A1 (en) 2020-06-17 2021-03-10 Method and apparatus for improving model based on pre-trained semantic model
KR1020210033589A KR20210036875A (ko) 2020-06-17 2021-03-15 사전훈련된 시맨틱 모델에 기반하는 모델 개량 방법, 장치, 전자 기기, 저장 매체 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010555885.7A CN111709252B (zh) 2020-06-17 2020-06-17 基于预训练的语义模型的模型改进方法及装置

Publications (2)

Publication Number Publication Date
CN111709252A true CN111709252A (zh) 2020-09-25
CN111709252B CN111709252B (zh) 2023-03-28

Family

ID=72540956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010555885.7A Active CN111709252B (zh) 2020-06-17 2020-06-17 基于预训练的语义模型的模型改进方法及装置

Country Status (5)

Country Link
US (1) US11775766B2 (zh)
EP (1) EP3926512A1 (zh)
JP (1) JP7269972B2 (zh)
KR (1) KR20210036875A (zh)
CN (1) CN111709252B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112527127A (zh) * 2020-12-23 2021-03-19 北京百度网讯科技有限公司 输入法长句预测模型的训练方法、装置、电子设备及介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709252B (zh) * 2020-06-17 2023-03-28 北京百度网讯科技有限公司 基于预训练的语义模型的模型改进方法及装置
US11823490B2 (en) * 2021-06-08 2023-11-21 Adobe, Inc. Non-linear latent to latent model for multi-attribute face editing
CN113408265B (zh) * 2021-06-22 2023-01-17 平安科技(深圳)有限公司 基于人机交互的语义解析方法、装置、设备及存储介质
CN115168537B (zh) * 2022-06-30 2023-06-27 北京百度网讯科技有限公司 语义检索模型的训练方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016179413A1 (en) * 2015-05-05 2016-11-10 Retalilmenot, Inc. Scalable complex event processing with probabilistic machine learning models to predict subsequent geolocations
CN107092661A (zh) * 2017-03-28 2017-08-25 桂林明辉信息科技有限公司 一种基于深度卷积神经网络的图像检索方法
US20190080455A1 (en) * 2017-09-12 2019-03-14 Beihang University Method and device for three-dimensional feature-embedded image object component-level semantic segmentation
CN109933682A (zh) * 2019-01-11 2019-06-25 上海交通大学 一种基于语义与内容信息结合的图像哈希检索方法及系统
CN109977250A (zh) * 2019-03-20 2019-07-05 重庆大学 融合语义信息和多级相似性的深度哈希图像检索方法
CN110059740A (zh) * 2019-04-12 2019-07-26 杭州电子科技大学 一种针对嵌入式移动端的深度学习语义分割模型压缩方法
CN110134761A (zh) * 2019-04-16 2019-08-16 深圳壹账通智能科技有限公司 判决文书信息检索方法、装置、计算机设备和存储介质
US20200005191A1 (en) * 2018-06-28 2020-01-02 International Business Machines Corporation Ranking and updating machine learning models based on data inputs at edge nodes
CN110795939A (zh) * 2019-10-15 2020-02-14 腾讯科技(深圳)有限公司 文本处理方法、装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004068300A2 (en) * 2003-01-25 2004-08-12 Purdue Research Foundation Methods, systems, and data structures for performing searches on three dimensional objects
US7594258B2 (en) * 2005-06-27 2009-09-22 Yahoo! Inc. Access control systems and methods using visibility tokens with automatic propagation
JP2008084068A (ja) 2006-09-28 2008-04-10 Toshiba Corp 現場作業実施状況管理装置及び管理方法
US8442823B2 (en) * 2010-10-19 2013-05-14 Motorola Solutions, Inc. Methods for creating and searching a database of speakers
JP2013206187A (ja) 2012-03-28 2013-10-07 Fujitsu Ltd 情報変換装置、情報検索装置、情報変換方法、情報検索方法、情報変換プログラム、情報検索プログラム
JP6989387B2 (ja) * 2015-05-05 2022-01-05 キンダイ、インコーポレイテッドKyndi, Inc. 古典的なプロセッサで量子類似計算をエミュレートするためのquanton表現
JP6924571B2 (ja) * 2016-11-11 2021-08-25 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
US10109275B2 (en) * 2016-12-19 2018-10-23 Asapp, Inc. Word hash language model
WO2018126213A1 (en) * 2016-12-30 2018-07-05 Google Llc Multi-task learning using knowledge distillation
US10565562B2 (en) * 2017-07-25 2020-02-18 Microsoft Technology Licensing, Llc Hashing query and job posting features for improved machine learning model performance
US10491697B2 (en) * 2018-02-15 2019-11-26 Cognant Llc System and method for bot detection
US11741355B2 (en) * 2018-07-27 2023-08-29 International Business Machines Corporation Training of student neural network with teacher neural networks
CN112487182B (zh) * 2019-09-12 2024-04-12 华为技术有限公司 文本处理模型的训练方法、文本处理方法及装置
CN111104482A (zh) 2019-12-18 2020-05-05 北京百度网讯科技有限公司 数据处理方法和装置
CN111709252B (zh) * 2020-06-17 2023-03-28 北京百度网讯科技有限公司 基于预训练的语义模型的模型改进方法及装置
TWI746038B (zh) * 2020-07-02 2021-11-11 阿證科技股份有限公司 類神經網路人工智慧決策核心系統
US11699044B1 (en) * 2022-10-31 2023-07-11 Todd Allen Apparatus and methods for generating and transmitting simulated communication

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016179413A1 (en) * 2015-05-05 2016-11-10 Retalilmenot, Inc. Scalable complex event processing with probabilistic machine learning models to predict subsequent geolocations
CN107092661A (zh) * 2017-03-28 2017-08-25 桂林明辉信息科技有限公司 一种基于深度卷积神经网络的图像检索方法
US20190080455A1 (en) * 2017-09-12 2019-03-14 Beihang University Method and device for three-dimensional feature-embedded image object component-level semantic segmentation
US20200005191A1 (en) * 2018-06-28 2020-01-02 International Business Machines Corporation Ranking and updating machine learning models based on data inputs at edge nodes
CN109933682A (zh) * 2019-01-11 2019-06-25 上海交通大学 一种基于语义与内容信息结合的图像哈希检索方法及系统
CN109977250A (zh) * 2019-03-20 2019-07-05 重庆大学 融合语义信息和多级相似性的深度哈希图像检索方法
CN110059740A (zh) * 2019-04-12 2019-07-26 杭州电子科技大学 一种针对嵌入式移动端的深度学习语义分割模型压缩方法
CN110134761A (zh) * 2019-04-16 2019-08-16 深圳壹账通智能科技有限公司 判决文书信息检索方法、装置、计算机设备和存储介质
CN110795939A (zh) * 2019-10-15 2020-02-14 腾讯科技(深圳)有限公司 文本处理方法、装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIPENG QIU ET AL: "Pre-trained Models for Natural Language Processing: A Survey", 《SPRINGER》 *
张宏钊等: "基于加权损失函数的多尺度对抗网络图像语义分割算法", 《计算机应用与软件》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112527127A (zh) * 2020-12-23 2021-03-19 北京百度网讯科技有限公司 输入法长句预测模型的训练方法、装置、电子设备及介质
CN112527127B (zh) * 2020-12-23 2022-01-28 北京百度网讯科技有限公司 输入法长句预测模型的训练方法、装置、电子设备及介质

Also Published As

Publication number Publication date
JP7269972B2 (ja) 2023-05-09
US11775766B2 (en) 2023-10-03
US20210397794A1 (en) 2021-12-23
KR20210036875A (ko) 2021-04-05
CN111709252B (zh) 2023-03-28
JP2021197156A (ja) 2021-12-27
EP3926512A1 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
CN111428008B (zh) 用于训练模型的方法、装置、设备以及存储介质
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111414482B (zh) 一种事件论元抽取方法、装置以及电子设备
US20210374343A1 (en) Method and apparatus for obtaining word vectors based on language model, device and storage medium
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
CN111859997B (zh) 机器翻译中的模型训练方法、装置、电子设备及存储介质
US20210383233A1 (en) Method, electronic device, and storage medium for distilling model
KR102630243B1 (ko) 구두점 예측 방법 및 장치
CN111241838B (zh) 文本实体的语义关系处理方法、装置及设备
CN111127191B (zh) 风险评估方法及装置
US20220300763A1 (en) Method, apparatus, electronic device and storage medium for training semantic similarity model
CN114492788A (zh) 训练深度学习模型的方法和装置、电子设备及存储介质
CN111950293A (zh) 语义表示模型的生成方法、装置、电子设备及存储介质
CN111611808A (zh) 用于生成自然语言模型的方法和装置
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN111539222B (zh) 语义相似度任务模型的训练方法、装置、设备及存储介质
CN112329429B (zh) 文本相似度学习方法、装置、设备以及存储介质
CN111651988B (zh) 用于训练模型的方法、装置、设备以及存储介质
US11900918B2 (en) Method for training a linguistic model and electronic device
CN115688796B (zh) 用于自然语言处理领域中预训练模型的训练方法及其装置
CN112417156B (zh) 多任务学习方法、装置、设备以及存储介质
CN112507692B (zh) 建立风格文本生成模型的方法、装置
CN113360638A (zh) 分类方法和装置、电子设备和存储介质
CN112417156A (zh) 多任务学习方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant