CN111950293B - 语义表示模型的生成方法、装置、电子设备及存储介质 - Google Patents
语义表示模型的生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111950293B CN111950293B CN202010589182.6A CN202010589182A CN111950293B CN 111950293 B CN111950293 B CN 111950293B CN 202010589182 A CN202010589182 A CN 202010589182A CN 111950293 B CN111950293 B CN 111950293B
- Authority
- CN
- China
- Prior art keywords
- text
- mask
- semantic representation
- representation model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本申请公开了语义表示模型的生成方法、装置、电子设备及存储介质,涉及人工智能技术领域,具体涉及自然语言处理、深度学习技术领域。具体实现方案为:获取文本集合,并获取文本中待掩码的知识单元,并对知识单元中的多个字符采用多个掩码符进行替换以生成替换文本,其中,多个掩码符构成掩码符串;之后,对掩码符串进行调整以生成掩码文本;根据每个文本对应的掩码文本以及待掩码的知识单元,生成训练文本集合;根据训练文本集合生成语义表示模型。该方法通过对掩码符串进行调整,生成动态长度的掩码文本,可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及自然语言处理、深度学习技术领域,尤其涉及语义表示模型的生成方法、装置、电子设备及存储介质。
背景技术
目前,NLP(Natural Language Processing,自然语言处理)是人工智能领域的一个重要的研究方向。相关技术中,针对NLP,主要通过ERNIE(Knowledge Masking Bi-direction Language Model,知识掩蔽双向语言模型)进行语义分析。但是,上述技术中,模型的掩码只能是把文本实体掩盖成等量的符号进行语义预测,导致原有文本实体的长度信息存在泄漏问题,使模型无法完全学到文本实体的所有信息。
发明内容
提供了一种语义表示模型的生成方法、装置、电子设备及存储介质。
根据第一方面,提供了一种语义表示模型的生成方法,该方法通过把文本集合中的待掩码的知识单元中的字符采用掩码符串进行替换,并对掩码符串进行调整,生成动态长度的掩码文本,根据文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合,生成语义表示模型。由此,采用动态长度的掩码文本可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
本申请第二方面提出了一种语义表示模型的生成装置。
本申请第三方面提出了一种电子设备。
本申请第四方面提出了一种存储有计算机指令的非瞬时计算机可读存储介质。
本申请第一方面实施例提出了一种语义表示模型的生成方法,包括:获取文本集合,其中,所述文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对所述文本中待掩码的知识单元进行掩码符串替换后得到的文本;对所述替换文本中的所述掩码符串进行调整以生成所述文本对应的掩码文本;根据每个所述文本对应的所述掩码文本以及所述待掩码的知识单元,生成训练文本集合;以及,根据所述训练文本集合生成语义表示模型。
本申请实施例的语义表示模型的生成方法,通过获取文本集合,其中,所述文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对所述文本中待掩码的知识单元进行掩码符串替换后得到的文本;对所述替换文本中的所述掩码符串进行调整以生成掩码文本;根据每个所述文本对应的所述掩码文本以及所述待掩码的知识单元,生成训练文本集合;以及,根据所述训练文本集合生成语义表示模型,该方法通过把文本集合中的待掩码的知识单元中的字符采用掩码符串进行替换,并对掩码符串进行调整,生成动态长度的掩码文本,根据文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合,生成语义表示模型。由此,采用动态长度的掩码文本可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
本申请第二方面实施例提出了一种语义表示模型的生成装置,包括:第一获取模块,用于获取文本集合,其中,所述文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对所述文本中待掩码的知识单元进行掩码符串替换后得到的文本;调整模块,用于对所述替换文本中的所述掩码符串进行调整以生成所述文本对应的掩码文本;第一生成模块,用于根据每个所述文本对应的所述掩码文本以及所述待掩码的知识单元,生成训练文本集合;第二生成模块,用于根据所述训练文本集合生成语义表示模型。
本申请第三方面实施例提出了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的语义表示模型的生成方法。
本申请第四方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的语义表示模型的生成方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请实施例的语义表示模型输入输出结构示意图;
图3是根据本申请第二实施例的示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请实施例的任务场景下语义表示模型的生成方法示意图;
图6是根据本申请第四实施例的示意图;
图7是根据本申请第五实施例的示意图;
图8是用来实现本申请实施例的语义表示模型的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的语义表示模型的生成方法、装置、电子设备及存储介质。
图1是根据本申请第一实施例的示意图。其中,需要说明的是,本申请实施例的执行主体为语义表示模型的生成装置,语义表示模型的生成装置具体可以为硬件设备,或者硬件设备中的软件等。
如图1所示,语义表示模型的生成方法具体实现过程如下:
步骤101,获取文本集合,其中,文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对所述文本中待掩码的知识单元进行掩码符串替换后得到的文本。
在本申请实施例中,语义表示模型装置可预先设置多个文本,并将多个文本组合成文本集合,其中,每个文本可包括但不限于词语、短语以及实体等。比如,文本可为“乒乓球”、“清明上河图”、“哈尔滨是黑龙江的省会,国际冰雪文化名城”等。
进一步地,针对文本集合中的每个文本,可获取该文本中待掩码的知识单元,并将知识单元中的每个字符采用一个掩码符进行替换,进而生成替换文本。其中,需要说明的是,掩码符可对多种类型的知识单元的字符进行替换,知识单元可为以下对象中的至少一种,词语、短语和实体。
需要理解是,由于将知识单元中的每个字符采用一个掩码符进行替换,从而知识单元中的多个字符可对应多个掩码符。其中,多个掩码符可构成掩码符串。
举例而言,比如,文本为“哈尔滨是黑龙江的省会,国际冰雪文化名城”,该文本中待掩码的知识单元可为“哈尔滨”、“冰雪”等。将知识单元中的每个字符用一个掩码符进行替换后,生成的替换文本为“XXX是黑龙江的省会,国际XX文化名城”。
步骤102,对替换文本中的掩码符串进行调整以生成文本对应的掩码文本。
在本申请实施例中,可通过补充掩码符的方式对替换文本中的掩码符串进行调整,以生成该文本对应的动态长度的掩码文本。
作为一种示例,可在替换文本中的待补充位置补充添加掩码符,从而生成文本对应的掩码文本。具体可参见后续实施例的描述。
步骤103,根据每个文本对应的掩码文本以及待掩码的知识单元,生成训练文本集合。
步骤104,根据训练文本集合生成语义表示模型。
可以理解,由于深度学习相比于其他机器学习方法在大数据集上的表现更好,因此,在本申请实施例中,可采用深度学习的方式对初始的语义表示模型进行训练,以生成语义表示模型。
可选地,可将每个文本对应的掩码文本以及待掩码的知识单元,作为训练文本集合,采用该训练文本集合对初始的语义表示模型进行训练。作为一种示例,可将每个文本对应的掩码文本作为初始的语义表示模型的输入,将待掩码的知识单元作为初始的语义表示模型的输出,可实现初始的语义表示模型的训练,从而可生成语义表示模型。其中,初始的语义表示模型可为ERNIE模型。
举例而言,如图2所示,图2中的Transformer模型可表示语义表示模型,其中,需要说明的是,Transformer模型可包括encoder(编码)结构,不包括decoder(解码)结构。采用训练文本集合对初始的语义表示模型进行训练,生成语义表示模型,在语义表示模型中输入“XXXX是黑龙江的省XX会,国际XX文化名城”,该语义表示模型后可输出“哈尔滨X,XX,冰雪”。其中,输出的“X”可表示空字符。由此,采用动态长度的掩码,可避免语义表示模型建模过程中文本长度信息泄露的问题,使语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
综上,通过把文本集合中的待掩码的知识单元中的字符采用掩码符串进行替换,并对掩码符串进行调整,生成动态长度的掩码文本,根据文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合,生成语义表示模型。由此,采用动态长度的掩码文本可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
为了避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,在本申请实施例中,可通过获取动态长度的掩码文本,采用文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合,对初始的语义表示模型进行训练。作为一种示例,如图3所示,图3是根据本申请第二实施例的示意图,可在待补充位置补充添加掩码符,从而生成掩码文本,以获取动态长度的掩码文本。图1所述实施例的步骤103还可包括如下步骤:
步骤301,根据掩码符串的位置生成待补充位置。
为了使语义表示模型学到更加多样的位置信息,提高了语义表示模型的位置建模能力,可选地,将替换文本中任意一个掩码符之后的位置,确定为待补充位置;和/或,将替换文本中任意一个字符之后的位置,确定为待补充位置。
也就是说,可将替换文本中任意一个掩码符之后的位置作为掩码符的待补充位置,和/或,将替换文本中任意一个字符之后的位置,作为掩码符的待补充位置。比如,“替换文本为XXX是黑龙江的省会,国际XX文化名城”,可将该文本中任意一个掩码符之后的位置作为掩码符的待补充位置。或者,将该文本中任意一个字符之后的位置,作为掩码符的待补充位置。其中,需要说明的是,待补充位置的数量至少为一个,待补充位置上补充的掩码符的数量至少为一个。由此,可使掩盖的知识单元长度被多余的掩码符掩盖住,从而使语义表示模型学会预测知识单元长度。
步骤302,在待补充位置补充掩码符以生成文本对应的掩码文本。
在本申请实施例中,确定待补充位置后,可在替换文本中的待补充位置补充一个或多个掩码符,将补充掩码符后的替换文本作为掩码文本。
比如,替换文本为“XXX是黑龙江的省会,国际XX文化名城”,待补充位置为替换文本中任意一个掩码符之后的位置,在待补充位置补充掩码符后,生成的掩码文本可为“XXXXX是黑龙江的省会,国际XXXX文化名城”;又比如,替换文本为“XXX是黑龙江的省会,国际XX文化名城”,待补充位置为替换文本中任意一个字符之后的位置,在待补充位置补充掩码符后,生成的掩码文本可为“XXX是黑龙江的省XX会,国际XX文化名城”。
综上,通过掩码符串的位置生成待补充位置,在待补充位置补充掩码符以生成掩码文本,可使掩盖的知识单元长度被多余的掩码符掩盖住,从而使语义表示模型学会预测知识单元长度,避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使语义表示模型学到更加多样的位置信息,增强了语义表示模型的建模能力。
为了提高本申请实施例的可用性及可行性,在本申请实施例中,如图4所示,图4是根据本申请第三实施例的示意图,在根据训练文本集合生成语义表示模型后,可对语义表示模型进行任务场景的训练,生成任务场景下的语义表示模型,使任务场景下的语义表示模型可完成任务场景的分析和预测。图1所述实施例的步骤105之后还可包括:
步骤401,确定语义表示模型的任务场景。
在本申请实施例中,任务场景可包括但不限于自然语言处理技术领域的文本相似度预测、智能问答、情感分析、自然语言推断等,可将任务场景中的任一场景作为语义表示模型的任务场景。
步骤402,获取任务场景下的训练数据,训练数据包括:训练文本以及对应的任务目标。
在本申请实施例中,训练数据中的训练文本可为与任务相关的少量标注数据,该训练文本对应的任务目标为与任务相关的少量标注数据的标注结果。
举例而言,以任务场景为情感分析为例,任务目标为确定情感的正向分数与负向分数,或者情感的正向概率与负向概率,与情感分析相关的少量标注数据可为“口味很不错”、“性价比很低”、“环境很干净、推荐”等,训练数据可为“口味很不错”,对应的任务目标为情感正向,且情感正向概率为90%,情感负向概率为10%、“性价比很低”,对应的任务目标为情感负向,且情感负向概率为90%,情感正向概率为10%,“环境很干净、推荐”,对应的任务目标为情感正向,且情感正向概率为95%,情感负向概率为5%。
步骤403,采用训练数据对语义表示模型进行训练,以生成任务场景下的语义表示模型。
作为一种示例,可将训练数据中的训练文本作为语义表示模型的输入,对应的任务目标作为语义表示模型的输出,从而实现语义表示模型的训练,生成任务场景下的语义表示模型。
为了使本领域技术人员可以更加清楚地了解本申请,现举例进行说明。
举例而言,如图5所示,图5中的任务模型可表示任务场景下的语义表示模型,通用的语义表示可表示语义表示模型,以任务场景为情感分析为例,采用与任务无关的海量文本对初始的语义表示模型进行训练可获得语义表示模型,对语义表示模型采用少量的与任务相关的少量标注数据进行训练,可获得任务场景下的语义表示模型,将文本输入任务场景下的语义表示模型中,可获得对应的任务目标,比如,将文本“这家饭店值得再来”输入任务场景下的语义表示模型,可获得对应的情感正向概率为87%,情感负向概率为13%。由此,可以得出,通过海量的文本对初始的语义表示模型进行训练后,生成语义表示模型,之后,采用任务场景下的训练数据对语义表示模型进行训练后,生成的任务场景下的语义表示模型可完成任务场景的分析和预测。
综上,通过确定语义表示模型的任务场景,并获取任务场景下的训练数据,采用训练数据对语义表示模型进行训练,以生成任务场景下的语义表示模型,可使任务场景下的语义表示模型完成任务场景的分析和预测。
本申请实施例的语义表示模型的生成方法,通过获取文本集合,其中,文本集合包括多个文本,以及每个文本对应的替换文本,替换文本为对文本中待掩码的知识单元进行掩码符串替换后得到的文本;对替换文本中的掩码符串进行调整以生成文本对应的掩码文本;根据每个文本对应的掩码文本以及所述待掩码的知识单元,生成训练文本集合;以及,根据训练文本集合生成语义表示模型,该方法通过把文本集合中的待掩码的知识单元中的字符采用掩码符串进行替换,并对掩码符串进行调整,生成动态长度的掩码文本,根据文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合生成语义表示模型。由此,采用动态长度的掩码文本可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
为了实现上述实施例,本申请实施例还提出一种语义表示模型的生成装置。
图6是根据本申请第四实施例的示意图。如图6所示,该语义表示模型的生成装置600包括:第一获取模块610、调整模块620、第一生成模块630、第二生成模块640。
其中,第一获取模块610,用于获取文本集合,其中,文本集合包括多个文本,以及每个文本对应的替换文本,替换文本为对文本中待掩码的知识单元进行掩码符串替换后得到的文本;调整模块620,用于对替换文本中的掩码符串进行调整以生成掩码文本;第一生成模块630,用于根据每个文本对应的掩码文本以及待掩码的知识单元,生成训练文本集合;第二生成模块640,用于根据训练文本集合生成语义表示模型。
作为本申请实施例的一种可能实现方式,调整模块620用于根据掩码符串的位置生成待补充位置;在待补充位置补充掩码符以生成文本对应的掩码文本。
作为本申请实施例的一种可能实现方式,调整模块620具体用于将替换文本中任意一个掩码符之后的位置,确定为待补充位置;和/或,将替换文本中任意一个字符之后的位置,确定为待补充位置。
作为本申请实施例的一种可能实现方式,待补充位置的数量为至少一个;待补充位置上补充的掩码符的数量为至少一个。
作为本申请实施例的一种可能实现方式,知识单元为以下对象中的至少一种:词语、短语和实体。
作为本申请实施例的一种可能实现方式,如图7所示,在图6所示基础上,语义表示模型的生成装置600还包括:确定模块650、第二获取模块660、任务训练模块670。
其中,确定模块650,用于确定语义表示模型的任务场景;第二获取模块660,用于获取任务场景下的训练数据,训练数据包括:训练文本以及对应的任务目标;任务训练模块670,用于采用训练数据对语义表示模型进行训练,以生成任务场景下的语义表示模型。
本申请实施例的语义表示模型的生成装置,通过获取文本集合,其中,文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对所述文本中待掩码的知识单元进行掩码符串替换后得到的文本;对替换文本中的掩码符串进行调整以生成文本对应的掩码文本;根据每个文本对应的掩码文本以及所述待掩码的知识单元,生成训练文本集合;以及,根据训练文本集合生成语义表示模型,该方法通过把文本集合中的待掩码的知识单元中的字符采用掩码符串进行替换,并对掩码符串进行调整,生成动态长度的掩码文本,根据文本对应的动态长度的掩码文本以及待掩码的知识单元生成的训练文本集合,生成语义表示模型。由此,采用动态长度的掩码文本可避免语义表示模型建模过程中待掩码的知识单元的长度信息泄露的问题,使得语义表示模型能够更加全面地学到文本知识信息,增强了语义表示模型的建模能力。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的语义表示模型的生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语义表示模型的生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语义表示模型的生成方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语义表示模型的生成方法对应的程序指令/模块(例如,附图6所示的第一获取模块610、调整模块620、第一生成模块630、第二生成模块640)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语义表示模型的生成方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语义表示模型的生成的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至语义表示模型的生成的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语义表示模型的生成方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与语义表示模型的生成的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (8)
1.一种语义表示模型的生成方法,包括:
获取文本集合,其中,所述文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对对应的文本中待掩码的知识单元进行掩码符串替换后得到的文本;
对所述替换文本中的所述掩码符串进行调整以生成对应的文本的掩码文本;
根据每个文本对应的所述掩码文本以及所述待掩码的知识单元,生成训练文本集合;以及,
根据所述训练文本集合生成语义表示模型;
所述对所述替换文本中的掩码符串进行调整以生成对应的文本的掩码文本,包括:
根据所述掩码符串的位置生成待补充位置;
在所述待补充位置补充掩码符以生成对应的文本的掩码文本;
所述根据所述掩码符串的位置生成待补充位置,包括:
将所述替换文本中任意一个掩码符之后的位置,确定为所述待补充位置;和/或,
将所述替换文本中任意一个字符之后的位置,确定为所述待补充位置;
所述知识单元为以下对象中的至少一种:词语、短语和实体。
2.根据权利要求1所述的方法,其中,所述待补充位置的数量为至少一个;
所述待补充位置上补充的掩码符的数量为至少一个。
3.根据权利要求1所述的方法,其中,在所述根据所述训练文本集合生成语义表示模型之后,还包括:
确定所述语义表示模型的任务场景;
获取所述任务场景下的训练数据,所述训练数据包括:训练文本以及对应的任务目标;以及,
采用所述训练数据对所述语义表示模型进行训练,以生成所述任务场景下的语义表示模型。
4.一种语义表示模型的生成装置,包括:
第一获取模块,用于获取文本集合,其中,所述文本集合包括多个文本,以及每个文本对应的替换文本,所述替换文本为对对应的文本中待掩码的知识单元进行掩码符串替换后得到的文本;
调整模块,用于对所述替换文本中的所述掩码符串进行调整以生成对应的文本的掩码文本;
第一生成模块,用于根据每个文本对应的所述掩码文本以及所述待掩码的知识单元,生成训练文本集合;
第二生成模块,用于根据所述训练文本集合生成语义表示模型;
所述调整模块用于,
根据所述掩码符串的位置生成待补充位置;
在所述待补充位置补充掩码符以生成对应的文本的掩码文本;
所述调整模块具体用于,
将所述替换文本中任意一个掩码符之后的位置,确定为所述待补充位置;和/或,
将所述替换文本中任意一个字符之后的位置,确定为所述待补充位置;
其中,所述知识单元为以下对象中的至少一种:词语、短语和实体。
5.根据权利要求4所述的装置,其中,所述待补充位置的数量为至少一个;
所述待补充位置上补充的掩码符的数量为至少一个。
6.根据权利要求4所述的装置,其中,所述装置还包括:
确定模块,用于确定所述语义表示模型的任务场景;
第二获取模块,用于获取所述任务场景下的训练数据,所述训练数据包括:训练文本以及对应的任务目标;
任务训练模块,用于采用所述训练数据对所述语义表示模型进行训练,以生成所述任务场景下的语义表示模型。
7. 一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-3中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010589182.6A CN111950293B (zh) | 2020-06-24 | 2020-06-24 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010589182.6A CN111950293B (zh) | 2020-06-24 | 2020-06-24 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111950293A CN111950293A (zh) | 2020-11-17 |
CN111950293B true CN111950293B (zh) | 2023-06-23 |
Family
ID=73337857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010589182.6A Active CN111950293B (zh) | 2020-06-24 | 2020-06-24 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111950293B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580339B (zh) * | 2020-12-18 | 2022-04-05 | 北京百度网讯科技有限公司 | 模型的训练方法、装置、电子设备及存储介质 |
CN112507040B (zh) * | 2020-12-21 | 2023-08-08 | 北京百度网讯科技有限公司 | 多元关系生成模型的训练方法、装置、电子设备及介质 |
CN113239705B (zh) * | 2021-07-12 | 2021-10-29 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置、电子设备和存储介质 |
CN114186564B (zh) * | 2021-11-05 | 2023-11-24 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置以及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103593A (ja) * | 2010-11-12 | 2012-05-31 | Internatl Business Mach Corp <Ibm> | 電子文書中の部分テキストデータをマスクする方法、装置、サーバ及びコンピュータプログラム |
GB201615373D0 (en) * | 2015-11-11 | 2016-10-26 | Adobe Systems Inc | Structured knowledge modeling, extraction and localization from images |
CN107992740A (zh) * | 2016-10-27 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种掩码处理方法及客户端 |
CN110163285A (zh) * | 2019-05-23 | 2019-08-23 | 阳光保险集团股份有限公司 | 票证识别训练样本合成方法和计算机存储介质 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110717339A (zh) * | 2019-12-12 | 2020-01-21 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11200510B2 (en) * | 2016-07-12 | 2021-12-14 | International Business Machines Corporation | Text classifier training |
-
2020
- 2020-06-24 CN CN202010589182.6A patent/CN111950293B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103593A (ja) * | 2010-11-12 | 2012-05-31 | Internatl Business Mach Corp <Ibm> | 電子文書中の部分テキストデータをマスクする方法、装置、サーバ及びコンピュータプログラム |
GB201615373D0 (en) * | 2015-11-11 | 2016-10-26 | Adobe Systems Inc | Structured knowledge modeling, extraction and localization from images |
CN107992740A (zh) * | 2016-10-27 | 2018-05-04 | 腾讯科技(深圳)有限公司 | 一种掩码处理方法及客户端 |
CN110163285A (zh) * | 2019-05-23 | 2019-08-23 | 阳光保险集团股份有限公司 | 票证识别训练样本合成方法和计算机存储介质 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110717339A (zh) * | 2019-12-12 | 2020-01-21 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
Adapting Semantic Segmentation of Urban Scenes via Mask-Aware Gated Discriminator;Yong-Xiang Lin 等;2019 IEEE International Conference on Multimedia and Expo (ICME);全文 * |
基于"双向判断"的横纵切中英文碎纸片拼接;蔡佳慧 等;信息技术;全文 * |
基于ERNIE的命名实体识别;张晓;李业刚;王栋;史树敏;;智能计算机与应用(第03期);全文 * |
基于掩码匹配的报文双抽样方法;夏靖波;孙昱;申健;王少龙;王芳;;空军工程大学学报(自然科学版)(第04期);全文 * |
基于掩码技术的进化加速算法;张荣,郑浩然,黄国锐,王煦法;计算机工程(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111950293A (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111950291B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111598216B (zh) | 学生网络模型的生成方法、装置、设备及存储介质 | |
CN111539227B (zh) | 训练语义表示模型的方法、装置、设备和计算机存储介质 | |
CN111144108B (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN112001180A (zh) | 多模态预训练模型获取方法、装置、电子设备及存储介质 | |
CN111859997B (zh) | 机器翻译中的模型训练方法、装置、电子设备及存储介质 | |
CN111709249B (zh) | 多语种模型的训练方法、装置、电子设备和存储介质 | |
CN112580822B (zh) | 机器学习模型的对抗训练方法装置、电子设备和介质 | |
JP2021197159A (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN113723278B (zh) | 表格信息提取模型的训练方法及装置 | |
CN111667057A (zh) | 用于搜索模型结构的方法和装置 | |
CN111914994B (zh) | 多层感知机的生成方法、装置、电子设备及存储介质 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN112528669B (zh) | 多语言模型的训练方法、装置、电子设备和可读存储介质 | |
CN111079945A (zh) | 端到端模型的训练方法及装置 | |
CN111666751A (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN111680600A (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
CN111539224B (zh) | 语义理解模型的剪枝方法、装置、电子设备和存储介质 | |
CN111539222B (zh) | 语义相似度任务模型的训练方法、装置、设备及存储介质 | |
CN111428489B (zh) | 一种评论生成方法、装置、电子设备及存储介质 | |
KR20220003444A (ko) | 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |