CN116186231A - 一种回复文本的生成方法、装置、存储介质及电子设备 - Google Patents
一种回复文本的生成方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116186231A CN116186231A CN202310448226.7A CN202310448226A CN116186231A CN 116186231 A CN116186231 A CN 116186231A CN 202310448226 A CN202310448226 A CN 202310448226A CN 116186231 A CN116186231 A CN 116186231A
- Authority
- CN
- China
- Prior art keywords
- text
- target
- emotion
- reply
- theme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000008451 emotion Effects 0.000 claims abstract description 242
- 238000004590 computer program Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 description 34
- 238000013145 classification model Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Input From Keyboards Or The Like (AREA)
Abstract
本说明书公开了一种回复文本的生成方法、装置、存储介质及电子设备,包括:获取用户输入的文本,作为目标文本。将目标文本输入预先训练的第一模型,确定目标文本的情感特征,以及将目标文本输入预先训练的第二模型,确定目标文本的主题特征。获取历史上用户输入的文本的情感特征,作为历史情感特征,以及获取历史上用户输入的文本的主题特征,作为历史主题特征。然后,将历史情感特征、情感特征、历史主题特征、主题特征和目标文本输入可控文本生成模型,确定目标文本对应的目标回复文本。使得生成的回复文本更加符合用户输入的文本的情感和主题,使得生成的回复文本更加自然。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种回复文本的生成方法、装置、存储介质及电子设备。
背景技术
随着科技的不断发展,人机对话的应用越来越广泛。其中,人机对话是指让机器理解和运用自然语言实现人机通信的技术。
人机对话通常是接收用户输入的语音、文本等形式的信息,根据用户的输入信息,生成相应的回复文本,以满足用户的需求。可见,在人机对话过程中,回复文本是非常重要的。
基于此,本说明书提供了一种回复文本的生成方法。
发明内容
本说明书提供一种回复文本的生成方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种回复文本的生成方法,包括:
获取用户输入的文本,作为目标文本;
将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征;
获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征;
将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,以及根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题;
将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,具体包括:
将所述历史情感特征和所述情感特征进行拼接;
将拼接后的结果输入第一注意力网络,得到目标情感特征;
将所述目标情感特征输入预先训练的第三模型,得到所述目标文本的目标情感。
可选地,根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题,具体包括:
将所述历史主题特征和所述主题特征进行拼接;
将拼接后的结果输入所述第二模型,得到所述目标文本的目标主题。
可选地,所述可控文本生成模型至少包括编码层、解码层和识别层;
将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
将所述目标文本输入所述可控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本,具体包括:
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,得到所述回复文本的情感和所述回复文本的主题,判断所述回复文本的情感是否与所述目标情感匹配,且所述回复文本的主题是否与所述目标主题匹配;
若均匹配,确定所述回复文本为所述目标文本对应的目标回复文本;
若任一不匹配,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,继续将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本。
可选地,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,具体包括:
确定所述回复文本的情感与所述目标情感之间的差异,作为第一差异,以及确定所述回复文本的主题与所述目标主题之间的差异作为第二差异;
根据所述第一差异和所述第二差异,确定所述可控文本生成模型的损失;
根据所述损失,调整所述可控文本生成模型的编码层和解码层;
将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本,具体包括:
将所述目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本;
将新得到的回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,直到确定出所述目标文本对应的目标回复文本。
可选地,将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
获取预先存储的语料库中的语料;
从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本;
将所述相似文本和所述目标文本进行拼接,并将拼接后的文本输入所述控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本,具体包括:
针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值;
将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值;
采用所述局部敏感哈希算法,确定所述目标文本的哈希值,并将所述目标文本的哈希值划分为所述指定数量个子哈希值,作为所述目标文本的子哈希值;
针对每一个所述目标文本的子哈希值,从各语料的子哈希值中,确定与该所述目标文本的子哈希值相同的子哈希值,作为相同子哈希值;
确定所述相同子哈希值对应的语料,作为相似文本。
本说明书提供了一种回复文本的生成装置,包括:
获取模块,用于获取用户输入的文本,作为目标文本;
第一特征模块,用于将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征;
第二特征模块,用于获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征;
生成模块,用于将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,以及根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题;将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,将所述历史情感特征和所述情感特征进行拼接;将拼接后的结果输入第一注意力网络,得到目标情感特征;将所述目标情感特征输入预先训练的第三模型,得到所述目标文本的目标情感。
可选地,所述生成模块具体用于,将所述历史主题特征和所述主题特征进行拼接;将拼接后的结果输入所述第二模型,得到所述目标文本的目标主题。
可选地,所述可控文本生成模型至少包括编码层、解码层和识别层;
所述生成模块具体用于,将所述目标文本输入所述可控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,得到所述回复文本的情感和所述回复文本的主题,判断所述回复文本的情感是否与所述目标情感匹配,且所述回复文本的主题是否与所述目标主题匹配;若均匹配,确定所述回复文本为所述目标文本对应的目标回复文本;若任一不匹配,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,继续将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,确定所述回复文本的情感与所述目标情感之间的差异,作为第一差异,以及确定所述回复文本的主题与所述目标主题之间的差异作为第二差异;根据所述第一差异和所述第二差异,确定所述可控文本生成模型的损失;根据所述损失,调整所述可控文本生成模型的编码层和解码层;将所述目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本;将新得到的回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,直到确定出所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,获取预先存储的语料库中的语料;从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本;将所述相似文本和所述目标文本进行拼接,并将拼接后的文本输入所述控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块具体用于,针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值;将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值;采用所述局部敏感哈希算法,确定所述目标文本的哈希值,并将所述目标文本的哈希值划分为所述指定数量个子哈希值,作为所述目标文本的子哈希值;针对每一个所述目标文本的子哈希值,从各语料的子哈希值中,确定与该所述目标文本的子哈希值相同的子哈希值,作为相同子哈希值;确定所述相同子哈希值对应的语料,作为相似文本。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述回复文本的生成方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述回复文本的生成方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的回复文本的生成方法,先获取用户输入的文本,作为目标文本。将目标文本输入预先训练的第一模型,确定目标文本的情感特征,以及将目标文本输入预先训练的第二模型,确定目标文本的主题特征。获取历史上用户输入的文本的情感特征,作为历史情感特征,以及获取历史上用户输入的文本的主题特征,作为历史主题特征。然后,将历史情感特征、情感特征、历史主题特征、主题特征和目标文本输入可控文本生成模型,确定目标文本对应的目标回复文本。
从上述方法中可以看出,本申请在生成回复文本时,通过将获取到的目标文本分别输入第一模型以及第二模型,确定目标文本的情感特征和主题特征,以及获取历史上用户输入的文本的历史情感特征和历史主题特征,再将历史情感特征、历史主题特征、情感特征、主题特征和目标文本输入可控文本生成模型的方式,得到目标文本对应的目标回复文本,使得生成的回复文本更加符合用户输入的文本的情感和主题,使得生成的回复文本更加自然。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种回复文本的生成方法的流程示意图;
图2为本说明书中提供的一种模型训练的过程的示意图;
图3为本说明书中提供的一种生成目标回复文本的过程的示意图;
图4为本说明书中提供的另一种生成目标回复文本的过程的示意图;
图5为本说明书提供的一种回复文本的生成装置结构的示意图;
图6为本说明书提供的一种对应于图1的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种回复文本的生成方法的流程示意图,包括以下步骤:
S100:获取用户输入的文本,作为目标文本。
在本说明书中,用于进行回复文本生成的设备获取用户输入的文本,作为目标文本。其中,用于进行回复文本生成的设备可以是服务器,也可以是诸如台式电脑、笔记本电脑等电子设备。为了便于描述,下面仅以服务器为执行主体,对本说明书提供的回复文本的生成方法进行说明。
具体的,服务器可以响应于用户的输入操作,确定用户输入的文本,作为目标文本,还可以采用任意已有的手段获取用户输入的文本,作为目标文本。本说明书不做具体限定。其中,为了减少对用户输入的文本中无意义的内容进行特征提取,使得后续过程中可以快速地确定目标文本的情感、主题和回复文本,服务器可以在确定出用户输入的文本后,对用户输入的文本进行文本处理,将处理后的文本作为目标文本。文本处理可以为去除文本中的特殊字符,比如表情符号,还可以为去除文本中包含的停用词,也可以采用任意已有处理方式对用户输入的文本进行处理,本说明书不做具体限定。
S102:将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征。
服务器可以将目标文本输入预先训练的第一模型,确定目标文本的情感特征,以及将目标文本输入预先训练的第二模型,确定目标文本的主题特征。其中,第一模型为情感分类模型,可以为基于历史上至少一个用户输入的文本预先训练的情感分类模型,也可以为任意已有的情感分类模型。情感可以为Paul Ekman提出的快乐、悲伤、厌恶、恐惧、惊讶和愤怒7种情感。第二模型为主题分类模型,可以为基于历史上至少一个用户输入的文本预先训练的主题分类模型,也可以为任意已有的主题分类模型,比如BERTopic模型。主题可以为宠物、体育、金融、绘画等多种主题。
在基于历史上至少一个用户输入的文本预先训练的情感分类模型时,服务器获取历史上至少一个用户输入的文本作为训练样本,将训练样本输入待训练的情感分类模型,得到输出结果,以训练样本的标注和输出结果之间的差异最小为训练目标,对待训练的情感分类模型进行训练。其中,以训练样本的情感作为标注。待训练的情感分类模型至少包括情感特征提取层,将目标文本输入训练完成的情感分类模型,确定情感分类模型中情感特征提取层输出的情感特征。
在基于历史上至少一个用户输入的文本预先训练的主题分类模型时,服务器获取历史上至少一个用户输入的文本作为训练样本,将训练样本输入待训练的主题分类模型,得到输出结果,以训练样本的标注和输出结果之间的差异最小为训练目标,对待训练的主题分类模型进行训练。其中,以训练样本的主题作为标注。待训练的主题分类模型至少包括主题特征提取层,将目标文本输入训练完成的主题分类模型,确定主题分类模型中主题特征提取层输出的主题特征。
上述确定目标文本的情感特征的过程和确定目标文本的主题特征的过程执行可以不分先后顺序,也可以同时执行确定目标文本的情感特征的过程和确定目标文本的主题特征的过程。
在本说明书中,确定出目标文本的情感特征或者确定出目标文本的主题特征之后,服务器可以将确定出的情感特征或者主题特征保存。
S104:获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征。
服务器可以获取历史上用户输入的文本的情感特征,作为历史情感特征,以及获取历史上用户输入的文本的主题特征,作为历史主题特征。其中,历史上用户输入的文本可以是在用户输入目标文本之前的对话过程中用户输入的文本,也就是可以是在本轮用户输入目标文本之前的对话过程中用户输入的文本,也可以是在历史轮用户输入目标文本之前的对话过程中用户输入的文本,本说明书不做具体限定,只需为在用户输入目标文本之前的对话过程中用户输入的文本即可。本轮为用户输入目标文本所在的这一轮次的对话过程。历史轮为在本轮对话之前的至少一个轮次的对话过程。在人机对话过程中,对话轮次的划分可以以时间为标准,当用户在接收到回复文本之后,在指定时间段内未输入文本,服务器未获取到用户输入的文本,则确定本轮对话结束,将从上一轮次结束的时间开始到此轮结束的时间内的对话过程作为一个轮次。对话轮次的划分也可以以其他任意方式进行划分,本说明书不做具体限定。
上述获取历史情感特征的过程和获取历史主题特征的过程执行可以不分先后顺序,也可以同时执行获取历史情感特征的过程和获取历史主题特征的过程。
另外,上述步骤S102和步骤S104的过程执行可以不分先后顺讯,可以先执行步骤S102的过程,再执行步骤S104的过程。也可以先执行步骤S104的过程,再执行步骤S102的过程。还可以同时执行上述步骤S102和步骤S104的过程。
S106:将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
服务器可以将历史情感特征、情感特征、历史主题特征、主题特征和目标文本输入可控文本生成模型,确定目标文本对应的目标回复文本。其中,可控文本生成模型为用于生成可控文本的模型,通过将控制条件和目标业务数据输入可控文本生成模型,根据控制条件和可控文本生成模型的输出结果,对可控文本生成模型进行训练,直到输出结果满足控制条件,将满足控制条件的输出结果作为目标业务结果。
具体的,服务器可以根据历史情感特征和情感特征,确定目标文本的目标情感,以及根据主题特征和历史主题特征,确定目标文本的目标主题。之后,将目标情感、目标主题和目标文本输入可控文本生成模型确定目标文本的目标回复文本。其中,可控文本生成模型的控制条件可以根据目标情感和目标主题进行确定,具体过程可参见下文的详细描述,本说明在此不做过多描述。
在根据历史情感特征和情感特征,确定目标文本的目标情感时,服务器可以将历史情感特征和情感特征进行拼接,将拼接后的结果输入第一注意力网络,得到目标情感特征,将目标情感特征输入预先训练的第三模型,得到目标文本的目标情感。其中,第一注意力网络和第三模型可以基于历史上至少一个用户输入的文本预先训练。
在上述基于历史上至少一个用户输入的文本预先训练第一注意力网络和第三模型时,如图2所示,图2为本说明书中提供的一种模型训练的过程的示意图,将第n次用户输入的文本的情感特征和前n-1次用户输入的文本的情感特征进行拼接,将拼接后的结果输入第一注意力网络,得到第n次用户输入的文本的目标情感特征。之后,将目标情感特征输入待训练的第三模型,得到输出结果,以输出结果和第n次用户输入的文本的情感之间的差异最小为训练目标,对第一注意力网络和待训练的第三模型进行调整。其中,n为正整数。用户每输入一次文本记为一次,每轮对话至少包括一次用户输入的文本。
在根据历史主题特征和主题特征,确定目标文本的目标主题时,服务器可以将历史主题和主题特征进行拼接,将拼接后的结果输入第二注意力网络,得到目标主题特征,将目标主题特征输入预先训练的第四模型,得到目标文本的目标主题。其中,第二注意力网络和第四模型可以基于历史上至少一个用户输入的文本预先训练。第二注意力网络和第四模型的训练过程与上述第一注意力网络和第三模型的训练过程类似,在此就不再赘述。
另外,若第二模型为包含自注意力网络的模型,比如BERTopic模型。服务器可以将将历史主题和主题特征进行拼接,将拼接后的结果输入第二模型,得到目标文本的目标主题。
从上述方法中可以看出,本申请在生成回复文本时,先获取用户输入的文本,作为目标文本。将目标文本输入预先训练的第一模型,确定目标文本的情感特征,以及将目标文本输入预先训练的第二模型,确定目标文本的主题特征。获取历史上用户输入的文本的情感特征,作为历史情感特征,以及获取历史上用户输入的文本的主题特征,作为历史主题特征。然后,考虑到用户的情感或者主题可能发生细微变化,故将历史情感特征和情感特征进行拼接,将拼接后的结果输入第一注意力网络,得到目标情感特征,再将目标情感特征输入第三模型,得到目标情感。以及,将历史主题特征和主题特征进行拼接,将拼接后的结果输入第二模型,得到目标主题。之后,将目标主题、目标情感和目标文本输入可控文本生成模型,确定目标文本对应的目标回复文本。使得生成的目标回复文本更加符合用户的情感和主题,使得生成的回复文本更加自然,可以更好的表达情感和主题。
在上述步骤S106中,可控文本生成模型至少包括编码层、解码层和识别层,识别层用于识别目标文本的情感和主题,编码层和解码层用于根据输入的目标文本,生成目标文本对应的目标回复文本。故如图3所示,图3为本说明书中提供的一种生成目标回复文本的过程的示意图,服务器可以将目标文本输入可控文本生成模型的编码层,得到可控文本生成模型的解码层输出的回复文本。之后,将回复文本、目标情感和目标主题输入可控文本生成模型的识别层,确定目标文本对应的目标回复文本。
在将回复文本、目标情感和目标主题输入可控文本生成模型的识别层,确定目标文本对应的目标回复文本时,服务器可以将回复文本、目标情感和目标主题输入可控文本生成模型的识别层,得到回复文本的情感和回复文本的主题,判断回复文本的情感是否与目标情感匹配,且回复文本的主题是否与目标主题匹配。若均匹配,确定回复文本为目标文本对应的目标回复文本。若任一不匹配,根据回复文本的情感、目标情感、回复文本的主题和目标主题,调整可控文本生成模型,继续将目标情感、目标主题和目标文本输入调整后的可控文本生成模型,直到确定出目标文本对应的目标回复文本。
其中,可控文本模型的控制条件为回复文本的情感与目标情感是否匹配和回复文本的主题与目标主题是否匹配,当均匹配时,则满足控制条件,将回复文本作为目标文本对应的目标回复文本。当任一不匹配时,则不满足控制条件,需要根据回复文本的情感、目标情感、回复文本的主题和目标主题,调整可控文本生成模型。再根据调整后的可控文本生成模型,确定目标文本对应的目标回复文本。
根据回复文本的情感、目标情感、回复文本的主题和目标主题,调整可控文本生成模型时,服务器可以确定回复文本的情感与目标情感之间的差异,作为第一差异,以及确定回复文本的主题与目标主题之间的差异作为第二差异。之后,根据第一差异和第二差异,确定可控文本生成模型的损失,并根据确定出的损失,调整可控文本生成模型的编码层和解码层。
在将目标情感、目标主题和目标文本输入调整后的可控文本生成模型,直到确定出目标文本对应的目标回复文本时,服务器可以将目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本。之后,将新得到的回复文本、目标情感和目标主题输入可控文本生成模型的识别层,直到确定出目标文本对应的目标回复文本。
通过将与目标文本相似的文本输入可控文本生成模型文本的方式得到回复文本,使得可控文本生成模型不仅可以基于目标文本生成回复文本,还可以基于目标文本和与目标文本相似的文本生成回复文本,增加可控文本生成模型的输入内容的丰富度,使得生成的回复文本更加自然,故在上述步骤S106中,如图4所示,图4为本说明书中提供的另一种生成目标回复文本的过程的示意图,服务器可以获取预先存储的语料库中的语料,从获取到的语料中,确定与目标文本相似的文本,作为相似文本。然后,将相似文本和目标文本进行拼接,并将拼接后的文本输入控文本生成模型的编码层,得到可控文本生成模型的解码层输出的回复文本。之后,将回复文本、目标情感和目标主题输入可控文本生成模型的识别层,确定目标文本对应的目标回复文本。其中,语料库可以为历史上用户输入的文本,也可以为预先收集到的文本,本说明书不做具体限定。
为了快速地在获取到的语料中确定与目标文本相似的文本,服务器可以采用局部敏感哈希算法,确定与目标文本相似的文本。因此,在从获取到的语料中,确定与目标文本相似的文本时,服务器可以针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值,将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值。采用局部敏感哈希算法,确定目标文本的哈希值,并将目标文本的哈希值划分为指定数量个子哈希值,作为目标文本的子哈希值。之后,针对每一个目标文本的子哈希值,从各语料的子哈希值中,确定与该目标文本的子哈希值相同的子哈希值,作为相同子哈希值。再确定相同子哈希值对应的语料,作为相似文本。其中,局部敏感哈希(locality-sensetive hashing,简称LSH)算法为一种对数据进行快速近似查找的算法。
在将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值时,服务器可以确定该语料的哈希值的位数,按照指定的规则,将该语料的哈希值划分为指定数量个子哈希值。目标文本的子哈希值也可以通过上述方式确定,在此就不在赘述。因此,每一个语料对应至少一个子哈希值,目标文本也对应至少一个子哈希值。
在确定相同子哈希值对应的语料,作为相似文本时,由于对于每一个目标文本的子哈希值,可以从各语料的子哈希值中,确定出至少一个与该目标文本的子哈希值相同的子哈希值,作为相同子哈希值。另外,也可能从各语料的子哈希值中,无法确定出至少一个与该目标文本的子哈希值相同的子哈希值,作为相同子哈希值。故服务器可以确定出多个相同子哈希值,针对每一个相同子哈希值,确定该相同子哈希值对应的语料,并将确定出的语料作为相似文本。
例如,假设经过局部敏感哈希算法后得到的哈希值均为64位的哈希值,指定数量为4,语料库中的每一条语料,采用局部敏感哈希算法,确定出的该语料的哈希值为64位的哈希值,将该语料的哈希值划分为4个16位的子哈希值,即part1、part2、part3和part4。目标文本也按照同样方式进行划分得到子哈希值,即part_1、part_2、part_3和part_4。假设确定出的各语料的子哈希值为part1~part8,针对每一个目标文本的子哈希值(即part_1、part_2、part_3和part_4),从各语料的子哈希值(即part1~part8)中,确定与该目标文本的子哈希值相同的子哈希值,作为相同子哈希值。假设part1和part_1的哈希值相同,则part1为相同子哈希值,将相同子哈希值对应的语料作为目标文本的相似文本。
在上述将根据相同子哈希值确定出的语料作为相似文本时,服务器可以在根据相同子哈希值确定出的各语料中,进行随机采用指定数量的语料,作为相似文本。
在本说明书中,服务器可以将确定出目标情感特征和目标主题特征保存。在上述步骤S104获取历史上用户输入的文本的历史情感特征和历史主题特征时,可以将历史上保存的目标情感特征作为历史情感特征,以及将历史上保存的目标主题特征作为历史主题特征。
以上为本说明书的一个或多个实施的方法,基于同样的思路,本说明书还提供了相应的回复文本的生成装置,如图5所示。
图5为本说明书提供的一种的回复文本的生成装置的示意图,包括:
获取模块200,用于获取用户输入的文本,作为目标文本;
第一特征模块202,用于将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征;
第二特征模块204,用于获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征;
生成模块206,用于将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,以及根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题;将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,将所述历史情感特征和所述情感特征进行拼接;将拼接后的结果输入第一注意力网络,得到目标情感特征;将所述目标情感特征输入预先训练的第三模型,得到所述目标文本的目标情感。
可选地,所述生成模块206具体用于,将所述历史主题特征和所述主题特征进行拼接;将拼接后的结果输入所述第二模型,得到所述目标文本的目标主题。
可选地,所述可控文本生成模型至少包括编码层、解码层和识别层;
所述生成模块206具体用于,将所述目标文本输入所述可控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,得到所述回复文本的情感和所述回复文本的主题,判断所述回复文本的情感是否与所述目标情感匹配,且所述回复文本的主题是否与所述目标主题匹配;若均匹配,确定所述回复文本为所述目标文本对应的目标回复文本;若任一不匹配,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,继续将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,确定所述回复文本的情感与所述目标情感之间的差异,作为第一差异,以及确定所述回复文本的主题与所述目标主题之间的差异作为第二差异;根据所述第一差异和所述第二差异,确定所述可控文本生成模型的损失;根据所述损失,调整所述可控文本生成模型的编码层和解码层;将所述目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本;将新得到的回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,直到确定出所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,获取预先存储的语料库中的语料;从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本;将所述相似文本和所述目标文本进行拼接,并将拼接后的文本输入所述控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
可选地,所述生成模块206具体用于,针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值;将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值;采用所述局部敏感哈希算法,确定所述目标文本的哈希值,并将所述目标文本的哈希值划分为所述指定数量个子哈希值,作为所述目标文本的子哈希值;针对每一个所述目标文本的子哈希值,从各语料的子哈希值中,确定与该所述目标文本的子哈希值相同的子哈希值,作为相同子哈希值;确定所述相同子哈希值对应的语料,作为相似文本。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种回复文本的生成方法。
本说明书还提供了图6所示的一种对应于图1的电子设备的示意结构图。如图6所示,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的回复文本的生成方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (20)
1.一种回复文本的生成方法,其特征在于,包括:
获取用户输入的文本,作为目标文本;
将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征;
获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征;
将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
2.如权利要求1所述的方法,其特征在于,将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,以及根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题;
将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
3.如权利要求2所述的方法,其特征在于,根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,具体包括:
将所述历史情感特征和所述情感特征进行拼接;
将拼接后的结果输入第一注意力网络,得到目标情感特征;
将所述目标情感特征输入预先训练的第三模型,得到所述目标文本的目标情感。
4.如权利要求2所述的方法,其特征在于,根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题,具体包括:
将所述历史主题特征和所述主题特征进行拼接;
将拼接后的结果输入所述第二模型,得到所述目标文本的目标主题。
5.如权利要求2所述的方法,其特征在于,所述可控文本生成模型至少包括编码层、解码层和识别层;
将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
将所述目标文本输入所述可控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
6.如权利要求5所述的方法,其特征在于,将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本,具体包括:
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,得到所述回复文本的情感和所述回复文本的主题,判断所述回复文本的情感是否与所述目标情感匹配,且所述回复文本的主题是否与所述目标主题匹配;
若均匹配,确定所述回复文本为所述目标文本对应的目标回复文本;
若任一不匹配,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,继续将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本。
7.如权利要求6所述的方法,其特征在于,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,具体包括:
确定所述回复文本的情感与所述目标情感之间的差异,作为第一差异,以及确定所述回复文本的主题与所述目标主题之间的差异作为第二差异;
根据所述第一差异和所述第二差异,确定所述可控文本生成模型的损失;
根据所述损失,调整所述可控文本生成模型的编码层和解码层;
将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本,具体包括:
将所述目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本;
将新得到的回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,直到确定出所述目标文本对应的目标回复文本。
8.如权利要求2所述的方法,其特征在于,将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本,具体包括:
获取预先存储的语料库中的语料;
从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本;
将所述相似文本和所述目标文本进行拼接,并将拼接后的文本输入所述控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;
将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
9.如权利要求8所述的方法,其特征在于,从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本,具体包括:
针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值;
将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值;
采用所述局部敏感哈希算法,确定所述目标文本的哈希值,并将所述目标文本的哈希值划分为所述指定数量个子哈希值,作为所述目标文本的子哈希值;
针对每一个所述目标文本的子哈希值,从各语料的子哈希值中,确定与该所述目标文本的子哈希值相同的子哈希值,作为相同子哈希值;
确定所述相同子哈希值对应的语料,作为相似文本。
10.一种回复文本的生成装置,其特征在于,包括:
获取模块,用于获取用户输入的文本,作为目标文本;
第一特征模块,用于将所述目标文本输入预先训练的第一模型,确定所述目标文本的情感特征,以及将所述目标文本输入预先训练的第二模型,确定所述目标文本的主题特征;
第二特征模块,用于获取历史上所述用户输入的文本的情感特征,作为历史情感特征,以及获取历史上所述用户输入的文本的主题特征,作为历史主题特征;
生成模块,用于将所述历史情感特征、所述情感特征、所述历史主题特征、所述主题特征和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
11.如权利要求10所述的装置,其特征在于,所述生成模块具体用于,根据所述历史情感特征和所述情感特征,确定所述目标文本的目标情感,以及根据所述历史主题特征和所述主题特征,确定所述目标文本的目标主题;将所述目标情感、所述目标主题和所述目标文本输入可控文本生成模型,确定所述目标文本对应的目标回复文本。
12.如权利要求11所述的装置,其特征在于,所述生成模块具体用于,将所述历史情感特征和所述情感特征进行拼接;将拼接后的结果输入第一注意力网络,得到目标情感特征;将所述目标情感特征输入预先训练的第三模型,得到所述目标文本的目标情感。
13.如权利要求11所述的装置,其特征在于,所述生成模块具体用于,将所述历史主题特征和所述主题特征进行拼接;将拼接后的结果输入所述第二模型,得到所述目标文本的目标主题。
14.如权利要求11所述的装置,其特征在于,所述可控文本生成模型至少包括编码层、解码层和识别层;
所述生成模块具体用于,将所述目标文本输入所述可控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
15.如权利要求14所述的装置,其特征在于,所述生成模块具体用于,将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,得到所述回复文本的情感和所述回复文本的主题,判断所述回复文本的情感是否与所述目标情感匹配,且所述回复文本的主题是否与所述目标主题匹配;若均匹配,确定所述回复文本为所述目标文本对应的目标回复文本;若任一不匹配,根据所述回复文本的情感、所述目标情感、所述回复文本的主题和所述目标主题,调整所述可控文本生成模型,继续将所述目标情感、所述目标主题和所述目标文本输入调整后的可控文本生成模型,直到确定出所述目标文本对应的目标回复文本。
16.如权利要求15所述的装置,其特征在于,所述生成模块具体用于,确定所述回复文本的情感与所述目标情感之间的差异,作为第一差异,以及确定所述回复文本的主题与所述目标主题之间的差异作为第二差异;根据所述第一差异和所述第二差异,确定所述可控文本生成模型的损失;根据所述损失,调整所述可控文本生成模型的编码层和解码层;将所述目标文本输入调整后的编码层,得到调整后的解码层输出的回复文本;将新得到的回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,直到确定出所述目标文本对应的目标回复文本。
17.如权利要求11所述的装置,其特征在于,所述生成模块具体用于,获取预先存储的语料库中的语料;从获取到的语料中,确定与所述目标文本相似的文本,作为相似文本;将所述相似文本和所述目标文本进行拼接,并将拼接后的文本输入所述控文本生成模型的编码层,得到所述可控文本生成模型的解码层输出的回复文本;将所述回复文本、所述目标情感和所述目标主题输入所述可控文本生成模型的识别层,确定所述目标文本对应的目标回复文本。
18.如权利要求17所述的装置,其特征在于,所述生成模块具体用于,针对每一条语料,采用局部敏感哈希算法,确定该语料的哈希值;将该语料的哈希值划分为指定数量个子哈希值,作为该语料的子哈希值;采用所述局部敏感哈希算法,确定所述目标文本的哈希值,并将所述目标文本的哈希值划分为所述指定数量个子哈希值,作为所述目标文本的子哈希值;针对每一个所述目标文本的子哈希值,从各语料的子哈希值中,确定与该所述目标文本的子哈希值相同的子哈希值,作为相同子哈希值;确定所述相同子哈希值对应的语料,作为相似文本。
19.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~9任一项所述的方法。
20.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310448226.7A CN116186231A (zh) | 2023-04-24 | 2023-04-24 | 一种回复文本的生成方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310448226.7A CN116186231A (zh) | 2023-04-24 | 2023-04-24 | 一种回复文本的生成方法、装置、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116186231A true CN116186231A (zh) | 2023-05-30 |
Family
ID=86452474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310448226.7A Pending CN116186231A (zh) | 2023-04-24 | 2023-04-24 | 一种回复文本的生成方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116186231A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216193A (zh) * | 2023-09-26 | 2023-12-12 | 人民网股份有限公司 | 基于大语言模型的可控文本生成方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359183A (zh) * | 2018-10-11 | 2019-02-19 | 南京中孚信息技术有限公司 | 文本信息的查重方法、装置及电子设备 |
CN111899890A (zh) * | 2020-08-13 | 2020-11-06 | 东北电力大学 | 基于比特串哈希的医疗数据相似度检测系统与方法 |
CN114756667A (zh) * | 2022-04-19 | 2022-07-15 | 平安科技(深圳)有限公司 | 基于人工智能的对话生成方法、装置、设备及存储介质 |
CN114780675A (zh) * | 2022-03-29 | 2022-07-22 | 招商银行股份有限公司 | 对话交互方法、装置、设备与介质 |
CN115730051A (zh) * | 2022-09-09 | 2023-03-03 | 平安科技(深圳)有限公司 | 一种文本处理方法和装置、电子设备及存储介质 |
CN115860004A (zh) * | 2022-12-28 | 2023-03-28 | 中孚安全技术有限公司 | 文本语义相似度匹配方法、装置、设备及存储介质 |
-
2023
- 2023-04-24 CN CN202310448226.7A patent/CN116186231A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359183A (zh) * | 2018-10-11 | 2019-02-19 | 南京中孚信息技术有限公司 | 文本信息的查重方法、装置及电子设备 |
CN111899890A (zh) * | 2020-08-13 | 2020-11-06 | 东北电力大学 | 基于比特串哈希的医疗数据相似度检测系统与方法 |
CN114780675A (zh) * | 2022-03-29 | 2022-07-22 | 招商银行股份有限公司 | 对话交互方法、装置、设备与介质 |
CN114756667A (zh) * | 2022-04-19 | 2022-07-15 | 平安科技(深圳)有限公司 | 基于人工智能的对话生成方法、装置、设备及存储介质 |
CN115730051A (zh) * | 2022-09-09 | 2023-03-03 | 平安科技(深圳)有限公司 | 一种文本处理方法和装置、电子设备及存储介质 |
CN115860004A (zh) * | 2022-12-28 | 2023-03-28 | 中孚安全技术有限公司 | 文本语义相似度匹配方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117216193A (zh) * | 2023-09-26 | 2023-12-12 | 人民网股份有限公司 | 基于大语言模型的可控文本生成方法及装置 |
CN117216193B (zh) * | 2023-09-26 | 2024-02-27 | 人民网股份有限公司 | 基于大语言模型的可控文本生成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109992771B (zh) | 一种文本生成的方法及装置 | |
CN113221555B (zh) | 一种基于多任务模型的关键词识别方法、装置及设备 | |
CN115952272B (zh) | 一种生成对话信息的方法、装置、设备及可读存储介质 | |
CN111401062B (zh) | 文本的风险识别方法、装置及设备 | |
CN114860905B (zh) | 意图识别方法、装置及设备 | |
CN112735407B (zh) | 一种对话处理方法及装置 | |
CN112417093B (zh) | 一种模型训练的方法及装置 | |
CN108446266B (zh) | 一种语句拆分的方法、装置及设备 | |
CN115545002A (zh) | 一种模型训练和业务处理的方法、装置、存储介质及设备 | |
CN116186231A (zh) | 一种回复文本的生成方法、装置、存储介质及电子设备 | |
CN117828360A (zh) | 一种模型训练、代码生成方法、装置、存储介质及设备 | |
CN113887227A (zh) | 一种模型训练与实体识别方法及装置 | |
CN112597301A (zh) | 一种语音意图识别方法及装置 | |
CN117369783B (zh) | 一种安全代码生成模型的训练方法及装置 | |
CN117392694B (zh) | 数据处理方法、装置及设备 | |
CN113887235A (zh) | 一种信息推荐的方法及装置 | |
CN116434787B (zh) | 一种语音情感识别的方法、装置、存储介质及电子设备 | |
CN116127328B (zh) | 一种对话状态识别模型的训练方法、装置、介质及设备 | |
CN115620706B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN115017915B (zh) | 一种模型训练、任务执行的方法及装置 | |
CN116522939A (zh) | 数据处理方法、装置及设备 | |
CN116662657A (zh) | 一种模型训练和信息推荐的方法、装置、存储介质及设备 | |
CN116757208A (zh) | 数据处理方法、装置及设备 | |
CN113887234B (zh) | 一种模型训练以及推荐方法及装置 | |
CN115456114A (zh) | 一种模型训练和业务执行的方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230530 |