CN114139524A - 故事文本的预测方法、装置以及电子设备 - Google Patents
故事文本的预测方法、装置以及电子设备 Download PDFInfo
- Publication number
- CN114139524A CN114139524A CN202111435356.4A CN202111435356A CN114139524A CN 114139524 A CN114139524 A CN 114139524A CN 202111435356 A CN202111435356 A CN 202111435356A CN 114139524 A CN114139524 A CN 114139524A
- Authority
- CN
- China
- Prior art keywords
- story
- text
- target
- training
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种故事文本的预测方法、装置以及电子设备,涉及游戏技术领域,缓解了现有技术中判断故事剧情是否达成故事目标的准确率较低的技术问题。该方法包括:响应于针对故事文本的获取事件,确定故事文本中的故事剧情文本以及故事目标文本;利用故事内容连续性预测模型对故事剧情文本和故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果;故事内容连续性预测结果,判断故事剧情文本的故事内容是否达成故事目标文本的故事目标。
Description
技术领域
本申请涉及游戏技术领域,尤其是涉及一种故事文本的预测方法、装置以及电子设备。
背景技术
在目前的一些游戏中,经常需要判定游戏中的故事剧情是否达成一定的故事目标。例如,游戏玩法是玩家需要根据一个给定的故事开头,通过输入一些故事内容引导故事生成模型去生成一些新的剧情,从而使这些剧情能够达成给定的故事目标。目前故事剧情是否达成故事目标的判定方法是利用自然语言处理(Natural Language Processing,NLU)技术方案实现,即将每个故事目标对应到一个意图,然后针对每个意图设计多个话术,然后使用话术数据训练分类模型。在使用时,将故事片段输入到模型中,判断是否触发了特定意图。
但是,对于现有的这种技术方案,其判断故事剧情是否达成故事目标的准确率较低,影响玩家游戏体验。
发明内容
本申请的目的在于提供一种故事文本的预测方法、装置以及电子设备,以缓解现有技术中判断故事剧情是否达成故事目标的准确率较低的技术问题。
第一方面,本申请实施例提供了一种故事文本的预测方法;所述方法包括:
响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本;
利用故事内容连续性预测模型对所述故事剧情文本和所述故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,所述故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果;
根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标。
在一个可能的实现中,所述根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标的步骤,包括:
根据所述故事内容连续性预测结果中的连续性概率,确定所述故事剧情文本的故事内容达成所述故事目标文本的故事目标的达成目标概率。
在一个可能的实现中,所述根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标的步骤,还包括:
如果所述达成目标概率大于预设概率阈值,则确定所述故事剧情文本的故事内容已达成所述故事目标文本的故事目标;
如果所述达成目标概率小于或等于所述预设概率阈值,则确定所述故事剧情文本的故事内容未达成所述故事目标文本的故事目标。
在一个可能的实现中,所述响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本的步骤之前,还包括:
响应于故事的输入操作,确定所述输入操作对应的故事输入文本;
基于指定故事文本和所述故事输入文本,通过故事生成模型生成所述故事剧情文本;
将所述故事剧情文本和所述故事目标文本进行组合,得到所述故事文本。
在一个可能的实现中,所述将所述故事剧情文本和所述故事目标文本进行组合,得到所述故事文本的步骤,包括:
将预设目标文本的表达风格转换为所述故事剧情文本的表达风格,得到所述故事目标文本;
将所述故事剧情文本和所述故事目标文本进行拼接,得到所述故事文本。
在一个可能的实现中,所述训练样本集中的每个训练样本均包含训练文本以及所述训练文本对应的故事内容连续性标签;所述训练样本集中的多个训练样本包括正样本和负样本;所述正样本中的所述故事内容连续性标签为连续标签,所述负样本中的所述故事内容连续性标签为非连续标签。
在一个可能的实现中,还包括:
从指定故事内容连续语料中确定所述正样本中的正训练文本;
对所述正训练文本中的故事内容进行干扰处理,并将干扰处理后的文本作为所述负样本中的负训练文本。
在一个可能的实现中,所述对所述正训练文本中的故事内容进行干扰处理的步骤,包括:
将所述正训练文本中的任一段落文本替换为所述正训练文本中指定段落的文本。
在一个可能的实现中,所述对所述正训练文本中的故事内容进行干扰处理的步骤,包括:
将所述正训练文本中任一段落文本删除。
在一个可能的实现中,所述初始预测模型为下述任意一项:
多层双向编码器(Bidirectional Encoder Representations fromTransformers,bert)模型、稳健优化的bert预训练方法模型(A Robustly Optimized BERTPretraining Approach,Roberta)、机器翻译模型(Transformer模型)。
第二方面,提供了一种故事文本的预测装置,所述装置包括:
确定模块,用于响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本;
预测模块,用于利用故事内容连续性预测模型对所述故事剧情文本和所述故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,所述故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果;
判断模块,用于根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标。
第三方面,本申请实施例又提供了一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法的步骤。
第四方面,本申请实施例又提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可运行指令,所述计算机可运行指令在被处理器调用和运行时,所述计算机可运行指令促使所述处理器运行上述第一方面所述的方法。
本申请实施例带来了以下有益效果:
本申请实施例提供的一种故事文本的预测方法、装置以及电子设备,能够响应于针对故事文本的获取事件,确定故事文本中的故事剧情文本以及故事目标文本,之后利用故事内容连续性预测模型对故事剧情文本和故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果,其中的故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果,进而故事内容连续性预测结果,判断故事剧情文本的故事内容是否达成故事目标文本的故事目标。本方案中,利用训练完成的故事内容连续性预测模型对故事文本中的故事剧情文本和故事目标文本之间的内容连续性进行预测,即预测故事剧情是否能够和故事目标构成连续性良好的故事内容,以此判断故事剧情是否达成故事目标,即只要二者故事内容的衔接是不违和的便可以认定为故事剧情达成故事目标,无需再要求故事剧情和故事目标间具有较高的语义相似度,提高了判断的准确率,缓解了现有技术中判断故事剧情是否达成故事目标的准确率较低的技术问题,使玩家更容易达成故事目标,提高玩家的游戏体验。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的应用场景示意图;
图2示出了本申请实施例提供的一种电子终端的结构示意图;
图3为本申请实施例提供的一种触控终端的使用场景示意图;
图4为本申请实施例提供的一种故事文本的预测方法的流程示意图;
图5为本申请实施例提供的一种故事文本的预测方法实例示意图;
图6为本申请实施例提供的一种判断技术流程示意图;
图7为本申请实施例提供的一种构建正负训练样本的示意图;
图8为本申请实施例提供的一种故事文本的预测装置的结构意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例中所提到的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括其他没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
随着预训练语言模型的快速发展和语言模型规模的增大,几乎所有的自然语言处理任务都取得了显著的进步,例如机器翻译,文本分类,文本生成,文本匹配,知识问答等。文本生成是自然语言处理一个重要方向,其研究和工业化产品也越来越多,比如写作助手、故事生成等。故事生成技术是一项基础的技术,如果需要将故事生成应用到具体的产品中去,就需要围绕故事生成技术设计特定的玩法。例如,玩家和故事生成模型一起围绕一个给定的故事目标进行故事续写。具体玩法是:在给定一个故事开头以后,玩家需要通过输入一些故事内容引导故事生成模型去生成一些新的剧情,这些剧情能够达成事先给定的故事目标。因此,在设计的玩法中,需要一种算法去判断模型生成的故事内容是否达成了故事目标。但是,直接判断生成的故事内容是否达成故事目标效果较差,不能满足产品需求。
目前的目标判断任务一般是采用NLU的技术方案,即将每个故事目标对应到一个意图,然后针对每个意图设计多个话术,然后使用话术数据训练分类模型。在使用时,将故事片段输入到模型中,判断是否触发了特定意图。具体有以下两种实施方案:方案一是基于中文bert模型进行微调,所有的意图使用同一个模型,训练任务是多分类任务,即将任意一句话术分到对应的意图。方案二是每个意图一个小的分类模型判断一段文本是否能够触发当前意图,bert模型用来做特征抽取,然后进行二分类。正样本就是当前意图的话术,负样本可以是其他意图的话术或者其他方式构建,bert模型可以替换为其他中文预训练双向Transformer模型,例如Roberta等。
但是,目前的技术方案在故事目标达成判断的任务中,方案一和方案二都对生成的故事内容的准确性要求非常高,存在着判断生成的故事剧情是否达成故事目标的准确率较低的技术问题,导致玩家很难触发给定的故事目标,影响玩家游戏体验。
基于此,本申请实施例提供了一种故事文本的预测方法、装置以及电子设备,缓解了现有技术中判断故事剧情是否达成故事目标的准确率较低的技术问题。
在本申请其中一种实施例中,故事文本的预测方法可以运行于本地终端设备或者是服务器。当故事文本的预测方法运行于服务器时,该方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,故事文本的预测方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近玩家侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
例如,如图1所示,图1为本申请实施例提供的应用场景示意图。该应用场景可以包括终端设备(例如,手机102)和服务器101,该终端设备可以通过有线网络或无线网络与服务器101进行通信。其中终端设备用于运行虚拟桌面,通过该虚拟桌面,可以与服务器101进行交互。
本实施例的终端设备以手机102为例进行说明。手机102包括射频(RadioFrequency,RF)电路210、存储器220、触摸屏230、处理器240等部件。本领域技术人员可以理解,图2中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。本领领域技术人员可以理解触摸屏230属于用户界面(User Interface,UI),且手机102可以包括比图示或者更少的用户界面。
RF电路210还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobilecommunication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code DivisionMultiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器220可用于存储软件程序以及模块,处理器240通过运行存储在存储器220的软件程序以及模块,从而执行手机102的各种功能应用以及数据处理。存储器220可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据手机102的使用所创建的数据等。此外,存储器220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
触摸屏230可用于显示图形用户界面和接收玩家针对图形用户界面的操作。具体的触摸屏230可包括显示面板和触控面板。其中显示面板可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置。触控面板可收集玩家在其上或附近的接触或者非接触操作(例如,如图3所示,玩家使用手指301、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成预先设定的操作指令。另外,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测玩家的触摸方位、姿势,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成处理器能够处理的信息,再送给处理器240,并能接收处理器240发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板,也可以采用未来发展的任何技术实现触控面板。进一步的,触控面板可覆盖显示面板,玩家可以根据显示面板显示的图形用户界面,在显示面板上覆盖的触控面板上或者附近进行操作,触控面板检测到在其上或附近的操作后,传送给处理器240以确定玩家输入,随后处理器240响应于玩家输入在显示面板上提供相应的视觉输出。另外,触控面板与显示面板可以作为两个独立的部件来实现也可以集成而来实现。
处理器240是手机102的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器220内的软件程序和/或模块,以及调用存储在存储器220内的数据,执行手机102的各种功能和处理数据,从而对手机进行整体监控。
下面结合附图对本申请实施例进行进一步地介绍。
图4为本申请实施例提供的一种故事文本的预测方法的流程示意图。该方法可以应用于电子设备,如图4所示,该方法包括:
步骤S410,响应于针对故事文本的获取事件,确定故事文本中的故事剧情文本以及故事目标文本。
在实际应用中,故事文本由故事剧情文本和故事目标文本组成。其中的故事剧情文本可以包含从多方面获取的文本,例如,如图5所示,故事剧情文本由段落A、段落B以及段落C组成,其中,段落A是指定的故事文本,即系统提前给定好的文本段落。段落B和段落C则是玩家输入的文本,即故事输入文本。段落D是故事目标文本,可以理解为,故事剧情文本的所描写的剧情,应该达到故事目标文本所表示的目标剧情。其中,如图5所示,可以用</s>表示段落之间的间隔,故事剧情文本和故事目标文本之间用<sep>隔开以示区分。
示例性的,段落A的内容可以是:忽然,她听到异响,回头遍看到宋某带着人跑了过来;段落B由玩家输入的内容可以是:“侯爷喊你去侯府一趟。”宋某对着林某某说道;段落C由玩家输入的内容可以是:林某某虽不知为何,但还是决定去一趟;段落D故事目标文本的内容可以是:林某某来到了侯府,看到了那巍峨的大门。
通过段落A、段落B、段落C以及段落D构成了完整的故事文本:忽然,她听到异响,回头遍看到宋某带着人跑了过来。</s>“侯爷喊你去侯府一趟。”宋某对着林某某说道。</s>林某某虽不知为何,但还是决定去一趟。<sep>林某某来到了侯府,看到了那巍峨的大门。
步骤S420,利用故事内容连续性预测模型对故事剧情文本和故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果。
其中,故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果。在实际应用中,训练样本集中的每个训练样本均可以包含训练文本以及训练文本对应的故事内容连续性标签。
本步骤中,系统可以利用故事内容连续性预测模型对故事剧情文本(即段落A、段落B以及段落C)与故事目标文本(即段落D)之间的内容连续性进行预测,得到故事剧情文本(段落A、段落B以及段落C)与故事目标文本(段落D)之间的故事内容连续性预测结果。
步骤S430,根据故事内容连续性预测结果,判断故事剧情文本的故事内容是否达成故事目标文本的故事目标。
示例性的,系统可以根据故事剧情文本(段落A、段落B以及段落C)与故事目标文本(段落D)之间的故事内容连续性预测结果,判断故事剧情文本(段落A、段落B以及段落C)的故事内容是否达成故事目标文本(段落D)的故事目标,即段落A、段落B以及段落C所描写的故事剧情,是否达到段落D所表示的故事目标。
例如,故事剧情文本与故事目标文本之间的故事内容连续性预测结果为具有连续性,则判断故事剧情文本的故事内容达成故事目标文本的故事目标;故事剧情文本与故事目标文本之间的故事内容连续性预测结果为不具有连续性,则判断故事剧情文本的故事内容未达成故事目标文本的故事目标。
本申请实施例中,利用训练完成的故事内容连续性预测模型对故事文本中的故事剧情文本和故事目标文本之间的内容连续性进行预测,即预测故事剧情是否能够和故事目标构成连续性良好的故事内容,以此判断故事剧情是否达成故事目标,即只要二者故事内容的衔接是不违和的便可以认定为故事剧情达成故事目标,无需再要求故事剧情和故事目标间具有较高的语义相似度,提高了判断的准确率,缓解了现有技术中判断故事剧情是否达成故事目标的准确率较低的技术问题,使玩家更容易达成故事目标,提高玩家的游戏体验。
下面对上述步骤进行详细介绍。
在一些实施例中,本方法可以通过较为灵活的方式判断故事剧情文本的故事内容是否达成故事目标文本的故事目标,而不是死板的要求内容一模一样,进而提高的判断准确度,例如通过预测故事内容的连续性概率从而确定达成目标概率,无需要求故事剧情和故事目标间具有较高的语义相似度。作为一个示例,上述步骤S430具体可以包括如下步骤:
步骤a),根据故事内容连续性预测结果中的连续性概率,确定故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率。
示例性的,系统利用故事内容连续性预测模型得到的预测结果中包括连续性概率,系统可以根据连续性概率,确定故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率。例如,段落A、段落B以及段落C与段落D之间的连续性概率为80%,则系统可以确定故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率为80%。
通过根据故事内容连续性预测结果中的连续性概率,确定故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率,可以通过较为灵活的方式判断故事剧情文本的故事内容是否达成故事目标文本的故事目标,而不是死板的要求内容一模一样,进而提高的判断准确度。
基于上述步骤a),本方法通过比较数值的方式可以较为准确的判断故事剧情文本的故事内容是否达成故事目标文本的故事目标,例如将达成目标概率于预设概率阈值相对比,从而根据对比结果确定是否达成故事目标文本的故事目标。而且,预设概率阈值可以根据不同场景情况而设置不同值,使判断方式更加灵活的适合于不同场景的情况。作为一个示例,上述步骤S430还可以包括如下步骤:
步骤b),如果达成目标概率大于预设概率阈值,则确定故事剧情文本的故事内容已达成故事目标文本的故事目标。
步骤c),如果达成目标概率小于或等于预设概率阈值,则确定故事剧情文本的故事内容未达成故事目标文本的故事目标。
示例性的,段落A、段落B以及段落C与段落D之间的连续性概率为80%,则故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率为80%。假设预设概率阈值为70%,通过比较,达成目标概率大于预设概率阈值,则可以确定故事剧情文本的故事内容已达成故事目标文本的故事目标。如果段落A、段落B以及段落C与段落D之间的连续性概率为65%,则故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率为65%,通过比较,达成目标概率小于预设概率阈值,则可以确定故事剧情文本的故事内容未达成故事目标文本的故事目标。
需要说明的是,预设概率阈值可以为任何值,本申请实施例以70%为例进行说明,预设概率阈值可以根据具体情况具体调整数值,本申请实施例不作限定。
如图6所示,将达成目标概率于预设概率阈值相对比,如果达成目标概率大于预设概率阈值,则确定故事剧情文本的故事内容已达成故事目标文本的故事目标;如果达成目标概率小于或等于预设概率阈值,则确定故事剧情文本的故事内容未达成故事目标文本的故事目标,通过比较数值的方式可以较为准确的判断故事剧情文本的故事内容是否达成故事目标文本的故事目标。
在一些实施例中,本方法可以通过将玩家输入的文本与指定的文本相结合,如故事剧情文本由用户输入和故事上下文结合生成,从而基于给定的开头和结尾得到完整的故事文本并作为判断基础,进而有助于联系上下文得到更准确的判断结果。作为一个示例,在上述步骤S410之前,该方法还可以包括如下步骤:
步骤d),响应于故事的输入操作,确定输入操作对应的故事输入文本。
步骤e),基于指定故事文本和故事输入文本,通过故事生成模型生成故事剧情文本。
步骤f),将故事剧情文本和故事目标文本进行组合,得到故事文本。
示例性的,如图5所示,系统响应于玩家针对故事的输入操作,确定输入操作对应的故事输入文本(段落B和段落C)。之后基于指定故事文本(段落A)和故事输入文本,通过故事生成模型生成故事剧情文本。进而将故事剧情文本和故事目标文本(段落D)进行组合,得到故事文本。
通过在给定一个故事开头以后,将玩家输入的一些故事内容添加至文本中,通过故事生成模型去生成一些新的剧情,并将这些剧情与事先给定的故事目标相组合得到故事文本,进而有助于联系上下文得到准确的判断结果。
基于上述步骤d)、步骤e)和步骤f),本方法可以通过较为灵活的方式使全部文本的表现方式、写作风格等相似统一,避免写作风格导致系统的误判,进而提高判断的准确率。作为一个示例,上述步骤f),具体可以包括如下步骤:
步骤g),将预设目标文本的表达风格转换为故事剧情文本的表达风格,得到故事目标文本。
步骤h),将故事剧情文本和故事目标文本进行拼接,得到故事文本。
示例性的,以上述的“林某某到侯府”的故事剧情为例,该故事剧情文本的故事表现方式为古风小说风格。预设目标文本为“林某某到侯府”,但其表现方式过于简单直白,需要将其表现方式转化为更具文学性的写法,使故事表现方式变得相似统一,即可以得到故事目标文本(段落D):林某某来到了侯府,看到了那巍峨的大门。之后将故事剧情文本(段落A、段落B和段落C)和故事目标文本(段落D)进行拼接,即可得到故事文本。
通过将预设目标文本的表达风格转换为故事剧情文本的表达风格,得到故事目标文本,得到故事目标文本,之后将故事剧情文本和故事目标文本进行拼接,得到故事文本。可以通过较为灵活的方式,将全部文本的表现方式、表达风格变得相似统一,进而提高判断的准确率,避免表达风格导致系统的误判。
在一些实施例中,本方法可以通过为训练样本集中的每个训练样本添加故事内容连续性标签,不同的标签将训练样本集中的样本划分为正负两个样本,有助于对初始预测模型进行训练,进而提高训练后的故事内容连续性预测模型的预测准确率。作为一个示例,训练样本集中的每个训练样本均包含训练文本以及训练文本对应的故事内容连续性标签;训练样本集中的多个训练样本包括正样本和负样本;正样本中的故事内容连续性标签为连续标签,负样本中的故事内容连续性标签为非连续标签。
示例性的,正样本是指属于某一类别的样本,负样本是指不属于某一类别的样本。例如,对一张图片进行分类,以确定其是否属于汽车,那么在训练的时候,汽车的图片则为正样本,为其添加汽车的标签,负样本原则上可以选取任何不是汽车的其他图片,为其添加非汽车的标签,这样就可以训练出来一个汽车的分类网络。同理,可以对训练样本集中的每个训练样本添加是否连续的标签,正样本中的故事内容连续性标签为连续标签,负样本中的故事内容连续性标签为非连续标签。
通过为训练样本集中的每个训练样本添加故事内容连续性标签,不同的标签将训练样本集中的样本划分为正负两个样本,有助于对初始预测模型进行训练,进而提高判断的准确率。
在一些实施例中,本方法可以较为灵活且简便的构建负样本,即使用无监督的方法构建负训练文本,无需针对故事目标创作对应的话术,例如,可以将指定故事内容作为正训练文本,然后针对正训练文本中的故事内容进行干扰处理,进而得到负训练文本,而且这样得到的负训练文本的干扰性更强,可以提高针对模型的训练质量,进而提高训练后的模型预测的准确率。作为一个示例,该方法还可以包括如下步骤:
步骤i),从指定故事内容连续语料中确定正样本中的正训练文本。
步骤j),对正训练文本中的故事内容进行干扰处理,并将干扰处理后的文本作为负样本中的负训练文本。
示例性的,如图7所示,段落1、段落2、段落3、段落4和段落5可以为指定故事内容中的连续语料,例如,从某一篇小说中选取一段连续的文本作为正样本中的正训练文本。如果采用Roberta模型训练,因为Roberta模型最大上下文长度是512,所以的训练数据的最大长度不能超过512。考虑到进行目标判断的剧情长度可能比较短,所有构造样本时需要构造一些比较短的训练样本,例如设定最短样本长度为200。因此构造每一个样本,先从200-500随机采样得到样本目标长度。首先构造正样本,将一本小说按照行(段落)进行遍历,将每一段放入到队列Q中,在放入之前统计队列中所有段落的总字数,如果超过了目标长度,则停止放入。如果队列内段落数超过3个,先将前面的数个段落使用</s>连接成故事输入,然后将最后一个段落和故事输入连接,形成一个样本。然后清空队列,准备下一个样本。如果队列内段落数少于3个,则清空队列,重新开始。
在实际应用中,如图7所示,段落1的内容可以是:林某某忽然起了一个坏念头,将剩余的花糜反手按到了方某某的手上;段落2的内容可以是:方某某喊道:“你给我放手。”;段落3的内容可以是:方某某用力甩开了手,但只是一小会儿,他的手就被染成了淡红色;段落4的内容可以是:方某某骤然恼火,拂袖而去;段落5的内容可以是:林某某自知玩笑开大了,忙追上去道歉。
因此,可以得到正训练文本:林某某忽然起了一个坏念头,将剩余的花糜反手按到了方某某的手上。</s>方某某喊道:“你给我放手。”。</s>方某某用力甩开了手,但只是一小会儿,他的手就被染成了淡红色。</s>方某某骤然恼火,拂袖而去。<sep>林某某自知玩笑开大了,忙追上去道歉。之后可以对上述故事内容进行干扰处理,并将干扰处理后的文本作为负样本中的负训练文本。
通过从指定故事内容连续语料中确定正样本中的正训练文本,并对正训练文本中的故事内容进行干扰处理,将干扰处理后的文本作为负样本中的负训练文本。可以较为灵活且简便的构建负样本,即使用无监督的方法构建负训练文本,无需针对故事目标创作对应的话术,而且这样得到的负训练文本的干扰性更强,可以提高针对模型的训练质量,进而提高判断的准确率。
基于上述步骤i)和步骤j),本方法可以通过多种方式灵活的构建负训练文本,从而可以得到多样化的负训练文本,使负训练文本的干扰性更强,从而提高训练质量,进而提高判断的准确率,例如通过针对正训练文本中的部分段落进行段落替换,得到负训练文本。作为一个示例,上述步骤j)具体可以包括如下步骤:
步骤k),将正训练文本中的任一段落文本替换为正训练文本中指定段落的文本。
示例性的,首先按照行进行遍历,把一本书的所有行都放到一个列表U中。然后按照构造正样本的方法,生成样本队列。然后对正样本进行干扰,产生负样本。第一种干扰处理方法:从列表U中随机采样一个段落,替换队列Q中的最后一个段落。
在实际应用中,如图7中负样本-方法一所示,将原来的段落5替换为小说中除最后一段落文本以外的其他文本,即除段落5以外的其他段落,例如段落8:林某某寻了一处糖水铺子刚坐下,便听到有人在谈论荔枝。
因此,可以得到负训练文本:林某某忽然起了一个坏念头,将剩余的花糜反手按到了方某某的手上。</s>方某某喊道:“你给我放手。”。</s>方某某用力甩开了手,但只是一小会儿,他的手就被染成了淡红色。</s>方某某骤然恼火,拂袖而去。<sep>林某某寻了一处糖水铺子刚坐下,便听到有人在谈论荔枝。
通过将正训练文本中的任一段落文本替换为正训练文本中指定段落的文本,可以灵活的构建负训练文本,从而可以得到多样化的负训练文本,而且使用同一文章中的内容作为干扰,无需针对故事目标创作对应的话术,使负训练文本的干扰性更强,从而提高训练质量,进而提高判断的准确率。
基于上述步骤i)和步骤j),本方法可以通过多种方式灵活的构建负训练文本,从而可以得到多样化的负训练文本,使负训练文本的干扰性更强,从而提高训练质量,进而提高判断的准确率,例如通过针对正训练文本中的部分段落进行段落删除,得到负训练文本。作为另一个示例,上述步骤j)具体可以包括如下步骤:
步骤l),将正训练文本中任一段落文本删除。
在实际应用中,第二种干扰处理方法包含将队列Q中倒数第二个段落删除。示例性的,如图7中负样本-方法二所示,将原来倒数第二个段落,即段落4进行删除。因此,可以得到负训练文本:林某某忽然起了一个坏念头,将剩余的花糜反手按到了方某某的手上。</s>方某某喊道:“你给我放手。”。</s>方某某用力甩开了手,但只是一小会儿,他的手就被染成了淡红色。<sep>林某某自知玩笑开大了,忙追上去道歉。之后可以对上述故事内容进行干扰处理,并将干扰处理后的文本作为负样本中的负训练文本。在实际操作过程中,两种干扰处理方法的概率比例可以是7:3。然后,将队列Q拼接成输入。构造的负样本必须满足样本长度约束,如果不满足,那么重新生成。
需要说明的是,两种干扰处理方法的概率比例可以是任何比例,本申请实施例以7:3为例进行说明,两种干扰处理方法的概率比例可以根据具体情况具体调整比例,本申请实施例不作限定。
通过将正训练文本中任一段落文本删除,可以灵活的构建负训练文本,从而可以得到多样化的负训练文本,而且使用同一文章中的内容作为干扰,无需针对故事目标创作对应的话术,使负训练文本的干扰性更强,从而提高训练质量,进而提高判断的准确率。
在一些实施例中,初始预测模型可以包括多种模型类型,从而可以较为灵活的利用不同的模型针对故事内容连续性进行预测,得到准确的预测结果,进而提高判断生成的故事剧情是否达成故事目标的准确率。示例性的,初始预测模型为下述任意一项:
Roberta模型、bert模型、Transformer模型。
作为一种示例,初始预测模型包括bert,bert模型是一个预训练语言表示模型,总体结构上非常简洁,具有强大的学习能力和性能。同时,模型的简洁也保证了其计算效率,是完成大规模数据处理的基础。bert模型针对训练样本集,按照<类目,搜索目标文本>的方式进行组织,进行模型训练,得到模型的结果。
作为另一种示例,初始预设模型可以包括Roberta模型。其作为一种稳健优化的bert预训练方法模型,对bert模型做了若干改进。Roberta模型在众多数据集上的效果相较于bert可以提高5%-20%。
作为另一种示例,初始预测模型包括Transformer模型。Transformer模型基于编码器-解码器架构,整合了卷积神经网络以及循环神经网络的优势,在性能优异的同时大大减少了训练时间。
在实际应用中,以Roberta模型为例,对中文Roberta模型进行微调,得到最终的故事内容连续性预测模型。Roberta模型不是从头开始训练,而是在预训练好的模型基础上进行微调。预训练语言模型是使用大量的小说进行训练的Roberta模型,该模型是掩码语言模型,即将一段文本挖掉一部分词,然后让模型去预测这些挖去的词,并对预测词的概率计算极大似然估计(Maximum Likelihood Estimate,MLE)损失优化模型参数。因为Roberta模型是双向模型,所以能够很好的学习上下文的表示。
通过使初始预测模型包括多种模型类型,从而可以较为灵活的利用不同的模型针对故事内容连续性进行预测,得到准确的预测结果,进而提高判断生成的故事剧情是否达成故事目标的准确率。
图8提供了一种故事文本的预测装置800的结构示意图。其中,该装置可以应用于可运行游戏程序的电子设备,通过终端设备提供图形用户界面。如图8,故事文本的预测装置800包括:
确定模块801,用于响应于针对故事文本的获取事件,确定故事文本中的故事剧情文本以及故事目标文本。
预测模块802,用于利用故事内容连续性预测模型对故事剧情文本和故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果。
判断模块803,用于根据故事内容连续性预测结果,判断故事剧情文本的故事内容是否达成故事目标文本的故事目标。
在一些实施例中,判断模块803具体用于:
根据故事内容连续性预测结果中的连续性概率,确定故事剧情文本的故事内容达成故事目标文本的故事目标的达成目标概率。
在一些实施例中,该装置还包括:
确定模块,用于如果达成目标概率大于预设概率阈值,则确定故事剧情文本的故事内容已达成故事目标文本的故事目标;
如果达成目标概率小于或等于预设概率阈值,则确定故事剧情文本的故事内容未达成故事目标文本的故事目标。
在一些实施例中,该装置还包括:
生成模块,用于响应于针对故事文本的获取事件,确定故事文本中的故事剧情文本以及故事目标文本之前,响应于故事的输入操作,确定输入操作对应的故事输入文本;
基于指定故事文本和故事输入文本,通过故事生成模型生成故事剧情文本;
将故事剧情文本和故事目标文本进行组合,得到故事文本。
在一些实施例中,生成模块具体用于:
将预设目标文本的表达风格转换为故事剧情文本的表达风格,得到故事目标文本;
将故事剧情文本和故事目标文本进行拼接,得到故事文本。
在一些实施例中,训练样本集中的每个训练样本均包含训练文本以及训练文本对应的故事内容连续性标签;训练样本集中的多个训练样本包括正样本和负样本;正样本中的故事内容连续性标签为连续标签,负样本中的故事内容连续性标签为非连续标签。
在一些实施例中,该装置还包括:
干扰模块,用于从指定故事内容连续语料中确定正样本中的正训练文本;
对正训练文本中的故事内容进行干扰处理,并将干扰处理后的文本作为负样本中的负训练文本。
在一些实施例中,干扰模块具体用于:
将正训练文本中的任一段落文本替换为正训练文本中指定段落的文本。
在一些实施例中,干扰模块具体用于:
将正训练文本中任一段落文本删除。
在一些实施例中,初始预测模型为下述任意一项:
Roberta模型、bert模型、Transformer模型。
本申请实施例提供的故事文本的预测装置,与上述实施例提供的故事文本的预测方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
对应于上述故事文本的预测方法,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质储存有计算机可运行指令,所述计算机可运行指令在被处理器调用和运行时,所述计算机可运行指令促使所述处理器运行上述故事文本的预测方法的步骤。
本申请实施例所提供的故事文本的预测装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本申请实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的系统、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
再例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述故事文本的预测方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种故事文本的预测方法,其特征在于,所述方法包括:
响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本;
利用故事内容连续性预测模型对所述故事剧情文本和所述故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,所述故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果;
根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标。
2.根据权利要求1所述的方法,其特征在于,所述根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标的步骤,包括:
根据所述故事内容连续性预测结果中的连续性概率,确定所述故事剧情文本的故事内容达成所述故事目标文本的故事目标的达成目标概率。
3.根据权利要求2所述的方法,其特征在于,所述根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标的步骤,还包括:
如果所述达成目标概率大于预设概率阈值,则确定所述故事剧情文本的故事内容已达成所述故事目标文本的故事目标;
如果所述达成目标概率小于或等于所述预设概率阈值,则确定所述故事剧情文本的故事内容未达成所述故事目标文本的故事目标。
4.根据权利要求1所述的方法,其特征在于,所述响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本的步骤之前,还包括:
响应于故事的输入操作,确定所述输入操作对应的故事输入文本;
基于指定故事文本和所述故事输入文本,通过故事生成模型生成所述故事剧情文本;
将所述故事剧情文本和所述故事目标文本进行组合,得到所述故事文本。
5.根据权利要求4所述的方法,其特征在于,所述将所述故事剧情文本和所述故事目标文本进行组合,得到所述故事文本的步骤,包括:
将预设目标文本的表达风格转换为所述故事剧情文本的表达风格,得到所述故事目标文本;
将所述故事剧情文本和所述故事目标文本进行拼接,得到所述故事文本。
6.根据权利要求1所述的方法,其特征在于,所述训练样本集中的每个训练样本均包含训练文本以及所述训练文本对应的故事内容连续性标签;所述训练样本集中的多个训练样本包括正样本和负样本;所述正样本中的所述故事内容连续性标签为连续标签,所述负样本中的所述故事内容连续性标签为非连续标签。
7.根据权利要求6所述的方法,其特征在于,还包括:
从指定故事内容连续语料中确定所述正样本中的正训练文本;
对所述正训练文本中的故事内容进行干扰处理,并将干扰处理后的文本作为所述负样本中的负训练文本。
8.根据权利要求7所述的方法,其特征在于,所述对所述正训练文本中的故事内容进行干扰处理的步骤,包括:
将所述正训练文本中的任一段落文本替换为所述正训练文本中指定段落的文本。
9.根据权利要求7所述的方法,其特征在于,所述对所述正训练文本中的故事内容进行干扰处理的步骤,包括:
将所述正训练文本中任一段落文本删除。
10.根据权利要求1所述的方法,其特征在于,所述初始预测模型为下述任意一项:
Roberta模型、bert模型、Transformer模型。
11.一种中故事文本的预测装置,其特征在于,所述装置包括:
确定模块,用于响应于针对所述故事文本的获取事件,确定所述故事文本中的故事剧情文本以及故事目标文本;
预测模块,用于利用故事内容连续性预测模型对所述故事剧情文本和所述故事目标文本之间的内容连续性进行预测,得到故事内容连续性预测结果;其中,所述故事内容连续性预测模型是利用训练样本集对初始预测模型进行训练后得到的模型训练结果;
判断模块,用于根据所述故事内容连续性预测结果,判断所述故事剧情文本的故事内容是否达成所述故事目标文本的故事目标。
12.一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至10任一项所述的方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可运行指令,所述计算机可运行指令在被处理器调用和运行时,所述计算机可运行指令促使所述处理器运行所述权利要求1至10任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435356.4A CN114139524B (zh) | 2021-11-29 | 2021-11-29 | 故事文本的预测方法、装置以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435356.4A CN114139524B (zh) | 2021-11-29 | 2021-11-29 | 故事文本的预测方法、装置以及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114139524A true CN114139524A (zh) | 2022-03-04 |
CN114139524B CN114139524B (zh) | 2022-09-13 |
Family
ID=80389113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111435356.4A Active CN114139524B (zh) | 2021-11-29 | 2021-11-29 | 故事文本的预测方法、装置以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114139524B (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300748A1 (en) * | 2015-04-02 | 2017-10-19 | Scripthop Llc | Screenplay content analysis engine and method |
CN107341143A (zh) * | 2017-05-26 | 2017-11-10 | 北京奇艺世纪科技有限公司 | 一种句子连贯性判断方法及装置和电子设备 |
CN107423282A (zh) * | 2017-05-24 | 2017-12-01 | 南京大学 | 基于混合特征的文本中语义连贯性主题与词向量并发提取方法 |
CN108897852A (zh) * | 2018-06-29 | 2018-11-27 | 北京百度网讯科技有限公司 | 对话内容连贯性的判断方法、装置以及设备 |
CN108920644A (zh) * | 2018-06-29 | 2018-11-30 | 北京百度网讯科技有限公司 | 对话连贯性的判断方法、装置、设备及计算机可读介质 |
CN110227267A (zh) * | 2019-06-28 | 2019-09-13 | 百度在线网络技术(北京)有限公司 | 语音技能游戏编辑方法、装置、设备及可读存储介质 |
CN110309256A (zh) * | 2018-03-09 | 2019-10-08 | 北京国双科技有限公司 | 一种文本中事件数据的获取方法及装置 |
CN111414736A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN111737961A (zh) * | 2020-06-28 | 2020-10-02 | 网易(杭州)网络有限公司 | 一种故事生成的方法、装置、计算机设备和介质 |
CN111737983A (zh) * | 2020-06-22 | 2020-10-02 | 网易(杭州)网络有限公司 | 文本写作风格处理方法、装置、设备及存储介质 |
CN111753508A (zh) * | 2020-06-29 | 2020-10-09 | 网易(杭州)网络有限公司 | 文字作品的内容生成方法、装置和电子设备 |
CN112395842A (zh) * | 2020-12-01 | 2021-02-23 | 中山大学 | 一种提高内容一致性的长文本故事生成方法及系统 |
CN112528637A (zh) * | 2020-12-11 | 2021-03-19 | 平安科技(深圳)有限公司 | 文本处理模型训练方法、装置、计算机设备和存储介质 |
CN112541514A (zh) * | 2019-09-20 | 2021-03-23 | 顺丰科技有限公司 | 事件发布方法、服务器、终端及存储介质 |
CN112686023A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 文本数据处理方法、装置、电子设备及存储介质 |
CN112966712A (zh) * | 2021-02-01 | 2021-06-15 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
-
2021
- 2021-11-29 CN CN202111435356.4A patent/CN114139524B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170300748A1 (en) * | 2015-04-02 | 2017-10-19 | Scripthop Llc | Screenplay content analysis engine and method |
CN107423282A (zh) * | 2017-05-24 | 2017-12-01 | 南京大学 | 基于混合特征的文本中语义连贯性主题与词向量并发提取方法 |
CN107341143A (zh) * | 2017-05-26 | 2017-11-10 | 北京奇艺世纪科技有限公司 | 一种句子连贯性判断方法及装置和电子设备 |
CN110309256A (zh) * | 2018-03-09 | 2019-10-08 | 北京国双科技有限公司 | 一种文本中事件数据的获取方法及装置 |
CN108897852A (zh) * | 2018-06-29 | 2018-11-27 | 北京百度网讯科技有限公司 | 对话内容连贯性的判断方法、装置以及设备 |
CN108920644A (zh) * | 2018-06-29 | 2018-11-30 | 北京百度网讯科技有限公司 | 对话连贯性的判断方法、装置、设备及计算机可读介质 |
CN110227267A (zh) * | 2019-06-28 | 2019-09-13 | 百度在线网络技术(北京)有限公司 | 语音技能游戏编辑方法、装置、设备及可读存储介质 |
CN112541514A (zh) * | 2019-09-20 | 2021-03-23 | 顺丰科技有限公司 | 事件发布方法、服务器、终端及存储介质 |
CN111414736A (zh) * | 2020-03-23 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 故事生成模型训练方法、装置、设备及存储介质 |
CN111737983A (zh) * | 2020-06-22 | 2020-10-02 | 网易(杭州)网络有限公司 | 文本写作风格处理方法、装置、设备及存储介质 |
CN111737961A (zh) * | 2020-06-28 | 2020-10-02 | 网易(杭州)网络有限公司 | 一种故事生成的方法、装置、计算机设备和介质 |
CN111753508A (zh) * | 2020-06-29 | 2020-10-09 | 网易(杭州)网络有限公司 | 文字作品的内容生成方法、装置和电子设备 |
CN112395842A (zh) * | 2020-12-01 | 2021-02-23 | 中山大学 | 一种提高内容一致性的长文本故事生成方法及系统 |
CN112528637A (zh) * | 2020-12-11 | 2021-03-19 | 平安科技(深圳)有限公司 | 文本处理模型训练方法、装置、计算机设备和存储介质 |
CN112686023A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 文本数据处理方法、装置、电子设备及存储介质 |
CN112966712A (zh) * | 2021-02-01 | 2021-06-15 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114139524B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334360B (zh) | 机器翻译方法及装置、电子设备及存储介质 | |
KR102596446B1 (ko) | 모바일 디바이스들에서의 모달리티 학습 | |
CN110890093B (zh) | 一种基于人工智能的智能设备唤醒方法和装置 | |
EP3268955B1 (en) | Interactive reformulation of speech queries | |
CN108021572B (zh) | 回复信息推荐方法和装置 | |
US8370143B1 (en) | Selectively processing user input | |
WO2018118546A1 (en) | Systems and methods for an emotionally intelligent chat bot | |
CN110570840B (zh) | 一种基于人工智能的智能设备唤醒方法和装置 | |
WO2017040436A1 (en) | Distributed server system for language understanding | |
KR101484583B1 (ko) | 대체 점수를 사용하여 사전-내에-없는 문자열들의 제스처 키보드 입력 | |
CN107544684B (zh) | 一种候选词显示方法及装置 | |
CN110249325A (zh) | 具有通信模型的输入系统 | |
CN111797216B (zh) | 检索项改写方法、装置、设备以及存储介质 | |
CN110023930B (zh) | 利用神经网络和在线学习的语言数据预测 | |
CN110069769B (zh) | 应用标签生成方法、装置及存储设备 | |
CN111539212A (zh) | 文本信息处理方法、装置、存储介质及电子设备 | |
CN111881254A (zh) | 话术生成方法、装置、电子设备及存储介质 | |
WO2022257840A1 (zh) | 信息显示方法、装置、电子设备及可读存储介质 | |
CN113053388A (zh) | 语音交互方法、装置、设备和存储介质 | |
CN114399772B (zh) | 样本生成、模型训练和轨迹识别方法、装置、设备和介质 | |
US9189158B2 (en) | Methods, devices and systems for entering textual representations of words into a computing device by processing user physical and verbal interactions with the computing device | |
CN114139524B (zh) | 故事文本的预测方法、装置以及电子设备 | |
CN116955610A (zh) | 一种文本数据的处理方法、装置以及存储介质 | |
CN112329457B (zh) | 输入语音的识别方法及相关设备 | |
CN117725296A (zh) | 一种文本扩写方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |