CN109800421A - 一种游戏剧本生成方法及其装置、设备、存储介质 - Google Patents
一种游戏剧本生成方法及其装置、设备、存储介质 Download PDFInfo
- Publication number
- CN109800421A CN109800421A CN201811561137.9A CN201811561137A CN109800421A CN 109800421 A CN109800421 A CN 109800421A CN 201811561137 A CN201811561137 A CN 201811561137A CN 109800421 A CN109800421 A CN 109800421A
- Authority
- CN
- China
- Prior art keywords
- text
- urtext
- input
- game scenario
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000003860 storage Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 54
- 230000011218 segmentation Effects 0.000 claims abstract description 40
- 230000004069 differentiation Effects 0.000 claims abstract description 35
- 238000003062 neural network model Methods 0.000 claims abstract description 23
- 230000010354 integration Effects 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims description 23
- 238000004458 analytical method Methods 0.000 claims description 15
- 238000005520 cutting process Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 3
- 230000001154 acute effect Effects 0.000 claims 1
- 210000005036 nerve Anatomy 0.000 claims 1
- 238000011161 development Methods 0.000 abstract description 8
- 230000018109 developmental process Effects 0.000 abstract description 8
- 238000004590 computer program Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000465 moulding Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种游戏剧本生成方法及其装置、设备、存储介质,通过读取输入的原始文本,然后对输入的原始文本进行分割处理得到分割文本,再对分割文本进行分析及提取得到目标文本,最后将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,从而可以有效减少游戏剧本编写的工作量,提高游戏剧本的编写效率,降低游戏开发的成本,缩短游戏开发的周期,提高游戏企业的市场竞争力。
Description
技术领域
本发明涉及计算机技术领域,特别是一种游戏剧本生成方法及其装置、设备、存储介质。
背景技术
随着计算机技术的快速发展,电子游戏在人们的日常生活中变得越来越普及。目前大多数电子游戏在制作前都需要先策划好游戏剧本,游戏剧本的好坏影响着整个电子游戏的质量,以及玩家对电子游戏的用户体验。现有的游戏剧本,大多数由游戏企划人员进行编写,并且游戏剧本涵盖的东西非常繁多和复杂,例如有主题、角色、世界观、装备、对话等一系列的项目需要进行考虑,并且还要对每个项目之间的关系进行设定,如果全部由人工进行创作和编排,无疑需要极大的人力物力,而且全部通过人工编写,效率不高,还会造成电子游戏开发成本的提升,延长电子游戏开发的周期,不利于提高电子游戏开发企业的竞争力。
发明内容
为解决上述问题,本发明的目的在于提供一种游戏剧本生成方法及其装置、设备、存储介质,能够自动生成游戏剧本,提高游戏剧本的编写效率。
本发明解决其问题所采用的技术方案是:
第一方面,本发明实施例提供了一种游戏剧本生成方法,包括:
读取输入的原始文本;
对输入的原始文本进行分割处理,得到分割文本;
对分割文本进行分析及提取,得到目标文本;
将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
进一步,所述读取输入的原始文本,包括:
将输入的原始文本进行翻译。
进一步,所述对输入的原始文本进行分割处理,得到分割文本,包括:
对原始文本进行断句;
将断句后的句子分割为词语。
进一步,所述对分割文本进行分析及提取,得到目标文本,包括:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
进一步,所述将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,包括:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
第二方面,本发明实施例提供了一种游戏剧本生成装置,包括:
读取单元,用于读取输入的原始文本;
分割单元,用于对输入的原始文本进行分割处理,得到分割文本;
分析提取单元,用于对分割文本进行分析及提取,得到目标文本;
整合生成单元,用于将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
进一步,所述读取单元读取输入的原始文本时,包括以下操作:
将输入的原始文本进行翻译。
进一步,所述分割单元对输入的原始文本进行分割处理,得到分割文本时,包括以下操作:
对原始文本进行断句;
将断句后的句子分割为词语。
进一步,所述分析提取单元对分割文本进行分析及提取,得到目标文本时,包括以下操作:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
进一步,所述整合生成单元将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本时,包括以下操作:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
第三方面,本发明实施例提供了一种储存游戏剧本生成方法的设备,包括控制模块和用于储存控制指令的储存介质,所述控制模块读取所述储存介质中的控制指令并执行以下操作:
读取输入的原始文本;
对输入的原始文本进行分割处理,得到分割文本;
对分割文本进行分析及提取,得到目标文本;
将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
进一步,所述控制模块执行操作读取输入的原始文本时,包括以下操作:
将输入的原始文本进行翻译。
进一步,所述控制模块执行操作对输入的原始文本进行分割处理,得到分割文本时,包括以下操作:
对原始文本进行断句;
将断句后的句子分割为词语。
进一步,所述控制模块执行操作对分割文本进行分析及提取,得到目标文本时,包括以下操作:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
进一步,所述控制模块执行操作将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本时,包括以下操作:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行以下操作:
读取输入的原始文本;
对输入的原始文本进行分割处理,得到分割文本;
对分割文本进行分析及提取,得到目标文本;
将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
进一步,所述计算机可执行指令使计算机执行操作读取输入的原始文本时,包括以下操作:
将输入的原始文本进行翻译。
进一步,所述计算机可执行指令使计算机执行操作对输入的原始文本进行分割处理,得到分割文本时,包括以下操作:
对原始文本进行断句;
将断句后的句子分割为词语。
进一步,所述计算机可执行指令使计算机执行操作对分割文本进行分析及提取,得到目标文本时,包括以下操作:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
进一步,所述计算机可执行指令使计算机执行操作将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本时,包括以下操作:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
第五方面,本发明实施例还提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使计算机执行如上所述的一种游戏剧本生成方法。
本发明至少有一个实施例具有以下有益效果:通过读取输入的原始文本,然后对输入的原始文本进行分割处理得到分割文本,再对分割文本进行分析及提取得到目标文本,最后将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,从而可以有效减少游戏剧本编写的工作量,提高游戏剧本的编写效率,降低游戏开发的成本,缩短游戏开发的周期,提高游戏企业的市场竞争力。
附图说明
下面结合附图和实例对本发明作进一步说明。
图1是本发明实施例一提供的一种游戏剧本生成方法的流程图;
图2是本发明本发明实施例一提供的一种游戏剧本生成方法中读取输入的原始文本的一种实施方式的流程图;
图3是本发明本发明实施例一提供的一种游戏剧本生成方法中对输入的原始文本进行分割处理,得到分割文本的一种实施方式的流程图;
图4是本发明本发明实施例一提供的一种游戏剧本生成方法中对分割文本进行分析及提取,得到目标文本的一种实施方式的流程图;
图5是本发明本发明实施例一提供的一种游戏剧本生成方法中将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本的一种实施方式的流程图;
图6是本发明实施例二提供的一种游戏剧本生成装置的结构示意图;
图7是本发明实施例三提供的一种储存游戏剧本生成方法的设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
参照图1,本发明实施例提出了一种游戏剧本生成方法,包括但不限于以下步骤:
步骤S100,读取输入的原始文本;
步骤S200,对输入的原始文本进行分割处理,得到分割文本;
步骤S300,对分割文本进行分析及提取,得到目标文本;
步骤S400,将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
在本实施例中,采用现有技术中基于LINUX的乌班图操作系统,并安装PYTHON开源模块,安装Natura language toolkit自然语言处理工具集,即NLTK工具,并安装NLTK语料库、布朗语料库、古登堡语料库,制定NLTK命名约定。参考本文可以是网络上的数据,也可以是储存在本地的数据。通过读取输入的原始文本,然后对输入的原始文本进行分割处理得到分割文本,再对分割文本进行分析及提取得到目标文本,最后将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,从而可以有效减少游戏剧本编写的工作量,提高游戏剧本的编写效率,降低游戏开发的成本,缩短游戏开发的周期,提高游戏企业的市场竞争力。
进一步地,参照图2,在本实施例的步骤S100中,读取输入的原始文本,包括但不限于以下步骤:
步骤S110,将输入的原始文本进行翻译。
当原始文本的语言与处理工具的语言不匹配时,需要将输入的原始文本进行翻译。本实施例中,输入的原始文本为中文,由于采用NLTK工具进行文本处理,而NLTK工具仅支持英文,因此需要将输入的原始文本进行翻译,使用现有技术中的翻译软件即可。
进一步地,参照图3,在本实施例的步骤S200中,对输入的原始文本进行分割处理,得到分割文本,包括但不限于以下步骤:
步骤S210,对原始文本进行断句;
步骤S220,将断句后的句子分割为词语。
在本实施例中,在读取原始文本后,采用NLTK工具中的句子分割器对原始文本进行断句,同时,进一步采用NLTK工具中的词语分割器将断句后的句子分割为词语,可以得到分割文本,为后续的分析整理做准备,作为后续分析整理的基础,可以提高后续分析整理的效率。
进一步地,参照图4,在本实施例的步骤S300中,所述对分割文本进行分析及提取,得到目标文本,包括但不限于以下步骤:
步骤S310,制定概率语音模型,预测字符串概率;
步骤S320,对提取的词语添加标签;
步骤S330,对提取的词语进行分块。
在本实施例中,由于字符和句子在分析过程中可能是任意组合的长度,因此可能会出现之前未曾出现过的词语,使得分析的准确率下降,增加分析的难度,因此通过制定概率语音模型,可以向字符串赋予概率,使系统可以对输入的文本进行分析,分析出文本中各种事件的频率以及分布,并基于这些已知的频率做出概率的预测,提高分析的合理性。在概率语音模型的选取上,可以采用现有技术中的N-GRAM模型、NNLM模型或者是LBL模型。
为了进一步保证分析的准确性,提高分析的效率,在本实施中针对提取的词语添加标签及进行分块。
添加的标签由一个或多个子标签组成的US-ASCII字符序列构成,以连字符“-”分割;第一个子标签是主语言子标签,在主语言标签之后,各个子标签进一步细化或缩小整个语言标签的范围。子标签有不同的类型,主要格式一般包括:首语言标签、扩展语言标签、脚本标签、区域标签、变体标签、扩展标签、私有标签,其中变体标签和扩展标签数量为0个或者多个,可以根据实际的词语特性自行选择标签。分块操作是将词语进一步划分,可以采用现有技术中的NP-chunking(noun phrase chunking)分块方式,进一步缩小词语的长度。上述添加标签和分块操作均是由NLTK工具完成。
进一步地,参照图5,在本实施例的步骤S400中,所述将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,包括但不限于以下步骤:
步骤S410,引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
步骤S420,通过神经网络模型与参考文本进行差异化处理;
步骤S430,对差异化处理后生成的文本进行翻译,得到最终的剧本。
在本实施例中,采用现有技术中的Wordnet词典引入目标文本内词语的同义词、反义词、上级概念和下级概念等其他相关的词汇,由于Wordnet词典具有覆盖范围宽的特点,从而可以针对目标文本的词语进行有效的扩展。然后,在使用Wordnet词典扩展之后便进行差异化处理,差异化处理指的是通过现有技术中的神经网络模型,从网络或者本地服务器中搜寻相关的文章和数据,与目标文本进行匹配,并提取相关信息,引入到目标文本之中,再进行句式语法的整合,从而生成一个完整的剧本。最后通过翻译软件对差异化处理后生成的剧本翻译成所需要的语言,得到最终的剧本。
参照图6,本发明还提供了一种游戏剧本生成装置,该装置1000包括但不限于:读取单元1100、分割单元1200、分析提取单元1300和整合生成单元1400。
其中,读取单元1100,用于读取输入的原始文本;
分割单元1200,用于对输入的原始文本进行分割处理,得到分割文本;
分析提取单元1300,用于对分割文本进行分析及提取,得到目标文本;
整合生成单元1400,用于将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
需要说明的是,由于本实施例中的一种游戏剧本生成装置与上述的一种游戏剧本生成方法基于相同的发明构思,因此,方法实施例中的相应内容同样适用于本装置实施例,此处不再详述。
参照图7,本发明还提供了一种储存游戏剧本生成方法的设备,该设备200可以是任意类型的智能终端,例如手机、平板电脑、个人计算机等。
具体地,该设备200包括:一个或多个控制模块201和储存介质202,图7中以一个控制模块201为例。
控制模块201和储存介质202可以通过总线或者其他方式连接,图7中以通过总线连接为例。
储存介质202作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的一种游戏剧本生成方法对应的程序指令/模块,例如,图6中所示的读取单元、分割单元、分析提取单元和整合生成单元。控制模块201通过运行存储在储存介质202中的非暂态软件程序、指令以及模块,从而执行装置的各种功能应用以及数据处理,即实现上述方法实施例的一种游戏剧本生成方法。
储存介质202可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据装置1000的使用所创建的数据等。此外,储存介质202可以包括高速随机存取储存介质,还可以包括非暂态储存介质,例如至少一个磁盘储存介质件、闪存器件、或其他非暂态固态储存介质件。在一些实施方式中,储存介质202可选包括相对于控制模块201远程设置的储存介质,这些远程储存介质可以通过网络连接至该设备200。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述储存介质202中,当被所述一个或者多个控制模块201执行时,执行上述方法实施例中的一种游戏剧本生成方法,例如,执行以上描述的图1中的方法步骤S100至S400、图2中的方法步骤S110、图3中的方法步骤S210至S220、图4中的方法步骤S310至S330,图5中的方法步骤S410至S430,实现图6中的单元1100-1400的功能。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,例如,被图7中的一个控制处理器201执行,可使得上述一个或多个控制处理器201执行上述方法实施例中的一种游戏剧本生成方法,例如,执行以上描述的图1中的方法步骤S100至S400、图2中的方法步骤S110、图3中的方法步骤S210至S220、图4中的方法步骤S310至S330,图5中的方法步骤S410至S430,实现图6中的单元1100-1400的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现。本领域技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ReadOnly Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (12)
1.一种游戏剧本生成方法,其特征在于:包括:
读取输入的原始文本;
对输入的原始文本进行分割处理,得到分割文本;
对分割文本进行分析及提取,得到目标文本;
将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
2.根据权利要求1所述的一种游戏剧本生成方法,其特征在于:所述读取输入的原始文本,包括:
将输入的原始文本进行翻译。
3.根据权利要求1所述的一种游戏剧本生成方法,其特征在于:所述对输入的原始文本进行分割处理,得到分割文本,包括:
对原始文本进行断句;
将断句后的句子分割为词语。
4.根据权利要求1所述的一种游戏剧本生成方法,其特征在于:所述对分割文本进行分析及提取,得到目标文本,包括:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
5.根据权利要求1所述的一种游戏剧本生成方法,其特征在于:所述将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本,包括:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
6.一种游戏剧本生成装置,其特征在于:包括:
读取单元,用于读取输入的原始文本;
分割单元,用于对输入的原始文本进行分割处理,得到分割文本;
分析提取单元,用于对分割文本进行分析及提取,得到目标文本;
整合生成单元,用于将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本。
7.根据权利要求6所述的装置,其特征在于:所述读取单元读取输入的原始文本时,包括以下操作:
将输入的原始文本进行翻译。
8.根据权利要求6所述的装置,其特征在于:所述分割单元对输入的原始文本进行分割处理,得到分割文本时,包括以下操作:
对原始文本进行断句;
将断句后的句子分割为词语。
9.根据权利要求6所述的装置,其特征在于:所述分析提取单元对分割文本进行分析及提取,得到目标文本时,包括以下操作:
制定概率语音模型,预测字符串概率;
对提取的词语添加标签;
对提取的词语进行分块。
10.根据权利要求6所述的装置,其特征在于:所述整合生成单元将目标文本通过神经网络模型与参考文本进行差异化处理,整合生成最终的剧本时,包括以下操作:
引入目标文本内词语的同义词、反义词、上级概念和下级概念中的一种或多种;
通过神经网络模型与参考文本进行差异化处理;
对差异化处理后生成的文本进行翻译,得到最终的剧本。
11.一种储存游戏剧本生成方法的设备,其特征在于:包括控制模块和用于储存控制指令的储存介质,所述控制模块读取所述储存介质中的控制指令并执行如权利要求1-5任一项所述的游戏剧本生成方法。
12.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1-5任一项所述的游戏剧本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811561137.9A CN109800421A (zh) | 2018-12-19 | 2018-12-19 | 一种游戏剧本生成方法及其装置、设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811561137.9A CN109800421A (zh) | 2018-12-19 | 2018-12-19 | 一种游戏剧本生成方法及其装置、设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109800421A true CN109800421A (zh) | 2019-05-24 |
Family
ID=66557225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811561137.9A Pending CN109800421A (zh) | 2018-12-19 | 2018-12-19 | 一种游戏剧本生成方法及其装置、设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109800421A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113220285A (zh) * | 2021-04-22 | 2021-08-06 | 上海雾帜智能科技有限公司 | 安全事件响应剧本生成方法、系统、装置和存储介质 |
CN114648011A (zh) * | 2020-12-17 | 2022-06-21 | 京东科技控股股份有限公司 | 基于利率数据的数据处理方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050050469A1 (en) * | 2001-12-27 | 2005-03-03 | Kiyotaka Uchimoto | Text generating method and text generator |
CN101470700A (zh) * | 2007-12-28 | 2009-07-01 | 日电(中国)有限公司 | 文本模板生成器、文本生成设备、文本检验设备及其方法 |
WO2009107441A1 (ja) * | 2008-02-27 | 2009-09-03 | 日本電気株式会社 | 音声合成装置、テキスト生成装置およびその方法並びにプログラム |
JP2014002257A (ja) * | 2012-06-18 | 2014-01-09 | Nippon Telegr & Teleph Corp <Ntt> | 言語モデル生成装置、その方法及びプログラム |
CN107133210A (zh) * | 2017-04-20 | 2017-09-05 | 中国科学院上海高等研究院 | 方案文本生成方法及系统 |
CN107526725A (zh) * | 2017-09-04 | 2017-12-29 | 北京百度网讯科技有限公司 | 基于人工智能的用于生成文本的方法和装置 |
US20180157640A1 (en) * | 2016-12-06 | 2018-06-07 | Electronics And Telecommunications Research Institute | System and method for automatically expanding input text |
-
2018
- 2018-12-19 CN CN201811561137.9A patent/CN109800421A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050050469A1 (en) * | 2001-12-27 | 2005-03-03 | Kiyotaka Uchimoto | Text generating method and text generator |
CN101470700A (zh) * | 2007-12-28 | 2009-07-01 | 日电(中国)有限公司 | 文本模板生成器、文本生成设备、文本检验设备及其方法 |
WO2009107441A1 (ja) * | 2008-02-27 | 2009-09-03 | 日本電気株式会社 | 音声合成装置、テキスト生成装置およびその方法並びにプログラム |
JP2014002257A (ja) * | 2012-06-18 | 2014-01-09 | Nippon Telegr & Teleph Corp <Ntt> | 言語モデル生成装置、その方法及びプログラム |
US20180157640A1 (en) * | 2016-12-06 | 2018-06-07 | Electronics And Telecommunications Research Institute | System and method for automatically expanding input text |
CN107133210A (zh) * | 2017-04-20 | 2017-09-05 | 中国科学院上海高等研究院 | 方案文本生成方法及系统 |
CN107526725A (zh) * | 2017-09-04 | 2017-12-29 | 北京百度网讯科技有限公司 | 基于人工智能的用于生成文本的方法和装置 |
Non-Patent Citations (2)
Title |
---|
K MCKEOWN: "《Text generation》", 31 December 1992 * |
艾丽斯,唐卫红,傅云斌,等: "抽取式自动文本生成算法", 《华东师范大学学报(自然科学版)》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114648011A (zh) * | 2020-12-17 | 2022-06-21 | 京东科技控股股份有限公司 | 基于利率数据的数据处理方法、装置、设备及存储介质 |
CN113220285A (zh) * | 2021-04-22 | 2021-08-06 | 上海雾帜智能科技有限公司 | 安全事件响应剧本生成方法、系统、装置和存储介质 |
CN113220285B (zh) * | 2021-04-22 | 2023-08-22 | 上海雾帜智能科技有限公司 | 安全事件响应剧本生成方法、系统、装置和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852087B (zh) | 中文纠错方法和装置、存储介质及电子装置 | |
US11238232B2 (en) | Written-modality prosody subsystem in a natural language understanding (NLU) framework | |
CN110909165B (zh) | 数据处理方法、装置、介质及电子设备 | |
US9361587B2 (en) | Authoring system for bayesian networks automatically extracted from text | |
KR101864361B1 (ko) | 다양한 의미 범주에 기반한 번역 결과 제공 방법 및 시스템 | |
CN116501306B (zh) | 一种基于自然语言描述生成接口文档代码的方法 | |
CN110795913B (zh) | 一种文本编码方法、装置、存储介质及终端 | |
RU2586577C2 (ru) | Фильтрация дуг в синтаксическом графе | |
CN103314369B (zh) | 机器翻译装置和方法 | |
US11170169B2 (en) | System and method for language-independent contextual embedding | |
CN112966106A (zh) | 文本的情绪识别方法、装置、设备及存储介质 | |
CN110717045A (zh) | 一种基于信访信件概况的信件要素自动提取方法 | |
Islam et al. | Bangla sentence correction using deep neural network based sequence to sequence learning | |
Zhang et al. | A multi-feature fusion model for Chinese relation extraction with entity sense | |
CN114638914B (zh) | 图像生成方法、装置、计算机设备和存储介质 | |
CN116797195A (zh) | 工单处理方法、装置、计算机设备和计算机可读存储介质 | |
CN109800421A (zh) | 一种游戏剧本生成方法及其装置、设备、存储介质 | |
CN110633456B (zh) | 语种识别方法、装置、服务器及存储介质 | |
Wax | Automated grammar engineering for verbal morphology | |
CN113761875B (zh) | 事件抽取方法、装置、电子设备及存储介质 | |
CN114490926A (zh) | 一种相似问题的确定方法、装置、存储介质及终端 | |
RU2546064C1 (ru) | Распределенная система и способ языкового перевода | |
CN112733515A (zh) | 文本生成方法、装置、电子设备及可读存储介质 | |
CA2561087A1 (en) | Induction of grammar rules | |
CN116306672A (zh) | 一种数据处理方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190524 |