CN112800750B - 一种无监督的非自回归古诗生成方法、装置及存储介质 - Google Patents
一种无监督的非自回归古诗生成方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112800750B CN112800750B CN202110101971.5A CN202110101971A CN112800750B CN 112800750 B CN112800750 B CN 112800750B CN 202110101971 A CN202110101971 A CN 202110101971A CN 112800750 B CN112800750 B CN 112800750B
- Authority
- CN
- China
- Prior art keywords
- ancient
- ancient poetry
- content
- poetry
- text generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种无监督的非自回归古诗生成方法、装置及存储介质,属于文本生成领域。本发明主要包括,使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习;以及,利用学习后的文本生成模型以非自回归的方式生成古诗的步骤。本发明的有益效果是直接对海量的古诗库中古诗特征进行全面学习,减少了学习前提取关键词的步骤,大大减少了需要耗费的人力和计算资源,并且避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
Description
技术领域
本发明涉及文本生成领域,特别是一种无监督的非自回归古诗生成方法、装置及存储介质。
背景技术
古诗的生成是文本生成的一种,即让模型自动生成整齐对仗的古诗,一般按照中国传统唐诗的格式,如五言或七言律诗或绝句。
现有技术中的古诗生成大多采用“自回归”式生成方法,其所利用的模型是通过有监督的学习得到的模型,即需要抽取出每一句的“关键词”,用来概括这一句古诗的大致内容,而关键词是需要使用权重计算方法(TF-IDF)或者人工标注的方法去抽取的,需要耗费大量的人力或计算资源;并且现有技术中每生成古诗的一个字即需要运行一次模型,当模型非常大的时候,其时间开销过大,不利于实际的应用。
发明内容
本申请提供了一种无监督的非自回归古诗生成方法、装置及存储介质,利用文本生成模型进行无监督学习,非自回归的方式生成古诗。
为了实现上述目的,本申请采用的技术方案是,提供一种无监督的非自回归古诗生成方法,包括步骤:
使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习;以及,
利用学习后的文本生成模型以非自回归的方式生成古诗。
本申请的另外一个技术方案为,提供一种无监督的非自回归古诗生成装置,包括,
用于使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块;以及,
用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块。
本申请的另外一个技术方案为,提供一种计算机可读存储介质,其存储计算机指令,其中的计算机指令被操作以执行上述的无监督的非自回归古诗生成方法。
本申请的有益效果是,
本发明利用文本生成模型进行无监督学习,非自回归的方式生成古诗,直接对海量的古诗库中古诗特征进行全面学习,减少了学习前提取关键词的步骤,大大减少了需要耗费的人力和计算资源,并且避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
附图说明
图1是本申请一种无监督的非自回归古诗生成方法的一个具体实施方式流程示意图;
图2是本申请一种无监督的非自回归古诗生成方法的一个具体实施例流程示意图;
图3是本申请一种无监督的非自回归古诗生成方法的一个具体实例流程示意图;
图4是本申请一种无监督的非自回归古诗生成装置的一个具体实施方式示意图;
具体实施方式
下面结合附图对本发明较佳实施例进行详细阐述,以使本发明的优点和特征更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚的界定。
需要说明的是,在本文中,诸如第一第二等之类的关系属于仅仅用来将一个实体或操作与另外一个实体或操作区分开来,而不一定要求或暗示这些实际操作之间存在任何这种实际的关系或顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包含一系列要素的过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
图1的流程图示出了本申请一种无监督的非自回归古诗生成方法的一个具体实施方式。
在图1所示的具体实施方式中,本申请一种无监督非自回归古诗生成方法,包括过程S101以及过程S102。
图1示出的过程S101表示的是使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,这样就能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗,并且文本生成模型对于不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。
在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括给定一首古诗的部分或全部内容,将其中的古诗单位内容替换成特殊字符后送入文本生成模型,文本生成模型对被特殊字符替换的古诗单位内容进行预测,这种文本生成模型进行无监督方式的学习,能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗。
在本申请的一个具体实施例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位可以为古诗的字、句、以及联三者中的至少一者,并且文本生成模型对于字、句、以及联的不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的字,便于后期在古诗生成的过程中生成古诗中的字。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的词,便于后期在古诗生成的过程中生成古诗中生成古诗中的词。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的句,便于后期在古诗生成的过程中生成古诗中生成古诗中的句。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的段,便于后期在古诗生成的过程中生成古诗中生成古诗中的段。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的联,便于后期在古诗生成的过程中生成古诗中生成古诗中的联。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,古诗内容单位为古诗的字和句。
在本申请的一个具体实例中,上述使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程中,对古诗词的字、词、句、段以及联进行学习,以便于后期在古诗生成的过程中生成古诗中直接生成古诗中的相应的单位内容,以非自回归的方式进行古诗生成。
图2示出了本申请的一个具体实例,在图2示出的实例中,过程S201表示的是使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,其中古诗内容单位为古诗的字、句和联。
在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的古诗单位内容的意义和/或其前后衔接关系进行无监督学习,以便于后期在古诗生成的过程中生成古诗中直接生成古诗中的字、句以及联,以非自回归的方式进行古诗生成。
在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的意义进行无监督学习。
在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的前后衔接关系进行无监督学习。
在本申请的一个具体实施例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中的古诗单位内容的意义和前后衔接关系进行无监督学习。
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的意义进行学习。
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的前后衔接关系进行学习。
优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的语义衔接关系或平仄规则进行学习。
优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的字的平仄规则进行学习。
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的句的意义进行学习。
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的句的前后衔接关系进行学习。
优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的一联中上句与下句之间的对偶关系进行学习。
例如,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗的一联中上句与下句之间的语义衔接关系或平仄规则进行学习
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的意义进行学习。
在本申请的一个具体实例中,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的前后衔接关系进行学习。
优选的,使文本生成模型对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程,包括对现有古诗词数据库中古诗中的联的平仄规则或对仗关系进行学习。
图1示出的过程S102表示的是利用学习后的文本生成模型以非自回归的方式生成古诗的过程,能够可以利用文本生成模型以非自回归的方式生成句与句之间流畅衔接的古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在本申请的一个具体实施例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定所述古诗单位内容,输入学习后的所述文本生成模型,文本生成模型一次性生成至少一个对应的古诗单位内容。
在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的字,输入学习后的文本生成模型,文本生成模型一次性生成一个字。
在本申请的一个具体实例中,如图2及图3所示,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的字,输入学习后的文本生成模型,文本生成模型一次性生成多个个字,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的句,如图3所示,输入学习后的文本生成模型,文本生成模型一次性生成一个句,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在本申请的一个具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,将预定的古诗的联,输入学习后的文本生成模型,如图3所示,文本生成模型一次性生成一个联,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在本申请的一个具体实施例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,当文本生成模型生成的较小古诗内容单位的单位内容,能够形成一个较大的古诗单位内容时,将较大的古诗单位内容输入文本生成模型继续进行古诗生成,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在图2以及图3示出的具体实例中,利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,文本生成模型一次生成多个字能够形成一个句时,将这个句输入文本生成模型继续生成古诗;当文本生成模型生成的句能够形成包括上下句的一个联时,将联输入文本生成模型,一次生成一个联;这样就得到了一首律绝体古诗,利用文本生成模型以非自回归的方式生成古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
图4的示意图示出了本申请一种无监督的非自回归古诗生成装置的一个具体实施方式。
图4示出的示意图中,本申请一种无监督的非自回归古诗生成装置包括4模块401,以及模块402。
图4的模块401表示的是用于使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块,使得就能够在不需要人工标注的前提下,充分利用现有的海量古诗词数据学习生成古诗,并且文本生成模型对于不同大小的古诗内容单位相应内容特征进行的学习,能够便于后期在古诗生成的过程中以非自回归的方式进行古诗生成。
在本申请的一个具体实施例中,使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块,能够给定一首古诗的部分或全部内容,将其中的古诗单位内容替换成特殊字符后送入文本生成模型,文本生成模型对被特殊字符替换的古诗单位内容进行预测。
在本申请的一个具体实施例中,使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块中,古诗内容单位可以为字、词、句、联、段。
图4的模块402表示的是用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块,使得能够利用文本生成模型以非自回归的方式生成句与句之间流畅衔接的古诗,避免了过于频繁地运行文本生成模型,节省运行时间,因此能够高效高质地生成较长的古诗文本。
在本申请的一个具体实施例中,用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块可以,将预定所述古诗单位内容,输入学习后的所述文本生成模型,文本生成模型一次性生成至少一个对应的古诗单位内容。
在本申请的一个具体实施例中,用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块可以在当文本生成模型生成的较小古诗内容单位的单位内容,能够形成一个较大的古诗单位内容时,将较大的古诗单位内容输入文本生成模型继续进行古诗生成。
在本申请的一个具体实施方式中,本申请的一种无监督的非自回归古诗生成装置的用于使文本生成模型直接对现有古诗数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块、用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块,可直接在硬件中、在由处理器执行的软件模块中或在两者的组合中。
软件模块可驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可装卸盘、CD-ROM或此项技术中已知的任何其它形式的存储介质中。示范性存储介质耦合到处理器,使得处理器可从存储介质读取信息和向存储介质写入信息。
处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)、现场可编程门阵列(英文:Field Programmable Gate Array,简称:FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其任何组合等。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器还可实施为计算装置的组合,例如DSP与微处理器的组合、多个微处理器、结合DSP核心的一个或一个以上微处理器或任何其它此类配置。在替代方案中,存储介质可与处理器成一体式。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替代方案中,处理器和存储介质可作为离散组件驻留在用户终端中。
在本申请的一个具体实施方式中,一种计算机可读存储介质,其存储计算机指令,计算机指令被操作以执行任一实施例描述的无监督的非自回归古诗生成方法。
在本申请所提供的实施方式中,应该理解到,所揭露的方法和系统,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分仅仅为一种逻辑功能的划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以省略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些借口,装置或单元的间接耦合或通信连接,可以是典型,机械或其他的形式。
所述作为分离不见说明的单元可以是或者可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (6)
1.一种无监督的非自回归古诗生成方法,其特征在于包括,
使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习;以及,
利用学习后的文本生成模型以非自回归的方式生成古诗;
所述利用学习后的文本生成模型以非自回归的方式生成古诗的过程包括,
将预定古诗单位内容输入学习后的所述文本生成模型,所述文本生成模型一次性生成至少一个对应的所述古诗单位内容,其中,当所述文本生成模型生成的较小所述古诗内容单位的所述古诗单位内容,能够形成一个较大的所述古诗单位内容时,将较大的所述古诗单位内容输入所述文本生成模型继续进行古诗生成。
2.根据权利要求1所述的无监督的非自回归古诗生成方法,其特征在于,所述使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程包括,
给定一首古诗的部分或全部内容,将其中的所述古诗单位内容替换为特殊字符后送入所述文本生成模型,所述文本生成模型对被所述特殊字符替换的所述古诗单位内容进行预测。
3.根据权利要求1所述的无监督的非自回归古诗生成方法,其特征在于,所述古诗内容单位包括古诗的字、句及联三者中的至少一者。
4.根据权利要求1所述的无监督的非自回归古诗生成方法,其特征在于,使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的过程包括,
对所述古诗单位内容的意义和/或其前后衔接关系进行所述无监督学习。
5.一种无监督的非自回归古诗生成装置,其特征在于包括:
用于使文本生成模型直接对现有古诗词数据库中古诗的不同大小的古诗内容单位相应内容特征进行无监督学习的模块;以及,
用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块;
所述用于利用学习后的文本生成模型以非自回归的方式生成古诗的模块包括,
将预定古诗单位内容输入学习后的所述文本生成模型,所述文本生成模型一次性生成至少一个对应的所述古诗单位内容,其中,当所述文本生成模型生成的较小所述古诗内容单位的所述古诗单位内容,能够形成一个较大的所述古诗单位内容时,将较大的所述古诗单位内容输入所述文本生成模型继续进行古诗生成。
6.一种计算机可读存储介质,其存储计算机指令,其中所述计算机指令被操作用于执行权利要求1-4任一所述的无监督的非自回归古诗生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110101971.5A CN112800750B (zh) | 2021-01-26 | 2021-01-26 | 一种无监督的非自回归古诗生成方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110101971.5A CN112800750B (zh) | 2021-01-26 | 2021-01-26 | 一种无监督的非自回归古诗生成方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112800750A CN112800750A (zh) | 2021-05-14 |
CN112800750B true CN112800750B (zh) | 2024-06-07 |
Family
ID=75811700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110101971.5A Active CN112800750B (zh) | 2021-01-26 | 2021-01-26 | 一种无监督的非自回归古诗生成方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800750B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019169992A1 (zh) * | 2018-03-08 | 2019-09-12 | 腾讯科技(深圳)有限公司 | 文本信息生成方法、装置、存储介质及设备 |
KR20190119839A (ko) * | 2018-04-13 | 2019-10-23 | 강원대학교산학협력단 | 신경망을 이용해 다양한 문체를 포함한 문장 생성 방법 |
CN110909879A (zh) * | 2019-12-09 | 2020-03-24 | 北京爱数智慧科技有限公司 | 自回归神经网络消歧模型、训练及使用方法、装置、系统 |
WO2020119069A1 (zh) * | 2018-12-13 | 2020-06-18 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN112036192A (zh) * | 2020-09-25 | 2020-12-04 | 北京小米松果电子有限公司 | 古诗词生成方法、装置及存储介质 |
CN112257775A (zh) * | 2020-10-21 | 2021-01-22 | 东南大学 | 一种基于卷积神经网络和无监督语言模型的由图成诗方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11823013B2 (en) * | 2017-08-29 | 2023-11-21 | International Business Machines Corporation | Text data representation learning using random document embedding |
-
2021
- 2021-01-26 CN CN202110101971.5A patent/CN112800750B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019169992A1 (zh) * | 2018-03-08 | 2019-09-12 | 腾讯科技(深圳)有限公司 | 文本信息生成方法、装置、存储介质及设备 |
KR20190119839A (ko) * | 2018-04-13 | 2019-10-23 | 강원대학교산학협력단 | 신경망을 이용해 다양한 문체를 포함한 문장 생성 방법 |
WO2020119069A1 (zh) * | 2018-12-13 | 2020-06-18 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN110909879A (zh) * | 2019-12-09 | 2020-03-24 | 北京爱数智慧科技有限公司 | 自回归神经网络消歧模型、训练及使用方法、装置、系统 |
CN112036192A (zh) * | 2020-09-25 | 2020-12-04 | 北京小米松果电子有限公司 | 古诗词生成方法、装置及存储介质 |
CN112257775A (zh) * | 2020-10-21 | 2021-01-22 | 东南大学 | 一种基于卷积神经网络和无监督语言模型的由图成诗方法 |
Non-Patent Citations (3)
Title |
---|
POINTER: Constrained Progressive Text Generation via Insertion-based Generative Pre-training;Yizhe Zhang;《arXiv》;第1-22页 * |
Stylistic Chinese Poetry Generation via Unsupervised Style Disentanglement;Cheng Yang;《In Proceedings of EMNLP 2018》;第1-10页 * |
生成对抗网络理论模型和应用综述;徐一峰;;金华职业技术学院学报(第03期);第87-94页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112800750A (zh) | 2021-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220058343A1 (en) | Written-modality prosody subsystem in a natural language understanding (nlu) framework | |
AU2016210590B2 (en) | Method and System for Entity Relationship Model Generation | |
US8156053B2 (en) | Automated tagging of documents | |
JP5901001B1 (ja) | 音響言語モデルトレーニングのための方法およびデバイス | |
US8719006B2 (en) | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis | |
WO2022116435A1 (zh) | 标题生成方法、装置、电子设备及存储介质 | |
WO2022222300A1 (zh) | 开放关系抽取方法、装置、电子设备及存储介质 | |
WO2021174864A1 (zh) | 基于少量训练样本的信息抽取方法及装置 | |
US20120158742A1 (en) | Managing documents using weighted prevalence data for statements | |
CN112559687A (zh) | 问题识别及查询方法、装置、电子设备及存储介质 | |
CN112528013A (zh) | 文本摘要提取方法、装置、电子设备及存储介质 | |
CN112597366B (zh) | 基于Encoder-Decoder的事件抽取方法 | |
CN111460797A (zh) | 关键字抽取方法、装置、电子设备及可读存储介质 | |
CN108133014B (zh) | 基于句法分析和聚类的三元组生成方法、装置及用户终端 | |
JP7309811B2 (ja) | データ注釈方法、装置、電子機器および記憶媒体 | |
CN116432611A (zh) | 文稿写作辅助方法、系统、终端及存储介质 | |
CN112668281B (zh) | 基于模板的语料自动化扩充方法、装置、设备及介质 | |
WO2022121152A1 (zh) | 智能对话方法、装置、电子设备及存储介质 | |
CN112800750B (zh) | 一种无监督的非自回归古诗生成方法、装置及存储介质 | |
CN112214602A (zh) | 基于幽默度的文本分类方法、装置、电子设备及存储介质 | |
CN111626055A (zh) | 文本处理方法及装置、计算机存储介质、电子设备 | |
US12008322B2 (en) | Machine learning techniques for semantic processing of structured natural language documents to detect action items | |
CN115169370A (zh) | 语料数据增强方法、装置、计算机设备及介质 | |
CN115249019A (zh) | 一种目标多语言神经机器翻译模型的构建方法和装置 | |
CN113822514A (zh) | 一种全媒体文稿质量控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |