CN112183058B - 基于bert句子向量输入的诗词生成方法及装置 - Google Patents
基于bert句子向量输入的诗词生成方法及装置 Download PDFInfo
- Publication number
- CN112183058B CN112183058B CN202011001193.4A CN202011001193A CN112183058B CN 112183058 B CN112183058 B CN 112183058B CN 202011001193 A CN202011001193 A CN 202011001193A CN 112183058 B CN112183058 B CN 112183058B
- Authority
- CN
- China
- Prior art keywords
- poetry
- sentence
- word
- subject
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及计算机生成诗句领域,具体为基于BERT句子向量输入的诗词生成方法及装置。解决了目前基于神经网络的诗词生成模型对诗词语义的学习和表示还不够深入和全面的问题。其方法为:首先对诗词语料库中的原始语料预处理和主题词提取,利用预处理后的预料和提取的主题词训练生成第一句的Word‑to‑Line模型和下文生成的Context‑to‑Line模型,在用户输入语句后,利用TextRank算法提取出若干主题词,通过Word‑to‑Line模型对前1‑2个主题词学习分析得到诗词第一句,通过Context‑to‑Line模型对若干主题词和已有生成诗句学习分析生成其余诗句。本方法增加了诗句之间的关系理解,提高了生成诗歌的质量,使生成的诗歌不仅满足格律、用韵等格式要求,而且在流畅性,主题一致性等方面均有明显的改进。
Description
技术领域
本发明涉及计算机生成诗句领域,具体为基于BERT句子向量输入的诗词生成方法及装置。
背景技术
但随着计算机技术和机器学习的发展,使诗词的创作方式和生成手段发生了前所未有的改变,特别是随着深度学习的再次崛起和技术革新,大大提高了生成诗歌的质量。然而,目前基于神经网络的诗词生成模型对诗词语义的学习和表示还不够深入和全面,主要体现在模型的编码层在将文本转换为空间向量时缺失动态的语义信息。因为目前将文本转化为嵌入式矢量的工具主要为word embedding,它不是根据上下文实时计算输出特征矢量,它输出的是一个静态的矢量。另外,word embedding的输入是词级,这就意味着首先要对句子进行分词,然后通过词来获取其对应的词向量,那么分词结果的不准确直接影响输出的特征矢量的涵义有偏差。
发明内容
本发明提供了一种基于BERT句子向量输入的诗词生成方法,解决了目前基于神经网络的诗词生成模型对诗词语义的学习和表示还不够深入和全面的问题,以及根据方法衍生的诗句生成装置,采取新的预训练方式形成不同的诗句生成模块,增加了诗句之间的关系理解,大大提高了生成诗歌的质量,使生成的诗歌不仅满足格律、用韵等格式要求,而且在流畅性,主题一致性等方面均有明显的改进。
本发明的目的之一是基于BERT句子向量输入的诗词生成方法,首先对诗词语料库中的原始语料预处理和主题词提取,利用预处理后的预料和提取的主题词训练生成第一句的Word-to-Line模型和下文生成的Context-to-Line模型,在用户输入语句后,利用TextRank算法提取出若干主题词,通过Word-to-Line模型对前1-2个主题词学习分析得到诗词第一句,通过Context-to-Line模型对若干主题词和已有生成诗句学习分析生成其余诗句。
所述对诗词语料库中的原始语料预处理和主题词提取包括:
将原始语料整理成不包含题目和符号的单独诗句格式;
对单独诗句进行主题词提取。
所述主题词提取方法为:
利用TextRank中文分词工具对诗句进行分词、词性标注以及停用词过滤,保留名词、动词和形容词作为初步候选主题词;
利用词的共现关系构建候选主题词图;
对主题词权重倒序排序,得到若干个词最终候选主题词,并保留在原诗句中的顺序。
所述Word-to-Line模型为:
BERT提取出输入主题词序列的token,位置和分割嵌入特征,并将特征转换为字向量后输出;
将字向量输入BiLSTM层对其进行编码,得到正向隐藏状态向量和反向隐藏状态向量;
通过LSTM编码对正反向隐藏状态向量结合,形成最终的隐藏状态向量;
利用Decoder的解码端根据当前的状态和最终隐藏状态向量并结合Attention机制,以字符的形式生成诗句。
所述Context-to-Line模型为:
BERT提取出输入对应诗句的主题词和已有诗句序列的token,位置和分割嵌入特征,并将特征转换为字向量后输出;
将字向量输入BiLSTM层对其进行编码,得到正向隐藏状态向量和反向隐藏状态向量;
通过LSTM编码对正反向隐藏状态向量结合,形成的最终隐藏状态向量;
利用Decoder的解码端根据当前的状态和最终隐藏状态向量并结合Attention机制,以字符的形式生成诗句。
所述利用TextRank算法提取出主题词时,当提取主题词大于4个时,进行诗词生成;当提取主题词小于4个时,利用BERT的预训练模型,根据输入的语句,预测出与其语义相关的下一句,扩展至若干语句,后对若干语句利用TextRank算法提取出主题词,每句至少提取1-2主题词。
所述Word-to-Line模型生成的第一句诗词仅且由主题词分析生成。
本发明的另一目的是提供利用BERT句子向量输入的诗词生成方法的装置,包括:
输入模块:用户进行语音输入或者字符输入;
主题词提取模块:利用TextRank算法提取输入模块中用户输入语句的主题词;
Word-to-Line模型模块:对主题词分析生成诗词第一句;
Context-to-Line模型模块:对主题词和已有生成诗句分析生成其余诗句。
本发明的有益效果为:1、诗词生成方式的创新:本文提出了基于句子的诗生成模型,以更准确地描述作者的思想和情感。即作者将表达自己情感的句子作为输入,模型通过对句子的扩展从中提取出多个关键词,然后借助诗生成模型完成符合主题思想的诗词创作。
2.主题词的提取与扩展,不同于传统诗词生成过程每句诗只提取一个主题词的思想,考虑到词性的不同对于句子语义的影响程度不同,本文方法提取或扩展至2个名词、动词或形容词作为一句诗的主题词。另外,对应基于句子的诗生成方法,主题词的提取与扩展可以通过句子及句子的扩展完成。
3.采用基于词的BERT预训练作为诗生成模型的输入,表征了诗句中字词的深层次,以及包含左右两侧语境的语义信息,能使模型更充分地学习到输入序列丰富的字、词及语义信息。另外,充分利用BERT预训练模型的fine-tuning参数调整功能完成诗句的预测,更好地解决了因诗词的训练数据缺乏而影响模型的训练质量问题。
附图说明
图1是本发明流程示意图;
图2是本发明Context-to-Line模型结构;
图3是BERT结构模型图;
具体实施方式
下面结合附图并通过具体的实施例进一步的说明本发明的技术方案:
实施例一
一种基于BERT句子向量输入的诗词生成方法,即通过输入一个短句,模型对该句子进行扩展,后提取每个句子中对应的主题词,最后生成相应主题的诗。其主要内容包括模型的训练和诗生成两部分。其中模型的训练主要有诗词语料的收集和预处理,主题词的提取与扩展,训练数据的生成及模型的训练等几部分,具体如下:
1)利用互联网收集大量的诗词语料,对搜集的原始语料进行预处理,将其整理成不包含题目和符号的单独诗句格式。
2)主题词的提取,首先利用TextRank中文分词工具对诗句进行分词和词性标注,过滤停用词。考虑到词性对句子语义的重要性,仅保留名词、动词和形容词作为初步候选主题词。后利用词的共现关系构建候选主题词图,即G=(V,E)。借助迭代计算各初步候选主题词权重。最后对初步候选主题词权重进行倒序排序,从而得到最重要的T个词作为最终候选主题词,并保留其在原诗句中的顺序。
3)主题词的扩展主要是为了方便创作诗,其原理是:用户在创作诗词时输入语句。当输入句子较短而无法提取出足够的主题词时,调用BERT的预训练模型,在已知输入句子情况下,预测出与其语义相关的下一句,扩展至四个句子。后利用TextRank算法提取出T个主题词。当输入的句子行量大时,则直接利用TextRank算法提取出相应数量的主题词即可。
4)训练数据的生成,将诗词训练数据处理为关键词加上下文的形式,然后利用训练数据训练诗生成模型。
5)诗句的生成。诗句的生成模型分为两个,分别为第一句的生成模型Word-to-Line,且第一句仅由主题词生成。其次是剩余诗句的生成Context-to-Line模型,即其余诗句由相应主题词和已有生成诗句生成。诗句的生成过程如图1所示。
Context-to-Line模型结构:
根据诗句简短精炼但饱含意义的特点,本方案提出了基于BERT词嵌入的主题词注意力机制模型,即Context-to-Line模型,其结构如图2所示。最佳的句子语义表示给予名词、动词和形容词较高的权重,而对限定词和介词的词赋予较低的权重。所以本方案的主题词仅选择名词、动词和形容词,而且在注意力机制中提高了主题词的权重。不仅改变了传统Decoder对每一个输入都赋予相同权值的缺点,避免了因序列长而丢失信息的现象,而且突出了诗句的主题。另外,BERT词嵌入使用了Transformer双向编码器,能够捕捉更长距离的字与句子之间的真正意义上的bidirectional context信息,实现了预训练的深度双向表示,能更深层次的理解诗句的语义度,进而提升生成诗句的整体连贯性。
本方案诗生成的具体过程为:通过训练,BERT提取出输入序列(ν1,ν1.......νi)的token,位置和分割嵌入特征,将它们的特征和转换为具有深层语义关系的字向量xi输出,如图3所示。然后将字向量xi输入BiLSTM层对其进行编码,得到正反向隐藏状态和对于任意的xi,通过LSTM编码形成的最终隐藏状态是相应的正反向隐藏状态的结合
隐藏状态同时涵盖了前后词的信息,并将获得的状态序列信息用于后端的解码。Decoder的解码端根据自身当前的状态Si和编码端输出的隐藏状态hj,以字符的形式生成诗句(y1,y2,...yi)。具体公式为:
yi=WoSi+bo (1)
Si=g(yi-1,Si-1,ci) (2)
其中ci是注意力机制中用来计算第i个字符的隐藏状态Si的。即
式中:ai,j为编码端隐藏状态对生成诗句的贡献值,表达了Si和hj的相似度。解码器依据vi,j确定哪一部分输入更加重要,以分配更多的注意力。后Decoder输出各个字的向量表示,最终通过向量转换,将表示该字的输出向量映射到词表,映射后的向量表示一个概率分布,每个位置的概率值代表该位置对应的字作为下一个字的概率,并将最大概率向量对应的字符选择输出。在生成下一句诗时,以前面的诗句为输入,并以该句的主题词为引导,以突出生成诗句的主题性。
诗的第一句在没有上文时,只由输入的相应主题词生成,及仅有图2中的主题词输入,通过训练Word-to-Line模型实现,其生成诗句的原理和过程与Context-to-Line模型一致。
实施例2
利用深度学习的诗词生成方法的装置,包括:
输入模块:用户进行语音输入或者字符输入;
主题词提取模块:利用TextRank算法提取输入模块中用户输入语句的主题词;
Word-to-Line模型模块:对主题词分析生成诗词第一句;
Context-to-Line模型模块:对主题词和已有生成诗句分析生成其余诗句
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (6)
1.基于BERT句子向量输入的诗词生成方法,其特征在于:首先对诗词语料库中的原始语料预处理和主题词提取,利用预处理后的预料和提取的主题词训练生成第一句的Word-to-Line模型和下文生成的Context-to-Line模型,在用户输入语句后,利用TextRank算法提取出若干主题词,通过Word-to-Line模型对前1-2个主题词学习分析得到诗词第一句,通过Context-to-Line模型对若干主题词和已有生成诗句学习分析生成其余诗句;
所述Word-to-Line模型为:
BERT提取出输入主题词序列的token,位置和分割嵌入特征,并将特征转换为字向量后输出;
将字向量输入BiLSTM层对其进行编码,得到正向隐藏状态向量和反向隐藏状态向量;
通过LSTM编码对正反向隐藏状态向量结合,形成最终的隐藏状态向量;
利用Decoder的解码端根据当前的状态和最终隐藏状态向量并结合Attention机制,以字符的形式生成诗句;
所述Context-to-Line模型为:
BERT提取出输入对应诗句的主题词和已有诗句序列的token,位置和分割嵌入特征,并将特征转换为字向量后输出;
将字向量输入BiLSTM层对其进行编码,得到正向隐藏状态向量和反向隐藏状态向量;
通过LSTM编码对正反向隐藏状态向量结合,形成的最终隐藏状态向量;
利用Decoder的解码端根据当前的状态和最终隐藏状态向量并结合Attention机制,以字符的形式生成诗句。
2.根据权利要求1所述的基于BERT句子向量输入的诗词生成方法,其特征在于:所述对诗词语料库中的原始语料预处理和主题词提取包括:
将原始语料整理成不包含题目和符号的单独诗句格式;
对单独诗句进行主题词提取。
4.根据权利要求1所述的基于BERT句子向量输入的诗词生成方法,其特征在于:所述利用TextRank算法提取出主题词时,当提取主题词大于4个时,进行诗词生成;当提取主题词小于4个时,利用BERT的预训练模型,根据输入的语句,预测出与其语义相关的下一句,扩展至若干语句,后对若干语句利用TextRank算法提取出主题词,每句至少提取1-2主题词。
5.根据权利要求1所述的基于BERT句子向量输入的诗词生成方法,其特征在于:所述Word-to-Line模型生成的第一句诗词仅且由主题词分析生成。
6.利用权利要求1-5任意一项深度学习的诗词生成方法的装置,其特征在于:包括:
输入模块:用户进行语音输入或者字符输入;
主题词提取模块:利用TextRank算法提取输入模块中用户输入语句的主题词;
Word-to-Line模型模块:对主题词分析生成诗词第一句;
Context-to-Line模型模块:对主题词和已有生成诗句分析生成其余诗句。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001193.4A CN112183058B (zh) | 2020-09-22 | 2020-09-22 | 基于bert句子向量输入的诗词生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011001193.4A CN112183058B (zh) | 2020-09-22 | 2020-09-22 | 基于bert句子向量输入的诗词生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183058A CN112183058A (zh) | 2021-01-05 |
CN112183058B true CN112183058B (zh) | 2021-06-22 |
Family
ID=73955743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011001193.4A Active CN112183058B (zh) | 2020-09-22 | 2020-09-22 | 基于bert句子向量输入的诗词生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183058B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784599B (zh) * | 2020-12-23 | 2024-05-10 | 北京百度网讯科技有限公司 | 诗句的生成方法、装置、电子设备和存储介质 |
CN113255340B (zh) * | 2021-07-09 | 2021-11-02 | 北京邮电大学 | 面向科技需求的主题提取方法、装置和存储介质 |
CN114186043B (zh) * | 2021-12-10 | 2022-10-21 | 北京三快在线科技有限公司 | 预训练方法、装置、设备和存储介质 |
CN114021545A (zh) * | 2022-01-05 | 2022-02-08 | 北京智源悟道科技有限公司 | 自动作诗语言模型训练方法、装置、自动作诗方法及装置 |
CN116070643B (zh) * | 2023-04-03 | 2023-08-15 | 武昌理工学院 | 一种古文到英文的固定风格翻译方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569995A (zh) * | 2016-09-26 | 2017-04-19 | 天津大学 | 基于语料库和格律规则的汉语古诗词自动生成方法 |
CN111046648A (zh) * | 2019-10-29 | 2020-04-21 | 平安科技(深圳)有限公司 | 韵律控制的诗词生成方法、装置、设备及存储介质 |
CN111428504A (zh) * | 2020-03-17 | 2020-07-17 | 北京明略软件系统有限公司 | 一种事件抽取方法和装置 |
US10719666B1 (en) * | 2020-01-31 | 2020-07-21 | Capital One Services, Llc | Computer-based systems utilizing textual embedding space software engines for identifying candidate phrases in a text document and methods of use thereof |
CN111666350A (zh) * | 2020-05-28 | 2020-09-15 | 浙江工业大学 | 一种基于bert模型的医疗文本关系抽取的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6689947B2 (en) * | 1998-05-15 | 2004-02-10 | Lester Frank Ludwig | Real-time floor controller for control of music, signal processing, mixing, video, lighting, and other systems |
US11373042B2 (en) * | 2018-12-13 | 2022-06-28 | Baidu Usa Llc | Embeddings with classes |
CN111680511A (zh) * | 2020-04-21 | 2020-09-18 | 华东师范大学 | 一种多神经网络协作的军事领域命名实体识别方法 |
-
2020
- 2020-09-22 CN CN202011001193.4A patent/CN112183058B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569995A (zh) * | 2016-09-26 | 2017-04-19 | 天津大学 | 基于语料库和格律规则的汉语古诗词自动生成方法 |
CN111046648A (zh) * | 2019-10-29 | 2020-04-21 | 平安科技(深圳)有限公司 | 韵律控制的诗词生成方法、装置、设备及存储介质 |
US10719666B1 (en) * | 2020-01-31 | 2020-07-21 | Capital One Services, Llc | Computer-based systems utilizing textual embedding space software engines for identifying candidate phrases in a text document and methods of use thereof |
CN111428504A (zh) * | 2020-03-17 | 2020-07-17 | 北京明略软件系统有限公司 | 一种事件抽取方法和装置 |
CN111666350A (zh) * | 2020-05-28 | 2020-09-15 | 浙江工业大学 | 一种基于bert模型的医疗文本关系抽取的方法 |
Non-Patent Citations (2)
Title |
---|
"The Self-Translating Poet: Implications for French-EnglishTranslation Studies";Priye E. Iyalla-Amadi;《US-China Foreign Language》;20120315;第10卷(第3期);第102-113页 * |
"基于主题模型和统计机器翻译方法的中文格律诗自动生成";蒋锐滢 等;《计算机学报》;20151231;第38卷(第12期);第2426-2436页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112183058A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112183058B (zh) | 基于bert句子向量输入的诗词生成方法及装置 | |
CN109213995B (zh) | 一种基于双语词嵌入的跨语言文本相似度评估技术 | |
CN108804495B (zh) | 一种基于增强语义的自动文本摘要方法 | |
CN109684648B (zh) | 一种多特征融合的古今汉语自动翻译方法 | |
CN111177366B (zh) | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 | |
Jiang et al. | Natural language processing and its applications in machine translation: A diachronic review | |
CN111859978A (zh) | 一种基于深度学习的情感文本生成方法 | |
CN109815476B (zh) | 一种基于中文语素和拼音联合统计的词向量表示方法 | |
CN112417092B (zh) | 基于深度学习的智能化文本自动生成系统及其实现方法 | |
CN111666756B (zh) | 一种基于主题融合的序列模型文本摘要生成方法 | |
CN112183109B (zh) | 基于mass的诗句生成信息隐写方法 | |
CN111341293A (zh) | 一种文本语音的前端转换方法、装置、设备和存储介质 | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN111339771A (zh) | 一种基于多任务多层级模型的文本韵律预测方法 | |
CN113360001A (zh) | 输入文本的处理方法、装置、电子设备和存储介质 | |
CN114387537A (zh) | 一种基于描述文本的视频问答方法 | |
CN114972848A (zh) | 基于细粒度视觉信息控制网络的图像语义理解及文本生成 | |
CN115759119A (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
CN117349427A (zh) | 一种面向舆情事件应对的人工智能多模态内容生成系统 | |
CN116069924A (zh) | 一种融合全局和局部语义特征的文本摘要生成方法及系统 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN109670047A (zh) | 一种抽象笔记生成方法、计算机装置及可读存储介质 | |
CN115346158A (zh) | 一种基于连贯性注意力机制及双流解码器的视频描述方法 | |
CN112464673B (zh) | 融合义原信息的语言含义理解方法 | |
CN113486160A (zh) | 基于跨语言知识的对话方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |