CN114154492A - 一种融合了主题信息的多意图识别方法和系统 - Google Patents
一种融合了主题信息的多意图识别方法和系统 Download PDFInfo
- Publication number
- CN114154492A CN114154492A CN202111465255.1A CN202111465255A CN114154492A CN 114154492 A CN114154492 A CN 114154492A CN 202111465255 A CN202111465255 A CN 202111465255A CN 114154492 A CN114154492 A CN 114154492A
- Authority
- CN
- China
- Prior art keywords
- text
- topic information
- topic
- model
- fused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 238000007500 overflow downdraw method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及自然语言处理和深度学习技术领域,为了提高多意图识别的准确度,提供了一种融合了主题信息的多意图识别方法,包括:1、获取用户的输入文本并对其进行规范化处理得到处理文本;2、获取处理文本中基于句子的主题信息和基于词的主题信息;3、将处理文本与所述基于句子的主题信息进行融合;4、将步骤3中融合后的文本及基于词的主题信息分别转化为向量表示;5、构建意图识别模型并训练;6、将步骤4中转化得到的向量表示输入意图识别模型,得到意图分类结果。一种融合了主题信息的多意图识别系统,包括:文本获取单元、主题获取单元、主题融合单元、向量转换单元及意图分类单元。采用上述结构提高了多意图识别的准确度。
Description
技术领域
本发明涉及自然语言处理和深度学习技术领域,具体是一种融合了主题信息的多意图识别方法和系统。
背景技术
意图识别一直以来都是自然语言理解任务中至关重要的一个环节,随着人工智能技术在自然语言领域的不断发展和应用,越来越多的研究人员开始关注意图识别模块的性能提升。意图识别的定义是让机器理解用户的意图,帮助用户完成特定任务,为用户带来个性化的服务体验。在搜索引擎中,意图识别被用于识别用户输入内容的搜索意图,系统再根据搜索意图优先返回用户想要的结果,此场景下往往是单意图识别任务。在自动对话系统当中,意图识别被用于识别用户的对话目的,对话系统在了解了用户意图后,将匹配相应的子模型来进行处理,此场景下用户通常会表达多种意图。足以见得,意图识别模块在各种应用场景中都是一个不可或缺的上游任务,这个上游任务的准确性直接影响到后续任务甚至整个系统的性能效果。
早期的意图识别任务采用较简单的词表穷举法,通过将句子中的单词与词表进行匹配的方式来获取用户意图,但是这种方法需要大量的人工参与工作,对词表容量和更新速度要求较高,很难实现自动化预测。其次,比较简单的方法叫规则解析法,通过规则来判断句子的意图,这类方法对查询语句的规范化要求较高,且需要大量人工参与规则的制定。
基于统计的意图识别方法在一定程度上缓解了传统方法需要较多人工参与的问题,不过对数据量的要求较高,数据量越大,预测效果越好。深度学习模型的出现让意图识别任务的准确率有了进一步的提升,但是深度学习模型对数据标注的准确性要求较高。
综上所述,现有意图识别模型存在以下几点问题:
1、大部分意图识别模型对训练样本的语义规范性要求较高,但实际的对话过程中,用户的表达往往由于过于口语化导致用语不规范的问题。
2、目前效果较好的意图识别模型多用于识别单意图,当运用到多标签意图识别任务上的时候效果就会变差。
3、大多数意图识别模型都比较依赖庞大的训练数据和准确的标注结果,一旦训练数据不足,模型效果将会有明显下降,数据标签的准确性也对模型的训练有很大的影响。
发明内容
为了提高多意图识别的准确度,本申请提供了一种融合了主题信息的多意图识别方法和系统。
本发明解决上述问题所采用的技术方案是:
一种融合了主题信息的多意图识别方法,包括:
步骤1、获取用户的输入文本并对其进行规范化处理得到处理文本;
步骤2、获取处理文本中基于句子的主题信息和基于词的主题信息;
步骤3、将处理文本与所述基于句子的主题信息进行融合;
步骤4、将步骤3中融合后的文本及基于词的主题信息分别转化为向量表示;
步骤5、构建意图识别模型并训练;
步骤6、将步骤4中转化得到的向量表示输入意图识别模型,得到意图分类结果。
进一步地,所述步骤2具体为:
步骤21、构建主题模型并训练;
步骤22、将处理文本输入训练后的主题模型中以获取基于句子的主题信息和基于词的主题信息。
进一步地,所述主题模型采用概率排序法选取基于句子的主题信息和基于词的主题信息。
进一步地,所述步骤3将处理文本与所述基于句子的主题信息进行融合所采用的方法为全采样融合法或随机采样融合法。
进一步地,所述步骤4具体为采用预训练语言模型将融合后的文本及基于词的主题信息分别转化为向量表示。
进一步地,所述预训练语言模型包括单向特征表示的自回归预训练语言模型、双向特征表示的自编码预训练语言模型或双向特征表示的自回归预训练语言模型。
进一步地,所述步骤5构建意图识别模型包括搭建神经网络基础框架,构建基于词的主题信息融合网络层。
进一步地,所述步骤5进行模型训练时还包括设定损失函数并迭代更新意图识别模型的参数。
一种融合了主题信息的多意图识别系统,包括:
文本获取单元:用于获取用户的输入文本并对输入文本进行规范化处理得到处理文本;
主题获取单元:用于根据处理文本获取基于句子的主题信息和基于词的主题信息;
主题融合单元:用于将处理文本与基于句子的主题信息进行融合;
向量转换单元:用于将主题融合单元中融合后的文本及基于词的主题信息分别转化为向量表示;
意图分类单元:用于根据融合后的文本的向量表示和基于词的主题信息向量表示获取意图分类结果。
本发明相比于现有技术具有的有益效果是:在对输入文本进行处理前,对输入文本进行了规范化处理,解决了实际应用场景中用户表达过于口语化的问题,提高了意图识别的准确率;通过引入主题信息来帮助多标签意图识别模型完成预测,利用句子级别的主题分布去影响意图识别模型对意图个数的判断,从而解决了大多数意图识别模型在多意图识别情况下准确率较低的问题;此外,在所添加的主题信息数据量较少的情况下可以丰富语料信息量,在标注结果不准确的情况下还可以起到标注校正的效果,缓解了大多数意图识别模型过度依赖训练数据规模和数据标注准确性的问题。
附图说明
图1为本申请多意图识别方法的流程图;
图2为多意图识别系统的系统结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
如图1所示,一种融合了主题信息的多意图识别方法,包括:
步骤1、获取用户输入文本并对其进行规范化处理得到处理文本;规范化处理如将文本中所有单词转换为小写,基于规则对文本中的单词和词组进行纠错,删除单词的变形部分并将其还原到词根状态等。
步骤2、获取处理文本中基于句子的主题信息和基于词的主题信息。在本实施例中通过主题模型获取基于句子的主题信息和基于词的主题信息,主题模型采用基于奇异值分解(SVD)的潜在语义分析(LSA)法或基于吉布斯采样的潜在狄利克雷分布(LDA)法获取相关主题分布。为了提高主题模型的准确率,在使用主题模型前需要对模型进行训练,包括获取训练语料,对训练预料中的文本进行预处理,包括去除标点符号、所有单词转化为小写、去掉停用词、对所有单词进行词根还原等,将预处理后的文本放入主题模型进行训练。
将处理文本输入主题模型,得到基于句子的主题信息和基于词的主题信息的方法,包括:采用概率排序法选取所述基于句子的主题信息和基于词的主题信息,具体为:将步骤1中规范化处理后的文本输入训练好的主题模型中,得到规范化后文本的主题分布,选取主题分布中概率最大的k个主题作为当前文本的基于句子的主题,每个主题选取n个单词,选取的k×n个单词即为当前输入文本的基于句子的主题信息。
采用概率排序法选取基于词的主题信息的方法包括:将规范化处理后的文本中的每个单词依次输入训练好的主题模型,得到每个单词的主题分布,选取主题分布中概率最大的m个主题作为当前文本的基于词的主题,每个主题选取n个单词,选取的m×n个单词即为当前输入文本的基于词的主题信息。
步骤3、将处理文本与所述基于句子的主题信息进行融合,融合时可以采用全采样融合法或随机采样融合法。
全采样融合法为:将所述基于句子的主题信息中的全部主题词串接到处理文本之前,构成融合了基于句子主题信息的文本。
随机采样融合法为:随机采样i个(i≤k×n)基于句子的主题信息中的主题词,并将其串接到处理文本之前,构成融合了基于句子主题信息的文本。
步骤4、将步骤3中融合后的文本及基于词的主题信息分别转化为向量表示;在本实施例中采用预训练语言模型进行向量转化,预训练语言模型包括:单向特征表示的自回归预训练语言模型,这样的模型单方向抽取预训练语料文本的特征,如ELMO模型和ULMFiT模型等;双向特征表示的自编码预训练语言模型,以BERT预训练语言模型为主,其衍生模型还有ERINE模型、RoBERTa模型和spanBERT模型;双向特征表示的自回归预训练语言模型,引入了双注意力流和transformer机制,代表模型有XLNet。
步骤5、构建意图识别模型并训练;构建意图识别模型具体包括:搭建神经网络基础框架,构建基于词的主题信息融合网络层。搭建神经网络基础框架包括:基于循环神经网络的深度学习模型,或基于卷积神经网络的深度学习模型,或基于对抗神经网络的深度学习模型。构建基于词的主题信息融合网络层包括:在神经网络基础框架的底层添加一层双向长短期记忆神经网络层,在双向长短期记忆神经网络层的每个时间步上通过因式分解机(FM)算法将基于词的主题信息和步骤4中融合后的文本的向量表示融合,并将融合后的向量表示传入神经网络基础框架的中间层。
在进行模型训练时还包括:设定损失函数及迭代更新所述意图识别模型的参数。
损失函数的设定方法包括:采用最大间隔损失函数来计算真实值与预测值之间的差值。迭代更新意图识别模型参数的方法包括:采用Adam优化器,或采用AdaGrad优化器。通过优化器一次一次地更新模型参数,看损失函数计算出来的真实值和预测值之间的差值是否达到了最小值,如果没有达到最小值,就再一次更新参数,直到损失函数计算出来的差值是最小值为止,以此达到提高模型精度的目的。
意图识别模型的训练方法包含获取训练语料数据,根据实际需求对语料中的文本进行规范化处理,将所述规范化处理后的文本传入训练好的主题模型获取每条文本基于句子的主题信息和基于词的主题信息,将所述规范化处理后的文本和所述主题信息转换为向量表示,将所述向量表示批量放入意图识别模型进行训练。
步骤6、将融合后的文本的向量表示和基于词的主题信息向量表示输入意图识别模型,得到意图分类结果。
实施例2
如图2所示,一种融合了主题信息的多意图识别系统,包括:
文本获取单元:用于获取用户的输入文本并对输入文本进行规范化处理得到处理文本;
主题获取单元:用于根据处理文本获取基于句子的主题信息和基于词的主题信息;
主题融合单元:用于将处理文本与基于句子的主题信息进行融合;
向量转换单元:用于将主题融合单元中融合后的文本及基于词的主题信息分别转化为向量表示;
意图分类单元:用于根据融合后的文本的向量表示和基于词的主题信息向量表示获取意图分类结果。
需要说明的是,本实施例中的各个单元是逻辑意义上的,在具体实施过程中,一个单元可拆分成多个单元,多个单元也可以合并成一个单元。
本申请通过引入主题知识来强化多标签分类任务的预测效果,利用句子级别的主题分布去影响意图识别模型对意图个数的判断,加入词级别的主题信息来丰富每个单词的语义表示,增加语料信息量,同时缓解了传统的基于深度学习的意图识别方法过度依赖标注数据准确性的问题。
Claims (9)
1.一种融合了主题信息的多意图识别方法,其特征在于,包括:
步骤1、获取用户的输入文本并对其进行规范化处理得到处理文本;
步骤2、获取处理文本中基于句子的主题信息和基于词的主题信息;
步骤3、将处理文本与所述基于句子的主题信息进行融合;
步骤4、将步骤3中融合后的文本及基于词的主题信息分别转化为向量表示;
步骤5、构建意图识别模型并训练;
步骤6、将步骤4中转化得到的向量表示输入意图识别模型,得到意图分类结果。
2.根据权利要求1所述的一种融合了主题信息的多意图识别方法,其特征在于,所述步骤2具体为:
步骤21、构建主题模型并训练;
步骤22、将处理文本输入训练后的主题模型中以获取基于句子的主题信息和基于词的主题信息。
3.根据权利要求2所述的一种融合了主题信息的多意图识别方法,其特征在于,所述主题模型采用概率排序法选取基于句子的主题信息和基于词的主题信息。
4.根据权利要求1所述的一种融合了主题信息的多意图识别方法,其特征在于,所述步骤3将处理文本与所述基于句子的主题信息进行融合所采用的方法为全采样融合法或随机采样融合法。
5.根据权利要求1所述的一种融合了主题信息的多意图识别方法,其特征在于,所述步骤4具体为采用预训练语言模型将融合后的文本及基于词的主题信息分别转化为向量表示。
6.根据权利要求5所述的一种融合了主题信息的多意图识别方法,其特征在于,所述预训练语言模型包括单向特征表示的自回归预训练语言模型、双向特征表示的自编码预训练语言模型或双向特征表示的自回归预训练语言模型。
7.根据权利要求1所述的一种融合了主题信息的多意图识别方法,其特征在于,所述步骤5构建意图识别模型包括搭建神经网络基础框架,构建基于词的主题信息融合网络层。
8.根据权利要求7所述的一种融合了主题信息的多意图识别方法,其特征在于,所述步骤5进行模型训练时还包括设定损失函数并迭代更新意图识别模型的参数。
9.一种融合了主题信息的多意图识别系统,其特征在于,包括:
文本获取单元:用于获取用户的输入文本并对输入文本进行规范化处理得到处理文本;
主题获取单元:用于根据处理文本获取基于句子的主题信息和基于词的主题信息;
主题融合单元:用于将处理文本与基于句子的主题信息进行融合;
向量转换单元:用于将主题融合单元中融合后的文本及基于词的主题信息分别转化为向量表示;
意图分类单元:用于根据融合后的文本的向量表示和基于词的主题信息向量表示获取意图分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111465255.1A CN114154492A (zh) | 2021-12-03 | 2021-12-03 | 一种融合了主题信息的多意图识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111465255.1A CN114154492A (zh) | 2021-12-03 | 2021-12-03 | 一种融合了主题信息的多意图识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114154492A true CN114154492A (zh) | 2022-03-08 |
Family
ID=80455972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111465255.1A Pending CN114154492A (zh) | 2021-12-03 | 2021-12-03 | 一种融合了主题信息的多意图识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114154492A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599071A (zh) * | 2009-07-10 | 2009-12-09 | 华中科技大学 | 对话文本主题的自动提取方法 |
CN103678277A (zh) * | 2013-12-04 | 2014-03-26 | 东软集团股份有限公司 | 基于文档分段的构建主题-词汇分布的方法及系统 |
CN104951428A (zh) * | 2014-03-26 | 2015-09-30 | 阿里巴巴集团控股有限公司 | 用户意图识别方法及装置 |
CN110717514A (zh) * | 2019-09-06 | 2020-01-21 | 平安国际智慧城市科技股份有限公司 | 会话意图识别方法、装置、计算机设备和存储介质 |
CN112860893A (zh) * | 2021-02-08 | 2021-05-28 | 国网河北省电力有限公司营销服务中心 | 短文本分类方法及终端设备 |
-
2021
- 2021-12-03 CN CN202111465255.1A patent/CN114154492A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101599071A (zh) * | 2009-07-10 | 2009-12-09 | 华中科技大学 | 对话文本主题的自动提取方法 |
CN103678277A (zh) * | 2013-12-04 | 2014-03-26 | 东软集团股份有限公司 | 基于文档分段的构建主题-词汇分布的方法及系统 |
CN104951428A (zh) * | 2014-03-26 | 2015-09-30 | 阿里巴巴集团控股有限公司 | 用户意图识别方法及装置 |
CN110717514A (zh) * | 2019-09-06 | 2020-01-21 | 平安国际智慧城市科技股份有限公司 | 会话意图识别方法、装置、计算机设备和存储介质 |
CN112860893A (zh) * | 2021-02-08 | 2021-05-28 | 国网河北省电力有限公司营销服务中心 | 短文本分类方法及终端设备 |
Non-Patent Citations (2)
Title |
---|
赵乐;张兴旺;: "面向LDA主题模型的文本分类研究进展与趋势", 计算机系统应用, no. 08, 15 August 2018 (2018-08-15), pages 14 - 29 * |
黄培松;黄沛杰;丁健德;艾文程;章锦川;: "基于隐含主题协同注意力网络的领域分类方法", 中文信息学报, no. 02, 15 February 2020 (2020-02-15), pages 76 - 82 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241255B (zh) | 一种基于深度学习的意图识别方法 | |
CN104050160B (zh) | 一种机器与人工翻译相融合的口语翻译方法和装置 | |
CN106599032B (zh) | 一种结合稀疏编码和结构感知机的文本事件抽取方法 | |
CN112100349A (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN108932342A (zh) | 一种语义匹配的方法、模型的学习方法及服务器 | |
CN107562863A (zh) | 聊天机器人回复自动生成方法及系统 | |
CN107330011A (zh) | 多策略融合的命名实体的识别方法及装置 | |
CN111353029B (zh) | 一种基于语义匹配的多轮对话口语理解方法 | |
CN111104498A (zh) | 一种任务型对话系统中的语义理解方法 | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
CN107247751B (zh) | 基于lda主题模型的内容推荐方法 | |
CN112699679B (zh) | 情绪识别方法、装置、电子设备及存储介质 | |
CN114676255A (zh) | 文本处理方法、装置、设备、存储介质及计算机程序产品 | |
CN112699686A (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN115357719A (zh) | 基于改进bert模型的电力审计文本分类方法及装置 | |
CN105389303B (zh) | 一种异源语料自动融合方法 | |
CN113886562A (zh) | 一种ai简历筛选方法、系统、设备和存储介质 | |
CN113408287A (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN113326367B (zh) | 基于端到端文本生成的任务型对话方法和系统 | |
CN114003700A (zh) | 一种对话信息的处理方法、系统、电子设备及存储介质 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN111400489B (zh) | 对话文本摘要生成方法、装置、电子设备和存储介质 | |
CN114117069B (zh) | 一种用于知识图谱智能问答的语义理解方法及系统 | |
CN110347824B (zh) | 一种基于词汇相似性的lda主题模型最优主题数确定方法 | |
CN114154492A (zh) | 一种融合了主题信息的多意图识别方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |