CN112463965A - 一种对文本的语义理解的方法及系统 - Google Patents
一种对文本的语义理解的方法及系统 Download PDFInfo
- Publication number
- CN112463965A CN112463965A CN202011406376.4A CN202011406376A CN112463965A CN 112463965 A CN112463965 A CN 112463965A CN 202011406376 A CN202011406376 A CN 202011406376A CN 112463965 A CN112463965 A CN 112463965A
- Authority
- CN
- China
- Prior art keywords
- text
- network model
- memory
- bert network
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000007246 mechanism Effects 0.000 claims abstract description 86
- 238000012549 training Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例公开了一种对文本的语义理解的方法及系统,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督掩码语言模型(Mask Language Model)进行预训练,且其中包括自注意力(self‑attention)机制层及记忆注意力(memory attention)机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强,通过合并两个注意力机制的高维表征,得到文本的分类结果,从而使得对文本的语义理解的准确性增大。
Description
技术领域
本发明涉及计算机人工智能技术,特别涉及一种对文本的语义理解的方法及系统。
背景技术
在过去30年间,电信通讯技术得到非常好的普及,基于电信通信技术设置的电信通讯网络给人们生活带来便利的同时,也有不法分子使用电信通讯网络进行诈骗活动,给人们生活带来非常大的潜在风险。随着计算机人工智能技术的飞速发展和普及,会尝试将人工智能技术应用到电信通讯网络中,对电信通讯网络中的语音进行语音识别,以确认是否是电信诈骗。图1为现有技术提供的电信通讯网络中基于语音识别技术进行的电信反诈骗应用的方法流程图,通常,在电信通讯网络中增加由供应商提供的语音识别系统,对电信通讯网络的电信通话中的语音信号进行识别后,得到对应的文本信息,对得到的对应文本信息进行语义理解,基于语义理解的信息确定语音信号是否为诈骗语音。
可以看出,在电信通信网络中应用了对文本需要进行语义理解,通常采用训练好的深度神经网络实现,具体是通过收集足够多的诈骗文本和非诈骗文本,并进行诈骗类型的人工标注后,作为样本,对设置的深度神经网络进行训练,以使得深度神经网络能够识别诈骗文本,后续将语音信号对应的文本信息输入到已经训练好的深度神经网络,进行处理,确定其中是否有诈骗文本。采用这种方法比诸如支持向量机(SVM)方法或极端梯度提升(XGBoost)方法等传统的机器学习方法等已有比较明显的优势。
但是,采用训练好的深度神经网络实现对文本的语义理解,也存在缺陷,其存在比较严重的过拟合现象,特别针对类别数据比较少的分类任务,从而使得对文本的语义理解不准确。
发明内容
有鉴于此,本发明实施例提供了一种对文本的语义理解的方法,该方法能够提高对文本的语义理解的准确性。
本发明实施例还提供一种对文本的语义理解的系统,该系统能够提高对文本的语义理解的准确性。
本发明实施例是这样实现的:
一种对文本的语义理解的方法,该方法包括:
构建BERT网络模型,该BERT网络模型采用无监督掩码语言模型Mask LanguageModel进行预训练;
BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
较佳地,所述BERT网络模型采用无监督Mask Language Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行无监督Mask LanguageModel的预训练。
较佳地,所述BERT网络模型包括self-attention机制层,对输入文本进行语义理解包括:
self-attention机制层对输入文本进行如下述公式的自注意力机制的处理,
其中,Attention(.)表示进行自注意力机制处理的函数,softmax()表示的是自注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,K为查询句子中的单位词索引,V为单位句子中的单位词的投影表征。
所述BERT网络模型包括memory attention机制层,对输入文本进行语义理解包括:
memory attention机制层对输入文本进行如下述公式的自注意力机制的处理,
其中,Memory Attention()表示进行记忆注意力机制处理的结果,softmax()表示的是记忆注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,MemoryK为查询句子中的单位词索引,MemoryV为单位句子中的记忆单位词的投影表征。
较佳地,所述BERT网络模型的memory attention机制层是基于设置的热词训练得到的。
较佳地,在所述对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定Frozen,形成Frozen单元对输入文本进行语义理解。
较佳地,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
一种对文本的语义理解的系统,该系统包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
较佳地,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
如上所见,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督掩码语言模型(Mask Language Model)进行预训练,且其中包括自注意力(self-attention)机制层及记忆注意力(memory attention)机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强后,得到文本的分类结果,从而使得对文本的语义理解的准确性增大。
附图说明
图1为本发明实施例提供的一种对文本的语义理解的方法流程图;
图2为本发明实施例提供的BERT网络模型采用无监督Mask Language Model进行预训练例子示意图;
图3为本发明实施例提供的memory attention机制层对热词进行处理的过程示意图;
图4为本发明实施例提供的
图5为本发明实施例提供的使用训练好的BERT网络模型进行文本的语义理解的过程流程图;
图6为本发明实施例提供的一种对文本的语义理解的系统结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
从背景技术可以看出,在对文本进行语义理解时,对文本进行分类,分类为诈骗文本或非诈骗文本时,通常采用两种方法,一种是传统机器学习方法,另一种是深度神经网络方法。诸如SVM方法或XGBoost方法等传统机器学习方法,对文本进行语义理解时的准确性较低,且无法通过大规模样本的训练来提升准确性。而深度神经网络则针对类别数据比较少的分类任务,存在比较严重的拟合现象,为了解决这个问题,可以对深度神经网络中的正则策略进行改进设置,或者为输入的深度神经网络中的文本进行更多的标注,但是,对深度神经网络中的正则策略进行改进设置会导致最终训练得到的深度神经网络的泛化能力和推广性不够,针对不同任务的文本要进行针对性的设置,而为输入的深度神经网络中的文本进行更多的标注则会带来更高的人工成本。
为了解决这个问题,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督Mask Language Model进行预训练,且其中包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强,得到文本的分类结果。
由于BERT模型采用了Mask Language Model进行预训练,所以使得训练好的MaskLanguage可以从文本抓取到很强的上下文表征特征,基于该很强的上下文表征特征,进行分类,得到最终的分类结果,所以得到最终的分类结果准确。更进一步地,由于BERT网络模型在对文本进行语义理解时,采用了两层的注意力机制,且其中memory attention机制是根据基于设置的热词训练得到的,所以进行注意力机制处理时,更加准确。因此,本发明实施例使得对文本的语义理解的准确性增大。
图1为本发明实施例提供的一种对文本的语义理解的方法流程图,其具体步骤包括:
步骤101、构建BERT网络模型,该BERT网络模型采用无监督Mask Language Model进行预训练;
步骤102、BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
本发明实施例应用了BERT网络模型,该BERT网络模型是图神经网络模型(transformers)的一种,其是一种能够预训练的多层双向转换编码网络,英文全称为Bidirectional Encoder Representation from Transformers。
在该方法中,该BERT网络模型采用无监督Mask Language Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行预训练。
在该方法中,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
图2为本发明实施例提供的BERT网络模型采用无监督Mask Language Model进行预训练例子示意图,如图所示,该例子中,将无监督文本样本输入到构建的BERT网络模型中,采用多层自注意机制层进行处理,得到识别的结果。可以看出,在采用无监督MaskLanguage Model的BERT网络模型进行预训练时,不需要人工对文本样本进行标注,使得BERT网络模型从文本样本中抓取得到很强的上下文表征特征。
在该方法中,所构建的BERT网络模型除了采用无监督Mask Language Model进行预训练,也需要对其包括的self-attention机制层及memory attention机制层进行训练,训练完成后形成构建的BERT网络模型。
在该方法中,BERT网络模型包括self-attention机制层,对输入文本进行语义理解包括:
self-attention机制层对输入文本进行如下述公式的自注意力机制的处理:
其中,Attention(.)表示进行自注意力机制处理的函数,softmax()表示的是自注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,K为查询句子中的单位词索引,V为单位句子中的单位词的投影表征。
在该方法中,BERT网络模型包括memory attention机制层,对输入文本进行语义理解包括:
memory attention机制层对输入文本进行如下述公式的自注意力机制的处理:
其中,Memory Attention()表示进行记忆注意力机制处理的结果,softmax()表示的是记忆注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,MemoryK为查询句子中的单位词索引,MemoryV为单位句子中的记忆单位词的投影表征。
在进行memory attention机制层对输入文本进行如上述公式的自注意力机制的处理之前,已经对memory attention机制层进行了训练,如图3所示,图3为本发明实施例提供的memory attention机制层对热词进行出来的过程示意图:对热词列表进行编码后,形成编码特征表示,然后采用上述公式进行memory attention机制处理,得到查询句子中的每个词的分类值,即memoryk及memoryv。该热词是根据要执行的任务进行设置的,比如结合诈骗任务的特点,所设置的专业词汇。对memory attention机制层训练完成后,就可以设置在BERT网络模型中了。
图4为本发明实施例提供的BERT网络模型结构示意图,如图所示,在现有的BERT网络模型的基础上,提供了两层注意力机制层,包括了self-attention机制层及memoryattention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理。这样,通过海量的无监督文本样本进行预训练该BERT网络模型之后,就可以获取到非常鲁棒且信息丰富的上下文表征。
在该方法中,在对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定(Frozen),形成Frozen单元对输入文本进行语义理解。这样,就将经过预训练的BERT网络模型中的模型参数进行固定,防止在后续在训练BERT模型时的过拟合。
图5为本发明实施例提供的使用训练好的BERT网络模型进行文本的语义理解的过程流程图,如图所示,通过Forzen单元对一个查询句子进行高维BERT网络模型矢量特征后,再通过池化层,得到一个句子的特征表示,此后将该句子的特征表示采用设置的分类器进行诈骗类型的分类。这样,就可以实现对文本的语义理解,得到分类结果,分类结果为诈骗信息或非诈骗信息。
图6为本发明实施例提供的一种对文本的语义理解的系统结构示意图,包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
在该系统中,预训练单元,还用于该BERT网络模型采用无监督Mask LanguageModel进行预训练包括:获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;根据无监督文本样本及识别的结果,对BERT模型进行预训练。
在该系统中,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
可以看出,本发明实施例通过使用海量的无监督文本样本的BERT网络模型预训练,将语音识别的结果进行高维度的语义特征表示出,有效地降低了数据的标注数量,并且可以非常高准确度地进行诈骗类型分类。进一步地,针对诈任务的特殊性,本发明实施例对BERT网络模型的结构进行改进,在BERT网络模型中除了self-attention机制层的基础上增加了memory attention机制层,使得该BERT网络模型更加聚焦于热词记忆,从而在使用时更好地抓取文本的上下文信息,进而提高语义理解的准确度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (9)
1.一种对文本的语义理解的方法,其特征在于,该方法包括:
构建BERT网络模型,该BERT网络模型采用无监督掩码语言模型Mask Language Model进行预训练;
BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
2.如权利要求1所述的方法,其特征在于,所述BERT网络模型采用无监督MaskLanguage Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行无监督Mask Language Model的预训练。
5.如权利要求1所述的方法,其特征在于,所述BERT网络模型的memory attention机制层是基于设置的热词训练得到的。
6.如权利要求1所述的方法,其特征在于,在所述对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定Frozen,形成Frozen单元对输入文本进行语义理解。
7.如权利要求1所述的方法,其特征在于,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
8.一种对文本的语义理解的系统,其特征在于,该系统包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
9.如权利要求8所述的系统,其特征在于,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011406376.4A CN112463965A (zh) | 2020-12-03 | 2020-12-03 | 一种对文本的语义理解的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011406376.4A CN112463965A (zh) | 2020-12-03 | 2020-12-03 | 一种对文本的语义理解的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112463965A true CN112463965A (zh) | 2021-03-09 |
Family
ID=74806595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011406376.4A Pending CN112463965A (zh) | 2020-12-03 | 2020-12-03 | 一种对文本的语义理解的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112463965A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850565A (zh) * | 2021-09-24 | 2021-12-28 | 广东诚誉工程咨询监理有限公司 | 一种基于成熟度模型的全过程咨询项目管理监测系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297870A (zh) * | 2019-05-30 | 2019-10-01 | 南京邮电大学 | 一种金融领域中文新闻标题情感分类方法 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN111177376A (zh) * | 2019-12-17 | 2020-05-19 | 东华大学 | 一种基于bert与cnn层级连接的中文文本分类方法 |
-
2020
- 2020-12-03 CN CN202011406376.4A patent/CN112463965A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297870A (zh) * | 2019-05-30 | 2019-10-01 | 南京邮电大学 | 一种金融领域中文新闻标题情感分类方法 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110717334A (zh) * | 2019-09-10 | 2020-01-21 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN111177376A (zh) * | 2019-12-17 | 2020-05-19 | 东华大学 | 一种基于bert与cnn层级连接的中文文本分类方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850565A (zh) * | 2021-09-24 | 2021-12-28 | 广东诚誉工程咨询监理有限公司 | 一种基于成熟度模型的全过程咨询项目管理监测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020248376A1 (zh) | 情绪检测方法、装置、电子设备及存储介质 | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN112735383A (zh) | 语音信号的处理方法、装置、设备及存储介质 | |
CN113223509B (zh) | 一种应用于多人混杂场景下的模糊语句识别方法及系统 | |
CN113066499B (zh) | 一种陆空通话说话人身份识别方法及装置 | |
CN112417132B (zh) | 一种利用谓宾信息筛选负样本的新意图识别方法 | |
CN116416480B (zh) | 一种基于多模板提示学习的视觉分类方法和装置 | |
WO2021128704A1 (zh) | 一种基于分类效用的开集分类方法 | |
CN116010874A (zh) | 基于深度学习多模态深尺度情感特征融合的情感识别方法 | |
CN115238693A (zh) | 一种基于多分词和多层双向长短期记忆的中文命名实体识别方法 | |
CN115064154A (zh) | 混合语言语音识别模型的生成方法及装置 | |
CN112466284B (zh) | 一种口罩语音鉴别方法 | |
CN111091809B (zh) | 一种深度特征融合的地域性口音识别方法及装置 | |
CN112463965A (zh) | 一种对文本的语义理解的方法及系统 | |
CN113342935A (zh) | 语义识别方法、装置、电子设备及可读存储介质 | |
CN116775873A (zh) | 一种多模态对话情感识别方法 | |
CN116741155A (zh) | 语音识别方法、语音识别模型的训练方法、装置及设备 | |
CN116541523A (zh) | 一种基于大数据的法律判决舆情分类方法 | |
CN112101559B (zh) | 一种基于机器学习的案件罪名推断方法 | |
CN112233668B (zh) | 一种基于神经网络的语音指令及身份识别方法 | |
CN113111855A (zh) | 一种多模态情感识别方法、装置、电子设备及存储介质 | |
CN117649861A (zh) | 基于帧级别情感状态对齐的语音情感识别方法和系统 | |
CN113673230A (zh) | 一种情感分析方法 | |
CN116150314A (zh) | 模型训练方法、意图识别方法、装置、设备及存储介质 | |
Tyagi et al. | Exploring the Potential of Convolutional Neural Networks in Sequential Data Analysis: A Comparative Study with LSTMs and BiLSTMs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |