CN112463965A - 一种对文本的语义理解的方法及系统 - Google Patents

一种对文本的语义理解的方法及系统 Download PDF

Info

Publication number
CN112463965A
CN112463965A CN202011406376.4A CN202011406376A CN112463965A CN 112463965 A CN112463965 A CN 112463965A CN 202011406376 A CN202011406376 A CN 202011406376A CN 112463965 A CN112463965 A CN 112463965A
Authority
CN
China
Prior art keywords
text
network model
memory
bert network
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011406376.4A
Other languages
English (en)
Inventor
程钢
张飞
贾岩峰
韩慎勇
丁正
顾晓东
祝敬安
韦红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xinfang Software Co ltd
Shanghai Cintel Intelligent System Co ltd
Original Assignee
Shanghai Xinfang Software Co ltd
Shanghai Cintel Intelligent System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xinfang Software Co ltd, Shanghai Cintel Intelligent System Co ltd filed Critical Shanghai Xinfang Software Co ltd
Priority to CN202011406376.4A priority Critical patent/CN112463965A/zh
Publication of CN112463965A publication Critical patent/CN112463965A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例公开了一种对文本的语义理解的方法及系统,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督掩码语言模型(Mask Language Model)进行预训练,且其中包括自注意力(self‑attention)机制层及记忆注意力(memory attention)机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强,通过合并两个注意力机制的高维表征,得到文本的分类结果,从而使得对文本的语义理解的准确性增大。

Description

一种对文本的语义理解的方法及系统
技术领域
本发明涉及计算机人工智能技术,特别涉及一种对文本的语义理解的方法及系统。
背景技术
在过去30年间,电信通讯技术得到非常好的普及,基于电信通信技术设置的电信通讯网络给人们生活带来便利的同时,也有不法分子使用电信通讯网络进行诈骗活动,给人们生活带来非常大的潜在风险。随着计算机人工智能技术的飞速发展和普及,会尝试将人工智能技术应用到电信通讯网络中,对电信通讯网络中的语音进行语音识别,以确认是否是电信诈骗。图1为现有技术提供的电信通讯网络中基于语音识别技术进行的电信反诈骗应用的方法流程图,通常,在电信通讯网络中增加由供应商提供的语音识别系统,对电信通讯网络的电信通话中的语音信号进行识别后,得到对应的文本信息,对得到的对应文本信息进行语义理解,基于语义理解的信息确定语音信号是否为诈骗语音。
可以看出,在电信通信网络中应用了对文本需要进行语义理解,通常采用训练好的深度神经网络实现,具体是通过收集足够多的诈骗文本和非诈骗文本,并进行诈骗类型的人工标注后,作为样本,对设置的深度神经网络进行训练,以使得深度神经网络能够识别诈骗文本,后续将语音信号对应的文本信息输入到已经训练好的深度神经网络,进行处理,确定其中是否有诈骗文本。采用这种方法比诸如支持向量机(SVM)方法或极端梯度提升(XGBoost)方法等传统的机器学习方法等已有比较明显的优势。
但是,采用训练好的深度神经网络实现对文本的语义理解,也存在缺陷,其存在比较严重的过拟合现象,特别针对类别数据比较少的分类任务,从而使得对文本的语义理解不准确。
发明内容
有鉴于此,本发明实施例提供了一种对文本的语义理解的方法,该方法能够提高对文本的语义理解的准确性。
本发明实施例还提供一种对文本的语义理解的系统,该系统能够提高对文本的语义理解的准确性。
本发明实施例是这样实现的:
一种对文本的语义理解的方法,该方法包括:
构建BERT网络模型,该BERT网络模型采用无监督掩码语言模型Mask LanguageModel进行预训练;
BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
较佳地,所述BERT网络模型采用无监督Mask Language Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行无监督Mask LanguageModel的预训练。
较佳地,所述BERT网络模型包括self-attention机制层,对输入文本进行语义理解包括:
self-attention机制层对输入文本进行如下述公式的自注意力机制的处理,
Figure BDA0002814406110000021
其中,Attention(.)表示进行自注意力机制处理的函数,softmax()表示的是自注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,K为查询句子中的单位词索引,V为单位句子中的单位词的投影表征。
所述BERT网络模型包括memory attention机制层,对输入文本进行语义理解包括:
memory attention机制层对输入文本进行如下述公式的自注意力机制的处理,
Figure BDA0002814406110000022
其中,Memory Attention()表示进行记忆注意力机制处理的结果,softmax()表示的是记忆注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,MemoryK为查询句子中的单位词索引,MemoryV为单位句子中的记忆单位词的投影表征。
较佳地,所述BERT网络模型的memory attention机制层是基于设置的热词训练得到的。
较佳地,在所述对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定Frozen,形成Frozen单元对输入文本进行语义理解。
较佳地,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
一种对文本的语义理解的系统,该系统包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
较佳地,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
如上所见,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督掩码语言模型(Mask Language Model)进行预训练,且其中包括自注意力(self-attention)机制层及记忆注意力(memory attention)机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强后,得到文本的分类结果,从而使得对文本的语义理解的准确性增大。
附图说明
图1为本发明实施例提供的一种对文本的语义理解的方法流程图;
图2为本发明实施例提供的BERT网络模型采用无监督Mask Language Model进行预训练例子示意图;
图3为本发明实施例提供的memory attention机制层对热词进行处理的过程示意图;
图4为本发明实施例提供的
图5为本发明实施例提供的使用训练好的BERT网络模型进行文本的语义理解的过程流程图;
图6为本发明实施例提供的一种对文本的语义理解的系统结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
从背景技术可以看出,在对文本进行语义理解时,对文本进行分类,分类为诈骗文本或非诈骗文本时,通常采用两种方法,一种是传统机器学习方法,另一种是深度神经网络方法。诸如SVM方法或XGBoost方法等传统机器学习方法,对文本进行语义理解时的准确性较低,且无法通过大规模样本的训练来提升准确性。而深度神经网络则针对类别数据比较少的分类任务,存在比较严重的拟合现象,为了解决这个问题,可以对深度神经网络中的正则策略进行改进设置,或者为输入的深度神经网络中的文本进行更多的标注,但是,对深度神经网络中的正则策略进行改进设置会导致最终训练得到的深度神经网络的泛化能力和推广性不够,针对不同任务的文本要进行针对性的设置,而为输入的深度神经网络中的文本进行更多的标注则会带来更高的人工成本。
为了解决这个问题,本发明实施例对文本进行语义理解时,采用构建的BERT网络模型,该BERT网络模型采用无监督Mask Language Model进行预训练,且其中包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,自注意力机制负责学习文本内容上下文关系理解,记忆注意力机制负责对新添加热词进行理解和增强,得到文本的分类结果。
由于BERT模型采用了Mask Language Model进行预训练,所以使得训练好的MaskLanguage可以从文本抓取到很强的上下文表征特征,基于该很强的上下文表征特征,进行分类,得到最终的分类结果,所以得到最终的分类结果准确。更进一步地,由于BERT网络模型在对文本进行语义理解时,采用了两层的注意力机制,且其中memory attention机制是根据基于设置的热词训练得到的,所以进行注意力机制处理时,更加准确。因此,本发明实施例使得对文本的语义理解的准确性增大。
图1为本发明实施例提供的一种对文本的语义理解的方法流程图,其具体步骤包括:
步骤101、构建BERT网络模型,该BERT网络模型采用无监督Mask Language Model进行预训练;
步骤102、BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
本发明实施例应用了BERT网络模型,该BERT网络模型是图神经网络模型(transformers)的一种,其是一种能够预训练的多层双向转换编码网络,英文全称为Bidirectional Encoder Representation from Transformers。
在该方法中,该BERT网络模型采用无监督Mask Language Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行预训练。
在该方法中,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
图2为本发明实施例提供的BERT网络模型采用无监督Mask Language Model进行预训练例子示意图,如图所示,该例子中,将无监督文本样本输入到构建的BERT网络模型中,采用多层自注意机制层进行处理,得到识别的结果。可以看出,在采用无监督MaskLanguage Model的BERT网络模型进行预训练时,不需要人工对文本样本进行标注,使得BERT网络模型从文本样本中抓取得到很强的上下文表征特征。
在该方法中,所构建的BERT网络模型除了采用无监督Mask Language Model进行预训练,也需要对其包括的self-attention机制层及memory attention机制层进行训练,训练完成后形成构建的BERT网络模型。
在该方法中,BERT网络模型包括self-attention机制层,对输入文本进行语义理解包括:
self-attention机制层对输入文本进行如下述公式的自注意力机制的处理:
Figure BDA0002814406110000051
其中,Attention(.)表示进行自注意力机制处理的函数,softmax()表示的是自注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,K为查询句子中的单位词索引,V为单位句子中的单位词的投影表征。
在该方法中,BERT网络模型包括memory attention机制层,对输入文本进行语义理解包括:
memory attention机制层对输入文本进行如下述公式的自注意力机制的处理:
Figure BDA0002814406110000052
其中,Memory Attention()表示进行记忆注意力机制处理的结果,softmax()表示的是记忆注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,MemoryK为查询句子中的单位词索引,MemoryV为单位句子中的记忆单位词的投影表征。
在进行memory attention机制层对输入文本进行如上述公式的自注意力机制的处理之前,已经对memory attention机制层进行了训练,如图3所示,图3为本发明实施例提供的memory attention机制层对热词进行出来的过程示意图:对热词列表进行编码后,形成编码特征表示,然后采用上述公式进行memory attention机制处理,得到查询句子中的每个词的分类值,即memoryk及memoryv。该热词是根据要执行的任务进行设置的,比如结合诈骗任务的特点,所设置的专业词汇。对memory attention机制层训练完成后,就可以设置在BERT网络模型中了。
图4为本发明实施例提供的BERT网络模型结构示意图,如图所示,在现有的BERT网络模型的基础上,提供了两层注意力机制层,包括了self-attention机制层及memoryattention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理。这样,通过海量的无监督文本样本进行预训练该BERT网络模型之后,就可以获取到非常鲁棒且信息丰富的上下文表征。
在该方法中,在对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定(Frozen),形成Frozen单元对输入文本进行语义理解。这样,就将经过预训练的BERT网络模型中的模型参数进行固定,防止在后续在训练BERT模型时的过拟合。
图5为本发明实施例提供的使用训练好的BERT网络模型进行文本的语义理解的过程流程图,如图所示,通过Forzen单元对一个查询句子进行高维BERT网络模型矢量特征后,再通过池化层,得到一个句子的特征表示,此后将该句子的特征表示采用设置的分类器进行诈骗类型的分类。这样,就可以实现对文本的语义理解,得到分类结果,分类结果为诈骗信息或非诈骗信息。
图6为本发明实施例提供的一种对文本的语义理解的系统结构示意图,包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
在该系统中,预训练单元,还用于该BERT网络模型采用无监督Mask LanguageModel进行预训练包括:获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;根据无监督文本样本及识别的结果,对BERT模型进行预训练。
在该系统中,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
可以看出,本发明实施例通过使用海量的无监督文本样本的BERT网络模型预训练,将语音识别的结果进行高维度的语义特征表示出,有效地降低了数据的标注数量,并且可以非常高准确度地进行诈骗类型分类。进一步地,针对诈任务的特殊性,本发明实施例对BERT网络模型的结构进行改进,在BERT网络模型中除了self-attention机制层的基础上增加了memory attention机制层,使得该BERT网络模型更加聚焦于热词记忆,从而在使用时更好地抓取文本的上下文信息,进而提高语义理解的准确度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (9)

1.一种对文本的语义理解的方法,其特征在于,该方法包括:
构建BERT网络模型,该BERT网络模型采用无监督掩码语言模型Mask Language Model进行预训练;
BERT网络模型包括self-attention机制层及memory attention机制层,在对输入文本进行语义理解时,进行两层的注意力机制处理后,得到文本的分类结果。
2.如权利要求1所述的方法,其特征在于,所述BERT网络模型采用无监督MaskLanguage Model进行预训练包括:
获取海量的无监督文本样本,输入到构建的BERT网络模型中,所述BERT网络模型包括多层自注意力机制层,得到识别的结果;
根据无监督文本样本及识别的结果,对BERT模型进行无监督Mask Language Model的预训练。
3.如权利要求1所述的方法,其特征在于,所述BERT网络模型包括self-attention机制层,对输入文本进行语义理解包括:
self-attention机制层对输入文本进行如下述公式的自注意力机制的处理,
Figure FDA0002814406100000011
其中,Attention(.)表示进行自注意力机制处理的函数,softmax()表示的是自注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,K为查询句子中的单位词索引,V为单位句子中的单位词的投影表征。
4.如权利要求1所述的方法,其特征在于,所述BERT网络模型包括memory attention机制层,对输入文本进行语义理解包括:
memory attention机制层对输入文本进行如下述公式的自注意力机制的处理,
Figure FDA0002814406100000012
其中,Memory Attention()表示进行记忆注意力机制处理的结果,softmax()表示的是记忆注意力机制处理采用概率归一的函数,Q为对文本的查询句子的编码特征表示,MemoryK为查询句子中的单位词索引,MemoryV为单位句子中的记忆单位词的投影表征。
5.如权利要求1所述的方法,其特征在于,所述BERT网络模型的memory attention机制层是基于设置的热词训练得到的。
6.如权利要求1所述的方法,其特征在于,在所述对输入文本进行语义理解之前,还包括:
将BERT网络模型的预训练模型参数进行固定Frozen,形成Frozen单元对输入文本进行语义理解。
7.如权利要求1所述的方法,其特征在于,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
8.一种对文本的语义理解的系统,其特征在于,该系统包括:预训练单元、存储单元及处理单元,其中,
预训练单元,用于对构建的BERT网络模型采用无监督Mask Language Model进行预训练;
存储单元,用于对构建的BERT网络模型进行存储,所述BERT网络模型包括self-attention机制层及memory attention机制层;
处理单元,用于接收到输入的文本,进行语义理解时采用构建的BERT网络模型进行两层注意力机制处理后,得到文本的分类结果。
9.如权利要求8所述的系统,其特征在于,所述BERT网络模型应用在电信通讯网络的防诈骗业务中的对文本的诈骗信息及非诈骗信息进行分类。
CN202011406376.4A 2020-12-03 2020-12-03 一种对文本的语义理解的方法及系统 Pending CN112463965A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011406376.4A CN112463965A (zh) 2020-12-03 2020-12-03 一种对文本的语义理解的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011406376.4A CN112463965A (zh) 2020-12-03 2020-12-03 一种对文本的语义理解的方法及系统

Publications (1)

Publication Number Publication Date
CN112463965A true CN112463965A (zh) 2021-03-09

Family

ID=74806595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011406376.4A Pending CN112463965A (zh) 2020-12-03 2020-12-03 一种对文本的语义理解的方法及系统

Country Status (1)

Country Link
CN (1) CN112463965A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850565A (zh) * 2021-09-24 2021-12-28 广东诚誉工程咨询监理有限公司 一种基于成熟度模型的全过程咨询项目管理监测系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297870A (zh) * 2019-05-30 2019-10-01 南京邮电大学 一种金融领域中文新闻标题情感分类方法
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN110717334A (zh) * 2019-09-10 2020-01-21 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN111177376A (zh) * 2019-12-17 2020-05-19 东华大学 一种基于bert与cnn层级连接的中文文本分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110297870A (zh) * 2019-05-30 2019-10-01 南京邮电大学 一种金融领域中文新闻标题情感分类方法
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN110717334A (zh) * 2019-09-10 2020-01-21 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN111177376A (zh) * 2019-12-17 2020-05-19 东华大学 一种基于bert与cnn层级连接的中文文本分类方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850565A (zh) * 2021-09-24 2021-12-28 广东诚誉工程咨询监理有限公司 一种基于成熟度模型的全过程咨询项目管理监测系统及方法

Similar Documents

Publication Publication Date Title
WO2020248376A1 (zh) 情绪检测方法、装置、电子设备及存储介质
CN113094578B (zh) 基于深度学习的内容推荐方法、装置、设备及存储介质
CN112735383A (zh) 语音信号的处理方法、装置、设备及存储介质
CN113223509B (zh) 一种应用于多人混杂场景下的模糊语句识别方法及系统
CN113066499B (zh) 一种陆空通话说话人身份识别方法及装置
CN112417132B (zh) 一种利用谓宾信息筛选负样本的新意图识别方法
CN116416480B (zh) 一种基于多模板提示学习的视觉分类方法和装置
WO2021128704A1 (zh) 一种基于分类效用的开集分类方法
CN116010874A (zh) 基于深度学习多模态深尺度情感特征融合的情感识别方法
CN115238693A (zh) 一种基于多分词和多层双向长短期记忆的中文命名实体识别方法
CN115064154A (zh) 混合语言语音识别模型的生成方法及装置
CN112466284B (zh) 一种口罩语音鉴别方法
CN111091809B (zh) 一种深度特征融合的地域性口音识别方法及装置
CN112463965A (zh) 一种对文本的语义理解的方法及系统
CN113342935A (zh) 语义识别方法、装置、电子设备及可读存储介质
CN116775873A (zh) 一种多模态对话情感识别方法
CN116741155A (zh) 语音识别方法、语音识别模型的训练方法、装置及设备
CN116541523A (zh) 一种基于大数据的法律判决舆情分类方法
CN112101559B (zh) 一种基于机器学习的案件罪名推断方法
CN112233668B (zh) 一种基于神经网络的语音指令及身份识别方法
CN113111855A (zh) 一种多模态情感识别方法、装置、电子设备及存储介质
CN117649861A (zh) 基于帧级别情感状态对齐的语音情感识别方法和系统
CN113673230A (zh) 一种情感分析方法
CN116150314A (zh) 模型训练方法、意图识别方法、装置、设备及存储介质
Tyagi et al. Exploring the Potential of Convolutional Neural Networks in Sequential Data Analysis: A Comparative Study with LSTMs and BiLSTMs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination