CN114021582B - 结合语音信息的口语理解方法、装置、设备及存储介质 - Google Patents

结合语音信息的口语理解方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114021582B
CN114021582B CN202111641497.1A CN202111641497A CN114021582B CN 114021582 B CN114021582 B CN 114021582B CN 202111641497 A CN202111641497 A CN 202111641497A CN 114021582 B CN114021582 B CN 114021582B
Authority
CN
China
Prior art keywords
word
sequence
character
spoken language
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111641497.1A
Other languages
English (en)
Other versions
CN114021582A (zh
Inventor
黄石磊
汪雪
蒋志燕
程刚
廖晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Raisound Technology Co ltd
Original Assignee
Shenzhen Raisound Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Raisound Technology Co ltd filed Critical Shenzhen Raisound Technology Co ltd
Priority to CN202111641497.1A priority Critical patent/CN114021582B/zh
Publication of CN114021582A publication Critical patent/CN114021582A/zh
Application granted granted Critical
Publication of CN114021582B publication Critical patent/CN114021582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本发明涉及人工智能技术,揭露了一种结合语音信息的口语理解方法,包括:利用预设的分词器对口语语音数据对应的文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列;利用训练得到的口语理解模型对所述字符序列、目标词语序列及口语语音数据进行编码、融合、并进行分类预测得到意图标签及槽位标签。本发明还提出一种结合语音信息的口语理解装置、电子设备以及存储介质。本发明可以提高口语理解的准确率。

Description

结合语音信息的口语理解方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种结合语音信息的口语理解方法、装置、电子设备及计算机可读存储介质。
背景技术
人机对话系统需要识别人类语言中的信息,才能执行相应的任务,如给问题做出回答、预定机票、手机中的语音助手等,这个过程也叫做口语理解(Spoken LanguageUnderstanding,SLU)。口语理解通常包括用户意图检测和语义槽填充两个任务。
随着深度学习技术的发展,利用神经网络对自然语言进行识别,已经取得较为不错的效果,但是由于口语具有一定的模糊性和歧义性。目前技术中存在如下三个问题:一、仅使用字符信息来进行口语理解的,这样没有充分把显式的单词序列信息利用起来,如“播放”被拆分成“播”“放”两个字就丢失了一部分语义信息;二、一般采用某一个分词器对句子进行分词,这样可能会出现分词错误,最终导致错误一级一级往后传播;三、仅将口语信息直接解析为文本,对文本进行分析,没有考虑到说话人的停顿与语义之间的关联性。
综上所述,当前口语理解方法的准确率不高。
发明内容
本发明提供一种结合语音信息的口语理解方法、装置及计算机可读存储介质,其主要目的在于解决进行口语理解时准确率不高的问题。
为实现上述目的,本发明提供的一种结合语音信息的口语理解方法,包括:
获取口语语音数据及所述口语语音数据对应的文本数据;
利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;
利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
可选地,所述利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量,包括:
利用预设的字符编码器、预设的词语编码器、预设的语音编码器构建编码层;
利用所述字符编码器对所述字符序列进行编码,得到字符编码序列;
利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列;
利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量。
可选地,所述利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列,包括:
利用预设的自注意力机制模块及预设的双向长短期记忆网络构建所述词语编码器;
利用所述自注意力机制模块抽取所述目标词语序列的上下文信息;
利用所述双向长短期记忆网络获取所述目标词语序列的顺序信息;
对所述上下文信息及所述顺序信息进行全连接处理,得到词语编码序列。
可选地,所述利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量,包括:
在所述语音编码器中,对所述口语语音数据利用高通滤波器进行预加重处理;
对所述预加重处理后的口语语音数据进行分帧加窗处理得到,得到加窗语音帧;
对所述加窗语音帧进行快速傅立叶变换,得到对应的能量谱;
利用三角带通滤波器对所述能量谱,进行频谱平滑及消除谐波,得到优化后的能量谱;
计算所述优化后的能量谱的对数能量谱,对所述对数能量谱进行离散余弦变换,得到语音特征参数,并提取所述语音特征参数的一阶、二阶动态差分参数作为语音特征向量。
可选地,所述利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量,包括:
利用注意力模块及神经网络构建所述融合层;
利用所述注意力模块分别提取所述字符编码序列的字符综合表示向量,及所述词语编码序列的词语综合表示向量;
利用所述神经网络中预设的融合函数对所述字符综合表示向量、所述词语综合表示向量及所述语音特征向量进行融合,得到融合向量。
可选地,所述利用所述意图识别任务层对所述融合向量进行分类,得到意图标签,包括:
对所述融合向量进行横向等宽度切分成特征序列;
利用所述意图识别任务层中的循环层对所述特征序列进行预测,得到所述特征序列的初步标签序列;
利用所述意图识别任务层中的时间连接分类器对所述初步标签序列进行分类,得到所述文本数据及口语语音数据的意图标签。
可选地,所述利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签,包括:
利用所述语义槽填充任务层中预设的字符解码器对所述字符编码序列进行解码,得到每个槽位的字符隐状态;
利用所述语义槽填充任务层中预设的词语解码器对所述词语编码序列进行解码,得到每个槽位的词语隐状态;
利用预设的融合函数将所述字符隐状态及词语隐状态进行融合,得到槽位隐状态;
利用所述语义槽填充任务层中预设的分类器对所述槽位隐状态进行分类,得到槽位标签。
可选地,所述获取训练得到的口语理解模型之前,所述方法还包括:
联合所述意图标签及所述槽位标签的损失值来训练所述口语理解模型,利用如下公式计算所述损失值:
Figure 734102DEST_PATH_IMAGE001
其中,
Figure 983818DEST_PATH_IMAGE002
表示比例系数;
取值在0到1之间;
Figure DEST_PATH_IMAGE003
表示正确的意图标签;
Figure 969091DEST_PATH_IMAGE004
表示所述预测的意图标签;
Figure DEST_PATH_IMAGE005
表示第i个槽位的正确的槽位标签;
Figure 839702DEST_PATH_IMAGE006
表示第i个槽位的预测的槽位标签。
为了解决上述问题,本发明还提供一种结合语音信息的口语理解装置,所述装置包括:
分词模块,用于获取文本数据及口语语音数据;利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
编码模块,用于获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
融合模块,用于利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
意图识别模块,用于利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
语义槽填充模块,用于利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的结合语音信息的口语理解方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的结合语音信息的口语理解方法。
本发明实施例通过N个分词器对口语语音数据对应的文本数据进行分词,利用投票机制选取最优的词语结果作为目标词语序列,其中,N为大于等于2的自然数,避免因为仅采用一个分词器对所述文本数据进行分词,出现分词错误,导致后续语义识别错误,进而提升口语理解的准确率;利用预设的编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;基于注意力机制,利用预设的融合层对所述字符编码序列、词语编码序列、语音特征向量进行融合,得到融合向量,利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签;将口语语音数据中的停顿信息与所述文本数据中的语义进行结合,进一步提高了口语理解的准确率。因此本发明提出的结合语音信息的口语理解方法、装置、电子设备及计算机可读存储介质,可以解决进行口语理解时准确率不高的问题。
附图说明
图1为本发明一实施例提供的结合语音信息的口语理解方法的流程示意图;
图2为图1所示结合语音信息的口语理解方法中其中一个步骤的详细实施流程示意图;
图3为图1所示结合语音信息的口语理解方法中其中另一个步骤的详细实施流程示意图;
图4为本发明一实施例提供的结合语音信息的口语理解装置的功能模块图;
图5为本发明一实施例提供的实现所述结合语音信息的口语理解方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种结合语音信息的口语理解方法。所述结合语音信息的口语理解方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述结合语音信息的口语理解方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的结合语音信息的口语理解方法的流程示意图。在本实施例中,所述结合语音信息的口语理解方法包括:
S1、获取口语语音数据及所述口语语音数据对应的文本数据。
本发明实施例中,所述口语语音数据可以由有电子设备的对话系统提供,如智能手机、智能机器人、车载设备等电子设备的智能秘书或者对话导航系统。所述文本数据可以由具有语义识别功能的模块解析得到。
S2、利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数。
本发明实施例中,常用的分词工具有结巴分词器(jieba)、中文词法分词器(thulac)、多领域中文分词器(pkuseg),ZPar分词器等。
具体地,本发明其中一个实施例,根据预设的文字限制规则,对所述文本数据进行去脏处理,得到干净文本;利用ZPar分词器对所述干净文本进行字符分词操作,得到字符序列。
进一步地,选取jieba、thulac及pkuseg三种分词器分别对所述文本数据进行分词,得到第一词语序列、第二词语序列及第三词语序列;利用投票机制从所述第一词语序列、所述第二词语序列及所述第三词语序列选取其中一个词语序列作为目标词语序列。
采用多种分词器对所述文本数据进行分词,并从中选取最优的分词结果作为目标词语序列,避免因为采用一个分词器对所述文本数据进行分词,出现分词错误,导致后续语义识别错误,进而提升口语理解的准确率。
S3、获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层。
本发明实施例中,可以采用预设的编码层、融合层、任务层构建的口语理解模型;其中,所述编码层包含字符编码器、词语编码器、语音编码器;其中,所述融合层包含MLPAttention模块及神经网络;其中,所述任务层包含意图识别任务层及语义槽填充任务层。
本发明实施例中,由于意图识别任务与语义槽填充任务具有一定的相关性,在所述获取训练得到的口语理解模型的步骤之前,可以联合意图标签及槽位标签的损失值来训练所述口语理解模型,利用如下公式计算所述损失值:
Figure DEST_PATH_IMAGE007
其中,
Figure 972743DEST_PATH_IMAGE008
表示比例系数;
取值在0到1之间;
Figure 26150DEST_PATH_IMAGE009
表示正确的意图标签;
Figure 865930DEST_PATH_IMAGE004
表示所述预测的意图标签;
Figure 346589DEST_PATH_IMAGE005
表示第i个槽位的正确的槽位标签;
Figure 701347DEST_PATH_IMAGE006
表示第i个槽位的预测的槽位标签。
本发明实施例,在联合损失函数中引入比例系数,有利于口语理解模型对不同任务的侧重点,提升了口语识别的准确性。
S4、利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量。
本发明实施例中,所述编码层包含字符编码器、词语编码器、语音编码器。其中,所述字符编码器可以采用具有深度学习功能的预训练语言模型,所述预训练语言模型包括,但不限于ERNIE(Enhanced Language Representation with Informative Entities)模型、Robertat(Robustly Optimized BERT Pretraining Approach)模型、BERT(Bidirectional Encoder Representations from Transformer)模型等。
详细地,所述S4包括:
利用预设的字符编码器、预设的词语编码器、预设的语音编码器构建编码层;
利用所述字符编码器对所述字符序列进行编码,得到字符编码序列;
利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列;
利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量。
本发明其中一个实施例中,所述字符编码器采用BERT模型对所述字符序列进行编码。
详细地,所述利用所述字符编码器对所述字符序列进行编码,得到字符编码序列,包括:
在所述字符序列首位加上分离符[CLS],在所述字符序列对应的每个句子的最后一个字符后面加上分割符 [SEP],得到带特殊字符的字符序列;
利用所述字符编码器对所述带特殊字符的字符序列进行编码,得到字符编码序列。
具体地,所述字符序列为
Figure 558445DEST_PATH_IMAGE010
,其中所述
Figure 252732DEST_PATH_IMAGE011
为所述字符序列地第N个字符,给所述字符序列首位加上分离符[CLS],在所述字符序列对应的每个句子的最后一个字符后面加上分割符 [SEP],得到带特殊字符的字符序列。例如:所述字符序列为“周XX拍过什么电影”,加入特殊字符后,得到的带特殊字符的字符序列为“[CLS] 周XX 拍 过 什 么电 影 [SEP]”,经过BERT模型进行编码后,得到字符编码序列为
Figure 904293DEST_PATH_IMAGE012
,其中所述
Figure 11926DEST_PATH_IMAGE013
表示第N个字符对应的编码向量。
本发明实施例中,对所述字符序列添加分离符[CLS]及分割符 [SEP],有利于后续获取所述字符序列完整的字符编码序列以及字符对应的位置编码,从而有利于更准确的获取语义信息。
其中,所述词语编码器可以采用自注意力编码器,所述自注意力编码器包含自注意力模块(Self-attention)和双向长短期记忆网络(BiLSTM)。
进一步地,所述利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列,包括:
利用预设的自注意力机制模块及预设的双向长短期记忆网络构建所述词语编码器;
利用所述自注意力机制模块抽取所述目标词语序列的上下文信息;
利用所述双向长短期记忆网络获取所述目标词语序列的顺序信息;
对所述上下文信息及所述顺序信息进行全连接处理,得到词语编码序列。
具体地,所述目标词语序列为
Figure 407135DEST_PATH_IMAGE014
,其中所述
Figure 955928DEST_PATH_IMAGE015
表示所述目标词语序列中第M个词语;抽取所述目标词语序列的上下文信息以及顺序信息,并对所述上下文信息以及所述顺序信息进行全连接处理,得到词语编码序列
Figure 43970DEST_PATH_IMAGE016
,其中所述
Figure 874785DEST_PATH_IMAGE017
表示第M个词语对应的编码向量,其中M≤N。
本发明实施例中,利用注意力机制获取文本数据中的上下文信息,利用双向长短期记忆网络获取文本数据中顺序信息,充分利用顺序信息和上下文信息,避免在解析过程丢失部分语义信息,提高了口语理解的准确性。
其中,所述语音编码器可以由梅尔倒谱系数(Mel-scale Frequency CepstralCoefficients,简称MFCC)提取语音信号的语音特征向量,实现对所述口语语音数据的编码。梅尔频率是基于人耳听觉特性提出来的, 它与频率成非线性对应关系。梅尔频率倒谱系数(MFCC)则是利用它们之间的这种关系,计算得到频谱特征。
进一步地,参阅图2所示,S4中所述利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量,包括:
S41、在所述语音编码器中,对所述口语语音数据利用高通滤波器进行预加重处理;
S42、对所述预加重处理后的口语语音数据进行分帧加窗处理得到,得到加窗语音帧;
S43、对所述加窗语音帧进行快速傅立叶变换,得到对应的能量谱;
S44、利用三角带通滤波器对所述能量谱,进行频谱平滑及消除谐波,得到优化后的能量谱;
S45、计算所述优化后的能量谱的对数能量谱,对所述对数能量谱进行离散余弦变换,得到语音特征参数,并提取所述语音特征参数的一阶、二阶动态差分参数作为语音特征向量。
本发明实施例,利用MFCC提取所述口语语音数据的的语音特征向量记为
Figure 73685DEST_PATH_IMAGE018
,这种语音向量特征是基于人耳听觉特性提取出来的,不依赖于口语语音数据的的性质,对所述口语语音数据不做任何假设和限制,提取出的动态差分参数具有更好的鲁棒性。
S5、利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量。
本发明实施例中,所述融合层包含注意力模块及神经网络;其中所述注意力模块可以采用MLP Attention模块。
详细地,所述S5,包括:
利用注意力模块及神经网络构建所述融合层;
利用所述注意力模块分别提取所述字符编码序列的字符综合表示向量,及所述词语编码序列的词语综合表示向量;
利用所述神经网络中预设的融合函数对所述字符综合表示向量、所述词语综合表示向量及所述语音特征向量进行融合,得到融合向量。
具体地,利用MLP Attention模块中的注意力机制提取所述字符编码序列的字符综合表示向量,提取的计算公式如下:
Figure 476985DEST_PATH_IMAGE019
Figure 735928DEST_PATH_IMAGE020
其中,
Figure 552574DEST_PATH_IMAGE021
表示字符综合表示向量;
Figure 289586DEST_PATH_IMAGE022
表示字符的注意力权重;
Figure 812971DEST_PATH_IMAGE023
表示所述MLP Attention模块中的打分函数;
u表示所述字符编码序列
Figure 242815DEST_PATH_IMAGE024
的拼接向量,
Figure 281179DEST_PATH_IMAGE025
表示所述拼接向量的转置,
Figure 821881DEST_PATH_IMAGE026
表示第j个字符的编码向量。
具体地,提取词语综合表示向量与字符的综合表示向量方式相同,词语综合表示向量为
Figure 465352DEST_PATH_IMAGE027
,因为词语编码序列中M≤N,需要对
Figure 800519DEST_PATH_IMAGE027
进行补齐,在
Figure 591757DEST_PATH_IMAGE027
的后面补0,待补0的个数为(N-M)。
进一步地,所述融合层采用神经网络对所述字符综合表示向量
Figure 670572DEST_PATH_IMAGE028
、所述词语综合表示向量
Figure 168549DEST_PATH_IMAGE027
及所述语音特征向量
Figure 674617DEST_PATH_IMAGE029
进行融合,得到融合向量,计算过程如下:
Figure 475124DEST_PATH_IMAGE030
Figure 357629DEST_PATH_IMAGE031
其中,
Figure 710113DEST_PATH_IMAGE032
表示融合函数;
Figure 652661DEST_PATH_IMAGE034
表示比例系数,根据工程需要进行修改,取值范围在0到1之间;sigmoid()表示激活函数;
Figure 152913DEST_PATH_IMAGE035
表示字符综合表示向量
Figure 573530DEST_PATH_IMAGE036
的转置;
Figure 46100DEST_PATH_IMAGE037
表示预设的N×N维矩阵。
本发明实施例中,将所述口语语音数据对应的语音特征向量与所述文本数据对应的所述字符综合表示向量、所述词语综合表示向量进行融合,将口语语音数据中的停顿信息与所述文本数据中的语义进行结合,进一步提高了口语理解的准确率。
S6、利用所述意图识别任务层对所述融合向量进行分类,得到意图标签。
本发明实施例中所述意图识别任务层可以由分类器或预训练语言模型构建。
本发明其中一个实施例中,所述预训练语言模型包含循环层以及转录层。采用深度双向循环神经网络构建循环层,及采用采用基于神经网络的时序类分类模型构建转录层。
详细地,所述S6,包括:
对所述融合向量进行横向等宽度切分成特征序列;
利用所述意图识别任务层中的循环层对所述特征序列进行预测,得到所述特征序列的初步标签序列;
利用所述意图识别任务层中的时间连接分类器对所述初步标签序列进行分类,得到所述文本数据及口语语音数据的意图标签。
具体地,所述时间连接分类器对所述初步标签序列进行分类计算过程如下:
Figure 893970DEST_PATH_IMAGE038
Figure 881517DEST_PATH_IMAGE039
其中,
Figure 105825DEST_PATH_IMAGE040
表示表示在输入序列的融合向量为的条件下,
预测标签值
Figure 432902DEST_PATH_IMAGE041
和标签值
Figure 717252DEST_PATH_IMAGE042
相等时的概率值;
Figure 192096DEST_PATH_IMAGE043
表示所述融合向量对应的初步标签序列;
Figure 954516DEST_PATH_IMAGE044
表示概率函数;
Figure 136098DEST_PATH_IMAGE045
Figure 591350DEST_PATH_IMAGE046
表示工程可训练参数;
Figure 54955DEST_PATH_IMAGE047
表示意图标签。
S7、利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
本发明实施例中,所述语义槽填充任务层包含字符解码器、词语解码器、分类模型。其中,所述字符解码器可以由长短期记忆网络(Long Short-Term Memory,简称LSTM)构建;其中,所述词语解码器可以由双向长短期记忆网络(Bi-directional Long Short-TermMemory,简称BiLSTM)构建;其中,所述分类模型可以由预训练语言模型构建。
详细地,参阅图3所示,所述S7,包括:
S71、利用所述语义槽填充任务层中预设的字符解码器对所述字符编码序列进行解码,得到每个槽位的字符隐状态;
S72、利用所述语义槽填充任务层中预设的词语解码器对所述词语编码序列进行解码,得到每个槽位的词语隐状态;
S73、利用预设的融合函数将所述字符隐状态及词语隐状态进行融合,得到槽位隐状态;
S74、利用所述语义槽填充任务层中预设的分类器对所述槽位隐状态进行分类,得到槽位标签。
具体地,利用长短期记忆网络(LSTM)对所述字符编码序列进行解码,得到每个槽位的字符隐状态,计算过程如下:
Figure 621066DEST_PATH_IMAGE048
其中,t表示解码时间步;
Figure 657155DEST_PATH_IMAGE049
表示第t个时间步槽位的字符隐状态;
Figure 283308DEST_PATH_IMAGE050
表示所述长短期记忆网络的计算过程;
Figure 670427DEST_PATH_IMAGE051
表示第t个时间步收到的字符编码向量;
Figure 836966DEST_PATH_IMAGE052
表示预设的意图的嵌入矩阵;
Figure 993141DEST_PATH_IMAGE053
表示上一个时间步的槽位标签编码;
Figure 790196DEST_PATH_IMAGE054
表示上一个时间步槽位的字符隐状态。
进一步地,采用双向长短期记忆网络(BiLSTM)对所述词语编码序列进行解码,得到每个槽位的词语隐状态;
Figure 399032DEST_PATH_IMAGE055
其中,
Figure 634841DEST_PATH_IMAGE056
表示第t个时间步字符槽位的词语隐状态;
Figure 645522DEST_PATH_IMAGE057
表示所述双向长短期记忆网络的计算过程;
Figure 613478DEST_PATH_IMAGE058
表示第t个时间步收到的词语编码向量;
Figure 709610DEST_PATH_IMAGE059
表示所述意图标签;
Figure 217952DEST_PATH_IMAGE060
表示上一个时间步槽位的字词隐状态。
进一步地,利用falign(t,w)代替所述词语隐状态
Figure 348719DEST_PATH_IMAGE061
中的时间步t,得到更新后的词语隐状态
Figure 487576DEST_PATH_IMAGE062
例如文本数据 “周XX拍过什么电影”的分词结果为w = {“周XX”,“拍过”,“什么”,“电影”},那么falign(3,w)=1;falign(5,w)=2;falign(7,w)=3;falign(9,w)=4;利用预设的融合函数将所述字符隐状态及词语隐状态进行融合,得到槽位隐状态,计算方法如下:
Figure 71004DEST_PATH_IMAGE063
其中,所述
Figure 320720DEST_PATH_IMAGE064
表示槽位隐状态;
Figure 866846DEST_PATH_IMAGE065
表示融合函数;
Figure 176604DEST_PATH_IMAGE066
表示所述字符隐状态;
Figure 247329DEST_PATH_IMAGE067
表示所述更后的词语隐状态。
进一步地,利用预设的分类器对所述词语隐状态进行分类得到对应的槽位标签
Figure 300735DEST_PATH_IMAGE068
,所述分类器可以与所述S6步骤中分类方法相似,不在此赘述。
本发明实施例通过N个分词器对口语语音数据对应的文本数据进行分词,利用投票机制选取最优的词语结果作为目标词语序列,避免因为采用一个分词器对所述文本数据进行分词,出现分词错误,导致后续语义识别错误,进而提升口语理解的准确率;利用编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;基于注意力机制,利用预设的融合层对所述字符编码序列、词语编码序列、语音特征向量进行融合,得到融合向量,利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签;将口语语音数据中的停顿信息与所述文本数据中的语义进行结合,进一步提高了口语理解的准确率。因此本发明提出的结合语音信息的口语理解方法,可以解决进行口语理解时准确率不高的问题。
如图4所示,是本发明一实施例提供的结合语音信息的口语理解装置的功能模块图。
本发明所述结合语音信息的口语理解装置100可以安装于电子设备中。根据实现的功能,所述结合语音信息的口语理解装置100可以包括分词模块101、编码模块102、融合模块103、意图识别模块104及语义槽填充模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述分词模块101,用于获取口语语音数据及所述口语语音数据对应的文本数据;利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
所述编码模块102,用于获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
所述融合模块103,用于利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
所述意图识别模块104,用于利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
所述语义槽填充模块105,用于利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
详细地,本发明实施例中所述结合语音信息的口语理解装置100中所述的各模块在使用时采用与上述图1至图3中所述的结合语音信息的口语理解方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现结合语音信息的口语理解方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如结合语音信息的口语理解程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行结合语音信息的口语理解程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如结合语音信息的口语理解程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的结合语音信息的口语理解程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取口语语音数据及所述口语语音数据对应的文本数据;
利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;
利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取口语语音数据及所述口语语音数据对应的文本数据;
利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;
利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (11)

1.一种结合语音信息的口语理解方法,其特征在于,所述方法包括:
获取口语语音数据及所述口语语音数据对应的文本数据;
利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;
利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
2.如权利要求1所述的结合语音信息的口语理解方法,其特征在于,所述利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量,包括:
利用预设的字符编码器、预设的词语编码器、预设的语音编码器构建编码层;
利用所述字符编码器对所述字符序列进行编码,得到字符编码序列;
利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列;
利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量。
3.如权利要求2所述的结合语音信息的口语理解方法,其特征在于,所述利用所述词语编码器对所述目标词语序列进行编码,得到词语编码序列,包括:
利用预设的自注意力机制模块及预设的双向长短期记忆网络构建所述词语编码器;
利用所述自注意力机制模块抽取所述目标词语序列的上下文信息;
利用所述双向长短期记忆网络获取所述目标词语序列的顺序信息;
对所述上下文信息及所述顺序信息进行全连接处理,得到词语编码序列。
4.如权利要求2所述的结合语音信息的口语理解方法,其特征在于, 所述利用所述语音编码器对所述口语语音数据进行编码,得到语音特征向量,包括:
在所述语音编码器中,对所述口语语音数据利用高通滤波器进行预加重处理;
对所述预加重处理后的口语语音数据进行分帧加窗处理得到,得到加窗语音帧;
对所述加窗语音帧进行快速傅立叶变换,得到对应的能量谱;
利用三角带通滤波器对所述能量谱,进行频谱平滑及消除谐波,得到优化后的能量谱;
计算所述优化后的能量谱的对数能量谱,对所述对数能量谱进行离散余弦变换,得到语音特征参数,并提取所述语音特征参数的一阶、二阶动态差分参数作为语音特征向量。
5.如权利要求1至4中任一项所述的结合语音信息的口语理解方法,其特征在于,所述利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量,包括:
利用注意力模块及神经网络构建所述融合层;
利用所述注意力模块分别提取所述字符编码序列的字符综合表示向量,及所述词语编码序列的词语综合表示向量;
利用所述神经网络中预设的融合函数对所述字符综合表示向量、所述词语综合表示向量及所述语音特征向量进行融合,得到融合向量。
6.如权利要求1所述的结合语音信息的口语理解方法,其特征在于, 所述利用所述意图识别任务层对所述融合向量进行分类,得到意图标签,包括:
对所述融合向量进行横向等宽度切分成特征序列;
利用所述意图识别任务层中的循环层对所述融合向量进行预测,得到所述特征序列的初步标签序列;
利用所述意图识别任务层中的时间连接分类器对所述初步标签序列进行分类,得到所述文本数据及口语语音数据的意图标签。
7.如权利要求1所述的结合语音信息的口语理解方法,其特征在于, 所述利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签,包括:
利用所述语义槽填充任务层中预设的字符解码器对所述字符编码序列进行解码,得到每个槽位的字符隐状态;
利用所述语义槽填充任务层中预设的词语解码器对所述词语编码序列进行解码,得到每个槽位的词语隐状态;
利用预设的融合函数将所述字符隐状态及词语隐状态进行融合,得到槽位隐状态;
利用所述语义槽填充任务层中预设的分类器对所述槽位隐状态进行分类,得到槽位标签。
8.如权利要求1所述的方法,其特征在于,所述获取训练得到的口语理解模型之前,所述方法还包括:
联合所述意图标签及所述槽位标签的损失值来训练所述口语理解模型,利用如下公式计算所述损失值:
Figure 770168DEST_PATH_IMAGE001
其中,
Figure 738124DEST_PATH_IMAGE002
表示比例系数;
取值在0到1之间;
Figure 834256DEST_PATH_IMAGE003
表示正确的意图标签;
Figure 545860DEST_PATH_IMAGE004
表示所述预测的意图标签;
Figure 473364DEST_PATH_IMAGE005
表示第i个槽位的正确的槽位标签;
Figure 612222DEST_PATH_IMAGE006
表示第i个槽位的预测的槽位标签。
9.一种结合语音信息的口语理解装置,其特征在于,所述装置包括:
分词模块,用于获取文本数据及口语语音数据;利用预设的分词器对所述文本数据进行字符分词,得到字符序列,利用预设的N个分词器对所述文本数据进行分词,得到N个词语序列,利用投票机制,从所述N个词语序列中选取目标词语序列,其中所述N为大于等于2的自然数;
编码模块,用于获取训练得到的口语理解模型,其中所述口语理解模型包括编码层、融合层、意图识别任务层及语义槽填充任务层;利用所述编码层对所述字符序列、所述目标词语序列及口语语音数据进行编码,得到字符编码序列、词语编码序列、语音特征向量;
融合模块,用于利用所述融合层,基于注意力机制,对所述字符编码序列、词语编码序列及语音特征向量进行融合,得到融合向量;
意图识别模块,用于利用所述意图识别任务层对所述融合向量进行分类,得到意图标签;
语义槽填充模块,用于利用所述语义槽填充任务层对所述字符编码序列及所述词语编码序列进行预测,得到槽位标签。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的结合语音信息的口语理解方法。
11.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的结合语音信息的口语理解方法。
CN202111641497.1A 2021-12-30 2021-12-30 结合语音信息的口语理解方法、装置、设备及存储介质 Active CN114021582B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111641497.1A CN114021582B (zh) 2021-12-30 2021-12-30 结合语音信息的口语理解方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111641497.1A CN114021582B (zh) 2021-12-30 2021-12-30 结合语音信息的口语理解方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN114021582A CN114021582A (zh) 2022-02-08
CN114021582B true CN114021582B (zh) 2022-04-01

Family

ID=80069301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111641497.1A Active CN114021582B (zh) 2021-12-30 2021-12-30 结合语音信息的口语理解方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114021582B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114970666B (zh) * 2022-03-29 2023-08-29 北京百度网讯科技有限公司 一种口语处理方法、装置、电子设备及存储介质
CN114943306A (zh) * 2022-06-24 2022-08-26 平安普惠企业管理有限公司 意图分类方法、装置、设备及存储介质
CN116611453B (zh) * 2023-07-19 2023-10-03 天津奇立软件技术有限公司 基于大数据的智能派单跟单方法及系统、存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516253A (zh) * 2019-08-30 2019-11-29 苏州思必驰信息科技有限公司 中文口语语义理解方法及系统
CN110795938A (zh) * 2019-11-11 2020-02-14 北京小米智能科技有限公司 文本序列分词方法、装置及存储介质
CN112183062A (zh) * 2020-09-28 2021-01-05 云知声智能科技股份有限公司 一种基于交替解码的口语理解方法、电子设备和存储介质
WO2021190259A1 (zh) * 2020-03-23 2021-09-30 华为技术有限公司 一种槽位识别方法及电子设备
CN113486669A (zh) * 2021-07-06 2021-10-08 上海市东方医院(同济大学附属东方医院) 应急救援输入语音的语义识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10431207B2 (en) * 2018-02-06 2019-10-01 Robert Bosch Gmbh Methods and systems for intent detection and slot filling in spoken dialogue systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110516253A (zh) * 2019-08-30 2019-11-29 苏州思必驰信息科技有限公司 中文口语语义理解方法及系统
CN110795938A (zh) * 2019-11-11 2020-02-14 北京小米智能科技有限公司 文本序列分词方法、装置及存储介质
WO2021190259A1 (zh) * 2020-03-23 2021-09-30 华为技术有限公司 一种槽位识别方法及电子设备
CN112183062A (zh) * 2020-09-28 2021-01-05 云知声智能科技股份有限公司 一种基于交替解码的口语理解方法、电子设备和存储介质
CN113486669A (zh) * 2021-07-06 2021-10-08 上海市东方医院(同济大学附属东方医院) 应急救援输入语音的语义识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于知识蒸馏的口语理解模型研究与实现;侯晓龙等;《电子技术与软件工程》;20210115(第02期);第180-184页 *

Also Published As

Publication number Publication date
CN114021582A (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN114021582B (zh) 结合语音信息的口语理解方法、装置、设备及存储介质
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN110688854A (zh) 命名实体识别方法、装置及计算机可读存储介质
CN111738016A (zh) 多意图识别方法及相关设备
CN110678882B (zh) 使用机器学习从电子文档选择回答跨距的方法及系统
CN114822812A (zh) 角色对话模拟方法、装置、设备及存储介质
CN113420556A (zh) 基于多模态信号的情感识别方法、装置、设备及存储介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN115757731A (zh) 对话问句改写方法、装置、计算机设备及存储介质
CN113221553A (zh) 一种文本处理方法、装置、设备以及可读存储介质
CN114662484A (zh) 语义识别方法、装置、电子设备及可读存储介质
CN113254814A (zh) 网络课程视频打标签方法、装置、电子设备及介质
CN117725211A (zh) 一种基于自构建提示模板的文本分类方法和系统
CN117275466A (zh) 一种业务意图识别方法、装置、设备及其存储介质
CN116450797A (zh) 基于多模态对话的情感分类方法、装置、设备及介质
CN116304014A (zh) 训练实体类型识别模型的方法、实体类型识别方法及装置
CN116542783A (zh) 基于人工智能的风险评估方法、装置、设备及存储介质
CN115510188A (zh) 文本关键词关联方法、装置、设备及存储介质
CN112818688B (zh) 文本处理方法、装置、设备及存储介质
CN112528674B (zh) 文本处理方法、模型的训练方法、装置、设备及存储介质
CN114417891A (zh) 基于粗糙语义的回复语句确定方法、装置及电子设备
CN114610887A (zh) 坐席违规话术识别方法、装置、电子设备、存储介质
CN114117037A (zh) 意图识别方法、装置、设备和存储介质
CN113515931B (zh) 文本纠错方法、装置、计算机设备及存储介质
CN114818644B (zh) 文本模板生成方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant