CN114400005A - 语音消息生成方法和装置、计算机设备、存储介质 - Google Patents

语音消息生成方法和装置、计算机设备、存储介质 Download PDF

Info

Publication number
CN114400005A
CN114400005A CN202210057040.4A CN202210057040A CN114400005A CN 114400005 A CN114400005 A CN 114400005A CN 202210057040 A CN202210057040 A CN 202210057040A CN 114400005 A CN114400005 A CN 114400005A
Authority
CN
China
Prior art keywords
message
data
voice
expression
text message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210057040.4A
Other languages
English (en)
Inventor
郑喜民
贾云舒
舒畅
陈又新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210057040.4A priority Critical patent/CN114400005A/zh
Publication of CN114400005A publication Critical patent/CN114400005A/zh
Priority to PCT/CN2022/090752 priority patent/WO2023137922A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

本实施例提供一种基于表情识别的语音消息生成方法和装置、计算机设备、存储介质,属于人工智能技术领域。该基于表情识别的语音消息生成方法包括:获取语音数据及其对应的面部图像,对语音数据进行语音识别得到文本消息,并对面部图像进行表情识别得到表情消息;将文本消息和表情消息输入至第一模型,由第一模型根据文本消息和表情消息得到回答文本消息,最后对回答文本消息进行语音转换,得到对应的回答语音消息。本申请实施例将面部图像加入到聊天机器人中,通过对面部图像的识别,能够更加精准判断出当前的情景,并由第一模型根据文本消息和表情消息得到回答文本消息,且将回答文本消息转换成语音回复消息,进而提高语音回复消息的准确率。

Description

语音消息生成方法和装置、计算机设备、存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音消息生成方法和装置、计算机设备、存储介质。
背景技术
随着计算机技术的发展,如即时通信工具、手机短信等通讯手段日渐风行。基于这些通讯手段,除了实现人与人之间的沟通交流外,也使得人与人工智能系统之间的沟通交流成为可能。例如,聊天机器人就是一种借助于通讯手段实现与人沟通交流的人工智能系统。
目前,聊天机器人分为主动交互型和被动交互型两种。主动交互,即由机器人主动发起,通过共享或推荐用户感兴趣的热点信息和人类进行互动。被动交互,即由用户发起对话,机器理解对话并作出相应的回应。目前用户所接触到的大多数聊天机器人属于被动交互型,但是目前被动交互型的聊天机器人交互功能比较单一,即只能根据用户的语音识别出的文本进行相应的回答,但是采用这种单一的识别方式,往往影响聊天机器人所生成的语音回复消息的准确率。
发明内容
本申请实施例的主要目的在于提出一种基于表情识别的语音消息生成方法和装置、计算机设备、存储介质,旨在提高语音回复消息的准确率。
为实现上述目的,本申请实施例的第一方面提出了一种基于表情识别的语音消息生成方法,所述方法包括:
获取语音数据及其对应的面部图像:
对所述语音数据进行语音识别得到文本消息;
对所述面部图像进行表情识别得到表情消息:
将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息:
对所述回答文本消息进行语音转换,得到对应的回答语音消息。
在一些实施例,所述对所述语音数据进行语音识别得到文本消息,包括:
对所述语音数据的时域信号进行积分变换得到频域信号;
根据所述时域信号和所述频域信号,构建平面空间;
通过第一神经网络,在所述平面空间中对所述语音数据进行卷积运算,得到语音序列和序列长度;
根据所述序列长度对所述语音序列进行切片,得到多个切片序列;
通过第二神经网络对多个所述切片序列进行文本转换,得到所述文本消息。
在一些实施例,所述对所述面部图像进行表情识别得到表情消息,包括:
通过第三神经网络对所述面部图像进行自注意力筛选,得到变换参数;
根据所述变换参数对所述面部图像进行扭曲变换,得到变换图像;
通过第四神经网络对所述面部图像和所述变换图像进行表情识别,得到所述表情消息。
在一些实施例,所述第四神经网络包括卷积层、全连接层和分类器;所述通过第四神经网络对所述面部图像和所述变换图像进行表情识别,得到表情消息,包括:
通过所述卷积层对所述面部图像和所述变换图像进行特征提取,得到多个图像特征向量;
通过所述全连接层对多个所述图像特征向量进行拼接,得到图像拼接向量;
通过所述分类器对所述图像拼接向量进行表情分类,得到所述表情消息。
在一些实施例,在所述将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息之前,包括:
获取消息数据集;其中,所述消息数据集包括多个问题样本数据、多个预设表情和多个回答样本数据,所述问题样本数据和所述预设表情一一对应以形成绑定组,每个所述绑定组与所述回答样本数据具有映射关系;
对多个所述问题样本数据进行分词,得到多个问题分词数据;
对多个所述回答样本数据进行分词,得到多个回答分词数据;
获取第一原始模型;
根据多个所述问题分词数据、多个所述回答分词数据和多个所述预设表情对所述第一原始模型进行训练,得到所述第一模型。
在一些实施例,所述第一原始模型包括编码器和解码器;所述根据多个所述问题分词数据、多个所述回答分词数据和多个所述预设表情对所述第一原始模型进行训练,得到第一模型,包括:
将多个所述问题分词数据和多个所述回答分词数据输入至所述编码器进行第一编码,得到样本编码数据;
将多个所述预设表情输入至所述编码器进行第二编码,得到表情编码数据;
对所述样本编码数据和所述表情编码数据进行拼接,得到样本拼接数据;
将所述样本拼接数据输入至所述解码器进行解码,得到样本解码数据;
根据所述样本拼接数据和所述样本解码数据,计算所述第一原始模型的损失函数,得到损失值;
根据所述损失值更新所述第一原始模型,得到第一模型。
在一些实施例,所述对所述回答文本消息进行语音转换,得到对应的回答语音消息,包括:
对所述回答文本消息进行语音转换,得到初步语音消息;
对所述初步语音消息进行变换,得到声谱图;
提取所述声谱图的音频特征;
通过第五神经网络模型对所述音频特征进行解码,得到每一帧对应的音频数据;
将所述音频数据进行合成处理,得到对应的回答语音消息。
本公开实施例的第二方面提出了一种基于表情识别的语音消息生成装置,包括:
数据采集模块,用于获取语音数据及其对应的面部图像:
语音识别模块,用于对所述语音数据进行语音识别得到文本消息;
表情识别模块,用于对所述面部图像进行表情识别得到表情消息:
文本消息获取模块,用于将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息:
语音消息获取模块,用于对所述回答文本消息进行语音转换,得到对应的回答语音消息。
本公开实施例的第三方面提出了一种计算机设备,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有程序,所述程序被所述处理器执行时所述处理器用于执行如本申请第一方面实施例任一项所述的方法。
本公开实施例的第四方面提出了一种存储介质,该存储介质为计算机可读存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如本申请第一方面实施例任一项所述的方法。
本公开实施例提出的基于表情识别的语音消息生成方法和装置、计算机设备、存储介质,通过获取语音数据及其对应的面部图像,对语音数据进行语音识别得到文本消息,并对面部图像进行表情识别得到表情消息;将文本消息和表情消息输入至第一模型,由第一模型根据文本消息和表情消息得到回答文本消息,最后对回答文本消息进行语音转换,得到对应的回答语音消息。本申请实施例将面部图像加入到聊天机器人中,通过对面部图像的识别,能够更加精准判断出当前的情景,并由第一模型根据文本消息和表情消息得到回答文本消息,且将回答文本消息转换成语音回复消息,进而提高语音回复消息的准确率。
附图说明
图1是本公开实施例提供的基于表情识别的语音消息生成方法的第一流程图;
图2是图1中的步骤S200的流程图;
图3是图1中的步骤S300的流程图;
图4是图3中的步骤S330的流程图;
图5是图1中的步骤S500的流程图;
图6是本公开实施例提供的基于表情识别的语音消息生成方法的第二流程图;
图7是本公开实施例提供的基于表情识别的语音消息生成方法的实际应用流程图;
图8是本公开实施例提供的基于表情识别的语音消息生成装置的模块结构框图;
图9是本公开实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
聊天机器人(Chatterbot):是经由对话或文字进行交谈的计算机程序。能够模拟人类对话,通过图灵测试。聊天机器人可用于实用的目的,如客户服务或资讯获取。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从数据库中找寻最合适的应答句。聊天机器人是虚拟助理(如Google智能助理)的一部分,可以与许多组织的应用程序,网站以及即时消息平台(Facebook Messenger)连接。非助理应用程序包括娱乐目的的聊天室,研究和特定产品促销,社交机器人。
卷积神经网络(Convolutional Neural Networks,CNN):是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deeplearning)的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification)。随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被应用于计算机视觉、自然语言处理等领域。卷积神经网络仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-liketopology)特征,例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程(feature engineering)要求。
循环神经网络(Recurrent Neural Network,RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network),其中双向循环神经网络(Bidirectional RNN,Bi-RNN)和长短期记忆网络(Long Short-Term Memory networks,LSTM)是常见的循环神经网络。循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理(NaturalLanguage Processing,NLP),例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报。引入了卷积神经网络构筑的循环神经网络可以处理包含序列输入的计算机视觉问题。
门控循环单元(Gated Recurrent Unit,GRU):是循环神经网络中的一种门控机制,与其他门控机制相似,其旨在解决标准RNN中的梯度消失/爆炸问题并同时保留序列的长期信息。GRU在许多诸如语音识别的序列任务上与LSTM同样出色,不过它的参数比LSTM少,仅包含一个重置门(reset gate)和一个更新门(update gate)。
CTC(Connectionist temporal classification):是序列标注问题中的一种损失函数,主要用于处理序列标注问题中的输入与输出标签的对齐问题。传统序列标注算法需要每一时刻输入与输出符号完全对齐,而CTC扩展了标签集合,添加空元素。在使用扩展标签集合对序列进行标注后,所有可以通过映射函数转换为真实序列的预测序列,都是正确的预测结果,也就是在无需数据对齐处理,即可得到预测序列。其目标函数就是最大化所有正确的预测序列的概率和,在查找所有正确预测序列时,采用了前向后向算法。
感兴趣区域(region of interest,ROI):机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域,称为感兴趣区域。
OpenCV:是一个基于Apache2.0许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和Mac OS操作系统上。它轻量级而且高效,由一系列C函数和少量C++类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法。OpenCV用C++语言编写,它具有C++,Python,Java和MATLAB接口,并支持Windows,Linux,Android和Mac OS,OpenCV主要倾向于实时视觉应用,并在可用时利用MMX和SSE指令,如今也提供对于C#、Ch、Ruby,GO的支持。
VGG模型(Visual Geometry Group Network):该网络是在ILSVRC 2014上的相关工作,主要工作是证明了增加网络的深度能够在一定程度上影响网络最终的性能。VGG有两种结构,分别是VGG16和VGG19,两者并没有本质上的区别,只是网络深度不一样。VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。
嵌入(embedding):embedding是一种向量表征,是指用一个低维的向量表示一个物体,该物体可以是一个词,或是一个商品,或是一个电影等等;这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,比如embedding(复仇者联盟)和embedding(钢铁侠)之间的距离就会很接近,但embedding(复仇者联盟)和embedding(乱世佳人)的距离就会远一些。embedding实质是一种映射,从语义空间到向量空间的映射,同时尽可能在向量空间保持原样本在语义空间的关系,如语义接近的两个词汇在向量空间中的位置也比较接近。embedding能够用低维向量对物体进行编码还能保留其含义,常应用于机器学习,在机器学习模型构建过程中,通过把物体编码为一个低维稠密向量再传给DNN,以提高效率。
交叉熵(Cross Entropy):是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。复杂度的意义是用该模型表示这一文本平均的分支数,其倒数可视为每个词的平均概率。平滑是指对没观察到的N元组合赋予一个概率值,以保证词序列总能通过语言模型得到一个概率值。通常使用的平滑技术有图灵估计、删除插值平滑、Katz平滑和Kneser-Ney平滑。
jieba分词器:jieba分词器也叫结巴分词器,是一种开源分词器;中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块,在进行中文自然语言处理时,通常需要先进行分词,其中,常用jieba分词器进行分词;jieba分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG),再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。jieba分词支持三种分词模式:第一种是精确模式,该精确模式试图将句子最精确地切开,适合文本分析:第二种是全模式,该全模式是把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;第三种是搜索引擎模式,该搜索引擎模式是在精确模式的基础上,对长词再词切分,提高召回率,适合用于搜索引擎分词。
Analyzer分词器:Analyzer分词器是专门处理分词的组件,一般包括三部分:Character Filters、Tokenizer(按照规则切分为单词)、Token Filters;其中,CharacterFilters主要用于处理原始文本,例如去除html、特殊字符;Tokenizer用于按照规则切分为单词;Token Filters用于将切分的单词加工,包括小写、删除stopwords(停用词),增加同义词等。
encoder:编码,就是将输入序列转化成一个固定长度的向量;解码(decoder),就是将之前生成的固定向量再转化成输出序列;其中,输入序列可以是文字、语音、图像、视频;输出序列可以是文字、图像。
word2vec(word to vector):是一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。
自注意力机制(Attention Mechanism):注意力机制可以使得神经网络具备专注于其输入(或特征)子集的能力,选择特定的输入,可以应用于任何类型的输入而不管其形状如何。在计算能力有限情况下,注意力机制是解决信息超载问题的主要手段的一种资源分配方案,将计算资源分配给更重要的任务。
Seq2Seq:是一种重要的RNN模型,也称为Encoder-Decoder模型,可以理解为一种N×M的模型。模型包含两个部分:Encoder用于编码序列的信息,将任意长度的序列信息编码到一个向量c里。而Decoder是解码器,解码器得到上下文信息向量c之后可以将信息解码,并输出为序列。
短时傅里叶变换(Short Time Fourier Transform,STFT),只适用于平稳信号,豚类的whistle信号属于非平稳信号,频率特性随时间变化,为了捕捉这一时变特征,需要对信号进行时频分析,常用短时傅里叶变换、小波变换、希尔伯特黄变换等。
梅尔频率倒谱(Mel-Frequency Cepstrum):是基于声音频率的非线性梅尔刻度(mel scale)的对数能量频谱的线性变换。梅尔频率倒谱系数(Mel-Frequency CepstralCoefficients,MFCCs)就是组成梅尔频率倒谱的系数。它衍生自音讯片段的倒频谱(cepstrum)。倒谱和梅尔频率倒谱的区别在于,梅尔频率倒谱的频带划分是在梅尔刻度上等距划分的,它比用于正常的对数倒频谱中的线性间隔的频带更能近似人类的听觉系统。这样的非线性表示,可以在多个领域中使声音信号有更好的表示。
Griffin-lim:是一种声码器,常用于语音合成,用于将语音合成系统生成的声学参数转换成语音波形,这种声码器不需要训练,不需要预知相位谱,而是通过帧与帧之间的关系估计相位信息,从而重建语音波形。
Softmax分类器:为逻辑回归分类器面对多个分类的一般化归纳,输出的是属于不同类别的概率值。
随着计算机技术的发展,如即时通信工具、手机短信等通讯手段日渐风行。基于这些通讯手段,除了实现人与人之间的沟通交流外,也使得人与人工智能系统之间的沟通交流成为可能。例如,聊天机器人就是一种借助于通讯手段实现与人沟通交流的人工智能系统。目前用户所接触到的大多数聊天机器人属于被动交互型,但是目前被动交互型的聊天机器人交互功能比较单一,即只能根据用户的语音识别出的文本进行相应的回答,但是采用这种单一的识别方式,往往影响聊天机器人所生成的语音回复消息的准确率。
基于此,本公开实施例提供一种基于表情识别的语音消息生成方法和装置、计算机设备、存储介质,能够提高文本情感分类的准确率。
本公开实施例提供基于表情识别的语音消息生成方法和装置、计算机设备、存储介质,具体通过如下实施例进行说明,首先描述本公开实施例中的基于表情识别的语音消息生成方法。
本公开实施例提供的基于表情识别的语音消息生成方法,涉及人工智能领域。本公开实施例提供的基于表情识别的语音消息生成方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现基于表情识别的语音消息生成方法的应用等,但并不局限于以上形式。
本公开实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
参照图1,根据本公开实施例第一方面实施例的基于表情识别的语音消息生成方法,包括但不限于包括步骤S100至步骤S500。
步骤S100,获取语音数据及其对应的面部图像:
步骤S200,对语音数据进行语音识别得到文本消息;
步骤S300,对面部图像进行表情识别得到表情消息:
步骤S400,将文本消息和表情消息输入至第一模型,第一模型根据文本消息和表情消息得到回答文本消息:
步骤S500,对回答文本消息进行语音转换,得到对应的回答语音消息。
在一些实施例的步骤S100中,通过麦克风捕捉用户发出的语音数据,即用户对聊天机器人说话的内容;捕捉用户发出的语音数据的同时,利用摄像头捕捉用户说话时的图像,具体地可以捕捉用户的面部图像。在实际应用中,摄像头捕捉到的某些图像可能没有拍到用户的面部区域,或者图像中并不仅仅包含用户的面部区域,此时还需要对摄像头捕捉到的图像进行进一步的筛选。具体地,可以将不包含用户面部区域的图像进行删除。为了进一步提高表情识别的准确率,还可以对图像的感兴趣区域,例如人脸区域进行检测,其中人脸区域为本申请实施例中的表情需要重点关注的区域。
在一些实施例中,还可以采用开源的openCV中的CascadeClassifier函数来自动检测图片中的所有人脸区域,以实现图像的人脸检测定位。
在一些实施例的步骤S200中,采集到用户发出的语音数据之后,还需要将语音数据转换成文本,得到文本消息。
在一些实施例的步骤S300中,采集到用户的面部图像之后,需要对面部图像进行表情分类处理,例如需要判断某一面部图像是哪一个表情,并根据该表情生成对应的表情消息,例如该表情对应的文字向量或者图像向量,用于使第一模型生成回答文本消息。在本申请实施例中,可以将表情分为高兴、伤心、生气、中性、惊讶和害怕等。
在一些实施例的步骤S400中,将文本消息和表情消息输入至第一模型,第一模型根据文本消息和表情消息得到回答文本消息。
在一些实施例的步骤S500中,对回答文本消息进行语音转换,得到对应的回答语音消息,生成回答语音消息之后,由聊天机器人根据语音消息对用户做出相应的语音回答。
在一些实施例中,如图2所示,步骤S200具体包括但不限于步骤S210至步骤S250。
步骤S210,对语音数据的时域信号进行积分变换得到频域信号;
步骤S220,根据时域信号和频域信号,构建平面空间;
步骤S230,通过第一神经网络,在平面空间中对语音数据进行卷积运算,得到语音序列和序列长度;
步骤S240,根据序列长度对语音序列进行切片,得到多个切片序列;
步骤S250,通过第二神经网络对多个切片序列进行文本转换,得到文本消息。
在一些实施例的步骤S210中,对语音数据的时域信号进行积分变换得到频域信号,在本申请实施例中,积分变换可以采用傅里叶变换,其中,傅里叶变换是将原来难以处理的时域信号转换成了易于分析的频域信号,快速傅里叶变换的功能就是把时域的数字信号变换到频域当中,可以在频域上来分析能量较高的位置,这些位置可能就是需要关注的声音所处的频段。
在一些实施例的步骤S220中,将时域信号和频域信号组成一个二维空间,也即平面空间。
在一些实施例的步骤S230中,通过第一神经网络,在平面空间中对语音数据进行卷积运算,得到语音序列和序列长度。其中,第一神经网络由多个CNN组成,用于对语音数据进行卷积运算,得到语音序列,以及该语音序列的长度。
在一些实施例的步骤S240中,根据序列长度对语音序列进行切片,具体地,对该语音数据进行建模,建模的过程中,可以将语音序列切成多片,得到切片序列,例如将语音序列切成N片,得到N个切片序列。
在一些实施例的步骤S250中,通过第二神经网络对多个切片序列进行文本转换,得到文本消息。具体地,第二神经网络可以为RNN网络,RNN网络运用到多个GRU单元,将步骤S240得到的N个切片作为RNN的N个输入,并获取RNN输出的文本消息,由此完成了将语音数据转换成文本消息的过程。需要说明的是,当时间步数较大或者时间步较小时,RNN网络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减的问题,从而导致RNN网络在实际中较难捕捉时间序列中时间步距离较大的依赖关系,基于此,本申请实施例在RNN网络中采用GRU单元,能够更好地捕捉时间序列中时间步距离较大的依赖关系,并控制信息的流动,以此达到较好的模型训练效果,使转换得到的文本消息更为准确。
在一些实施例中,第一神经网络与第二神经网络可构成语音模型,语音模型能够实现将语音数据转换成文本消息。为了进一步提高语音模型的训练效果,考虑使用损失函数对语音模型进行优化,例如采用CTC损失函数,具体地损失函数如公式(1)所示,其中,X表示给定的一段语音,Z表示与X对应的文本,Π为求积运算,p表示概率,p(Z|X)表示给定X输出为X的概率,L表示X对应的Z的输出概率,通过最小化概率的乘积最小化损失函数,具体地,可以通过按照相同字母连续出现多次则去重的策略以及去除空格的策略来最小化损失函数。
Figure BDA0003476795040000111
在一些实施例中,如图3所示,步骤S300具体包括但不限于步骤S310至步骤S330。
步骤S310,通过第三神经网络对面部图像进行自注意力筛选,得到变换参数;
步骤S320,根据变换参数对面部图像进行扭曲变换,得到变换图像;
步骤S330,通过第四神经网络对面部图像和变换图像进行表情识别,得到表情消息。
在一些实施例的步骤S310中,通过第三神经网络对面部图像进行自注意力筛选,得到变换参数,即参数θ。其中,第三神经网络在本申请实施例指的是自注意力网络,由两个卷积层和两个全连接层组成,可以定位到面部的重点区域。由于不同的表情拥有不同的重点区域,例如,用户在生气时,其面部表情的重点区域为眉眼;用户在开心时,其面部表情的重点区域在嘴巴;用户在惊讶时,其面部表情的重点区域在嘴巴、眼睛等,采用自注意力网络能够更精准地对面部图像进行表情分类。
在一些实施例的步骤S320中,根据变换参数θ对面部图像进行扭曲变换,得到变换图像,具体地,变换参数可以为多种,例如,若变换参数为变换方向,且变换方向为顺时针旋转90度,则可根据该变换参数变换面部图像的方向;若变换参数为向上翻转,则可根据该变换参数将面部图像进行镜像翻转处理等,从而确定面部图像中的哪些区域属于和表情相关的重点区域。
在一些实施例的步骤S330中,对面部图像进行特征提取处理,得到对应的特征向量,将特征向量以及步骤S320得到的变换图像输入至第四神经网络,输出表情的分类结果。在实际应用中,可以采用VGG-19网络对面部图像进行特征提取。需要说明的是,本申请所述的分类消息体现为多种形式,例如输出为表情图像的形式,或者表情文字的形式,若为表情图像的形式,则将表情图像转换成向量,得到表情消息;若为表情文字的形式,则将表情文字转换成向量,得到表情消息。
在一些实施例中,第四神经网络包括卷积层、全连接层和分类器,如图4所示,步骤S330具体包括但不限于步骤S331至步骤S333。
步骤S331,通过卷积层对面部图像和变换图像进行特征提取,得到多个图像特征向量;
步骤S332,通过全连接层对多个图像特征向量进行拼接,得到图像拼接向量;
步骤S333,通过分类器对图像拼接向量进行表情分类,得到表情消息。
在一些实施例的步骤S331中,将面部图像和变换图像输入至第四神经网络的卷积层,通过卷积层对面部图像进行特征提取处理,得到多个图像特征向量。
在一些实施例的步骤S332中,将多个图像特征向量输入至全连接层,通过全连接层对多个图像特征向量进行拼接,得到图像拼接向量。
在一些实施例的步骤S333中,将图像拼接向量输入至分类器,由分类器输出表情的分类结果,根据分类结果得到表情消息。在实际应用中,本申请所指的分类器可以为Softmax分类器等。
在一些实施例中,第三神经网络和第四神经网络可构成表情识别模型,表情识别模型能够实现面部图像的表情分类。为了进一步提高表情识别模型的训练效果,考虑使用损失函数对表情识别模型进行优化,例如采用交叉熵损失函数,如公式(2)所示,其中M为类别的数量,yic为真实类别,pic为观测样本i属于M个类别中的某一类别C的预测概率。
Figure BDA0003476795040000121
在一些实施例中,通过VGG-19对人脸照片,即本申请实施例提到的面部图像进行特征提取,得到面部图像对应的图像特征向量;与此同时,将人脸照片输入到自注意力网络生成一个参数θ,根据参数θ得到Tθ(G)。其中,Tθ(G)相当于对输入作了一个仿射变换,θ就是变换的参数,相当于对输入的人脸照片生成一个扭曲变换后的样本,即变换图像,有助于神经网络在人脸中找到跟表情相关的重要区域。接着,对变换图像进行特征提取,得到变换图像对应的图像特征向量。最后,将面部图像对应的图像特征向量和变换图像对应的图像特征向量输入至两个全连接层,由全连接层输出表情的分类结果。本申请实施例引入了注意力机制,可以根据不同的表情,定位脸部不同的重点区域,使神经网络关注人脸中与表情相关的区域,使表情识别的效果更加精准。
在一些实施例中,如图5所示,步骤S500具体包括但不限于步骤S510至步骤S550。
步骤S510,对回答文本消息进行语音转换,得到初步语音消息;
步骤S520,对初步语音消息进行变换,得到声谱图;
步骤S530,提取声谱图的音频特征;
步骤S540,通过第五神经网络模型对音频特征进行解码,得到每一帧对应的音频数据;
步骤S550,将音频数据进行合成处理,得到对应的回答语音消息。
在一些实施例的步骤S510中,对回答文本消息进行语音转换,得到初步语音消息,在实际应用中,可通过OCR文字识别等软件进行语音转换。
在一些实施例的步骤S520中,对初步语音消息进行变换,得到声谱图。具体地,初步语音消息指的是回答文本消息所对应的声音信号,通过STFT能够将声音信号转换为对应的二维信号,从而得到声谱图。具体地,STFT的原理为:把一段长信号分帧、加窗,再对每一帧做傅里叶变换(Fourier Transform,FFT),最后把每一帧的结果沿另一个维度堆叠起来,得到类似于一幅图的二维信号形式,从而得到对应的声谱图。
在一些实施例的步骤S530中,利用编码器提取声谱图的MFCC音频特征。
在一些实施例的步骤S540中,使用基于自注意力机制的第五神经网络对音频特征进行解码,得到每一帧对应的音频数据。具体地,第五神经网络为RNN网络,具体由两层GRU网络层构成,其中,每一GRU网络层包含256个GRU单元。
在一些实施例的步骤S550中,由于从频谱生成音频的时候,需要考虑连续帧之间相位变化的规律,所以得到了每一帧对应的音频之后,需要采用Griffin_lim重建算法去微调连续帧之间的相位变化,进而生成连续帧音频,得到对应的回答语音消息。需要说明的是,在连续帧之间的相位变化较大的情况下,需要求得一个中间相位,使得连续帧音频的相位变化不至于太大,从而影响回答语音消息生成的效果。此外,本申请实施例还能够根据不同的表情,对语音语调等输出音频参数进行变换,使机器人做出更加应景的回答。
在一些实施例中,如图6所示,在步骤S400之前,还包括步骤:构建第一模型,具体包括但不限于步骤S610至步骤S650。
步骤S610,获取消息数据集;
步骤S620,对多个问题样本数据进行分词,得到多个问题分词数据;
步骤S630,对多个回答样本数据进行分词,得到多个回答分词数据;
步骤S640,获取第一原始模型;
步骤S650,根据多个问题分词数据、多个回答分词数据和多个预设表情对第一原始模型进行训练,得到第一模型。
在一些实施例的步骤S610中,获取用于进行模型训练的消息数据集。其中,消息数据集包括多个问题样本数据、多个预设表情和多个回答样本数据,问题样本数据和预设表情一一对应以形成绑定组,每个绑定组与回答样本数据具有映射关系;
在一些实施例的步骤S620中,采用中文分词工具jieba或者Analyzer对多个问题样本数据进行分词处理,得到多个问题分词数据。
在一些实施例的步骤S630中,采用中文分词工具jieba或者Analyzer对多个回答样本数据进行分词处理,得到多个回答分词数据。
在一些实施例的步骤S640中,获取第一原始模型,其中第一原始模型具体可以为Seq2seq模型,该模型还没有经过训练。
在一些实施例的步骤S650中,根据多个问题分词数据、多个回答分词数据和多个预设表情对第一原始模型进行训练,得到第一模型。
在一些实施例中,步骤S650还包括但不限于如下步骤:
将多个问题分词数据和多个回答分词数据输入至编码器进行第一编码,得到样本编码数据;
将多个预设表情输入至编码器进行第二编码,得到表情编码数据;
对样本编码数据和表情编码数据进行拼接,得到样本拼接数据;
将样本拼接数据输入至解码器进行解码,得到样本解码数据;
根据样本拼接数据和样本解码数据,计算第一原始模型的损失函数,得到损失值;
根据损失值更新第一原始模型,得到第一模型。
更具体地,将多个问题分词数据和多个回答分词数据输入至编码器进行第一编码,得到样本编码数据。其中,编码器指的是word2vec,所生成的样本编码数据为词嵌入向量。同时,将多个预设表情输入至word2vec进行第二编码,得到表情编码数据。接着,将样本编码数据和表情编码数据输入至Seq2seq模型中,进行训练。具体地,通过Seq2seq模型对样本编码数据和表情编码数据进行拼接,得到样本拼接数据,将样本拼接数据输入至解码器进行解码,得到样本解码数据;根据样本拼接数据和样本解码数据,计算第一原始模型的损失函数,例如交叉熵损失函数,得到损失值;根据损失值更新第一原始模型,得到第一模型。为了解决Seq2seq中解码器只接受编码器最后一个输出,而远离了之前的输出导致的信息丢失问题,本申请实施例还使用了attention模型,将注意力集中在问题的一些关键位置。
在一些实施例中,如图7所示,本申请采用了多个模块以实现基于表情识别的语音消息生成方法的过程。具体地模块包括:语音识别模块、表情识别模块、文本理解模块和语音转换模块,具体地方法包括:语音识别模块识别用户对聊天机器人说话的语音信息,且将语音信息转换成对应的文本。与此同时,摄像头获取用户说话时的图像,并捕捉人脸区域,得到人脸区域图像,将人脸区域图像输入至表情识别模块,由表情识别模块识别出对应的表情。将语音识别模块得到的文本以及表情识别模块得到的表情输入至文本理解模块中,由文本理解模块根据文本和表情生成文本回答。将文本输入至语音转换模块中,生成语音回答,由此完成基于表情识别的语音消息生成方法的过程。
本公开实施例提出的基于表情识别的语音消息生成方法,通过获取语音数据及其对应的面部图像,对语音数据进行语音识别得到文本消息,并对面部图像进行表情识别得到表情消息;将文本消息和表情消息输入至第一模型,由第一模型根据文本消息和表情消息得到回答文本消息,最后对回答文本消息进行语音转换,得到对应的回答语音消息。本申请实施例将面部图像加入到聊天机器人中,通过对面部图像的识别,能够更加精准判断出当前的情景,并由第一模型根据文本消息和表情消息得到回答文本消息,且将回答文本消息转换成语音回复消息,进而提高语音回复消息的准确率。
本公开实施例还提供一种基于表情识别的语音消息生成装置,如图8所示,可以实现上述基于表情识别的语音消息生成方法,该基于表情识别的语音消息生成装置包括:数据采集模块710、语音识别模块720、表情识别模块730、文本消息获取模块740和语音消息获取模块750,其中数据采集模块710用于获取语音数据及其对应的面部图像:语音识别模块720用于对语音数据进行语音识别得到文本消息;表情识别模块730用于对面部图像进行表情识别得到表情消息:文本消息获取模块740用于将文本消息和表情消息输入至第一模型,第一模型根据文本消息和表情消息得到回答文本消息:语音消息获取模块750用于对回答文本消息进行语音转换,得到对应的回答语音消息。本申请实施例将面部图像加入到聊天机器人中,通过对面部图像的识别,能够更加精准判断出当前的情景,并由第一模型根据文本消息和表情消息得到回答文本消息,且将回答文本消息转换成语音回复消息,进而提高语音回复消息的准确率。
本公开实施例的基于表情识别的语音消息生成装置用于执行上述实施例中的基于表情识别的语音消息生成方法,其具体处理过程与上述实施例中的基于表情识别的语音消息生成方法相同,此处不再一一赘述。
本公开实施例还提供了一种计算机设备,包括:
至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如本申请第一方面实施例中任一项的方法。
下面结合图9对计算机设备的硬件结构进行详细说明。该计算机设备包括:处理器810、存储器820、输入/输出接口830、通信接口840和总线850。
处理器810,可以采用通用的中央处理器(Central Processin Unit,CPU)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本公开实施例所提供的技术方案;
存储器820,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器820可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器820中,并由处理器810来调用执行本公开实施例的基于表情识别的语音消息生成方法;
输入/输出接口830,用于实现信息输入及输出;
通信接口840,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和
总线850,在设备的各个组件(例如处理器810、存储器820、输入/输出接口830和通信接口840)之间传输信息;
其中处理器810、存储器820、输入/输出接口830和通信接口840通过总线850实现彼此之间在设备内部的通信连接。
本公开实施例还提供一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行本公开实施例的基于表情识别的语音消息生成方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本公开实施例描述的实施例是为了更加清楚的说明本公开实施例的技术方案,并不构成对于本公开实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本公开实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1至图7中示出的技术方案并不构成对本公开实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本公开实施例的优选实施例,并非因此局限本公开实施例的权利范围。本领域技术人员不脱离本公开实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本公开实施例的权利范围之内。

Claims (10)

1.一种基于表情识别的语音消息生成方法,其特征在于,包括:
获取语音数据及其对应的面部图像:
对所述语音数据进行语音识别得到文本消息;
对所述面部图像进行表情识别得到表情消息:
将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息:
对所述回答文本消息进行语音转换,得到对应的回答语音消息。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行语音识别得到文本消息,包括:
对所述语音数据的时域信号进行积分变换得到频域信号;
根据所述时域信号和所述频域信号,构建平面空间;
通过第一神经网络,在所述平面空间中对所述语音数据进行卷积运算,得到语音序列和序列长度;
根据所述序列长度对所述语音序列进行切片,得到多个切片序列;
通过第二神经网络对多个所述切片序列进行文本转换,得到所述文本消息。
3.根据权利要求1所述的方法,其特征在于,所述对所述面部图像进行表情识别得到表情消息,包括:
通过第三神经网络对所述面部图像进行自注意力筛选,得到变换参数;
根据所述变换参数对所述面部图像进行扭曲变换,得到变换图像;
通过第四神经网络对所述面部图像和所述变换图像进行表情识别,得到所述表情消息。
4.根据权利要求3所述的方法,其特征在于,所述第四神经网络包括卷积层、全连接层和分类器;所述通过第四神经网络对所述面部图像和所述变换图像进行表情识别,得到表情消息,包括:
通过所述卷积层对所述面部图像和所述变换图像进行特征提取,得到多个图像特征向量;
通过所述全连接层对多个所述图像特征向量进行拼接,得到图像拼接向量;
通过所述分类器对所述图像拼接向量进行表情分类,得到所述表情消息。
5.根据权利要求1所述的方法,其特征在于,在所述将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息之前,包括:
获取消息数据集;其中,所述消息数据集包括多个问题样本数据、多个预设表情和多个回答样本数据,所述问题样本数据和所述预设表情一一对应以形成绑定组,每个所述绑定组与所述回答样本数据具有映射关系;
对多个所述问题样本数据进行分词,得到多个问题分词数据;
对多个所述回答样本数据进行分词,得到多个回答分词数据;
获取第一原始模型;
根据多个所述问题分词数据、多个所述回答分词数据和多个所述预设表情对所述第一原始模型进行训练,得到所述第一模型。
6.根据权利要求5所述的方法,其特征在于,所述第一原始模型包括编码器和解码器;所述根据多个所述问题分词数据、多个所述回答分词数据和多个所述预设表情对所述第一原始模型进行训练,得到第一模型,包括:
将多个所述问题分词数据和多个所述回答分词数据输入至所述编码器进行第一编码,得到样本编码数据;
将多个所述预设表情输入至所述编码器进行第二编码,得到表情编码数据;
对所述样本编码数据和所述表情编码数据进行拼接,得到样本拼接数据;
将所述样本拼接数据输入至所述解码器进行解码,得到样本解码数据;
根据所述样本拼接数据和所述样本解码数据,计算所述第一原始模型的损失函数,得到损失值;
根据所述损失值更新所述第一原始模型,得到第一模型。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述对所述回答文本消息进行语音转换,得到对应的回答语音消息,包括:
对所述回答文本消息进行语音转换,得到初步语音消息;
对所述初步语音消息进行变换,得到声谱图;
提取所述声谱图的音频特征;
通过第五神经网络模型对所述音频特征进行解码,得到每一帧对应的音频数据;
将所述音频数据进行合成处理,得到对应的回答语音消息。
8.一种基于表情识别的语音消息生成装置,其特征在于,包括:
数据采集模块,用于获取语音数据及其对应的面部图像;
语音识别模块,用于对所述语音数据进行语音识别得到文本消息;
表情识别模块,用于对所述面部图像进行表情识别得到表情消息;
文本消息获取模块,用于将所述文本消息和所述表情消息输入至第一模型,所述第一模型根据所述文本消息和所述表情消息得到回答文本消息;
语音消息获取模块,用于对所述回答文本消息进行语音转换,得到对应的回答语音消息。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有程序,所述程序被所述处理器执行时所述处理器用于执行:
如权利要求1至7中任一项所述的方法。
10.一种存储介质,所述存储介质为计算机可读存储介质,其特征在于,所述计算机可读存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行:
如权利要求1至7中任一项所述的方法。
CN202210057040.4A 2022-01-18 2022-01-18 语音消息生成方法和装置、计算机设备、存储介质 Pending CN114400005A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210057040.4A CN114400005A (zh) 2022-01-18 2022-01-18 语音消息生成方法和装置、计算机设备、存储介质
PCT/CN2022/090752 WO2023137922A1 (zh) 2022-01-18 2022-04-29 语音消息生成方法和装置、计算机设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210057040.4A CN114400005A (zh) 2022-01-18 2022-01-18 语音消息生成方法和装置、计算机设备、存储介质

Publications (1)

Publication Number Publication Date
CN114400005A true CN114400005A (zh) 2022-04-26

Family

ID=81230639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210057040.4A Pending CN114400005A (zh) 2022-01-18 2022-01-18 语音消息生成方法和装置、计算机设备、存储介质

Country Status (2)

Country Link
CN (1) CN114400005A (zh)
WO (1) WO2023137922A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023137922A1 (zh) * 2022-01-18 2023-07-27 平安科技(深圳)有限公司 语音消息生成方法和装置、计算机设备、存储介质
CN117672180A (zh) * 2023-12-08 2024-03-08 广州凯迪云信息科技有限公司 一种数字机器人语音交流控制方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117122289B (zh) * 2023-09-12 2024-03-19 中国人民解放军总医院第一医学中心 一种疼痛评定方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127156A (zh) * 2016-06-27 2016-11-16 上海元趣信息技术有限公司 基于声纹和人脸识别的机器人交互方法
CN108833941A (zh) * 2018-06-29 2018-11-16 北京百度网讯科技有限公司 人机交互处理方法、装置、用户终端、处理服务器及系统
CN110457432B (zh) * 2019-07-04 2023-05-30 平安科技(深圳)有限公司 面试评分方法、装置、设备及存储介质
CN110717514A (zh) * 2019-09-06 2020-01-21 平安国际智慧城市科技股份有限公司 会话意图识别方法、装置、计算机设备和存储介质
CN112687260A (zh) * 2020-11-17 2021-04-20 珠海格力电器股份有限公司 基于人脸识别的表情判断语音识别方法、服务器及空调
CN113704419A (zh) * 2021-02-26 2021-11-26 腾讯科技(深圳)有限公司 对话处理方法及装置
CN113555027B (zh) * 2021-07-26 2024-02-13 平安科技(深圳)有限公司 语音情感转换方法、装置、计算机设备及存储介质
CN114400005A (zh) * 2022-01-18 2022-04-26 平安科技(深圳)有限公司 语音消息生成方法和装置、计算机设备、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023137922A1 (zh) * 2022-01-18 2023-07-27 平安科技(深圳)有限公司 语音消息生成方法和装置、计算机设备、存储介质
CN117672180A (zh) * 2023-12-08 2024-03-08 广州凯迪云信息科技有限公司 一种数字机器人语音交流控制方法及系统

Also Published As

Publication number Publication date
WO2023137922A1 (zh) 2023-07-27

Similar Documents

Publication Publication Date Title
CN110688911B (zh) 视频处理方法、装置、系统、终端设备及存储介质
CN110457432B (zh) 面试评分方法、装置、设备及存储介质
CN113205817B (zh) 语音语义识别方法、系统、设备及介质
CN114400005A (zh) 语音消息生成方法和装置、计算机设备、存储介质
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN110415701A (zh) 唇语的识别方法及其装置
CN112233698A (zh) 人物情绪识别方法、装置、终端设备及存储介质
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN114298121A (zh) 基于多模态的文本生成方法、模型训练方法和装置
CN112214585A (zh) 回复消息生成方法、系统、计算机设备及存储介质
CN111444382A (zh) 一种音频处理方法、装置、计算机设备以及存储介质
CN114360502A (zh) 语音识别模型的处理方法、语音识别方法及装置
CN116564289A (zh) 利用生成性对抗学习的针对数字视频的可视化语音识别
Wang et al. Wavenet with cross-attention for audiovisual speech recognition
CN116564338B (zh) 语音动画生成方法、装置、电子设备和介质
CN112785667A (zh) 视频生成方法、装置、介质及电子设备
CN116580691A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN114786059B (zh) 视频生成方法、视频生成装置、电子设备、存储介质
CN114373443A (zh) 语音合成方法和装置、计算设备、存储介质及程序产品
CN114170997A (zh) 发音技巧检测方法、装置、存储介质及电子设备
CN117059082B (zh) 基于大模型的外呼通话方法、装置、介质和计算机设备
CN116416966A (zh) 文本到语音合成方法、装置、设备和存储介质
CN116564273A (zh) 语音合成方法、语音合成系统、电子设备及存储介质
CN116645956A (zh) 语音合成方法、语音合成系统、电子设备及存储介质
CN116564274A (zh) 语音合成方法、语音合成装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination