CN113435357A - 语音播报方法、装置、设备及存储介质 - Google Patents
语音播报方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113435357A CN113435357A CN202110739272.3A CN202110739272A CN113435357A CN 113435357 A CN113435357 A CN 113435357A CN 202110739272 A CN202110739272 A CN 202110739272A CN 113435357 A CN113435357 A CN 113435357A
- Authority
- CN
- China
- Prior art keywords
- voice
- image
- user
- attention
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Abstract
本发明涉及人工智能,提供一种语音播报方法、装置、设备及存储介质。该方法能够对用户音频及人脸图像进行特征提取,得到语音特征及图像特征,基于图像特征对语音特征进行注意力分析,得到语音关注特征,基于语音特征对图像特征进行注意力分析,得到图像关注特征,对语音关注特征及图像关注特征进行分析,得到用户情绪,根据用户事件及用户情绪获取推荐信息,在显示屏幕中显示推荐信息,采集多张眼部图像并定位眼球转动角度,根据眼球转动角度及推荐信息在显示屏幕中的位置定位出目标信息,并播报目标信息。本发明能够准确的定位出用户情绪及用户想关注的信息,从而进行准确的播报。此外,本发明还涉及区块链技术,所述目标信息可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音播报方法、装置、设备及存储介质。
背景技术
在目前的语音播报方式中,仅从语音层面对用户情绪进行分析,从而造成用户情绪定位不准确,同时,目前的语音播报方式无法从与所述用户情绪对应的众多信息中定位出用户最想关注的信息,从而造成无法准确的播报出用户最想关注的信息。
发明内容
鉴于以上内容,有必要提供一种语音播报方法、装置、设备及存储介质,不仅能够准确的定位出用户情绪,还能够准确的定位出用户最想关注的信息,从而进行准确的播报。
一方面,本发明提出一种语音播报方法,所述语音播报方法包括:
获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
根据所述多张眼部图像定位所述请求用户的眼球转动角度;
根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
根据本发明优选实施例,所述基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征包括:
对所述用户音频进行预处理,得到所述用户音频的梅谱信息;
根据所述梅谱信息生成输入矩阵;
基于所述语音提取网络分析所述输入矩阵,得到所述语音特征。
根据本发明优选实施例,所述图像提取网络包括多个卷积层,所述基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征包括:
获取所述人脸图像在预设颜色模式下的像素信息;
根据所述像素信息生成所述人脸图像的图像矩阵;
从所述图像提取网络中获取每个卷积层的卷积序号;
对于所述多个卷积层中的任意卷积层,获取所述任意卷积层的第一序号,并获取所述卷积序号大于所述第一序号及与所述任意卷积层相邻的卷积层作为目标卷积层;
获取所述任意卷积层的输出矩阵,并将所述输出矩阵及所述图像矩阵输入至所述目标卷积层,直至所述图像提取网络中所有卷积层均参与处理,得到所述图像特征。
根据本发明优选实施例,所述基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征包括:
获取所述注意力网络的网络参数,并根据所述网络参数对所述语音特征进行处理,得到与所述语音特征对应的第一输出信息;
获取所述语音特征的特征维度;
计算所述图像特征与所述第一输出信息的乘积,得到运算结果,并计算所述运算结果中每个元素在所述特征维度的占比,得到第二输出信息;
计算所述第一输出信息与所述第二输出信息的乘积,得到第三输出信息;
计算所述语音特征中第一元素与所述第三输出信息中相应元素位置上第二元素的总和,得到所述语音关注特征。
根据本发明优选实施例,所述基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪包括:
拼接所述语音关注特征及所述图像关注特征,得到目标特征;
获取所述分类网络的权值矩阵及偏置向量;
计算所述目标特征与所述权值矩阵的乘积,得到运算向量,并计算所述运算向量与所述偏置向量的总和,得到分数向量;
对所述分类向量进行归一化处理,得到概率向量,并将所述概率向量中取值最大的维度所对应的情绪确定为所述用户情绪。
根据本发明优选实施例,所述根据所述多张眼部图像定位所述请求用户的眼球转动角度包括:
获取每张眼部图像的图像生成时间及瞳孔中心坐标;
根据下列公式计算每两个相邻图像生成时间的初始转动角度:
其中,θ为所述初始转动角度,(xt,yt)是指所述图像生成时间为第一时刻所对应的瞳孔中心坐标,(xt+1,yt+1)是指所述图像生成时间为第二时刻所对应的瞳孔中心坐标;
计算所述初始转动角度的平均值,得到所述眼球转动角度。
根据本发明优选实施例,所述根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息包括:
获取所述请求用户的眼球处于平视状态时与所述显示屏幕所在的水平面的交点作为原点,并基于所述原点构建坐标系;
计算所述显示屏幕中每个屏幕边缘线到所述原点的距离,得到边缘距离,并将所述边缘距离最小的屏幕边缘线确定为目标边缘线;
基于所述原点确定所述目标边缘线的垂直边;
根据下列公式定位所述请求用户在第二时刻的第二眼球位置:
x1=x0-h×sin(a+b);
y1=y0+h×cos(a+b);
y0=x0×tan a;
其中,(x1,y1)为所述第二眼球位置,(x0,y0)是指所述请求用户在第一时刻的第一眼球位置,h是指所述请求用户的眼球到所述显示屏幕的垂直高度,a是指所述垂直边与所述请求用户的眼球形成的角度,b是指所述眼球转动角度;
确定所述推荐信息在所述坐标系中的信息位置;
将所述目标坐标与所述信息位置进行比较,并将与所述目标坐标相同的信息位置所对应的推荐信息确定为所述目标信息。
另一方面,本发明还提出一种语音播报装置,所述语音播报装置包括:
获取单元,用于获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
所述获取单元,用于获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
提取单元,用于基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
分析单元,用于基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
所述分析单元,还用于基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
采集单元,用于在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
定位单元,用于根据所述多张眼部图像定位所述请求用户的眼球转动角度;
播报单元,用于根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述语音播报方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述语音播报方法。
由以上技术方案可以看出,本发明通过所述用户音频及所述人脸图像能够在音频与视觉相交互的前提下进行情感识别,提高所述用户情绪的准确性,进而结合所述用户时间能够获取准确的获取到所述推荐信息,避免所述推荐信息与所述用户事件无关,进而通过所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置能够从所述推荐信息中准确的确定出所述请求用户的关注信息进行播报。
附图说明
图1是本发明语音播报方法的较佳实施例的流程图。
图2是本发明语音播报装置的较佳实施例的功能模块图。
图3是本发明实现语音播报方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明语音播报方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述语音播报方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像。
在本发明的至少一个实施例中,所述请求用户是指需要进行情绪识别的用户。
所述用户音频可以通过任意音频采集器获取到。
所述人脸图像是指在所述请求用户发出所述用户音频时捕捉到的图像。
在本发明的至少一个实施例中,所述电子设备获取与所述请求用户及所述用户音频对应的人脸图像包括:
获取所述请求用户的用户识别码;
获取所述用户音频的音频生成时间;
从图像库中获取与所述用户识别码及所述音频生成时间对应的图像作为所述人脸图像。
其中,所述图像库中存储有多个用户在多个时刻的人脸信息。
通过所述用户识别码及所述音频生成时间能够准确的获取到所述人脸图像。
S11,获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络。
在本发明的至少一个实施例中,所述情绪识别模型是预先训练好的模型。所述情绪识别模型用于识别用户的情绪。
S12,基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征。
在本发明的至少一个实施例中,所述语音特征是指所述用户音频的特征信息。所述语音特征能够用于表征所述用户音频。
所述图像特征是指所述人脸图像的特征信息。所述图像特征能够用于表征所述人脸图像。
所述图像提取网络包括多个卷积层。
在本发明的至少一个实施例中,所述电子设备基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征包括:
对所述用户音频进行预处理,得到所述用户音频的梅谱信息;
根据所述梅谱信息生成输入矩阵;
基于所述语音提取网络分析所述输入矩阵,得到所述语音特征。
其中,所述输入矩阵用于表征所述梅谱信息。
通过对所述用户音频进行预处理,能够生成所述语音提取网络能够识别的输入矩阵,从而能够快速生成所述语音特征。
具体地,所述电子设备对所述用户音频进行预处理,得到所述用户音频的梅谱信息包括:
提取所述用户音频中的音频信息;
对所述音频信息进行傅里叶变换处理,得到频谱图;
基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息。
具体地,所述电子设备根据所述梅谱信息生成输入矩阵包括:
从元素映射表中获取所述梅谱信息所对应的映射元素;
根据所述梅谱信息所对应的音频生成时间从小至大的顺序拼接所述映射元素,得到所述输入矩阵。
在本发明的至少一个实施例中,所述电子设备基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征包括:
获取所述人脸图像在预设颜色模式下的像素信息;
根据所述像素信息生成所述人脸图像的图像矩阵;
从所述图像提取网络中获取每个卷积层的卷积序号;
对于所述多个卷积层中的任意卷积层,获取所述任意卷积层的第一序号,并获取所述卷积序号大于所述第一序号及与所述任意卷积层相邻的卷积层作为目标卷积层;
获取所述任意卷积层的输出矩阵,并将所述输出矩阵及所述图像矩阵输入至所述目标卷积层,直至所述图像提取网络中所有卷积层均参与处理,得到所述图像特征。
其中,所述预设颜色模式可以是RGB颜色模式,本发明对所述预设颜色模式不作限制。
通过结合所述人脸图像及所述任意卷积层的输出矩阵输入至所述目标卷积层进行分析,能够使所述人脸图像中的特征不被丢失,提高所述图像特征的准确性。
S13,基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征。
在本发明的至少一个实施例中,所述语音关注特征是指在分析用户情绪时,所述用户音频中需要被重点关注的特征。
所述图像关注特征是指在分析用户情绪时,所述人脸图像中需要被重点关注的特征。
在本发明的至少一个实施例中,所述电子设备基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征包括:
获取所述注意力网络的网络参数,并根据所述网络参数对所述语音特征进行处理,得到与所述语音特征对应的第一输出信息;
获取所述语音特征的特征维度;
计算所述图像特征与所述第一输出信息的乘积,得到运算结果,并计算所述运算结果中每个元素在所述特征维度的占比,得到第二输出信息;
计算所述第一输出信息与所述第二输出信息的乘积,得到第三输出信息;
计算所述语音特征中第一元素与所述第三输出信息中相应元素位置上第二元素的总和,得到所述语音关注特征。
其中,所述网络参数是训练所述情绪识别模型时生成的预设矩阵。
通过结合所述图像特征对所述语音特征进行分析,能够准确的获取到在情绪识别时需要重点关注的语音特征。
在本发明的至少一个实施例中,所述电子设备基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析的方式与所述电子设备基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析相似,本发明不再赘述。
通过结合所述语音特征对所述图像特征进行分析,能够准确的获取到在情绪识别时需要重点关注的图像特征。
S14,基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息。
在本发明的至少一个实施例中,所述用户情绪是指所述请求用户在所述音频生成时间时所对应的情绪。所述用户情绪包括,但不限于:难过、高兴等。
所述推荐信息是指与所述用户事件及所述用户情绪相关联的网络信息。例如,所述用户事件为听歌,所述用户情绪为高兴,则所述推荐信息为:与高兴关联的歌曲。
在本发明的至少一个实施例中,所述电子设备基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪包括:
拼接所述语音关注特征及所述图像关注特征,得到目标特征;
获取所述分类网络的权值矩阵及偏置向量;
计算所述目标特征与所述权值矩阵的乘积,得到运算向量,并计算所述运算向量与所述偏置向量的总和,得到分数向量;
对所述分类向量进行归一化处理,得到概率向量,并将所述概率向量中取值最大的维度所对应的情绪确定为所述用户情绪。
其中,所述权值矩阵及所述偏置向量是在训练所述情绪识别模型时生成的参数值。
通过结合所述语音关注特征及所述图像关注特征,能够准确的确定出所述用户情绪。
在本发明的至少一个实施例中,所述电子设备根据所述请求用户的用户事件及所述用户情绪获取推荐信息包括:
获取所述电子设备自身的运行线程;
采集所述运行线程在所述音频生成时间上所处理的事件作为所述用户事件;
从网络库中获取与所述用户事件及所述用户情绪对应的信息作为所述推荐信息。
其中,所述网络库中存储有多个事件在多个情绪状态下的信息。
通过结合所述用户事件及所述用户情绪,能够准确的生成符合所述请求用户需求的信息。
S15,在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像。
在本发明的至少一个实施例中,所述显示屏幕可以是与所述电子设备相通信的任意显示装置。所述显示屏幕用于显示所述推荐信息。
所述多张眼部图像是指在所述显示屏幕中显示所述推荐信息之后采集到的眼部图像。
在本发明的至少一个实施例中,所述电子设备采集所述请求用户的多张眼部图像包括:
获取所述推荐信息在所述显示屏幕中的显示时间;
获取与所述显示时间及预设标签对应的信息作为所述多张眼部图像。
其中,所述预设标签用于指示包含眼部信息的图像。
通过上述实施方式,能够采集到在所述显示屏幕中显示所述推荐信息后产生的眼部图像,从而结合眼球转动角度及推荐信息能够准确的确定出目标信息。
S16,根据所述多张眼部图像定位所述请求用户的眼球转动角度。
在本发明的至少一个实施例中,所述眼球转动角度是指在所述显示屏幕中显示所述推荐信息后,所述请求用户的眼球转动的角度。
在本发明的至少一个实施例中,在根据所述多张眼部图像定位所述请求用户的眼球转动角度之前,所述方法还包括:
基于OpenCV算法对每张眼部图像进行去噪处理。
通过对每张眼部图像进行去噪处理,能够提高所述多张眼部图像的图像质量,从而能够提高所述眼球转动角度的定位准确性。
在本发明的至少一个实施例中,所述电子设备根据所述多张眼部图像定位所述请求用户的眼球转动角度包括:
获取每张眼部图像的图像生成时间及瞳孔中心坐标;
根据下列公式计算每两个相邻图像生成时间的初始转动角度:
其中,θ为所述初始转动角度,(xt,yt)是指所述图像生成时间为第一时刻所对应的瞳孔中心坐标,(xt+1,yt+1)是指所述图像生成时间为第二时刻所对应的瞳孔中心坐标;
计算所述初始转动角度的平均值,得到所述眼球转动角度。
通过对每两个相邻图像生成时间的眼部图像进行分析,能够准确的确定出所述初始转动角度,从而能够准确的确定出所述眼球转动角度。
S17,根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
在本发明的至少一个实施例中,所述目标信息是指所述请求用户基于所述推荐信息中最想关注的信息。
需要强调的是,为进一步保证上述目标信息的私密和安全性,上述目标信息还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息包括:
获取所述请求用户的眼球处于平视状态时与所述显示屏幕所在的水平面的交点作为原点,并基于所述原点构建坐标系;
计算所述显示屏幕中每个屏幕边缘线到所述原点的距离,得到边缘距离,并将所述边缘距离最小的屏幕边缘线确定为目标边缘线;
基于所述原点确定所述目标边缘线的垂直边;
根据下列公式定位所述请求用户在第二时刻的第二眼球位置:
x1=x0-h×sin(a+b);
y1=y0+h×cos(a+b);
y0=x0×tan a;
其中,(x1,y1)为所述第二眼球位置,(x0,y0)是指所述请求用户在第一时刻的第一眼球位置,h是指所述请求用户的眼球到所述显示屏幕的垂直高度,a是指所述垂直边与所述请求用户的眼球形成的角度,b是指所述眼球转动角度;
确定所述推荐信息在所述坐标系中的信息位置;
将所述目标坐标与所述信息位置进行比较,并将与所述目标坐标相同的信息位置所对应的推荐信息确定为所述目标信息。
通过所述眼球转动角度对所述推荐信息进行分析,由于所述眼球转动角度是在所述显示屏幕显示所述推荐信息之后采集的,以及,所述眼部转动角度是基于所述推荐信息在所述显示屏幕中的位置定位出的,因此能够准确的从所述推荐信息中定位出所述目标信息,从而提高用户体验度。
在本发明的至少一个实施例中,所述电子设备控制语音播放器播放所述目标信息。
通过播放所述目标信息能够解放所述请求用户的双眼,提高体验度。
由以上技术方案可以看出,本发明通过所述用户音频及所述人脸图像能够在音频与视觉相交互的前提下进行情感识别,提高所述用户情绪的准确性,进而结合所述用户时间能够获取准确的获取到所述推荐信息,避免所述推荐信息与所述用户事件无关,进而通过所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置能够从所述推荐信息中准确的确定出所述请求用户的关注信息进行播报。
如图2所示,是本发明语音播报装置的较佳实施例的功能模块图。所述语音播报装置11包括获取单元110、提取单元111、分析单元112、采集单元113、定位单元114、播报单元115及处理单元116。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
获取单元110获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像。
在本发明的至少一个实施例中,所述请求用户是指需要进行情绪识别的用户。
所述用户音频可以通过任意音频采集器获取到。
所述人脸图像是指在所述请求用户发出所述用户音频时捕捉到的图像。
在本发明的至少一个实施例中,所述获取单元110获取与所述请求用户及所述用户音频对应的人脸图像包括:
获取所述请求用户的用户识别码;
获取所述用户音频的音频生成时间;
从图像库中获取与所述用户识别码及所述音频生成时间对应的图像作为所述人脸图像。
其中,所述图像库中存储有多个用户在多个时刻的人脸信息。
通过所述用户识别码及所述音频生成时间能够准确的获取到所述人脸图像。
所述获取单元110获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络。
在本发明的至少一个实施例中,所述情绪识别模型是预先训练好的模型。所述情绪识别模型用于识别用户的情绪。
提取单元111基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征。
在本发明的至少一个实施例中,所述语音特征是指所述用户音频的特征信息。所述语音特征能够用于表征所述用户音频。
所述图像特征是指所述人脸图像的特征信息。所述图像特征能够用于表征所述人脸图像。
所述图像提取网络包括多个卷积层。
在本发明的至少一个实施例中,所述提取单元111基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征包括:
对所述用户音频进行预处理,得到所述用户音频的梅谱信息;
根据所述梅谱信息生成输入矩阵;
基于所述语音提取网络分析所述输入矩阵,得到所述语音特征。
其中,所述输入矩阵用于表征所述梅谱信息。
通过对所述用户音频进行预处理,能够生成所述语音提取网络能够识别的输入矩阵,从而能够快速生成所述语音特征。
具体地,所述提取单元111对所述用户音频进行预处理,得到所述用户音频的梅谱信息包括:
提取所述用户音频中的音频信息;
对所述音频信息进行傅里叶变换处理,得到频谱图;
基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息。
具体地,所述提取单元111根据所述梅谱信息生成输入矩阵包括:
从元素映射表中获取所述梅谱信息所对应的映射元素;
根据所述梅谱信息所对应的音频生成时间从小至大的顺序拼接所述映射元素,得到所述输入矩阵。
在本发明的至少一个实施例中,所述提取单元111基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征包括:
获取所述人脸图像在预设颜色模式下的像素信息;
根据所述像素信息生成所述人脸图像的图像矩阵;
从所述图像提取网络中获取每个卷积层的卷积序号;
对于所述多个卷积层中的任意卷积层,获取所述任意卷积层的第一序号,并获取所述卷积序号大于所述第一序号及与所述任意卷积层相邻的卷积层作为目标卷积层;
获取所述任意卷积层的输出矩阵,并将所述输出矩阵及所述图像矩阵输入至所述目标卷积层,直至所述图像提取网络中所有卷积层均参与处理,得到所述图像特征。
其中,所述预设颜色模式可以是RGB颜色模式,本发明对所述预设颜色模式不作限制。
通过结合所述人脸图像及所述任意卷积层的输出矩阵输入至所述目标卷积层进行分析,能够使所述人脸图像中的特征不被丢失,提高所述图像特征的准确性。
分析单元112基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征。
在本发明的至少一个实施例中,所述语音关注特征是指在分析用户情绪时,所述用户音频中需要被重点关注的特征。
所述图像关注特征是指在分析用户情绪时,所述人脸图像中需要被重点关注的特征。
在本发明的至少一个实施例中,所述分析单元112基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征包括:
获取所述注意力网络的网络参数,并根据所述网络参数对所述语音特征进行处理,得到与所述语音特征对应的第一输出信息;
获取所述语音特征的特征维度;
计算所述图像特征与所述第一输出信息的乘积,得到运算结果,并计算所述运算结果中每个元素在所述特征维度的占比,得到第二输出信息;
计算所述第一输出信息与所述第二输出信息的乘积,得到第三输出信息;
计算所述语音特征中第一元素与所述第三输出信息中相应元素位置上第二元素的总和,得到所述语音关注特征。
其中,所述网络参数是训练所述情绪识别模型时生成的预设矩阵。
通过结合所述图像特征对所述语音特征进行分析,能够准确的获取到在情绪识别时需要重点关注的语音特征。
在本发明的至少一个实施例中,所述分析单元112基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析的方式与所述电子设备基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析相似,本发明不再赘述。
通过结合所述语音特征对所述图像特征进行分析,能够准确的获取到在情绪识别时需要重点关注的图像特征。
所述分析单元112基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息。
在本发明的至少一个实施例中,所述用户情绪是指所述请求用户在所述音频生成时间时所对应的情绪。所述用户情绪包括,但不限于:难过、高兴等。
所述推荐信息是指与所述用户事件及所述用户情绪相关联的网络信息。例如,所述用户事件为听歌,所述用户情绪为高兴,则所述推荐信息为:与高兴关联的歌曲。
在本发明的至少一个实施例中,所述分析单元112基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪包括:
拼接所述语音关注特征及所述图像关注特征,得到目标特征;
获取所述分类网络的权值矩阵及偏置向量;
计算所述目标特征与所述权值矩阵的乘积,得到运算向量,并计算所述运算向量与所述偏置向量的总和,得到分数向量;
对所述分类向量进行归一化处理,得到概率向量,并将所述概率向量中取值最大的维度所对应的情绪确定为所述用户情绪。
其中,所述权值矩阵及所述偏置向量是在训练所述情绪识别模型时生成的参数值。
通过结合所述语音关注特征及所述图像关注特征,能够准确的确定出所述用户情绪。
在本发明的至少一个实施例中,所述分析单元112根据所述请求用户的用户事件及所述用户情绪获取推荐信息包括:
获取所述电子设备自身的运行线程;
采集所述运行线程在所述音频生成时间上所处理的事件作为所述用户事件;
从网络库中获取与所述用户事件及所述用户情绪对应的信息作为所述推荐信息。
其中,所述网络库中存储有多个事件在多个情绪状态下的信息。
通过结合所述用户事件及所述用户情绪,能够准确的生成符合所述请求用户需求的信息。
采集单元113在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像。
在本发明的至少一个实施例中,所述显示屏幕可以是与所述电子设备相通信的任意显示装置。所述显示屏幕用于显示所述推荐信息。
所述多张眼部图像是指在所述显示屏幕中显示所述推荐信息之后采集到的眼部图像。
在本发明的至少一个实施例中,所述采集单元113采集所述请求用户的多张眼部图像包括:
获取所述推荐信息在所述显示屏幕中的显示时间;
获取与所述显示时间及预设标签对应的信息作为所述多张眼部图像。
其中,所述预设标签用于指示包含眼部信息的图像。
通过上述实施方式,能够采集到在所述显示屏幕中显示所述推荐信息后产生的眼部图像,从而结合眼球转动角度及推荐信息能够准确的确定出目标信息。
定位单元114根据所述多张眼部图像定位所述请求用户的眼球转动角度。
在本发明的至少一个实施例中,所述眼球转动角度是指在所述显示屏幕中显示所述推荐信息后,所述请求用户的眼球转动的角度。
在本发明的至少一个实施例中,在根据所述多张眼部图像定位所述请求用户的眼球转动角度之前,处理单元116基于OpenCV算法对每张眼部图像进行去噪处理。
通过对每张眼部图像进行去噪处理,能够提高所述多张眼部图像的图像质量,从而能够提高所述眼球转动角度的定位准确性。
在本发明的至少一个实施例中,所述定位单元114根据所述多张眼部图像定位所述请求用户的眼球转动角度包括:
获取每张眼部图像的图像生成时间及瞳孔中心坐标;
根据下列公式计算每两个相邻图像生成时间的初始转动角度:
其中,θ为所述初始转动角度,(xt,yt)是指所述图像生成时间为第一时刻所对应的瞳孔中心坐标,(xt+1,yt+1)是指所述图像生成时间为第二时刻所对应的瞳孔中心坐标;
计算所述初始转动角度的平均值,得到所述眼球转动角度。
通过对每两个相邻图像生成时间的眼部图像进行分析,能够准确的确定出所述初始转动角度,从而能够准确的确定出所述眼球转动角度。
播报单元115根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
在本发明的至少一个实施例中,所述目标信息是指所述请求用户基于所述推荐信息中最想关注的信息。
需要强调的是,为进一步保证上述目标信息的私密和安全性,上述目标信息还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述播报单元115根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息包括:
获取所述请求用户的眼球处于平视状态时与所述显示屏幕所在的水平面的交点作为原点,并基于所述原点构建坐标系;
计算所述显示屏幕中每个屏幕边缘线到所述原点的距离,得到边缘距离,并将所述边缘距离最小的屏幕边缘线确定为目标边缘线;
基于所述原点确定所述目标边缘线的垂直边;
根据下列公式定位所述请求用户在第二时刻的第二眼球位置:
x1=x0-h×sin(a+b);
y1=y0+h×cos(a+b);
y0=x0×tan a;
其中,(x1,y1)为所述第二眼球位置,(x0,y0)是指所述请求用户在第一时刻的第一眼球位置,h是指所述请求用户的眼球到所述显示屏幕的垂直高度,a是指所述垂直边与所述请求用户的眼球形成的角度,b是指所述眼球转动角度;
确定所述推荐信息在所述坐标系中的信息位置;
将所述目标坐标与所述信息位置进行比较,并将与所述目标坐标相同的信息位置所对应的推荐信息确定为所述目标信息。
通过所述眼球转动角度对所述推荐信息进行分析,由于所述眼球转动角度是在所述显示屏幕显示所述推荐信息之后采集的,以及,所述眼部转动角度是基于所述推荐信息在所述显示屏幕中的位置定位出的,因此能够准确的从所述推荐信息中定位出所述目标信息,从而提高用户体验度。
在本发明的至少一个实施例中,所述播报单元115控制语音播放器播放所述目标信息。
通过播放所述目标信息能够解放所述请求用户的双眼,提高体验度。
由以上技术方案可以看出,本发明通过所述用户音频及所述人脸图像能够在音频与视觉相交互的前提下进行情感识别,提高所述用户情绪的准确性,进而结合所述用户时间能够获取准确的获取到所述推荐信息,避免所述推荐信息与所述用户事件无关,进而通过所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置能够从所述推荐信息中准确的确定出所述请求用户的关注信息进行播报。
如图3所示,是本发明实现语音播报方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如语音播报程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、提取单元111、分析单元112、采集单元113、定位单元114、播报单元115及处理单元116。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种语音播报方法,所述处理器13可执行所述计算机可读指令从而实现:
获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
根据所述多张眼部图像定位所述请求用户的眼球转动角度;
根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
根据所述多张眼部图像定位所述请求用户的眼球转动角度;
根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种语音播报方法,其特征在于,所述语音播报方法包括:
获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
根据所述多张眼部图像定位所述请求用户的眼球转动角度;
根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
2.如权利要求1所述的语音播报方法,其特征在于,所述基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征包括:
对所述用户音频进行预处理,得到所述用户音频的梅谱信息;
根据所述梅谱信息生成输入矩阵;
基于所述语音提取网络分析所述输入矩阵,得到所述语音特征。
3.如权利要求1所述的语音播报方法,其特征在于,所述图像提取网络包括多个卷积层,所述基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征包括:
获取所述人脸图像在预设颜色模式下的像素信息;
根据所述像素信息生成所述人脸图像的图像矩阵;
从所述图像提取网络中获取每个卷积层的卷积序号;
对于所述多个卷积层中的任意卷积层,获取所述任意卷积层的第一序号,并获取所述卷积序号大于所述第一序号及与所述任意卷积层相邻的卷积层作为目标卷积层;
获取所述任意卷积层的输出矩阵,并将所述输出矩阵及所述图像矩阵输入至所述目标卷积层,直至所述图像提取网络中所有卷积层均参与处理,得到所述图像特征。
4.如权利要求1所述的语音播报方法,其特征在于,所述基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征包括:
获取所述注意力网络的网络参数,并根据所述网络参数对所述语音特征进行处理,得到与所述语音特征对应的第一输出信息;
获取所述语音特征的特征维度;
计算所述图像特征与所述第一输出信息的乘积,得到运算结果,并计算所述运算结果中每个元素在所述特征维度的占比,得到第二输出信息;
计算所述第一输出信息与所述第二输出信息的乘积,得到第三输出信息;
计算所述语音特征中第一元素与所述第三输出信息中相应元素位置上第二元素的总和,得到所述语音关注特征。
5.如权利要求1所述的语音播报方法,其特征在于,所述基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪包括:
拼接所述语音关注特征及所述图像关注特征,得到目标特征;
获取所述分类网络的权值矩阵及偏置向量;
计算所述目标特征与所述权值矩阵的乘积,得到运算向量,并计算所述运算向量与所述偏置向量的总和,得到分数向量;
对所述分类向量进行归一化处理,得到概率向量,并将所述概率向量中取值最大的维度所对应的情绪确定为所述用户情绪。
7.如权利要求1所述的语音播报方法,其特征在于,所述根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息包括:
获取所述请求用户的眼球处于平视状态时与所述显示屏幕所在的水平面的交点作为原点,并基于所述原点构建坐标系;
计算所述显示屏幕中每个屏幕边缘线到所述原点的距离,得到边缘距离,并将所述边缘距离最小的屏幕边缘线确定为目标边缘线;
基于所述原点确定所述目标边缘线的垂直边;
根据下列公式定位所述请求用户在第二时刻的第二眼球位置:
x1=x0-h×sin(a+b);
y1=y0+h×cos(a+b);
y0=x0×tana;
其中,(x1,y1)为所述第二眼球位置,(x0,y0)是指所述请求用户在第一时刻的第一眼球位置,h是指所述请求用户的眼球到所述显示屏幕的垂直高度,a是指所述垂直边与所述请求用户的眼球形成的角度,b是指所述眼球转动角度;
确定所述推荐信息在所述坐标系中的信息位置;
将所述目标坐标与所述信息位置进行比较,并将与所述目标坐标相同的信息位置所对应的推荐信息确定为所述目标信息。
8.一种语音播报装置,其特征在于,所述语音播报装置包括:
获取单元,用于获取请求用户的用户音频,并获取与所述请求用户及所述用户音频对应的人脸图像;
所述获取单元,用于获取情绪识别模型,所述情绪识别模型包括语音提取网络、图像提取网络、注意力网络及分类网络;
提取单元,用于基于所述语音提取网络对所述用户音频进行特征提取,得到语音特征,并基于所述图像提取网络对所述人脸图像进行特征提取,得到图像特征;
分析单元,用于基于所述图像特征及所述注意力网络对所述语音特征进行注意力分析,得到所述语音特征的语音关注特征,并基于所述语音特征及所述注意力网络对所述图像特征进行注意力分析,得到所述图像特征的图像关注特征;
所述分析单元,还用于基于所述分类网络对所述语音关注特征及所述图像关注特征进行分析,得到所述请求用户的用户情绪,并根据所述请求用户的用户事件及所述用户情绪获取推荐信息;
采集单元,用于在显示屏幕中显示所述推荐信息,并采集所述请求用户的多张眼部图像;
定位单元,用于根据所述多张眼部图像定位所述请求用户的眼球转动角度;
播报单元,用于根据所述眼球转动角度及所述推荐信息在所述显示屏幕中的位置定位出目标信息,并播报所述目标信息。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的语音播报方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的语音播报方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110739272.3A CN113435357B (zh) | 2021-06-30 | 2021-06-30 | 语音播报方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110739272.3A CN113435357B (zh) | 2021-06-30 | 2021-06-30 | 语音播报方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113435357A true CN113435357A (zh) | 2021-09-24 |
CN113435357B CN113435357B (zh) | 2022-09-02 |
Family
ID=77758176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110739272.3A Active CN113435357B (zh) | 2021-06-30 | 2021-06-30 | 语音播报方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113435357B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257824A (zh) * | 2021-11-25 | 2022-03-29 | 广州方硅信息技术有限公司 | 直播显示方法、装置、存储介质及计算机设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1860504A (zh) * | 2003-09-30 | 2006-11-08 | 皇家飞利浦电子股份有限公司 | 用于视听内容合成的系统和方法 |
CN106445461A (zh) * | 2016-10-25 | 2017-02-22 | 北京小米移动软件有限公司 | 文字信息处理方法及装置 |
CN108595008A (zh) * | 2018-04-27 | 2018-09-28 | 北京计算机技术及应用研究所 | 基于眼动控制的人机交互方法 |
CN109257622A (zh) * | 2018-11-01 | 2019-01-22 | 广州市百果园信息技术有限公司 | 一种音视频处理方法、装置、设备及介质 |
CN110414323A (zh) * | 2019-06-14 | 2019-11-05 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
US20190377755A1 (en) * | 2018-06-12 | 2019-12-12 | Kuo-Ching Chiang | Device for Mood Feature Extraction and Method of the Same |
CN111161035A (zh) * | 2019-12-31 | 2020-05-15 | 北京三快在线科技有限公司 | 菜品推荐方法、装置、服务器、电子设备及存储介质 |
WO2021052358A1 (zh) * | 2019-09-16 | 2021-03-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN112861949A (zh) * | 2021-01-29 | 2021-05-28 | 成都视海芯图微电子有限公司 | 一种基于人脸和声音的情绪预测方法和系统 |
CN112966872A (zh) * | 2021-03-17 | 2021-06-15 | 京诚数字科技(江苏)有限公司 | 一种基于摄像头的关注度预测分析方法、装置及终端 |
-
2021
- 2021-06-30 CN CN202110739272.3A patent/CN113435357B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1860504A (zh) * | 2003-09-30 | 2006-11-08 | 皇家飞利浦电子股份有限公司 | 用于视听内容合成的系统和方法 |
CN106445461A (zh) * | 2016-10-25 | 2017-02-22 | 北京小米移动软件有限公司 | 文字信息处理方法及装置 |
CN108595008A (zh) * | 2018-04-27 | 2018-09-28 | 北京计算机技术及应用研究所 | 基于眼动控制的人机交互方法 |
US20190377755A1 (en) * | 2018-06-12 | 2019-12-12 | Kuo-Ching Chiang | Device for Mood Feature Extraction and Method of the Same |
CN109257622A (zh) * | 2018-11-01 | 2019-01-22 | 广州市百果园信息技术有限公司 | 一种音视频处理方法、装置、设备及介质 |
CN110414323A (zh) * | 2019-06-14 | 2019-11-05 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
WO2021052358A1 (zh) * | 2019-09-16 | 2021-03-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及电子设备 |
CN111161035A (zh) * | 2019-12-31 | 2020-05-15 | 北京三快在线科技有限公司 | 菜品推荐方法、装置、服务器、电子设备及存储介质 |
CN112861949A (zh) * | 2021-01-29 | 2021-05-28 | 成都视海芯图微电子有限公司 | 一种基于人脸和声音的情绪预测方法和系统 |
CN112966872A (zh) * | 2021-03-17 | 2021-06-15 | 京诚数字科技(江苏)有限公司 | 一种基于摄像头的关注度预测分析方法、装置及终端 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114257824A (zh) * | 2021-11-25 | 2022-03-29 | 广州方硅信息技术有限公司 | 直播显示方法、装置、存储介质及计算机设备 |
CN114257824B (zh) * | 2021-11-25 | 2024-03-19 | 广州方硅信息技术有限公司 | 直播显示方法、装置、存储介质及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113435357B (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
CN108701216B (zh) | 一种人脸脸型识别方法、装置和智能终端 | |
CN107644213A (zh) | 视频人物提取方法及装置 | |
CN109657554A (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN105518708A (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
CN109766925B (zh) | 特征融合方法、装置、电子设备及存储介质 | |
CN101178768A (zh) | 图像处理设备和方法以及个人识别设备 | |
CN112668453B (zh) | 视频识别方法及相关设备 | |
CN111783593A (zh) | 基于人工智能的人脸识别方法、装置、电子设备及介质 | |
CN113807451B (zh) | 全景图像特征点匹配模型的训练方法、装置以及服务器 | |
CN112101123A (zh) | 一种注意力检测方法及装置 | |
CN113435357B (zh) | 语音播报方法、装置、设备及存储介质 | |
CN111444928A (zh) | 关键点检测的方法、装置、电子设备及存储介质 | |
CN113705468A (zh) | 基于人工智能的数字图像识别方法及相关设备 | |
CN112365956A (zh) | 基于虚拟现实的心理治疗方法、装置、服务器及存储介质 | |
CN116205723A (zh) | 基于人工智能的面签风险检测方法及相关设备 | |
CN111128233A (zh) | 录音检测方法、装置、电子设备及存储介质 | |
CN112949305B (zh) | 负反馈信息采集方法、装置、设备及存储介质 | |
CN115345927A (zh) | 展品导览方法及相关装置、移动终端和存储介质 | |
DE112018002518T5 (de) | Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
CN113627576A (zh) | 扫码信息检测方法、装置、设备及存储介质 | |
CN114255494A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111324878A (zh) | 一种基于人脸识别的身份验证方法、装置、存储介质及终端 | |
CN113128304B (zh) | 图像处理的方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |