CN109766765A - 音频数据推送方法、装置、计算机设备和存储介质 - Google Patents

音频数据推送方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN109766765A
CN109766765A CN201811546628.6A CN201811546628A CN109766765A CN 109766765 A CN109766765 A CN 109766765A CN 201811546628 A CN201811546628 A CN 201811546628A CN 109766765 A CN109766765 A CN 109766765A
Authority
CN
China
Prior art keywords
expression
data
multiframe
audio data
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811546628.6A
Other languages
English (en)
Inventor
江波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
Original Assignee
OneConnect Smart Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Smart Technology Co Ltd filed Critical OneConnect Smart Technology Co Ltd
Priority to CN201811546628.6A priority Critical patent/CN109766765A/zh
Publication of CN109766765A publication Critical patent/CN109766765A/zh
Priority to PCT/CN2019/122546 priority patent/WO2020125397A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及基于生物识别的一种音频数据推送方法、装置、计算机设备和存储介质。所述方法包括:获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;获取预设的表情映射数据表,根据表情类别获取对应的音频数据;将音频数据推送至用户终端。采用本方法能够能够有效地提高音频数据的推送准确率。

Description

音频数据推送方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及基于生物识别的一种音频数据推送方法、装置、计算机设备和存储介质。
背景技术
驾驶员在驾驶的过程中,行为受到一定限制。传统的车载播放器中的音乐更新较为繁琐,通常是随机为用户进行播放已下载的音乐或其他有声读物,当用户不喜欢当前的音乐时,需要手动更换当前的音乐,给用户带了不便。
随着人工智能技术的迅速发展,出现了一些通过识别用户的语音指令执行相应的操作,但在驾驶过程中存在较大的噪音污染,语音指令识别的准确率较低,用户更换操作较为麻烦。而现有的一些音频数据自动推送的方式中,通常是根据排行或用户的历史记录相关的音频数据进行推送,而自动推送的音频播放数据不一定符合用户的喜好和情绪,导致了音乐或有声读物等音频播放数据的推送准确率较低。因此,如何有效提高音频数据的推送准确率成为目前需要解决的技术问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高音频数据的推送准确率的音频数据推送方法、装置、计算机设备和存储介质。
一种音频数据推送方法,所述方法包括:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
将所述音频数据推送至所述用户终端。
在其中一个实施例中,所述根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征,包括:对所述多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
在其中一个实施例中,所述获取预设的表情分类器之前,所述方法还包括:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;将所述验证集中的数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在其中一个实施例中,所述多帧人脸图片包括对应的图像序列,所述通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别,包括:将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;计算所述动态表情特征属于每个表情类别的概率值;获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
在其中一个实施例中,所述获取预设的表情映射数据表之前,还包括:获取多个视频数据;获取预设的视频数据分类模型,通过所述视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;根据所述心情标签获取对应的表情类别,所述心情标签对应一个或多个表情类别;根据所述心情标签和所述表情类别以及对应的音频数据建立表情映射数据表。
在其中一个实施例中,所述方法还包括:根据预设的频率获取所述用户标识对应的历史记录数据;获取预设的分析模型,通过所述分析模型对所述历史数据进行分析,得到分析结果;根据所述表情类别标签和所述分析结果匹配对应的音频数据;获取相匹配的音频数据,并将所述音频数据推送至所述用户终端。
在其中一个实施例中,所述方法还包括:当所述表情类别标签为疲劳时,获取对应的提示信息和音频数据;将所述提示信息和音频数据发送至所述用户终端,以使所述用户终端按照预设的方式进行提示和播放所述音频数据。
一种音频数据推送装置,所述装置包括:
数据获取模块,用于获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
人脸识别模块,用于根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
表情分类模块,用于获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
数据匹配模块,用于获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
数据推送模块,用于将所述音频数据推送至所述用户终端。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
将所述音频数据推送至所述用户终端。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
将所述音频数据推送至所述用户终端。
上述音频数据推送方法、装置、计算机设备和存储介质,获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识。进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。识别出该用户当前的人脸特征对应的表情类别后,则获取预设的表情映射数据表,根据表情类别获取对应的音频数据,并将音频数据推送至用户终端。通过对用户在驾驶过程中的人脸表情特征进行识别,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
附图说明
图1为一个实施例中音频数据推送方法的应用场景图;
图2为一个实施例中音频数据推送方法的流程示意图;
图3为一个实施例中训练表情分类器步骤的流程示意图;
图4为一个实施例中通过表情分类器对人脸特征分类步骤的流程示意图;
图5为一个实施例中音频数据推送装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的音频数据推送方法,可以应用于如图1所示的应用环境中。其中,用户终端102通过网络与服务器104通过网络进行通信。其中,用户终端102可以是安装在车辆中具有摄像功能的车载系统终端,也可以是与车辆分离的具有摄像功能的智能手机、平板电脑和便携式设备等,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。服务器104获取用户终端102上传的多帧人脸图片,多帧人脸图片携带了用户标识。服务器104进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器104则进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。服务器104识别出该用户当前的人脸特征对应的表情类别后,则获取预设的表情映射数据表,根据表情类别获取对应的音频数据,并将音频数据推送至用户终端102。通过对用户在驾驶过程中的人脸表情特征进行识别,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,如图2所示,提供了一种音频数据推送方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,获取用户终端上传的多帧人脸图片,多帧人脸图片携带用户标识。
其中,用户终端可以是安装在车辆中具有摄像功能的车载系统终端,也可以是与车辆分离的具有摄像功能的智能手机、平板电脑和便携式设备等。用户在驾驶的过程中,用户开启对应的用户终端后,可以向用户终端触发播放推荐指令。用户终端响应播放推荐指令后,通过摄像装置按照预设频率捕捉用户的人脸图片,并将捕捉的多帧人脸图片按照时间序列上传至服务器。其中,车载终端捕捉的多帧人脸图片可以是连续的多帧静态图片,也可以是动态视频。
进一步地,用户开启用户终端中相应的应用程序后,用户终端还可以根据预设的频率通过摄像装置自动拍摄用户的人脸图片或人脸视频,并将拍摄的人脸图片或人脸视频按照时间序列上传至服务器。
服务器进而获取用户终端上传的通过摄像装置拍摄的多帧人脸图片,其中,多帧人脸图片携带了用户标识。
步骤204,根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器获取用户终端通过摄像装置拍摄的多帧人脸图片后,则对多帧人脸图片进行人脸识别,识别出多帧人脸图片中的人脸图像,并对识别出的多帧人脸图像进行特征提取,提取出每帧人脸图像对应的人脸特征。多帧人脸图片还包括对应的图像序列。具体地,服务器对多帧人脸图片进行关键点定位,根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,并对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征,由此能够有效地识别并提取出人脸图像对应的人脸特征。
步骤206,获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。
服务器提取每帧人脸图像对应的人脸特征后,获取预设的表情分类器。其中,表情分类器可以是预先训练得到的基于神经网络模型的分类器。具体地,服务器将提取的每帧人脸图像对应的人脸特征输入至表情分类器中,通过表情分类器中的卷积神经网络识别每帧人脸特征,并根据图像序列和多帧人脸特征计算对应的动态人脸特征,进而计算动态人脸特征属于每个表情类别的概率值。服务器则获取概率值最高的表情类别,由此得到对用户标识对应的表情类别。
步骤208,获取预设的表情映射数据表,根据表情类别获取对应的音频数据。
步骤210,将音频数据推送至用户终端。
服务器通过表情分类器对多帧人脸特征进行分类,得到对应的表情类别后,进一步获取预设的表情映射数据表。其中,表情映射数据表中包括表情类别和对应的心情标签,以及心情标签对应的音频数据标识。具体地,服务器可以预先获取多个视频数据,每个视频数据可以包括对应的视频数据标识。服务器进一步获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并对视频数据添加对应的心情标签。其中,心情标签可以对应一个或多个表情类别。服务器则根据心情标签获取对应的表情类别,并根据心情标签和表情类别以及对应的音频数据标识建立表情映射数据表。
服务器则根据表情映射数据表匹配与表情类别对应的心情标签,并根据心情标签获取对应的音频数据。其中,音频数据可以包括各种音乐、广播音频以及有声读物等数据。
例如,心情标签可以对应音乐播放列表,服务器识别出该用户当前的表情类别后,则将表情类别对应的播放列表中的音频数据推送给用户终端,使得用户终端对推送的音频数据进行播放。通过对用户在驾驶过程中的人脸表情特征进行识别,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
上述音频数据推送方法中,服务器获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识。服务器进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器则进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。服务器识别出该用户当前的人脸特征对应的表情类别后,则获取预设的表情映射数据表,根据表情类别获取对应的音频数据,并将音频数据推送至用户终端。通过对用户在驾驶过程中的人脸表情特征进行识别,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征的步骤,包括:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
具体地,服务器根据预设算法检测多帧人脸图片中的关键点,并对多帧人脸图片进行关键点定位。服务器进而根据预设的人脸识别算法识别关键点定位后的多帧人脸图片中的多帧人脸图像,服务器还可以对人脸图片进行分割,提取出人脸图像部分,进一步对提取出的人脸图像进行灰度化处理和归一化处理。服务器则对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征,由此能够有效地识别并提取出人脸图像对应的人脸特征。
服务器还可以通过识别每帧人脸图片中的人脸特征是否一致,来判断用户的的人脸表情开始帧和结束帧以及持续的时间,通过人脸表情开始帧和结束帧以及持续的时间提取出用户的当前的多帧人脸特征。由此能够准确有效地提取出用户当前表情对应的多帧人脸特征。
服务器识别并提取出该用户的多帧人脸特征后,进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。服务器识别出该用户当前的人脸特征对应的表情类别后,则获取预设的表情映射数据表,根据表情类别获取对应的音频数据,并将音频数据推送至用户终端。通过对用户在驾驶过程中的人脸表情特征进行识别,能够准确有效地提取出用户当前表情对应的多帧人脸特征。并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,如图3所示,在获取预设的表情分类器之前,该方法还包括训练表情分类器的步骤,该步骤具体包括以下内容:
步骤302,从预设数据库中获取多个表情数据。
步骤304,利用获取的多个表情数据生成训练集和验证集。
步骤306,利用训练集中的数据用过预设算法进行训练得到初步的表情分类器。
步骤308,将验证集中的数据输入至初步的表情分类器中进行验证训练。
步骤310,当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
服务器在获取预设的表情分类器之前,还需要利用大量的表情数据训练得到表情分类器。具体地,服务器可以从本地或第三方数据库中获取大量的表情数据,其中,表情数据可以包括表情图片和表情视频以及动态表情图像等。服务器进而将获取的大量的表情数据生成训练集和验证集,其中,训练集中的表情数据可以是通过人工标注后的数据,验证集中的表情数据可以是未进行标注的数据。
服务器则将训练集中的表情数据进行特征提取,通过预设的算法进行训练,训练得到初步的表情分类器。例如,服务器可以通过CNN(Convolutional Neural Network,卷积神经网络)对表情数据中的人脸图像进行卷积操作,得到人脸图像对应的人脸特征。并将表情数据中多帧人脸图片对应的多帧人脸特征输入至BLSTM(Bidirectional Long Short-term Memory,双向长短期记忆神经网络),通过预设函数计算出表情数据对应的动态表情特征。服务器进而根据预设算法计算出每个动态表情特征对应每个标签类别的概率值,从而对表情分类器进行训练,由此能够有效地得到初步的表情分类器。
服务器进一步将验证集中的数据输入至初始表情分类器中进行持续训练,得到每个表情数据对应每个类别的概率值,获取达到预设的概率阈值的表情数据,当达到预设的概率阈值的表情数据的数量达到预设比值时,则停止训练,则得到训练完成的表情分类器。通过利用大量的表情数据对表情分类器进行训练和验证,从而可以有效地训练出分类准确率较高的表情分类器。
在一个实施例中,如图4所示,多帧人脸图片包括对应的图像序列,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别的步骤,具体包括一下内容:
步骤402,将多帧人脸图片对应的多帧人脸特征输入至表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量。
步骤404,根据图像序列和多帧人脸特征向量计算对应的动态表情特征。
步骤406,计算动态表情特征属于每个表情类别的概率值。
步骤408,获取概率值最高的表情类别,得到用户标识对应的表情类别。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器提取每帧人脸图像对应的人脸特征后,获取预设的表情分类器。其中,表情分类器可以是预先训练得到的基于神经网络模型的分类器。具体地,服务器将提取的每帧人脸图像对应的人脸特征输入至表情分类器中,通过表情分类器中的卷积神经网络识别每帧人脸特征向量,并根据图像序列和多帧人脸特征向量计算对应的动态人脸特征,进而计算动态人脸特征属于每个表情类别的概率值。服务器则获取概率值最高的表情类别,由此得到对用户标识对应的表情类别。
例如,服务器可以通过CNN(Convolutional Neural Network,卷积神经网络)对多帧人脸图像对应的多帧人脸特征进行卷积操作,识别得到人脸图像对应的人脸特征向量。并将多帧人脸特征向量输入至BLSTM(Bidirectional Long Short-term Memory,双向长短期记忆神经网络),通过预设函数计算出多帧人脸特征向量对应的动态表情特征。服务器进而根据预设算法计算出每个动态表情特征对应每个标签类别的概率值,服务器则获取概率值最高的表情类别。
服务器识别出该用户当前的人脸特征对应的表情类别后,则获取预设的表情映射数据表,根据表情类别获取对应的音频数据,并将音频数据推送至用户终端。通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,获取预设的表情映射数据表之前,还包括:获取多个视频数据;获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;根据心情标签获取对应的表情类别,心情标签对应一个或多个表情类别;根据心情标签和表情类别以及对应的音频数据建立表情映射数据表。
服务器在获取预设的表情数据映射表之前,还可以预先建立表情数据映射表。具体地,服务器可以预先获取多个视频数据,每个视频数据可以包括对应的视频数据标识。服务器进一步获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并对视频数据添加对应的心情标签。其中,心情标签可以对应一个或多个表情类别。服务器则根据心情标签获取对应的表情类别,并根据心情标签和表情类别以及对应的音频数据标识建立表情映射数据表,由此能够有效地建立用户表情与音频数据之间的关联关系。
服务器建立表情映射数据表后,服务器获取用户终端上传的多帧人脸图片,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器获取预设的表情分类器,通过表情分类器对多帧人脸特征进行分类,得到对应的表情类别后,进一步获取预设的表情映射数据表。其中,表情映射数据表中包括表情类别和对应的心情标签,以及心情标签对应的音频数据标识。
服务器则根据表情映射数据表匹配与表情类别对应的心情标签,并根据心情标签获取对应的音频数据。其中,音频数据可以包括各种音乐、广播音频以及有声读物等数据。服务器则将获取的音频数据推送至用户终端。
例如,心情标签可以对应音乐播放列表,服务器识别出该用户当前的表情类别后,则将表情类别对应的播放列表中的音频数据推送给用户终端,使得用户终端对推送的音频数据进行播放。通过对用户在驾驶过程中的人脸表情特征进行识别,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情情绪推送相对应的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,该方法还包括:根据预设的频率获取用户标识对应的历史记录数据;获取预设的分析模型,通过分析模型对历史数据进行分析,得到分析结果;根据表情类别标签和分析结果匹配对应的音频数据;获取匹配度最高的音频数据,并将音频数据推送至用户终端。
服务器还可以根据预设的频率获取用户的历史记录数据,例如用户的听歌记录和点播记录等。服务器通过对用户的历史记录数据进行大数据分析,具体地,服务器可以获取预设的分析模型,分析模型可以是基于神经网络的模型,也可以是基于决策树的模型。服务器将用户的历史记录数据输入至分析模型中,通过分析模型对历史数据进行分析,并得到对应的得到分析结果。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器识别并提取出该用户的多帧人脸特征后,进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。
服务器识别出该用户当前的人脸特征对应的表情类别后,则获取该用户标识对应的历史数据的分析结果。服务器则根据表情类别标签和分析结果匹配对应的音频数据。具体地,服务器获取预设的表情映射数据表,根据表情类别匹配对应的音频数据,并根据分析结果获取与分析结果相匹配的音频数据。服务器进而将音频数据推送至用户终端。例如,服务器可以根据用户的常听记录和收藏记录等数据分析出用户对音频数据的偏好度,并根据用户当前的表情像用户终端推送该标签类别对应的用户偏好度较高的音频数据。通过对用户在驾驶过程中的人脸表情特征进行识别,能够准确有效地提取出用户当前表情对应的多帧人脸特征。通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情类别。并通过对用户的历史数据进行分析,根据用户的表情和偏好对用户进行推送音频数据,进而能够有效地根据用户的表情推送相用户喜好的音频数据,由此能够有效地提高音频数据的推送准确率。
在一个实施例中,该方法还包括:当表情类别标签为疲劳时,获取对应的提示信息和音频数据;将提示信息和音频数据发送至所述用户终端,以使用户终端按照预设的方式进行提示和播放音频数据。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器识别并提取出该用户的多帧人脸特征后,进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。
服务器识别出该用户当前的人脸特征对应的表情类别后,当服务器识别出用户当前的表情类别为疲劳时,获取相对应的提示信息和音频数据,并将提示信息和音频数据发送至用户终端,以使用户终端按照预设的方式进行提示和播放音频数据。用户在驾驶过程中,若用户出现疲劳驾驶时,此时存在较高的风险隐患,服务器通过表情识别出用户的当前存在疲劳现象时,按照预设方式进行加强提醒,如高分贝音量的音频和提示语音进行提醒,由此能够有效地对用户进行提醒,以提示用户安全驾驶。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种音频数据推送装置,包括:数据获取模块502、人脸识别模块504、表情分类模块506、数据匹配模块508和数据推送模块510,其中:
数据获取模块502,用于获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
人脸识别模块504,用于根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
表情分类模块506,用于获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
数据匹配模块508,用于获取预设的表情映射数据表,根据表情类别获取对应的音频数据;
数据推送模块510,用于将音频数据推送至用户终端。
在其中一个实施例中,人脸识别模块504还用于对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
在其中一个实施例中,该装置还包括表情分类器训练模块,用于从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中的数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在其中一个实施例中,多帧人脸图片包括对应的图像序列,表情分类模块506还用于将多帧人脸图片对应的多帧人脸特征输入至表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在其中一个实施例中,该装置还包括表情映射数据表建立模块,用于获取多个视频数据;获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;根据心情标签获取对应的表情类别,心情标签对应一个或多个表情类别;根据心情标签和表情类别以及对应的音频数据建立表情映射数据表。
在其中一个实施例中,该装置还包括数据分析模块,用于根据预设的频率获取所述用户标识对应的历史记录数据;获取预设的分析模型,通过分析模型对历史数据进行分析,得到分析结果;数据推送模块510还用于根据表情类别标签和分析结果匹配对应的音频数据;获取相匹配的音频数据,并将音频数据推送至用户终端。
在其中一个实施例中,该装置还包括提示模块,用于当表情类别标签为疲劳时,获取对应的提示信息和音频数据;将提示信息和音频数据发送至用户终端,以使用户终端按照预设的方式进行提示和播放音频数据。
关于音频数据推送装置的具体限定可以参见上文中对于音频数据推送方法的限定,在此不再赘述。上述音频数据推送装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储人脸图片、表情类别和音频数据等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种音频数据推送方法。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
获取预设的表情映射数据表,根据表情类别获取对应的音频数据;
将音频数据推送至用户终端。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中的数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在一个实施例中,多帧人脸图片包括对应的图像序列,处理器执行计算机程序时还实现以下步骤:将多帧人脸图片对应的多帧人脸特征输入至表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取多个视频数据;获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;根据心情标签获取对应的表情类别,心情标签对应一个或多个表情类别;根据心情标签和表情类别以及对应的音频数据建立表情映射数据表。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据预设的频率获取所述用户标识对应的历史记录数据;获取预设的分析模型,通过分析模型对历史数据进行分析,得到分析结果;根据表情类别标签和分析结果匹配对应的音频数据;获取相匹配的音频数据,并将音频数据推送至用户终端。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:当表情类别标签为疲劳时,获取对应的提示信息和音频数据;将提示信息和音频数据发送至用户终端,以使用户终端按照预设的方式进行提示和播放音频数据。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
获取预设的表情映射数据表,根据表情类别获取对应的音频数据;
将音频数据推送至用户终端。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中的数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在一个实施例中,多帧人脸图片包括对应的图像序列,计算机程序被处理器执行时还实现以下步骤:将多帧人脸图片对应的多帧人脸特征输入至表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取多个视频数据;获取预设的视频数据分类模型,通过视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;根据心情标签获取对应的表情类别,心情标签对应一个或多个表情类别;根据心情标签和表情类别以及对应的音频数据建立表情映射数据表。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据预设的频率获取所述用户标识对应的历史记录数据;获取预设的分析模型,通过分析模型对历史数据进行分析,得到分析结果;根据表情类别标签和分析结果匹配对应的音频数据;获取相匹配的音频数据,并将音频数据推送至用户终端。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:当表情类别标签为疲劳时,获取对应的提示信息和音频数据;将提示信息和音频数据发送至用户终端,以使用户终端按照预设的方式进行提示和播放音频数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种音频数据推送方法,所述方法包括:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
将所述音频数据推送至所述用户终端。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征,包括:
对所述多帧人脸图片进行关键点定位;
根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,得到多帧人脸图像对应的人脸特征。
3.根据权利要求1所述的方法,其特征在于,所述获取预设的表情分类器之前,所述方法还包括:
从预设数据库中获取多个表情数据;
利用获取的多个表情数据生成训练集和验证集;
利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;
将所述验证集中的数据输入至初步的表情分类器中进行验证训练;
当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述多帧人脸图片包括对应的图像序列,所述通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别,包括:
将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;
根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;
计算所述动态表情特征属于每个表情类别的概率值;
获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
5.根据权利要求1所述的方法,其特征在于,所述获取预设的表情映射数据表之前,还包括:
获取多个视频数据;
获取预设的视频数据分类模型,通过所述视频数据分类模型对多个视频数据进行分类,并添加对应的心情标签;
根据所述心情标签获取对应的表情类别,所述心情标签对应一个或多个表情类别;
根据所述心情标签和所述表情类别以及对应的音频数据建立表情映射数据表。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据预设的频率获取所述用户标识对应的历史记录数据;
获取预设的分析模型,通过所述分析模型对所述历史数据进行分析,得到分析结果;
根据所述表情类别标签和所述分析结果匹配对应的音频数据;
获取相匹配的音频数据,并将所述音频数据推送至所述用户终端。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述表情类别标签为疲劳时,获取对应的提示信息和音频数据;
将所述提示信息和音频数据发送至所述用户终端,以使所述用户终端按照预设的方式进行提示和播放所述音频数据。
8.一种音频数据推送装置,所述装置包括:
数据获取模块,用于获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
人脸识别模块,用于根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
表情分类模块,用于获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
数据匹配模块,用于获取预设的表情映射数据表,根据所述表情类别获取对应的音频数据;
数据推送模块,用于将所述音频数据推送至所述用户终端。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201811546628.6A 2018-12-18 2018-12-18 音频数据推送方法、装置、计算机设备和存储介质 Pending CN109766765A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811546628.6A CN109766765A (zh) 2018-12-18 2018-12-18 音频数据推送方法、装置、计算机设备和存储介质
PCT/CN2019/122546 WO2020125397A1 (zh) 2018-12-18 2019-12-03 音频数据推送方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811546628.6A CN109766765A (zh) 2018-12-18 2018-12-18 音频数据推送方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN109766765A true CN109766765A (zh) 2019-05-17

Family

ID=66451481

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811546628.6A Pending CN109766765A (zh) 2018-12-18 2018-12-18 音频数据推送方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN109766765A (zh)
WO (1) WO2020125397A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110363187A (zh) * 2019-08-29 2019-10-22 上海云从汇临人工智能科技有限公司 一种人脸识别方法、装置、机器可读介质及设备
CN111259729A (zh) * 2019-12-30 2020-06-09 视联动力信息技术股份有限公司 一种表情识别方法和装置
CN111290800A (zh) * 2020-02-11 2020-06-16 深圳壹账通智能科技有限公司 一种人脸图像的识别方法及设备
WO2020125397A1 (zh) * 2018-12-18 2020-06-25 深圳壹账通智能科技有限公司 音频数据推送方法、装置、计算机设备和存储介质
CN111553191A (zh) * 2020-03-30 2020-08-18 深圳壹账通智能科技有限公司 基于人脸识别的视频分类方法、装置及存储介质
CN111666444A (zh) * 2020-06-02 2020-09-15 中国科学院计算技术研究所 基于人工智能的音频推送方法及系统、相关方法及设备
CN113780062A (zh) * 2021-07-26 2021-12-10 岚图汽车科技有限公司 一种基于情感识别的车载智能交互方法、存储介质及芯片

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881776B (zh) * 2020-07-07 2023-07-07 腾讯科技(深圳)有限公司 动态表情获取方法、装置、存储介质和电子设备
CN112330579B (zh) * 2020-10-30 2024-06-14 中国平安人寿保险股份有限公司 视频背景更换方法、装置、计算机设备及计算机可读介质
CN112784700B (zh) * 2021-01-04 2024-05-03 北京小米松果电子有限公司 人脸图像显示的方法、装置及存储介质
CN112966568A (zh) * 2021-02-09 2021-06-15 中国工商银行股份有限公司 一种视频客服服务质量分析方法及装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104202718A (zh) * 2014-08-05 2014-12-10 百度在线网络技术(北京)有限公司 一种向用户提供信息的方法与装置
CN105956059A (zh) * 2016-04-27 2016-09-21 乐视控股(北京)有限公司 基于情绪识别的信息推荐方法和装置
CN106384083A (zh) * 2016-08-31 2017-02-08 上海交通大学 一种自动面部表情识别并进行信息推荐的方法
CN106980811A (zh) * 2016-10-21 2017-07-25 商汤集团有限公司 人脸表情识别方法和人脸表情识别装置
CN107392109A (zh) * 2017-06-27 2017-11-24 南京邮电大学 一种基于深度神经网络的新生儿疼痛表情识别方法
CN107832746A (zh) * 2017-12-01 2018-03-23 北京小米移动软件有限公司 表情识别方法及装置
CN107862292A (zh) * 2017-11-15 2018-03-30 平安科技(深圳)有限公司 人物情绪分析方法、装置及存储介质
CN108197185A (zh) * 2017-12-26 2018-06-22 努比亚技术有限公司 一种音乐推荐方法、终端及计算机可读存储介质
CN108304823A (zh) * 2018-02-24 2018-07-20 重庆邮电大学 一种基于双卷积cnn和长短时记忆网络的表情识别方法
CN108596039A (zh) * 2018-03-29 2018-09-28 南京邮电大学 一种基于3d卷积神经网络的双模态情感识别方法及系统
CN108960122A (zh) * 2018-06-28 2018-12-07 南京信息工程大学 一种基于时空卷积特征的表情分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426404A (zh) * 2015-10-28 2016-03-23 广东欧珀移动通信有限公司 一种音乐信息推荐方法、装置和终端
CN109766765A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 音频数据推送方法、装置、计算机设备和存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104202718A (zh) * 2014-08-05 2014-12-10 百度在线网络技术(北京)有限公司 一种向用户提供信息的方法与装置
CN105956059A (zh) * 2016-04-27 2016-09-21 乐视控股(北京)有限公司 基于情绪识别的信息推荐方法和装置
CN106384083A (zh) * 2016-08-31 2017-02-08 上海交通大学 一种自动面部表情识别并进行信息推荐的方法
CN106980811A (zh) * 2016-10-21 2017-07-25 商汤集团有限公司 人脸表情识别方法和人脸表情识别装置
CN107392109A (zh) * 2017-06-27 2017-11-24 南京邮电大学 一种基于深度神经网络的新生儿疼痛表情识别方法
CN107862292A (zh) * 2017-11-15 2018-03-30 平安科技(深圳)有限公司 人物情绪分析方法、装置及存储介质
CN107832746A (zh) * 2017-12-01 2018-03-23 北京小米移动软件有限公司 表情识别方法及装置
CN108197185A (zh) * 2017-12-26 2018-06-22 努比亚技术有限公司 一种音乐推荐方法、终端及计算机可读存储介质
CN108304823A (zh) * 2018-02-24 2018-07-20 重庆邮电大学 一种基于双卷积cnn和长短时记忆网络的表情识别方法
CN108596039A (zh) * 2018-03-29 2018-09-28 南京邮电大学 一种基于3d卷积神经网络的双模态情感识别方法及系统
CN108960122A (zh) * 2018-06-28 2018-12-07 南京信息工程大学 一种基于时空卷积特征的表情分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
栗科峰: "人脸图像处理与识别技术", 31 August 2018, 中国科学技术出版社, pages: 162 - 163 *
王小川,史峰,郁磊: "MATLAB神经网络43个案例分析", 31 August 2013, 北京航空航天大学出版社, pages: 393 *
郑宏达,谢春生,鲁立,黄竞晶,杨林,洪琳: "人工智能视频分析 智能终端的崛起", 31 August 2017, 浙江工商大学出版社, pages: 59 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020125397A1 (zh) * 2018-12-18 2020-06-25 深圳壹账通智能科技有限公司 音频数据推送方法、装置、计算机设备和存储介质
CN110363187A (zh) * 2019-08-29 2019-10-22 上海云从汇临人工智能科技有限公司 一种人脸识别方法、装置、机器可读介质及设备
CN111259729A (zh) * 2019-12-30 2020-06-09 视联动力信息技术股份有限公司 一种表情识别方法和装置
CN111290800A (zh) * 2020-02-11 2020-06-16 深圳壹账通智能科技有限公司 一种人脸图像的识别方法及设备
CN111553191A (zh) * 2020-03-30 2020-08-18 深圳壹账通智能科技有限公司 基于人脸识别的视频分类方法、装置及存储介质
CN111666444A (zh) * 2020-06-02 2020-09-15 中国科学院计算技术研究所 基于人工智能的音频推送方法及系统、相关方法及设备
CN113780062A (zh) * 2021-07-26 2021-12-10 岚图汽车科技有限公司 一种基于情感识别的车载智能交互方法、存储介质及芯片

Also Published As

Publication number Publication date
WO2020125397A1 (zh) 2020-06-25

Similar Documents

Publication Publication Date Title
CN109766765A (zh) 音频数据推送方法、装置、计算机设备和存储介质
US11605226B2 (en) Video data processing method and apparatus, and readable storage medium
CN109766767A (zh) 行为数据推送方法、装置、计算机设备和存储介质
CN112037791B (zh) 会议纪要转录方法、设备和存储介质
US8847884B2 (en) Electronic device and method for offering services according to user facial expressions
WO2018107605A1 (zh) 一种将音视频数据转化成文字记录的系统和方法
CN110322872A (zh) 会议语音数据处理方法、装置、计算机设备和存储介质
CN111435456A (zh) 基于车辆的实时分析的系统和方法及其用途
CN110533288A (zh) 业务办理流程检测方法、装置、计算机设备和存储介质
CN109165829A (zh) 一种铁路值班人员交接班系统及交接班方法
CN109815489A (zh) 催收信息生成方法、装置、计算机设备和存储介质
CN110265032A (zh) 会议数据分析处理方法、装置、计算机设备和存储介质
CN109754218A (zh) 业务办理请求处理方法、装置、计算机设备和存储介质
CN109829363A (zh) 表情识别方法、装置、计算机设备和存储介质
CN108920640A (zh) 基于语音交互的上下文获取方法及设备
CN113266975B (zh) 车载冰箱控制方法、装置、设备和存储介质
WO2013189317A1 (zh) 基于人脸信息的多媒体交互方法及装置及终端
CN109560941A (zh) 会议记录方法、装置、智能终端及存储介质
CN109460891A (zh) 基于满意度评价的数据处理方法、装置和计算机设备
CN109065038A (zh) 一种执法仪的语音控制方法及系统
CN110517672B (zh) 用户意图识别方法、用户指令执行方法、系统及设备
CN109522799A (zh) 信息提示方法、装置、计算机设备和存储介质
CN109842805B (zh) 视频看点的生成方法、装置、计算机设备及存储介质
CN103594086A (zh) 语音处理系统、装置及方法
CN111667602A (zh) 一种行车记录仪图像共享方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination