CN113723359A - 用户情绪识别方法、装置、计算机设备及可读存储介质 - Google Patents
用户情绪识别方法、装置、计算机设备及可读存储介质 Download PDFInfo
- Publication number
- CN113723359A CN113723359A CN202111085948.8A CN202111085948A CN113723359A CN 113723359 A CN113723359 A CN 113723359A CN 202111085948 A CN202111085948 A CN 202111085948A CN 113723359 A CN113723359 A CN 113723359A
- Authority
- CN
- China
- Prior art keywords
- key
- user
- emotion
- information
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000008909 emotion recognition Effects 0.000 title claims description 36
- 230000008451 emotion Effects 0.000 claims abstract description 228
- 238000012545 processing Methods 0.000 claims description 37
- 238000004422 calculation algorithm Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 22
- 230000002996 emotional effect Effects 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 16
- 238000013475 authorization Methods 0.000 claims description 12
- 230000008921 facial expression Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 abstract description 8
- 238000004458 analytical method Methods 0.000 abstract description 5
- 210000001747 pupil Anatomy 0.000 description 29
- 238000013527 convolutional neural network Methods 0.000 description 26
- 230000008859 change Effects 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000036651 mood Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0203—Market surveys; Market polls
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能领域,公开了一种用户情绪识别方法、装置、计算机设备及可读存储介质,包括:获取用户的人脸图像;提取人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据面部图像识别用户对产品页面的整体情绪信息,通过预置的关键模型并根据关键部位图像识别用户对产品页面的关键情绪信息;根据整体情绪信息和关键情绪信息,得到用户对产品页面的综合情绪信息。本发明还涉及区块链技术,信息可存储于区块链节点中。本发明不仅准确的反映了用户对当前产品页面中产品的兴趣倾向,还避免了当前的基于回溯分析事后行为以构建兴趣标签,导致获得的兴趣标签无法直接反映用户对产品的兴趣倾向以及真实情绪的问题。
Description
技术领域
本发明涉及人工智能的生物识别技术领域,尤其涉及一种用户情绪识别方法、装置、计算机设备及可读存储介质。
背景技术
随着基于互联网和大数据的商业的深度发展,各企业单位需要根据用户的行为和兴趣特征构建用户的兴趣标签,以便于构建更适合用户的推送及消费方案。
目前通常是对用户的消费记录,浏览记录等事后行为进行回溯和分析,用以构建所述兴趣标签,但是,这种兴趣标签不仅无法直接反应用户对产品的兴趣倾向(即:用户购买某一产品可能不是因为喜欢,而是因为拼单、搭配等原因),而且因兴趣标签的构建是基于事后行为的回溯分析,导致兴趣标签无法反映用户当前的情绪特征,最终导致兴趣标签的标准不准确、不及时。
发明内容
本发明的目的是提供一种用户情绪识别方法、装置、计算机设备及可读存储介质,用于解决现有技术存在的因兴趣标签的构建是基于事后行为的回溯分析并且无法直接反映用户对产品的兴趣,导致无法准确及时的获得用户当前的情绪特征的问题。
为实现上述目的,本发明提供一种基于生物识别的用户情绪识别方法,包括:
获取用户的人脸图像;
提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪;
根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
上述方案中,所述获取用户的人脸图像之前,所述方法还包括:
当监听到用户端打开预置的产品页面时,则向所述用户端发送权限提示框,接收所述用户端在所述权限提示框中输入的授权信息或禁止信息;若接收到所述禁止信息,则结束。
上述方案中,所述获取用户的人脸图像之后,所述方法还包括:
对所述人脸图像进行图像处理,用以突出所述人脸图像中的关键部位图像,其中,所述图像处理为依次对所述人脸图像进行几何归一化处理、灰度归一化处理和双线性插值算法处理,所述关键部位图像是指人脸中能够反映情绪特征的具体部位。
上述方案中,所述面部模型的训练步骤,包括:
获取面部样本,其中,所述面部样本包括面部图像,以及表征所述面部图像中情绪特征的面部标签;
获取第一网络模型,通过所述面部样本训练所述第一网络模型,得到能够根据所述面部图像输出所述面部标签的面部模型。
上述方案中,所述关键模型的训练步骤,包括:
获取关键样本,其中,所述关键样本包括关键图像,以及表征所述关键图像中情绪特征的关键标签;
获取第二网络模型,通过所述关键样本训练所述第二网络模型,得到能够根据所述关键图像输出所述关键标签的关键模型。
上述方案中,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息,包括:
提取所述整体情绪信息中的整体结果和整体比值,以及提取所述关键情绪信息中的关键结果和关键比值;
通过预置的综合计算规则运算所述整体结果及其整体比值,以及所述关键结果及其关键比值得到综合结果和综合比值。
上述方案中,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息之后,所述方法还包括:
获取所述产品页面中的产品信息及所述用户端的身份信息,将所述产品信息、所述身份信息及所述综合情绪信息关联;
所述将所述产品信息、所述身份信息及所述综合情绪信息关联之后,所述方法还包括:
将所述综合情绪信息上传至区块链中。
为实现上述目的,本发明还提供一种基于生物识别的用户情绪识别装置,包括:
图像采集模块,用于获取用户的人脸图像;
情绪识别模块,用于提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪;
综合情绪模块,用于根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
为实现上述目的,本发明还提供一种计算机设备,其包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述计算机设备的处理器执行所述计算机程序时实现上述用户情绪识别方法的步骤。
为实现上述目的,本发明还提供一种计算机可读存储介质,所述可读存储介质上存储有计算机程序,所述可读存储介质存储的所述计算机程序被处理器执行时实现上述用户情绪识别方法的步骤。
本发明提供的用户情绪识别方法、装置、计算机设备及可读存储介质,通过在用户浏览产品页面时获取用户的人脸图像,并根据人脸图像中的面部图像和关键部位图像,识别所述用户对所述产品页面的整体情绪信息和关键情绪信息,再根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息的方式,及时的捕捉到了用户在浏览各产品页面时对其中产品所产生的真实情绪,不仅准确的反映了用户对当前产品页面中产品的兴趣倾向,并且因生成于用户浏览页面之时,故实现了及时反馈用户对产品的兴趣倾向的技术效果,避免了当前的基于回溯分析事后行为以构建兴趣标签,导致获得的兴趣标签无法直接反映用户对产品的兴趣倾向,以及及时获取用户在接触到产品时的真实情绪的问题。
附图说明
图1为本发明用户情绪识别方法实施例一的流程图;
图2为本发明用户情绪识别方法实施例二中用户情绪识别方法的环境应用示意图;
图3是本发明用户情绪识别方法实施例二中用户情绪识别方法的具体方法流程图;
图4为本发明用户情绪识别装置实施例三的程序模块示意图;
图5为本发明计算机设备实施例四中计算机设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的用户情绪识别方法、装置、计算机设备及可读存储介质,适用于人工智能的生物识别技术领域,为提供一种基于图像采集模块、情绪识别模块、综合情绪模块的用户情绪识别方法。本发明通过获取用户的人脸图像,提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
实施例一:
请参阅图1,本实施例的一种基于生物识别的用户情绪识别方法,包括:
S102:获取用户的人脸图像。
S104:提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪。
S105:根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
在示例性的实施例中,根据预置的拍摄周期调用所述摄像模块拍摄用户的面部,获得至少一个人脸图像,即:用户面部图像,其中,所述拍摄周期可根据需要设置,例如:3秒,5秒。进一步地,当监听到用户端关闭所述产品页面时,则停止获取所述用户的人脸图像,并汇总获得的人脸图像形成人脸图像。
通过提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息,实现从整体面部的角度,以及在情绪表达上具有标志性的部位的关键部位的角度,对用户表情和关键部位的情况进行采集,以便于后续分别根据上述两个角度综合评价用户对产品页面的态度,实现从多种维度判断用户对产品页面所传达的情绪的技术效果,其中,所述面部图像是指人脸整体面部,所述关键部位图像是指人脸中能够反映情绪特征的具体部位,例如:眼睛及瞳孔、嘴角等,所述面部模型和关键模型分别为CNN卷积神经网络模型。
通过所述整体情绪信息和所述关键情绪信息,对所述用户对所述产品页面的态度进行综合评价,以从整体面部表情和关键部位的情感识别两个维度,对用户态度进行综合判断,保证了表情情绪识别的准确度,进而实现了准确获知用户对产品页面的态度的技术效果。
因此,本申请在用户浏览产品页面时获取用户的人脸图像,并根据人脸图像中的面部图像和关键部位图像,识别所述用户对所述产品页面的整体情绪信息和关键情绪信息,再根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息的方式,及时的捕捉到了用户在浏览各产品页面时对其中产品所产生的真实情绪(正面情绪、一般情绪、负面情绪),所述真实情绪(即:所述综合情绪信息)不仅准确的反映了用户对当前产品页面中产品的兴趣倾向,并且因生成于用户浏览页面之时,故实现了及时反馈用户对产品的兴趣倾向的技术效果,避免了当前的基于回溯分析事后行为以构建兴趣标签,导致获得的兴趣标签无法直接反映用户对产品的兴趣倾向,以及及时获取用户在接触到产品时的真实情绪的问题。
实施例二:
本实施例为上述实施例一的一种具体应用场景,通过本实施例,能够更加清楚、具体地阐述本发明所提供的方法。
下面,以在运行有用户情绪识别方法的服务器中,提取人脸图像中的面部图像和关键部位图像,识别用户对产品页面的整体情绪信息以及关键情绪信息,根据整体情绪信息和关键情绪信息得到用户对产品页面的综合情绪信息。为例,来对本实施例提供的方法进行具体说明。需要说明的是,本实施例只是示例性的,并不限制本发明实施例所保护的范围。
图2示意性示出了根据本申请实施例二的用户情绪识别方法的环境应用示意图。
在示例性的实施例中,用户情绪识别方法所在的服务器2通过网络3分别连接用户端4;所述服务器2可以通过一个或多个网络3提供服务,网络3可以包括各种网络设备,例如路由器,交换机,多路复用器,集线器,调制解调器,网桥,中继器,防火墙,代理设备和/或等等。网络3可以包括物理链路,例如同轴电缆链路,双绞线电缆链路,光纤链路,它们的组合和/或类似物。网络3可以包括无线链路,例如蜂窝链路,卫星链路,Wi-Fi链路和/或类似物;所述用户端4可为智能手机、平板电脑、笔记本电脑、台式电脑等计算机设备。
图3是本发明一个实施例提供的一种用户情绪识别方法的具体方法流程图,该方法具体包括步骤S201至S206。
S201:当监听到用户端打开预置的产品页面时,则向所述用户端发送权限提示框,接收所述用户端在所述权限提示框中输入的授权信息或禁止信息;若接收到所述授权信息,则执行所述S202;若接收到所述禁止信息,则结束。
本步骤中,当用户通过用户端进入产品页面时,将向所述用户端发送具有权限询问信息的权限信息(即:询问框),用户通过在权限提示框中录入授权信息或禁止信息;若接收到授权信息,则说明用户允许拍摄其面部;若接收到禁止信息,则说明用户不同意拍摄其面部;因此,通过所述权限提示框可有力的保证在用户授权之下进行面部拍摄操作,保证了用户的隐私安全。
于所述图3中,所述S201以如下标注展示:
S11:当监听到用户端打开预置的产品页面时,则向所述用户端发送权限提示框,接收所述用户端在所述权限提示框中输入的授权信息或禁止信息;
S12:若接收到所述禁止信息,则结束
S202:当接收到所述授权信息时,获取用户的人脸图像。
本步骤中,根据预置的拍摄周期调用所述摄像模块拍摄用户的面部,获得至少一个人脸图像,即:用户面部图像,其中,所述拍摄周期可根据需要设置,例如:3秒,5秒。进一步地,当监听到用户端关闭所述产品页面时,则停止获取所述用户的人脸图像,并汇总获得的人脸图像形成人脸图像。
S203:对所述人脸图像进行图像处理,用以突出所述人脸图像中的关键部位图像;其中,所述图像处理为依次对所述人脸图像进行几何归一化处理、灰度归一化处理和双线性插值算法处理,所述关键部位图像是指人脸中能够反映情绪特征的具体部位。
本步骤中,所述图像处理为依次对所述人脸图像进行几何归一化处理、灰度归一化处理和双线性插值算法处理;所述关键部位图像是指人脸中能够反映情绪特征的具体部位,例如:眼睛及瞳孔、嘴角等。由于不同拍摄质量和拍摄环境的人脸图像中的关键部位图像,可能因人脸图像的拍摄质量或拍摄环境出现图像模糊的情况,进而不利于从关键部位图像的角度识别用户情绪,因此,本步骤通过对所述人脸图像进行几何归一化处理,使所述人脸图像转为同一的尺寸的图像,对所述人脸图像进行灰度归一化处理,用以增加所述人脸图像的亮度,使所述人脸图像中的关键部位图像的细节更加清楚,以减弱光线和光照强度的影响。通过双线性插值算法对所述人脸图像进行像素重塑,通过对人脸图像进行图像处理,用以避免所述人脸图像中出现像素不连续的情况发生,进而提高所述人脸图像的质量;因此,通过所述几何归一化处理、灰度归一化处理和所述双线性插值算法,突出了所述人脸图像中的关键部位图像,以便于后续从所述人脸图像中准确的提取所述关键部位图像。
进一步地,所述几何归一化处理的步骤,包括:
(1)标定特征点,这里用[x,y]=ginput(3)函数来标定两眼和鼻子三个特征点。主要是用鼠标动手标定,获取三个特征点的坐标值。
(2)根据左右两眼的坐标值旋转图像,以保证人脸方向的一致性。设两眼之间的距离为d,其中点为O。
(3)根据面部特征点和几何模型确定矩形特征区域,以O为基准,左右各剪切d,垂直方向各取0.5d和1.5d的矩形区域进行裁剪。
(4)对表情子区域图像进行尺度变换为统一的尺寸,更有利于表情特征的提取。把截取的图像统一规格为90*100的图像,实现图像的几何归一化。
于本实施例中,通过image=255*imadjust(C/255,[0.3;1],[0;1])函数,用以对人脸图像进行光照补偿。
需要说明的是,所述双线性插值算法,在计算机视觉及图像处理领域,双线性插值是一种基本的重采样技术,其用于放大所述人脸图像用以提高人脸图像的图像质量,避免出现像素值不连续的情况发生。于本实施例中,通过双线性插值算法将所述人脸图像统一重塑为64*64像素大小。
S204:提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪。
本步骤中,所述面部图像是指人脸整体面部,所述关键部位图像是指人脸中能够反映情绪特征的具体部位,例如:眼睛及瞳孔、嘴角等。为实现从多种维度判断用户对产品页面所传达的情绪,本步骤通过提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息,实现从整体面部的角度,以及在情绪表达上具有标志性的部位的关键部位的角度,对用户表情和关键部位的情况进行采集,以便于后续分别根据上述两个角度综合评价用户对产品页面的态度。其中,所述面部模型和关键模型分别为CNN卷积神经网络模型。
在一个优选的实施例中,所述面部模型的训练步骤,包括:
S41:获取面部样本,其中,所述面部样本包括面部图像,以及表征所述面部图像中情绪特征的面部标签。
本步骤中,所述面部图像为人脸图像,其中,所述面部图像涵盖多个年龄段、多种性别及人种的人脸图像,用以保证训练的全面性;所述面部标签为反映所述人脸图像的情绪信息;示例性地,如果面部图像为高兴、激动等正面情绪,则对所述面部图像标注正面情绪的面部标签;如果面部图像为平静、无视等一般情绪,则对所述面部图像标注一般情绪的面部标签;如果面部图像为厌恶、悲伤等负面情绪,则对所述面部图像标注负面情绪的面部标签。通过标记多种情绪以使神经网络模型能够根据表情识别用户的多种情绪,以便于后续的推送方案的制定。
S42:获取第一网络模型,通过所述面部样本训练所述第一网络模型,得到能够根据所述面部图像输出所述面部标签的面部模型。
本步骤中,将面部图像录入第一网络模型的输入层,并调用所述第一网络模型的中间层对所述面部图像中人脸表情所传达的情绪进行识别,及通过所述第一网络模型的输出层输出识别结果;再通过梯度下降算法调整所述中间层的权重值和偏执值,使所述中间层能够根据所述输入层根据所述面部图像输出的面部数据,通过所述输出层输出与所述面部标签一致的识别结果,此时所述第一网络模型将转为所述面部模型。
其中,采用CNN卷积神经网络作为所述第一网络模型,所述CNN卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。因此,所述中间层包括:卷积层,ReLU层,池化层,全连接层;由于面部图像中人脸的位置和方向可能是不同的,因此,通过CNN卷积神经网络具有平移不变性,即使图片中的目标位置平移到图片另一个地方,卷积神经网络仍然能很好地识别出这个目标,输出的结果也和原来未平移之前是一致的,进而适用于人脸位置、大小、方向不同的面部图像的情绪特征识别,扩展了适用范围并且保证了识别准确度。
梯度下降算法是迭代法的一种,其用于求解机器学习算法的模型参数(即所述中间层的权重值和偏执值),以对神经网络模型进行迭代。于本实施例中,采用随机梯度下降(SGD)算法作为所述梯度算法,由于随机梯度下降算法每次从训练集中随机选择一个样本来进行学习,即:其中,J(θ)是指所述随机梯度下降算法的目标函数,θ是第一网络模型的模型参数,也是所述随机梯度下降算法的最终求解目标,所述求解目标为使所述目标函数J(θ)值最小,η是指学习率,表达了计算目标函数的梯度,(xi,yi)是指随机选择的第i个样本,因此,反映了基于预置的学习率通过所述随机梯度下降算法对随机选择样本i进行运算所得到的调整步长,而反映了根据所述调整步长调整当前的模型参数得到迭代的模型参数,所述迭代的模型参数用于对所述神经网络模型的迭代。因此,相比于其他种类的梯度下降算法(如:批量梯度下降算法)采用每次都会使用全部训练样本的方案,导致出现大量冗余的训练,采用随机梯度下降算法每次只随机选择一个样本来更新模型参数的方式,提高了面部模型的训练,及后续的迭代速度,甚至可以实现面部模型的在线更新。
在一个优选的实施例中,所述关键模型的训练步骤,包括:
S43:获取关键样本,其中,所述关键样本包括关键图像,以及表征所述关键图像中情绪特征的关键标签。
本步骤中,所述关键图像为人脸图像,其中,所述关键图像涵盖多个年龄段、多种性别及人种的关键部位,用以保证训练的全面性;所述关键标签为反映所述关键部位的情绪信息,以关键部位为瞳孔举例,如果瞳孔放大,则说明用户对产品页面持高兴、激动等正面情绪,对所述关键图像标注正面标签;如果瞳孔不变,则说明用户对产品页面持平静、无视等一般情绪,对所述关键图像标注一般标签;如果瞳孔缩小,则说明用户对产品页面持厌恶、悲伤等负面情绪,对所述关键图像标注负面标签。于本实施例中,通过预置的变化阈值区间对所述瞳孔的放大、缩小和不变进行设置,若变化后的瞳孔大小与原瞳孔大小的比值,小于所述变化阈值区间的下限值,则判定所述瞳孔为缩小;若变化后的瞳孔大小与原瞳孔大小的比值,大于所述变化阈值区间的上限值,则判定所述瞳孔为放大;若变化后的瞳孔大小与原瞳孔大小的比值,处于所述变化阈值区间,则判定所述瞳孔为不便。
示例性地,所述变化阈值区间为(90%,110%),则说明如果瞳孔在变化后相比于变化前缩小了10%,则将所述瞳孔的变化设为瞳孔缩小;如果瞳孔在变化后相比于变化前扩大了10%,则将所述瞳孔的变化设为瞳孔扩大;如果瞳孔在变化后相比于变化前处于扩大10%及缩小10%的区间范围内,则将所述瞳孔的变化设为瞳孔不变,通过所述变化阈值区间,可以有效的避免用户进入产品页面而突然出现的光线变化所导致的瞳孔变化,以及因产品页面中字体过小而出现的瞳孔变化,造成的对用户情绪的误判情况发生。
S44:获取第二网络模型,通过所述关键样本训练所述第二网络模型,得到能够根据所述关键图像输出所述关键标签的关键模型。
本步骤中,将关键图像录入第二网络模型的输入层,并调用所述第二网络模型的中间层对所述关键图像中人脸表情所传达的情绪进行识别,及通过所述第二网络模型的输出层输出识别结果;再通过梯度下降算法调整所述中间层的权重值和偏执值,使所述中间层能够根据所述输入层根据所述关键图像输出的关键数据,通过所述输出层输出与所述关键标签一致的识别结果,此时所述第二网络模型将转为所述关键模型。
其中,采用CNN卷积神经网络作为所述第二网络模型,所述CNN卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。因此,所述中间层包括:卷积层,ReLU层,池化层,全连接层;由于关键图像中人脸的位置和方向可能是不同的,因此,通过CNN卷积神经网络具有平移不变性,即使图片中的目标位置平移到图片另一个地方,卷积神经网络仍然能很好地识别出这个目标,输出的结果也和原来未平移之前是一致的,进而适用于人脸位置、大小、方向不同的关键图像的情绪特征识别,扩展了适用范围并且保证了识别准确度。
梯度下降算法是迭代法的一种,其用于求解机器学习算法的模型参数(即所述中间层的权重值和偏执值),以对神经网络模型进行迭代。于本实施例中,采用随机梯度下降(SGD)算法作为所述梯度算法,由于随机梯度下降算法每次从训练集中随机选择一个样本来进行学习,即:其中,J(θ)是指所述随机梯度下降算法的目标函数,θ是第二网络模型的模型参数,也是所述随机梯度下降算法的最终求解目标,所述求解目标为使所述目标函数J(θ)值最小,η是指学习率,表达了计算目标函数的梯度,(xi,yi)是指随机选择的第i个样本,因此,反映了基于预置的学习率通过所述随机梯度下降算法对随机选择样本i进行运算所得到的调整步长,而反映了根据所述调整步长调整当前的模型参数得到迭代的模型参数,所述迭代的模型参数用于对所述神经网络模型的迭代。因此,相比于其他种类的梯度下降算法(如:批量梯度下降算法)采用每次都会使用全部训练样本的方案,导致出现大量冗余的训练,采用随机梯度下降算法每次只随机选择一个样本来更新模型参数的方式,提高了关键模型的训练,及后续的迭代速度,甚至可以实现关键模型的在线更新。
S205:根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
本步骤中,通过所述整体情绪信息和所述关键情绪信息,对所述用户对所述产品页面的态度进行综合评价,以从整体面部表情和关键部位的情感识别两个维度,对用户态度进行综合判断,保证了表情情绪识别的准确度,进而实现了准确获知用户对产品页面的态度的技术效果。
在一个优选的实施例中,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息,包括:
S51:提取所述整体情绪信息中的整体结果和整体比值,以及提取所述关键情绪信息中的关键结果和关键比值。
本步骤中,所述整体结果是指基于面部模型对人脸图像进行判断所得到的输出结果,所述整体比值是指判定所述人脸图像为所述输出结果的概率值,例如:整体结果:正面情绪,0.9;所述关键结果是指基于关键模型对人脸图像中的关键部位进行判断所得到的输出结果,所述关键比值是判定所述关键部位为所述关键结果的概率值,例如:关键结果:正面情绪,0.8。
S52:通过预置的综合计算规则运算所述整体结果及其整体比值,以及所述关键结果及其关键比值得到综合结果和综合比值。
本步骤中,所述综合计算规则是通过向整体比值赋以整体权重,及向所述关键比值设为关键权重,并运算获得综合结果和综合比值的计算机规则。
具体地,所述通过预置的综合计算规则运算所述整体结果及其整体比值,以及所述关键结果及其关键比值得到综合结果和综合比值,包括:
S521:判断所述整体结果和所述关键结果是否一致。
S522:若所述整体结果和所述关键结果一致,则对所述整体比值赋以预置的整体权重,及对所述关键比值赋以预置的关键权重,计算所述整体比值及其整体权重和所述关键比值及其关键权重得到综合比值,并将所述整体结果设为所述综合结果。示例性地,所述整体权重和所述关键权重可分别设为50%。
S523:若所述整体结果和所述关键结果不一致,则对所述整体比值赋以预置的整体权重,并计算所述整体比值及所述整体权重得到整体值,以及对所述关键比值赋以预置的关键权重,并计算所述关键比值及所述关键权重得到关键值;比较所述整体比值和所述关键值;如果所述整体值大于所述关键值,则将所述整体结果设为所述综合结果,并将所述整体比值设为所述综合比值;如果所述关键值大于或等于所述整体值,则将所述关键结果设为所述综合结果,并将所述关键比值设为所述综合比值。
S53:判断所述综合比值是否达到预置的比值阈值;若是,则将所述综合结果设为所述综合情绪信息;若否,则将一般情绪设为所述综合情绪信息。
本步骤通过综合比值对用户对产品页面的情绪进行综合评价,以保证用户情绪识别的准确度。通过设置比值阈值,例如:0.7,并将超过所述比值阈值的综合比值所对应的综合结果设为综合情绪信息,以消除直接对面部表情和关键部位特性不明显的整体结果和关键结果,进行情绪判断,导致用户情绪判断准确度较低的问题发生。
进一步地,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息之后,还包括:
S54:获取用户在浏览所述产品页面时所拍摄的至少一个人脸图像,并汇总各所述人脸图像所对应的所述综合情绪信息形成情绪集合。
S55:对所述情绪集合中的所述综合情绪信息依次赋以预置的综合权重值,并根据所述综合权重值依次计算所述综合情绪信息形成加权情绪信息。
本步骤中,可对情绪集合中各综合情绪信息赋以相同的综合权重值,也可按照所述综合情绪信息赋以依次递增或依次递减的综合权重值。
S56:将所述加权情绪信息重新定义为所述用户对所述产品页面的综合情绪信息。
本步骤中,通过将所述加权情绪信息替换反映所述用户对所述产品页面的综合情绪信息的方式,实现了基于多个人脸图像综合评价用户对产品页面的情绪和态度的效果,提高了用户情绪识别的准确度。
S206:获取所述产品页面中的产品信息及所述用户端的身份信息,将所述产品信息、所述身份信息及所述综合情绪信息关联。
为获知用户对哪些产品持何种态度,以便于根据用户对产品的态度构建产品推送策略,本步骤通过获取所述产品页面中的产品信息及所述用户端的身份信息,将所述产品信息、所述身份信息及所述综合情绪信息关联的方式,保存不同用户对不同产品的态度,进而生成用于构建所述产品推送策略的用户画像或用户兴趣表。具体地,从预置的用于保存用户画像的数据库中,获取与所述身份信息对应的目标用户画像,将所述产品信息和所述综合情绪信息录入所述目标用户画像中,使所述产品信息、所述身份信息及所述综合情绪信息关联。其中,用户画像为真实用户的虚拟代表,是在深刻理解真实数据的基础上勾画目标用户行为特征和兴趣、倾向的大数据工具。
根据所述用户画像构建所述产品推送策略。
示例性地,如果对所述产品的态度为“高兴”等正面情绪,说明用户对该产品具有强烈的兴趣,进而可向该用户推送该产品的配套产品以及与所述产品相似的相似产品;
如果对所述产品的态度为“平静”等无明显情绪,说明用户对该产品没有兴趣,进而可不再向该用户推送所述产品;
如果对所述产品的态度为“厌恶/悲伤”的负面情绪,说明用户对该产品十分厌恶,进而禁止向用户推送该产品的配套产品以及与所述产品相似的相似产品。
优选的,所述将所述产品信息、所述身份信息及所述综合情绪信息关联之后,所述方法还包括:
将所述综合情绪信息上传至区块链中。
需要说明的是,基于综合情绪信息得到对应的摘要信息,具体来说,摘要信息由综合情绪信息进行散列处理得到,比如利用sha256s算法处理得到。将摘要信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该摘要信息,以便查证综合情绪信息是否被篡改。本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
实施例三:
请参阅图4,本实施例的一种基于生物识别的用户情绪识别装置1,包括:
图像采集模块12,用于获取用户的人脸图像;
情绪识别模块14,用于提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪;
综合情绪模块15,用于根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
可选的,所述用户情绪识别装置1还包括:
授权模块11,用于在监听到用户端打开预置的产品页面时,则向所述用户端发送权限提示框,接收所述用户端在所述权限提示框中输入的授权信息或禁止信息;若接收到所述授权信息,则调用图像采集模块12;若接收到所述禁止信息,则结束。
可选的,所述用户情绪识别装置1还包括:
图像处理模块13,用于对所述人脸图像进行图像处理,用以突出所述人脸图像中的关键部位图像;其中,所述图像处理为依次对所述人脸图像进行几何归一化处理、灰度归一化处理和双线性插值算法处理,所述关键部位图像是指人脸中能够反映情绪特征的具体部位。
可选的,所述用户情绪识别装置1还包括:
信息关联模块16,用于获取所述产品页面中的产品信息及所述用户端的身份信息,将所述产品信息、所述身份信息及所述综合情绪信息关联。
可选的,所述情绪识别模块14还包括:
面部样本单元141,用于获取面部样本,其中,所述面部样本包括面部图像,以及表征所述面部图像中情绪特征的面部标签。
面部模型单元142,用于获取第一网络模型,通过所述面部样本训练所述第一网络模型,得到能够根据所述面部图像输出所述面部标签的面部模型。
关键样本单元143,用于获取关键样本,其中,所述关键样本包括关键图像,以及表征所述关键图像中情绪特征的关键标签。
关键模型单元144,用于获取第二网络模型,通过所述关键样本训练所述第二网络模型,得到能够根据所述关键图像输出所述关键标签的关键模型。
可选的,所述综合情绪模块15还包括:
结果比值单元151,用于提取所述整体情绪信息中的整体结果和整体比值,以及提取所述关键情绪信息中的关键结果和关键比值。
综合计算单元152,用于通过预置的综合计算规则运算所述整体结果及其整体比值,以及所述关键结果及其关键比值得到综合结果和综合比值。
情绪判断单元153,用于判断所述综合比值是否达到预置的比值阈值;若是,则将所述综合结果设为所述综合情绪信息;若否,则将一般情绪设为所述综合情绪信息。
集合构建单元154,用于获取用户在浏览所述产品页面时所拍摄的至少一个人脸图像,并汇总各所述人脸图像所对应的所述综合情绪信息形成情绪集合。
情绪加权单元155,用于对所述情绪集合中的所述综合情绪信息依次赋以预置的综合权重值,并根据所述综合权重值依次计算所述综合情绪信息形成加权情绪信息。
情绪重定义单元156,用于将所述加权情绪信息重新定义为所述用户对所述产品页面的综合情绪信息。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
综上,本申请应用于人工智能的生物识别领域,通过面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,以及通过关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息,其中,所述面部模型和关键模型均为神经网络模型,再根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息,用以实现对用户的微表情识别。
实施例四:
为实现上述目的,本发明还提供一种计算机设备5,实施例三的用户情绪识别装置的组成部分可分散于不同的计算机设备中,计算机设备5可以是执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个应用服务器所组成的服务器集群)等。本实施例的计算机设备至少包括但不限于:可通过系统总线相互通信连接的存储器51、处理器52,如图5所示。需要指出的是,图5仅示出了具有组件-的计算机设备,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
本实施例中,存储器51(即可读存储介质)包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器51可以是计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,存储器51也可以是计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器51还可以既包括计算机设备的内部存储单元也包括其外部存储设备。本实施例中,存储器51通常用于存储安装于计算机设备的操作系统和各类应用软件,例如实施例三的用户情绪识别装置的程序代码等。此外,存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制计算机设备的总体操作。本实施例中,处理器52用于运行存储器51中存储的程序代码或者处理数据,例如运行用户情绪识别装置,以实现实施例一和实施例二的用户情绪识别方法。
实施例五:
为实现上述目的,本发明还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器52执行时实现相应功能。本实施例的计算机可读存储介质用于存储实现所述用户情绪识别方法的计算机程序,被处理器52执行时实现实施例一和实施例二的用户情绪识别方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于生物识别的用户情绪识别方法,其特征在于,包括:
获取用户的人脸图像;
提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪;
根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
2.根据权利要求1所述的用户情绪识别方法,其特征在于,所述获取用户的人脸图像之前,所述方法还包括:
当监听到用户端打开预置的产品页面时,则向所述用户端发送权限提示框,接收所述用户端在所述权限提示框中输入的授权信息或禁止信息;若接收到所述禁止信息,则结束。
3.根据权利要求1所述的用户情绪识别方法,其特征在于,所述获取用户的人脸图像之后,所述方法还包括:
对所述人脸图像进行图像处理,用以突出所述人脸图像中的关键部位图像,其中,所述图像处理为依次对所述人脸图像进行几何归一化处理、灰度归一化处理和双线性插值算法处理,所述关键部位图像是指人脸中能够反映情绪特征的具体部位。
4.根据权利要求1所述的用户情绪识别方法,其特征在于,所述面部模型的训练步骤,包括:
获取面部样本,其中,所述面部样本包括面部图像,以及表征所述面部图像中情绪特征的面部标签;
获取第一网络模型,通过所述面部样本训练所述第一网络模型,得到能够根据所述面部图像输出所述面部标签的面部模型。
5.根据权利要求1所述的用户情绪识别方法,其特征在于,所述关键模型的训练步骤,包括:
获取关键样本,其中,所述关键样本包括关键图像,以及表征所述关键图像中情绪特征的关键标签;
获取第二网络模型,通过所述关键样本训练所述第二网络模型,得到能够根据所述关键图像输出所述关键标签的关键模型。
6.根据权利要求1所述的用户情绪识别方法,其特征在于,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息,包括:
提取所述整体情绪信息中的整体结果和整体比值,以及提取所述关键情绪信息中的关键结果和关键比值;
通过预置的综合计算规则运算所述整体结果及其整体比值,以及所述关键结果及其关键比值得到综合结果和综合比值。
7.根据权利要求1所述的用户情绪识别方法,其特征在于,所述根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息之后,所述方法还包括:
获取所述产品页面中的产品信息及所述用户端的身份信息,将所述产品信息、所述身份信息及所述综合情绪信息关联;
所述将所述产品信息、所述身份信息及所述综合情绪信息关联之后,所述方法还包括:
将所述综合情绪信息上传至区块链中。
8.一种基于生物识别的用户情绪识别装置,其特征在于,包括:
图像采集模块,用于获取用户的人脸图像;
情绪识别模块,用于提取所述人脸图像中的面部图像和关键部位图像,通过预置的面部模型并根据所述面部图像识别所述用户对所述产品页面的整体情绪信息,通过预置的关键模型并根据所述关键部位图像识别所述用户对所述产品页面的关键情绪信息;其中,所述整体情绪信息用于表征用户面部表情所传达的情绪,所述关键情绪信息用于表征关键部位所传达的情绪;
综合情绪模块,用于根据所述整体情绪信息和所述关键情绪信息,得到所述用户对所述产品页面的综合情绪信息。
9.一种计算机设备,其包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机设备的处理器执行所述计算机程序时实现权利要求1至7任一项所述用户情绪识别方法的步骤。
10.一种计算机可读存储介质,所述可读存储介质上存储有计算机程序,其特征在于,所述可读存储介质存储的所述计算机程序被处理器执行时实现权利要求1至7任一项所述用户情绪识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085948.8A CN113723359A (zh) | 2021-09-16 | 2021-09-16 | 用户情绪识别方法、装置、计算机设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111085948.8A CN113723359A (zh) | 2021-09-16 | 2021-09-16 | 用户情绪识别方法、装置、计算机设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113723359A true CN113723359A (zh) | 2021-11-30 |
Family
ID=78684066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111085948.8A Pending CN113723359A (zh) | 2021-09-16 | 2021-09-16 | 用户情绪识别方法、装置、计算机设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113723359A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115052193A (zh) * | 2022-05-25 | 2022-09-13 | 天翼爱音乐文化科技有限公司 | 视频推荐方法、系统、装置及存储介质 |
-
2021
- 2021-09-16 CN CN202111085948.8A patent/CN113723359A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115052193A (zh) * | 2022-05-25 | 2022-09-13 | 天翼爱音乐文化科技有限公司 | 视频推荐方法、系统、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105426356B (zh) | 一种目标信息识别方法和装置 | |
CN110197146B (zh) | 基于深度学习的人脸图像分析方法、电子装置及存储介质 | |
CN112634170B (zh) | 一种模糊图像修正的方法、装置、计算机设备及存储介质 | |
CN108491866B (zh) | 色情图片鉴定方法、电子装置及可读存储介质 | |
CN112395979B (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN111985323B (zh) | 基于深度卷积神经网络的人脸识别方法及系统 | |
CN111612081B (zh) | 识别模型的训练方法、装置、设备及存储介质 | |
CN110750523A (zh) | 数据标注方法、系统、计算机设备和存储介质 | |
CN114241459B (zh) | 一种驾驶员身份验证方法、装置、计算机设备及存储介质 | |
CN112995414B (zh) | 基于语音通话的行为质检方法、装置、设备及存储介质 | |
CN114357174B (zh) | 基于ocr和机器学习的代码分类系统及方法 | |
CN113793256A (zh) | 基于用户标签的动漫人物生成方法、装置、设备及介质 | |
CN114550051A (zh) | 一种车损检测方法、装置、计算机设备及存储介质 | |
WO2022126917A1 (zh) | 基于深度学习的人脸图像评估方法、装置、设备及介质 | |
CN110874570A (zh) | 面部识别方法、装置、设备及计算机可读存储介质 | |
CN113723359A (zh) | 用户情绪识别方法、装置、计算机设备及可读存储介质 | |
CN116469111B (zh) | 一种文字生成模型训练方法及目标文字生成方法 | |
CN112084979B (zh) | 食品成分识别方法、装置、设备及存储介质 | |
CN113901817A (zh) | 文档分类方法、装置、计算机设备和存储介质 | |
CN113704623A (zh) | 一种数据推荐方法、装置、设备及存储介质 | |
CN112990147A (zh) | 一种涉政图像的识别方法、装置、电子设备及存储介质 | |
CN110851349A (zh) | 页面异常显示的检测方法、终端设备及存储介质 | |
CN114743249B (zh) | 识别模型训练方法、微表情识别方法、装置、设备及介质 | |
CN113255683B (zh) | 一种基于神经网络的图像分割方法、系统及存储介质 | |
US20240176951A1 (en) | Electronic document validation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |