CN109447001B - 一种动态情绪识别方法 - Google Patents

一种动态情绪识别方法 Download PDF

Info

Publication number
CN109447001B
CN109447001B CN201811289456.9A CN201811289456A CN109447001B CN 109447001 B CN109447001 B CN 109447001B CN 201811289456 A CN201811289456 A CN 201811289456A CN 109447001 B CN109447001 B CN 109447001B
Authority
CN
China
Prior art keywords
emotion
current
image
face
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811289456.9A
Other languages
English (en)
Other versions
CN109447001A (zh
Inventor
李光者
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Asb Technology Co ltd
Original Assignee
Shenzhen Asb Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Asb Technology Co ltd filed Critical Shenzhen Asb Technology Co ltd
Priority to CN201811289456.9A priority Critical patent/CN109447001B/zh
Publication of CN109447001A publication Critical patent/CN109447001A/zh
Application granted granted Critical
Publication of CN109447001B publication Critical patent/CN109447001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理识别技术领域,公开了一种动态情绪识别方法,解决了现有的情绪识别无法实现当前用户的情绪精准识别等问题。本发明首先获取包含人脸的动态图像,对动态图像进行场景识别;然后将当前动态图像拆分为多个均包含人脸的单帧图像,并经过预处理后得到多个初始图像;接着根据每个初始图像中人脸的关键点判断当前初始图像中人脸的情绪状态;接着得到每个初始图形中人脸对应的情绪信息;最后将任意连续3个以上初始图像的情绪信息结合,得到当前动态图像中人脸的连续情绪走向信息。本发明能够精准地进行情绪的识别,可以用于离散情绪识别及连续情感空间表达下的情绪识别等多种交互场景,提高了用户体验度,适于推广使用。

Description

一种动态情绪识别方法
技术领域
本发明属于图像处理识别技术领域,具体涉及一种动态情绪识别方法。
背景技术
情感能力是人类智能的重要标志,情感计算机技术是和谐人机交互与人工智能领域中新的研究方向,也是数学、信息科学、智能科学、神经科学、以及生理、心理科学等多学科交叉的新结合点,是建立自然和谐、友好的智能人机环境的基础理论与技术之一,旨在通过赋予计算机系统识别、理解、表达和适应人的情感的能力,来建立和谐人机环境。
而情感计算机技术中,情绪识别是实现自然人机交互的主要任务之一,实现精准化情绪识别能够使计算机与用户交互的过程中自然地感知用户的情感,追踪其情感变化,进而更主观地与其进行思想上的交流及互动,或者推测用户内心的基本意愿等,因此,情绪识别在自然人机交互中具有十分重要的意义;现有的情绪识别一般基于对采集的人脸图像的识别,但是人类微表情丰富,仅靠识别单张人脸图像无法实现当前用户的情绪精准识别,因此现有技术中的情绪识别准确率低,进而导致后续无法实现智能友好的人机交互。
发明内容
为了解决现有技术存在的上述问题,本发明目的在于提供一种识别结果精准的动态情绪识别方法。
本发明所采用的技术方案为:
一种动态情绪识别方法,包括以下步骤:
S1.获取包含人脸的动态图像,对动态图像进行场景识别;
S2.将当前动态图像拆分为多个均包含人脸的单帧图像,然后对每个单帧图像进行预处理,得到多个初始图像;
S3.获取每个初始图像中人脸的关键点,然后根据每个初始图像中人脸的关键点判断当前初始图像中人脸的情绪状态;
S4.将每个初始图像中的关键点与对应的情绪状态的判断模型进行比对,得到每个初始图形中人脸对应的情绪信息;
S5.将任意连续3个以上初始图像的情绪信息结合,得到当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别。
作为优选,所述的步骤S1中,场景识别时,每种场景对应至少一种情绪状态;每种情绪状态至少对应一种情绪信息。
作为优选,所述的步骤S2中,对每个单帧图像进行预处理时,步骤如下:
S201.识别当前单帧图像中的人脸区域,获取当前人脸区域的明部及暗部;
S202.计算当前明部与暗部的反差值,并根据反差值进行计算,得到多个曝光补偿值;
S203.计算当前人脸区域的综合亮度,然后调节曝光度使得当前单帧图像的综合亮度达到预设亮度值,并根据当前曝光度得到曝光基准值;
S204.根据每个曝光补偿值及曝光基准值分别对当前人脸区域进行曝光,得到多张过程图像;
S205.将多张过程图像进行HDR处理得到当前初始图像。
作为优选,所述的步骤S203中,反差值为当前人脸区域的明部与暗部的亮度值的差值的绝对值。
作为优选,所述的步骤S3中,所述的情绪状态包括积极情绪、消极情绪及中立情绪;所述的关键点包括眼角、眉毛的末端、嘴角、鼻尖位置信息。
作为优选,所述的步骤S3中,判断当前人脸的情绪状态时,将当前单帧图像中的关键点与对应的场景中的每个情绪状态分别进行对比。
作为优选,所述的步骤S4中,每个初始图像中的关键点与对应的情绪状态的判断模型进行比对时,获取当前单帧图像中的关键点的特征信息,然后将当前单帧图像中的关键点的特征信息与判断模型中的特征信息进行比对,得到与当前单帧图像中的关键点相似度最高的判断模型,则该判断模型对应的情绪信息即为当前初始图形中人脸的情绪信息。
作为优选,所述的特征信息为包括横向宽度、纵向高度、弯曲角度信息的三维数据组。
作为优选,所述的判断模型的生成方法为:首先预先采样情绪状态为积极情绪、消极情绪及中立情绪对应的人脸关键点的特征信息,然后将采样的特征信息作为BP神经网络算法的输入值,通过BP神经网络对输入值进行训练,最后获得判断模型。
作为优选,所述的步骤S5中,将任意连续3个以上初始图像的情绪信息结合后,具体步骤如下:
S501.判断当前3个以上的初始图像是否属于同一情绪状态;
S502.如步骤S501中的判断结果为是,则继续判断当前3个以上的初始图像是否属于同一情绪信息,如步骤S501中的判断结果为否,则将不同情绪状态对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪状态修改为数量多的初始图像对应的情绪状态,然后对修改了情绪状态的初始图像重复步骤S3-S5。
S503.如步骤S501中的判断结果为是,则当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别,如步骤S501中的判断结果为否,则将不同情绪信息对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪信息修改为数量多的初始图像对应的情绪信息,然后对修改了情绪状态的初始图像重复步骤S4-S5。
本发明的有益效果为:
通过对动态图像的拆分、识别及结合,将动态图像划分为不同的场景,并通过单帧图像中人脸的关键点判断当前情绪状态及情绪信息,且进一步将单帧图像结合,使得本发明能够精准地进行情绪的识别,不仅可以用于离散情绪识别,也适用于连续情感空间表达下的情绪识别等多种交互场景,使得人机交互更加智能化及人性化,大幅度提高了用户体验度,适于推广使用。
附图说明
图1是本发明的结框图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步阐释。
实施例1:
如图1所示,本实施例提供一种动态情绪识别方法,包括以下步骤:
S1.获取包含人脸的动态图像,对动态图像进行场景识别;其中,场景识别时,每种场景对应至少一种情绪状态;每种情绪状态至少对应一种情绪信息。当判断一动态图像是否包含人脸时,可以通过一种迭代算法AdaBoost实现。
S2.将当前动态图像拆分为多个均包含人脸的单帧图像,然后对每个单帧图像进行预处理,得到多个初始图像;其中,预处理前,可以对每个单帧图像进行灰度化和直方图归一化处理,以及照度校正和光照校正处理,通过灰度化和直方图归一化处理可以使得人脸特征更为突出,通过照度校正和光照校正处理可以削弱侧面光源对人脸图像的干扰以及削弱正面光源对人脸图像的干扰。
本实施例中,对每个单帧图像进行预处理时,步骤如下:
S201.识别当前单帧图像中的人脸区域,获取当前人脸区域的明部及暗部;
S202.计算当前明部与暗部的反差值,并根据反差值进行计算,得到多个曝光补偿值;衡量曝光补偿值及反差值的单位可以是eV(Exposure Value),eV是由快门速度值和光圈值组合表示摄影镜头通光能力的一个数值,一般来说eV越高,进光量越多,图像整体上越亮,eV越低,进光量越少,图像整体上越暗,曝光补偿值是一个相对于基准图像的相对值;
S203.计算当前人脸区域的综合亮度,然后调节曝光度使得当前单帧图像的综合亮度达到预设亮度值,并根据当前曝光度得到曝光基准值;其中,反差值为当前人脸区域的明部与暗部的亮度值的差值的绝对值;
S204.根据每个曝光补偿值及曝光基准值分别对当前人脸区域进行曝光,得到多张过程图像;
S205.将多张过程图像进行HDR处理得到当前初始图像;HDR处理后得到初始图像会更充分地展示人脸上各个区域的皮肤细节,便于后续过程中更加精准地识别微表情。
S3.获取每个初始图像中人脸的关键点,然后根据每个初始图像中人脸的关键点判断当前初始图像中人脸的情绪状态;其中,情绪状态包括积极情绪、消极情绪及中立情绪;关键点包括眼角、眉毛的末端、嘴角、鼻尖位置信息。
本实施例中,判断当前人脸的情绪状态时,将当前单帧图像中的关键点与对应的场景中的每个情绪状态分别进行对比。
S4.将每个初始图像中的关键点与对应的情绪状态的判断模型进行比对,得到每个初始图形中人脸对应的情绪信息;其中,判断模型的生成方法为:首先预先采样情绪状态为积极情绪、消极情绪及中立情绪对应的人脸关键点的特征信息,然后将采样的特征信息作为BP神经网络算法的输入值,通过BP神经网络对输入值进行训练,最后获得判断模型。
本实施例中,每个初始图像中的关键点与对应的情绪状态的判断模型进行比对时,获取当前单帧图像中的关键点的特征信息,然后将当前单帧图像中的关键点的特征信息与判断模型中的特征信息进行比对,得到与当前单帧图像中的关键点相似度最高的判断模型,则该判断模型对应的情绪信息即为当前初始图形中人脸的情绪信息;其中,特征信息为包括横向宽度、纵向高度、弯曲角度信息的三维数据组。
通过步骤S1-S4,使得本发明能够应用于离散情况下的情绪识别。
S5.将任意连续3个以上初始图像的情绪信息结合,得到当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别;其中,进行情绪信息结合的初始图像不局限于3张,也可以是5张、7张等。
本实施例中,将任意连续3个以上初始图像的情绪信息结合后,具体步骤如下:
S501.判断当前3个以上的初始图像是否属于同一情绪状态;
S502.如步骤S501中的判断结果为是,则继续判断当前3个以上的初始图像是否属于同一情绪信息,如步骤S501中的判断结果为否,则将不同情绪状态对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪状态修改为数量多的初始图像对应的情绪状态,然后对修改了情绪状态的初始图像重复步骤S3-S5。
S503.如步骤S501中的判断结果为是,则当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别,如步骤S501中的判断结果为否,则将不同情绪信息对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪信息修改为数量多的初始图像对应的情绪信息,然后对修改了情绪状态的初始图像重复步骤S4-S5。
通过步骤S501-S503,使得本发明能够应用于连续情感空间表达下的情绪识别。
结合本实施例描述的方法的步骤可以直接用硬件、处理器执行的软件模块或者二者的结合来实施;软件模块可以置于随机储存器、内存、只读存储器、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM等技术领域内所公知的任意其他形式的存储介质中。
本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。

Claims (9)

1.一种动态情绪识别方法,其特征在于:包括以下步骤:
S1.获取包含人脸的动态图像,对动态图像进行场景识别;
S2.将当前动态图像拆分为多个均包含人脸的单帧图像,然后对每个单帧图像进行预处理,得到多个初始图像;
S3.获取每个初始图像中人脸的关键点,然后根据每个初始图像中人脸的关键点判断当前初始图像中人脸的情绪状态;
S4.将每个初始图像中的关键点与对应的情绪状态的判断模型进行比对,得到每个初始图形中人脸对应的情绪信息;
S5.将任意连续3个以上初始图像的情绪信息结合,得到当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别;
所述的步骤S5中,将任意连续3个以上初始图像的情绪信息结合后,具体步骤如下:
S501.判断当前3个以上的初始图像是否属于同一情绪状态;
S502.如步骤S501中的判断结果为是,则继续判断当前3个以上的初始图像是否属于同一情绪信息,如步骤S501中的判断结果为否,则将不同情绪状态对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪状态修改为数量多的初始图像对应的情绪状态,然后对修改了情绪状态的初始图像重复步骤S3-S5;
S503.如步骤S501中的判断结果为是,则当前动态图像中人脸的连续情绪走向信息,即完成当前动态图像的情绪识别,如步骤S501中的判断结果为否,则将不同情绪信息对应的初始图像的数量进行比较,并将数量少的初始图像对应的情绪信息修改为数量多的初始图像对应的情绪信息,然后对修改了情绪状态的初始图像重复步骤S4-S5。
2.根据权利要求1所述的动态情绪识别方法,其特征在于:所述的步骤S1中,场景识别时,每种场景对应至少一种情绪状态;每种情绪状态至少对应一种情绪信息。
3.根据权利要求1或2所述的动态情绪识别方法,其特征在于:所述的步骤S2中,对每个单帧图像进行预处理时,步骤如下:
S201.识别当前单帧图像中的人脸区域,获取当前人脸区域的明部及暗部;
S202.计算当前明部与暗部的反差值,并根据反差值进行计算,得到多个曝光补偿值;
S203.计算当前人脸区域的综合亮度,然后调节曝光度使得当前单帧图像的综合亮度达到预设亮度值,并根据当前曝光度得到曝光基准值;
S204.根据每个曝光补偿值及曝光基准值分别对当前人脸区域进行曝光,得到多张过程图像;
S205.将多张过程图像进行HDR处理得到当前初始图像。
4.根据权利要求3所述的动态情绪识别方法,其特征在于:所述的步骤S203中,反差值为当前人脸区域的明部与暗部的亮度值的差值的绝对值。
5.根据权利要求1或2所述的动态情绪识别方法,其特征在于:所述的步骤S3中,所述的情绪状态包括积极情绪、消极情绪及中立情绪;所述的关键点包括眼角、眉毛的末端、嘴角、鼻尖位置信息。
6.根据权利要求5所述的动态情绪识别方法,其特征在于:所述的步骤S3中,判断当前人脸的情绪状态时,将当前单帧图像中的关键点与对应的场景中的每个情绪状态分别进行对比。
7.根据权利要求6所述的动态情绪识别方法,其特征在于:所述的步骤S4中,每个初始图像中的关键点与对应的情绪状态的判断模型进行比对时,获取当前单帧图像中的关键点的特征信息,然后将当前单帧图像中的关键点的特征信息与判断模型中的特征信息进行比对,得到与当前单帧图像中的关键点相似度最高的判断模型,则该判断模型对应的情绪信息即为当前初始图形中人脸的情绪信息。
8.根据权利要求7所述的动态情绪识别方法,其特征在于:所述的特征信息为包括横向宽度、纵向高度、弯曲角度信息的三维数据组。
9.根据权利要求8所述的动态情绪识别方法,其特征在于:所述的判断模型的生成方法为:首先预先采样情绪状态为积极情绪、消极情绪及中立情绪对应的人脸关键点的特征信息,然后将采样的特征信息作为BP神经网络算法的输入值,通过BP神经网络对输入值进行训练,最后获得判断模型。
CN201811289456.9A 2018-10-31 2018-10-31 一种动态情绪识别方法 Active CN109447001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811289456.9A CN109447001B (zh) 2018-10-31 2018-10-31 一种动态情绪识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811289456.9A CN109447001B (zh) 2018-10-31 2018-10-31 一种动态情绪识别方法

Publications (2)

Publication Number Publication Date
CN109447001A CN109447001A (zh) 2019-03-08
CN109447001B true CN109447001B (zh) 2020-10-09

Family

ID=65549370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811289456.9A Active CN109447001B (zh) 2018-10-31 2018-10-31 一种动态情绪识别方法

Country Status (1)

Country Link
CN (1) CN109447001B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110213667B (zh) * 2019-04-16 2022-04-05 佛山市丰智胜教育咨询服务有限公司 在线视频交互的网络保障方法、系统、设备及存储介质
CN112115751A (zh) * 2019-06-21 2020-12-22 北京百度网讯科技有限公司 一种动物心情识别模型的训练方法和装置
CN110399836A (zh) * 2019-07-25 2019-11-01 深圳智慧林网络科技有限公司 用户情绪识别方法、装置以及计算机可读存储介质
CN113111690B (zh) * 2020-01-13 2024-01-30 北京灵汐科技有限公司 一种人脸表情分析方法和系统及满意度分析方法和系统
CN111553311A (zh) * 2020-05-13 2020-08-18 吉林工程技术师范学院 一种微表情识别机器人及其控制方法
CN112115847B (zh) * 2020-09-16 2024-05-17 深圳印像数据科技有限公司 人脸情绪愉悦度判断方法
CN113076905B (zh) * 2021-04-16 2022-12-16 华南理工大学 一种基于上下文交互关系的情绪识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732203A (zh) * 2015-03-05 2015-06-24 中国科学院软件研究所 一种基于视频信息的情绪识别与跟踪方法
CN105847734A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的视频通信方法及系统
CN105847735A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的即时弹幕视频通信方法及系统
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN107085717A (zh) * 2017-05-24 2017-08-22 努比亚技术有限公司 一种家庭监控方法、服务端及计算机可读存储介质
CN108629313A (zh) * 2018-05-04 2018-10-09 河北省科学院应用数学研究所 情绪调节方法、装置、系统以及计算机存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360526B2 (en) * 2016-07-27 2019-07-23 International Business Machines Corporation Analytics to determine customer satisfaction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732203A (zh) * 2015-03-05 2015-06-24 中国科学院软件研究所 一种基于视频信息的情绪识别与跟踪方法
CN105847734A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的视频通信方法及系统
CN105847735A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的即时弹幕视频通信方法及系统
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN107085717A (zh) * 2017-05-24 2017-08-22 努比亚技术有限公司 一种家庭监控方法、服务端及计算机可读存储介质
CN108629313A (zh) * 2018-05-04 2018-10-09 河北省科学院应用数学研究所 情绪调节方法、装置、系统以及计算机存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Facial Emotion Recognition using a Combining AAM with DBN;Kwang-eun Ko等;《International Conference on Control, Automation and Systems 2010》;20101031;第27-30页 *
基于混合特征和分类树的细微表情识别方法;李婷 等;《计算机工程与设计》;20081130;第29卷(第22期);第5798-5801页 *

Also Published As

Publication number Publication date
CN109447001A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN109447001B (zh) 一种动态情绪识别方法
CN108898168B (zh) 用于目标检测的卷积神经网络模型的压缩方法和系统
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
WO2019174439A1 (zh) 图像识别方法、装置、终端和存储介质
CN110188829B (zh) 神经网络的训练方法、目标识别的方法及相关产品
CN111079833B (zh) 图像识别方法、装置以及计算机可读存储介质
CN109815881A (zh) 行为识别模型的训练方法、行为识别方法、装置及设备
CN104915972A (zh) 图像处理装置、图像处理方法以及程序
US20120243742A1 (en) Information processing device, information processing method, and program
CN114612987B (zh) 一种表情识别方法及装置
CN109711356B (zh) 一种表情识别方法和系统
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
CN116860145B (zh) 一种基于用户bci信息的aigc个性化图像生成方法及相关装置
CN111080746A (zh) 图像处理方法、装置、电子设备和存储介质
Spivak et al. Approach to Recognizing of Visualized Human Emotions for Marketing Decision Making Systems.
CN114758399A (zh) 一种仿生机器人的表情控制方法、装置、设备及存储介质
CN110163049B (zh) 一种人脸属性预测方法、装置及存储介质
CN117576767A (zh) 一种基于视线识别的数字人交互拟真方法、装置及终端
CN113052236A (zh) 一种基于NASNet的肺炎图像分类方法
TWI425429B (zh) 影像紋理信號的萃取方法、影像識別方法與影像識別系統
CN116758622A (zh) 用于出勤管理系统的数据处理方法、装置、系统及介质
CN106373121A (zh) 模糊图像识别方法和装置
CN113298841B (zh) 一种肤质油份分型方法、计算机设备、系统及存储介质
CN111428670B (zh) 人脸检测方法、装置、存储介质及设备
CN113536845A (zh) 人脸属性识别方法、装置、存储介质和智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant