CN110941992A - 微笑表情检测方法、装置、计算机设备及存储介质 - Google Patents

微笑表情检测方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN110941992A
CN110941992A CN201911037530.2A CN201911037530A CN110941992A CN 110941992 A CN110941992 A CN 110941992A CN 201911037530 A CN201911037530 A CN 201911037530A CN 110941992 A CN110941992 A CN 110941992A
Authority
CN
China
Prior art keywords
preset
gesture
person
sound source
smile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911037530.2A
Other languages
English (en)
Other versions
CN110941992B (zh
Inventor
李占川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201911037530.2A priority Critical patent/CN110941992B/zh
Priority to PCT/CN2019/116511 priority patent/WO2021082045A1/zh
Publication of CN110941992A publication Critical patent/CN110941992A/zh
Application granted granted Critical
Publication of CN110941992B publication Critical patent/CN110941992B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

本发明公开了一种微笑表情检测方法、装置、计算机设备及存储介质。所述方法包括:通过声源定位获取预设声源位置的语音数据转换成的文本数据与目标文本数据匹配成功时,根据预设声源位置的人员的图像确定人员的身份信息;在人员的图像中获取的手势类型为预设手势项时,确定检测微笑表情开始,令摄像设备开启连续拍摄人员的视频信息;通过微笑识别模型识别人员的视频信息中放大之后的面部预设位置的图片,并获取微笑识别模型输出的识别结果;在接收到检测微笑表情终止指令时,令摄像设备停止拍摄人员的视频信息。本发明减少了存储视频信息的数据量,也减少了人工追溯表情时间段的视频信息的查询量,提升了微笑表情检测的精准性。

Description

微笑表情检测方法、装置、计算机设备及存储介质
技术领域
本发明涉及图像检测领域,尤其涉及一种微笑表情检测方法、装置、计算机设备及存储介质。
背景技术
对于收费站服务人员的微笑服务检测(也即服务人员面部的微笑表情检测),目前收费站只能人工检测摄像设备拍摄的所有在岗的服务人员是否有对缴费车辆的车主实行微笑服务的视频数据,以此来对服务人员的工作质量作出一定的评估;但此种方式存在以下的问题:收费站并非一直都有车辆通过,在并无车辆通过的时候,并不要求服务人员全程微笑,但由于视频数据是时刻对准服务人员全程拍摄的,而检测过程也是针对上述所有的视频数据,如此,首先会导致记录很多非服务时间的微笑服务的视频数据,会造成对微笑服务的评估不客观准确,进而不能准确地体现员工的服务质量;另一方面,全程视频数据的录制和检测,会造成检测视频数据的人员的时间浪费,增加了工作量,并且,在人工检测过程中,若有车辆通过的场景下可能也需要不断放大或缩小等操作才能观看到清楚的视频数据,操作繁琐,在检测完成后数据库中也需要占用大量的存储空间来保存所有的视频数据,维护成本相对较高;因此,需寻找一种可解决上述问题的技术方案成为本领域人员亟需待解的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种微笑表情检测方法、装置、计算机设备及存储介质,用于避免检测微笑表情的服务器处于一直工作的状态,提升了微笑表情检测的精准性。
一种微笑表情检测方法,包括:
通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
一种微笑表情检测装置,包括:
转换模块,用于通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
确定模块,用于在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
第一获取模块,用于自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
开启模块,用于在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
第二获取模块,用于按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
关联模块,用于在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述微笑表情检测方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述微笑表情检测方法。
上述微笑表情检测方法、装置、计算机设备及存储介质,只在文本数据与目标文本数据匹配成功时,才获取摄像设备拍摄的所述预设声源位置的人员的图像,而在文本数据与目标文本数据匹配失败时,说明当前并不需要进行微笑表情检测,也无需获取摄像设备拍摄的预设声源位置的人员的图像,也不用识别人员的手势类型,减少了服务器的工作量;在获取的手势类型为预设手势项时,则服务器才需开始检测人员是否有进行微笑服务(通过摄像设备开启连续拍摄人员的视频信息;微笑服务就是指在服务时间段,服务人员面部需表现出来的微笑表情),可见本发明可以减少服务器的工作量(无需在手势类型不为预设手势项,还去检测人员是否有进行微笑服务);提取面部预设位置的图片可方便于微笑识别模型的精准识别,将面部预设位置的图片放大至预设比例将更加方便于微笑识别模型的识别,亦可以使的识别结果更为精准,且使用微笑识别模型进行微笑表情检测,可以提升检测效率和检测准确度;在接收到检测微笑表情终止指令时,令摄像设备停止拍摄人员的视频信息,可以保证服务器只对人员服务时间段(需要进行微笑服务的时间段)的视频信息进行微笑表情检测,一方面,减少了存储的视频信息的数据量,减小了服务器和摄像设备的负载,提升了其使用寿命,也减少了人工追溯服务时间段的视频信息的查询量,同时,由于无需对非服务时间段的人员进行视频信息的拍摄,因此,在非服务时段的人员的面部表情不会作为微笑表情的检测参照(每个人不可能无时无刻在微笑),提升了微笑表情检测的精准性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中微笑表情检测方法的一应用环境示意图;
图2是本发明一实施例中微笑表情检测方法的一流程图;
图3是本发明一实施例中微笑表情检测装置的结构示意图;
图4是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的微笑表情检测方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务器进行通信。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种微笑表情检测方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤S10-S60:
S10,通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
可理解地,人员所处的周围声源环境中并不只包含所需的语音数据,也包含其他的干扰声源,因此可通过此步骤来单方面确定出预设声源位置的语音数据。
在一实施例中,在预设区域内识别到车辆信息时,通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;所述车辆信息包括车辆的车牌号、车辆的轮廓和车辆的重力。对应地,预设区域内可指车辆进入到规定的车道中,通过摄像设备获取车辆的车牌号,亦可以通过摄像设备获取车辆的轮廓,亦可以通过安装在车道中的重力感应器获取车辆的重力,一旦获取到上述提到的其中一个车辆信息,就可以开始预设声源位置的语音数据,并将语音数据转换成文本数据。
进一步地,所述通过声源定位获取预设声源位置的语音数据,包括:
获取周围声源环境中的所有声源,并在所有声源中检测是否存在符合预设声源要求的声源;
在存在符合所述预设声源要求的所述声源时,通过声源定位对所述声源进行定位,获取所述声源的实际位置,并标记所述声源的所述实际位置;
在所述声源的所述实际位置与所述预设声源位置匹配时,获取与预设声源位置匹配的所述实际位置的所述声源对应的语音数据。
可理解地,周围声源环境是指人员的服务范围环境;符合预设声源要求的声源是指在预设音量大小范围中,且声源在预设音量大小范围中的持续时长大于预设时长的声源,其中,预设音量大小范围可以根据需求进行设定(亦可以根据人员的服务范围环境来进行设定,比如,服务范围环境过喧哗,因此可设定较高的音量大小范围;亦可以考虑服务范围环境中人员发出的音量大小来进行设定),可以设定该音量大小范围的最小值和最大值,超出音量大小范围的最大值的即视为噪音,此时将其排除在符合预设声源要求的声源的范围之外,小于音量大小的最小值的,可以视为其不是所需要进行追踪的人员所发出的声源。
具体地,可根据设置在服务范围环境中的麦克风来采集声源信号,之后可对采集的所有声源信号进行有效音频信号检测,并且还可通过ManyEars技术将检测到的多个声源进行分离以得到多个独立的声源;当检测到某个声源满足预设声源要求时,可通过ManyEars技术中的声源定位运算对上述某个声源进行定位,以获取该声源的实际位置,并可将声源的实际位置在电子地图中通过明显的符号或者编号标记出来,此时,服务器可以根据符号或者编号在电子地图中确定该声源的实际位置是否与预设声源位置匹配,并在匹配时,直接获取实际位置的声源对应的语音数据(也即预设声源位置的声源对应的语音数据)。
通过本实施例确定出预设声源位置的语音数据,可排除掉大多数干扰的声源,减少后续步骤中将语音数据转换成文本数据后,并将文本数据与目标文本数据进行匹配的工作量,从而可减少服务器的负担。
S20,在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
可理解地,人员的图像可以是在文本数据与目标文本数据匹配成功后通过摄像设备按照预设频率直接拍摄的图片;目标文本数据为人员规定说出的话语,比如,您好,欢迎等。在所述步骤S20中可以通过对拍摄的人员的图像进行图像识别,来确定人员的身份信息;另一方面也可以根据获取到的预设声源位置的语音数据中的声纹特征,确定人员的身份信息。
在本实施例中,目标文本数据可以为“您好”等可以明显识别出当前时候人员需要进行微笑服务(微笑服务就是指在服务时间段,服务人员面部需表现出来的微笑表情)的词汇,也即,在确认预设声源位置接收到包含“您好”的语音数据,及代表人员需要对过往车辆进行微笑服务,此时,需要首先获取摄像设备拍摄的预设声源位置的人员的图像,确定出人员的身份信息,以便于在摄像设备进行拍摄时确定人员身份,亦可以将人员的微笑表情数据与该身份信息关联以评估该人员的服务态度。在另一实施例中,在文本数据与目标文本数据匹配失败时,说明当前并不需要进行微笑表情检测,也无需获取摄像设备拍摄的预设声源位置的人员的图像,也不用识别人员的手势类型,减少了服务器的工作量。
S30,自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
进一步地,所述步骤S30,包括:
自所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,得到人体关键点原始序列;
根据预设差分方法计算不同所述人员的图像对应的所述人体关键点原始序列之间的差分序列;所述差分序列包含所述人体关键点对应的手势信息;
基于手势识别模型,根据所述差分序列获得所述人员的图像中的所述人员的所述手势类型。
可理解地,人体关键点是指人的上肢位置主要的关节部位;提取的人体关键点的数量可以包括15个关键点、18个关键点、21个关键点等,提取的人体关键点的数量亦可以根据需求自行选择提取的人体关键点的数量。
具体地,选取预设数量人员的图像作为分析对象,检测每一张人员的图像中的上肢位置的人体关键点,并获取各个人体关键点的坐标信息,得到每一张人员的图像的人体关键点原始序列。例如,若提取人员的15个人体关键点,每个关键点都是一个3维向量(X坐标,Y坐标,置信度),因此,人员包含15个人体关键点,则其人体关键点原始序列是一个15*3=45维向量。
按时间顺序排序获取预设数量的人员的图像,并获取预设数量人员的图像中每一张人员的图像中人体关键点原始序列,此后,对当前人员的图像与前一张的人员的图像所对应的人体关键点原始序列做差分计算,直到预设数量的人员的图像全部计算完,得到差分序列。其中,当前人员的图像是预设数量图像中的任一张图像,前一张人员的图像是与当前人员的图像相邻的前一张图像。例如,取3张人员的图像中的人员的人体关键点原始序列,计算出差分序列,第2张与第1张的人体关键点原始序列做差分计算,得到差分结果,同时,第3张与第2张的人体关键点原始序列做差分计算,得到差分结果,得到的两个差分结果就是差分序列。
利用预设的手势识别模型对得到的差分序列进行分类,最终输出手势类型,其中,分类的手势类型包括:服务站规定的动作,比如停车的手势,欢迎的手势等。手势识别模型能够将一组输入向量映射到输出向量。在利用手势识别模型进行手势类型识别时,输入的是上一步骤计算得到的差分序列,输出结果就是手势类型。手势识别模型能够得到从人体关键点到手势类型的映射关系,从而能通过手势识别模型来实现根据差分序列获得的人员的图像中的人员的手势类型。
进一步地,所述基于手势识别模型,根据所述差分序列获得所述人员的图像中的所述人员的所述手势类型之前,还包括:
获取图片样本;其中,所述图片样本中包含已知类型的手势类型;
从所述图片样本中提取人体关键点,得到人体关键点原始序列;
根据预设的差分方法计算不同所述图片样本中对应的人体关键点原始序列之间的差分序列;
根据所述图片样本对应的差分序列和所述图片样本包含所述已知类型的手势类型,训练得到所述手势识别模型。
可理解地,在利用图像样本训练手势识别模型的过程中,训练集(图像样本集合)的输出的手势类型已经标注。这意味着对于给定的输入值,输出结果已知,根据输入和输出确定出输入与输出之间的函数关系(权重系数)。所有训练集中图像样本输入之后,其输出会和我们已知的、期望的输出的手势类型进行比较,得到一个输出误差,该误差会传回上一层;如果该误差高于误差设定值,则调整相应的权重值;重复该流程(即通过反向传播算法进行不断迭代),直到输出误差低于误差定值,得到合适的权重值。此时,代表学习得到手势识别模型。在本实施例中通过如此训练得到的手势识别模型确定人员的图像中的人员的手势类型,其判定结果更为精准,使得可以准确根据判定后的手势类型确定是否开启微笑表情的检测(也即令摄像设备开启连续拍摄所述人员的视频信息),使得对微笑表情检测的参考视频信息的提取开始动作更为精准,进而提高了对微笑表情检测的准确性。
S40,在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
可理解地,在获取的手势类型为预设手势项时,则服务器才需开始检测人员是否有进行微笑服务(通过摄像设备开启连续拍摄人员的视频信息),可见本实施例可以减少服务器的工作量(无需在手势类型不为预设手势项,还去检测人员是否有进行微笑服务),且在另一方面中,在手势类型不为预设手势类型时,不用令摄像设备开启连续拍摄人员的视频信息,从而可以避免拍摄过多无效的视频信息,减小了数据库中存储视频信息的负担,也降低了数据库的维护成本。
进一步地,所述令所述摄像设备开启连续拍摄所述人员的视频信息,包括:
调整拍摄所述视频信息的所述摄像设备的拍摄参数,令所述摄像设备在最大捕捉图像范围中动态检测是否存在与所述身份信息匹配的所述人员;
在存在与所述身份信息匹配的所述人员时,为所述人员添加特征标识之后,将所述特征标识作为所述摄像设备的移动目标,并根据所述移动目标动态跟踪所述人员后,开启连续拍摄所述人员的所述视频信息。
可理解地,特征标识可以指在拍摄的视频信息的画面上显示具有标识作用的字符或符号,比如可以在画面上与身份信息匹配的人员的头顶上标记出目标人物的字符,亦可以在画面上用一个带颜色的圈或框等形式出与身份信息匹配的人员,因此,后面摄像设备识别的时候,令摄像设备根据字符或者带颜色的圈或框去进行移动。
在本实施例中,通过调整摄像设备的拍摄参数,可将摄像设备的捕捉图像范围处于最大捕捉图像范围,从而更容易识别到存在与身份信息匹配的人员;并在存在与身份信息匹配的人员时,可以根据特征标识去移动摄像设备,从而可以保证摄像设备获取到的视频信息将更全面地包含了与身份信息匹配的人员。
在另一实施例中,在不存在所述身份信息的所述人员时,则在预设的时间阈值内令所述摄像设备在所述最大捕捉图像范围中动态检测是否存在与所述身份信息匹配的所述人员。
进一步地,所述步骤S20中,在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的所述人员的图像,包括:
在所述文本数据与目标文本数据匹配成功时,获取所述摄像设备拍摄的第一预设数量的所述人员的图像;且每一个所述人员的图像均与其根据所述上肢位置的所述人体关键点获取的所述手势类型关联。
进一步地,所述步骤S40之前,还包括:
判定第一预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为预设手势项;该步骤中,预设手势项为事先设置好人员应完成的规定手势。
在第一预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
在第一预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,获取摄像设备拍摄的第二预设数量的所述人员的图像,自第二预设数量的所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,并根据所述人体关键点获取与第二预设数量的所述人员的图像分别对应的所述手势类型;在该步骤中,第二预设数量可大于或等于第一预设数量。比如,第二预设数量为10,第一预设数量为1。
判定第二预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为所述预设手势项;
在第二预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
在第二预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,判定本次检测微笑表情无效,也即说明并未出现需要对人员微笑表情进行检测的情况,此时摄像设备暂时进入休眠,本次微笑表情将不计入人员的微笑表情总次数中,返回至步骤S10中等待下一次获取预设声源位置的人员的语音数据。且本实施例中将人员的图像对应的手势类型分批次进行判断;比如,在本实施例中,仅分两个批次(第一预设数量和第二预设数量两批)进行判断;但在一些实施例中,可以将第一预设数量和第二预设数量的数值设定较小,此时,可以在第二预设数量的人员的图像对应的所有手势类型均不为预设手势项时,还可以继续获取摄像设备拍摄的第三预设数量的人员的图像,并重复进行后续的根据获取的图像确定的手势类型是否为预设手势项的判断动作,获取摄像设备拍摄的所述人员的图像的批次可以根据需求设定。如此,在前面批次获取的人员的图像对应的手势类型满足于预设手势项时,可以避免摄像设备还去继续拍摄人员的图像的情况,也可以避免一次性获取过多数量的人员的图像,从而可减少摄像设备的工作负担。
S50,按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
可理解地,预设比例的面部预设位置的图片应位于摄像设备最大捕捉图像范围中;面部预设位置的图片来源于对视频信息中进行分帧处理后,提取分帧处理后包含人员的面部预设位置的图片;面部预设位置可以是指图片中人员的整个面部,亦可以仅是指与人员的微笑动作相关的部分面部器官。
在本实施例中,提取面部预设位置的图片可方便于微笑识别模型的精准识别,将面部预设位置的图片放大至预设比例将更加方便于微笑识别模型的识别,亦可以使的识别结果更为精准。且使用微笑识别模型进行微笑表情检测,可以提升检测效率和检测准确度。
S60,在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
可理解地,一方面,检测微笑表情终止指令是指人工触发预设按钮后在服务器系统中确定对车辆收费完成后自动生成;另一方面,通过摄像设备拍摄的视频信息确认与车辆信息对应的车辆离开了预设区域后(包括识别到车辆的车牌号、车辆的轮廓离开了摄像设备的捕捉图像范围,也包括安装在车道中的重力传感器检测不到车辆的重力)自动生成;再一方面,还可以是服务器通过摄像设备拍摄的视频信息确认收费杠被抬起并自动落下后自动生成。
在本实施例中,在接收到检测微笑表情终止指令时,令摄像设备停止拍摄人员的视频信息,可以保证服务器只对人员服务时间段(需要进行微笑服务的时间段)的视频信息进行微笑表情检测,一方面,减少了存储的视频信息的数据量,减小了服务器和摄像设备的负载,提升了其使用寿命,也减少了人工追溯服务时间段的视频信息的查询量;同时,由于无需对非服务时间段的人员进行视频信息的拍摄,因此,在非服务时段的人员的面部表情不会作为微笑表情的检测参照(每个人不可能无时无刻在微笑),提升了微笑检测的精准性。
进一步地,所述根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,包括:
获取微笑的所述识别结果与所有所述识别结果的微笑比值;
根据预设的比值等级对照表以及所述微笑比值,确定所述人员的微笑数据等级;所述比值等级对照表中的每一项均包括微笑比值的范围以及与其关联的所述微笑数据等级。
具体地,微笑比值是通过微笑识别模型输出的识别结果来进行计算,即微笑的识别结果的数量与所有识别结果的总数量(包括微笑的识别结果的数量和不微笑的识别结果的数量)之间的比值,并在确定人员的微笑数据等级之前需获取根据以往的大数据预先建立起的比值等级对照表,此比值等级对照表中的每一项均包括微笑比值的范围以及与其关联的微笑数据等级,从而可确定出人员的微笑数据等级。
进一步地,所述步骤S60之后,还包括:
获取所述人员当前记录的微笑表情总次数,以及每一次微笑表情对应的所述微笑表情等级,并根据所述微笑表情总次数和所述微笑表情等级对所述人员进行表情态度打分,并将打分之后的分值与所述人员的所述身份信息关联存储。
可理解地,本实施例中得到记录的微笑表情总次数和微笑表情等级都是为了对人员的服务态度进行检测,从而可加强对人员服务态度的监督。
综上所述,上述提供了一种微笑表情检测方法,通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。本发明只在文本数据与目标文本数据匹配成功时,才获取摄像设备拍摄的所述预设声源位置的人员的图像,而在文本数据与目标文本数据匹配失败时,说明当前并不需要进行微笑表情检测,也无需获取摄像设备拍摄的预设声源位置的人员的图像,也不用识别人员的手势类型,减少了服务器的工作量;在获取的手势类型为预设手势项时,则服务器才需开始检测人员是否有进行微笑服务(通过摄像设备开启连续拍摄人员的视频信息;微笑服务就是指在服务时间段,服务人员面部需表现出来的微笑表情),可见本发明可以减少服务器的工作量(无需在手势类型不为预设手势项,还去检测人员是否有进行微笑服务),且在另一方面中,在手势类型不为预设手势类型时,不用令摄像设备开启连续拍摄人员的视频信息,从而可以避免拍摄过多无效的视频信息,减小了数据库中存储视频信息的负担,也降低了数据库的维护成本;提取面部预设位置的图片可方便于微笑识别模型的精准识别,将面部预设位置的图片放大至预设比例将更加方便于微笑识别模型的识别,亦可以使的识别结果更为精准,且使用微笑识别模型进行微笑表情检测,可以提升检测效率和检测准确度;在接收到检测微笑表情终止指令时,令摄像设备停止拍摄人员的视频信息,可以保证服务器只对人员服务时间段(需要进行微笑服务的时间段)的视频信息进行微笑表情检测,一方面,减少了存储的视频信息的数据量,减小了服务器和摄像设备的负载,提升了其使用寿命,也减少了人工追溯服务时间段的视频信息的查询量,同时,由于无需对非服务时间段的人员进行视频信息的拍摄,因此,在非服务时段的人员的面部表情不会作为微笑表情的检测参照(每个人不可能无时无刻在微笑),提升了微笑表情检测的精准性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种微笑表情检测装置,该微笑表情检测装置与上述实施例中微笑表情检测方法一一对应。如图3所示,该微笑表情检测装置包括转换模块11、确定模块12、第一获取模块13、开启模块14、第二获取模块15和关联模块16。各功能模块详细说明如下:
转换模块11,用于通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
确定模块12,用于在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
第一获取模块13,用于自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
开启模块14,用于在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
第二获取模块15,用于按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
关联模块16,用于在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
进一步地,所述转换模块包括:
检测子模块,用于获取周围声源环境中的所有声源,并在所有声源中检测是否存在符合预设声源要求的声源;
标记子模块,用于在存在符合所述预设声源要求的所述声源时,通过声源定位对所述声源进行定位,获取所述声源的实际位置,并标记所述声源的所述实际位置;
第一获取子模块,用于在所述声源的所述实际位置与所述预设声源位置匹配时,获取与预设声源位置匹配的所述实际位置的所述声源对应的语音数据。
进一步地,所述第一获取模块包括:
第一提取子模块,用于自所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,得到人体关键点原始序列;
第一计算子模块,用于根据预设差分方法计算不同所述人员的图像对应的所述人体关键点原始序列之间的差分序列;所述差分序列包含所述人体关键点对应的手势信息;
获得子模块,用于基于手势识别模型,根据所述差分序列获得所述人员的图像中的所述人员的所述手势类型。
进一步地,所述第一获取模块包括:
第二获取子模块,用于获取图片样本;其中,所述图片样本中包含已知类型的手势类型;
第二提取子模块,用于从所述图片样本中提取人体关键点,得到人体关键点原始序列;
第二计算子模块,用于根据预设的差分方法计算不同所述图片样本中对应的人体关键点原始序列之间的差分序列;
训练子模块,用于根据所述图片样本对应的差分序列和所述图片样本包含所述已知类型的手势类型,训练得到所述手势识别模型。
进一步地,所述开启模块包括:
动态检测子模块,用于调整拍摄所述视频信息的所述摄像设备的拍摄参数,令所述摄像设备在最大捕捉图像范围中动态检测是否存在与所述身份信息匹配的所述人员;
开启子模块,用于在存在与所述身份信息匹配的所述人员时,为所述人员添加特征标识之后,将所述特征标识作为所述摄像设备的移动目标,并根据所述移动目标动态跟踪所述人员后,开启连续拍摄所述人员的所述视频信息。
进一步地,所述微笑表情检测装置还包括:
第一判定模块,用于判定第一预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为预设手势项;
第一确认模块,用于在第一预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
第三获取模块,用于在第一预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,获取摄像设备拍摄的第二预设数量的所述人员的图像,自第二预设数量的所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,并根据所述人体关键点获取与第二预设数量的所述人员的图像分别对应的所述手势类型;
第二判定模块,用于判定第二预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为所述预设手势项;
第二确认模块,用于在第二预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
第三判定模块,用于在第二预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,判定本次检测微笑表情无效。
进一步地,所述关联模块包括:
第三获取子模块,用于获取微笑的所述识别结果与所有所述识别结果的微笑比值;
确定子模块,用于根据预设的比值等级对照表以及所述微笑比值,确定所述人员的微笑数据等级;所述比值等级对照表中的每一项均包括微笑比值的范围以及与其关联的所述微笑数据等级。
关于微笑表情检测装置的具体限定可以参见上文中对于微笑表情检测方法的限定,在此不再赘述。上述微笑表情检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储微笑表情检测方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种微笑表情检测方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中微笑表情检测方法的步骤,例如图2所示的步骤S10至步骤S60。或者,处理器执行计算机程序时实现上述实施例中微笑表情检测装置的各模块/单元的功能,例如图3所示模块11至模块16的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中微笑表情检测方法的步骤,例如图2所示的步骤S10至步骤S60。或者,计算机程序被处理器执行时实现上述实施例中微笑表情检测装置的各模块/单元的功能,例如图3所示模块11至模块16的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM
(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种微笑表情检测方法,其特征在于,包括:
通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
2.根据权利要求1所述的微笑表情检测方法,其特征在于,所述通过声源定位获取预设声源位置的语音数据,包括:
获取周围声源环境中的所有声源,并在所有声源中检测是否存在符合预设声源要求的声源;
在存在符合所述预设声源要求的所述声源时,通过声源定位对所述声源进行定位,获取所述声源的实际位置,并标记所述声源的所述实际位置;
在所述声源的所述实际位置与所述预设声源位置匹配时,获取与预设声源位置匹配的所述实际位置的所述声源对应的语音数据。
3.根据权利要求1所述的微笑表情检测方法,其特征在于,所述自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型,包括:
自所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,得到人体关键点原始序列;
根据预设差分方法计算不同所述人员的图像对应的所述人体关键点原始序列之间的差分序列;所述差分序列包含所述人体关键点对应的手势信息;
基于手势识别模型,根据所述差分序列获得所述人员的图像中的所述人员的所述手势类型。
4.根据权利要求3所述的微笑表情检测方法,其特征在于,所述基于手势识别模型,根据所述差分序列获得所述人员的图像中的所述人员的所述手势类型之前,还包括:
获取图片样本;其中,所述图片样本中包含已知类型的手势类型;
从所述图片样本中提取人体关键点,得到人体关键点原始序列;
根据预设的差分方法计算不同所述图片样本中对应的人体关键点原始序列之间的差分序列;
根据所述图片样本对应的差分序列和所述图片样本包含所述已知类型的手势类型,训练得到所述手势识别模型。
5.根据权利要求1所述的微笑表情检测方法,其特征在于,所述令所述摄像设备开启连续拍摄所述人员的视频信息,包括:
调整拍摄所述视频信息的所述摄像设备的拍摄参数,令所述摄像设备在最大捕捉图像范围中动态检测是否存在与所述身份信息匹配的所述人员;
在存在与所述身份信息匹配的所述人员时,为所述人员添加特征标识之后,将所述特征标识作为所述摄像设备的移动目标,并根据所述移动目标动态跟踪所述人员后,开启连续拍摄所述人员的所述视频信息。
6.根据权利要求1所述的微笑表情检测方法,其特征在于,所述在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息之前,还包括:
判定第一预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为预设手势项;
在第一预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
在第一预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,获取摄像设备拍摄的第二预设数量的所述人员的图像,自第二预设数量的所述人员的图像中提取所述人员的所述上肢位置的所述人体关键点,并根据所述人体关键点获取与第二预设数量的所述人员的图像分别对应的所述手势类型;
判定第二预设数量的所述人员的图像对应的所有所述手势类型中是否有至少一个所述手势类型为所述预设手势项;
在第二预设数量的所述人员的图像对应的所有所述手势类型中至少一个所述手势类型为所述预设手势项时,确认获取的所述手势类型为所述预设手势项;
在第二预设数量的所述人员的图像对应的所有所述手势类型均不为所述预设手势项时,判定本次检测微笑表情无效。
7.根据权利要求1所述的微笑表情检测方法,其特征在于,所述根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,包括:
获取微笑的所述识别结果与所有所述识别结果的微笑比值;
根据预设的比值等级对照表以及所述微笑比值,确定所述人员的微笑数据等级;所述比值等级对照表中的每一项均包括微笑比值的范围以及与其关联的所述微笑数据等级。
8.一种微笑表情检测装置,其特征在于,包括:
转换模块,用于通过声源定位获取预设声源位置的语音数据,并将所述语音数据转换成文本数据;
确定模块,用于在所述文本数据与目标文本数据匹配成功时,获取摄像设备拍摄的所述预设声源位置的人员的图像,并确认所述人员的身份信息;
第一获取模块,用于自所述人员的图像中提取所述人员的上肢位置的人体关键点,并根据所述人体关键点获取手势类型;
开启模块,用于在获取的所述手势类型为预设手势项时,确定检测微笑表情开始,令所述摄像设备开启连续拍摄所述人员的视频信息;
第二获取模块,用于按照预设频率自所述视频信息中提取所述人员的面部预设位置的图片,并将所述面部预设位置的图片放大至预设比例,通过微笑识别模型识别放大之后的所述面部预设位置的图片,并获取所述微笑识别模型输出的与所述面部预设位置的图片对应的识别结果;所述识别结果为微笑或者不微笑;
关联模块,用于在接收到检测微笑表情终止指令时,令所述摄像设备停止拍摄所述人员的所述视频信息,并根据接收到视频录制指令之前录制的所述视频信息所对应的所述识别结果,确定所述人员的微笑数据等级,并将所述微笑数据等级与所述人员的所述身份信息关联。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述微笑表情检测方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述微笑表情检测方法。
CN201911037530.2A 2019-10-29 2019-10-29 微笑表情检测方法、装置、计算机设备及存储介质 Active CN110941992B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911037530.2A CN110941992B (zh) 2019-10-29 2019-10-29 微笑表情检测方法、装置、计算机设备及存储介质
PCT/CN2019/116511 WO2021082045A1 (zh) 2019-10-29 2019-11-08 微笑表情检测方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911037530.2A CN110941992B (zh) 2019-10-29 2019-10-29 微笑表情检测方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN110941992A true CN110941992A (zh) 2020-03-31
CN110941992B CN110941992B (zh) 2023-09-05

Family

ID=69906496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911037530.2A Active CN110941992B (zh) 2019-10-29 2019-10-29 微笑表情检测方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN110941992B (zh)
WO (1) WO2021082045A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111653282A (zh) * 2020-05-27 2020-09-11 星络智能科技有限公司 一种影像拍摄方法、智能家居控制器及存储介质
CN113485619A (zh) * 2021-07-13 2021-10-08 腾讯科技(深圳)有限公司 信息收集表的处理方法、装置、电子设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565253B (zh) * 2022-12-08 2023-04-18 季华实验室 一种动态手势实时识别方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107743200A (zh) * 2017-10-31 2018-02-27 广东欧珀移动通信有限公司 拍照的方法、装置、计算机可读存储介质和电子设备
CN107820018A (zh) * 2017-11-30 2018-03-20 广东欧珀移动通信有限公司 用户拍照方法、装置及设备
CN108769537A (zh) * 2018-07-25 2018-11-06 珠海格力电器股份有限公司 一种拍照方法、装置、终端及可读存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI447658B (zh) * 2010-03-24 2014-08-01 Ind Tech Res Inst 人臉影像擷取方法與裝置
CN107679526B (zh) * 2017-11-14 2020-06-12 北京科技大学 一种人脸微表情识别方法
CN110197107A (zh) * 2018-08-17 2019-09-03 平安科技(深圳)有限公司 微表情识别方法、装置、计算机设备及存储介质
CN109271930B (zh) * 2018-09-14 2020-11-13 广州杰赛科技股份有限公司 微表情识别方法、装置与存储介质
CN109784179A (zh) * 2018-12-15 2019-05-21 深圳壹账通智能科技有限公司 基于微表情识别的智能监护方法、装置、设备及介质
CN110399836A (zh) * 2019-07-25 2019-11-01 深圳智慧林网络科技有限公司 用户情绪识别方法、装置以及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107743200A (zh) * 2017-10-31 2018-02-27 广东欧珀移动通信有限公司 拍照的方法、装置、计算机可读存储介质和电子设备
CN107820018A (zh) * 2017-11-30 2018-03-20 广东欧珀移动通信有限公司 用户拍照方法、装置及设备
CN108769537A (zh) * 2018-07-25 2018-11-06 珠海格力电器股份有限公司 一种拍照方法、装置、终端及可读存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111653282A (zh) * 2020-05-27 2020-09-11 星络智能科技有限公司 一种影像拍摄方法、智能家居控制器及存储介质
CN113485619A (zh) * 2021-07-13 2021-10-08 腾讯科技(深圳)有限公司 信息收集表的处理方法、装置、电子设备及存储介质
CN113485619B (zh) * 2021-07-13 2024-03-19 腾讯科技(深圳)有限公司 信息收集表的处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2021082045A1 (zh) 2021-05-06
CN110941992B (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
CN109086691B (zh) 一种三维脸部活体检测方法、脸部认证识别方法及装置
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
CN110443110B (zh) 基于多路摄像的人脸识别方法、装置、终端及存储介质
EP3882809A1 (en) Face key point detection method, apparatus, computer device and storage medium
CN106991395B (zh) 信息处理方法、装置及电子设备
CN110941992B (zh) 微笑表情检测方法、装置、计算机设备及存储介质
WO2019071664A1 (zh) 结合深度信息的人脸识别方法、装置及存储介质
CN111048113B (zh) 声音方向定位处理方法、装置、系统、计算机设备及存储介质
CN112528831B (zh) 多目标姿态估计方法、多目标姿态估计装置及终端设备
CN106295499B (zh) 年龄估计方法及装置
JP5366756B2 (ja) 情報処理装置及び情報処理方法
CN110602527A (zh) 视频处理方法、装置及存储介质
CN110660102B (zh) 基于人工智能的说话人识别方法及装置、系统
CN112037791A (zh) 会议纪要转录方法、设备和存储介质
US20200042788A1 (en) Eyeball movement capturing method and device, and storage medium
CN111512317A (zh) 一种多目标实时跟踪方法、装置及电子设备
CN110705356B (zh) 功能控制方法及相关设备
CN111325082A (zh) 一种人员专注度分析方法及装置
CN111382655A (zh) 一种举手行为识别方法及装置、电子设备
CN113688794A (zh) 身份识别方法、装置、电子设备和计算机可读存储介质
CN114299546A (zh) 识别宠物身份的方法、装置、存储介质及电子设备
CN110599514A (zh) 图像分割的方法、装置、电子设备及存储介质
WO2022082401A1 (zh) 宠物鼻纹识别方法、装置、计算机设备及存储介质
CN110084187B (zh) 基于计算机视觉的位置识别方法、装置、设备及存储介质
CN114255321A (zh) 采集宠物鼻纹的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant