CN109583325A - 人脸样本图片标注方法、装置、计算机设备及存储介质 - Google Patents

人脸样本图片标注方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN109583325A
CN109583325A CN201811339683.8A CN201811339683A CN109583325A CN 109583325 A CN109583325 A CN 109583325A CN 201811339683 A CN201811339683 A CN 201811339683A CN 109583325 A CN109583325 A CN 109583325A
Authority
CN
China
Prior art keywords
picture
marked
face
preset
emotion identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811339683.8A
Other languages
English (en)
Other versions
CN109583325B (zh
Inventor
盛建达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201811339683.8A priority Critical patent/CN109583325B/zh
Priority to PCT/CN2018/122728 priority patent/WO2020098074A1/zh
Publication of CN109583325A publication Critical patent/CN109583325A/zh
Application granted granted Critical
Publication of CN109583325B publication Critical patent/CN109583325B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸样本图片标注方法、装置、计算机设备及存储介质,所述方法包括:使用多个预设的情绪识别模型对待标注图片进行识别,根据识别结果获取识别错误的误差图片和识别正确的图片,将包含误差图片的误差数据集输出到客户端进行标注,将标注后的误差数据集和识别正确的图片作为标准样本存储到标准样本库中,并使用标准样本分别对多个情绪识别模型进行训练,以更新情绪识别模型,再返回使用多个预设的情绪识别模型对待标注图片进行识别的步骤继续执行,直到误差数据集为空为止。本发明的技术方案能够为人脸图片自动生成标注信息,提高了人脸图片的标注效率和准确率,从而提高用于模型训练和测试的标准样本库的生成效率。

Description

人脸样本图片标注方法、装置、计算机设备及存储介质
技术领域
本发明涉及生物识别技术领域,尤其涉及一种人脸样本图片标注方法、装置、计算机设备及存储介质。
背景技术
面部表情识别是人工智能领域的一个重要的研究方向,在对人脸面部的情绪识别的研究中,需要准备大量的人脸情绪样本用以支撑情绪识别模型的模型训练,通过使用大量的人脸情绪样本进行深度学习,有助于提高情绪识别模型的准确率和鲁棒性。
但是,目前关于人脸情绪分类的公开数据集相对较少,需要依靠人为的方式对人脸图片进行人工标注,或者人工采集特定的人脸情绪样本,由于目前对人脸图片进行人工标注法的耗时较长,投入的人力资源较大,使得通过人工的方式收集人脸情绪样本的工作量大,导致人脸情绪样本数据集的收集效率低,且人工收集的样本数量有限,无法很好地支撑情绪识别模型的模型训练。
发明内容
本发明实施例中提供一种人脸样本图片标注方法、装置、计算机设备及存储介质,以解决人脸情绪样本图片的标注效率低的问题。
一种人脸样本图片标注方法,包括:
获取预设的待标注数据集中的人脸图片作为待标注图片;
使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果,其中,N为正整数,所述识别结果包括N个所述情绪识别模型预测的情绪状态和N个所述情绪状态对应的预测分值;
针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含所述误差图片的误差数据集输出到客户端;
针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态相同,并且所述N个情绪状态对应的预测分值均大于预设的样本阈值,则将所述情绪状态和N个所述预测分值的均值作为该待标注图片的标注信息,并将所述标注信息标注到对应的所述待标注图片中,作为第一标准样本;
接收所述客户端发送的标注后的所述误差数据集,并将所述标注后的所述误差数据集中的所述误差图片作为第二标准样本,将所述第一标准样本和所述第二标准样本保存到预设的标准样本库中;
使用所述第一标准样本和所述第二标准样本,分别对N个所述预设的情绪识别模型进行训练,以更新所述N个预设的情绪识别模型;
将所述待标注数据集中除所述第一标准样本和所述第二标准样本以外的所述人脸图片作为新的待标注图片,继续执行所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果的步骤,直到所述误差数据集为空为止。
一种人脸样本图片标注装置,包括:
图片获取模块,用于获取预设的待标注数据集中的人脸图片作为待标注图片;
图片识别模块,用于使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果,其中,N为正整数,所述识别结果包括N个所述情绪识别模型预测的情绪状态和N个所述情绪状态对应的预测分值;
数据输出模块,用于针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含所述误差图片的误差数据集输出到客户端;
图片标注模块,用于针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态相同,并且所述N个情绪状态对应的预测分值均大于预设的样本阈值,则将所述情绪状态和N个所述预测分值的均值作为该待标注图片的标注信息,并将所述标注信息标注到对应的所述待标注图片中,作为第一标准样本;
样本存储模块,用于接收所述客户端发送的标注后的所述误差数据集,并将所述标注后的所述误差数据集中的所述误差图片作为第二标准样本,将所述第一标准样本和所述第二标准样本保存到预设的标准样本库中;
模型更新模块,用于使用所述第一标准样本和所述第二标准样本,分别对N个所述预设的情绪识别模型进行训练,以更新所述N个预设的情绪识别模型;
循环执行模块,用于将所述待标注数据集中除所述第一标准样本和所述第二标准样本以外的所述人脸图片作为新的待标注图片,继续执行所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果的步骤,直到所述误差数据集为空为止。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述人脸样本图片标注方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述人脸样本图片标注方法的步骤。
上述人脸样本图片标注方法、装置、计算机设备及存储介质,通过使用多个预设的情绪识别模型对待标注图片进行识别,根据识别结果获取识别错误的误差图片和识别正确的样本图片,使用误差图片组成误差数据集输出到客户端,以使用户对误差数据集进行标注,将标注后的误差数据集和识别正确的样本图片作为标准样本,存储到标准样本库中,使用标准样本库中的标准样本分别对多个情绪识别模型进行增量训练,以更新每个情绪识别模型,提高情绪识别模型对待标注图片的标注信息的识别准确率,再返回使用多个预设的情绪识别模型对待标注图片进行识别的步骤继续执行,直到误差数据集为空为止。实现了为人脸图片自动生成对应的标注信息,节约人力成本,提高了人脸图片的标注效率,从而提高用于模型训练和测试的标准样本库的生成效率,同时,通过使用多个情绪识别模型对人脸图片进行识别,使用多个识别结果进行对比分析得到图片的标注信息,提高人脸图片的标注准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中人脸样本图片标注方法的一应用环境示意图;
图2是本发明一实施例中人脸样本图片标注方法的一流程图;
图3是本发明实施例中人脸样本图片标注方法中生成待标注数据集的一具体流程图;
图4是本发明实施例中人脸样本图片标注方法中构建情绪识别模型的一具体流程图;
图5是图2中步骤S20的一具体流程图;
图6是图2中步骤S30的一具体流程图;
图7是本发明一实施例中人脸样本图片标注装置的一原理框图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供的人脸样本图片标注方法,可应用在如图1的应用环境中,该应用环境包括服务端和客户端,其中,服务端和客户端之间通过网络进行连接,服务端对人脸图片进行识别和标注处理,将识别错误的图片输出到客户端,用户在客户端对识别错误的图片进行标注,服务端将从客户端获取到的标注后的数据和识别正确的数据存储到标准样本库中。客户端具体可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。本发明实施例提供人脸样本图片标注的方法应用于服务端。
在一实施例中,图2示出本实施例中人脸样本图片标注方法的一流程图,该方法应用在图1中的服务端,用于对人脸图片进行识别和标注处理。如图2所示,该人脸样本图片标注方法包括步骤S10至步骤S70,详述如下:
S10:获取预设的待标注数据集中的人脸图片作为待标注图片。
其中,预设的待标注数据集,是预先设置的用于存储收集得到的人脸图片的存储空间,该人脸图片可以从网络的公开数据集中爬取得到,也可以从公开的视频中截取得到包含人脸的人脸图片,具体的人脸图片的获取方式可以根据实际情况进行设置,此处不做限制。
具体地,服务端从预设的待标注数据集中获取人脸图片作为待标注图片,需要对待标注图片进行标注,以便用于机器学习模型的训练和测试。
S20:使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果,其中,N为正整数,识别结果包括N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值。
其中,预设的情绪识别模型是预先训练好的模型,用于识别待识别的人脸图片中人脸对应的情绪状态,该预设的情绪识别模型有N个,N为正整数,N可以为1,也可以为2,具体可以根据实际应用的需要进行设置,此处不做限制。
具体地,分别使用N个预设的情绪识别模型对待标注图片进行识别和预测后,可以得到在每个情绪识别模型下,该待标注图片的情绪状态和情绪状态的预测分值,共得到N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值,其中,情绪状态包括但不限于开心、悲伤、恐惧、生气、惊讶、厌恶和平静等情绪,预测分值是用于表示人脸图片中人脸对应的情绪状态的概率,若预测分值越大,则人脸图片中人脸属于该情绪状态的概率也越大。
S30:针对每个待标注图片的识别结果,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含误差图片的误差数据集输出到客户端。
具体地,服务端对每个待标注图片的识别结果进行检测,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,例如,预设的第一情绪识别模型预测得到该待标注图片对应的情绪状态为“开心”,而预设的第二情绪识别模型预测得到该待标注图片对应的情绪状态为“惊讶”,则表示该待标注图片的识别结果存在错误,将该待标注图片标识为误差图片,并将包含误差图片的误差数据集通过网络输出到客户端,以使用户在客户端对误差数据集中误差图片进行标注,输入每个误差图片对应的情绪状态的正确信息,更新误差数据集中误差图片对应的错误的识别结果。
S40:针对每个待标注图片的识别结果,若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均大于预设的样本阈值,则将情绪状态和N个预测分值的均值作为该待标注图片的标注信息,并将标注信息标注到对应的待标注图片中,作为第一标准样本。
其中,预设的样本阈值,是预先设置用于挑选识别正确的待标注图片的阈值,若识别得到的预测分值大于该预设的样本阈值,则表示该待标注图片的识别结果正确,该样本阈值可以设置为0.9,也可以设置为0.95,具体的样本阈值可以根据实际情况进行设置,此处不做限制。
具体地,服务端对每个待标注图片的识别结果进行检测,若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均大于预设的样本阈值,则确认该待标注图片的识别结果正确,将该相同的情绪状态和N个预测分值的均值作为该待标注图片的标注信息,并将标注信息标注到对应的待标注图片中,作为第一标准样本,其中,该N个预测分值的均值为N个预测分值的算数平均值,该第一标准样本包含人脸图片对应的情绪状态的标注信息。
需要说明的是,步骤S30和步骤S40之间没有必然的先后执行顺序,其也可以是并列执行的关系,此处不做限制。
S50:接收客户端发送的标注后的误差数据集,并将标注后的误差数据集中的误差图片作为第二标准样本,将第一标准样本和第二标准样本保存到预设的标准样本库中。
具体地,客户端通过网络发送标注后的误差数据集给服务端,该误差数据集携带有数据完成标注的标识信息,用于标识发送的数据为标注后的误差数据集,服务端对客户端发送的数据进行接收,若检测到该数据包含数据完成标注的标识信息,则表示接收到的数据为客户端发送的标注后的误差数据集,并该将标注后的误差数据集中的人脸图片作为第二标准样本,该第二标准样本包含人脸图片对应的情绪状态的标注信息。
服务端将第一标准样本和第二标准样本存储到预设的标准样本库中,其中,预设的标准样本库是用于存储标准样本的数据库,该标准样本是指包含标注信息的人脸样本图片,在人脸图片中标注上标注信息后,得到人脸样本图片,使得机器学习模型能够根据人脸样本图片中的标注信息,对人脸样本图片和人脸样本图片对应的情绪状态进行机器学习。
S60:使用第一标准样本和第二标准样本,分别对N个预设的情绪识别模型进行训练,以更新N个预设的情绪识别模型。
具体地,服务端使用第一标准样本和第二标准样本,对每个预设的情绪识别模型分别进行增量训练,从而对N个预设的情绪识别模型进行更新,该增量训练是指对预设的情绪识别模型的模型参数进行优化的模型训练,增量训练能够充分利用预设的情绪识别模型的历史训练结果,减少了后续模型训练的时间,不需要重复处理以前已经训练过的样本数据。
可以理解的是,训练样本越多,训练得到的情绪识别模型的准确率和鲁棒性越高,使用包含正确的标注信息的标准样本对预设的情绪识别模型进行增量训练,使得该预设的情绪识别模型从新增的标准样本中学习新的知识,并能保存以前已经对训练样本进行学习到的知识,得到更加准确的模型参数,提高模型的识别准确率。
S70:将待标注数据集中除第一标准样本和第二标准样本以外的人脸图片作为新的待标注图片,继续执行使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果的步骤,直到误差数据集为空为止。
具体地,服务端从待标注数据集中排除掉第一标准样本对应的人脸图片,以及删除第二标准样本对应的人脸图片,将待标注数据集中剩下的人脸图片作为新的待标注图片,该剩下的人脸图片可能存在识别错误的待标注图片,也可能存在识别正确的待标注图片,需要使用识别准确率更高的情绪识别模型进一步地进行区分。
进一步地,使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果的步骤继续执行,直到误差数据集为空为止,表示N个预设的情绪识别模型对待标注数据集的识别结果中,不存在识别错误的待标注图片,则停止使用情绪识别模型对待标注图片的继续识别,得到已经标注的标准样本存储到预设的标准样本库中,用于机器学习模型的训练和测试。
在图2对应的实施例中,通过使用多个预设的情绪识别模型对待标注图片进行识别,根据识别结果获取识别错误的误差图片和识别正确的样本图片,使用误差图片组成误差数据集输出到客户端,以使用户对误差数据集进行标注,将标注后的误差数据集和识别正确的样本图片作为标准样本,存储到标准样本库中,使用标准样本库中的标准样本分别对多个情绪识别模型进行增量训练,以更新每个情绪识别模型,提高情绪识别模型对待标注图片的标注信息的识别准确率,再返回使用多个预设的情绪识别模型对待标注图片进行识别的步骤继续执行,直到误差数据集为空为止。实现了为人脸图片自动生成对应的标注信息,节约人力成本,提高了人脸图片的标注效率,从而提高用于模型训练和测试的标准样本库的生成效率,同时,通过使用多个情绪识别模型对人脸图片进行识别,使用多个识别结果进行对比分析得到图片的标注信息,提高人脸图片的标注准确率。
在一实施例中,如图3所示,在步骤S10之前,即在获取预设的待标注数据集中的人脸图片作为待标注图片之前,人脸样本图片标注方法还包括:
S01:使用预设的爬虫工具获取第一人脸图片。
具体地,使用预设的爬虫工具在网络的公开数据集中爬取人脸图片,该爬虫工具是用于获取人脸图片的工具,例如,八爪鱼爬虫工具、爬山虎爬虫工具或者集搜客爬虫工具等,通过网络进行浏览公开的存储图片数据的地址中的内容,使用爬虫工具爬取与预设的关键字对应的图片数据,并将爬取到的图片数据标识为第一人脸图片,其中,预设的关键字是与情绪或者人脸等相关的关键字。
例如,可以使用爬虫工具,根据预设的关键字“人脸”,在百度图片中爬取与“人脸”对应的图片数据,并且根据图片获取的先后顺序,将人脸图片命名为人脸_1.jpg、人脸_2.jpg、…、人脸_X.jpg等。
S02:采用预设的增广方式对第一人脸图片进行增广,得到第二人脸图片。
具体地,针对每个第一人脸图片,使用预设的增广方式对第一人脸图片进行增广,该预设的增广方式是预先设置好用于增加人脸图片的数量的图片处理方式。
其中,增广方式具体可以是对第一人脸图片进行裁剪处理,例如,对大小为256*256的第一人脸图片随机裁剪,得到大小为248*248的第二人脸图片作为增广图片,也可以采用图片灰度化或者全局光照修正的图片处理方式对第一人脸图片进行处理,或者使用多种图片处理方式的结合形成预设的增广方式,例如,先对第一人脸图片做翻转处理,再对翻转后的图片进行局部侧光源修正等,但并不限于此,具体的增广方式可以根据实际应用的需要进行设置,此处不做限制;
S03:将第一人脸图片和第二人脸图片保存到预设的待标注数据集中。
具体地,对第一人脸图片进行增广是为了增加人脸图片的数量,将增广图片作为第二人脸图片,并将第一人脸图片和第二人脸图片保存到预设的待标注数据集中,能够使得预设的情绪识别模型对待标注数据集中的人脸图片进行识别和标注,以便得到更多的人脸样本图片,用以支撑情绪识别模型的模型训练。
在图3对应的实施例中,通过使用预设的爬虫工具获取第一人脸图片,并采用预设的增广方式对第一人脸图片进行增广,得到第二人脸图片,再将第一人脸图片和第二人脸图片保存到预设的待标注数据集中,提高人脸图片的获取效率,大量增加了人脸图片的样本数量,以便收集更多的人脸图片用以支撑情绪识别模型的模型训练。
在一实施例中,如图4所示,在步骤S20之前,即在使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果之前,人脸样本图片标注方法还包括:
S11:从预设的标准样本库中获取人脸样本图片。
具体地,服务端可以从预设的标准情绪数据库中获取人脸样本图片,用于对情绪识别模型进行训练,其中,预设的标准样本库是用于存储标准样本的数据库,该标准样本是指包含标注信息的人脸样本图片,每个人脸样本图片对应一个标注信息,该标注信息是用于描述人脸样本图片中的人脸对应的情绪状态,人脸图片对应的情绪状态包括但不限于开心、悲伤、恐惧、生气、惊讶、厌恶和平静等情绪。
S12:对人脸样本图片进行预处理。
其中,图片预处理是指对图片进行尺寸、颜色和形状等进行变换的处理,以形成统一的规格的训练样本,以便后续的模型训练过程对图片的处理能够更加高效,提高机器学习模型的识别准确率。
具体地,可以先将人脸样本图片转换为预设的统一大小的训练样本,再对训练样本进行去噪、灰度化和二值化等预处理过程,消除人脸样本图片中的噪声信息,增强与人脸相关的信息的可检测性和简化图像数据。
例如,训练样本的大小可以预先设置为224*224尺寸的人脸图片,对一尺寸为[1280,720]的人脸样本图片,通过现有的人脸检测算法检测出人脸样本图片中人脸的区域,并从人脸样本图片中裁剪出人脸所在的区域,再将裁剪得到的人脸样本图片缩放为[224,224]尺寸的训练样本,通过对训练样本进行去噪、灰化和二值化等预处理过程,实现对人脸样本图片的预处理。
S13:使用预处理后的人脸样本图片,分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,并将训练好的残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型作为预设的情绪识别模型。
具体地,根据步骤S12得到预处理后的人脸样本图片,使用预处理后的人脸样本图片分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,使得残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型能够对训练样本进行机器学习,得到每个模型对应的模型参数,从而得到N个预设的情绪识别模型,用于对新的样本数据进行识别预测。
其中,残差神经网络模型即ResNet(Residual Network,残差神经网络)模型,ResNet模型是指在ResNet网络结构中引入一个深度残差学习框架来解决退化问题的模型,值得一提的是,深度网络会比较浅的网络效果好,但是深度网络残差消失,导致退化问题,ResNet解决了退化问题,使得更深的网络得以更好的训练,残差在数理统计中是指实际观察值与估计值之间的差。
其中,稠密卷积神经网络模型即DenseNet(Dense Convolutional Network,稠密卷积神经网络)模型,DenseNet是指在DenseNet网络中采用了特征重用的方式的模型,每一层网络的输入包括前面所有层网络的输出,提升了信息和梯度在网络中的传输效率,从而能够训练更深的网络。
其中,谷歌卷积神经网络模型即GoogleNet模型,GoogleNet模型是一种通过利用了网络中的计算资源,减少深度神经网络的计算开销,并且在不增加计算负载的情况下,增加网络的宽度和深度的机器学习模型。
在图4对应的实施例中,通过对标准样本库中的人脸样本图片进行预处理,提高人脸样本图片的质量,使得后续的模型训练过程对图片的处理能够更加高效,从而提高机器学习模型的训练速率和识别准确率,再使用预处理后的人脸样本图片,分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,得到多个训练好的情绪识别模型,使得情绪识别模型能够用于对新的人脸图片进行分类预测,并能够结合多个情绪识别模型的识别结果进行分析判断,提高人脸图片的标注的准确率。
在一实施例中,本实施例对步骤S20中所提及的使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果的具体实现方法进行详细说明。
请参阅图5,图5示出了步骤S20的一具体流程图,详述如下:
S201:针对每个待标注图片,使用N个预设的情绪识别模型分别对该待标注图片进行特征值提取处理,得到每个预设的情绪识别模型对应的特征数据。
其中,特征值提取是指使用情绪识别模型提取待标注图片中属于人脸的特征性的信息的方法,以突出待标注图片具有的代表性特征。
具体地,针对每个待标注图片,服务端使用N个预设的情绪识别模型分别对该待标注图片进行特征值提取处理,得到每个预设的情绪识别模型对应的特征数据,保留需要的重要特征,摒弃掉无关紧要的信息,从而得到可以用于后续情绪状态预测的特征数据。
S202:在每个预设的情绪识别模型中,使用训练好的m个分类器对特征数据进行相似度计算,得到待标注图片的m种情绪状态的概率值,其中,m为正整数,每个分类器对应一种情绪状态。
其中,每个预设的情绪识别模型中有m个训练好的分类器,每个分类器对应一种情绪状态和该情绪状态对应的特征数据,其中,分类器对应的情绪状态可根据实际需要进行训练,分类器的数量m也可根据需要进行设置,此处不做具体限制,例如,m可以设置为7,即包括7种情绪状态,情绪状态可以设置为开心、悲伤、恐惧、生气、惊讶、厌恶和平静等7种情绪。
具体地,根据待标注图片的特征数据,在每个预设的情绪识别模型中,使用训练好的m个分类器对特征数据进行相似度计算,得到待标注图片的特征值属于该分类器对应的情绪状态的概率,在每个预设的情绪识别模型中,每个情绪识别模型分别对待标注图片预测,得出该待标注图片属于每一种情绪状态的概率,共得到m个概率值。
S203:从m个概率值中,获取最大的概率值对应的情绪状态作为该情绪识别模型预测的情绪状态,将该最大的概率值作为情绪状态对应的预测分值,共得到N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值。
具体地,在每个预设的情绪识别模型的识别结果中,从m种情绪状态的概率值中,获取最大的概率值对应的情绪状态作为待标注图片的情绪状态,以表示该待标注图片对应的情绪状态,并将该最大的概率值作为待标注图片的情绪状态的预测分值,共得到N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值。
例如,表1示出了一待标注图片由3个预设的情绪识别模型,第一模型、第二模型和第三模型分别进行识别预测之后得到的识别结果,其中,分类1-6分别表示人脸图片对应的开心、悲伤、恐惧、生气、厌恶和平静等情绪状态,各个分类对应的概率为每个预设的情绪识别模型预测该待标注图片属于该分类的概率,如分类1对应的95%,是第一模型通过识别预测得出该待标注图片中的人脸属于“开心”的情绪状态的概率,根据预测结果可知预测得到该待标注图片的分类中的最大概率为95%,则获取“开心”作为第一模型预测的情绪状态,同时,该最大的概率值95%标识为第一模型预测的情绪状态对应的预测分值,即预测分值为0.95,从而得到第一模型预测的情绪状态为“开心”和预测分值为0.95,第二模型预测的情绪状态为“开心”和预测分值为0.90,以及第三模型预测的情绪状态为“开心”和预测分值为0.90。
表1.待标注图片的识别结果
待标注图片 分类1 分类2 分类3 分类4 分类5 分类6
第一模型 95% 3% 1% 1% 0% 0%
第二模型 90% 5% 5% 0% 0% 0%
第三模型 90% 5% 2% 1% 1% 1%
在图5对应的实施例中,通过使用N个预设的情绪识别模型分别对待标注图片进行特征值提取处理,得到每个预设的情绪识别模型对应的特征数据,在每个预设的情绪识别模型中,使用训练好的多个分类器对特征数据进行相似度计算,得到待标注图片的多种情绪状态对应的概率值,并从得到的概率值中,获取最大的概率值对应的情绪状态作为该情绪识别模型预测的情绪状态,将该最大的概率值作为情绪状态对应的预测分值,得到每个情绪识别模型预测的情绪状态和该情绪状态对应的预测分值,通过使用多个情绪识别模型对待标注图片进行标注,并结合多个情绪识别模型的识别结果进行分析判断,提高待标注图片的识别准确率,从而提高人脸样本图片的标注准确率。
在一实施例中,本实施例对步骤S30中所提及的针对每个待标注图片的识别结果,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含误差图片的误差数据集输出到客户端的具体实现方法进行详细说明。
请参阅图6,图6示出了步骤S30的一具体流程图,详述如下:
S301:对每个待标注图片的识别结果进行检测,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为第一误差图片。
具体地,服务端对每个待标注图片的识别结果进行检测,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则表示该待标注图片的识别结果存在错误,将该待标注图片标识为第一误差图片。
S302:若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均小于预设的误差阈值,则将该待标注图片标识为第二误差图片。
具体地,预设的误差阈值,是预先设置用于区分识别得到的待标注图片的情绪状态是否有误的阈值,若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均小于预设的误差阈值,则表示该人脸图片的识别存在错误,并将该待标注图片标识为第二误差图片,该误差阈值可以设置为0.5,也可以设置为0.6,具体的误差阈值可以根据实际情况进行设置,此处不做限制。
S303:将第一误差图片和第二误差图片作为误差数据集,并将误差数据集输出到客户端。
具体地,服务端将第一误差图片和第二误差图片作为误差数据集,并将误差数据集输出到客户端,以使用户在客户端对误差数据集中误差图片进行标注,输入每个误差图片对应的情绪状态的正确信息,由用户进行确认标注误差图片集中的人脸图片中的人脸所属的情绪状态,并对应的标注上正确标注信息,更新误差数据集中误差图片对应的错误的识别结果。
在图6对应的实施例中,通过对每个待标注图片的识别结果进行检测,若预测得到的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为第一误差图片,若预测的情绪状态均相同,并且每个情绪状态对应的预测分值均小于预设的误差阈值,则将该待标注图片标识为第二误差图片,同时,将第一误差图片和第二误差图片作为误差数据集输出到客户端,以便对识别错误的待标注图片进行人工标注,得到标注正确的人脸样本图片,用于对情绪识别模型进行增量训练,提高情绪识别模型的识别准确率,使得服务端能够使用更高准确率的情绪识别模型对待标注图片进行识别和标注,从而提高人脸图片的标注准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种人脸样本图片标注装置,该人脸样本图片标注装置与上述实施例中人脸样本图片标注方法一一对应。如图7所示,该人脸样本图片标注装置包括:图片获取模块71、图片识别模块72、数据输出模块73、图片标注模块74、样本存储模块75、模型更新模块76和循环执行模块77。各功能模块详细说明如下:
图片获取模块71,用于获取预设的待标注数据集中的人脸图片作为待标注图片;
图片识别模块72,用于使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果,其中,N为正整数,识别结果包括N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值;
数据输出模块73,用于针对每个待标注图片的识别结果,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含误差图片的误差数据集输出到客户端;
图片标注模块74,用于针对每个待标注图片的识别结果,若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均大于预设的样本阈值,则将情绪状态和N个预测分值的均值作为该待标注图片的标注信息,并将标注信息标注到对应的待标注图片中,作为第一标准样本;
样本存储模块75,用于接收客户端发送的标注后的误差数据集,并将标注后的误差数据集中的误差图片作为第二标准样本,将第一标准样本和第二标准样本保存到预设的标准样本库中;
模型更新模块76,用于使用第一标准样本和第二标准样本,分别对N个预设的情绪识别模型进行训练,以更新N个预设的情绪识别模型;
循环执行模块77,用于将待标注数据集中除第一标准样本和第二标准样本以外的人脸图片作为新的待标注图片,继续执行使用N个预设的情绪识别模型对待标注图片进行识别,得到待标注图片的识别结果的步骤,直到误差数据集为空为止。
进一步地,该人脸样本图片标注装置还包括:
图片爬取模块701,用于使用预设的爬虫工具获取第一人脸图片;
图片增广模块702,用于采用预设的增广方式对第一人脸图片进行增广,得到第二人脸图片;
图片保存模块703,用于将第一人脸图片和第二人脸图片保存到预设的待标注数据集中。
进一步地,该人脸样本图片标注装置还包括:
样本获取模块711,用于从预设的标准样本库中获取人脸样本图片;
第一处理模块712,用于对人脸样本图片进行预处理;
模型训练模块713,用于使用预处理后的人脸样本图片,分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,并将训练好的残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型作为预设的情绪识别模型。
进一步地,图片识别模块72包括:
特征提取子模块7201,用于针对每个待标注图片,使用N个预设的情绪识别模型分别对该待标注图片进行特征值提取处理,得到每个预设的情绪识别模型对应的特征数据;
数据计算子模块7202,用于在每个预设的情绪识别模型中,使用训练好的m个分类器对特征数据进行相似度计算,得到待标注图片的m种情绪状态的概率值,其中,m为正整数,每个分类器对应一种情绪状态;
数据选取子模块7203,用于从m个概率值中,获取最大的概率值对应的情绪状态作为该情绪识别模型预测的情绪状态,将该最大的概率值作为情绪状态对应的预测分值,共得到N个情绪识别模型预测的情绪状态和N个情绪状态对应的预测分值。
进一步地,数据输出模块73包括:
第一标识子模块7301,用于对每个待标注图片的识别结果进行检测,若N个情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为第一误差图片;
第二标识子模块7302,用于若N个情绪识别模型预测的情绪状态相同,并且N个情绪状态对应的预测分值均小于预设的误差阈值,则将该待标注图片标识为第二误差图片;
数据输出子模块7303,用于将第一误差图片和第二误差图片作为误差数据集,并将误差数据集输出到客户端。
关于人脸样本图片标注装置的具体限定可以参见上文中对于人脸样本图片标注方法的限定,在此不再赘述。上述人脸样本图片标注装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸样本图片标注方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例人脸样本图片标注方法中的步骤,例如图2所示的步骤S10至步骤S70,或者,处理器执行计算机程序时实现上述实施例中人脸样本图片标注装置的各模块的功能,例如图7所示模块71至模块77的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例人脸样本图片标注方法中的步骤,例如图2所示的步骤S10至步骤S70,或者,处理器执行计算机程序时实现上述实施例中人脸样本图片标注装置的各模块的功能,例如图7所示模块71至模块77的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人脸样本图片标注方法,其特征在于,所述人脸样本图片标注方法包括:
获取预设的待标注数据集中的人脸图片作为待标注图片;
使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果,其中,N为正整数,所述识别结果包括N个所述情绪识别模型预测的情绪状态和N个所述情绪状态对应的预测分值;
针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含所述误差图片的误差数据集输出到客户端;
针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态相同,并且所述N个情绪状态对应的预测分值均大于预设的样本阈值,则将所述情绪状态和N个所述预测分值的均值作为该待标注图片的标注信息,并将所述标注信息标注到对应的所述待标注图片中,作为第一标准样本;
接收所述客户端发送的标注后的所述误差数据集,并将所述标注后的所述误差数据集中的所述误差图片作为第二标准样本,将所述第一标准样本和所述第二标准样本保存到预设的标准样本库中;
使用所述第一标准样本和所述第二标准样本,分别对N个所述预设的情绪识别模型进行训练,以更新所述N个预设的情绪识别模型;
将所述待标注数据集中除所述第一标准样本和所述第二标准样本以外的所述人脸图片作为新的待标注图片,继续执行所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果的步骤,直到所述误差数据集为空为止。
2.如权利要求1所述的人脸样本图片标注方法,其特征在于,在所述获取预设的待标注数据集中的人脸图片作为待标注图片之前,所述人脸样本图片标注方法还包括:
使用预设的爬虫工具获取第一人脸图片;
采用预设的增广方式对所述第一人脸图片进行增广,得到第二人脸图片;
将所述第一人脸图片和所述第二人脸图片保存到所述预设的待标注数据集中。
3.如权利要求1所述的人脸样本图片标注方法,其特征在于,在所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果之前,所述人脸样本图片标注方法还包括:
从所述预设的标准样本库中获取人脸样本图片;
对所述人脸样本图片进行预处理;
使用所述预处理后的人脸样本图片,分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,并将训练好的所述残差神经网络模型、所述稠密卷积神经网络模型和所述谷歌卷积神经网络模型作为所述预设的情绪识别模型。
4.如权利要求1所述的人脸样本图片标注方法,其特征在于,所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果包括:
针对每个所述待标注图片,使用N个预设的情绪识别模型分别对该待标注图片进行特征值提取处理,得到每个所述预设的情绪识别模型对应的特征数据;
在每个所述预设的情绪识别模型中,使用训练好的m个分类器对所述特征数据进行相似度计算,得到所述待标注图片的m种情绪状态的概率值,其中,m为正整数,每个所述分类器对应一种情绪状态;
从m个所述概率值中,获取最大的概率值对应的情绪状态作为该情绪识别模型预测的情绪状态,将该最大的概率值作为情绪状态对应的预测分值,共得到N个所述情绪识别模型预测的情绪状态和所述N个情绪状态对应的预测分值。
5.如权利要求1至4任一项所述的人脸样本图片标注方法,其特征在于,所述针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含所述误差图片的误差数据集输出到客户端包括:
对每个所述待标注图片的识别结果进行检测,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为第一误差图片;
若N个所述情绪识别模型预测的情绪状态相同,并且所述N个情绪状态对应的预测分值均小于预设的误差阈值,则将该待标注图片标识为第二误差图片;
将所述第一误差图片和所述第二误差图片作为所述误差数据集,并将所述误差数据集输出到所述客户端。
6.一种人脸样本图片标注装置,其特征在于,所述人脸样本图片标注装置包括:
图片获取模块,用于获取预设的待标注数据集中的人脸图片作为待标注图片;
图片识别模块,用于使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果,其中,N为正整数,所述识别结果包括N个所述情绪识别模型预测的情绪状态和N个所述情绪状态对应的预测分值;
数据输出模块,用于针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态中存在至少两种不同的情绪状态,则将该待标注图片标识为误差图片,并将包含所述误差图片的误差数据集输出到客户端;
图片标注模块,用于针对每个所述待标注图片的识别结果,若N个所述情绪识别模型预测的情绪状态相同,并且所述N个情绪状态对应的预测分值均大于预设的样本阈值,则将所述情绪状态和N个所述预测分值的均值作为该待标注图片的标注信息,并将所述标注信息标注到对应的所述待标注图片中,作为第一标准样本;
样本存储模块,用于接收所述客户端发送的标注后的所述误差数据集,并将所述标注后的所述误差数据集中的所述误差图片作为第二标准样本,将所述第一标准样本和所述第二标准样本保存到预设的标准样本库中;
模型更新模块,用于使用所述第一标准样本和所述第二标准样本,分别对N个所述预设的情绪识别模型进行训练,以更新所述N个预设的情绪识别模型;
循环执行模块,用于将所述待标注数据集中除所述第一标准样本和所述第二标准样本以外的所述人脸图片作为新的待标注图片,继续执行所述使用N个预设的情绪识别模型对所述待标注图片进行识别,得到所述待标注图片的识别结果的步骤,直到所述误差数据集为空为止。
7.如权利要求6所述的人脸样本图片标注装置,其特征在于,所述人脸样本图片标注装置还包括:
图片爬取模块,用于使用预设的爬虫工具获取第一人脸图片;
图片增广模块,用于采用预设的增广方式对所述第一人脸图片进行增广,得到第二人脸图片;
图片保存模块,用于将所述第一人脸图片和所述第二人脸图片保存到所述预设的待标注数据集中。
8.如权利要求6所述的人脸样本图片标注装置,其特征在于,所述人脸样本图片标注装置还包括:
样本获取模块,用于从所述预设的标准样本库中获取人脸样本图片;
样本处理模块,对所述人脸样本图片进行预处理;
模型训练模块,用于使用所述预处理后的人脸样本图片,分别对残差神经网络模型、稠密卷积神经网络模型和谷歌卷积神经网络模型进行训练,并将训练好的所述残差神经网络模型、所述稠密卷积神经网络模型和所述谷歌卷积神经网络模型作为所述预设的情绪识别模型。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述人脸样本图片标注方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述人脸样本图片标注方法的步骤。
CN201811339683.8A 2018-11-12 2018-11-12 人脸样本图片标注方法、装置、计算机设备及存储介质 Active CN109583325B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811339683.8A CN109583325B (zh) 2018-11-12 2018-11-12 人脸样本图片标注方法、装置、计算机设备及存储介质
PCT/CN2018/122728 WO2020098074A1 (zh) 2018-11-12 2018-12-21 人脸样本图片标注方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811339683.8A CN109583325B (zh) 2018-11-12 2018-11-12 人脸样本图片标注方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN109583325A true CN109583325A (zh) 2019-04-05
CN109583325B CN109583325B (zh) 2023-06-27

Family

ID=65922238

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811339683.8A Active CN109583325B (zh) 2018-11-12 2018-11-12 人脸样本图片标注方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN109583325B (zh)
WO (1) WO2020098074A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059828A (zh) * 2019-04-23 2019-07-26 杭州智趣智能信息技术有限公司 一种训练样本标注方法、装置、设备及介质
CN110060247A (zh) * 2019-04-18 2019-07-26 深圳市深视创新科技有限公司 应对样本标注错误的鲁棒深度神经网络学习方法
CN110659625A (zh) * 2019-09-29 2020-01-07 深圳市商汤科技有限公司 物体识别网络的训练方法及装置、电子设备和存储介质
CN111104846A (zh) * 2019-10-16 2020-05-05 平安科技(深圳)有限公司 数据检测方法、装置、计算机设备和存储介质
CN111913934A (zh) * 2020-07-08 2020-11-10 珠海大横琴科技发展有限公司 目标样本数据库构建方法、装置及计算机设备
CN111985298A (zh) * 2020-06-28 2020-11-24 百度在线网络技术(北京)有限公司 人脸识别样本收集方法和装置
CN112022065A (zh) * 2020-09-24 2020-12-04 电子科技大学 一种快速定位胶囊进入十二指肠时间点的方法及系统
CN112132218A (zh) * 2020-09-23 2020-12-25 平安国际智慧城市科技股份有限公司 图像处理方法、装置、电子设备及存储介质
CN112347774A (zh) * 2019-08-06 2021-02-09 北京搜狗科技发展有限公司 一种用于用户情绪识别的模型确定方法和装置
CN112805725A (zh) * 2020-01-06 2021-05-14 深圳市微蓝智能科技有限公司 数据处理方法及装置、计算机可读存储介质
CN113221627A (zh) * 2021-03-08 2021-08-06 广州大学 一种人脸遗传特征分类数据集构建方法、系统、装置及介质
CN113763348A (zh) * 2021-09-02 2021-12-07 北京格灵深瞳信息技术股份有限公司 图像质量确定方法、装置、电子设备及存储介质
CN115114916A (zh) * 2022-05-27 2022-09-27 中国人民财产保险股份有限公司 用户反馈数据的分析方法、装置及计算机设备

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111768228A (zh) * 2020-06-19 2020-10-13 京东数字科技控股有限公司 广告标志的识别准确性验证方法、装置、设备和存储介质
CN111882034A (zh) * 2020-07-20 2020-11-03 北京市商汤科技开发有限公司 神经网络处理及人脸识别方法、装置、设备和存储介质
CN113971773A (zh) * 2020-07-24 2022-01-25 阿里巴巴集团控股有限公司 数据处理方法和系统
CN112183197B (zh) * 2020-08-21 2024-06-25 深圳追一科技有限公司 基于数字人的工作状态确定方法、装置和存储介质
CN112381059B (zh) * 2020-12-02 2023-02-03 武汉光庭信息技术股份有限公司 一种目标检测的标注方法及装置
CN112633392B (zh) * 2020-12-29 2024-08-23 博微太赫兹信息科技有限公司 一种太赫兹人体安检图像目标检测模型训练数据增广方法
CN112700880B (zh) * 2020-12-31 2024-06-18 杭州依图医疗技术有限公司 优化方法、训练方法、模型、处理装置及存储介质
CN112989934B (zh) * 2021-02-05 2024-05-24 方战领 视频分析方法、装置及系统
CN116547661A (zh) * 2021-12-03 2023-08-04 宁德时代新能源科技股份有限公司 用于图像分割的数据标注方法和系统以及图像分割装置
CN114898418B (zh) * 2022-03-24 2024-08-02 合肥工业大学 基于环形模型的复杂情绪检测方法和系统
CN117542106B (zh) * 2024-01-10 2024-04-05 成都同步新创科技股份有限公司 一种静态人脸检测和数据排除方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605667A (zh) * 2013-10-28 2014-02-26 中国计量学院 一种图像自动标注算法
CN103793697A (zh) * 2014-02-17 2014-05-14 北京旷视科技有限公司 一种人脸图像的身份标注方法及人脸身份识别方法
CN103824053A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种人脸图像的性别标注方法及人脸性别检测方法
US20180027307A1 (en) * 2016-07-25 2018-01-25 Yahoo!, Inc. Emotional reaction sharing
CN107633203A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
EP3367296A1 (en) * 2017-02-28 2018-08-29 Fujitsu Limited A computer-implemented method of identifying a perforated face in a geometrical three-dimensional model

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605667A (zh) * 2013-10-28 2014-02-26 中国计量学院 一种图像自动标注算法
CN103793697A (zh) * 2014-02-17 2014-05-14 北京旷视科技有限公司 一种人脸图像的身份标注方法及人脸身份识别方法
CN103824053A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种人脸图像的性别标注方法及人脸性别检测方法
US20180027307A1 (en) * 2016-07-25 2018-01-25 Yahoo!, Inc. Emotional reaction sharing
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
EP3367296A1 (en) * 2017-02-28 2018-08-29 Fujitsu Limited A computer-implemented method of identifying a perforated face in a geometrical three-dimensional model
CN107633203A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060247A (zh) * 2019-04-18 2019-07-26 深圳市深视创新科技有限公司 应对样本标注错误的鲁棒深度神经网络学习方法
CN110059828A (zh) * 2019-04-23 2019-07-26 杭州智趣智能信息技术有限公司 一种训练样本标注方法、装置、设备及介质
CN112347774A (zh) * 2019-08-06 2021-02-09 北京搜狗科技发展有限公司 一种用于用户情绪识别的模型确定方法和装置
CN110659625A (zh) * 2019-09-29 2020-01-07 深圳市商汤科技有限公司 物体识别网络的训练方法及装置、电子设备和存储介质
CN111104846A (zh) * 2019-10-16 2020-05-05 平安科技(深圳)有限公司 数据检测方法、装置、计算机设备和存储介质
CN111104846B (zh) * 2019-10-16 2022-08-30 平安科技(深圳)有限公司 数据检测方法、装置、计算机设备和存储介质
CN112805725A (zh) * 2020-01-06 2021-05-14 深圳市微蓝智能科技有限公司 数据处理方法及装置、计算机可读存储介质
WO2021138783A1 (zh) * 2020-01-06 2021-07-15 深圳市微蓝智能科技有限公司 数据处理方法及装置、计算机可读存储介质
CN111985298A (zh) * 2020-06-28 2020-11-24 百度在线网络技术(北京)有限公司 人脸识别样本收集方法和装置
CN111913934A (zh) * 2020-07-08 2020-11-10 珠海大横琴科技发展有限公司 目标样本数据库构建方法、装置及计算机设备
CN112132218A (zh) * 2020-09-23 2020-12-25 平安国际智慧城市科技股份有限公司 图像处理方法、装置、电子设备及存储介质
CN112132218B (zh) * 2020-09-23 2024-04-16 平安国际智慧城市科技股份有限公司 图像处理方法、装置、电子设备及存储介质
CN112022065A (zh) * 2020-09-24 2020-12-04 电子科技大学 一种快速定位胶囊进入十二指肠时间点的方法及系统
CN113221627A (zh) * 2021-03-08 2021-08-06 广州大学 一种人脸遗传特征分类数据集构建方法、系统、装置及介质
CN113221627B (zh) * 2021-03-08 2022-05-10 广州大学 一种人脸遗传特征分类数据集构建方法、系统、装置及介质
CN113763348A (zh) * 2021-09-02 2021-12-07 北京格灵深瞳信息技术股份有限公司 图像质量确定方法、装置、电子设备及存储介质
CN115114916A (zh) * 2022-05-27 2022-09-27 中国人民财产保险股份有限公司 用户反馈数据的分析方法、装置及计算机设备

Also Published As

Publication number Publication date
WO2020098074A1 (zh) 2020-05-22
CN109583325B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN109583325A (zh) 人脸样本图片标注方法、装置、计算机设备及存储介质
CN109635838A (zh) 人脸样本图片标注方法、装置、计算机设备及存储介质
Hussain et al. A real time face emotion classification and recognition using deep learning model
Cai et al. PiiGAN: generative adversarial networks for pluralistic image inpainting
Li et al. Deepsaliency: Multi-task deep neural network model for salient object detection
Moreira et al. Image provenance analysis at scale
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
CN112232293A (zh) 图像处理模型训练、图像处理方法及相关设备
CN112347964B (zh) 一种基于图网络的行为检测方法及装置
CN110472737A (zh) 神经网络模型的训练方法、装置和医学图像处理系统
CN110809768B (zh) 数据清洗系统和方法
CN111783997B (zh) 一种数据处理方法、装置及设备
CN109241890B (zh) 面部图像校正方法、装置及存储介质
CN109712128A (zh) 特征点检测方法、装置、计算机设备和存储介质
CN111915618A (zh) 基于峰值响应增强的实例分割算法、计算设备
CN112115860A (zh) 人脸关键点定位方法、装置、计算机设备和存储介质
CN109147868A (zh) 蛋白质功能预测方法、装置、设备及存储介质
CN111091198B (zh) 一种数据处理方法及装置
CN117475492A (zh) 一种面部表情识别的方法、系统、设备和存储介质
CN113569081A (zh) 图像识别方法、装置、设备及存储介质
CN112101293A (zh) 人脸表情的识别方法、装置、设备及存储介质
CN110674342B (zh) 查询目标图像的方法和装置
CN116665278A (zh) 微表情识别方法、装置、计算机设备及存储介质
CN116977265A (zh) 缺陷检测模型的训练方法、装置、计算机设备和存储介质
Gao et al. 3d face reconstruction from volumes of videos using a mapreduce framework

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant