CN109508620A - 基于增强现实的化妆方法、系统、电子终端及存储介质 - Google Patents
基于增强现实的化妆方法、系统、电子终端及存储介质 Download PDFInfo
- Publication number
- CN109508620A CN109508620A CN201810860408.4A CN201810860408A CN109508620A CN 109508620 A CN109508620 A CN 109508620A CN 201810860408 A CN201810860408 A CN 201810860408A CN 109508620 A CN109508620 A CN 109508620A
- Authority
- CN
- China
- Prior art keywords
- face
- augmented reality
- facial
- cosmetic method
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 50
- 239000002537 cosmetic Substances 0.000 title claims abstract description 34
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 230000001815 facial effect Effects 0.000 claims abstract description 52
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 210000001938 protoplast Anatomy 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011897 real-time detection Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种基于增强现实的化妆方法、系统、电子终端及存储介质,所所述基于增强现实的化妆方法包括:检测人脸图像;实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;根据所述关键点将人脸图像的五官分割出来;根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。本发明利用增强现实技术形成规范化的流程,来指导化妆的解决方案,本发明在保留人脸原图的轮廓、分布信息的基础上,对图片的颜色、抽象风格进行智能化地变更,即不改变五官轮廓、纹理、位置等信息,对其颜色进行适当调整,而非简单的颜色替换;本方案搜集全网数据,结合专业知识,为想护肤美妆的人群提供客观的、理性的、个性化的护肤美妆知识,帮助爱美的人理性护肤、科学美妆。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及化妆技术领域,具体为一种基于增强现实的化妆方法、系统、电子终端及存储介质。
背景技术
近些年来,各种摄影影楼、娱乐节目、选秀活动不断走进大众的视线,在他们火爆的背后,化妆行业扮演着极其重要的角色。化妆市场也越来越受到关注并不断发展,2015年中国化妆品零售交易规模为4846亿元,预计到2018年,这一规模超过8000亿,年复合平均增长率为20%。但是随着越来越多的人开始接触化妆,很多新手对于市场中众多的化妆品品牌不知道如何选择;对于不同的场合的妆容不知道怎样挑选;对于不同的妆容的具体化妆步骤不够了解;对于不同部位的妆容化法也未曾涉猎。这些新手不知道如何入门,虽然花费了大量的精力,但效果却不尽如人意。因此快速学习化妆成了一个迫切的需求,为此推出了一套利用增强现实技术形成规范化的流程,来科学地帮助新手学习化妆的技术方案。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于增强现实的化妆方法、系统、电子终端及存储介质,提供一套能够实时、准确、快速、人性化的基于增强现实的化妆指导技术方案。
为实现上述目的及其他相关目的,本发明提供一种基于增强现实的化妆方法,所述基于增强现实的化妆方法包括:检测人脸图像;实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;根据所述关键点将人脸图像的五官分割出来;根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。
于本发明的一实施例中,所述检测人脸图像包括:利用预设人脸识别算法对人脸进行识别检测;利用人脸框将识别检测到的人脸及五官标识出来;获取所述人脸框的坐标位置。
于本发明的一实施例中,所述实时追踪人脸并获取人脸轮廓及五官位置的多个关键点包括:对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点;对N+1帧图像重新进行人脸检测;循环上述过程。
于本发明的一实施例中,若在人脸追踪过程中人脸丢失,则对当前帧图像进行人脸检测。
本发明的实施例还提供一种基于增强现实的化妆系统,所述基于增强现实的化妆系统包括:人脸检测模块,用于检测人脸图像;人脸追踪及关键点模块,用于实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;五官分割模块,用于根据所述关键点将人脸图像的五官分割出来;化妆模块,用于根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。
于本发明的一实施例中,所述人脸检测模块包括:检测单元,利用预设人脸识别算法对人脸进行识别检测;标识单元,利用人脸框将识别检测到的人脸及五官标识出来;坐标单元,用于获取所述人脸框的坐标位置。
于本发明的一实施例中,所述人脸追踪及关键点模块对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点,对N+1帧图像重新进行人脸检测,并不断循环上述过程。
于本发明的一实施例中,若在人脸追踪过程中人脸丢失,则所述人脸追踪及关键点模块对当前帧图像进行人脸检测。
本发明的实施例还提供一种存储介质,存储有程序指令,所述程序指令被执行时实现如上所述的基于增强现实的化妆方法。
本发明的实施例还提供一种电子终端,包括处理器和存储器,所述存储器存储有程序指令,所述处理器运行程序指令实现如上所述的基于增强现实的化妆方法。
如上所述,本发明的基于增强现实的化妆方法、系统、电子终端及存储介质具有以下有益效果:
本发明利用增强现实技术形成规范化的流程,来指导化妆的解决方案,本发明在保留人脸原图的轮廓、分布信息的基础上,对图片的颜色、抽象风格进行智能化地变更,即不改变五官轮廓、纹理、位置等信息,对其颜色进行适当调整,而非简单的颜色替换;本方案搜集全网数据,结合专业知识,为想护肤美妆的人群提供客观的、理性的、个性化的护肤美妆知识,帮助爱美的人理性护肤、科学美妆。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1显示为本发明的基于增强现实的化妆方法的流程示意图。
图2显示为本发明的基于增强现实的化妆方法中检测人脸图像的一种流程示意图。
图3显示为本发明的基于增强现实的化妆方法中实时追踪人脸的一种流程示意图。
图4显示为本发明的基于增强现实的化妆系统的原理框图。
图5显示为本发明的基于增强现实的化妆系统中人脸检测模块的原理框图。
元件标号说明
100 基于增强现实的化妆系统
110 人脸检测模块
111 检测单元
112 标识单元
113 坐标单元
120 人脸追踪及关键点模块
130 五官分割模块
140 化妆模块
S110~S140 步骤
S111~S113 步骤
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1至图5。须知,本说明书所附图式所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。同时,本说明书中所引用的如“上”、“下”、“左”、“右”、“中间”及“一”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
本实施例的目的在于提供一种基于增强现实的化妆方法、系统、电子终端及存储介质,提供一套能够实时、准确、快速、人性化的基于增强现实的化妆指导技术方案。
本实施例提供实时检测摄像头捕捉到的人脸,并对于监测到的人脸实时追踪人脸位置,返回其人脸框坐标用于后续处理及分析的功能。以下将详细阐述本发明的基于增强现实的化妆方法、系统、电子终端及存储介质的原理及实施方式,使本领域技术人员不需要创造性劳动即可理解本发明的基于增强现实的化妆方法、系统、电子终端及存储介质。
具体地,如图1所示,本发明的实施例提供了一种基于增强现实的化妆方法,应用于存储介质中,所述基于增强现实的化妆方法包括以下步骤:
步骤S110,检测人脸图像;
步骤S120,实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;
步骤S130,根据所述关键点将人脸图像的五官分割出来;
步骤S140,根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。
以下对本实施例的基于增强现实的化妆方法中的上述步骤S110至步骤S140进行详细说明。
步骤S110,检测人脸图像。
具体地,如图2所示,于本实施例中,所述检测人脸图像包括:
步骤S111,利用预设人脸识别算法对人脸进行识别检测。
步骤S112,利用人脸框将识别检测到的人脸及五官标识出来;即在画面中找到人脸及五官的位置,用矩形框出来。
步骤S113,获取所述人脸框的坐标位置。
具体地,于本实施例中,例如使用但不限于Single Shot MultiBox Detector+MobileNet算法和CFNet算法按照相关流程进行人脸检测,包括实时检测摄像头捕捉到的人脸,并对于监测到的人脸,将脸放入矩形框内,返回其人脸框坐标用于后续处理及分析的功能。
步骤S120,实时追踪人脸并获取人脸轮廓及五官位置的多个关键点。
具体地,于本实施例中,如图3所示,所述实时追踪人脸并获取人脸轮廓及五官位置的多个关键点包括:对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点;对N+1帧图像重新进行人脸检测;循环上述过程。
其中,于本实施例中,若在人脸追踪过程中人脸丢失,则对当前帧图像进行人脸检测。
例如,使用Single Shot MultiBox Detector+MobileNet算法进行实时人脸识别,得到第一帧的人脸框的坐标位置,被检测到的人脸被放入矩形框内。如图3所示,当人脸位置已检测后,使用CFNet算法对接下来的20帧画面进行人脸追踪;满20帧后重新对下一帧图片进行人脸检测,再追踪下20帧的画面;当追踪过程中出现人脸丢失时,对当前帧进行人脸,若检测到人脸则继续人脸追踪,若检测不到人脸则继续下一帧的人脸检测。
其中,图3中,cnt计数器是总帧数计数器,用于统计画面总帧数,trk计数器为循环计数器,用于统计是否连续成功检测20帧画面。
其中,例如使用Mix ofInvariant Expert算法,利用人脸框检测得到的实时人脸位置,在脸部区域进行人脸关键点提取,利用关键点勾画出面部区域。所述关键点的数量优选为30个以上,例如被找到的人脸及五官的关键点共68个,得到人脸及五官轮廓和分布,用于提取脸部特征。
步骤S130,根据所述关键点将人脸图像的五官分割出来。
将画面中的五官逐个分割出来,即将五官各部分分割出来,作为脸部分析和试妆的基础。例如,使用Fully Convolutional Networks和DeConvNet算法进行五官分割。
利用脸部图像分割出的五官区域,在各个区域进行独立的风格迁移,以达到保持原人脸纹理、形状特征的基础上改变颜色的效果。
步骤S140,根据所述人脸轮廓和分割出来的五官适配不同的妆容风格,智能地对人脸图片风格进行变更。
具体地,于本实施例中,进行五官分割后,在不同的面部区域针对不同的妆容,给出必要的文字或者图片等化妆指导。
在保留人脸原图的轮廓、分布信息的基础上,对人脸五官各部分图片的颜色、抽象风格进行智能化地变更,即不改变五官轮廓、纹理、位置等信息,对其颜色进行适当调整,而非简单的颜色替换。
其中,于本实施例中,例如采用卷积神经网络进行人脸图像风格迁移,利用脸部图像分割出的五官区域,在各个区域进行独立的风格迁移,以达到保持原人脸纹理、形状特征的基础上改变颜色的效果,利用人脸分割卷积出的第二层图像特征进行迁移,能加速整个过程。
所以本实施例的基于增强现实的化妆方法通过实时追踪人脸,并返回多个个高精度的人脸及五官轮廓的关键点,利用关键点勾画出面部区域,进行五官分割,并在不同的面部区域针对不同的妆容,可以给出必要的文字或者图片等化妆指导。
本发明的实施例还提供一种存储介质,所述存储介质例如为存储器,所述存储器可包括高速随机存取存储器,并且还可包括非易失性存储器,例如一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储设备。
所述存储器存储有程序指令,所述程序指令被执行时实现如上所述的基于增强现实的化妆方法。上述已经对所述基于增强现实的化妆方法进行了详细说明,在此不再赘述。
本实施例还提供一种电子终端,所述电子终端例如为智能手机、pad或个人电脑等,所述电子终端,包括处理器和存储器,所述存储器存储有程序指令,所述处理器运行程序指令实现如上所述的基于增强现实的化妆方法。在此不再赘述上述基于增强现实的化妆方法中的步骤。
为实现上述基于增强现实的化妆方法,如图4所示,本实施例还对应提供一种基于增强现实的化妆系统100,所述基于增强现实的化妆系统100包括:人脸检测模块110,人脸追踪及关键点模块120,五官分割模块130和化妆模块140。
以下对本实施例的基于增强现实的化妆系统100进行详细说明。
于本实施例中,所述人脸检测模块110用于检测人脸图像。
具体地,于本实施例中,如图5所示,所述人脸检测模块110包括:检测单元111,利用预设人脸识别算法对人脸进行识别检测;标识单元112,利用人脸框将识别检测到的人脸及五官标识出来;坐标单元113,用于获取所述人脸框的坐标位置。
具体地,于本实施例中,例如使用但不限于Single Shot MultiBox Detector+MobileNet算法和CFNet算法按照相关流程进行人脸检测,包括实时检测摄像头捕捉到的人脸,并对于监测到的人脸,将脸放入矩形框内,返回其人脸框坐标用于后续处理及分析的功能。
于本实施例中,所述人脸追踪及关键点模块120用于实时追踪人脸并获取人脸轮廓及五官位置的多个关键点。
具体地,于本实施例中,所述人脸追踪及关键点模块120对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点,对N+1帧图像重新进行人脸检测,并不断循环上述过程。
其中,若在人脸追踪过程中人脸丢失,则所述人脸追踪及关键点模块120对当前帧图像进行人脸检测。
例如,使用Single Shot MultiBox Detector+MobileNet算法进行实时人脸识别,得到第一帧的人脸框的坐标位置,被检测到的人脸被放入矩形框内。如图3所示,当人脸位置已检测后,使用CFNet算法对接下来的20帧画面进行人脸追踪;满20帧后重新对下一帧图片进行人脸检测,再追踪下20帧的画面;当追踪过程中出现人脸丢失时,对当前帧进行人脸,若检测到人脸则继续人脸追踪,若检测不到人脸则继续下一帧的人脸检测。
其中,例如使用Mix ofInvariant Expert算法,利用人脸框检测得到的实时人脸位置,在脸部区域进行人脸关键点提取,利用关键点勾画出面部区域。所述关键点的数量优选为30个以上,例如被找到的人脸及五官的关键点共68个,得到人脸及五官轮廓和分布,用于提取脸部特征。
于本实施例中,所述五官分割模块130用于根据所述关键点将人脸图像的五官分割出来。
将画面中的五官逐个分割出来,即将五官各部分分割出来,作为脸部分析和试妆的基础。例如,使用Fully Convolutional Networks和DeConvNet算法进行五官分割。
利用脸部图像分割出的五官区域,在各个区域进行独立的风格迁移,以达到保持原人脸纹理、形状特征的基础上改变颜色的效果。
于本实施例中,所述化妆模块140用于根据所述人脸轮廓和分割出来的五官适配不同的妆容风格,智能地对人脸图片风格进行变更。
具体地,于本实施例中,进行五官分割后,在不同的面部区域针对不同的妆容,给出必要的文字或者图片等化妆指导。
在保留人脸原图的轮廓、分布信息的基础上,对人脸五官各部分图片的颜色、抽象风格进行智能化地变更,即不改变五官轮廓、纹理、位置等信息,对其颜色进行适当调整,而非简单的颜色替换。
其中,于本实施例中,例如采用卷积神经网络进行人脸图像风格迁移,利用脸部图像分割出的五官区域,在各个区域进行独立的风格迁移,以达到保持原人脸纹理、形状特征的基础上改变颜色的效果,利用人脸分割卷积出的第二层图像特征进行迁移,能加速整个过程。
所以本实施例的基于增强现实的化妆方法通过实时追踪人脸,并返回多个个高精度的人脸及五官轮廓的关键点,利用关键点勾画出面部区域,进行五官分割,并在不同的面部区域针对不同的妆容,可以给出必要的文字或者图片等化妆指导。
综上所述,本发明利用增强现实技术形成规范化的流程,来指导化妆的解决方案,本发明在保留人脸原图的轮廓、分布信息的基础上,对图片的颜色、抽象风格进行智能化地变更,即不改变五官轮廓、纹理、位置等信息,对其颜色进行适当调整,而非简单的颜色替换;本方案搜集全网数据,结合专业知识,为想护肤美妆的人群提供客观的、理性的、个性化的护肤美妆知识,帮助爱美的人理性护肤、科学美妆。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中包括通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种基于增强现实的化妆方法,其特征在于,所述基于增强现实的化妆方法包括:
检测人脸图像;
实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;
根据所述关键点将人脸图像的五官分割出来;
根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。
2.根据权利要求1所述的基于增强现实的化妆方法,其特征在于,所述检测人脸图像包括:
利用预设人脸识别算法对人脸进行识别检测;
利用人脸框将识别检测到的人脸及五官标识出来;
获取所述人脸框的坐标位置。
3.根据权利要2所述的基于增强现实的化妆方法,其特征在于,所述实时追踪人脸并获取人脸轮廓及五官位置的多个关键点包括:
对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点;
对N+1帧图像重新进行人脸检测;
循环上述过程。
4.根据权利要求3所述的基于增强现实的化妆方法,其特征在于,若在人脸追踪过程中人脸丢失,则对当前帧图像进行人脸检测。
5.一种基于增强现实的化妆系统,其特征在于,所述基于增强现实的化妆系统包括:
人脸检测模块,用于检测人脸图像;
人脸追踪及关键点模块,用于实时追踪人脸并获取人脸轮廓及五官位置的多个关键点;
五官分割模块,用于根据所述关键点将人脸图像的五官分割出来;
化妆模块,用于根据所述人脸轮廓和分割出来的五官适配不同的妆容风格。
6.根据权利要求5所述的基于增强现实的化妆系统,其特征在于,所述人脸检测模块包括:
检测单元,利用预设人脸识别算法对人脸进行识别检测;
标识单元,利用人脸框将识别检测到的人脸及五官标识出来;
坐标单元,用于获取所述人脸框的坐标位置。
7.根据权利要求6所述的基于增强现实的化妆系统,其特征在于,所述人脸追踪及关键点模块对连续N帧图像进行人脸追踪并于每一帧图像获取人脸轮廓及五官位置的多个关键点,对N+1帧图像重新进行人脸检测,并不断循环上述过程。
8.根据权利要求7所述的基于增强现实的化妆系统,其特征在于,若在人脸追踪过程中人脸丢失,则所述人脸追踪及关键点模块对当前帧图像进行人脸检测。
9.一种存储介质,存储有程序指令,其特征在于,所述程序指令被执行时实现如权利要求1至权利要求4任一项所述的基于增强现实的化妆方法。
10.一种电子终端,包括处理器和存储器,所述存储器存储有程序指令,其特征在于,所述处理器运行程序指令实现如权利要求1至权利要求4任一项所述的基于增强现实的化妆方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810860408.4A CN109508620A (zh) | 2018-08-01 | 2018-08-01 | 基于增强现实的化妆方法、系统、电子终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810860408.4A CN109508620A (zh) | 2018-08-01 | 2018-08-01 | 基于增强现实的化妆方法、系统、电子终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109508620A true CN109508620A (zh) | 2019-03-22 |
Family
ID=65745486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810860408.4A Pending CN109508620A (zh) | 2018-08-01 | 2018-08-01 | 基于增强现实的化妆方法、系统、电子终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109508620A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110333756A (zh) * | 2019-06-26 | 2019-10-15 | 杜剑波 | 用于气质美学设计咨询的全息增强现实系统 |
CN110472605A (zh) * | 2019-08-21 | 2019-11-19 | 广州纳丽生物科技有限公司 | 一种基于深度学习人脸分区的皮肤问题诊断方法 |
CN111862105A (zh) * | 2019-04-29 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 图像的区域处理方法、装置和电子设备 |
CN111950432A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
WO2022188599A1 (en) * | 2021-03-10 | 2022-09-15 | International Business Machines Corporation | Selective redaction of images |
CN116486054A (zh) * | 2023-06-25 | 2023-07-25 | 四川易景智能终端有限公司 | 一种ar虚拟美妆镜及其工作方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236066A (zh) * | 2013-05-10 | 2013-08-07 | 苏州华漫信息服务有限公司 | 一种基于人脸特征分析的虚拟试妆方法 |
CN106326853A (zh) * | 2016-08-19 | 2017-01-11 | 厦门美图之家科技有限公司 | 一种人脸跟踪方法及装置 |
CN106874826A (zh) * | 2015-12-11 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 人脸关键点跟踪方法和装置 |
CN107392110A (zh) * | 2017-06-27 | 2017-11-24 | 五邑大学 | 基于互联网的人脸美化系统 |
-
2018
- 2018-08-01 CN CN201810860408.4A patent/CN109508620A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236066A (zh) * | 2013-05-10 | 2013-08-07 | 苏州华漫信息服务有限公司 | 一种基于人脸特征分析的虚拟试妆方法 |
CN106874826A (zh) * | 2015-12-11 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 人脸关键点跟踪方法和装置 |
CN106326853A (zh) * | 2016-08-19 | 2017-01-11 | 厦门美图之家科技有限公司 | 一种人脸跟踪方法及装置 |
CN107392110A (zh) * | 2017-06-27 | 2017-11-24 | 五邑大学 | 基于互联网的人脸美化系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862105A (zh) * | 2019-04-29 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 图像的区域处理方法、装置和电子设备 |
CN110333756A (zh) * | 2019-06-26 | 2019-10-15 | 杜剑波 | 用于气质美学设计咨询的全息增强现实系统 |
CN110472605A (zh) * | 2019-08-21 | 2019-11-19 | 广州纳丽生物科技有限公司 | 一种基于深度学习人脸分区的皮肤问题诊断方法 |
CN110472605B (zh) * | 2019-08-21 | 2022-10-14 | 广州纳丽生物科技有限公司 | 一种基于深度学习人脸分区的皮肤问题分类方法 |
CN111950432A (zh) * | 2020-08-07 | 2020-11-17 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
CN111950432B (zh) * | 2020-08-07 | 2024-03-08 | 武汉理工大学 | 一种基于区域风格一致性的妆容风格迁移方法及系统 |
WO2022188599A1 (en) * | 2021-03-10 | 2022-09-15 | International Business Machines Corporation | Selective redaction of images |
US11468617B2 (en) | 2021-03-10 | 2022-10-11 | International Business Machines Corporation | Selective redaction of images |
CN116486054A (zh) * | 2023-06-25 | 2023-07-25 | 四川易景智能终端有限公司 | 一种ar虚拟美妆镜及其工作方法 |
CN116486054B (zh) * | 2023-06-25 | 2023-09-12 | 四川易景智能终端有限公司 | 一种ar虚拟美妆镜及其工作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508620A (zh) | 基于增强现实的化妆方法、系统、电子终端及存储介质 | |
CN109697435B (zh) | 人流量监测方法、装置、存储介质及设备 | |
US11615516B2 (en) | Image-to-image translation using unpaired data for supervised learning | |
CN108701216A (zh) | 一种人脸脸型识别方法、装置和智能终端 | |
CN109472198A (zh) | 一种姿态鲁棒的视频笑脸识别方法 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN104049760B (zh) | 一种人机交互命令的获取方法及系统 | |
CN108846792A (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN108694736B (zh) | 图像处理方法、装置、服务器及计算机存储介质 | |
Bauckhage et al. | Automatic detection of abnormal gait | |
Liang et al. | Resolving ambiguous hand pose predictions by exploiting part correlations | |
CN107944420A (zh) | 人脸图像的光照处理方法和装置 | |
Jing et al. | Spatiotemporal neural networks for action recognition based on joint loss | |
Rehman et al. | Face detection and tracking using hybrid margin-based ROI techniques | |
Saini et al. | szoom: A framework for automatic zoom into high resolution surveillance videos | |
CN113177526B (zh) | 基于人脸识别的图像处理方法、装置、设备及存储介质 | |
CN108171716B (zh) | 基于自适应跟踪框分割的视频人物装扮方法及装置 | |
Liang et al. | Egocentric hand pose estimation and distance recovery in a single RGB image | |
CN109784157B (zh) | 一种图像处理方法、装置及系统 | |
Ayinde et al. | Region-based face detection | |
KR20200107488A (ko) | 가상화장 합성 처리 방법 | |
Duarte et al. | Classification of primitive manufacturing tasks from filtered event data | |
CN110619262B (zh) | 图像识别的方法及装置 | |
Zerrouki et al. | Exploiting deep learning-based LSTM classification for improving hand gesture recognition to enhance visitors’ museum experiences | |
Deniz et al. | When Do Neuromorphic Sensors Outperform cameras? Learning from Dynamic Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190322 |