CN115904191A - 一种模拟化妆方法、模拟化妆系统及智能化妆台 - Google Patents
一种模拟化妆方法、模拟化妆系统及智能化妆台 Download PDFInfo
- Publication number
- CN115904191A CN115904191A CN202211566191.9A CN202211566191A CN115904191A CN 115904191 A CN115904191 A CN 115904191A CN 202211566191 A CN202211566191 A CN 202211566191A CN 115904191 A CN115904191 A CN 115904191A
- Authority
- CN
- China
- Prior art keywords
- makeup
- model
- face
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种模拟化妆方法、模拟化妆系统及智能化妆台,该方法、系统及化妆台建立了一个由人的脸部模型构成的实物化妆模型,并在该化妆模型上密布有若干触摸传感器,通过算法可将拍摄的人脸图像特征与化妆模型图像特征相匹配;这样,当在化妆模型上化妆时,触摸传感器检测的化妆位置可以转换到虚拟人脸图像上,并将化妆效果显示于虚拟图像上。对使用者而言,虽然未在自己脸上化妆,却可以达到正在“照镜子”的真实感官效果。而且,其化妆操作是在实物模型上进行的,使用的可以是仿真化妆工具,从而可以达到真实的手感化妆操作,得到虚拟的模拟化妆效果,在无损耗的基础上进行化妆品的试妆,也可以实现对化妆手法的练习操作。
Description
技术领域
本发明涉及模拟化妆的技术领域,尤指一种模拟化妆方法、模拟化妆系统及智能化妆台。
背景技术
现时代,化妆已经成为了一种习惯,不仅女生化妆,男生也开始化妆,而化妆的内部逻辑是为了让别人看到更光鲜亮丽的自己,但由于化妆品的价格等种种原因,大部分人对化妆的认知并不完善,且化妆的手法和效果也有所欠缺。然而,随着社会的发展,传统的选妆方式已经无法满足人们的需求,需要更贴近当前时代的发展,AR智能化妆台无疑是化妆的未来所至。
现有技术中,只是将AR语音助手与化妆镜进行结合,同时提供化妆教程与提示,其底层逻辑是采用图像处理技术及语音识别技术,通过机器学习和深度学习算法,进行数据的匹配,不断提高精准度,提供媲美人工客服的专业服务。但这并无法满足化妆人群的主要需求。只能在一定程度上提供给用户解决问题更加便利的途径。
并且,随着科技的发展,人们也需要一种可以帮助人们快速掌握化妆手法的机器,而现有的模拟化妆系统和方法都是在电子产品的虚拟图像或虚拟模型上进行模拟化妆操作,只能看到效果,不能在手感上感受化妆效果,到实际操作时还无法达到理想的效果。
例如:CN200880102848.8公开的一种“化妆模拟系统、化妆模拟装置、化妆模拟方法以及化妆模拟程序”,CN201811151963.6公开的“一种模拟化妆装置、模拟化妆方法及设备”,CN201911056397.5公开的一种“具有美肤美妆指导功能的智能镜系统及方法”;CN201880042814.8公开的一种“虚拟面部化妆去除和模拟、快速面部检测和地标跟踪”,等等专利前案均是通过图像处理技术获得虚拟的人脸模型,之后在虚拟模型上进行模拟化妆,并获得虚拟化妆效果。但是学习者或者使用者在实际人脸上化妆时,因为手感的不同,还是会存在差异,不能达到预期的效果。
发明内容
本发明所要解决的技术问题在于提供一种具有真实感官效果及实际手感效果的模拟化妆方法、模拟化妆系统及智能化妆台。
为解决上述技术问题,本发明的技术解决方案是:
一种模拟化妆方法,包括如下步骤:
一、预设一化妆模型,该化妆模型为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器;
二、通过摄像头采集使用者人脸图像或者化妆模型图像,并传输到中央处理单元,同时将人脸图像显示于显示屏上;
三、由中央处理单元对人脸图像或者化妆模型图像进行处理,对人脸进行识别,之后对脸部特征进行定位;然后将使用者人脸特征与化妆模型的脸部特征相匹配获得匹配信息;
四、触摸化妆模型需要化妆部位,其相应位置的触摸传感器将信号传送给中央处理单元,中央处理单元根据步骤三的匹配信息将化妆模型感应位置转换到人脸图像的相对应位置处,再根据所选定的虚拟化妆品信息在人脸图像上进行模拟化妆,并显示在显示屏上。
优选的,所述步骤三中,对人脸进行识别可以采用肤色识别法,建立肤色统计模型。
优选的,所述步骤三中,对人脸或脸部特征进行定位的算法可以采用灰度投影法,根据五官的不同位置特征对五官进行定位。
优选的,所述步骤三中,对匹配信息获得方法,可以根据五官位置信息以五官为基点对化妆模型上的点进行坐标修正,从而达到化妆位置相互符合。
优选的,所述步骤四中,模拟化妆可以采用AR化妆技术,即先与人的五官进行匹配,而后进行图层覆盖。
优选的,所述步骤四中,使用可以触发化妆模型的触摸传感器的化妆笔进行模拟化妆;且该化妆笔上可以设有可感知笔头部压力的压力传感器,该压力传感器与中央处理单元相连,中央处理单元根据压力大小,控制虚拟化妆品以相应压力信息模拟化妆。
一种模拟化妆系统,包括摄像头、显示屏、化妆模型及中央处理单元;
所述摄像头用于对人脸图像或化妆模型图像进行采集,并将采集图像传输给中央处理单元;
所述显示屏用于显示人脸图像;
所述化妆模型为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器;
所述的中央处理单元包括图像处理模块、匹配识别模块、触摸感应模块、模拟化妆模块以及存储模块;所述图像处理模块对人脸图像或化妆模型图像进行处理并按脸部特征进行定位;所述匹配识别模块用于将使用者人脸特征与化妆模型的脸部特征相匹配获得匹配信息;所述触摸感应模块用于接收所述触摸传感器的感应信号,并将感应位置转换到人脸图像的相对应位置处;所述模拟化妆模块根据人脸图像定位信息及选定的化妆品信息在人脸图像上进行AR化妆;所述存储模块用于存储人脸信息、化妆模型脸部信息以及化妆品信息。
优选的,所述模拟化妆系统进一步包括化妆笔,该化妆笔具有可以触发所述化妆模型的触摸传感器的笔头部。
优选的,所述的笔头部可以为刷状体、唇膏头状体或眉笔头状体。
优选的,所述化妆笔设有可以感知笔头部压力的压力传感器,该压力传感器与所述中央处理单元相连。
优选的,所述化妆笔还包括笔杆,该笔杆为中空,其内安装有压力传感器、将笔刷压力导入给压力传感器的压力导入管、信号传输模块芯片及供电装置;所述的压力传感器通过一基座安装在笔杆内,其传感器引脚通过导线连接至信号传输模块芯片,该信号传输模块芯片与所述的中央处理单元通过无线或者有线方式连接。
一种应用上述模拟化妆系统的智能化妆台,除了上述模拟化妆系统的结构以外,该化妆台还包括化妆台主体;所述的显示屏为内置所述摄像头的触摸屏,其设置在所述化妆台主体的台面上;所述的化妆模型放置于所述化妆台主体的台面上,或者可升降地设置于该化妆台主体的置物柜内;所述的中央处理单元设置在化妆台主体上,该中央处理单元还设有置于台面上的控制面板及启动开关,该控制面板上设有用于传输信号的信息传输模块。
优选的,所述智能化妆台的触摸屏嵌置于所述化妆主体上的触摸屏框架中,该触摸屏框架上设置有若干LED灯。
优选的,所述的控制面板上还可以设置有化妆笔充电接口、可充电电源模块或化妆笔嵌置槽。
优选的,一种上述智能化妆台的模拟化妆方法,包括如下步骤:
步骤10,摄像头进行人脸信息采集,并通过触摸屏进行投影;
步骤20,打开启动开关;
步骤30,AR化妆;使用化妆笔在化妆模型上模拟化妆,系统通过化妆模型上的触摸传感器可以确定化妆位置,然后与使用者的脸型进行转换,在触摸屏上的人脸图像上,以选定的化妆品信息进行模拟化妆,从而达到模拟现实化妆的效果;反复进行此步骤,即可对脸部各个部位完成模拟化妆。
优选的,在所述步骤30之前,可以进一步包括步骤22,对系统妆容库中的妆容进行选择,如选择系统妆容,则调取选定的妆容信息,进入步骤30进行AR化妆。
优选的,在所述步骤30之前,可以进一步包括步骤26,选择是否使用使用者个人化妆品进行化妆,若选择是,则发出指令,使后续AR化妆操作仅在个人化妆品信息中调取数据;若选择否,则可在系统化妆品库中调取化妆品数据。
优选的,还可以进一步包括步骤40,每次化妆时系统可以进行自动录像,并可存储在个人的妆容库中。
优选的,还可以进一步包括步骤50,个人发化妆品信息录入,在任意时刻,使用者可以对其个人现实世界的化妆品进行数据化,即将化妆品信息存储于化妆品信息模块中。
采用上述方案后,由于本发明建立了一个由人的脸部模型构成的实物化妆模型,并在该化妆模型上密布有若干触摸传感器,之后通过算法将拍摄的人脸图像特征与化妆模型图像特征相匹配;这样,当在化妆模型上化妆时,触摸传感器检测的化妆位置可以转换到使用者的人脸图像上,并将化妆效果显示于虚拟的人脸图像上。对使用者而言,虽然未在自己脸上化妆,却可以达到正在“照镜子”的真实感官效果。而且,其化妆操作是在现实的实物模型上进行的,使用的可以是仿真化妆工具的电子化妆笔,因此实际的化妆手感非常真实。总之,采用本发明可以达到真实的手感化妆操作,得到虚拟的模拟化妆效果,在无损耗的基础上进行化妆品的试妆,也可以实现对化妆手法的练习操作,还可以用于化妆教学中。
附图说明
图1是本发明所述模拟化妆方法的步骤流程图;
图2是本发明所述模拟化妆系统的结构框图;
图3是本发明所述化妆笔的结构示意图;
图4是本发明所述智能化妆台使用时的结构示意图;
图5是本发明所述智能化妆台收纳时的结构示意图;
图6是本发明所述智能化妆台的使用控制流程框图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详述。
本发明所揭示的是一种模拟化妆方法,如图1所示,为所述模拟化妆方法的步骤流程图,其包括如下步骤:
一、预设一化妆模型,该化妆模型为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器;
所述的触摸传感器可以采用现有技术,例如触摸屏的电容式触摸传感或者压感式传感等,或者用于智能机器人的柔性触觉传感器。而该触摸传感器的数量直接决定了化妆模型的分辨率,即分辨精度。
二、通过摄像头采集使用者人脸图像或者化妆模型图像,并传输到中央处理单元,同时将人脸图像显示于显示屏上;
三、由中央处理单元对人脸图像或者化妆模型图像进行处理,对人脸进行识别,之后对脸部特征进行定位;然后将使用者人脸特征与化妆模型的脸部特征相匹配获得匹配信息;
本步骤中,人脸识别技术是现有常见技术,最典型的人脸识别方法就是通过肤色识别人脸。例如采用如下方法:
建立肤色统计模型:由于YCbCr色彩空间对人脸肤色像素点的色度具有良好的聚类性。故将RGB转化为YCbCr,转化公式如下:
选定色彩空间后,在此空间进行肤色建模。此处利用高斯模型拟合肤色的色度集合,用于判断像素点是否属于人脸。
高斯模型N(m,c)可表示为:
x=[Cr,Cb]T
M=E(x)
C=E[(x-m)(x-m)T]
其中x为像素值,M、C分别为Cr、Cb统计结果的均值与协方差。
另外,本步骤中,对人脸或脸部特征进行定位的算法也可以采用现有技术方法,而发明采用灰度投影法,根据五官的不同位置特征对五官进行定位。
具体可以采用下述方法找出五官位点:
在目标图像中对人脸进行分割,从而对五官进行定位。此处可以使用阈值分割法。当前主要存在7种图像阈值分割技术。而不同的分割技术对不同部位的拟合度各不相同。所以,五官定位需要采用多种分割技术。嘴唇可采用均匀性度算法;眼睛、鼻子采用迭代法;眉毛采用最大类间方差法。从而更准确的对五官进行定位。
也可以使用连通域算法,及人脸的客观分布定位五官及人脸的具体位置,具体为:
先将图像二值化,将图像分为前景区域和背景区域。相当于是已经知道如何区提取有效像素值,然后进行连通域分析,而如何提取感兴趣的区域是一个非常的问题,这里不做讨论。有两种经典的连通区域分析算法:1、Two-Pass(两次遍历);2、Seed Filling(种子填充)。如采用Two-Pass算法实现。通过连通区域算法进一步缩小五官定位范围,减小计算量。同时对该类二值图像进行反值操作,结合五官形状和相对位置,对五官进行定位。
总之,本步骤对人脸的识别及定位部分分为三大部分:
(1)肤色区域的提取,通过高斯模型对图像进行处理,得到肤色似然图,二值化初步定位人脸区域;
(2)嘴唇和眼睛的定位,得到人脸定位图像;
(3)在人脸图像上进行眉毛和鼻子的定位。
再者,本步骤还需要将使用者人脸特征与化妆模型的脸部特征相匹配,具体方法可以采用:根据五官位置信息以五官为基点对化妆模型上的点进行坐标修正,从而达到化妆位置相互符合。
而所述化妆模型的脸部特征信息也可以事先存储于存储模块中。
四、触摸化妆模型需要化妆部位,其相应位置的触摸传感器将信号传送给中央处理单元,中央处理单元根据步骤三的匹配信息将化妆模型感应位置转换到人脸图像的相对应位置处,再根据所选定的虚拟化妆品信息在人脸图像上进行模拟化妆,并显示在显示屏上。
该步骤实际就是在化妆模型上进行模拟化妆,而模拟化妆的效果不是呈现在化妆模型上的,而是显示在显示屏的人脸图像上的。此方式,令使用者可以体检实际化妆的操作手感,却不需要消耗使用真实的化妆品,又可以看到模拟的化妆效果,还可以实现对化妆手法进行练习。
本发明与现有技术最大的区别就在于:本发明是在实物化妆模型上化妆,在虚拟人脸图像上呈现化妆效果;而现有技术完全是使用虚拟化妆用具、虚拟化妆品,在虚拟人脸图像上呈现化妆效果,即所谓的AR化妆技术。而本发明将虚拟化妆品模拟化妆在虚拟人脸图像上的技术可以采用现有的AR化妆技术,即以图形学技术渲染画面以达到模拟化妆效果,即先与人的五官进行匹配,而后进行化妆品信息的图层覆盖。
另外,在模拟化妆时,理论上可以使用手指或者其他可以感应触摸传感器的触屏笔进行化妆操作。但是为了更好的体验化妆手感,本发明还设计一有专门的电子化妆笔,而电子化妆笔从外形上看,可以是任意一种化妆用具或者化妆品形状,例如:唇膏形状、眉笔形状、化妆刷形状等等。另外,实际化妆时,化妆力度也非常重要,不同的力度将使用相同颜色的化妆品呈现不同的深浅或者浓密效果。为此,本发明在化妆笔上设置了可感知笔头部压力的压力传感器,该压力传感器与中央处理单元相连,中央处理单元根据压力大小,控制虚拟化妆品以相应压力信息模拟化妆,从而呈现不同的深浅或者浓密效果,使用者也可以通过模拟的效果而控制化妆笔的压力。
本发明还揭示一种模拟化妆系统,如图2所示,为所述模拟化妆系统的结构框图,其包括摄像头1、显示屏2、化妆模型3及中央处理单元4,还可以进一步包括化妆笔5。其中:
所述摄像头1用于对人脸图像或化妆模型图像进行采集,并将采集图像传输给中央处理单元4。
所述显示屏2用于显示人脸图像;该显示屏2可以为触摸屏,并可以为嵌置有所述摄像头1的触摸屏。
所述化妆模型3为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器(图中未示出)。
所述的中央处理单元4包括图像处理模块41、匹配识别模块42、触摸感应模块43、模拟化妆模块44以及存储模块45;所述图像处理模块41对摄像头拍摄的人脸图像或化妆模型图像进行处理,并且对脸部特征进行定位;所述匹配识别模块42用于将使用者人脸特征与化妆模型的脸部特征相匹配,之后获得匹配信息;所述触摸感应模块43用于接收所述触摸传感器的感应信号,并将感应位置转换到人脸图像的相对应位置处;所述模拟化妆模块44根据人脸图像定位信息及选定的化妆品信息在人脸图像上进行AR化妆;所述存储模块45用于存储人脸信息、化妆模型脸部信息、化妆品信息等信息。
所述的化妆笔5,该化妆笔具有笔头部51。为了增加模拟化妆的真实效果,可以将化妆笔5的笔头部51设计成真实化妆工具的形状,例如类似化妆刷的刷状体、类似唇膏的唇膏头状体或者类似眉笔的眉笔头状体等等。并且可以配备多种类型的化妆笔。而对于需要特定触发结构的触摸传感器,在所述的笔头部51上需要设置可以触发触摸传感器的触控结构,该触发结构根据触摸传感器的不同而不同。例如对于电容式触摸传感器,该笔头部51材料需要具有导电特性;对于电阻式触摸传感器,该笔头部51只要具有一定硬度可以提供压力即可。此外,在真实场景化妆时,化妆力度也非常重要。对于化妆模型3采用压感电阻式触摸传感器来说,通过压感电阻式触摸传感器即可以感应化妆笔5的压力。而对于采用其他形式的触摸传感器来说,本发明可以在所述的化妆笔5内设置可以感知笔头部51压力大小的压力传感器52,该压力传感器52与所述中央处理单元4相连。如图3所示,图3以化妆刷结构的化妆笔为例,所述的化妆笔5包括刷子状笔头部51和笔杆53,为了提供一定的按压力,该刷子状笔头部51并非真正的刷子结构,而可以由是仿真刷子结构的硅胶材料制成;所述的笔杆53为中空,其内安装有压力传感器52、将笔头部51的压力导入给压力传感器的压力导入管54、信号传输模块芯片55及供电装置;所述的压力传感器52通过一基座56安装在笔杆53内,其传感器引脚57通过导线连接至信号传输模块芯片55,该信号传输模块芯片55与所述的中央处理单元4通过无线或者有线方式连接。所述的供电装置为化妆笔5供电,其可以为普通电池、充电电池或者电源线。本实施,该供电装置为锂离子可充电纽扣电池58及充电接口59。所述的压力导入管54伸入到所述笔头部51内部,连接笔头部51前端及所述的压力传感器52。而具有压力导入管的压力传感器是现有技术,例如可以选择品牌为欧姆龙、型号为2SMPP-02MEMS的产品。上述化妆笔的内部结构也可以应用于眉笔状或唇膏状等形式的化妆笔中。而所述的压力传感器也可以直接设置于笔头部的前端,无需设置压力导入管,但是压力传感器直接与物体接触容易损坏。
基于本发明所述模拟化妆方法及系统,可以将其应用于各种实际产品中。典型的实际产品就是智能化妆台,如图4、5所示,为本发明所述智能化妆台的较佳实施例。该智能化妆台除了包括上述模拟化妆系统以外,还包括化妆台主体6,该化妆台主体6设有台面61。其中:
所述的显示屏2为内置所述摄像头1的触摸屏,其设置在所述化妆台主体6的台面61上。该触摸屏可以通过外形的设计,嵌置于台面61上的触摸屏框架62中,使触摸屏看上去像一面化妆镜,使化妆台从外表来看与普通化妆台并无不同。该触摸屏的外周可以设置LED灯63,该LED灯63可以嵌置在所述触摸屏框架62上。作为化妆台的触摸屏,其除了可以显示人脸图像以外,还可以作为控制页面的显示,例如模拟化妆功能按键、化妆品信息录入按键、妆容库按键等功能模块的进入显示等。
所述的化妆模型3可以被直接放置于所述化妆台主体6的台面61上,也可以收纳于化妆台主体6的收纳柜中,使用时再取出。而本发明实施例,设置了升降机构(图中未示出),不使用时,该化妆模型3被收纳于置物柜64中,使用时启动升降机构,即可将化妆模型3抬升于台面61上。所述的升降机构可以采用现有常见的升降机构,例如可升降桌面的升降机构、例如螺杆螺母升降机构等等,其不是本案重点,在此不详细描述。
所述的中央处理单元4可以作为控制主机,置于所述化妆台主体6上的任何位置。为了方便操作控制,可以设置一块与主机相连的控制面板46。该控制面板46可以嵌置于所述台面61上,为了美观,也可以在台面上设置可翻转机构(图中未示出),控制面板46则安装于该可翻转机构上,当使用时将控制面板46翻转在台面61上,不使用时则转动翻转机构,使用控制面板46被盖于台面之下。而该翻转机构也是现有常见机械,在此不详细说明。所述的控制面板46上可以设置启动开关47及信息传输模块461,该信息传输模块461与所述控制主机通过有线或者无线方式连接,用于信号的传输。所述的启动开关47也可以单独嵌于所述台面61的其他位置,并设置成触摸开关。该控制面板46上还可以设置有化妆笔充电接口462、可充电电源模块463、化妆笔嵌置槽464等结构。所述化妆笔5在不使用时可以嵌置于该化妆笔嵌置槽464内,以对化妆笔进行收纳。
对于智能化妆台来说,所述的控制主机除了具有中央处理单元4所需要的必须模块以外,还要求化妆所需要的其他辅助模块,因此,所述的中央处理单元4还进一步设置了化妆品信息模块48、妆容库或教学模块等等。所述的化妆品信息模块48用于化妆品信息的录入、存储及调取等,其录入方法可以通过使用者人工录入、或者扫描二维码或云平台调取等方式调取化妆品信息。而化妆品信息可以包括化妆品的纹理贴图、凹凸贴图、颜色等显示参数,从而使化妆品进行数据化,以便进行虚拟调用。所述的妆容库(图中未示出)可以存储于存储模块45中,用于存储商家设定的妆容为使用者参考,也可以将使用者使用本系统化出的妆容存储在其内,并且可以分为系统妆容库和个人妆容库等等。所述的教学模块(图中未示出)可以对妆容库中的妆容生成教学视频和语音,以便进行妆容的学习或练习。该教学模块不是本案重点,在此不展开说明。此外,所述化妆模型3的图像及特征定位信息也可以预先由商家存储于存储模块45中,以便随时调取并与拍摄的人脸图像进行匹配。
所述智能化妆台的模拟化妆方法,包括如下步骤(如图6所示):
步骤10,摄像头进行人脸信息采集,并保存至存储模块中,方便用户二次调取,通过触摸屏进行投影,令使用者像“照镜子”一样看到自己的脸呈现在触摸屏上,达到较为真实的虚拟场景。
步骤20,触摸一键显示隐藏触摸开关47,使化妆模型3从收纳状态显现,如图5所示。
步骤22,对系统妆容库中的妆容进行选择,如选择系统妆容,则调取选定的妆容信息,之后进入步骤30进行AR化妆;如不选择系统妆容,则进入步骤26。该步骤并非必须。
步骤26,选择是否使用使用者个人化妆品进行化妆,若选择是,则发出指令,使后续AR化妆操作仅在个人化妆品信息中调取数据;若选择否,则可在系统化妆品库中调取化妆品数据。该步骤并非必须。
步骤30,AR化妆;使用化妆笔5在化妆模型3上模拟化妆,化妆时可以采用不同力度,在化妆笔的笔头部形成一定压力;系统通过化妆模型3上的触摸传感器可以确定化妆位置,然后通过上述算法与使用者的脸型进行转换,并可以化妆笔5的压力传感器感知的压力,在化妆镜上的人脸图像以选定的化妆品信息进行模拟化妆,从而达到模拟现实化妆的效果。对于使用者来说,其看到的就是化妆镜中自己的脸上出现了化妆效果,从而达到“照镜子”的感官效果。反复进行此步骤,即可对脸部各个部位完成模拟化妆。
此步骤,如果选用了步骤22的系统妆容进行化妆,则使用者根据系统妆容信息,选择指定的化妆笔,采用指定的化妆品信息进行AR化妆。
如果在步骤22是不选用系统妆容,则进行自主化妆,使用者将自行选择化妆笔,并在步骤26中选定的化妆品库中选定虚拟化妆品,进行AR化妆。
步骤40,每次化妆时系统可以进行自动录像,并可存储在个人的妆容库中。对无操作录像进行周期性删除,并可以通过触摸屏对录像进行观看,拷贝等操作。
步骤50,个人发化妆品信息录入,在任意时刻,使用者可以对其个人现实世界的化妆品进行数据化,即将化妆品信息存储于化妆品信息模块中。在此,化妆品信息可以将系统虚拟化妆品信息和使用者个人现实世界化妆品信息分开存储,以便可以令使用者使用自己现实世界的化妆品进行虚拟模拟化妆,以达到无消耗试妆的效果。
以上所述,仅是本发明的较佳实施例而已,并非对本发明的技术范围作任何限制,故但凡依本发明的权利要求和说明书所做的变化或修饰,皆应属于本发明专利涵盖的范围之内。
Claims (10)
1.一种模拟化妆方法,其特征在于包括如下步骤:
一、预设一化妆模型,该化妆模型为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器;
二、通过摄像头采集使用者人脸图像或者化妆模型图像,并传输到中央处理单元,同时将人脸图像显示于显示屏上;
三、由中央处理单元对人脸图像或者化妆模型图像进行处理,对人脸进行识别,之后对脸部特征进行定位;然后将使用者人脸特征与化妆模型的脸部特征相匹配获得匹配信息;
四、触摸化妆模型需要化妆部位,其相应位置的触摸传感器将信号传送给中央处理单元,中央处理单元根据步骤三的匹配信息将化妆模型感应位置转换到人脸图像的相对应位置处,再根据所选定的虚拟化妆品信息在人脸图像上进行模拟化妆,并显示在显示屏上。
2.根据权利要求1所述的一种模拟化妆方法,其特征在于:所述步骤三中,对人脸进行识别可以采用肤色识别法,建立肤色统计模型;而对人脸或脸部特征进行定位的算法可以采用灰度投影法,根据五官的不同位置特征对五官进行定位;对匹配信息获得方法,可以根据五官位置信息以五官为基点对化妆模型上的点进行坐标修正,从而达到化妆位置相互符合;所述步骤四中,模拟化妆可以采用AR化妆技术,即先与人的五官进行匹配,而后进行图层覆盖。
3.根据权利要求1所述的一种模拟化妆方法,其特征在于:所述步骤四中,使用可以触发化妆模型的触摸传感器的化妆笔进行模拟化妆;且该化妆笔上可以设有可感知笔头部压力的压力传感器,该压力传感器与中央处理单元相连,中央处理单元根据压力大小,控制虚拟化妆品以相应压力信息模拟化妆。
4.一种模拟化妆系统,其特征在于:包括摄像头、显示屏、化妆模型及中央处理单元;
所述摄像头用于对人脸图像或化妆模型图像进行采集,并将采集图像传输给中央处理单元;
所述显示屏用于显示人脸图像;
所述化妆模型为实物模型,其至少具有脸部模型,并在脸部模型表层密布有触摸传感器;
所述的中央处理单元包括图像处理模块、匹配识别模块、触摸感应模块、模拟化妆模块以及存储模块;所述图像处理模块对人脸图像或化妆模型图像进行处理并按脸部特征进行定位;所述匹配识别模块用于将使用者人脸特征与化妆模型的脸部特征相匹配获得匹配信息;所述触摸感应模块用于接收所述触摸传感器的感应信号,并将感应位置转换到人脸图像的相对应位置处;所述模拟化妆模块根据人脸图像定位信息及选定的化妆品信息在人脸图像上进行AR化妆;所述存储模块用于存储人脸信息、化妆模型脸部信息以及化妆品信息。
5.根据权利要求4所述的一种模拟化妆系统,其特征在于:进一步包括化妆笔,该化妆笔具有可以触发所述化妆模型的触摸传感器的笔头部;且该笔头部可以为刷状体、唇膏头状体或眉笔头状体。
6.根据权利要求5所述的一种模拟化妆系统,其特征在于:所述化妆笔设有可以感知笔头部压力的压力传感器,该压力传感器与所述中央处理单元相连。
7.根据权利要求5所述的一种模拟化妆系统,其特征在于:所述化妆笔还包括笔杆,该笔杆为中空,其内安装有压力传感器、将笔刷压力导入给压力传感器的压力导入管、信号传输模块芯片及供电装置;所述的压力传感器通过一基座安装在笔杆内,其传感器引脚通过导线连接至信号传输模块芯片,该信号传输模块芯片与所述的中央处理单元通过无线或者有线方式连接。
8.一种应用如权利要求5-7任一所述一种模拟化妆系统的智能化妆台,其特征在于:该化妆台包括化妆台主体;所述的显示屏为内置所述摄像头的触摸屏,其设置在所述化妆台主体的台面上;所述的化妆模型放置于所述化妆台主体的台面上,或者可升降地设置于该化妆台主体的置物柜内;所述的中央处理单元设置在化妆台主体上,该中央处理单元还设有置于台面上的控制面板及启动开关,该控制面板上设有用于传输信号的信息传输模块。
9.根据权利要求8所述的一种智能化妆台,其特征在于:所述的触摸屏嵌置于所述化妆主体上的触摸屏框架中,该触摸屏框架上设置有若干LED灯;所述的控制面板上还可以设置有化妆笔充电接口、可充电电源模块或化妆笔嵌置槽。
10.一种使用权利要求8或9所述的智能化妆台的模拟化妆方法,其特征在于包括如下步骤:
步骤10,摄像头进行人脸信息采集,并通过触摸屏进行投影;
步骤20,打开启动开关;
步骤30,AR化妆;使用化妆笔在化妆模型上模拟化妆,系统通过化妆模型上的触摸传感器可以确定化妆位置,然后与使用者的脸型进行转换,在触摸屏上的人脸图像上,以选定的化妆品信息进行模拟化妆,从而达到模拟现实化妆的效果;反复进行此步骤,即可对脸部各个部位完成模拟化妆;
在步骤30之前,可以进行步骤22,对系统妆容库中的妆容进行选择,如选择系统妆容,则调取选定的妆容信息,进入步骤30进行AR化妆;
在步骤30之前,可以进行步骤26,选择是否使用使用者个人化妆品进行化妆,若选择是,则发出指令,使后续AR化妆操作仅在个人化妆品信息中调取数据;若选择否,则可在系统化妆品库中调取化妆品数据;
还可以进一步包括步骤40,每次化妆时系统可以进行自动录像,并可存储在个人的妆容库中;
还可以进一步包括步骤50,个人发化妆品信息录入,在任意时刻,使用者可以对其个人现实世界的化妆品进行数据化,即将化妆品信息存储于化妆品信息模块中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211566191.9A CN115904191A (zh) | 2022-12-07 | 2022-12-07 | 一种模拟化妆方法、模拟化妆系统及智能化妆台 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211566191.9A CN115904191A (zh) | 2022-12-07 | 2022-12-07 | 一种模拟化妆方法、模拟化妆系统及智能化妆台 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115904191A true CN115904191A (zh) | 2023-04-04 |
Family
ID=86493657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211566191.9A Pending CN115904191A (zh) | 2022-12-07 | 2022-12-07 | 一种模拟化妆方法、模拟化妆系统及智能化妆台 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115904191A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116301531A (zh) * | 2023-05-23 | 2023-06-23 | 世优(北京)科技有限公司 | 基于虚拟数字人的化妆方法、装置及系统 |
CN117834838A (zh) * | 2024-03-05 | 2024-04-05 | 成都白泽智汇科技有限公司 | 一种双目视觉检测投影设备及检测投影方法 |
-
2022
- 2022-12-07 CN CN202211566191.9A patent/CN115904191A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116301531A (zh) * | 2023-05-23 | 2023-06-23 | 世优(北京)科技有限公司 | 基于虚拟数字人的化妆方法、装置及系统 |
CN116301531B (zh) * | 2023-05-23 | 2023-08-11 | 世优(北京)科技有限公司 | 基于虚拟数字人的化妆方法、装置及系统 |
CN117834838A (zh) * | 2024-03-05 | 2024-04-05 | 成都白泽智汇科技有限公司 | 一种双目视觉检测投影设备及检测投影方法 |
CN117834838B (zh) * | 2024-03-05 | 2024-05-14 | 成都白泽智汇科技有限公司 | 一种双目视觉检测投影设备及检测投影方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363867B (zh) | 虚拟装扮系统、方法、设备及介质 | |
CN115904191A (zh) | 一种模拟化妆方法、模拟化妆系统及智能化妆台 | |
WO2021147920A1 (zh) | 一种妆容处理方法、装置、电子设备及存储介质 | |
JP3984191B2 (ja) | 仮想化粧装置及びその方法 | |
JP4435809B2 (ja) | 仮想化粧装置及びその方法 | |
CN109086706B (zh) | 应用于人机协作中的基于分割人体模型的动作识别方法 | |
CN106056064B (zh) | 一种人脸识别方法及人脸识别装置 | |
Liao et al. | Automatic caricature generation by analyzing facial features | |
CN106127181B (zh) | 一种虚拟试戴美甲的方法、系统 | |
WO2017110041A1 (ja) | メイクパーツ作成装置、メイクパーツ利用装置、メイクパーツ作成方法、メイクパーツ利用方法、メイクパーツ作成プログラム、およびメイクパーツ利用プログラム | |
CN109690617A (zh) | 用于数字化妆镜的系统和方法 | |
CN111783511A (zh) | 美妆处理方法、装置、终端以及存储介质 | |
CN104407694A (zh) | 一种结合人脸和手势控制的人机交互方法及装置 | |
CN108874145A (zh) | 一种图像处理方法、计算设备及存储介质 | |
CN111475667A (zh) | 一种基于手写汉字的机械臂楷体风格书法撰写方法 | |
CN105718885B (zh) | 一种人脸特征点跟踪方法 | |
CN108537126A (zh) | 一种人脸图像处理系统及方法 | |
CN111414837A (zh) | 手势识别方法、装置、计算机设备及存储介质 | |
CN106650628B (zh) | 一种基于三维k曲率的指尖检测方法 | |
CN110110603A (zh) | 一种基于面部生理信息的多模态唇读方法 | |
Zhao et al. | Skeleton-based dynamic hand gesture recognition using 3d depth data | |
CN113344837B (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
CN107169449A (zh) | 基于深度传感器的中文手语翻译方法 | |
CN109359543B (zh) | 一种基于骨骼化的人像检索方法及装置 | |
CN109965493A (zh) | 一种分屏交互展示方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |