CN111966852A - 基于人脸的虚拟整容的方法和装置 - Google Patents
基于人脸的虚拟整容的方法和装置 Download PDFInfo
- Publication number
- CN111966852A CN111966852A CN202010598723.1A CN202010598723A CN111966852A CN 111966852 A CN111966852 A CN 111966852A CN 202010598723 A CN202010598723 A CN 202010598723A CN 111966852 A CN111966852 A CN 111966852A
- Authority
- CN
- China
- Prior art keywords
- face
- target
- lifting
- pixel point
- target pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000008859 change Effects 0.000 claims abstract description 30
- 238000012216 screening Methods 0.000 claims abstract description 18
- 230000015654 memory Effects 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 238000012502 risk assessment Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 25
- 230000000007 visual effect Effects 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003796 beauty Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- KIUKXJAPPMFGSW-DNGZLQJQSA-N (2S,3S,4S,5R,6R)-6-[(2S,3R,4R,5S,6R)-3-Acetamido-2-[(2S,3S,4R,5R,6R)-6-[(2R,3R,4R,5S,6R)-3-acetamido-2,5-dihydroxy-6-(hydroxymethyl)oxan-4-yl]oxy-2-carboxy-4,5-dihydroxyoxan-3-yl]oxy-5-hydroxy-6-(hydroxymethyl)oxan-4-yl]oxy-3,4,5-trihydroxyoxane-2-carboxylic acid Chemical compound CC(=O)N[C@H]1[C@H](O)O[C@H](CO)[C@@H](O)[C@@H]1O[C@H]1[C@H](O)[C@@H](O)[C@H](O[C@H]2[C@@H]([C@@H](O[C@H]3[C@@H]([C@@H](O)[C@H](O)[C@H](O3)C(O)=O)O)[C@H](O)[C@@H](CO)O2)NC(C)=O)[C@@H](C(O)=O)O1 KIUKXJAPPMFGSW-DNGZLQJQSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 229920002674 hyaluronan Polymers 0.000 description 1
- 229960003160 hyaluronic acid Drugs 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Library & Information Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于人脸的虚拟整容的方法和装置,涉及计算机视觉领域、人工智能领域和图像处理领域,其中,具体实现方案为:获取人脸图像中的整容部位;查询预设的模板数据库,获取与整容部位对应的样本部位集合;计算整容部位与样本部位集合中每个样本部位之间的相似度,根据相似度筛选出目标样本部位;获取目标样本部位上的第一目标像素点以及对应的像素特征变化参数;在整容部位中确定与第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。由此,实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
Description
技术领域
本申请涉及计算机视觉领域、人工智能领域和图像处理领域,尤其涉及一种基于人脸的虚拟整容的方法和装置。
背景技术
随着生活水平的提高,人们对自身颜值的要求也越来越高。传统的医美产品(如注射玻尿酸、隆鼻、切开双眼皮等),用户需在线下进行相应的注射或微型手术,经过一段时间后才可获知的美容效果。
通常,人们对医美产品的使用效果主要是参考他人的使用情况进行判别的,无法直观的看到自己的使用效果,极大的降低了产品的转化率。
发明内容
本申请的提出一种基于人脸的虚拟整容的方法和装置。实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
根据第一方面,提供了一种基于人脸的虚拟整容的方法,包括:获取人脸图像中的整容部位;查询预设的模板数据库,获取与所述整容部位对应的样本部位集合;按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,根据所述相似度筛选出满足预设要求的目标样本部位;获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数;在所述整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据所述像素特征变化参数,调整所述第二目标像素点生成虚拟整容的人脸图像。
根据第二方面,提供了一种基于人脸的虚拟整容的装置,包括:第一获取模块,用于获取人脸图像中的整容部位;第二获取模块,用于查询预设的模板数据库,获取与所述整容部位对应的样本部位集合;筛选模块,用于按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,根据所述相似度筛选出满足预设要求的目标样本部位;第三获取模块,用于获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数;调整模块,用于在所述整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据所述像素特征变化参数,调整所述第二目标像素点生成虚拟整容的人脸图像。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例描述的基于人脸的虚拟整容的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述实施例描述的基于人脸的虚拟整容的方法。
本申请提供的技术方案,至少具备如下附加的技术特征:
获取人脸图像中的整容部位后,在预设的模板数据库中,获取与整容部位相似的目标样本部位,获取目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数,进而,在整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。由此,实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的基于人脸的虚拟整容的方法的流程示意图;
图2是根据本申请第二实施例的整容部位选择界面示意图;
图3是根据本申请第三实施例的目标样本部位选择场景示意图;
图4是根据本申请第四实施例的基于人脸的虚拟整容的方法的应用场景示意图;
图5是根据本申请第五实施例的基于人脸的虚拟整容的方法的流程示意图;
图6是根据本申请第六实施例的基于人脸的虚拟整容的方法的流程示意图;
图7是根据本申请第七实施例的目标整容样本部位确认场景示意图;
图8是根据本申请第八实施例的基于人脸的虚拟整容的方法的流程示意图;
图9是根据本申请第九实施例的基于人脸的虚拟整容的方法的流程示意图;
图10是根据本申请第十实施例的基于人脸的虚拟整容的装置的结构示意图;
图11是可以实现本申请实施例的基于人脸的虚拟整容方法的场景图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
基于上述背景技术中提到的,用户无法获知自己使用医美产品后的整容效果,从而影响产品的购买转化率的问题,本申请提出一种可贴近用户的人脸情况,直观显示整容效果的方案,在该方案中,可以显示出与用户的人脸情况相符的整容效果,降低用户的产品使用担忧,从而提高了产品的使用或者购买转化率。
具体而言,图1是根据本申请第一实施例的基于人脸的虚拟整容的方法的流程图,如图1所示,该方法包括:
步骤101,获取人脸图像中的整容部位。
其中,人脸图像主要通过摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的扣图得到的。
需要说明的是,在不同的应用场景中,获取人脸图像中的整容部位的方式不同,示例说明如下:
示例一:
在本示例中,如图2所示,显示包含人脸图像的选择界面,该选择界面上包含不同部位的选择控件,根据用户的触发操作选择对应的整容部位。
示例二:
在本示例中,获取与人脸图像对应的用户历史搜索记录,根据用户的历史搜索记录分析用户的整容喜好信息,根据用户的整容喜好信息确定整容部位,比如,用户历史搜索记录集中在“如何让鼻子变得挺翘”,“鼻子怎么变好看”等,则分析用户的整容喜好信息为“鼻子”,从而将“鼻子”作为整容部位。
步骤102,查询预设的模板数据库,获取与整容部位对应的样本部位集合。
可以理解的是,在预设的模板数据库中存储有多个样本部位,该样本部位覆盖了人脸的各个部位,其中,多个样本部位对应于真实的整容初始部位,都可以查询到对应的整容后的情况,因此,在本实施例中,查询预设的模板数据库,获取与整容部位对应的样本部位集合,其中,该样本部位集合可以包含与整容部位属于同一个部位的多个样本部位。
需要说明的是,在不同的应用场景中,查询预设的模板数据库,获取与整容部位对应的样本部位集合的方式不同,示例如下:
作为一种可能的实现方式,确定整容部位的部位类型,可以根据用户在整容部位的选择界面上选择的控件标识确定部位类型,也可以根据整容部位对应的图像特征确定部位类型,进而,可以理解,预设的模板数据库中每个样本部位都有对应的部位类型标识,从而,根据该部位类型标识在所述模板数据库中确定与部位类型相同的样本部位,并根据样本部位确定样本部位集合。
作为另一种可能的实现方式,可以提取整容部位的粗粒度的部位特征,比如根据整容部位的一些关键点之间的特征,确定整容部位的所属形状类别,比如对于鼻子而言,根据鼻尖和鼻梁处的预设关键点之间的角度等确定鼻子是属于“塌鼻子”还是“翘鼻子”等。进而,在预设的模板数据库中确定与该整容部位的所属形状类别,确定属于所属形状类别的样本部位集合。
步骤103,按照预设算法计算整容部位与样本部位集合中每个样本部位之间的相似度,根据相似度筛选出满足预设要求的目标样本部位。
由于样本部位集合中每个样本部位与整容部位的接近程度不一样,越是与整容部位接近的样本部位,其对应的整容效果越是与整容部位对应的整容效果类似,因此,为了能够保证估计的整容效果的真实性,如图3所示,按照预设算法计算整容部位与样本部位集合中每个样本部位之间的相似度,根据相似度筛选出满足预设要求的目标样本部位。也就是说,将与整容部位接近的样本部位作为目标样本部位。
其中,整容部位与样本部位集合中每个样本部位之间的相似度可以为反应形状的接近程度的相似度,也可以为肤色的相似度等,当显示度大于一定值则认为满足上述相似度对应的预设要求。
步骤104,获取目标样本部位上的第一目标像素点,以及获取预设的与第一目标像素点对应的像素特征变化参数。
正如以上提到的,样本部位是历史整容过的部位,因此,必然知道样本部位整容后的情况,其中,在本实施例中,以预设的与第一目标像素点对应的像素特征变化参数反映目标样本部位整容后的情况,从而,可以获取目标样本部位上的第一目标像素点,以及获取预设的与第一目标像素点对应的像素特征变化参数,该像素特征变化参数包括但不限于像素位移、像素颜色、像素深度等中的一种或多种。
步骤105,在整容部位中确定与第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。
由于目标样本部位与整容部位最相似,因此,基于计算机视觉领域,可以将目标样本部位的整容效果映射在整容部位中,一方面保证了真实性,另一方面避免了对每个整容部位进行算法预估,导致计算效率较低。
在本实施例中,在整容部位中确定与第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。比如,当像素特征变化参数为坐标位移时,则可以根据坐标位移,调整第二目标像素点的坐标位移。
其中,在整容部位中确定与第一目标像素点对应的第二目标像素点,即在整容部位中找到与第一目标像素点对应的点,比如,第一目标像素点为鼻尖点和鼻翼点,则第二目标像素点必然也是整容部位的鼻尖点和鼻翼点。其中,第一目标像素点可以为预设的多个与目标样本部位的部位类型对应的关键点,比如,当目标样本部位为嘴巴,则对应的第一目标像素点为唇峰点、唇角点等,也可以为当前部位中包含的所有的像素点。
在一些可能的实施例中,可以将整容部位输入预先训练的深度学习模型,基于深度学习技术确定第二目标像素点所在的位置。
在另一些可能的实施例中,可以通过对人脸图像的轮廓分析,基于图像轮廓定位出第二目标像素点,比如,位于鼻子下方外边缘的点为鼻翼点等。
由此,如图4所示(图中黑色圆点表示对应的像素点),基于预设的模板数据库中与用户的整容部位最相似的目标样本部位后,基于目标样本部位对应的像素特征变化参数,调整整容部位中与第一目标像素点对应的第二目标像素点,生成虚拟整容的人脸图像,直观的给用户以整容效果的展示。
综上,本申请实施例的基于人脸的虚拟整容的方法,获取人脸图像中的整容部位后,在预设的模板数据库中,获取与整容部位相似的目标样本部位,获取目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数,进而,在整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。由此,实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
在实际执行过程中,上述步骤103提到的按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,在不同的应用场景中有不同的实现方式,下面示例说明如下:
示例一:
在本示例中,如图5所示,步骤按照预设算法计算整容部位与样本部位集合中每个样本部位之间的相似度,包括:
步骤201,提取整容部位的第一图像特征。
其中,整容部位的第一图像特征可以包括,反应形状的整容部位的轮廓像素点之间的角度特征、预设关键点之间的距离特征等。
步骤202,提取多个模板部位中的每个样本部位的第二图像特征。
其中,第二图像特征与第一图像特征对应,可以包括,反应形状的整容部位的轮廓像素点之间的角度特征、预设关键点之间的距离特征等。
步骤203,计算第一图像特征与第二图像特征的相似度。
可以确定第一图像特征与第二图像特征的矩阵,通过计算矩阵之间的距离确定相似度等。
示例二:
在本示例中,如图6所示,步骤按照预设算法计算整容部位与样本部位集合中每个样本部位之间的相似度,包括:
步骤301,识别整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标。
其中,目标关键点可以与整容部位的整容类型对应,比如,当整容部位为嘴巴,则对应的目标关键点为唇峰点、唇角点等。参考关键点可以理解对整容部位的形状贡献度稍微较低的点,比如,当整容部位为嘴巴,则对应的参考关键点为上嘴唇和下嘴唇想接触的点等
在本实施例中,识别整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标的方式可以通过人工智能领域中的模型训练得到,比如悬链得到一个识别整容部位中的第一坐标,和参考关键点的第二坐标的模型,将该整容部位的图像区域输入到该模型,即可获取第一坐标和第二坐标,又比如,该第一坐标和第二坐标也可以通过图像处理领域中的图像识别技术得到,比如,通过识别像素点所在脸部的位置以及在整容部位的轮廓的位置等确定第一坐标和第二坐标。
步骤302,计算第一坐标和第二坐标之间的第一角度。
其中,第一坐标和第二坐标之间的第一角度从某些程度上反应了整容部位的形状,在实际执行过程中,该整容部位可以是三维的也可以为二维的,当是二维时,假设整容部位为鼻子,则如图7所示,基于目标关键点1和参考关键点2-8之间的角度,可以反应鼻子的形状。
当整容部位是三维形式时,还可以结合第一坐标和第二坐标之间的角度和深度值来计算对应的鼻子的形状。
步骤303,识别每个样本部位中的目标关键点的第三坐标,和参考关键点的第四坐标。
步骤304,计算第三坐标和第四坐标之间的第二角度。
基于同样的方式,识别每个样本部位中的目标关键点的第三坐标,和参考关键点的第四坐标,以及计算第三坐标和第四坐标之间的第二角度。
步骤305,计算第一角度和第二角度的角度差值。
在本实施例中,计算第一角度和第二角度的角度差值,参照图7,当参考关键点为多个时,将目标关键点和每个参考关键点之间的第一角度,与在样本部位中的对应的第二角度计算参考角度差值,计算每个参考关键点的权重,将参考关键点的权重和参考角度差值乘积得到乘积值,将所有参考关键点的乘积值之和的均值作为第一角度和第二角度的角度差值。
综上,本申请实施例的基于人脸的虚拟整容的方法,可以基于不同的参数计算整容部位与样本部位集合中每个样本部位之间的相似度,确保找出的目标样本部位与整容部位接近,提高了提供的整容效果的预估的可靠性。
在实际应用中,步骤104中的获取目标样本部位上的第一目标像素点,以及获取预设的与第一目标像素点对应的像素特征变化参数的方式,在不同的应用场景中,也有不同的实现方式,示例说明如下:
示例一:
在本示例中,如图8所示,步骤104包括:
步骤401,获取与目标样本部位对应的整容模型。
步骤402,将目标样本部位输入整容模型,获取整容后的目标整容部位。
可以理解,预先根据大量样本数据训练得到整容模型,该整容模型可以基于目标样本部位得到对应的目标整容部位。
步骤403,获取目标样本部位上的第一目标像素点,并确定第一目标像素点的第一像素特征。
在本实施例中,获取目标样本部位上的第一目标像素点,并确定第一目标像素点的第一像素特征,其中,该第一像素特征可以包括但不限于像素位移、像素颜色、像素深度等中的一种或多种。
步骤404,在目标整容部位中确定与第一目标像素点对应的第三目标像素点,并确定第三目标像素点的第二像素特征。
其中,确定与第三目标像素点和第二像素特征的方式,可以参照上述第二目标像素点的确定方式,在此不再赘述。
步骤405,根据第一图像特征和第二图像特征确定与第一目标像素点对应的像素特征变化参数。
由于第二图像特征反应了目标样本部位整容后的效果,因此,可以根据第一图像特征和第二图像特征确定与第一目标像素点对应的像素特征变化参数。
示例二:
在本示例中,如图9所示,步骤104包括:
步骤501,获取目标样本部位上的第一目标像素点。
步骤502,查询预设数据库,获取与第一目标像素点对应的像素特征变化参数。
在本实施例中,为了提高效率,在预设数据库中,存储第一目标像素点和对应的像素特征变化参数的对应关系,从而,查询预设数据库,获取与第一目标像素点对应的像素特征变化参数。
在实际应用中,用户更为关心的是手术风险,因此,在本申请一个实施例中,预先根据大量样本数据设置风险评估模型,该风险评估模型可以根据目标样本部位和像素特征变化参数,获取包含风险等级、手术成功率、术后后遗症等信息的风险提醒信息,进而,向用户反馈风险提醒信息,以进一步提升用户体验。
综上,本申请实施例的基于人脸的虚拟整容的方法,基于与第一目标像素点对应的像素特征变化参数调整整容部位,区别于美颜贴图技术,实现了在整容领域的效果预览。
为了实现上述实施例,本申请还提出了一种基于人脸的虚拟整容的装置。图10是根据本申请一个实施例的基于人脸的虚拟整容的装置的结构示意图,如图10所示,该基于人脸的虚拟整容的装置包括:第一获取模块110、第二获取模块120、筛选模块130、第三获取模块140和调整模块150,其中,第一获取模块110,用于获取人脸图像中的整容部位;
第二获取模块120,用于查询预设的模板数据库,获取与整容部位对应的样本部位集合;
筛选模块130,用于按照预设算法计算整容部位与样本部位集合中每个样本部位之间的相似度,根据相似度筛选出满足预设要求的目标样本部位;
第三获取模块140,用于获取目标样本部位上的第一目标像素点,以及获取预设的与第一目标像素点对应的像素特征变化参数;
调整模块150,用于在整容部位中确定与第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。
在本申请的一个实施例中,筛选模块130,具体用于:
提取整容部位的第一图像特征;
提取多个模板部位中的每个样本部位的第二图像特征;
计算第一图像特征与第二图像特征的相似度。
需要说明的是,前述对人脸的虚拟整容的方法的解释说明,也适用于该实施例的人脸的虚拟整容的装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的基于人脸的虚拟整容的装置,获取人脸图像中的整容部位后,在预设的模板数据库中,获取与整容部位相似的目标样本部位,获取目标样本部位上的第一目标像素点,以及获取预设的与第一目标像素点对应的像素特征变化参数,进而,在整容部位中确定与第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。由此,实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
在实际执行过程中,上述筛选模块130在不同的应用场景中有不同的实现方式,下面示例说明如下:
示例一:
在本示例中,
筛选模块130,具体用于:
识别整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标;
计算第一坐标和第二坐标之间的第一角度;
识别每个样本部位中的目标关键点的第三坐标,和参考关键点的第四坐标;
计算第三坐标和第四坐标之间的第二角度;
计算第一角度和第二角度的角度差值。
示例二:
在本示例中,筛选模块130,具体用于:
识别整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标。
其中,目标关键点可以与整容部位的整容类型对应,比如,当整容部位为嘴巴,则对应的目标关键点为唇峰点、唇角点等。参考关键点可以理解对整容部位的形状贡献度稍微较低的点,比如,当整容部位为嘴巴,则对应的参考关键点为上嘴唇和下嘴唇想接触的点等
在本实施例中,识别整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标的方式可以通过人工智能领域中的模型训练得到,比如悬链得到一个识别整容部位中的第一坐标,和参考关键点的第二坐标的模型,将该整容部位的图像区域输入到该模型,即可获取第一坐标和第二坐标,又比如,该第一坐标和第二坐标也可以通过图像处理领域中的图像识别技术得到,比如,通过识别像素点所在脸部的位置以及在真人工部位的轮廓的位置等确定第一坐标和第二坐标。
筛选模块130计算第一坐标和第二坐标之间的第一角度。
进而,筛选模块130识别每个样本部位中的目标关键点的第三坐标,和参考关键点的第四坐标,计算第三坐标和第四坐标之间的第二角度。
基于同样的方式,识别每个样本部位中的目标关键点的第三坐标,和参考关键点的第四坐标,以及计算第三坐标和第四坐标之间的第二角度。
筛选模块130计算第一角度和第二角度的角度差值。
在本实施例中,计算第一角度和第二角度的角度差值,参照图7,当参考关键点为多个时,将目标关键点和每个参考关键点之间的第一角度,与在样本部位中的对应的第二角度计算参考角度差值,计算每个参考关键点的权重,将参考关键点的权重和参考角度差值乘积得到乘积值,将所有参考关键点的乘积值之和的均值作为第一角度和第二角度的角度差值。
综上,本申请实施例的基于人脸的虚拟整容的装置,可以基于不同的参数计算整容部位与样本部位集合中每个样本部位之间的相似度,确保找出的目标样本部位与整容部位接近,提高了提供的整容效果的预估的可靠性。
在实际应用中,第三获取模块140在不同的应用场景中,也有不同的实现方式,示例说明如下:
示例一:
在本示例中,
第三获取模块140,具体用于:
获取与目标样本部位对应的整容模型;
将目标样本部位输入整容模型,获取整容后的目标整容部位;
获取目标样本部位上的第一目标像素点,并确定第一目标像素点的第一像素特征;
在目标整容部位中确定与第一目标像素点对应的第三目标像素点,并确定第三目标像素点的第二像素特征;
根据第一图像特征和第二图像特征确定与第一目标像素点对应的像素特征变化参数。
示例二:
在本示例中,
第三获取模块,具体用于:
获取目标样本部位上的第一目标像素点;
查询预设数据库,获取与第一目标像素点对应的像素特征变化参数。
综上,本申请实施例的基于人脸的虚拟整容的装置,基于与第一目标像素点对应的像素特征变化参数调整整容部位,区别于美颜贴图技术,实现了在整容领域的效果预览。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图11所示,是根据本申请实施例的基于人脸的虚拟整容的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图11所示,该电子设备包括:一个或多个处理器1101、存储器1102,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图11中以一个处理器1101为例。
存储器1102即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的基于人脸的虚拟整容的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的基于人脸的虚拟整容的方法。
存储器1102作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的基于人脸的虚拟整容的方法对应的程序指令/模块(例如,附图10所示的第一获取模110、第二获取模块120、筛选模块130、第三获取模块140和调整模块150)。处理器1101通过运行存储在存储器1102中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于人脸的虚拟整容的方法。
存储器1102可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于人脸的虚拟整容的电子设备的使用所创建的数据等。此外,存储器1102可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1102可选包括相对于处理器1101远程设置的存储器,这些远程存储器可以通过网络连接至基于人脸的虚拟整容的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于人脸的虚拟整容的方法的电子设备还可以包括:输入装置1103和输出装置1104。处理器1101、存储器1102、输入装置1103和输出装置1104可以通过总线或者其他方式连接,图11中以通过总线连接为例。
输入装置1103可接收输入的数字或字符信息,以及产生与基于人脸的虚拟整容的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1104可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
本申请实施例的基于人脸的虚拟整容的方法,获取人脸图像中的整容部位后,在预设的模板数据库中,获取与整容部位相似的目标样本部位,获取目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数,进而,在整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据像素特征变化参数,调整第二目标像素点生成虚拟整容的人脸图像。由此,实现了对整容效果的直观展示,展示的整容效果是参考与用户的整容部位最相似的历史数据生成的,可靠性高,贴合用户的真实人脸情况。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (15)
1.一种基于人脸的虚拟整容的方法,包括:
获取人脸图像中的整容部位;
查询预设的模板数据库,获取与所述整容部位对应的样本部位集合;
按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,根据所述相似度筛选出满足预设要求的目标样本部位;
获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数;
在所述整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据所述像素特征变化参数,调整所述第二目标像素点生成虚拟整容的人脸图像。
2.如权利要求1所述的方法,其中,所述查询预设的模板数据库,获取与所述整容部位对应的样本部位集合,包括:
确定所述整容部位的部位类型;
在所述模板数据库中确定与所述部位类型相同的样本部位;
根据所述样本部位确定所述样本部位集合。
3.如权利要求1所述的方法,其中,所述按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,包括:
提取所述整容部位的第一图像特征;
提取多个模板部位中的每个样本部位的第二图像特征;
计算所述第一图像特征与所述第二图像特征的相似度。
4.如权利要求1所述的方法,其中,所述按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,包括:
识别所述整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标;
计算所述第一坐标和所述第二坐标之间的第一角度;
识别所述每个样本部位中的所述目标关键点的第三坐标,和所述参考关键点的第四坐标;
计算所述第三坐标和所述第四坐标之间的第二角度;
计算所述第一角度和所述第二角度的角度差值。
5.如权利要求1所述的方法,其中,所述获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数,包括:
获取与所述目标样本部位对应的整容模型;
将所述目标样本部位输入所述整容模型,获取整容后的目标整容部位;
获取所述目标样本部位上的第一目标像素点,并确定所述第一目标像素点的第一像素特征;
在所述目标整容部位中确定与所述第一目标像素点对应的第三目标像素点,并确定所述第三目标像素点的第二像素特征;
根据所述第一图像特征和所述第二图像特征确定所述与所述第一目标像素点对应的像素特征变化参数。
6.如权利要求1所述的方法,其中,所述获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数,包括:
获取所述目标样本部位上的第一目标像素点;
查询预设数据库,获取与所述第一目标像素点对应的所述像素特征变化参数。
7.如权利要求1所述的方法,其中,当所述像素特征变化参数为坐标位移时,所述根据所述像素特征变化参数,调整所述第二目标像素点生成虚拟整容的人脸图像,包括:
根据所述坐标位移,调整所述第二目标像素点的坐标位移。
8.如权利要求1所述的方法,其中,还包括:
将所述目标样本部位和所述像素特征变化参数输入预设风险评估模型,获取风险提醒信息;
向所述用户反馈所述风险提醒信息。
9.一种基于人脸的虚拟整容的装置,包括:
第一获取模块,用于获取人脸图像中的整容部位;
第二获取模块,用于查询预设的模板数据库,获取与所述整容部位对应的样本部位集合;
筛选模块,用于按照预设算法计算所述整容部位与所述样本部位集合中每个样本部位之间的相似度,根据所述相似度筛选出满足预设要求的目标样本部位;
第三获取模块,用于获取所述目标样本部位上的第一目标像素点,以及获取预设的与所述第一目标像素点对应的像素特征变化参数;
调整模块,用于在所述整容部位中确定与所述第一目标像素点对应的第二目标像素点,根据所述像素特征变化参数,调整所述第二目标像素点生成虚拟整容的人脸图像。
10.如权利要求9所述的装置,其中,所述筛选模块,具体用于:
提取所述整容部位的第一图像特征;
提取多个模板部位中的每个样本部位的第二图像特征;
计算所述第一图像特征与所述第二图像特征的相似度。
11.如权利要求9所述的装置,其中,所述筛选模块,具体用于:
识别所述整容部位中的目标关键点的第一坐标,和参考关键点的第二坐标;
计算所述第一坐标和所述第二坐标之间的第一角度;
识别所述每个样本部位中的所述目标关键点的第三坐标,和所述参考关键点的第四坐标;
计算所述第三坐标和所述第四坐标之间的第二角度;
计算所述第一角度和所述第二角度的角度差值。
12.如权利要求9所述的装置,其中,所述第三获取模块,具体用于:
获取与所述目标样本部位对应的整容模型;
将所述目标样本部位输入所述整容模型,获取整容后的目标整容部位;
获取所述目标样本部位上的第一目标像素点,并确定所述第一目标像素点的第一像素特征;
在所述目标整容部位中确定与所述第一目标像素点对应的第三目标像素点,并确定所述第三目标像素点的第二像素特征;
根据所述第一图像特征和所述第二图像特征确定所述与所述第一目标像素点对应的像素特征变化参数。
13.如权利要求9所述的装置,其中,所述第三获取模块,具体用于:
获取所述目标样本部位上的第一目标像素点;
查询预设数据库,获取与所述第一目标像素点对应的所述像素特征变化参数。
14.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的基于人脸的虚拟整容的方法。
15.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的基于人脸的虚拟整容的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598723.1A CN111966852B (zh) | 2020-06-28 | 2020-06-28 | 基于人脸的虚拟整容的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598723.1A CN111966852B (zh) | 2020-06-28 | 2020-06-28 | 基于人脸的虚拟整容的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111966852A true CN111966852A (zh) | 2020-11-20 |
CN111966852B CN111966852B (zh) | 2024-04-09 |
Family
ID=73360918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010598723.1A Active CN111966852B (zh) | 2020-06-28 | 2020-06-28 | 基于人脸的虚拟整容的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111966852B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113902790A (zh) * | 2021-12-09 | 2022-01-07 | 北京的卢深视科技有限公司 | 美容指导方法、装置、电子设备和计算机可读存储介质 |
CN116864078A (zh) * | 2023-04-24 | 2023-10-10 | 上海麦色信息科技有限公司 | 一种知识库建立方法、系统及存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03170140A (ja) * | 1989-06-26 | 1991-07-23 | Fuji Photo Film Co Ltd | パターン認識装置 |
JP2004164469A (ja) * | 2002-11-15 | 2004-06-10 | Omron Corp | 文字認識方法および文字認識装置 |
JP2004297167A (ja) * | 2003-03-25 | 2004-10-21 | Olympus Corp | 撮像表示装置及び撮像表示システム |
CN101524276A (zh) * | 2008-03-04 | 2009-09-09 | 梁晖 | 整容术前评估整容术后效果的新方法 |
CN107123160A (zh) * | 2017-05-02 | 2017-09-01 | 成都通甲优博科技有限责任公司 | 基于三维立体图像的模拟整容系统、方法及移动终端 |
CN107463373A (zh) * | 2017-07-10 | 2017-12-12 | 北京小米移动软件有限公司 | 图片美颜方法、好友颜值的管理方法和装置 |
CN107506559A (zh) * | 2017-09-08 | 2017-12-22 | 廖海斌 | 基于人脸相似度分析的明星脸整形化妆推荐方法和装置 |
CN108765273A (zh) * | 2018-05-31 | 2018-11-06 | Oppo广东移动通信有限公司 | 人脸拍照的虚拟整容方法和装置 |
CN109191508A (zh) * | 2018-09-29 | 2019-01-11 | 深圳阜时科技有限公司 | 一种模拟整容装置、模拟整容方法及设备 |
WO2019037346A1 (zh) * | 2017-08-25 | 2019-02-28 | 广州视源电子科技股份有限公司 | 优化人脸图片质量评价模型的方法及装置 |
CN109583385A (zh) * | 2018-11-30 | 2019-04-05 | 深圳市脸萌科技有限公司 | 人脸图像处理方法、装置、电子设备及计算机存储介质 |
CN109584151A (zh) * | 2018-11-30 | 2019-04-05 | 腾讯科技(深圳)有限公司 | 人脸美化方法、装置、终端及存储介质 |
CN110503700A (zh) * | 2019-08-26 | 2019-11-26 | 北京达佳互联信息技术有限公司 | 生成虚拟表情的方法、装置、电子设备及存储介质 |
CN111062260A (zh) * | 2019-11-25 | 2020-04-24 | 杭州绿度信息技术有限公司 | 一种面部整容推荐方案自动生成方法 |
-
2020
- 2020-06-28 CN CN202010598723.1A patent/CN111966852B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03170140A (ja) * | 1989-06-26 | 1991-07-23 | Fuji Photo Film Co Ltd | パターン認識装置 |
JP2004164469A (ja) * | 2002-11-15 | 2004-06-10 | Omron Corp | 文字認識方法および文字認識装置 |
JP2004297167A (ja) * | 2003-03-25 | 2004-10-21 | Olympus Corp | 撮像表示装置及び撮像表示システム |
CN101524276A (zh) * | 2008-03-04 | 2009-09-09 | 梁晖 | 整容术前评估整容术后效果的新方法 |
CN107123160A (zh) * | 2017-05-02 | 2017-09-01 | 成都通甲优博科技有限责任公司 | 基于三维立体图像的模拟整容系统、方法及移动终端 |
CN107463373A (zh) * | 2017-07-10 | 2017-12-12 | 北京小米移动软件有限公司 | 图片美颜方法、好友颜值的管理方法和装置 |
WO2019037346A1 (zh) * | 2017-08-25 | 2019-02-28 | 广州视源电子科技股份有限公司 | 优化人脸图片质量评价模型的方法及装置 |
CN107506559A (zh) * | 2017-09-08 | 2017-12-22 | 廖海斌 | 基于人脸相似度分析的明星脸整形化妆推荐方法和装置 |
CN108765273A (zh) * | 2018-05-31 | 2018-11-06 | Oppo广东移动通信有限公司 | 人脸拍照的虚拟整容方法和装置 |
CN109191508A (zh) * | 2018-09-29 | 2019-01-11 | 深圳阜时科技有限公司 | 一种模拟整容装置、模拟整容方法及设备 |
CN109583385A (zh) * | 2018-11-30 | 2019-04-05 | 深圳市脸萌科技有限公司 | 人脸图像处理方法、装置、电子设备及计算机存储介质 |
CN109584151A (zh) * | 2018-11-30 | 2019-04-05 | 腾讯科技(深圳)有限公司 | 人脸美化方法、装置、终端及存储介质 |
CN110503700A (zh) * | 2019-08-26 | 2019-11-26 | 北京达佳互联信息技术有限公司 | 生成虚拟表情的方法、装置、电子设备及存储介质 |
CN111062260A (zh) * | 2019-11-25 | 2020-04-24 | 杭州绿度信息技术有限公司 | 一种面部整容推荐方案自动生成方法 |
Non-Patent Citations (2)
Title |
---|
常伟洲;: "浅谈人脸识别技术的发展与挑战", 中国民商, no. 02 * |
徐昕;梁久祯;: "基于三维矫正和相似性学习的无约束人脸验证", 计算机应用, no. 10 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113902790A (zh) * | 2021-12-09 | 2022-01-07 | 北京的卢深视科技有限公司 | 美容指导方法、装置、电子设备和计算机可读存储介质 |
CN116864078A (zh) * | 2023-04-24 | 2023-10-10 | 上海麦色信息科技有限公司 | 一种知识库建立方法、系统及存储介质 |
CN116864078B (zh) * | 2023-04-24 | 2023-12-12 | 上海麦色信息科技有限公司 | 一种知识库建立方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111966852B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170293364A1 (en) | Gesture-based control system | |
EP3656302A1 (en) | System and method for human gait analysis | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
CN111914628A (zh) | 人脸识别模型的训练方法和装置 | |
CN110659600B (zh) | 物体检测方法、装置及设备 | |
CN111832745B (zh) | 数据增广的方法、装置及电子设备 | |
CN111914629A (zh) | 为人脸识别生成训练数据的方法、装置、设备和存储介质 | |
CN111259751A (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN111968203B (zh) | 动画驱动方法、装置、电子设备及存储介质 | |
CN111966852B (zh) | 基于人脸的虚拟整容的方法和装置 | |
CN111709875B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111738072A (zh) | 目标检测模型的训练方法、装置及电子设备 | |
CN111539347B (zh) | 用于检测目标的方法和装置 | |
CN109976528B (zh) | 一种基于头动调整注视区域的方法以及终端设备 | |
CN112102153A (zh) | 图像的卡通化处理方法、装置、电子设备和存储介质 | |
CN112241716B (zh) | 训练样本的生成方法和装置 | |
CN110569775A (zh) | 一种识别人体姿势的方法、系统、存储介质及电子设备 | |
CN114245155A (zh) | 直播方法、装置及电子设备 | |
CN112001248A (zh) | 主动交互的方法、装置、电子设备和可读存储介质 | |
CN111914630A (zh) | 为人脸识别生成训练数据的方法、装置、设备和存储介质 | |
CN111523467A (zh) | 人脸跟踪方法和装置 | |
KR20160095735A (ko) | 사용자 얼굴의 복합 다중 감정 인식 방법 및 시스템 | |
CN111768485B (zh) | 三维图像的关键点标注方法、装置、电子设备及存储介质 | |
CN112148196A (zh) | 虚拟键盘的显示方法和装置 | |
CN111709288A (zh) | 人脸关键点检测方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |