CN108021308A - 图像处理方法、装置及终端 - Google Patents
图像处理方法、装置及终端 Download PDFInfo
- Publication number
- CN108021308A CN108021308A CN201610976690.3A CN201610976690A CN108021308A CN 108021308 A CN108021308 A CN 108021308A CN 201610976690 A CN201610976690 A CN 201610976690A CN 108021308 A CN108021308 A CN 108021308A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- face feature
- positional information
- display screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000003825 pressing Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 33
- 210000001508 eye Anatomy 0.000 claims description 22
- 210000004709 eyebrow Anatomy 0.000 claims description 13
- 210000001331 nose Anatomy 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 9
- 210000001061 forehead Anatomy 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 210000003128 head Anatomy 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 14
- 230000003796 beauty Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 239000007795 chemical reaction product Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种图像处理方法、装置及终端,其中,图像处理方法包括:检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中,操作包括:触摸操作、按压操作,待处理图像中包括:脸部图像;当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;显示脸部特征对应的图像处理菜单。本发明能够捕捉用户的实时操作,并针对性地提供图像处理菜单,有效实现了点击哪里就美容哪里的直观美颜效果,保证了良好的用户体验性。
Description
技术领域
本发明涉及通信领域,具体而言,涉及一种图像处理方法、装置及终端。
背景技术
目前的相关技术中,终端产品的美颜处理功能分成前期预览阶段处理和拍照后期阶段处理,在经过前期处理阶段后,用户往往对当前照片的美颜效果不满意进而在后期阶段再次进行美颜处理。图1是相关技术中终端产品在执行后期阶段美颜处理时的美容菜单示意图。如图1所示,在后期处理阶段,对人脸美颜处理需要如下步骤:首先启动美颜处理模块并选择要处理的人脸,然后选择屏幕下方的美容菜单,选择不同的美颜方法。例如,通过点击“眼睛”菜单,出现对应的对眼睛处理的按键,或者是拖动条,通过对拖动条的拖动完成对眼睛的美颜处理。通过这种方式分别对人脸不同的部位进行美颜处理(比如:美肤,脸,眼,鼻,嘴),直到达到预期效果。这种处理方法选择步骤较多,美颜步骤不够直观,达不到点击哪里就美容哪里的理想效果,使用便利性不佳,用户体验性较差。
针对相关技术中,图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题,尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种图像处理方法、装置及终端,以至少解决相关技术中图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题。
根据本发明的一个方面,提供了一种图像处理方法,包括:
检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示所述脸部特征对应的图像处理菜单。
优选地,检测显示屏上对待处理图像的操作之前,所述方法还包括:
对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
优选地,得到所述脸部特征与所述显示屏的矩形区域的对应关系,包括:
确定所有所述脸部特征对应的位置坐标,其中,所述脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;
建立所有所述脸部特征对应的位置坐标与所述矩形区域的对应关系。
优选地,根据所述操作对应的位置信息确定与所述操作对应的脸部特征区域,包括:
获取以所述位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;
对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征。
优选地,对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征之后,还包括:
获取以所述位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,所述第二数量大于所述第一数量;
对所述第二图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征的位置区域,其中,所述位置区域包括:所述脸部图像的左半部分、所述脸部图像的右半部分。
根据本发明的另一个方面,还提供了一种图像处理装置,包括:
检测模块,用于检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
确定模块,用于当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示模块,用于显示所述脸部特征对应的图像处理菜单。
优选地,所述装置还包括:
识别模块,用于对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
优选地,所述识别模块包括:
确定单元,用于确定所有所述脸部特征对应的位置坐标,其中,所述脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;
建立单元,用于建立所有所述脸部特征对应的位置坐标与所述矩形区域的对应关系。
优选地,所述确定模块包括:
第一获取单元,用于获取以所述位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;
第一识别单元,用于对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征。
优选地,所述确定模块还包括:
第二获取单元,用于获取以所述位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,所述第二数量大于所述第一数量;
第二识别单元,用于对所述第二图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征的位置区域,其中,所述位置区域包括:所述脸部图像的左半部分、所述脸部图像的右半部分。
根据本发明的另一个方面,还提供了一种图像处理终端,包括:
处理器;
存储器,用于存储所述处理器可执行的指令;
所述处理器用于根据所述存储器中存储的所述指令执行动作,所述动作包括:
检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示屏,用于显示所述脸部特征对应的图像处理菜单。
优选地,所述处理器还用于执行以下动作:
对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
在本发明实施例中,还提供了一种计算机存储介质,该计算机存储介质可以存储有执行指令,该执行指令用于执行上述实施例中的图像处理方法的实现。
通过本发明,检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中待处理图像中包括脸部图像;当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;然后显示脸部特征对应的图像处理菜单,解决了相关技术中,图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题,能够捕捉用户的实时操作,并针对性地提供图像处理菜单,有效实现了点击哪里就美容哪里的直观美颜效果,保证了良好的用户体验性。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是相关技术中美颜菜单的示意图;
图2是根据本发明实施例1的图像处理方法的流程图;
图3是根据本发明实施例1的脸部图像矩形区域划分示意图(一);
图4是根据本发明实施例1的脸部图像矩形区域划分示意图(二);
图5是根据本发明实施例1的根据操作对应的位置信息确定与操作对应的脸部特征区域的流程图;
图6是根据本发明实施例2的图像处理装置的结构框图(一);
图7是根据本发明实施例2的图像处理装置的结构框图(二);
图8是根据本发明实施例2的图像处理终端的结构框图;
图9是根据本发明实施例3的照片美颜处理方法的流程图;
图10是根据本发明实施例3的美颜菜单显示示意图(一);
图11是根据本发明实施例3的美颜菜单显示示意图(二);
图12是根据本发明实施例4的照片美颜处理方法的流程图;
图13是根据本发明实施例5的美颜处理方法的流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种图像处理方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机或移动终端可执行指令的计算机系统或移动终端中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图2是根据本发明实施例1的图像处理方法的流程图,如图1所示,该方法包括:
S202,检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中,操作包括:触摸操作、按压操作,待处理图像中包括:脸部图像;
S204,当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;
S206,显示脸部特征对应的图像处理菜单。
通过上述步骤,检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中待处理图像中包括脸部图像;当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;然后显示脸部特征对应的图像处理菜单,解决了相关技术中,图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题,能够捕捉用户的实时操作,并针对性地提供图像处理菜单,有效实现了点击哪里就美容哪里的直观美颜效果,保证了良好的用户体验性。
在本实施例的一个可选示例中,检测显示屏上对待处理图像的操作时,先判断该操作是否落在脸部图像的显示区域内,若没有落在脸部图像的显示区域内,则不对该操作进行响应。
在本实施例的一个可选示例中,检测显示屏上对待处理图像的操作之前,上述方法还包括:对脸部图像进行识别操作,得到脸部特征与显示屏的矩形区域的对应关系,其中,矩形区域预先通过指定规则划分。
得到脸部特征与显示屏的矩形区域的对应关系,包括:确定所有脸部特征对应的位置坐标,其中,脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;建立所有脸部特征对应的位置坐标与矩形区域的对应关系。
图3是根据本发明实施例1的脸部图像矩形区域划分示意图(一),如图3所示,此处的根据指定规则划分矩形区域可以是,根据脸部构造学特征和脸部不同部位的像素密集度不同等特征,将脸部图像在显示屏上的显示区域划分为上庭显示区域、中庭显示区域和下庭显示区域。
图4是根据本发明实施例1的脸部图像矩形区域划分示意图(二),如图4所示,此处的根据指定规则划分矩形区域也可以是,根据脸部构造学特征和脸部不同部位的像素密集度不同的特征,将脸部图像在显示屏上的显示区域划分为若干矩形区域,每一矩形区域显示脸部某一部位。
在本实施例的一个可选示例中,建立所有脸部特征对应的位置坐标与矩形区域的对应关系每一子矩形区域,可以通过以下方法实现:如图3所示,先确定脸部眉心在屏幕中的坐标(x,y),确定眉心所在矩形区域的坐标范围,根据脸部构造学特征,识别出其他脸部特征所在的矩形区域,然后计算出每一矩形区域的坐标范围,建立每一矩形区域坐标和所在区域脸部特征的对应关系数据库。
图5是根据本发明实施例1的根据操作对应的位置信息确定与操作对应的脸部特征区域的流程图。如图5所示,在本实施例的一个可选示例中,根据操作对应的位置信息确定与操作对应的脸部特征区域,可以通过以下方式实现:
S502,获取以操作对应的位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;
S504,对第一图像数据进行识别,根据识别结果判断操作对应的脸部特征。
进一步的优选步骤中,还包括:
S506,获取以操作对应的位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,第二数量大于所述第一数量;
S508,对第二图像数据进行识别,根据识别结果判断操作对应的脸部特征的位置区域,其中,位置区域包括:脸部图像的左半部分、脸部图像的右半部分。
进一步的优选步骤中,图像处理菜单中可以设置“左右对称”的选项,用于同步脸部图像的左半部分和脸部图像的右半部分的美颜处理效果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
实施例2
在本实施例中还提供了一种图像处理装置,该装置用于实现上述实施例及可选示例,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图6是根据本发明实施例2的图像处理装置的结构框图(一),如图6所示,包括:
检测模块60,用于检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中,操作包括:触摸操作、按压操作,待处理图像中包括:脸部图像;
确定模块62,用于当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;
显示模块64,用于显示脸部特征对应的图像处理菜单。
通过上述步骤,检测模块检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中待处理图像中包括脸部图像;当对脸部图像进行操作时,确定模块根据操作对应的位置信息确定与操作对应的脸部特征;然后通过显示模块显示脸部特征对应的图像处理菜单,解决了相关技术中,图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题,能够捕捉用户的实时操作,并针对性地提供图像处理菜单,有效实现了点击哪里就美容哪里的直观美颜效果,保证了良好的用户体验性。
图7是根据本发明实施例2的图像处理装置的结构框图(二)。
如图7所示,在本实施例的一个可选示例中,上述装置还包括:识别模块66,用于对脸部图像进行识别操作,得到脸部特征与显示屏的矩形区域的对应关系,其中,矩形区域预先通过指定规则划分。
识别模块66包括:确定单元660,用于确定所有脸部特征对应的位置坐标,其中,脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;建立单元662,用于建立所有脸部特征对应的位置坐标与矩形区域的对应关系。
此处的根据指定规则划分矩形区域可以是,根据脸部构造学特征和脸部不同部位的像素密集度不同等特征,将脸部图像在显示屏上的显示区域划分为上庭显示区域、中庭显示区域和下庭显示区域;也可以是,根据脸部构造学特征和脸部不同部位的像素密集度不同的特征,将脸部图像在显示屏上的显示区域划分为若干矩形区域,每一矩形区域显示脸部某一部位。
在本实施例的一个可选示例中,建立所有脸部特征对应的位置坐标与矩形区域的对应关系每一子矩形区域,可以通过以下方法实现:先确定脸部眉心在屏幕中的坐标(x0,y0),确定眉心所在矩形区域的坐标范围,根据脸部构造学特征,识别出其他脸部特征所在的矩形区域,然后计算出每一矩形区域的坐标范围,建立每一矩形区域坐标和所在区域脸部特征的对应关系数据库。
如图7所示,确定模块62包括:第一获取单元620,用于获取以位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;第一识别单元622,用于对第一图像数据进行识别,根据识别结果判断操作对应的脸部特征。
确定模块62还包括:第二获取单元624,用于获取以位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,第二数量大于第一数量;第二识别单元626,用于对第二图像数据进行识别,根据识别结果判断操作对应的脸部特征的位置区域,其中,位置区域包括:脸部图像的左半部分、脸部图像的右半部分。图像处理菜单中可以设置“左右对称”的选项,用于同步脸部图像的左半部分和脸部图像的右半部分的美颜处理效果。
为了更好地理解本发明实施例的上述技术方案,本实施例还提供了一种图像处理终端,用于实现上述实施例及其可选示例中的图像方法,已经进行过的说明此处不再赘述。图8是根据本发明实施例2的图像处理终端的结构框图。如图8所示,该终端包括:处理器82;存储器84,用于存储处理器可执行的指令;
处理器82用于根据存储器84中存储的指令执行动作,包括:
检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中,操作包括:触摸操作、按压操作,待处理图像中包括:脸部图像;
当对脸部图像进行所述操作时,根据操作对应的位置信息确定与操作对应的脸部特征;
显示屏80,用于显示脸部特征对应的图像处理菜单。
通过上述终端,显示屏、处理器和存储器之间分工合作,检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中待处理图像中包括脸部图像;当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;然后显示脸部特征对应的图像处理菜单,解决了相关技术中,图像处理方式无法实现点击图像的指定区域就能够对指定区域进行图像处理,从而导致用户体验性差的问题,能够捕捉用户的实时操作,并针对性地提供图像处理菜单,有效实现了点击哪里就美容哪里的直观美颜效果,保证了良好的用户体验性。
在本实施例的一个可选示例中,处理器82还用于:对脸部图像进行识别操作,得到脸部特征与所述显示屏的矩形区域的对应关系,其中,矩形区域预先通过指定规则划分。
在本实施例的一个可选示例中,处理器82还用于:确定所有脸部特征对应的位置坐标,其中,脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;建立所有脸部特征对应的位置坐标与矩形区域的对应关系。
在本实施例的一个可选示例中,处理器82还用于:获取以位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;对第一图像数据进行识别,根据识别结果判断操作对应的所述脸部特征。
在本实施例的一个可选示例中,处理器82还用于:获取以位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,第二数量大于第一数量;对第二图像数据进行识别,根据识别结果判断所述操作对应的脸部特征的位置区域,其中,位置区域包括:脸部图像的左半部分、脸部图像的右半部分。
实施例3
为了更好地理解本发明实施例的技术方案,本实施例以人脸美颜为例,提供一种照片美颜处理方法。图9是根据本发明实施例3的照片美颜处理方法的流程图。如图9所示,该方法包括以下步骤:
S902,选择并打开需要处理的照片,其中该照片包括一个或者多个人脸图像。
S904,启动人脸识别模块,对上述照片进行人脸识别处理,识别到人脸各个部位在显示屏上的矩形区域对应关系。
人脸识别模块识别到人脸部位包括:眼部、眉部、额部、鼻部、嘴部,左脸颊部,左脸颊部,下巴部等。人脸识别模块根据人脸构造学特征和人脸不同区域像素的特征将人脸划分成上庭显示区域、中庭显示区域和下庭显示三部分。
进一步根据人脸构造学特征和人脸不同区域像素的特征将人脸显示区域划分为若干子矩形区域,每一子矩形区域显示人脸某一部位。人脸识别模块计算人脸眉心在屏幕中心坐标(x0,y0),根据人脸构造学计算出每一子矩形区域坐标。图4是根据本发明实施例3的人脸部位子矩形区域分布示意图。如图4所示,建立每一子矩形区域坐标和所在区域人脸部位的对应关系数据库。
S906,第一获取模块获取当前手指触摸参数,触摸参数包括触摸位置坐标。
触摸参数也可以包括压力大小f,触摸时长t。第一判断模块判断触摸点击(或者按压)坐标是否落在人脸的某一部位对应某一矩形区域坐标内。当第一判断模块判断触摸点击(或者按压)位置落在人脸部位矩形区域坐标外,则不响应该触摸点击(或者按压)动作。
可选地,增加第二判断模块,判断触摸所产生的持续时间(和/或压力值)是否达到预设值阈值。
可选地,当第二判断模块判断触摸(或者点击)达到预设阈值的情况下。查找人脸部位对应矩形区域坐标数据库,找到当前触摸位置对于的人脸部位。
S908,在预设屏幕区域,显示当前触摸人脸部位对应的美颜菜单和美颜操作指导说明,以提示用户进一步对所述人脸部位进行美颜操作。
预设屏幕区域优选为非人脸显示区域。当用户点再次击,重新开始执行第一步操作。
当用户打开预处理的照片后,可以先进行放大和或缩小到适当比例后,再启动美颜处理,以得到更好的美颜效果。
图10是根据本发明实施例3的美颜菜单显示示意图(一),图11是根据本发明实施例3的美颜菜单显示示意图(二)。如图10和11所示,在本实施例的可选示例中,可以将人脸各个部位的美颜菜单在屏幕顶部以下拉菜单方式显示。
在本实施例的一个可选示例中,人脸各个部位的多个菜单(额部,眼睛,鼻子,嘴巴,下巴),在步骤S908中,同一时刻,只弹出当前点击对应人脸部位对应的菜单,其他未点击人脸部位对应的美颜菜单为隐藏属性不可见。
本发明根据当前部位的触摸参数值弹出当前部位的预设美颜菜单,提示用户对当前部位进行美颜处理,并实时显示处理后的效果,极大的提高了美颜处理的便利性和娱乐性。
实施例4
为了更好地理解本发明实施例的技术方案,本实施例以人脸美颜为例,提供一种照片美颜处理方法。图12是根据本发明实施例4的照片美颜处理方法的流程图。如图12所示,该方法包括以下步骤:
S1202,选择并打开需要处理的照片,其中该照片包括一个或者多个人脸图像。
S1204,启动人脸识别模块,对上述照片进行人脸识别处理,根据人脸构造学和人脸各个部位的像素特征,识别人脸在显示屏上的坐标区域。
可选地,在人脸图像所在坐标区域显示一矩形框提示当前人脸位置。
S1206,第一获取模块获取当前手指触摸参数,触摸参数包括触摸位置坐标。
可选地,触摸参数也包括压力大小f,触摸时长t。第一判断模块判断触摸点击(或者按压)坐标是否落在人脸的所述矩形区域坐标内。当第一判断模块判断触摸点击(或者按压)位置落在人脸部位矩形区域坐标外,则不响应该触摸点击(或者按压)动作。
可选地,增加第二判断模块,判断触摸所产生的持续时间(和/或压力值)是否达到预设值阈值。
S1208,以触摸位置坐标(x1,y1)为中心,获取M个像素为半径的区域内的图像数据,人脸识别模块根据人脸构造学和人脸各个部位的像素特征对该区域内数据进行识别,进而判断当前触摸位置的人脸部位。
可选地,由于人脸构造学的对称性,当前M个像素为半径的区域内的图像数据,可能对应人脸左边部位,也可能对应人脸的右边部位。进一步以触摸中心为圆点,获取N个像素为半径内的图像数据进一步判断是人脸左边半边区域还是右边半边区域。
S1210,在预设屏幕区域,显示当前触摸人脸部位对应的美颜菜单和美颜操作指导说明,以提示用户进一步对所述人脸部位进行美颜操作。
可选地,由于人脸构造学的对称性,在美颜菜单中增加“左右对称”选项,以同步人脸左边和右边的美颜效果,达到美颜效果的一致性。
本发明根据当前部位的触摸参数值弹出当前部位的预设美颜菜单,提示用户对当前部位进行美颜处理,并实时显示处理后的效果,极大的提高了美颜处理的便利性和娱乐性。
实施例5
为了更好地理解本发明实施例的技术方案,本实施例眼部美颜实施例进行阐述。图13是根据本发明实施例5的美颜处理方法的流程图。如图13所示,该方法包括:
步骤1302,启动人脸识别模块,对人脸进行识别,根据人脸眼部特征找到眉心所在屏幕坐标(x2,y2)。
步骤1304,根据人脸构造学以及在人脸眼部的像素特性找到人脸双眼所在显示区域,建立眼部所在矩形区域坐标和眼部的对应关系;同理根据人脸其他部位的像素特征,找到人脸其他五官部位所在矩形区域;建立其他五官部位对应的矩形区域坐标的关系。
步骤1306,获取当前触摸点击事件,并对当前触摸参数进行判断。
步骤1308,当判断当前触摸参数达到美颜预设阈值的情况下,根据当前触摸坐标搜索人脸部位对应的矩形区域数据库,找到对应的人脸部位。
步骤1310,在预设非分人脸区域弹出提示框,为眼部对应预设美颜处理菜单。
在预设非分人脸区域弹出提示框,如图11所示,为眼部对应预设美颜处理菜单。
本实施例提供一种照片美颜处理方法,可以根据提示的眼部美颜菜单和操作方法,对眼部进行进一步美颜处理,提示了美颜处理的可操纵性和便利性。
实施例6
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例一所提供的图像处理方法所执行的程序代码。
可选地,在本实施例中,上述存储介质可以位于计算机网络中移动终端群中的任意一个移动终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,检测显示屏上对待处理图像的操作,并获取操作对应的位置信息,其中,操作包括:触摸操作、按压操作,待处理图像中包括:脸部图像;
S2,当对脸部图像进行操作时,根据操作对应的位置信息确定与操作对应的脸部特征;
S3,显示脸部特征对应的图像处理菜单。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种图像处理方法,其特征在于,包括:
检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示所述脸部特征对应的图像处理菜单。
2.根据权利要求1所述的方法,其特征在于,检测显示屏上对待处理图像的操作之前,所述方法还包括:
对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
3.根据权利要求2所述的方法,其特征在于,得到所述脸部特征与所述显示屏的矩形区域的对应关系,包括:
确定所有所述脸部特征对应的位置坐标,其中,所述脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;
建立所有所述脸部特征对应的位置坐标与所述矩形区域的对应关系。
4.根据权利要求1所述的方法,其特征在于,根据所述操作对应的位置信息确定与所述操作对应的脸部特征区域,包括:
获取以所述位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;
对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征。
5.根据权利要求4所述的方法,其特征在于,对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征之后,还包括:
获取以所述位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,所述第二数量大于所述第一数量;
对所述第二图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征的位置区域,其中,所述位置区域包括:所述脸部图像的左半部分、所述脸部图像的右半部分。
6.一种图像处理装置,其特征在于,包括:
检测模块,用于检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
确定模块,用于当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示模块,用于显示所述脸部特征对应的图像处理菜单。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
识别模块,用于对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
8.根据权利要求7所述的装置,其特征在于,所述识别模块包括:
确定单元,用于确定所有所述脸部特征对应的位置坐标,其中,所述脸部特征包括:额头、眉毛、眼睛、鼻子、左脸颊、右脸颊、唇、下巴;
建立单元,用于建立所有所述脸部特征对应的位置坐标与所述矩形区域的对应关系。
9.根据权利要求6所述的装置,其特征在于,所述确定模块包括:
第一获取单元,用于获取以所述位置信息的坐标作为圆心,以第一数量的像素作为半径的圆形区域内的第一图像数据;
第一识别单元,用于对所述第一图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征。
10.根据权利要求9所述的装置,其特征在于,所述确定模块还包括:
第二获取单元,用于获取以所述位置信息的坐标作为圆心,以第二数量的像素作为半径的圆形区域内的第二图像数据,其中,所述第二数量大于所述第一数量;
第二识别单元,用于对所述第二图像数据进行识别,根据识别结果判断所述操作对应的所述脸部特征的位置区域,其中,所述位置区域包括:所述脸部图像的左半部分、所述脸部图像的右半部分。
11.一种图像处理终端,其特征在于,包括:
处理器;
存储器,用于存储所述处理器可执行的指令;
所述处理器,用于根据所述存储器中存储的所述指令执行动作,所述动作包括:
检测显示屏上对待处理图像的操作,并获取所述操作对应的位置信息,其中,所述操作包括:触摸操作、按压操作,所述待处理图像中包括:脸部图像;
当对所述脸部图像进行所述操作时,根据所述操作对应的位置信息确定与所述操作对应的脸部特征;
显示屏,用于显示所述脸部特征对应的图像处理菜单。
12.根据权利要求11所述的终端,其特征在于,所述处理器还用于执行以下动作:
对所述脸部图像进行识别操作,得到所述脸部特征与所述显示屏的矩形区域的对应关系,其中,所述矩形区域预先通过指定规则划分。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610976690.3A CN108021308A (zh) | 2016-10-28 | 2016-10-28 | 图像处理方法、装置及终端 |
PCT/CN2017/080371 WO2018076622A1 (zh) | 2016-10-28 | 2017-04-13 | 图像处理方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610976690.3A CN108021308A (zh) | 2016-10-28 | 2016-10-28 | 图像处理方法、装置及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108021308A true CN108021308A (zh) | 2018-05-11 |
Family
ID=62024545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610976690.3A Withdrawn CN108021308A (zh) | 2016-10-28 | 2016-10-28 | 图像处理方法、装置及终端 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108021308A (zh) |
WO (1) | WO2018076622A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110855887A (zh) * | 2019-11-18 | 2020-02-28 | 深圳传音控股股份有限公司 | 基于镜面的图像处理方法、终端及计算机可读存储介质 |
CN111476864A (zh) * | 2019-01-23 | 2020-07-31 | 北京奇虎科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
WO2020224136A1 (zh) * | 2019-05-07 | 2020-11-12 | 厦门美图之家科技有限公司 | 界面交互方法及装置 |
CN112508777A (zh) * | 2020-12-18 | 2021-03-16 | 咪咕文化科技有限公司 | 一种美颜方法、电子设备及存储介质 |
CN113282207A (zh) * | 2021-06-15 | 2021-08-20 | 咪咕文化科技有限公司 | 菜单展示方法、装置、设备、存储介质及产品 |
CN114529445A (zh) * | 2020-10-30 | 2022-05-24 | 北京字跳网络技术有限公司 | 妆容特效绘制方法、装置、电子设备及存储介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109118427B (zh) * | 2018-09-07 | 2023-05-05 | Oppo广东移动通信有限公司 | 图像光效处理方法和装置、电子设备、存储介质 |
CN113329252B (zh) * | 2018-10-24 | 2023-01-06 | 广州虎牙科技有限公司 | 一种基于直播的人脸处理方法、装置、设备和存储介质 |
CN111353470B (zh) * | 2020-03-13 | 2023-08-01 | 北京字节跳动网络技术有限公司 | 图像的处理方法、装置、可读介质和电子设备 |
CN111462205B (zh) * | 2020-03-30 | 2024-03-08 | 广州虎牙科技有限公司 | 图像数据的变形、直播方法、装置、电子设备和存储介质 |
CN111507925B (zh) * | 2020-04-29 | 2023-05-12 | 抖音视界有限公司 | 修图处理方法、装置、设备和存储介质 |
CN111840039B (zh) * | 2020-07-05 | 2022-07-05 | 深圳市赢运顾问咨询有限公司 | 利用参数检测的自动化瘦脸治疗系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
CN104951770A (zh) * | 2015-07-02 | 2015-09-30 | 广东欧珀移动通信有限公司 | 人脸图像数据库的构建方法、应用方法及相应装置 |
CN105068748A (zh) * | 2015-08-12 | 2015-11-18 | 上海影随网络科技有限公司 | 触屏智能设备的摄像头实时画面中用户界面交互方法 |
CN105303523A (zh) * | 2014-12-01 | 2016-02-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105250136B (zh) * | 2015-10-28 | 2017-09-15 | 广东小天才科技有限公司 | 一种智能提醒穴位按摩的方法、装置及设备 |
-
2016
- 2016-10-28 CN CN201610976690.3A patent/CN108021308A/zh not_active Withdrawn
-
2017
- 2017-04-13 WO PCT/CN2017/080371 patent/WO2018076622A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
CN105303523A (zh) * | 2014-12-01 | 2016-02-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN104951770A (zh) * | 2015-07-02 | 2015-09-30 | 广东欧珀移动通信有限公司 | 人脸图像数据库的构建方法、应用方法及相应装置 |
CN105068748A (zh) * | 2015-08-12 | 2015-11-18 | 上海影随网络科技有限公司 | 触屏智能设备的摄像头实时画面中用户界面交互方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476864A (zh) * | 2019-01-23 | 2020-07-31 | 北京奇虎科技有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
WO2020224136A1 (zh) * | 2019-05-07 | 2020-11-12 | 厦门美图之家科技有限公司 | 界面交互方法及装置 |
CN110855887A (zh) * | 2019-11-18 | 2020-02-28 | 深圳传音控股股份有限公司 | 基于镜面的图像处理方法、终端及计算机可读存储介质 |
CN110855887B (zh) * | 2019-11-18 | 2021-06-08 | 深圳传音控股股份有限公司 | 基于镜面的图像处理方法、终端及计算机可读存储介质 |
CN114529445A (zh) * | 2020-10-30 | 2022-05-24 | 北京字跳网络技术有限公司 | 妆容特效绘制方法、装置、电子设备及存储介质 |
CN112508777A (zh) * | 2020-12-18 | 2021-03-16 | 咪咕文化科技有限公司 | 一种美颜方法、电子设备及存储介质 |
CN113282207A (zh) * | 2021-06-15 | 2021-08-20 | 咪咕文化科技有限公司 | 菜单展示方法、装置、设备、存储介质及产品 |
CN113282207B (zh) * | 2021-06-15 | 2024-03-22 | 咪咕文化科技有限公司 | 菜单展示方法、装置、设备、存储介质及产品 |
Also Published As
Publication number | Publication date |
---|---|
WO2018076622A1 (zh) | 2018-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108021308A (zh) | 图像处理方法、装置及终端 | |
US10264870B2 (en) | Makeup application assistance device, makeup application assistance system, and makeup application assistance method | |
US10292481B2 (en) | Makeup application assistance device, makeup application assistance method, and makeup application assistance program | |
Gunes et al. | Bi-modal emotion recognition from expressive face and body gestures | |
US9984281B2 (en) | Image processing apparatus, stylus, and image processing method | |
US10360715B2 (en) | Storage medium, information-processing device, information-processing system, and avatar generating method | |
RU2668408C2 (ru) | Устройства, системы и способы виртуализации зеркала | |
KR101733512B1 (ko) | 얼굴 특징 기반의 가상 체험 시스템 및 그 방법 | |
US20140225977A1 (en) | Devices, systems and methods of virtualizing a mirror | |
CN105303523A (zh) | 一种图像处理方法及移动终端 | |
CN105405157B (zh) | 肖像画生成装置、肖像画生成方法 | |
CN111862116A (zh) | 动漫人像的生成方法及装置、存储介质、计算机设备 | |
JP4206053B2 (ja) | ユーザインタフェース装置およびユーザインタフェースプログラム | |
CN109343919A (zh) | 一种聊天气泡的呈现方法及终端设备、存储介质 | |
CN110866139A (zh) | 一种化妆处理方法、装置及设备 | |
CN111860250B (zh) | 基于人物细粒度特征的图像识别方法及装置 | |
CN110210449A (zh) | 一种用于虚拟现实交友的人脸识别系统及方法 | |
WO2018059258A1 (zh) | 采用增强现实技术提供手掌装饰虚拟图像的实现方法及其装置 | |
CN112906585A (zh) | 基于机器学习的智能化理发辅助系统、方法和可读介质 | |
CN110321009A (zh) | Ar表情处理方法、装置、设备和存储介质 | |
CN109965493A (zh) | 一种分屏交互展示方法及装置 | |
CN113673356A (zh) | 行为识别方法、存储介质及计算机设备 | |
CN113033250A (zh) | 脸部肌肉状态分析与评价方法 | |
JP6601747B2 (ja) | メイクアップ支援システム、及びメイクアップ支援方法 | |
CN111008577A (zh) | 一种基于虚拟人脸的评分方法、系统、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180511 |
|
WW01 | Invention patent application withdrawn after publication |