CN105988566B - 一种信息处理方法及电子设备 - Google Patents
一种信息处理方法及电子设备 Download PDFInfo
- Publication number
- CN105988566B CN105988566B CN201510073103.5A CN201510073103A CN105988566B CN 105988566 B CN105988566 B CN 105988566B CN 201510073103 A CN201510073103 A CN 201510073103A CN 105988566 B CN105988566 B CN 105988566B
- Authority
- CN
- China
- Prior art keywords
- gesture
- object model
- facial
- face
- obtains
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种信息处理方法及电子设备,所述方法包括:一种检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。通过本申请提供的上述方法,解决了现有技术中在对视频中的形象进行美化过程中存在操作繁琐、花费时间多,美化效率低的技术问题。
Description
技术领域
本发明涉及电子技术领域,特别涉及一种信息处理方法及电子设备。
背景技术
随着科学技术的不断发展,越来越多的电子设备进入了人们的生活,人们的通信方式也随之多样化,比如,短信、移动电话、视频通话等。
目前,电子设备用户往往选择视频通话,在电子设备用户进行视频通话过程中,若想以较佳形象展示自己,电子设备用户需要通过手动调整参数、鼠标点击或者touch等方式对视频中的形象进行美白、瘦脸、磨皮祛痘等美化操作。
但本申请发明人在实现本发明实施例中技术方案的过程中,发现上述现有技术至少存在如下技术问题:
由于现有技术中,在电子设备用户进行视频通话过程中,需要电子设备用户进行手动调节参数、鼠标点击等操作,通常来讲,手动调节参数、鼠标点击的操作都比较繁琐,花费较多时间,所以,现有技术中在对视频中的形象进行美化过程中存在操作繁琐、花费时间多,美化效率低的技术问题。
由于上述技术问题的存在,导致电子设备用户在进行视频通话过程中,若要对视频中的形象进行美化,则需要电子设备用户手动调节参数、鼠标点击,而达到电子设备用户满意的美化效果,进而,存在用户在进行视频通话过程中,用户体验度不高的问题。
发明内容
本发明实施例提供一种信息处理方法及电子设备,用于解决现有技术中在对视频中的形象进行美化过程中存在操作繁琐、花费时间多,美化效率低的技术问题,以达到在视频中的形象进行美化过程中操作简单、减少花费时间、提高美化效率的技术效果。
根据本发明的第一方面,提供一种信息处理方法,应用于一电子设备,所述方法包括:
检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
可选的,所述检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作,具体包括:
检测并识别获得第一操作体对所述第一面部对象上的第一面部子对象进行的所述第一手势。
可选的,所述基于所述第一手势触发操作,获得所述第一手势触发操作对应的第一手势的至少一个参数信息,具体包括:
获取所述第一面部对象的第一面部对象模型;
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
可选的,所述基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息,具体包括:
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在所述第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在所述第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
可选的,所述基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象,具体包括:
基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
基于所述第二面部对象模型,获得所述第二面部对象。
可选的,所述基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象不同的第二面部对象模型,具体包括:
基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
根据本发明的另一方面,还提供一种电子设备,包括:
第一识别获取单元,用于检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
第二获取单元,用于基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
第三获取单元,用于基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
可选的,所述第一识别获取单元,具体包括:
第一识别检测模块,用于检测并识别获得第一操作体对所述第一面部对象上的第一面部子对象进行的所述第一手势。
可选的,所述第二获取单元,具体包括:
第二获取模块,用于获取所述第一面部对象的第一面部对象模型;
第三获取模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
第四获取模块,用于基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
可选的,所述第三获取模块,具体包括:
第一获取子模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在所述第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在所述第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
第二获取子模块,用于基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
第三获取子模块,用于基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
可选的,所述第三获取单元,具体包括:
第五获取模块,用于基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
第六获取模块,用于基于所述第二面部对象模型,获得所述第二面部对象。
可选的,所述第五获取模块,具体包括:
第四获取子模块,用于基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
第五获取子模块,用于基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
第六获取子模块,用于基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
一、由于本申请实施例中的技术方案是检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。即不会像现有技术在电子设备用户进行视频通话过程中,需要电子设备用户进行手动调节参数、鼠标点击等操作,通常来讲,手动调节参数、鼠标点击的操作都比较繁琐,花费较多时间,因此,采用本技术方案能够简化在对视频中的形象美化过程的操作,减少花费时间,提高美化效率,所以,能够有效解决现有技术中在对视频中的形象进行美化过程中存在操作繁琐、花费时间多,美化效率低的技术问题,进而达到在视频中的形象进行美化过程中操作简单、减少花费时间、提高美化效率的技术效果。
二、由于本申请实施例中的技术方案是检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。即不会像现有技术在在电子设备用户进行视频通话过程中,若要对视频中的形象进行美化,则需要电子设备用户手动调节参数、鼠标点击,而达到电子设备用户满意的美化效果,存在用户在进行视频通话过程中,用户体验度不高的问题,从而达到提高用户体验度的技术效果。
附图说明
图1为本申请实施例一提供的一种图像处理方法的流程图;
图2为本申请实施例一提供的图像处理方法中步骤S102的具体实现方式流程图;
图3为本申请实施例一提供的图像处理方法中步骤S202的具体实现方式流程图;
图4为本申请实施例一提供的第一V型手势图;
图5为本申请实施例一提供的图像处理方法中步骤S103中第一步骤的具体实现方式流程图;
图6为本申请实施例二提供的一种电子设备的结构框图。
具体实施方式
本发明实施例提供一种信息处理方法及电子设备,用于解决现有技术中在对视频中的形象进行美化的过程中存在操作繁琐、花费时间多,美化效率低的技术问题,以达到在视频中的形象进行美化过程中操作简单、减少花费时间、提高美化效率的技术效果。
本申请实施例中的技术方案为解决上述的技术问题,总体思路如下:
检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
在上述技术方案中,是检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。即不会像现有技术在电子设备用户进行视频通话过程中,需要电子设备用户进行手动调节参数、鼠标点击等操作,通常来讲,手动调节参数、鼠标点击的操作都比较繁琐,花费较多时间,因此,采用本技术方案能够简化在对视频中的形象美化过程的操作,减少花费时间,提高美化效率,所以,能够有效解决现有技术中在对视频中的形象进行美化的过程中存在操作繁琐、花费时间多,美化效率低的技术问题,进而达到在视频中的形象进行美化过程中操作简单、减少花费时间、提高美化效率的技术效果。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明技术方案的一部分实施例,而不是全部的实施例。基于本申请文件中记载的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明技术方案保护的范围。
实施例一
请参考图1,本申请实施例提供一种信息处理方法,应用于一电子设备,具体来讲,本申请实施例中的信息处理方法包括:
S101:检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
S102:基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
S103:基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
本申请实施例提供一种信息处理方法,应用于一电子设备,本申请实施例中的电子设备可以为包含有两个图像采集单元的电子设备,如:带有两个摄像头的台式电脑、笔记本电脑、手机等,也可以是别的带有两个图像采集单元的电子设备,在此,就不再一一举例了。在本申请实施例中,将以所述电子设备为手机为例,来对本申请实施例中的方法的实现过程进行详细描述。
在具体实施过程中,在手机屏幕所在的一面,分别在不同的位置设置有两个摄像头,可以是一个设置在笔记本电脑的左上方,一个设置在手机的右上方;也可以在手机的底面上,在不同的位置分别设置两个摄像头,如分别设置在手机底面的左下角和手机底面的右下角。为了能拍摄到不同的角度,两个摄像头之间需要保证一定的距离,如两个摄像头之间相隔2cm或3cm,当然,本领域普通技术人员也可以根据实际情况对两个摄像头之间的距离进行设定,在本申请中不作具体限定。
在本申请实施例中,以所述电子设备手机为例,本申请实施例中的方法首先执行步骤S101,即:所述检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作。
对于步骤S101:所述检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作的具体实现过程,具体包括:
检测并识别获得第一操作体对所述第一面部对象上的第一面部子对象进行的所述第一手势。
在具体实施过程中,第一操作体具体可以是手机用户的左手、右手或是左手右手共同进行,第一面部子对象,如:用户脸部的鼻子、嘴巴、耳朵或脸颊等其它面部对象,在本申请实施例中不作具体的限制。在本申请实施例中,具体实现过程可以有如下几种情形:
1、检测手机用户单手的大拇指和食指做出“倒八型”的捏鼻子的手势;
2、检测手机用户单手的大拇指和食指做出“睡八型”的放大眼睛的手势;
3、检测手机用户单手的食指做出的按压脸颊某一处进行磨皮祛痘的手势;
4、检测手机用户左手和右手共同做出的“V型”瘦脸的手势。
在这里也可以是针对脸部上任一部位进行美化的手势操作,在此,本申请实施例中不做具体的限制。
在检测并识别所述第一手势后,则执行步骤S102:所述基于所述第一手势触发操作,获得所述第一手势触发操作对应的第一手势的至少一个参数信息。
对于步骤S102:所述基于所述第一手势触发操作,获得所述第一手势触发操作对应的第一手势的至少一个参数信息的具体实现过程,请参考图2,具体包括:
S201:获取所述第一面部对象的第一面部对象模型;
S202:基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
S203:基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
对于步骤S202:所述基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息的具体实现过程,请参考图3,具体包括:
S301:基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在所述第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在所述第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
S302:基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
S303:基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
对第一面部对象模型的获取,在本申请实施例中,当获得包含人的左脸的视频图像和包含人的右脸的视频图像序列后,手机的图像处理单元,如相机,则检测到所获得的视频图像序列中是否包含有人脸,确定出人脸在视频图像中的具体位置,获得人脸区域的位置和尺寸的粗略信息,然后对图像序列进行边缘检测,将人脸面轮廓中最右的点定位为鼻尖,鼻尖将人脸分成了两个部分,每一部分都可以通过积分投影得到一个多项式,也可以通过曲面匹配得到该多项式,然后通过求多项式一阶导数为0来获得各个极值点,从而获得了前额、鼻梁、上嘴唇、嘴巴、下嘴唇特征点信息,同时,利用已获得的特征点信息及面部器官结构关系的统计先验知识,获得眼皮点、下巴点、嘴唇下点等其他特征点信息。
在具体实施过程中,手机的图像处理单元,如相机,会预先存储一个根据多个视频图像序列建立的包含有面部特征的参考模型,根据获得的人脸的几何特征信息,如鼻子、嘴巴、下巴等,对参考模型的几何特征参数进行调整,如,将参考模型中鼻子的参数调整为上述处理获得的鼻子的几何特征信息,将参考模型中下巴的参数调整为上述处理获得的下巴的几何特征信息,这样,通过将上述处理获得的面部几何特征信息匹配到参考模型中相应的位置上,则获得所述的第一面部对象模型。
在获得第一面部对象模型后,手机的图像处理单元,如相机,获得人脸的第一视频
图像序列后,将第一视频图像序列中人脸的特征点作为第一面部对象的子对象,如,即将鼻
梁、下颚、右脸颊、左脸颊作为人脸的4个子对象,在本申请实施例中,请参考图4,以电子设
备用户做出的想进行的瘦脸的第一V型手势为例,分别获得这4个子对象及第一V型手势的
底端的一像素点在第一摄像头对应的第一视频图像序列坐标分别为(193,63)、(180,47)、
(212,52)、(164,51)、(156,45)、这4个子对象及第一V型手势的底端的一像素点在第二摄像
头对应的第二视频图像序列坐标分别为(160,76)、(146,60)、(178,66)、(114,64),(132,
48)而第一视频图像序列坐标与第二视频图像序列坐标的关系可以有旋转矩阵和平移向量
来计算,计算公式为其中R为旋转矩阵,T为平移向量,因此,获得每个
子对象在第一摄像头的第一视频图像序列坐标和在第二摄像头的第二视频图像序列坐标
后,通过计算公式,便可计算出第一摄像头与第二摄像头的旋转矩阵和平移向量,假设第i
个子对象在空间坐标系中的三维坐标为(X,Y,Z),空间坐标系与摄像头所在的二维视频图
像序列坐标系的对应关系为:则在计算出R/T之后,便可通过已知的二维
视频图像序列坐标计算出第i个子对象在空间坐标系的三维坐标。在本申请实施例中,通过
计算可以得出鼻梁、下颚、右脸颊、左脸颊这4个子对象的三维坐标分别为(70,-143,443)、
(66,-149,441)、(75,-130,446)、(63,-131,439),(66,-170,441)即这4个子对象及第一V型
手势底端的一像素点的深度信息。
在电子设备用户做出在获得4个子对象及第一V型手势底端的一像素点的深度信息之后,就可以根据获得深度信息计算第一矢量和第一夹角,根据第一面部对象模型计算出的下颚的三维坐标(66,-149,441),右脸颊的三维坐标(75,-130,446)及左脸颊的三维坐标(63,-131,439)后即可获得V型手势的底端至V型手势的右手指尖的右矢量(9,40,5),则这个矢量对应的第一距离:从V型手势的底端至V型手势的左手指尖的左矢量(-3,39,-2),则这个矢量对应的第二距离:左矢量与右矢量指尖的第三距离为:由此可以计算出左矢量与右矢量指尖的第一夹角为:19.5度。其中,左手指尖和右手指尖的位置则表明了脸颊开始变形的位置,而第一夹角则代表了对脸颊变形的程度。
在具体实施过程中,若检测到电子设备用户在脸颊上做出的按压操作时,只需要获得按压处的脸颊对应的像素点的位移量之后即可,就可以获得对第一面部对象模型进行调整。
对于步骤S103:所述基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象,具体包括:
第一步骤:基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
第二步骤:基于所述第二面部对象模型,获得所述第二面部对象。
对于第一步骤:所述基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象不同的第二面部对象模型的具体实现过程,请参考图5,具体包括:
S401:基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
S402:基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
S403:基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
在本申请实施例中,在上述步骤中计算出了左手指尖至下颚的左矢量和右手指尖至下颚的右矢量,根据左右矢量则可以获得脸颊变形的范围,也可以获得左右脸颊对应的像素点(75,-130,446)、(63,-131,439)中间的一像素点的三维空间坐标(69,-130.5,442.5),这样根据像素点(69,-130.5,442.5)、第一V型手势下端一像素点(66,-170,441)及第一夹角19.5度,即知道一个直角三角形的一个夹角和一条边长,就可以获得另外两条边的边长,同样的道理也可以得到在电子设备用户在电子设备用户的脸颊上作出第一V型手势后,右脸颊的三维坐标(70,-130,450)及左脸颊的三维坐标(58,-131,443),从而可以得到左右脸颊对应像素点的移动的位移量(5,0,4)。这样在获得变形范围和位移量之后,就可以对第一面部对象模型进行调整,从而得到第二变形后的第二面部对象模型。
在得到第二面部对象模型之后,就可以得到每个像素点的世界坐标系,然后将世界坐标系转化为图像采集单元坐标,其中,从世界坐标到图像采集单元坐标的转换就是一平移矩阵和旋转矩阵的乘积,在本申请实施例中以4×4的平移矩阵与4×4的旋转矩阵的乘积,而旋转矩阵和平移向量是图像采集单元的外部参数,也就是图像采集单元在世界坐标中的朝向与位置。
接下来就是将图像采集单元坐标投影到图像平面,将从3D点(X,Y,Z)(这个点是图像采集单元坐标系中的点)到2D投影点(x,y)的投影过程可以用一个3×4的矩阵描述。而一个在投影平面上的图像在投影坐标系下,其单位还是物理单位,位置也是物理位置,因此,还要将投影坐标系转换至图像(像素)坐标系。需要从真实的物理位置转换至像素位置,就需要有放缩和平移的操作。
在经过缩放和平移操作之后,就可以得到对应的第二面部对象,在本申请实施例中,可以将第二面部对象合成到视频序列上面,也可以将视频序列进行拆分,然后将第二面部对象插入到序列中,即可达到在视频过程中进行瘦脸的效果,在本申请实施例中不作具体限制。
实施例二
基于同一发明构思,本发明实施例还提供一种电子设备,请参考图6:包括:
第一识别获取单元50,用于检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
第二获取单元51,用于基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
第三获取单元52,用于基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
可选的,所述第一识别获取单元50,具体包括:
第一识别检测模块,用于检测并识别获得第一操作体对所述第一面部对象上的第一面部子对象进行的所述第一手势。
可选的,所述第二获取单元51,具体包括:
第二获取模块,用于获取所述第一面部对象的第一面部对象模型;
第三获取模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
第四获取模块,用于基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势手势所呈现的第一夹角。
可选的,所述第三获取模块,具体包括:
第一获取子模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在所述第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在所述第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
第二获取子模块,用于基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
第三获取子模块,用于基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
可选的,所述第三获取单元52,具体包括:
第五获取模块,用于基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
第六获取模块,用于基于所述第二面部对象模型,获得所述第二面部对象。
可选的,所述第五获取模块,具体包括:
第四获取子模块,用于基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
第五获取子模块,用于基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
第六获取子模块,用于基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
通过本申请实施例中的一个或多个技术方案,可以实现如下一个或多个技术效果:
一、由于本申请实施例中的技术方案是检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。即不会像现有技术在电子设备用户进行视频通话过程中,需要电子设备用户进行手动调节参数、鼠标点击等操作,通常来讲,手动调节参数、鼠标点击的操作都比较繁琐,花费较多时间,因此,采用本技术方案能够简化在对视频中的形象美化过程的操作,减少花费时间,提高美化效率,所以,能够有效解决现有技术中在对视频中的形象进行美化过程中存在操作繁琐、花费时间多,美化效率低的技术问题,进而达到在视频中的形象进行美化过程中操作简单、减少花费时间、提高美化效率的技术效果。
二、由于本申请实施例中的技术方案是检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。即不会像现有技术在在电子设备用户进行视频通话过程中,若要对视频中的形象进行美化,则需要电子设备用户手动调节参数、鼠标点击,而达到电子设备用户满意的美化效果,存在用户在进行视频通话过程中,用户体验度不高的问题,从而达到提高用户体验度的技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
具体来讲,本申请实施例中的一种信息处理方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中存储的与步骤的方法对应的计算机程序指令被一电子设备读取或被执行时,包括如下步骤:
检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作;
基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象。
可选的,所述存储介质中存储的与步骤:所述检测并识别获得用于触发对第一面部对象进行调整的第一手势触发操作,对应的计算机指令在具体被执行过程中,具体包括:
检测并识别获得第一操作体对所述第一面部对象上的第一面部子对象进行的所述第一手势。
可选的,所述存储介质中存储的与步骤:所述基于所述第一手势触发操作,获得所述第一手势触发操作对应的第一手势的至少一个参数信息,对应的计算机指令在具体被执行过程中,具体包括:
获取所述第一面部对象的第一面部对象模型;
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
可选的,所述存储介质中存储的与步骤:所述基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息,对应的计算机指令在具体被执行过程中,具体包括:
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在所述第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在所述第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
可选的,所述存储介质中存储的与步骤:所述基于所述至少一个参数信息,对所述第一面部对象进行调整,获得与所述第一面部对象不同的第二面部对象,对应的计算机指令在具体被执行过程中,具体包括:
基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
基于所述第二面部对象模型,获得所述第二面部对象。
可选的,所述存储介质中存储的与步骤:所述基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象不同的第二面部对象模型,对应的计算机指令在具体被执行过程中,具体包括:
基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种信息处理方法,应用于一电子设备,所述方法包括:
检测并识别获得用于触发对用户第一面部对象模型进行调整的与用户面部对象相配合的第一手势触发操作;其中,所述第一手势触发操作为第一操作体对用户脸部的第一面部对象上的第一面部子对象进行的所述第一手势;
基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
基于所述至少一个参数信息,对所述第一面部对象模型进行调整,获得与所述第一面部对象模型不同的第二面部对象模型。
2.如权利要求1所述的方法,其特征在于,所述基于所述第一手势触发操作,获得所述第一手势触发操作对应的第一手势的至少一个参数信息,具体包括:
获取所述第一面部对象的第一面部对象模型;
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
3.如权利要求2所述的方法,其特征在于,所述基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息,具体包括:
基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
4.如权利要求1所述的方法,其特征在于,所述基于所述至少一个参数信息,对所述第一面部对象模型进行调整,获得与所述第一面部对象模型不同的第二面部对象模型,具体包括:
基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
基于所述第二面部对象模型,获得所述第二面部对象。
5.如权利要求3所述的方法,其特征在于,所述基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型,具体包括:
基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
6.一种电子设备,包括:
第一识别获取单元,用于检测并识别获得用于触发对用户第一面部对象模型进行调整的与用户面部对象相配合的第一手势触发操作;
所述第一识别获取单元,包括:
第一识别检测模块,用于检测并识别获得第一操作体对用户脸部的第一面部对象上的第一面部子对象进行的所述第一手势;
第二获取单元,用于基于所述第一手势触发操作,获得与所述第一手势触发操作对应的第一手势的至少一个参数信息;
第三获取单元,用于基于所述至少一个参数信息,对所述第一面部对象模型进行调整,获得与所述第一面部对象模型不同的第二面部对象模型。
7.如权利要求6所述的电子设备,其特征在于,所述第二获取单元,具体包括:
第二获取模块,用于获取所述第一面部对象的第一面部对象模型;
第三获取模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个深度信息;
第四获取模块,用于基于所述至少一个深度信息,获得所述第一操作体与所述第一面部子对象对应的第一像素点与所述第一操作体的顶部的第二像素点之间的第一矢量及所述第一手势所呈现的第一夹角。
8.如权利要求7所述的电子设备,其特征在于,所述第三获取模块,具体包括:
第一获取子模块,用于基于所述第一手势及所述第一面部对象模型,获得所述第一手势的至少一个像素点在第一图像采集单元中的第一坐标系中的至少一个第一图像坐标和所述至少一个像素点在第二图像采集单元中的第二坐标系中的至少一个第二图像坐标;
第二获取子模块,用于基于所述至少一个第一图像坐标和所述至少一个第二图像坐标,计算获得所述第一坐标系到所述第二坐标系的旋转矩阵和平移量;
第三获取子模块,用于基于所述旋转矩阵和所述平移量,获得所述至少一个像素点的所述至少一个深度信息。
9.如权利要求7所述的电子设备,其特征在于,所述第三获取单元,具体包括:
第五获取模块,用于基于所述至少一个参数信息,调整所述第一面部对象模型,获得与所述第一面部对象模型不同的第二面部对象模型;
第六获取模块,用于基于所述第二面部对象模型,获得所述第二面部对象。
10.如权利要求9所述的电子设备,其特征在于,所述第五获取模块,具体包括:
第四获取子模块,用于基于所述第一矢量,获得对所述第一面部对象模型进行变形的第一变形范围;
第五获取子模块,用于基于所述第一夹角,获得对所述第一面部对象模型进行变形时所述第一变形范围内至少一个像素点产生的位移量;
第六获取子模块,用于基于所述第一变形范围及所述位移量,调整所述第一面部对象模型,获得所述第二面部对象模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510073103.5A CN105988566B (zh) | 2015-02-11 | 2015-02-11 | 一种信息处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510073103.5A CN105988566B (zh) | 2015-02-11 | 2015-02-11 | 一种信息处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105988566A CN105988566A (zh) | 2016-10-05 |
CN105988566B true CN105988566B (zh) | 2019-05-31 |
Family
ID=57041144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510073103.5A Active CN105988566B (zh) | 2015-02-11 | 2015-02-11 | 一种信息处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105988566B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107577451B (zh) * | 2017-08-03 | 2020-06-12 | 中国科学院自动化研究所 | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 |
CN109509140A (zh) * | 2017-09-15 | 2019-03-22 | 阿里巴巴集团控股有限公司 | 显示方法及装置 |
CN111201772A (zh) * | 2017-10-09 | 2020-05-26 | 深圳传音通讯有限公司 | 一种录像方法、装置及终端 |
CN108182031A (zh) * | 2017-12-28 | 2018-06-19 | 努比亚技术有限公司 | 一种拍照方法、终端及计算机可读存储介质 |
CN110070478B (zh) * | 2018-08-24 | 2020-12-04 | 北京微播视界科技有限公司 | 变形图像生成方法和装置 |
CN108683872B (zh) * | 2018-08-30 | 2019-10-15 | Oppo广东移动通信有限公司 | 视频通话方法、装置、存储介质及移动终端 |
CN109803165A (zh) * | 2019-02-01 | 2019-05-24 | 北京达佳互联信息技术有限公司 | 视频处理的方法、装置、终端及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102053702A (zh) * | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制系统与方法 |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
CN104159032A (zh) * | 2014-08-20 | 2014-11-19 | 广东欧珀移动通信有限公司 | 一种实时调整相机拍照美颜效果的方法及装置 |
CN104240277A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 基于人脸检测的增强现实交互方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7990421B2 (en) * | 2008-07-18 | 2011-08-02 | Sony Ericsson Mobile Communications Ab | Arrangement and method relating to an image recording device |
-
2015
- 2015-02-11 CN CN201510073103.5A patent/CN105988566B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102053702A (zh) * | 2010-10-26 | 2011-05-11 | 南京航空航天大学 | 动态手势控制系统与方法 |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
CN104240277A (zh) * | 2013-06-24 | 2014-12-24 | 腾讯科技(深圳)有限公司 | 基于人脸检测的增强现实交互方法和系统 |
CN104159032A (zh) * | 2014-08-20 | 2014-11-19 | 广东欧珀移动通信有限公司 | 一种实时调整相机拍照美颜效果的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105988566A (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105988566B (zh) | 一种信息处理方法及电子设备 | |
US10394334B2 (en) | Gesture-based control system | |
KR102291461B1 (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
CN111880657B (zh) | 一种虚拟对象的控制方法、装置、电子设备及存储介质 | |
US9639914B2 (en) | Portrait deformation method and apparatus | |
CN104317391B (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
JP6090140B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US8698796B2 (en) | Image processing apparatus, image processing method, and program | |
GB2590208A (en) | Face-based special effect generation method and apparatus, and electronic device | |
CN110555358B (zh) | 用于检测和识别ar/vr场景中的特征部的方法和设备 | |
US20140104394A1 (en) | System and method for combining data from multiple depth cameras | |
JP2022524683A (ja) | 深度情報を使用して実世界の物体をレンダリングするシステムおよび方法 | |
US11137824B2 (en) | Physical input device in virtual reality | |
KR102386642B1 (ko) | 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체 | |
CN104899563A (zh) | 一种二维人脸关键特征点定位方法及系统 | |
US8842933B2 (en) | Facial motion capture using marker patterns that accommodate facial surface | |
AU2021290132B2 (en) | Presenting avatars in three-dimensional environments | |
US20170168709A1 (en) | Object selection based on region of interest fusion | |
KR20130058424A (ko) | 특징점의 삼차원 위치 계산 장치 및 방법 | |
WO2023173668A1 (zh) | 一种虚拟场景中的输入识别方法、设备及存储介质 | |
JP2015100032A (ja) | 映像表示装置、映像提示方法及びプログラム | |
CN111652795A (zh) | 脸型的调整、直播方法、装置、电子设备和存储介质 | |
CN104378620A (zh) | 一种图像处理方法及电子设备 | |
CN108961314A (zh) | 运动图像生成方法、装置、电子设备及计算机可读存储介质 | |
WO2020044916A1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |