CN109785369A - 一种虚拟现实人像采集方法及装置 - Google Patents

一种虚拟现实人像采集方法及装置 Download PDF

Info

Publication number
CN109785369A
CN109785369A CN201711103597.2A CN201711103597A CN109785369A CN 109785369 A CN109785369 A CN 109785369A CN 201711103597 A CN201711103597 A CN 201711103597A CN 109785369 A CN109785369 A CN 109785369A
Authority
CN
China
Prior art keywords
image
area
pixel
characteristic value
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711103597.2A
Other languages
English (en)
Inventor
周佳俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Communications Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Communications Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201711103597.2A priority Critical patent/CN109785369A/zh
Publication of CN109785369A publication Critical patent/CN109785369A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本申请公开了一种虚拟现实人像采集方法及装置,包括:获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;将所述第一区域中的图像替换为所述第二区域中的图像。

Description

一种虚拟现实人像采集方法及装置
技术领域
本申请涉及通信领域,尤其涉及一种虚拟人像采集方法及装置。
背景技术
虚拟现实头戴装置利用配戴在头部的显示器将人的对外界的视觉、听觉封闭,引导用户产生一种身在虚拟环境中的感觉。其显示原理是左右眼屏幕上分别显示左右眼的图像,人眼获取这种带有差异的信息后在脑海中产生立体感。虚拟现实头戴装置作为虚拟现实的显示设备,具有小巧和封闭性强的特点,在军事训练、虚拟驾驶和虚拟城市等项目中具有广泛应用。
目前主流的视频通话类产品多直接通过设备采集用户A的2D图像,通过移动网络、互联网等媒介传输至用户B的呈现终端上,以还原用户A的局部2D形象。然而,人们对这类业务体验所寄予的期待远远未被满足,3D视频采集、全景视频采集、虚拟现实视频采集等新技术的出现为这类视频通话业务提供了新的机遇。在利用头戴式虚拟现实设备进行视频通话时,用户佩戴虚拟现实头戴装置,在完全虚拟化的环境中与其他用户的虚拟3D形象或2D画面进行实时视频通信。用户在自己的视野范围内,看到的是完全虚拟出来的周围环境,这个环境可以是会议室、客厅或者桌游室。
目前利用头戴式虚拟现实设备进行视频通话的技术中,由于无法规避头盔遮挡脸部、人像掺杂背景等问题,不能将完整的人的立体画面实时采集出来并融入虚拟场景。例如因为用户眼部会被虚拟现实头戴装置遮挡,使得外部摄像头无法获取到用户眼部区域图像;以及目前的人像采集系统是将人像与周围的物理和背景在一个图像平面采集并呈现,无法直接地仅获取人像本身的图像。
由于以上存在的问题,在用户利用头戴式虚拟现实设备进行视频通话时,无法获取完整的人脸图像。
发明内容
本申请的目的就是为了解决上述问题,提供一种虚拟现实人像采集方法及装置,通过处理采集设备获取的图像,将人脸的虚拟现实图像完整化。
第一方面,本申请的一个实施例提供一种虚拟现实人像采集方法,该方法包括:
获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;
检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;
根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;
将所述第一区域中的图像替换为所述第二区域中的图像。
其中,检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,具体包括如下步骤:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
其中,根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域,具体包括如下步骤:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点,所述相匹配的像素点围成的区域为第二图像的第二区域。
其中,将所述第一区域中的图像替换为所述第二区域中的图像,具体包括如下步骤:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
第二方面,本申请的一个实施例提供一种虚拟现实人像采集装置,该装置包括:
获取模块,用于获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;
检测模块,用于检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;
匹配模块,用于根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;
处理模块,用于将所述第一区域中的图像替换为所述第二区域中的图像。
其中,所述检测模块具体用于:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
其中,所述匹配模块具体用于:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点,所述相匹配的像素点围成的区域为第二图像的第二区域。
其中,所述处理模块具体用于:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
第三方面,提供一个或多个计算机可读介质,所述可读介质上存储有指令,所述指令被一个或多个处理器执行时,使得通信设备执行上述第一方面中任一项所述的方法。
第四方面,提供一种装置,包括:一个或多个处理器;以及一个或多个计算机可读介质,所述可读介质上存储有指令,所述指令被所述一个或多个处理器执行时,使得所述装置执行上述第一方面中任一项所述的方法。
本申请的上述实施例中,通过对获取到的第一图像和第二图像的局部区域的边缘像素点进行匹配,将局部区域中的图像进行替换,从而生成完整的虚拟现实人脸图像,提高了用户体验。
附图说明
图1为本申请实施例适用的图像采集场景示意图;
图2为本申请实施例中虚拟现实头戴装置中的的图像采集设备示意图;
图3为本申请实施例提供的图像采集方法流程示意图;
图4为本申请实施例提供的装置示意图;
图5为本申请实施例提供的图像处理方法示意图;
图6为本申请实施例提供的图像处理方法示意图;
图7为本申请实施例提供的图像处理方法示意图;
图8为本申请实施例提供的图像处理方法示意图;
图9为本申请实施例提供的图像处理方法示意图;
图10为本申请实施例提供的图像处理装置示意图;
图11为本申请实施例提供的示例装置示意图。
具体实施方式
虚拟现实头戴装置(Head Mount Display,HMD),通过各种头戴式显示设备,发送光学信号,可以实现虚拟现实(VR)、增强现实(AR)、混合现实(MR)等不同效果。
在本申请实施例中,主要解决用户佩戴虚拟现实头戴装置(VR HMD)进行视频通话时,通过对图像采集装置采集的图像进行处理而使得虚拟现实的图像完整化,用于提升用户体验。
本申请实施例中的图像采集装置可以是摄像头,可选地,可选用深度摄像头。通过深度摄像头(Depth Camera)可以获得三维视觉能力,目前在人工智能、在机器人导航、自动驾驶、无人机、虚拟现实(VR)、增强现实(AR)、混合现实(MR)、三维重建、人机互动、智能制造等领域被广泛应用。深度摄像头与普通摄像头的区别在于,除了能够获取平面图像,还可以获得拍摄对象的深度信息,也就是三维的位置和尺寸信息,即可以获得了环境和对象的三维立体数据,这些信息可以用于三维重建。
下面结合附图对本申请实施例进行具体说明。
图1示出了本申请实施例所适用的场景,该场景以采用深度摄像头作为图像采集装置为例。如图1所示,深度摄像头组环绕用户设置,该深度摄像头组中包括:深度摄像头1(Depth Camera1)、深度摄像头2(Depth Camera2)、深度摄像头3(Depth Camera3)、深度摄像头4(Depth Camera4)。用户佩戴的虚拟现实头戴装置(VR HMD)中也设置有深度摄像头。本申请实施例对深度摄像头的数量不做限制。
图2示出了虚拟现实头戴装置内部图,内部装有内置深度摄像头(Inside DepthCamera)。
下面结合附图3对本申请实施例所提供的虚拟现实人像采集方法进行详细描述。该流程可由虚拟现实人像采集装置执行。
如图3所示,该方法的流程可包括:
步骤301:获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到。
结合图1所示的场景,所述第一图像可以由深度摄像头1(Depth Camera1)、深度摄像头2(Depth Camera2)、深度摄像头3(Depth Camera3)、深度摄像头4(Depth Camera4)中的一个深度摄像头采集得到。所述第二图像可由虚拟现实头戴装置内部设置的深度摄像头采集得到。
步骤302:检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值。
步骤303:根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域。
步骤304:将所述第一区域中的图像替换为所述第二区域中的图像。
在上述步骤302中,可以采用多种方法对所述第一图像的第一区域的图像进行处理,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域。在本申请实施例中,检测第一区域的方法可以利用索贝尔算子(Sobel operator)。索贝尔算子主要用作边缘检测,它是一离散性差分算子,用来运算图像亮度函数的灰度的近似值。在图像的任何一点使用此算子,将会产生对应的灰度矢量或是其法矢量。索贝尔算子是一阶导数的边缘检测算子,通过3×3模板作为核与图像中的每个像素点做卷积和运算,然后选取合适的阈值以提取边缘。
如表1所述,索贝尔卷积因子为:
表1:
该索贝尔卷积因子包含两组3×3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值。计算公式如公式1、公式2所示:
其中,Gx和Gy分别表示横向及纵向边缘检测的图像灰度值,(x,y)该点灰度值大小为G,A表示经过灰度处理的原始图像。
具体计算过程如公式3、公式4所示:
Gx=(-1)*f(x-1,y-1)+0*f(x,y-1)+1*f(x+1,y-1)
+(-2)*f(x-1,y)+0*f(x,y)+2*f(x+1,y)
+(-1)*f(x-1,y+1)+0*f(x,y+1)+1*f(x+1,y+1)
=[f(x+1,y-1)+2*f(x+1,y)+f(x+1,y+1)]-[f(x-1,y-1)+2*f(x-1,y)+f(x-1,y+1)]
……公式3
Gy=1*f(x-1,y-1)+2*f(x,y-1)+1*f(x+1,y-1)
+0*f(x-1,y)0*f(x,y)+0*f(x+1,y)
+(-1)*f(x-1,y+1)+(-2)*f(x,y+1)+(-1)*f(x+1,y+1)
=[f(x-1,y-1)+2f(x,y-1)+f(x+1,y-1)]-[f(x-1,y+1)+2*f(x,y+1)+f(x+1,y+1)]
……公式4
其中,f(a,b)表示图像(a,b)点的灰度值。
图像的每一个像素的横向及纵向灰度值通过以下公式5结合,来计算该点灰度的大小:
通常,如公式6所示,为了提高效率使用不开平方的近似值:
|G|=|Gx|+|Gy| ……公式6
如果G大于某一阀值,则认为该点(x,y)为边缘点。
同时可用公式7计算梯度方向:
索贝尔算子根据像素点上下、左右邻点灰度加权差,在边缘处达到极值这一现象检测边缘。从而得到被虚拟现实头戴装置遮挡的脸部的边缘。
综上所述,步骤302可以具体包括如下步骤:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
进一步地,如图4所示,在深度摄像头组采集到的第一图像中,计算检测到的第一区域的边缘像素点的特征值,这里设第一区域中的边缘像素点为(s1、s2、s3、s4、s5、s6)。
因此,在步骤303中,可以采用多种方法得到第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点。本申请实施例中,匹配像素点可以利用尺度不变特征变换(Scale-invariant feature transform,SIFT)。SIFT特征是图像的局部特征,其对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性。
本申请实施例中,要对第一区域和第二区域进行SIFT特征匹配。在进行SIFT特征匹配之前,还需进行SIFT特征检测,从图像区域中提取对尺度缩放、旋转、亮度变化无关的特征向量。
具体地,SIFT特征检测主要包括以下四个步骤:
尺度空间极值检测:搜索所有尺度上的图像位置。通过高斯微分函数来识别潜在的对于尺度和旋转不变的兴趣点;
关键点定位:为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它的图像域和尺度域的相邻点大或者小。在每个候选的位置上,通过一个拟合精细的模型来确定位置和尺度。关键点的选择依据于它们的稳定程度;
方向确定:基于图像局部的梯度方向,分配给每个关键点位置一个或多个方向。所有后面的对图像数据的操作都相对于关键点的方向、尺度和位置进行变换,从而提供对于这些变换的不变性;
关键点描述:在每个关键点周围的领域内,在选定的尺度上测量图像局部的梯度。这些梯度被变换成一种表示,这种表示允许比较大的局部形状的变形和光照变化。
在SIFT特征匹配中,以特征点为中心取16×16的邻域作为采样窗口,将采样点与特征点的相对方向通过高斯加权后归入包含8个二进制文件(bin)的方向直方图,最后获得4×4×8的128维特征描述子。当两幅图像的SIFT特征向量生成以后,可以采用关键点特征向量的欧式距离作为两幅图像中关键点的相似性判定度量。取某个关键点,通过遍历找到另一图像中的距离最近的两个关键点。在这两个关键点中,如果最近距离除以次近距离小于某个阈值,则判定为一对匹配点。
因此,在步骤303中,根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域,可以包括如下步骤:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点对应的像素点,所述对应的像素点围成的区域为第二图像的第二区域。
即提取所述第一区域的边缘像素点的SIFT特征,提取第二图像中的像素点的SIFT特征,并进行匹配。如图5所示,例如s1与s7相匹配,s2与s8相匹配。就在内置深度摄像头采集到的图像中,确定与深度摄像头组采集到的图像中的像素点(s1、s2、s3、s4、s5、s6)特征值相匹配的(s7、s8、s9、s10、s11、s12)。因此,根据第一区域边缘像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点对应的像素点,所述对应的像素点围成的区域为第二图像的第二区域。
进一步地,在步骤304中,将所述第一区域中的图像替换为所述第二区域中的图像,具体包括如下步骤:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
其中,如图6所示,将所述第一区域中的图像替换为所述第二区域中的图像。即将(s1、s2、s3、s4、s5、s6)各点的围成的图像替换为与之相匹配的(s7、s8、s9、s10、s11、s12)各点的围成的图像,从而将所述第一区域中的图像替换为所述第二区域中的图像。
进一步地,在第一区域中的图像替换为所述第二区域中的图像后,使用中值滤波的方法对上述替换后的第一图像进行处理。
中值滤波是基于排序统计理论的一种能有效抑制噪声的非线性信号处理技术,中值滤波的基本原理是把数字图像或数字序列中一点的值用该点的一个邻域中各点值的中值代替,让周围的像素值接近的真实值,从而消除孤立的噪声点。方法是用某种结构的二维滑动模板,将板内像素按照像素值的大小进行排序,生成单调上升(或下降)的为二维数据序列。
中值滤波与均值滤波器以及其他线性滤波器相比,它能够很好地滤除脉冲噪声,同时又能够保护目标图像边缘。它是一种邻域运算,类似于卷积,但计算的不是加权求和,而是把邻域中的像素按灰度级进行排序,然后选择该组的中间值作为输出像素值,中值滤波按公式8可定义为:
g(x,y)=median{f(x-i,y-j)},(i,j)∈W ……公式8
其中,g(x,y)为输出像素灰度值,f(x-i,y-j)为输入像素灰度值,W为模板窗口。
本申请实施例的中值滤波实现过程如图7、图8、图9所示。标准的中值滤波器都是由一个奇数大小尺寸的滑动窗组成,通常为3×3窗或5×5窗等。本申请实施例中,如图7所示,像素区域以3×3窗为例,该窗沿着第一图像的边缘像素点的图像数据的行方向逐像素滑动,在每一次滑动期间内,方形窗中的所有像素按照灰度值被排序,这组数据中的中值作为输出,替代原来窗函数的中心位置像素的灰度值。例如,图8示出了对图7中的3×3窗区域的灰度值进行排序:1、5、7、9、12、13、18、21、24,这组灰度值的中值为12,则用12替代原来窗函数的中心位置的像素的灰度值。基于相同的方法,用第一区域的边缘像素点所在像素区域的灰度值的中值替换所述像素区域的像素点的灰度值。
需要说明的是,如果窗口中有奇数个像素,中值取像素按灰度值大小排序后的中间位置像素灰度值。如果窗口中有偶数个像素,中值取像素按灰度值大小排序后,中间两个像素灰度的平均值。中值滤波的窗口形状和尺寸对滤波器效果影响很大,不同图像内容和不同应用要求往往选用不同的窗口形状和尺寸。上述中值滤波的区域及灰度值取值仅为示例,本申请实施例对灰中值滤波的区域及灰度值的取值不作限制。
综上所述,本申请实施例提供的一种虚拟现实人像采集方法,基于虚拟现实情境下,通过对获取到的第一图像和第二图像的局部区域的边缘像素点进行匹配,将局部区域中的图像进行替换,从而生成完整的虚拟现实人脸图像,提高了用户体验。
基于相同的技术构思,本申请实施例还提供了一种虚拟现实人像采集装置,参见图10,本申请实施例提供的装置包括:
获取模块1001,用于获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;
检测模块1002,用于检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;
匹配模块1003,用于根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;
处理模块1004,用于将所述第一区域中的图像替换为所述第二区域中的图像。
具体的,所述检测模块1002用于:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
具体的,所述匹配模块1003用于:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点,所述相匹配的像素点围成的区域为第二图像的第二区域。
具体的,所述处理模块1004具体用于:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
基于相同的技术构思,本申请实施例还提供了一种装置1100,该装置1100可实现前述实施例描述的对象处理流程。
图11示例性地示出了根据各种实施例的示例装置1100,装置1100可包括一个或多个处理器1102,系统控制逻辑1101耦合于至少一个处理器1102,非易失性存储器(non-volatile memory,NMV)/存储器1104耦合于系统控制逻辑1101,网络接口1106耦合于系统控制逻辑1101。
处理器1102可包括一个或多个单核处理器或多核处理器。处理器1102可包括任何一般用途处理器或专用处理器(如图像处理器、应用处理器基带处理器等)的组合。
一个实施例中的系统控制逻辑1101,可包括任何适当的接口控制器,以提供到处理器1102中的至少一个的任何合适的接口,和/或提供到与系统控制逻辑1101通信的任何合适的设备或组件的任何合适的接口。
一个实施例中的系统控制逻辑1101,可包括一个或多个内存控制器,以提供到系统内存1103的接口。系统内存1103用来加载以及存储数据和/或指令。例如,对应装置1100,在一个实施例中,系统内存1103可包括任何合适的易失性存储器。
NVM/存储器1104可包括一个或多个有形的非暂时的计算机可读介质,用于存储数据和/或指令。例如,NVM/存储器1104可包括任何合适的非易失性存储装置,如一个或多个硬盘(hard disk device,HDD),一个或多个光盘(compact disk,CD),和/或一个或多个数字通用盘(digital versatile disk,DVD)。
NVM/存储器1104可包括存储资源,该存储资源物理上是该系统所安装的或者可以被访问的设备的一部分,但不一定是设备的一部分。例如,NVM/存储器1104可经由网络接口1106被网络访问。
系统内存1103以及NVM/存储器1104可分别包括临时的或持久的指令1110的副本。指令1110可包括当由处理器1102中的至少一个执行时导致装置1100实现图3描述的方法的指令。各实施例中,指令1110或硬件、固件,和/或软件组件可另外地/可替换地被置于系统控制逻辑1101,网络接口1106和/或处理器1102。
网络接口1106可包括一个接收器来为装置1100提供无线接口来与一个或多个网络和/或任何合适的设备进行通信。网络接口1106可包括任何合适的硬件和/或固件。网络接口1106可包括多个天线来提供多输入多输出无线接口。在一个实施例中,网络接口1106可包括一个网络适配器、一个无线网络适配器、一个电话调制解调器,和/或无线调制解调器。
在一个实施例中,处理器1102中的至少一个可以与用于系统控制逻辑的一个或多个控制器的逻辑一起封装。在一个实施例中,处理器中的至少一个可以与用于系统控制逻辑的一个或多个控制器的逻辑一起封装以形成系统级封装。在一个实施例中,处理器中的至少一个可以与用于系统控制逻辑的一个或多个控制器的逻辑集成在相同的管芯上。在一个实施例中,处理器中的至少一个可以与用于系统控制逻辑的一个或多个控制器的逻辑集成在相同的管芯上以形成系统芯片。
装置1100可进一步包括输入/输出装置1105。输入/输出装置1105可包括用户接口旨在使用户与装置1100进行交互,可包括外围组件接口,其被设计为使得外围组件能够与系统交互,和/或,可包括传感器,旨在确定环境条件和/或有关装置1100的位置信息。
基于相同的技术构思,本申请实施例还提供了一个或多个计算机可读介质,所述可读介质上存储有指令,所述指令被一个或多个处理器执行时,使得通信设备执行前述实施例描述的方法。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种虚拟现实人像采集方法,其特征在于,该方法包括:
获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;
检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;
根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;
将所述第一区域中的图像替换为所述第二区域中的图像。
2.如权利要求1所述的方法,其特征在于,
检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,具体包括如下步骤:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
3.如权利要求1所述的方法,其特征在于,
根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域,具体包括如下步骤:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点,所述相匹配的像素点围成的区域为第二图像的第二区域。
4.如权利要求1所述的方法,其特征在于,
将所述第一区域中的图像替换为所述第二区域中的图像,具体包括如下步骤:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
5.一种虚拟现实人像采集装置,其特征在于,包括:
获取模块,用于获取第一图像和第二图像,所述第一图像包括人脸,所述人脸的局部区域被虚拟现实头戴装置遮挡,所述第二图像包括人脸的局部区域,所述第二图像由所述虚拟现实头戴装置中的图像采集装置采集得到;
检测模块,用于检测所述第一图像的第一区域,所述第一区域是被虚拟现实头戴装置遮挡的人脸的局部区域,并得到所述第一区域的边缘像素点的特征值;
匹配模块,用于根据所述第一区域的边缘像素点的特征值,在第二图像中得到第二区域;
处理模块,用于将所述第一区域中的图像替换为所述第二区域中的图像。
6.如权利要求5所述的装置,其特征在于,所述检测模块具体用于:
对所述第一图像的像素点进行卷积计算,得到像素点的灰度值;
检测出所述像素点的灰度值大于设定阈值的像素点为所述第一区域的边缘像素点,所述边缘像素点围成的区域为所述第一图像的第一区域。
7.如权利要求5所述的装置,其特征在于,所述匹配模块具体用于:
计算所述第一区域的边缘像素点的特征值;
计算所述第二图像中的像素点的特征值;
将所述第一区域的边缘像素点的特征值与所述第二图像中的像素点的特征值进行匹配;
根据像素点的特征值的匹配结果得到所述第二图像中与所述第一区域的边缘像素点的特征值相匹配的像素点,所述相匹配的像素点围成的区域为第二图像的第二区域。
8.如权利要求5所述的装置,其特征在于,所述处理模块具体用于:
将所述第一区域中的图像替换为所述第二区域中的图像;
针对所述第一区域的边缘像素点,确定该像素点所在像素块中的像素点灰度值的平均值,并将该边缘像素点的灰度值替换用该灰度值的平均值;其中,所述像素块中包括所述第一区域内的像素点以及所述第一区域外的像素点。
9.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令在被计算机调用时,使所述计算机执行如权利要求1至4任一项所述的方法。
10.一种装置,其特征在于,包括:一个或多个处理器;以及一个或多个计算机可读介质,所述可读介质上存储有指令,所述指令被所述一个或多个处理器执行时,使得所述装置执行如权利要求1至4任一项所述的方法。
CN201711103597.2A 2017-11-10 2017-11-10 一种虚拟现实人像采集方法及装置 Pending CN109785369A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711103597.2A CN109785369A (zh) 2017-11-10 2017-11-10 一种虚拟现实人像采集方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711103597.2A CN109785369A (zh) 2017-11-10 2017-11-10 一种虚拟现实人像采集方法及装置

Publications (1)

Publication Number Publication Date
CN109785369A true CN109785369A (zh) 2019-05-21

Family

ID=66484418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711103597.2A Pending CN109785369A (zh) 2017-11-10 2017-11-10 一种虚拟现实人像采集方法及装置

Country Status (1)

Country Link
CN (1) CN109785369A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385514A (zh) * 2020-02-18 2020-07-07 华为技术有限公司 人像处理方法和装置以及终端
CN111767924A (zh) * 2020-07-03 2020-10-13 杭州睿琪软件有限公司 图像处理方法、图像处理装置、电子设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104539868A (zh) * 2014-11-24 2015-04-22 联想(北京)有限公司 一种信息处理方法及电子设备
CN107004296A (zh) * 2014-08-04 2017-08-01 脸谱公司 用于对虚拟现实环境的遮挡面部进行重构的方法和系统
CN107203263A (zh) * 2017-04-11 2017-09-26 北京峰云视觉技术有限公司 一种虚拟现实眼镜系统及图像处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107004296A (zh) * 2014-08-04 2017-08-01 脸谱公司 用于对虚拟现实环境的遮挡面部进行重构的方法和系统
CN104539868A (zh) * 2014-11-24 2015-04-22 联想(北京)有限公司 一种信息处理方法及电子设备
CN107203263A (zh) * 2017-04-11 2017-09-26 北京峰云视觉技术有限公司 一种虚拟现实眼镜系统及图像处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASAYUKI TAKEMURA, YUICHI OHTA: "Diminishing Head-Mounted Display for Shared Mixed Reality", 《PROCEEDINGS OF THE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111385514A (zh) * 2020-02-18 2020-07-07 华为技术有限公司 人像处理方法和装置以及终端
CN111385514B (zh) * 2020-02-18 2021-06-29 华为技术有限公司 人像处理方法和装置以及终端
WO2021164289A1 (zh) * 2020-02-18 2021-08-26 华为技术有限公司 人像处理方法和装置以及终端
CN111767924A (zh) * 2020-07-03 2020-10-13 杭州睿琪软件有限公司 图像处理方法、图像处理装置、电子设备、存储介质
WO2022002002A1 (zh) * 2020-07-03 2022-01-06 杭州睿琪软件有限公司 图像处理方法、图像处理装置、电子设备、存储介质
CN111767924B (zh) * 2020-07-03 2024-01-26 杭州睿琪软件有限公司 图像处理方法、图像处理装置、电子设备、存储介质

Similar Documents

Publication Publication Date Title
US9741125B2 (en) Method and system of background-foreground segmentation for image processing
CN110874864B (zh) 获取对象三维模型的方法、装置、电子设备及系统
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
CN107862698B (zh) 基于k均值聚类的光场前景分割方法及装置
Ren et al. Exploiting global priors for RGB-D saliency detection
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
CN110276317B (zh) 一种物体尺寸检测方法、物体尺寸检测装置及移动终端
US9704254B2 (en) Stereo image matching by shape preserving filtering of a cost volume in a phase domain
US20170154204A1 (en) Method and system of curved object recognition using image matching for image processing
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN107852533A (zh) 三维内容生成装置及其三维内容生成方法
CN111402170B (zh) 图像增强方法、装置、终端及计算机可读存储介质
Imamoglu et al. Hyperspectral image dataset for benchmarking on salient object detection
US10282898B1 (en) Three-dimensional scene reconstruction
CN110276831B (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
CN102761768A (zh) 一种实现立体成像的方法及装置
CN112802081A (zh) 一种深度检测方法、装置、电子设备及存储介质
CN109785369A (zh) 一种虚拟现实人像采集方法及装置
Gava et al. Dense scene reconstruction from spherical light fields
CN116883770A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
Csillik Superpixels: The end of pixels in obia. A comparison of stat-of-the-art superpixel methods for remote sensing data
CN113920433A (zh) 物体表面材质的分析方法和装置
CN108109158B (zh) 基于自适应阈值分割的视频穿越处理方法及装置
JP7120740B2 (ja) 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス
Lee et al. Material Type Recognition of Indoor Scenes via Surface Reflectance Estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190521