CN107527381B - 图像处理方法及装置、电子装置和计算机可读存储介质 - Google Patents
图像处理方法及装置、电子装置和计算机可读存储介质 Download PDFInfo
- Publication number
- CN107527381B CN107527381B CN201710814289.4A CN201710814289A CN107527381B CN 107527381 B CN107527381 B CN 107527381B CN 201710814289 A CN201710814289 A CN 201710814289A CN 107527381 B CN107527381 B CN 107527381B
- Authority
- CN
- China
- Prior art keywords
- image
- preset
- frame
- predetermined
- dimensional background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000009471 action Effects 0.000 claims abstract description 33
- 230000008859 change Effects 0.000 claims abstract description 31
- 230000004927 fusion Effects 0.000 claims description 81
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000009877 rendering Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 12
- 241001465754 Metazoa Species 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 abstract description 23
- 210000003414 extremity Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 241000196324 Embryophyta Species 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000007499 fusion processing Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010587 phase diagram Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 244000304217 Brassica oleracea var. gongylodes Species 0.000 description 1
- 241000219843 Pisum Species 0.000 description 1
- 240000004713 Pisum sativum Species 0.000 description 1
- 235000010582 Pisum sativum Nutrition 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种合并图像的图像处理方法。合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成。预定前景图像根据当前用户在场景图像中的人物区域图像的动作信息渲染得到。图像处理方法包括判断连续两帧合并图像对应的两帧人物区域图像的位置变化是否大于预定阈值,以及在位置变化大于预定阈值时以前一帧合并图像或预定三维背景图像作为当前帧合并图像。本发明还公开一种图像处理装置、电子装置和计算机可读存储介质。本发明实施方式的图像处理方法及装置、电子装置和计算机可读存储介质在与连续两帧预定前景图像关联的连续两帧人物图像区域不稳定时以稳定的合并图像进行替代,使全部过程中合并图像保持稳定,提升用户体验。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种图像处理方法、图像处理装置、电子装置和计算机可读存储介质。
背景技术
在使用电子装置进行视频时,电子设备在意外掉落等状态下可能会导致当前用户瞬时离开摄像头的拍摄视场,从而无法获取到当前用户的动作以对合并图像中的预定前景图像进行渲染,从而导致显示的合并图像中的前景图像消失,用户体验差。
发明内容
本发明的实施例提供了一种图像处理方法、图像处理装置、电子装置和计算机可读存储介质。
本发明实施方式的图像处理方法用于处理合并图像。所述合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成。所述预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到。所述图像处理方法包括:
判断连续两帧所述合并图像对应的两帧所述人物区域图像的位置变化是否大于预定阈值,所述连续两帧所述合并图像包括前一帧合并图像和当前帧合并图像;和
在所述位置变化大于预定阈值时,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像。
本发明实施方式的图像处理装置用于处理合并图像,所述合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成。所述预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到。所述图像处理装置包括处理器,所述处理器用于判断连续两帧所述合并图像对应的两帧所述人物区域图像的位置变化是否大于预定阈值,所述连续两帧所述合并图像包括前一帧合并图像和当前帧合并图像,以及在所述位置变化大于预定阈值时,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像。
本发明实施方式的电子装置包括一个或多个处理器、存储器和一个或多个程序。其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行上述的图像处理方法的指令。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成上述的图像处理方法。
本发明实施方式的图像处理方法、图像处理装置、电子装置和计算机可读存储介质,在处理渲染后的预定前景图像与预定三维背景图像的合并图像时,通过与连续两帧预定前景图像相关联的对应的连续两帧人物图像区域的位置变化判断人像的稳定程度,并在不稳定时以稳定的合并图像进行替代,使得全部过程中合并图像始终保持稳定,从而改善用户的使用体验。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明某些实施方式的图像处理方法的流程示意图。
图2是本发明某些实施方式的图像处理装置的示意图。
图3是本发明某些实施方式的电子装置的结构示意图。
图4是本发明某些实施方式的图像处理方法的流程示意图。
图5是本发明某些实施方式的图像处理方法的流程示意图。
图6是本发明某些实施方式的图像处理方法的流程示意图。
图7(a)至图7(e)是根据本发明一个实施例的结构光测量的场景示意图。
图8(a)和图8(b)是根据本发明一个实施例的结构光测量的场景示意图。
图9是本发明某些实施方式的图像处理方法的流程示意图。
图10是本发明某些实施方式的图像处理方法的流程示意图。
图11是本发明某些实施方式的图像处理方法的流程示意图。
图12是本发明某些实施方式的图像处理方法的流程示意图。
图13是本发明某些实施方式的图像处理方法的流程示意图。
图14是本发明某些实施方式的图像处理装置的示意图。
图15是本发明某些实施方式的电子装置的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明实施方式的图像处理方法用于处理合并图像。合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成。预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到。图像处理方法包括:
02:判断连续两帧合并图像对应的两帧人物区域图像的位置变化是否大于预定阈值,连续两帧合并图像包括前一帧合并图像和当前帧合并图像;和
04:在位置变化大于预定阈值时,以前一帧合并图像或预定三维背景图像作为当前帧合并图像。
请一并参阅图2至3,本发明实施方式的图像处理方法可以由本发明实施方式的图像处理装置100实现。本发明实施方式的图像处理装置100用于处理合并图像。合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成。预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到。图像处理装置100包括处理器20。步骤02和步骤04均可以由处理器20实现。
也即是说,处理器20可用于判断连续两帧合并图像对应的两帧人物区域图像的位置变化是否大于预定阈值,连续两帧合并图像包括前一帧合并图像和当前帧合并图像,以及在位置变化大于预定阈值时,以前一帧合并图像或预定三维背景图像作为当前帧合并图像。
在某些实施方式中,预定前景图像包括二维和/或三维的预定前景图像。预定前景图像包括虚拟人物、真实人物、动植物中的至少一种,真实人物排除了当前用户自身。其中,虚拟人物可以是动画人物,例如马里奥、柯南、大头儿子、蜡笔小新等;真实人物可以是著名人物,例如奥黛丽赫本、憨豆先生、哈利波特等,动植物可以是动画的动物或植物,例如米老鼠、唐老鸭、豌豆射手等。
预定前景图像可跟随模仿当前用户的动作信息。其中,动作信息包括当前用户的表情和肢体动作中的至少一种。也即是说,当前动作信息可以仅包括当前用户的表情或肢体动作,也可同时包括当前用户的表情和肢体动作两者。
在某些实施方式中,预定三维背景图像可以是由实际场景建模得到的预定三维背景图像,也可以是动画制作得到的预定三维背景图像。预定三维背景图像能够随机选取或由当前用户选定。
本发明实施方式的图像处理装置100可以应用于本发明实施方式的电子装置1000。也即是说,本发明实施方式的电子装置1000包括本发明实施方式的图像处理装置100。
在某些实施方式中,电子装置1000包括手机、平板电脑、笔记本电脑、智能手环、智能手表、智能头盔、智能眼镜等。
本发明实施方式的图像处理方法、图像处理装置100和电子装置1000在处理渲染后的预定前景图像与预定三维背景图像的合并图像时,通过与连续两帧预定前景图像相关联的对应的连续两帧人物图像区域的位置变化判断人像的稳定程度,并在不稳定时以稳定的合并图像进行替代,使得全部过程中合并图像始终保持稳定,从而改善用户的使用体验。
请参阅图4,在某些实施方式中,本发明实施方式的图像处理方法还包括:
011:以预设频率采集多帧当前用户的场景图像;
012:以预设频率采集多帧当前用户的深度图像;
013:处理每帧场景图像和每帧深度图像以提取当前用户的动作信息;
014:根据动作信息渲染预定前景图像以使每帧预定前景图像跟随当前用户的动作;和
015:将每帧渲染后的预定前景图像和预定三维背景图像融合得到多帧合并图像以输出视频图像。
请再参阅图2,图像处理装置100还包括可见光摄像头11和深度图像采集组件12。步骤011可以由可见光摄像头11实现,步骤012可以由深度图像采集组件12实现,步骤013、步骤014和步骤015可以由处理器20实现。
也即是说,可见光摄像头11可用于以预设频率采集多帧当前用户的场景图像;深度图像采集组件12可用于以预设频率采集多帧当前用户的深度图像;处理器20可用于处理每帧场景图像和每帧深度图像以提取当前用户的动作信息,根据动作信息渲染预定前景图像以使每帧预定前景图像跟随当前用户的动作,以及将每帧渲染后的预定前景图像和预定三维背景图像融合得到多帧合并图像以输出视频图像。
其中,预设频率指的是可见光摄像头11和深度图像采集组件12每秒钟采集图像的帧率,帧率的取值可以是每秒钟30帧、每秒钟60帧、每秒钟120帧等。帧率越高,视频图像越流畅。可见光摄像头11采集的场景图像是灰度图像或彩色图像,深度图像采集组件12采集的深度图像表征包含当前用户的场景中各个人或物体的深度信息。在本发明的具体实施例中,可见光摄像头11和深度图像采集组件12应采用同一预设频率进行图像采集,如此,多帧场景图像与多帧深度图像一一对应,则处理器20处理每帧场景图像及对应的深度图像后得到的动作信息可渲染一帧对应的预定前景图像,从而便于步骤015中对每帧预定前景图像与预定三维背景图像的融合处理。另外,场景图像的场景范围与深度图像的场景范围一致,且场景图像中的各个像素均能在深度图像中找到对应该像素的深度信息。
在将由当前用户的动作信息渲染后的每帧预定前景图像与对应的预定三维背景图像融合时,若由于电子装置1000的剧烈晃动使得在某一帧场景图像中未能提取到用户的人像,则处理器20无法根据该帧场景图像的当前用户的动作信息对对应帧的预定前景图像进行渲染,从而影响该帧预定前景图像与对应帧预定三维背景图像的融合。而前一帧场景图像可提取到当前用户的动作信息,因此可对前一帧的预定前景图像进行渲染,并得到合并图像。如此,即可采用前一帧的合并图像作为当前帧合并图像进行显示。当然,也可直接显示预定三维背景图像,从而避免画面剧烈抖动及变换给用户带来的较差的使用体验。
请参阅图5,在某些实施方式中,步骤012以预设频率采集多帧当前用户的深度图像包括:
0121:向当前用户投射结构光;
0122:以预设频率拍摄多帧经当前用户调制的结构光图像;和
0123:解调每帧结构光图像的各个像素对应的相位信息以得到多帧深度图像。
请再参阅图2,在某些实施方式中,深度图像采集组件12包括结构光投射器121和结构光摄像头122。步骤0121可以由结构光投射器121实现。步骤0122和步骤0123均可以由构光摄像头122实现。
也即是说,结构光投射器121可用于向当前用户投射结构光;结构光摄像头122可用于以预设频率拍摄多帧经当前用户调制的结构光图像,以及解调每帧结构光图像的各个像素对应的相位信息以得到多帧深度图像。
具体地,结构光投射器121将一定模式的结构光投射到当前用户的面部及躯体上后,在当前用户的面部及躯体的表面会形成由当前用户调制后的结构光图像。结构光摄像头122以预设帧率拍摄多帧经调制后的结构光图像,再对每一帧结构光图像进行解调以得到与该帧结构光图像对应的深度图像,如此,对多帧结构光图像进行解调后即可得到多帧深度图像。其中,结构光的模式可以是激光条纹、格雷码、正弦条纹、非均匀散斑等。
请参阅图6,在某些实施方式中,步骤0123解调每帧结构光图像的各个像素对应的相位信息以得到多帧深度图像包括:
01231:解调每帧结构光图像中各个像素对应的相位信息;
01232:将相位信息转化为深度信息;和
01233:根据深度信息生成深度图像。
请再参阅图3,在某些实施方式中,步骤01231、步骤01232和步骤01233均可以由结构光摄像头122实现。
也即是说,结构光摄像头122可进一步用于解调每帧结构光图像中各个像素对应的相位信息,将相位信息转化为深度信息,以及根据深度信息生成深度图像。
具体地,与未经调制的结构光相比,调制后的结构光的相位信息发生了变化,在结构光图像中呈现出的结构光是产生了畸变之后的结构光,其中,变化的相位信息即可表征物体的深度信息。因此,结构光摄像头122首先解调出每帧结构光图像中各个像素对应的相位信息,再根据相位信息计算出深度信息,从而得到与该帧结构光图像对应的深度图像。
为了使本领域的技术人员更加清楚的了解根据结构光来采集当前用户的面部及躯体的深度图像的过程,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理。其中,光栅投影技术属于广义上的面结构光。
如图7(a)所示,在使用面结构光投影的时候,首先通过计算机编程产生正弦条纹,并将正弦条纹通过结构光投射器121投射至被测物,再利用结构光摄像头122拍摄条纹受物体调制后的弯曲程度,随后解调该弯曲条纹得到相位,再将相位转化为深度信息即可获取深度图像。为避免产生误差或误差耦合的问题,使用结构光进行深度信息采集前需对深度图像采集组件12进行参数标定,标定包括几何参数(例如,结构光摄像头122与结构光投射器121之间的相对位置参数等)的标定、结构光摄像头122的内部参数以及结构光投射器121的内部参数的标定等。
具体而言,第一步,计算机编程产生正弦条纹。由于后续需要利用畸变的条纹获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差为π/2的条纹,然后结构光投射器121将该四幅条纹分时投射到被测物(图7(a)所示的面具)上,结构光摄像头122采集到如图7(b)左边的图,同时要读取如图7(b)右边所示的参考面的条纹。
第二步,进行相位恢复。结构光摄像头122根据采集到的四幅受调制的条纹图(即结构光图像)计算出被调制相位,此时得到的相位图是截断相位图。因为四步移相算法得到的结果是由反正切函数计算所得,因此结构光调制后的相位被限制在[-π,π]之间,也就是说,每当调制后的相位超过[-π,π],其又会重新开始。最终得到的相位主值如图7(c)所示。
其中,在进行相位恢复过程中,需要进行消跳变处理,即将截断相位恢复为连续相位。如图7(d)所示,左边为受调制的连续相位图,右边是参考连续相位图。
第三步,将受调制的连续相位和参考连续相位相减得到相位差(即相位信息),该相位差表征了被测物相对参考面的深度信息,再将相位差代入相位与深度的转化公式(公式中涉及到的参数经过标定),即可得到如图7(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可以是其他任意图案。
作为一种可能的实现方式,本发明还可使用散斑结构光进行当前用户的深度信息的采集。
具体地,散斑结构光获取深度信息的方法是使用一基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构。衍射元件中基片的厚度大致为1微米,各个台阶的高度不均匀,高度的取值范围可为0.7微米~0.9微米。图8(a)所示结构为本实施例的准直分束元件的局部衍射结构。图8(b)为沿截面A-A的剖面侧视图,横坐标和纵坐标的单位均为微米。散斑结构光生成的散斑图案具有高度的随机性,并且会随着距离的不同而变换图案。因此,在使用散斑结构光获取深度信息前,首先需要标定出空间中的散斑图案,例如,在距离结构光摄像头122的0~4米的范围内,每隔1厘米取一个参考平面,则标定完毕后就保存了400幅散斑图像,标定的间距越小,获取的深度信息的精度越高。随后,结构光投射器121将散斑结构光投射到被测物(即当前用户)上,被测物表面的高度差使得投射到被测物上的散斑结构光的散斑图案发生变化。结构光摄像头122拍摄投射到被测物上的散斑图案(即结构光图像)后,再将散斑图案与前期标定后保存的400幅散斑图像逐一进行互相关运算,进而得到400幅相关度图像。空间中被测物体所在的位置会在相关度图像上显示出峰值,把上述峰值叠加在一起并经过插值运算后即可得到被测物的深度信息。
由于普通的衍射元件对光束进行衍射后得到多束衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大。即便是对衍射光进行二次衍射,得到的光束的均匀性也较低。因此,利用普通衍射元件衍射的光束对被测物进行投射的效果较差。本实施例中采用准直分束元件,该元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同的角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行投射的效果更好。同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且散斑结构光相对于其他排布均匀的结构光来说,达到同样的采集效果时,散斑结构光消耗的电量更低。
请参阅图9,在某些实施方式中,步骤013处理每帧场景图像和每帧深度图像以提取当前用户的动作信息包括:
0131:识别每帧场景图像中的人脸区域;
0132:从与场景图像对应的深度图像中获取与人脸区域对应的深度信息;
0133:根据人脸区域的深度信息确定人物区域的深度范围;
0134:根据人物区域的深度范围确定与人脸区域连接且落入深度范围内的人物区域以获得人物区域图像;和
0137:处理人物区域图像以获取当前用户的动作信息。
请再参阅图3,在某些实施方式中,步骤0131、步骤0132、步骤0133、步骤0134和步骤0137均可以由处理器20实现。
也即是说,处理器20可进一步用于识别每帧场景图像中的人脸区域,从与场景图像对应的深度图像中获取与人脸区域对应的深度信息,根据人脸区域的深度信息确定人物区域的深度范围,根据人物区域的深度范围确定与人脸区域连接且落入深度范围内的人物区域以获得人物区域图像,以及处理人物区域图像以获取当前用户的动作信息。
具体地,首先可采用已训练好的深度学习模型识别出每帧场景图像中的人脸区域,随后根据各帧场景图像与各帧深度图像一一对应的关系可确定出各帧场景图像中人脸区域的深度信息。由于人脸区域包括鼻子、眼睛、耳朵、嘴唇等特征,因此,人脸区域中的各个特征在深度图像中所对应的深度数据是不同的,例如,在人脸正对深度图像采集组件12时,深度图像采集组件12拍摄得的深度图像中,鼻子对应的深度数据可能较小,而耳朵对应的深度数据可能较大。因此,上述的人脸区域的深度信息可能为一个数值或是一个数值范围。其中,当人脸区域的深度信息为一个数值时,该数值可通过对人脸区域的深度数据取平均值得到;或者,可以通过对人脸区域的深度数据取中值得到。
由于人物区域包含人脸区域,也即是说,人物区域与人脸区域同处于某一个深度范围内,因此,处理器20确定出人脸区域的深度信息后,可以根据人脸区域的深度信息设定人物区域的深度范围,再根据人物区域的深度范围提取落入该深度范围内且与人脸区域相连接的人物区域,从而得到人物区域图像。
处理器20计算出人物区域图像后,可对人物区域图像进行处理。具体地,处理器20可首先识别出人物区域图像中的人脸区域,从而再对人脸区域进行表情识别;或者,处理器20直接处理步骤0131中得到的人脸区域以识别出当前用户的表情。随后,处理器20对每帧场景图像中的人物区域图像进行处理以得到当前用户肢体动作的信息。其中,当前用户肢体动作的信息可以通过模板匹配的方式来获得。处理器20将人物区域图像中的人物区域与多个人物模板进行匹配。首先匹配人物区域的头部;在头部匹配完成后,再对头部相匹配的剩余的多个人物模板进行下一肢体的匹配,即上半身躯干的匹配;在上半身躯干匹配完成后,再对头部及上半身躯干均相匹配的剩余的多个人物模板进行下一肢体的匹配,即上肢体和下肢体的匹配,从而根据模板匹配的方法确定当前用户肢体动作的信息。随后,处理器20再将识别出的当前用户的表情及肢体动作对预定前景图像进行渲染,使预定前景图像中的人物或动植物能够跟随模仿当前用户的表情和肢体动作。最后,处理器20将渲染后的预定前景图像与预定三维背景图像融合以得到合并图像。
如此,即可获得能够跟随模仿当前用户的表情和肢体动作的预定前景图像。由于人物区域图像是根据深度信息从每帧场景图像中分割出来的,且深度信息的获取不受环境中光照、色温等因素的影像响,因此,提取出的人物区域图像更加准确,则处理器20处理人物区域图像得到的当前用户的表情和肢体动作也更准确,从而,处理器20可使用较为准确地动作信息对预定前景图像进行渲染以得到更好的跟随模仿效果。
请参阅图10,在某些实施方式中,步骤013处理每帧场景图像和每帧深度图像以提取当前用户的动作信息还包括:
0135:处理每帧场景图像以得到每帧场景图像的全场边缘图像;和
0136:根据每帧场景图像的全场边缘图像修正与该帧全场边缘图像对应的人物区域图像。
步骤0137处理人物区域图像以获取当前用户的动作信息包括:
01371:处理修正后的人物区域图像以获取当前用户的动作信息。
请再参阅图3,在某些实施方式中,步骤0135、步骤0136和步骤01371均可以由处理器20实现。
也即是说,处理器20还可用于处理每帧场景图像以得到每帧场景图像的全场边缘图像,根据每帧场景图像的全场边缘图像修正与该帧全场边缘图像对应的人物区域图像,以及处理修正后的人物区域图像以获取当前用户的动作信息。
处理器20首先对每帧场景图像进行边缘提取以得到多帧场景图像的全场边缘图像,其中,场景图像的全场边缘图像中的边缘线条包括当前用户以及当前用户所处场景中背景物体的边缘线条。具体地,可通过Canny算子对每帧场景图像进行边缘提取。Canny算子进行边缘提取的算法的核心主要包括以下几步:首先,用2D高斯滤波模板对场景图像进行卷积以消除噪声;随后,利用微分算子得到各个像素的灰度的梯度值,并根据梯度值计算各个像素的灰度的梯度方向,通过梯度方向可以找到对应像素沿梯度方向的邻接像素;随后,遍历每一个像素,若某个像素的灰度值与其梯度方向上前后两个相邻像素的灰度值相比不是最大的,那么认为这个像素不是边缘点。如此,即可确定场景图像中处于边缘位置的像素点,从而获得边缘提取后的场景图像的全场边缘图像。
每一帧场景图像对应一帧全场边缘图像,同样地,每一帧场景图像对应一帧人物区域图像,因此,场景图像的全场边缘图像和人物区域图像是一一对应的。处理器20获取场景图像的全场边缘图像后,根据场景图像的全场边缘图像对与场景图像的全场边缘图像对应的人物区域图像进行修正。可以理解,人物区域是将场景图像中与人脸区域连接并落入设定的深度范围的所有像素进行归并后得到的,在某些场景下,可能存在一些与人脸区域连接且落入深度范围内的物体。因此,可使用场景图像的全场边缘图对人物区域图像进行修正以得到更加准确的人物区域。
进一步地,处理器20还可对修正后的人物区域进行二次修正,例如,可对修正后的人物区域进行膨胀处理,扩大人物区域以保留人物区域的边缘细节。如此,处理器20处理得到的人物区域图像更加准确。
请参阅图11,在某些实施方式中,步骤015将每帧渲染后的预定前景图像和预定三维背景图像融合得到多帧合并图像以输出视频图像包括:
01511:获取每帧预定三维背景图像中的预定融合区域;
01512:根据与该帧预定三维背景图像对应的预定前景图像确定预定融合区域的待替换像素区域;
01513:将预定融合区域的待替换像素区域替换为与该帧预定三维背景图像对应的预定前景图像以得到合并图像;和
01514:处理多帧合并图像以输出视频图像。
请再参阅图3,在某些实施方式中,步骤01511、步骤01512、步骤01513和步骤01514均可以由处理器20实现。
也即是说,处理器20还可用于获取每帧预定三维背景图像中的预定融合区域,根据与该帧预定三维背景图像对应的预定前景图像确定预定融合区域的待替换像素区域,将预定融合区域的待替换像素区域替换为与该帧预定三维背景图像对应的预定前景图像以得到合并图像,以及处理多帧合并图像以输出视频图像。
可以理解,在预定三维背景图像通过实际场景建模得到时,预定三维背景图像中各个像素对应的深度数据在建模过程中就可直接获取;在预定三维背景图像通过动画制作得到时,预定三维背景图像中各个像素对应的深度数据可以由制作者自行设定;另外,预定三维背景图像中存在的各个物体也是已知的,因此,在使用预定三维背景图像进行图像融合处理前,可先根据深度数据以及存在于预定三维背景图像中的物体标定出预定前景图像的融合位置,即预定融合区域。由于每个预定前景图像中的人物或动植物的大小不一,因此,处理器20需根据每帧预定前景图像中的人物或动植物的大小确定预定融合区域中的待替换像素区域。随后,将预定融合区域中的待替换像素区域替换为预定前景图像即可得到融合后的合并图像。如此,实现预定三维前景图像与预定三维背景图像的融合。
请参阅图12,在某些实施方式中,步骤015将每帧渲染后的预定前景图像和预定三维背景图像融合得到多帧合并图像以输出视频图像包括:
01521:处理每帧预定三维背景图像以获取每帧预定三维背景图像的全场边缘图像;
01522:获取每帧预定三维背景图像的深度数据;
01523:根据每帧预定三维背景图像的全场边缘图像及深度数据以确定每帧预定三维背景图像的计算融合区域;
01524:根据与该帧预定三维背景图像对应的预定前景图像确定计算融合像素区域的待替换像素区域;
01525:将计算融合区域的代替换像素区域的待替换像素区域替换为与该帧预定三维背景图像对应的预定前景图像以得到合并图像;和
01526:处理多帧合并图像以输出视频图像。
请再参阅图3,在某些实施方式中,步骤01521、步骤01522、步骤01523、步骤01524步骤01525和步骤01526均可以由处理器20实现。
也即是说,处理器20还可用于处理每帧预定三维背景图像以获取每帧预定三维背景图像的全场边缘图像,获取每帧预定三维背景图像的深度数据,根据每帧预定三维背景图像的全场边缘图像及深度数据以确定每帧预定三维背景图像的计算融合区域,根据与该帧预定三维背景图像对应的预定前景图像确定计算融合像素区域的待替换像素区域,将计算融合区域的代替换像素区域的待替换像素区域替换为与该帧预定三维背景图像对应的预定前景图像以得到合并图像,以及处理多帧合并图像以输出视频图像。
可以理解,若预定三维背景图像与预定前景图像融合时,预定前景图像的融合位置未事先标定,则处理器20首先需确定预定前景图像在预定三维背景图像中的融合位置。具体地,处理器20先对预定三维背景图像进行边缘提取以得到全场边缘图像,并获取预定三维背景图像的深度数据,其中,深度数据在预定三维背景图像建模或动画制作过程中获取。随后,处理器20根据预定三维背景图像的全场边缘图像及深度数据确定预定三维背景图像中的计算融合区域。由于每个预定前景图像中的人物或动植物的大小不一,因此,需计算出预定三维前景图像中人物或动植物的大小,并根据预定前景图像中人物或动植物的大小确定计算融合区域中的待替换像素区域。最终,将每帧计算融合区域图像中的待替换像素区域替换为预定前景图像,从而得到多帧合并图像。如此,实现预定前景图像与预定三维背景图像的融合。
处理器20得到多帧合并图像后,多帧合并图像顺序排列并存储,多帧合并图像可由处理器20存储为视频格式形成视频图像,当视频图像以一定帧率在电子装置1000的显示器50(图14所示)上显示时,用户即可观看到流畅的视频画面。
在某些实施方式中,预定三维背景图像中的预定融合区域或计算融合区域可以是一个或者多个。当预定融合区域为一个时,预定前景图像在预定三维背景图像中的融合位置为即为上述唯一的一个预定融合区域;当计算融合区域为一个时,预定前景图像在预定三维背景图像中的融合位置为即为上述唯一的一个计算融合区域;当预定融合区域为多个时,预定前景图像在预定三维背景图像中的融合位置可为多个预定融合区域中的任意一个,更进一步地,在预定前景图像为三维图像时,由于预定前景图像具有深度信息,因此可在多个预定融合区域中寻找与该预定前景图像的深度信息相匹配的预定融合区域作为融合位置,以得到更好的融合效果;当计算融合区域为多个时,预定前景图像在计算三维背景图像中的融合位置可为多个计算融合区域中的任意一个,更进一步地,在预定前景图像为三维图像时,由于预定前景图像具有深度信息,因此可在多个计算融合区域中寻找与该预定前景图像的深度信息相匹配的计算融合区域作为融合位置,以得到更好的融合效果。
请参阅图13,在某些实施方式中,本发明实施方式的图像处理方法还包括:
05:在位置变化大于预定阈值时,判断位置变化的持续时间是否大于预定时间;和
06:在持续时间小于预定时间时,在持续时间内,以前一帧的合并图像或预定三维背景图像作为当前帧合并图像。
请再参阅图3,在某些实施方式中,步骤05和步骤06可以由处理器20实现。也即是说,处理器20还可用于位置变化大于预定阈值时,判断位置变化的持续时间是否大于预定时间,以及在持续时间小于预定时间时,在持续时间内,以前一帧的合并图像或预定三维背景图像作为当前帧合并图像。
具体地,可以理解,当场景图像中的人物区域位置的变化是由于电子装置1000的意外例如抖动或跌落等而产生时,通常用户会及时对电子装置1000进行调整,因此持续时间通常较短,设置预定时间,可有效判断拍摄角度的变化是否由用户真实意图产生,当持续时间小于预定时间时,可以认为这种变化是由意外产生,因此,可采用前一帧稳定的合并图像或预定三维背景图像在持续时间内作为当前帧的合并图像,从而保持画面的稳定。在拍摄角度调整回正常状态后,可重新通过当前帧的预定前景图像与预定三维背景图像生成合并图像。
请再参阅图13,在某些实施方式中,本发明实施方式的图像处理方法还包括:
07:在持续时间大于预定时间时,在预定时间内,以前一帧合并图像或预定三维背景图像作为当前帧合并图像,在预定时间后,以当前帧的预定前景图像与当前帧的预定三维背景图像融合以形成当前帧合并图像。
请再参阅图3,在某些实施方式中,步骤07可以由处理器20实现。也即是说,处理器20还可用于在持续时间大于预定时间时,在预定时间内,以前一帧合并图像或预定三维背景图像作为当前帧合并图像,在预定时间后,以当前帧的预定前景图像与当前帧的预定三维背景图像融合以形成当前帧合并图像。
当持续时间大于预定时间时,可以认为拍摄角度的变化是用户的真实意图,在预定时间内以稳定的合并图像或预定三维背景图像作为当前帧合并图像,在一定程度上保证了合并图像的连续性,在预定时间后,则以当前帧的预定前景图像与当前帧的预定三维背景图像融合以形成当前帧合并图像,此时,用于渲染该当前帧预定前景图像的场景图像中可能包含有人物区域图像,也可能不包含有人物区域图像。在用于渲染该当前帧预定前景图像的场景图像中包含人物区域图像时,以该帧人物区域图像渲染对应帧的预定前景图像,并将渲染后的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像。在用于渲染该当前帧预定前景图像的场景图像中包含人物区域图像时,直接以未渲染的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像,如此,加入预定前景图像的合并图像的画面更加丰富。
请一并参阅图3和14,本发明实施方式还提出一种电子装置1000。电子装置1000包括图像处理装置100。图像处理装置100可以利用硬件和/或软件实现。图像处理装置100包括成像设备10和处理器20。
成像设备10包括可见光摄像头11和深度图像采集组件12。
具体地,可见光摄像头11包括图像传感器111和透镜112,可见光摄像头11可用于捕捉当前用户的彩色信息以获得多帧场景图像,其中,图像传感器111包括彩色滤镜阵列(如Bayer滤镜阵列),透镜112的个数可为一个或多个。可见光摄像头11在获取每帧场景图像过程中,图像传感器111中的每一个成像像素感应来自拍摄场景中的光强度和波长信息,生成一组原始图像数据;图像传感器111将该组原始图像数据发送至处理器20中,处理器20对原始图像数据进行去噪、插值等运算后即得到彩色的场景图像。处理器20可按多种格式对原始图像数据中的每个图像像素逐一处理,例如,每个图像像素可具有8、10、12或14比特的位深度,处理器20可按相同或不同的位深度对每一个图像像素进行处理。
深度图像采集组件12包括结构光投射器121和结构光摄像头122,深度图像采集组件12可用于捕捉当前用户的深度信息以得到深度图像。结构光投射器121用于将结构光投射至当前用户,其中,结构光图案可以是激光条纹、格雷码、正弦条纹或者随机排列的散斑图案等。结构光摄像头122包括图像传感器1221和透镜1222,透镜1222的个数可为一个或多个。图像传感器1221用于捕捉结构光投射器121投射至当前用户上的多帧结构光图像。每帧结构光图像均可由深度采集组件12发送至处理器20进行解调、相位恢复、相位信息计算等处理以获取当前用户的深度信息。
在某些实施方式中,可见光摄像头11与结构光摄像头122的功能可由一个摄像头实现,也即是说,成像设备10仅包括一个摄像头和一个结构光投射器121,上述摄像头不仅可以拍摄场景图像,还可拍摄结构光图像。
除了采用结构光获取深度图像外,还可通过双目视觉方法、基于飞行时间差(Timeof Flight,TOF)等深度像获取方法来获取当前用户的深度图像。
此外,图像处理装置100还包括存储器30。存储器30可内嵌在电子装置1000中,也可以是独立于电子装置1000外的存储器,并可包括直接存储器存取(Direct MemoryAccess,DMA)特征。可见光摄像头11采集的原始图像数据或深度图像采集组件12采集的结构光图像相关数据均可传送至存储器30中进行存储或缓存。处理器20可从存储器30中读取原始图像数据以进行处理得到场景图像,也可从存储器30中读取结构光图像相关数据以进行处理得到深度图像。另外,场景图像和深度图像还可存储在存储器30中,以供处理器20随时调用处理,例如,处理器20调用多帧场景图像和多帧深度图像进行当前用户的动作信息提取,并将经由动作信息渲染后的预定前景图像与对应的预定三维背景图像进行融合处理以得到多帧合并图像,多帧合并图像顺序排列或存储形成视频图像。其中,预定前景图像、预定三维背景图像、合并图像、视频图像也可存储在存储器30中。
图像处理装置100还可包括显示器50。显示器50可直接从处理器20中获取视频图像,还可从存储器30中获取视频图像。显示器50显示视频图像以供用户观看,或者由图形引擎或图形处理器(Graphics Processing Unit,GPU)进行进一步的处理。图像处理装置100还包括编码器/解码器60,编码器/解码器60可编解码场景图像、深度图像、预定前景图像、预定三维背景图像、合并图像、视频图像等的图像数据,编码的图像数据可被保存在存储器30中,并可以在图像显示在显示器50上之前由解码器解压缩以进行显示。编码器/解码器60可由中央处理器(Central Processing Unit,CPU)、GPU或协处理器实现。换言之,编码器/解码器60可以是中央处理器(Central Processing Unit,CPU)、GPU、及协处理器中的任意一种或多种。
图像处理装置100还包括控制逻辑器40。成像设备10在成像时,处理器20会根据成像设备获取的数据进行分析以确定成像设备10的一个或多个控制参数(例如,曝光时间等)的图像统计信息。处理器20将图像统计信息发送至控制逻辑器40,控制逻辑器40控制成像设备10以确定好的控制参数进行成像。控制逻辑器40可包括执行一个或多个例程(如固件)的处理器和/或微控制器。一个或多个例程可根据接收的图像统计信息确定成像设备10的控制参数。
请参阅图14,本发明实施方式的电子装置1000包括一个或多个处理器20、存储器30和一个或多个程序31。其中一个或多个程序31被存储在存储器30中,并且被配置成由一个或多个处理器20执行。程序31包括用于执行上述任意一项实施方式的图像处理方法的指令。
例如,程序31包括用于执行以下步骤所述的图像处理方法的指令:
02:判断连续两帧合并图像对应的两帧人物区域图像的位置变化是否大于预定阈值,连续两帧合并图像包括前一帧合并图像和当前帧合并图像;和
04:在位置变化大于预定阈值时,以前一帧合并图像或预定三维背景图像作为当前帧合并图像。
再例如,程序31还包括用于执行以下步骤所述的图像处理方法的指令:
0131:识别每帧场景图像中的人脸区域;
0132:从与场景图像对应的深度图像中获取与人脸区域对应的深度信息;
0133:根据人脸区域的深度信息确定人物区域的深度范围;
0134:根据人物区域的深度范围确定与人脸区域连接且落入深度范围内的人物区域以获得人物区域图像;和
0137:处理人物区域图像以获取当前用户的动作信息。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置1000结合使用的计算机程序。计算机程序可被处理器20执行以完成上述任意一项实施方式的图像处理方法。
02:判断连续两帧合并图像对应的两帧人物区域图像的位置变化是否大于预定阈值,连续两帧合并图像包括前一帧合并图像和当前帧合并图像;和
04:在位置变化大于预定阈值时,以前一帧合并图像或预定三维背景图像作为当前帧合并图像。
0131:识别每帧场景图像中的人脸区域;
0132:从与场景图像对应的深度图像中获取与人脸区域对应的深度信息;
0133:根据人脸区域的深度信息确定人物区域的深度范围;
0134:根据人物区域的深度范围确定与人脸区域连接且落入深度范围内的人物区域以获得人物区域图像;和
0137:处理人物区域图像以获取当前用户的动作信息。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (16)
1.一种图像处理方法,用于处理合并图像,所述合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成,所述预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到,其特征在于,所述图像处理方法包括:
判断连续两帧所述合并图像对应的两帧所述人物区域图像的位置变化是否大于预定阈值,所述连续两帧所述合并图像包括前一帧合并图像和当前帧合并图像;和
在所述位置变化大于预定阈值时,判断所述位置变化的持续时间是否大于预定时间;和
在所述持续时间小于所述预定时间时,在所述持续时间内,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像,或直接显示所述预定三维背景图像;
在所述持续时间大于所述预定时间时,在所述预定时间内,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像,在所述预定时间后,以当前帧的预定前景图像与当前帧的预定三维背景图像融合以形成所述当前帧合并图像;其中,在所述当前帧的预定前景图像的场景图像中包含人物区域图像时,以所述当前帧的人物区域图像渲染对应帧的预定前景图像,并将渲染后的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像,在所述当前帧的预定前景图像的场景图像中不包含人物区域图像时,直接以未渲染的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像,或直接显示所述预定三维背景图像;
其中,所述预定三维背景图像中的预定融合区域或计算融合区域可以是一个或者多个,当预定融合区域为多个,在预定前景图像为三维图像时,在多个预定融合区域中寻找与所述预定前景图像的深度信息相匹配的预定融合区域作为融合位置进行融合;当计算融合区域为多个,在预定前景图像为三维图像时,在多个计算融合区域中寻找与所述预定前景图像的深度信息相匹配的计算融合区域作为融合位置进行融合;
根据所述动作信息渲染所述预定前景图像;和将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像;
其中,所述将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像的步骤包括:处理每帧所述预定三维背景图像以获取每帧所述预定三维背景图像的全场边缘图像;获取每帧所述预定三维背景图像的深度数据;根据每帧所述预定三维背景图像的全场边缘图像及所述深度数据以确定每帧所述预定三维背景图像的计算融合区域;根据与该帧所述预定三维背景图像对应的预定前景图像确定所述计算融合区域的待替换像素区域;将所述计算融合区域的待替换像素区域替换为与该帧所述预定三维背景图像对应的所述预定前景图像以得到所述合并图像;和处理多帧所述合并图像以输出视频图像。
2.根据权利要求1所述的图像处理方法,其特征在于,所述图像处理方法还包括:
以预设频率采集多帧当前用户的场景图像;
以所述预设频率采集多帧所述当前用户的深度图像;
处理每帧所述场景图像和每帧所述深度图像以提取所述当前用户的动作信息;
根据所述动作信息渲染所述预定前景图像以使每帧所述预定前景图像跟随所述当前用户的动作;和
将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像。
3.根据权利要求2所述的图像处理方法,其特征在于,所述以所述预设频率采集多帧所述当前用户的深度图像的步骤包括:
向所述当前用户投射结构光;
以所述预设频率拍摄多帧经所述当前用户调制的结构光图像;和
解调每帧所述结构光图像的各个像素对应的相位信息以得到多帧所述深度图像。
4.根据权利要求3所述的图像处理方法,其特征在于,所述解调每帧所述结构光图像的各个像素对应的相位信息以得到多帧所述深度图像的步骤包括:
解调每帧所述结构光图像中各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述深度图像。
5.根据权利要求2所述的图像处理方法,所述将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像的步骤包括:
获取每帧所述预定三维背景图像中的预定融合区域;
根据与该帧所述预定三维背景图像对应的所述预定前景图像确定所述预定融合区域的待替换像素区域;
将所述预定融合区域的待替换像素区域替换为与该帧所述预定三维背景图像对应的所述预定前景图像以得到所述合并图像;和
处理多帧所述合并图像以输出视频图像。
6.根据权利要求1所述的图像处理方法,其特征在于,所述预定前景图像包括二维和/或三维的预定前景图像,所述预定前景图像包括虚拟人物、真实人物、动植物中的至少一种,所述真实人物排除了所述当前用户自身;
所述预定三维背景图像包括由实际场景建模得到的预定三维背景图像,和/或动画制作得到的预定三维背景图像,所述预定三维背景图像能够随机选取或由所述当前用户选定。
7.根据权利要求1所述的图像处理方法,其特征在于,所述动作信息包括所述当前用户的表情和肢体动作中的至少一种。
8.一种图像处理装置,用于处理合并图像,所述合并图像由预定三维背景图像与可跟随当前用户动作的预定前景图像融合而成,所述预定前景图像根据所述当前用户在场景图像中的人物区域图像的动作信息渲染得到,其特征在于,所述图像处理装置包括处理器,所述处理器用于:
判断连续两帧所述合并图像对应的两帧所述人物区域图像的位置变化是否大于预定阈值,所述连续两帧所述合并图像包括前一帧合并图像和当前帧合并图像;和
在所述位置变化大于预定阈值时,判断所述位置变化的持续时间是否大于预定时间;和
在所述持续时间小于所述预定时间时,在所述持续时间内,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像,或直接显示所述预定三维背景图像;
在所述持续时间大于所述预定时间时,在所述预定时间内,以所述前一帧合并图像或所述预定三维背景图像作为所述当前帧合并图像,在所述预定时间后,以当前帧的预定前景图像与当前帧的预定三维背景图像融合以形成所述当前帧合并图像;其中,在所述当前帧的预定前景图像的场景图像中包含人物区域图像时,以所述当前帧的人物区域图像渲染对应帧的预定前景图像,并将渲染后的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像,在所述当前帧的预定前景图像的场景图像中不包含人物区域图像时,直接以未渲染的预定前景图像与对应的预定三维背景图像融合以形成当前帧合并图像,或直接显示所述预定三维背景图像;
其中,所述预定三维背景图像中的预定融合区域或计算融合区域可以是一个或者多个,当预定融合区域为多个,在预定前景图像为三维图像时,在多个预定融合区域中寻找与所述预定前景图像的深度信息相匹配的预定融合区域作为融合位置进行融合;当计算融合区域为多个,在预定前景图像为三维图像时,在多个计算融合区域中寻找与所述预定前景图像的深度信息相匹配的计算融合区域作为融合位置进行融合;
根据所述动作信息渲染所述预定前景图像;和将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像;
其中,所述将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像的步骤包括:处理每帧所述预定三维背景图像以获取每帧所述预定三维背景图像的全场边缘图像;获取每帧所述预定三维背景图像的深度数据;根据每帧所述预定三维背景图像的全场边缘图像及所述深度数据以确定每帧所述预定三维背景图像的计算融合区域;根据与该帧所述预定三维背景图像对应的预定前景图像确定所述计算融合区域的待替换像素区域;将所述计算融合区域的待替换像素区域替换为与该帧所述预定三维背景图像对应的所述预定前景图像以得到所述合并图像;和处理多帧所述合并图像以输出视频图像。
9.根据权利要求8所述的图像处理装置,其特征在于,所述图像处理装置还包括:
可见光摄像头,所述可见光摄像头用于以预设频率采集多帧当前用户的场景图像;
深度图像采集组件,所述深度图像采集组件用于以所述预设频率采集多帧所述当前用户的深度图像;
所述处理器还用于:
处理每帧所述场景图像和每帧所述深度图像以提取所述当前用户的动作信息;
根据所述动作信息渲染所述预定前景图像以使每帧所述预定前景图像跟随所述当前用户的动作;和
将每帧渲染后的所述预定前景图像与所述预定三维背景图像融合得到多帧合并图像以输出视频图像。
10.根据权利要求9所述的图像处理装置,其特征在于,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于:
以所述预设频率拍摄多帧经所述当前用户调制的结构光图像;和
解调每帧所述结构光图像的各个像素对应的相位信息以得到多帧所述深度图像。
11.根据权利要求10所述的图像处理装置,其特征在于,所结构光摄像头还用于:
解调每帧所述结构光图像中各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述深度图像。
12.根据权利要求9所述的图像处理装置,其特征在于,所述处理器还用于:
获取每帧所述预定三维背景图像中的预定融合区域;
根据与该帧所述预定三维背景图像对应的所述预定前景图像确定所述预定融合区域的待替换像素区域;
将所述预定融合区域的待替换像素区域替换为与该帧所述预定三维背景图像对应的所述预定前景图像以得到所述合并图像;和
处理多帧所述合并图像以输出视频图像。
13.根据权利要求8所述的图像处理装置,其特征在于,所述预定前景图像包括二维和/或三维的预定前景图像,所述预定前景图像包括虚拟人物、真实人物、动植物中的至少一种,所述真实人物排除了所述当前用户自身;
所述预定三维背景图像能够随机选取或由所述当前用户选定。
14.根据权利要求8所述的图像处理装置,其特征在于,所述动作信息包括所述当前用户的表情和肢体动作中的至少一种。
15.一种电子装置,其特征在于,所述电子装置包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行权利要求1至7任意一项所述的图像处理方法的指令。
16.一种计算机可读存储介质,其特征在于,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成权利要求1至7任意一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710814289.4A CN107527381B (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710814289.4A CN107527381B (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107527381A CN107527381A (zh) | 2017-12-29 |
CN107527381B true CN107527381B (zh) | 2023-05-12 |
Family
ID=60736035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710814289.4A Active CN107527381B (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107527381B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109416743B (zh) * | 2018-01-15 | 2022-05-24 | 深圳鲲云信息科技有限公司 | 一种用于识别人为动作的三维卷积装置 |
CN110415287B (zh) * | 2019-07-11 | 2021-08-13 | Oppo广东移动通信有限公司 | 深度图的滤波方法、装置、电子设备和可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102780855A (zh) * | 2011-05-13 | 2012-11-14 | 晨星软件研发(深圳)有限公司 | 影像处理的方法与相关装置 |
CN107146199A (zh) * | 2017-05-02 | 2017-09-08 | 厦门美图之家科技有限公司 | 一种人脸图像的融合方法、装置及计算设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8072470B2 (en) * | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7564476B1 (en) * | 2005-05-13 | 2009-07-21 | Avaya Inc. | Prevent video calls based on appearance |
US8111281B2 (en) * | 2007-06-29 | 2012-02-07 | Sony Ericsson Mobile Communications Ab | Methods and terminals that control avatars during videoconferencing and other communications |
CN101309389A (zh) * | 2008-06-19 | 2008-11-19 | 深圳华为通信技术有限公司 | 一种合成可视图像的方法、装置和终端 |
CN101452582B (zh) * | 2008-12-18 | 2013-09-18 | 北京中星微电子有限公司 | 一种实现三维视频特效的方法和装置 |
US9244533B2 (en) * | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
CN103577023B (zh) * | 2012-07-20 | 2016-09-28 | 华为终端有限公司 | 视频处理方法及终端 |
CN104618627B (zh) * | 2014-12-31 | 2018-06-08 | 小米科技有限责任公司 | 视频处理方法和装置 |
CN106713702A (zh) * | 2017-01-19 | 2017-05-24 | 博康智能信息技术有限公司 | 一种视频图像抖动和摄像装置抖动判断方法及装置 |
-
2017
- 2017-09-11 CN CN201710814289.4A patent/CN107527381B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102780855A (zh) * | 2011-05-13 | 2012-11-14 | 晨星软件研发(深圳)有限公司 | 影像处理的方法与相关装置 |
CN107146199A (zh) * | 2017-05-02 | 2017-09-08 | 厦门美图之家科技有限公司 | 一种人脸图像的融合方法、装置及计算设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107527381A (zh) | 2017-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11503228B2 (en) | Image processing method, image processing apparatus and computer readable storage medium | |
CN107734267B (zh) | 图像处理方法和装置 | |
CN107734264B (zh) | 图像处理方法和装置 | |
CN107452034B (zh) | 图像处理方法及其装置 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107705278B (zh) | 动态效果的添加方法和终端设备 | |
CN107481317A (zh) | 人脸3d模型的面部调整方法及其装置 | |
CN107509043B (zh) | 图像处理方法、装置、电子装置及计算机可读存储介质 | |
CN107610171B (zh) | 图像处理方法及其装置 | |
CN107454336B (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707835A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107590828B (zh) | 拍摄图像的虚化处理方法和装置 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107682656B (zh) | 背景图像处理方法、电子设备和计算机可读存储介质 | |
CN107707838A (zh) | 图像处理方法和装置 | |
CN107644440A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107613239B (zh) | 视频通信背景显示方法和装置 | |
CN107592491B (zh) | 视频通信背景显示方法和装置 | |
CN107527335A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107529020B (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107734266B (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107527381B (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107705243A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107705276B (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant after: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd. Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant before: GUANGDONG OPPO MOBILE TELECOMMUNICATIONS Corp.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |