CN107707839A - 图像处理方法及装置 - Google Patents
图像处理方法及装置 Download PDFInfo
- Publication number
- CN107707839A CN107707839A CN201710814281.8A CN201710814281A CN107707839A CN 107707839 A CN107707839 A CN 107707839A CN 201710814281 A CN201710814281 A CN 201710814281A CN 107707839 A CN107707839 A CN 107707839A
- Authority
- CN
- China
- Prior art keywords
- image
- frame
- current video
- video user
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种图像处理方法、装置,其中,该方法包括:通过获取所述当前视频用户的多帧深度图像;逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。该方法通过获取更为精确的各帧人物区域图像,实现更为精确地确定视频用户的动作姿态,进而更为精确地控制虚拟背景中的物体执行相应的动作行为,并且融合得到的视频聊天画面效果更好,实现了视频用户可以与虚拟背景中的物体进行互动,增加了视频聊天的趣味性,提升了用户的体验。
Description
技术领域
本发明涉及终端技术领域,尤其涉及一种图像处理方法及装置。
背景技术
随着手机、平板电脑等移动终端的普及,视频聊天在人们日常沟通中越来越普遍。视频聊天时,出现在聊天画面中的不仅包括视频用户,还包括背景。但聊天过程中背景枯燥,私密性差,聊天背景容易被对方看到,常常需要对聊天背景进行虚拟化,同时在虚拟背景中增加虚拟的动物,以增加聊天的趣味性和参与性。因此,如何更好地实现视频用户与虚拟背景中的物体更好地互动成为亟待解决的技术问题。
发明内容
本发明的实施例提供了一种图像处理方法、图像处理装置、电子装置和计算机可读存储介质。
本发明实施方式的图像处理方法用于电子装置,所述图像处理方法包括:
获取当前视频用户的多帧场景图像;
获取所述当前视频用户的多帧深度图像;
逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
本发明实施方式的图像处理装置,用于电子装置。所述图像处理装置包括:第一获取模块,用于获取当前视频用户的多帧场景图像;
第二获取模块,用于获取所述当前视频用户的多帧深度图像;
处理模块,用于逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
动作姿态获取模块,用于根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
动作控制模块,用于根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
融合模块,用于将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
本发明实施方式的电子装置包括一个或多个处理器、存储器和一个或多个程序。其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行上述的图像处理方法的指令。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成上述的图像处理方法。
本发明实施方式的图像处理方法、图像处理装置、电子装置和计算机可读存储介质通过获取当前视频用户的多帧场景图像;获取所述当前视频用户的多帧深度图像;逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。该方法通过获取更为精确的各帧人物区域图像,实现更为精确地确定视频用户的动作姿态,进而更为精确地控制虚拟背景中的物体执行相应的动作行为,并且融合得到的视频聊天画面效果更好,实现了视频用户可以与虚拟背景中的物体进行互动,增加了视频聊天的趣味性,提升了用户的体验。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
图1是本发明某些实施方式的图像处理方法的流程示意图。
图2是本发明某些实施方式的图像处理方法的流程示意图。
图3是本发明某些实施方式的图像处理方法的流程示意图。
图4是本发明某些实施方式的图像处理方法的流程示意图。
图5是本发明某些实施方式的图像处理方法的流程示意图。
图6(a)至图6(e)是根据本发明一个实施例的结构光测量的场景示意图。
图7(a)和图7(b)根据本发明一个实施例的结构光测量的场景示意图。
图8是本发明某些实施方式的图像处理装置的模块示意图。
图9是本发明某些实施方式的电子装置的模块示意图。
图10是本发明某些实施方式的图像处理电路的模块示意图。
图11是本发明某些实施方式的电子装置的模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的图像处理方法、装置、电子装置和计算机可读存储介质。
图1是本发明某些实施方式的图像处理方法的流程示意图。该方法的执行主体为图像处理装置,该装置可集成在终端中。其中,终端可以包括手机、平板电脑、智能穿戴式设备等具有各种操作系统的硬件设备。
如图1所示,该方法包括以下步骤:
S1、获取当前视频用户的多帧场景图像。
举例来说,图像处理装置包括可见光摄像头11,通过可见光摄像头11获取当前视频用户的场景视频以及场景视频包括的多帧场景图像。可见光摄像头11可以是RGB摄像头,所拍摄出的图像可以为彩色图像。可见光摄像头11可以是一个或多个。此外,对获取当前视频用户的所述场景视频中多帧场景图像的具体方式,本实施例不做具体限定。
S2、获取所述当前视频用户的多帧深度图像。
举例来说,图像处理装置包括深度图像采集组件12,通过深度图像采集组件12获取所述当前视频用户的多帧深度图像。深度图像中每个像素的灰度值可以表征拍摄场景中的某一点到深度图像采集组件12的距离,在本实施例中,深度图像包含表征当前视频用户所在的场景中各个人或物体的深度信息。深度图像的相关技术参见现有技术,在此不再赘述。
S3、逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像。
现有的分割人物与背景的方法主要根据相邻像素在像素值方面的相似性和不连续性进行人物与背景的分割,但这种分割方法易受外界光照等环境因素的影响。
由于都是对当前视频用户所处的场景进行拍摄,各帧场景图像的场景范围与深度图像的场景范围基本一致,且场景图像中的各个像素均能在深度图像中找到对应该像素的深度信息。基于深度图像的获取不易受光照、场景中色彩分布等因素的影响,因此,通过深度图像提取到的人物区域更加准确,尤其可以准确标定出人物区域的边界。
图2是本发明某些实施方式的图像处理方法的流程示意图。本实施例对“逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像”进行优化。
在一种可能的实现方式中,步骤S3的具体实现方式如图2所示,包括以下步骤:
S31、逐帧识别所述场景图像中的人脸区域;
S32、从所述深度图像中获取与所述人脸区域对应的深度信息;
S33、根据所述人脸区域的深度信息确定所述人物区域的深度范围;和
S34、根据所述人物区域的深度范围确定与所述人脸区域连接且落入所述深度范围内的人物区域以获得各帧所述人物区域图像。
举例来说,步骤31、步骤32、步骤33和步骤34均可以由处理器20实现。
也即是说,处理器20可进一步用于从所述深度图像中获取与所述人脸区域对应的深度信息;根据所述人脸区域的深度信息确定所述人物区域的深度范围;和根据所述人物区域的深度范围确定与所述人脸区域连接且落入所述深度范围内的人物区域以获得各帧所述人物区域图像。
具体地,首先可采用已训练好的深度学习模型识别出场景图像中的人脸区域,随后根据场景图像与深度图像的对应关系可确定出人脸区域的深度信息。由于人脸区域包括鼻子、眼睛、耳朵、嘴唇等特征,因此,人脸区域中的各个特征在深度图像中所对应的深度数据是不同的,例如,在人脸正对深度图像采集组件12时,深度图像采集组件12拍摄得的深度图像中,鼻子对应的深度数据可能较小,而耳朵对应的深度数据可能较大。因此,上述的人脸区域的深度信息可能为一个数值或是一个数值范围。其中,当人脸区域的深度信息为一个数值时,该数值可通过对人脸区域的深度数据取平均值得到;或者,可以通过对人脸区域的深度数据取中值得到。
由于人物区域包含人脸区域,也即是说,人物区域与人脸区域同处于某一个深度范围内,因此,处理器20确定出人脸区域的深度信息后,可以根据人脸区域的深度信息设定人物区域的深度范围,再根据人物区域的深度范围提取落入该深度范围内且与人脸区域相连接的人物区域以获得人物区域图像。如此,即可根据深度信息从场景图像中提取出人物区域图像。由于深度信息的获取不受环境中光照、色温等因素的影像响,因此,提取出的人物区域图像更加准确。
S4、根据各帧所述人物区域图像获取所述当前视频用户的动作姿态。
具体地,人物包括头部、躯干、手等多个身体部位,通过比对各帧人物区域图像中的各个身体部位,可以确定各个身体部位的动作姿态。
图3是本发明某些实施方式的图像处理方法的流程示意图。本实施例对“根据各帧所述人物区域图像获取所述当前视频用户的动作姿态”进行优化。
在一种可能的实现方式中,步骤S4的具体实现方式如图3所示,包括以下步骤:
S41、逐帧对所述人物区域图像进行身体部位识别,以及对所述身体部位识别的各个像素进行标注,得到各帧人体部位标注图像。
具体地,对各帧人物区域图像中的头部、躯干、手部等多个身体部位进行识别,例如识别了人物区域图像中的头部,将头部在人物区域图像中对应的各个像素进行标注,即头部在人物区域图像中对应的各个像素归类为头部所属像素,以此类推,即躯干在人物区域图像中对应的各个像素归类为躯干所属像素,即手在人物区域图像中对应的各个像素归类为手所属像素。当对人物区域图像中的头部、躯干、手部等多个身体部位都标注完成后,形成人体部位标注图像。需要指出的是,对人物区域图像中身体部位的划分根据实际情形设定,不限于举例说明。
S42、逐一比对各帧所述人体部位标注图像中的同一身体部位,确定所述当前视频用户的各个所述身体部位对应的当前动作姿态。
例如,当前视频用户的手势为出拳打击的姿态,则在各帧所述人体部位标注图像中手部呈现不同姿势,通过比较各帧所述人体部位标注图像中的手部,可以确定出当前视频用户的手势为出拳打击。
本实施例通过获取人体部位标注图像可以更加准确地识别身体部位对应的动作姿态,降低身体部位对应的动作姿态的分析难度。
S5、根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为。
具体地,视频用户可以与虚拟背景中的物体进行互动,进而增加视频聊天的趣味性,提升用户的体验。
在本实施例中,预先建立了虚拟背景中各个物体的多帧物体的运动图像,将多帧物体的运动图像按一定顺序融合在各帧虚拟背景中,可以实现使物体在虚拟背景中执行相应的动作行为。
在本实施例中,预先建立了视频用户的动作姿态与虚拟背景中的物体的动作行为的映射关系,根据映射关系确定虚拟背景中的物体的动作行为。
在一种可能的实现方式中,步骤S5的具体的实现方式为:根据所述动作姿态获取当前视频用户的意图;控制虚拟背景中的物体执行与所述动作姿态关联的动作行为。
举例来说,用户与虚拟背景中的猫咪进行互动。例如,视频用户的手部姿态指示视频用户的意图为抚摸猫咪,则控制虚拟背景中的猫咪执行撒娇的动作。具体地,获取预先存储的猫咪的多帧撒娇图像,并融合到各帧虚拟背景中,则在虚拟背景中猫咪呈现撒娇的行为。
例如,视频用户的手部姿态指示视频用户的意图为出拳打击,则控制虚拟背景中的猫咪执行摔倒的动作。具体地,获取预先存储的猫咪的多帧摔倒图像,并融合到各帧虚拟背景中,则在虚拟背景中猫咪呈现摔倒的行为。
在又一种可能的实现方式中,步骤S5的具体的实现方式为:从所述当前视频用户的动作姿态中获取所述当前视频用户的面部表情;控制虚拟背景中的物体执行与所述面部表情关联的动作行为。
举例来说,控制虚拟背景中的猫咪做与视频用户的面部表情同一类型的面部表情。具体地,获取预先存储的猫咪的多帧表情图像,并融合到各帧虚拟背景中,则在虚拟背景中猫咪呈现与视频用户同一类型的面部表情。
进一步地,在识别到当前视频用户的面部表情之后,还可以根据所述当前视频用户的面部表情识别所述当前视频用户的情绪;控制虚拟背景中的物体执行与所述情绪关联的动作行为。举例来说,根据视频用户的表情判断用户情绪为愤怒,则控制虚拟背景中的猫咪执行逃跑的动作。具体地,获取预先存储的猫咪的多帧逃跑图像,并融合到各帧虚拟背景中,则在虚拟背景中猫咪呈现逃跑的行为。
在另一种可能的实现方式中,步骤S5的可替代的实现方式为:获取所述当前视频用户的语音;控制虚拟背景中的物体执行与所述语音关联的动作行为。举例来说,对视频用户的语音进行录取,控制虚拟背景中的猫咪发出录取的语音(即播放录取的语音)。或者,对视频用户的语音进行语义识别,识别视频用户的意图。例如,视频用户的语音为逃跑,则控制虚拟背景中的猫咪执行逃跑的动作。当然,控制虚拟背景中的物体执行与所述语音关联的动作行为并不限于举例说明。
S6、将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
图像融合是图像处理中重要部分,能够协同利用同一场景的多种传感器图像信息,输出一幅更适合于人类视觉感知或计算机进一步处理与分析的融合图像。它可明显的改善单一传感器的不足,提高图像的清晰度及信息包含量,有利于更为准确、更为可靠、更为全面地获取目标或场景的信息。
本实施例通过将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合,形成流畅的当前视频用户的聊天画面,提升用户的体验。
本实施例提供的图像处理方法,通过获取所述当前视频用户的多帧深度图像;逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。该方法通过获取更为精确的各帧人物区域图像,实现更为精确地确定视频用户的动作姿态,进而更为精确地控制虚拟背景中的物体执行相应的动作行为,并且融合得到的视频聊天画面效果更好,实现了视频用户可以与虚拟背景中的物体进行互动,增加了视频聊天的趣味性,提升了用户的体验。
图4是本发明某些实施方式的图像处理方法的流程示意图。本实施例在上述实施例的基础上进行优化。本实施例对“获取所述当前视频用户的多帧深度图像”进行优化。
如图4所示,“获取所述当前视频用户的多帧深度图像”的具体实现方式包括以下步骤:
S21、多次向所述视频用户投射结构光。
S22、多次拍摄经所述当前视频用户调制的多帧结构光图像。
S23、逐帧解调所述结构光图像的各个像素对应的相位信息以得到各帧结构光图像对应的所述深度图像。
请再参阅图10,在某些实施方式中,深度图像采集组件12包括结构光投射器121和结构光摄像头122。步骤S21可以由结构光投射器121实现,步骤S22和步骤S23可以由结构光摄像头122实现。
也即是说,结构光投射器121可用于向当前用户透射结构光;结构光摄像头122可用于拍摄经当前用户调制的结构光图像,以及解调结构光图像的各个像素对应的相位信息以得到深度图像。
具体地,结构光投射器121将一定模式的结构光投射到当前用户的面部及躯体上后,在当前用户的面部及躯体的表面会形成由当前用户调制后的结构光图像。结构光摄像头122拍摄经调制后的结构光图像,再对结构光图像进行解调以得到深度图像。其中,结构光的模式可以是激光条纹、格雷码、正弦条纹、非均匀散斑等。
图5是本发明某些实施方式的图像处理方法的流程示意图。本实施例对“逐帧解调所述结构光图像的各个像素对应的相位信息以得到各帧结构光图像对应的所述深度图像”进行优化。
如图5所示,“逐帧解调所述结构光图像的各个像素对应的相位信息以得到各帧结构光图像对应的所述深度图像”的具体实现方式包括以下步骤:
步骤S231、逐帧解调所述结构光图像中各个像素对应的相位信息;
步骤S232、将所述相位信息转化为深度信息;
步骤S233、根据所述深度信息生成各帧结构光图像对应的所述深度图像。
请再参阅图10,在某些实施方式中,步骤S231、步骤S232和步骤S233均可以由结构光摄像头122实现。
也即是说,结构光摄像头122可进一步用于解调结构光图像中各个像素对应的相位信息,将相位信息转化为深度信息,以及根据深度信息生成深度图像。
具体地,与未经调制的结构光相比,调制后的结构光的相位信息发生了变化,在结构光图像中呈现出的结构光是产生了畸变之后的结构光,其中,变化的相位信息即可表征物体的深度信息。因此,结构光摄像头122首先解调出结构光图像中各个像素对应的相位信息,再根据相位信息计算出深度信息,从而得到最终的深度图像。
为了使本领域的技术人员更加清楚的了解根据结构来采集当前用户的面部及躯体的深度图像的过程,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理。其中,光栅投影技术属于广义上的面结构光。
如图6(a)所示,在使用面结构光投影的时候,首先通过计算机编程产生正弦条纹,并将正弦条纹通过结构光投射器121投射至被测物,再利用结构光摄像头122拍摄条纹受物体调制后的弯曲程度,随后解调该弯曲条纹得到相位,再将相位转化为深度信息即可获取深度图像。为避免产生误差或误差耦合的问题,使用结构光进行深度信息采集前需对深度图像采集组件12进行参数标定,标定包括几何参数(例如,结构光摄像头122与结构光投射器121之间的相对位置参数等)的标定、结构光摄像头122的内部参数以及结构光投射器121的内部参数的标定等。
具体而言,第一步,计算机编程产生正弦条纹。由于后续需要利用畸变的条纹获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差为的条纹,然后结构光投射器121将该四幅条纹分时投射到被测物(图6(a)所示的面具)上,结构光摄像头122采集到如图6(b)左边的图,同时要读取如图6(b)右边所示的参考面的条纹。
第二步,进行相位恢复。结构光摄像头122根据采集到的四幅受调制的条纹图(即结构光图像)计算出被调制相位,此时得到的相位图是截断相位图。因为四步移相算法得到的结果是由反正切函数计算所得,因此结构光调制后的相位被限制在[-π,π]之间,也就是说,每当调制后的相位超过[-π,π],其又会重新开始。最终得到的相位主值如图6(c)所示。
其中,在进行相位恢复过程中,需要进行消跳变处理,即将截断相位恢复为连续相位。如图6(d)所示,左边为受调制的连续相位图,右边是参考连续相位图。
第三步,将受调制的连续相位和参考连续相位相减得到相位差(即相位信息),该相位差表征了被测物相对参考面的深度信息,再将相位差代入相位与深度的转化公式(公式中涉及到的参数经过标定),即可得到如图6(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可以是其他任意图案。
作为一种可能的实现方式,本发明还可使用散斑结构光进行当前用户的深度信息的采集。
具体地,散斑结构光获取深度信息的方法是使用一基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构。衍射元件中基片的厚度大致为1微米,各个台阶的高度不均匀,高度的取值范围可为0.7微米~0.9微米。图7(a)所示结构为本实施例的准直分束元件的局部衍射结构。图7(b)为沿截面A-A的剖面侧视图,横坐标和纵坐标的单位均为微米。散斑结构光生成的散斑图案具有高度的随机性,并且会随着距离的不同而变换图案。因此,在使用散斑结构光获取深度信息前,首先需要标定出空间中的散斑图案,例如,在距离结构光摄像头122的0~4米的范围内,每隔1厘米取一个参考平面,则标定完毕后就保存了400幅散斑图像,标定的间距越小,获取的深度信息的精度越高。随后,结构光投射器121将散斑结构光投射到被测物(即当前用户)上,被测物表面的高度差使得投射到被测物上的散斑结构光的散斑图案发生变化。结构光摄像头122拍摄投射到被测物上的散斑图案(即结构光图像)后,再将散斑图案与前期标定后保存的400幅散斑图像逐一进行互相关运算,进而得到400幅相关度图像。空间中被测物体所在的位置会在相关度图像上显示出峰值,把上述峰值叠加在一起并经过插值运算后即可得到被测物的深度信息。
由于普通的衍射元件对光束进行衍射后得到多数衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大。即便是对衍射光进行二次衍射,得到的光束的均匀性也较低。因此,利用普通衍射元件衍射的光束对被测物进行投射的效果较差。本实施例中采用准直分束元件,该元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同的角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行投射的效果更好。同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且散斑结构光相对于其他排布均匀的结构光来说,达到同样的采集效果时,散斑结构光消耗的电量更低。
图8是本发明某些实施方式的图像处理装置的模块示意图。如图8所示,本实施例提供的图像处理装置,包括:
第一获取模块,用于获取当前视频用户的多帧场景图像;
第二获取模块,用于获取所述当前视频用户的多帧深度图像;
处理模块,用于逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
动作姿态获取模块,用于根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
动作控制模块,用于根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
融合模块,用于将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
关于本实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本实施例提供的图像处理装置,通过获取所述当前视频用户的多帧深度图像;逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。该装置通过获取更为精确的各帧人物区域图像,实现更为精确地确定视频用户的动作姿态,进而更为精确地控制虚拟背景中的物体执行相应的动作行为,并且融合得到的视频聊天画面效果更好,实现了视频用户可以与虚拟背景中的物体进行互动,增加了视频聊天的趣味性,提升了用户的体验。
图9是本发明某些实施方式的电子装置的模块示意图。图10是本发明某些实施方式的图像处理电路的模块示意图。本实施例的电子装置1000包括图像处理装置100。图像处理装置100可以利用硬件和/或软件实现。图像处理装置100包括成像设备10和处理器20。如图10所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
成像设备10包括可见光摄像头11和深度图像采集组件12。
具体地,可见光摄像头11包括图像传感器111和透镜112,可见光摄像头11可用于捕捉当前用户的彩色信息以获得场景图像,其中,图像传感器111包括彩色滤镜阵列(如Bayer滤镜阵列),透镜112的个数可为一个或多个。可见光摄像头11在获取场景图像过程中,图像传感器111中的每一个成像像素感应来自拍摄场景中的光强度和波长信息,生成一组原始图像数据;图像传感器111将该组原始图像数据发送至处理器20中,处理器20对原始图像数据进行去噪、插值等运算后即得到彩色的场景图像。处理器20可按多种格式对原始图像数据中的每个图像像素逐一处理,例如,每个图像像素可具有8、10、12或14比特的位深度,处理器20可按相同或不同的位深度对每一个图像像素进行处理。
深度图像采集组件12包括结构光投射器121和结构光摄像头122,深度图像采集组件12可用于捕捉当前视频用户的深度信息以得到深度图像。结构光投射器121用于将结构光投射至当前视频用户,其中,结构光图案可以是激光条纹、格雷码、正弦条纹或者随机排列的散斑图案等。结构光摄像头122包括图像传感器1221和透镜1222,透镜1222的个数可为一个或多个。图像传感器1221用于捕捉结构光投射器121投射至当前视频用户上的结构光图像。结构光图像可由深度采集组件12发送至处理器20进行解调、相位恢复、相位信息计算等处理以获取当前视频用户的深度信息。
在某些实施方式中,可见光摄像头11与结构光摄像头122的功能可由一个摄像头实现,也即是说,成像设备10仅包括一个摄像头和一个结构光投射器121,上述摄像头不仅可以拍摄场景图像,还可拍摄结构光图像。
除了采用结构光获取深度图像外,还可通过双目视觉方法、基于飞行时间差(Timeof Flight,TOF)等深度像获取方法来获取当前视频用户的深度图像。
处理器20进一步用于将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。在提取人物区域图像时,处理器20可以结合深度图像中的深度信息从场景图像中提取出二维的人物区域图像,也可以根据深度图像中的深度信息建立人物区域的三维图,再结合场景图像中的色彩信息对三维的人物区域进行颜色填补各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧时可以是将二维的各帧人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合以得到合并图像,也可以是将三维的彩色的各帧人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合以得到合并图像。
此外,图像处理装置100还包括图像存储器30。图像存储器30可内嵌在电子装置1000中,也可以是独立于电子装置1000外的存储器,并可包括直接存储器存取(DirectMemory Access,DMA)特征。可见光摄像头11采集的原始图像数据或深度图像采集组件12采集的结构光图像相关数据均可传送至图像存储器30中进行存储或缓存。处理器20可从图像存储器30中读取原始图像数据以进行处理得到场景图像,也可从图像存储器30中读取结构光图像相关数据以进行处理得到深度图像。另外,场景图像和深度图像还可存储在图像存储器30中,以供处理器20随时调用处理,例如,处理器20调用场景图像和深度图像进行人物区域提取,并将提后的得到的各帧人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合处理以得到合并图像。其中,目标聊天背景图像和合并图像也可存储在图像存储器30中。
图像处理装置100还可包括显示器50。显示器50可直接从处理器20中获取合并图像,还可从图像存储器30中获取合并图像。显示器50显示合并图像以供用户观看,或者由图形引擎或图形处理器(Graphics Processing Unit,GPU)进行进一步的处理。图像处理装置100还包括编码器/解码器60,编码器/解码器60可编解码场景图像、深度图像及合并图像等的图像数据,编码的图像数据可被保存在图像存储器30中,并可以在图像显示在显示器50上之前由解码器解压缩以进行显示。编码器/解码器60可由中央处理器(CentralProcessing Unit,CPU)、GPU或协处理器实现。换言之,编码器/解码器60可以是中央处理器(Central Processing Unit,CPU)、GPU、及协处理器中的任意一种或多种。
图像处理装置100还包括控制逻辑器40。成像设备10在成像时,处理器20会根据成像设备获取的数据进行分析以确定成像设备10的一个或多个控制参数(例如,曝光时间等)的图像统计信息。处理器20将图像统计信息发送至控制逻辑器40,控制逻辑器40控制成像设备10以确定好的控制参数进行成像。控制逻辑器40可包括执行一个或多个例程(如固件)的处理器和/或微控制器。一个或多个例程可根据接收的图像统计信息确定成像设备10的控制参数。
图11是本发明某些实施方式的电子装置的模块示意图。请参阅图11,本发明实施方式的电子装置1000包括一个或多个处理器200、存储器300和一个或多个程序310。其中一个或多个程序310被存储在存储器300中,并且被配置成由一个或多个处理器200执行。程序310包括用于执行上述任意一项实施方式的图像处理方法的指令。
例如,程序310包括用于执行以下步骤所述的图像处理方法的指令:
01:获取当前视频用户的多帧场景图像;
02:获取所述当前视频用户的多帧深度图像;
03:逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
04:在所述背景选择模式为自动选择模式时,根据所述场景视频的各帧人物区域图像识别当前视频用户的着装,根据所述当前视频用户的着装确定目标聊天背景;
05:根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
06:根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
07:将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置1000结合使用的计算机程序。计算机程序可被处理器200执行以完成上述任意一项实施方式的图像处理方法。
例如,计算机程序可被处理器200执行以完成以下步骤所述的图像处理方法:
01:获取当前视频用户的多帧场景图像;
02:获取所述当前视频用户的多帧深度图像;
03:逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
04:在所述背景选择模式为自动选择模式时,根据所述场景视频的各帧人物区域图像识别当前视频用户的着装,根据所述当前视频用户的着装确定目标聊天背景;
05:根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
06:根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
07:将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (11)
1.一种图像处理方法,其特征在于,包括:
获取当前视频用户的多帧场景图像;
获取所述当前视频用户的多帧深度图像;
逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
2.如权利要求1所述的方法,其特征在于,所述根据各帧所述人物区域图像获取所述当前视频用户的动作姿态,包括:
逐帧对所述人物区域图像进行身体部位识别,以及对所述身体部位识别的各个像素进行部位标注,得到各帧人体部位标注图像;
逐一比对各帧所述人体部位标注图像中的同一身体部位,确定所述当前视频用户的各个所述身体部位对应的当前动作姿态。
3.如权利要求1所述的方法,其特征在于,所述根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为,包括:
根据所述动作姿态获取当前视频用户的意图;
控制虚拟背景中的物体执行与所述动作姿态关联的动作行为。
4.如权利要求1所述的方法,其特征在于,所述根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为,包括:
从所述当前视频用户的动作姿态中获取所述当前视频用户的面部表情;
控制虚拟背景中的物体执行与所述面部表情关联的动作行为。
5.如权利要求1所述的方法,其特征在于,还包括:
获取所述当前视频用户的语音;
控制虚拟背景中的物体执行与所述语音关联的动作行为。
6.如权利要求1所述的方法,其特征在于,所述获取所述当前视频用户的多帧深度图像,包括:
多次向所述视频用户投射结构光;
多次拍摄经所述当前视频用户调制的多帧结构光图像;
逐帧解调所述结构光图像的各个像素对应的相位信息以得到各帧结构光图像对应的所述深度图像。
7.如权利要求6所述的方法,其特征在于,所述逐帧解调所述结构光图像的各个像素对应的相位信息以得到各帧结构光图像对应的所述深度图像,包括:
逐帧解调所述结构光图像中各个像素对应的相位信息;
将所述相位信息转化为深度信息;
根据所述深度信息生成各帧结构光图像对应的所述深度图像。
8.如权利要求1所述的方法,其特征在于,所述逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像,包括:
逐帧识别所述场景图像中的人脸区域;
从所述深度图像中获取与所述人脸区域对应的深度信息;
根据所述人脸区域的深度信息确定所述人物区域的深度范围;和
根据所述人物区域的深度范围确定与所述人脸区域连接且落入所述深度范围内的人物区域以获得各帧所述人物区域图像。
9.一种图像处理装置,其特征在于,包括:
第一获取模块,用于获取当前视频用户的多帧场景图像;
第二获取模块,用于获取所述当前视频用户的多帧深度图像;
处理模块,用于逐帧处理所述场景图像和所述深度图像以提取所述当前视频用户在所述场景图像中的人物区域而获得各帧人物区域图像;
动作姿态获取模块,用于根据各帧所述人物区域图像获取所述当前视频用户的动作姿态;
动作控制模块,用于根据所述当前视频用户的动作姿态,控制虚拟背景中的物体执行与所述动作姿态关联的动作行为;
融合模块,用于将各帧所述人物区域图像与控制物体执行所述动作行为后得到的虚拟背景对应帧进行融合。
10.一种电子装置,其特征在于,所述电子装置包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行权利要求1至8任意一项所述的图像处理方法的指令。
11.一种计算机可读存储介质,其特征在于,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成权利要求1至8任意一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710814281.8A CN107707839A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710814281.8A CN107707839A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107707839A true CN107707839A (zh) | 2018-02-16 |
Family
ID=61172534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710814281.8A Pending CN107707839A (zh) | 2017-09-11 | 2017-09-11 | 图像处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107707839A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108525305A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN109190536A (zh) * | 2018-08-23 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | 人脸图像处理方法、装置及设备 |
CN109379538A (zh) * | 2018-10-26 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 图像采集设备、系统及方法 |
CN110069126A (zh) * | 2018-11-16 | 2019-07-30 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN110069125A (zh) * | 2018-09-21 | 2019-07-30 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN110210374A (zh) * | 2018-05-30 | 2019-09-06 | 沈阳工业大学 | 基于光栅条纹投影的三维人脸定位方法 |
CN110347246A (zh) * | 2019-06-19 | 2019-10-18 | 深圳前海达闼云端智能科技有限公司 | 人机交互方法、装置、存储介质及电子设备 |
CN110515452A (zh) * | 2018-05-22 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN110858409A (zh) * | 2018-08-24 | 2020-03-03 | 北京微播视界科技有限公司 | 动画生成方法和装置 |
CN111353519A (zh) * | 2018-12-24 | 2020-06-30 | 北京三星通信技术研究有限公司 | 用户行为识别方法和系统、具有ar功能的设备及其控制方法 |
CN111541951A (zh) * | 2020-05-08 | 2020-08-14 | 腾讯科技(深圳)有限公司 | 基于视频的交互处理方法、装置、终端及可读存储介质 |
CN113128448A (zh) * | 2021-04-29 | 2021-07-16 | 平安国际智慧城市科技股份有限公司 | 基于肢体识别的视频匹配方法、装置、设备及存储介质 |
WO2022174554A1 (zh) * | 2021-02-18 | 2022-08-25 | 深圳市慧鲤科技有限公司 | 图像显示方法、装置、设备、存储介质、程序及程序产品 |
Citations (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1414420A (zh) * | 2002-10-09 | 2003-04-30 | 天津大学 | 动态多分辨率的三维数字成像的方法及装置 |
CN1480708A (zh) * | 2003-07-23 | 2004-03-10 | 天津大学 | 时序变频条纹照明可重配置动态三维数字传感装置及过程 |
CN1595057A (zh) * | 2004-07-13 | 2005-03-16 | 深圳大学 | 基于空间正交条纹投影的多分辨三维数字成像方法 |
CN1728780A (zh) * | 2004-07-29 | 2006-02-01 | 台湾梦工场科技股份有限公司 | 即时互动影音的方法与系统 |
CN101127923A (zh) * | 2007-09-18 | 2008-02-20 | 深圳大学 | 嵌入式三维数字成像装置及其方法 |
CN101183276A (zh) * | 2007-12-13 | 2008-05-21 | 上海交通大学 | 基于摄像头投影仪技术的交互系统 |
CN101827207A (zh) * | 2009-03-05 | 2010-09-08 | 应旭峰 | 一种主持人可视化的三维虚拟演播室互动控制的系统 |
CN101917585A (zh) * | 2010-08-13 | 2010-12-15 | 宇龙计算机通信科技(深圳)有限公司 | 调节视频电话向对端发送的视频信息的方法、装置及终端 |
CN101923809A (zh) * | 2010-02-12 | 2010-12-22 | 黄振强 | 交互式增强现实点播机 |
CN102307292A (zh) * | 2011-09-01 | 2012-01-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种可视通话方法及可视终端 |
CN102479388A (zh) * | 2010-11-22 | 2012-05-30 | 北京盛开互动科技有限公司 | 基于人脸跟踪和分析的表情互动方法 |
CN102663810A (zh) * | 2012-03-09 | 2012-09-12 | 北京航空航天大学 | 一种基于相位偏移扫描的三维人脸全自动建模方法 |
CN102736728A (zh) * | 2011-04-11 | 2012-10-17 | 宏碁股份有限公司 | 三维立体虚拟物体的操控方法、操控系统及处理装置 |
CN103020648A (zh) * | 2013-01-09 | 2013-04-03 | 北京东方艾迪普科技发展有限公司 | 一种动作类型识别方法、节目播出方法及装置 |
CN103267491A (zh) * | 2012-07-17 | 2013-08-28 | 深圳大学 | 自动获取物体表面完整三维数据的方法及系统 |
CN103297742A (zh) * | 2012-02-27 | 2013-09-11 | 联想(北京)有限公司 | 数据处理方法、微处理器、通信终端及服务器 |
CN103697815A (zh) * | 2014-01-15 | 2014-04-02 | 西安电子科技大学 | 基于相位编码的混频结构光三维信息获取方法 |
CN103778643A (zh) * | 2014-01-10 | 2014-05-07 | 深圳奥比中光科技有限公司 | 一种实时生成目标深度信息的方法及其装置 |
CN103793680A (zh) * | 2012-10-29 | 2014-05-14 | 北京三星通信技术研究有限公司 | 用于估计头部姿势的设备和方法 |
CN104133565A (zh) * | 2014-07-24 | 2014-11-05 | 四川大学 | 利用结构光技术实现的实时激光点追踪人机交互系统 |
CN105100491A (zh) * | 2015-08-11 | 2015-11-25 | 努比亚技术有限公司 | 一种处理照片的装置和方法 |
CN105227837A (zh) * | 2015-09-24 | 2016-01-06 | 努比亚技术有限公司 | 一种图像合成方法和装置 |
CN105430295A (zh) * | 2015-10-30 | 2016-03-23 | 努比亚技术有限公司 | 图像处理装置及方法 |
CN105556508A (zh) * | 2013-08-04 | 2016-05-04 | 艾斯适配有限公司 | 虚拟镜子的装置、系统和方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105959718A (zh) * | 2016-06-24 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种视频直播中实时互动的方法及装置 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106023288A (zh) * | 2016-05-18 | 2016-10-12 | 浙江大学 | 一种基于图像的动态替身构造方法 |
CN106303578A (zh) * | 2016-08-18 | 2017-01-04 | 北京奇虎科技有限公司 | 一种基于主播节目的信息处理方法、电子设备及服务器 |
CN106937059A (zh) * | 2017-02-09 | 2017-07-07 | 北京理工大学 | 基于Kinect的影像合成方法和系统 |
CN107071580A (zh) * | 2017-03-20 | 2017-08-18 | 北京潘达互娱科技有限公司 | 数据处理方法及装置 |
-
2017
- 2017-09-11 CN CN201710814281.8A patent/CN107707839A/zh active Pending
Patent Citations (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1414420A (zh) * | 2002-10-09 | 2003-04-30 | 天津大学 | 动态多分辨率的三维数字成像的方法及装置 |
CN1480708A (zh) * | 2003-07-23 | 2004-03-10 | 天津大学 | 时序变频条纹照明可重配置动态三维数字传感装置及过程 |
CN1595057A (zh) * | 2004-07-13 | 2005-03-16 | 深圳大学 | 基于空间正交条纹投影的多分辨三维数字成像方法 |
CN1728780A (zh) * | 2004-07-29 | 2006-02-01 | 台湾梦工场科技股份有限公司 | 即时互动影音的方法与系统 |
CN101127923A (zh) * | 2007-09-18 | 2008-02-20 | 深圳大学 | 嵌入式三维数字成像装置及其方法 |
CN101183276A (zh) * | 2007-12-13 | 2008-05-21 | 上海交通大学 | 基于摄像头投影仪技术的交互系统 |
CN101827207A (zh) * | 2009-03-05 | 2010-09-08 | 应旭峰 | 一种主持人可视化的三维虚拟演播室互动控制的系统 |
CN101923809A (zh) * | 2010-02-12 | 2010-12-22 | 黄振强 | 交互式增强现实点播机 |
CN101917585A (zh) * | 2010-08-13 | 2010-12-15 | 宇龙计算机通信科技(深圳)有限公司 | 调节视频电话向对端发送的视频信息的方法、装置及终端 |
CN102479388A (zh) * | 2010-11-22 | 2012-05-30 | 北京盛开互动科技有限公司 | 基于人脸跟踪和分析的表情互动方法 |
CN102736728A (zh) * | 2011-04-11 | 2012-10-17 | 宏碁股份有限公司 | 三维立体虚拟物体的操控方法、操控系统及处理装置 |
CN102307292A (zh) * | 2011-09-01 | 2012-01-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种可视通话方法及可视终端 |
CN103297742A (zh) * | 2012-02-27 | 2013-09-11 | 联想(北京)有限公司 | 数据处理方法、微处理器、通信终端及服务器 |
CN102663810A (zh) * | 2012-03-09 | 2012-09-12 | 北京航空航天大学 | 一种基于相位偏移扫描的三维人脸全自动建模方法 |
CN103267491A (zh) * | 2012-07-17 | 2013-08-28 | 深圳大学 | 自动获取物体表面完整三维数据的方法及系统 |
CN103793680A (zh) * | 2012-10-29 | 2014-05-14 | 北京三星通信技术研究有限公司 | 用于估计头部姿势的设备和方法 |
CN103020648A (zh) * | 2013-01-09 | 2013-04-03 | 北京东方艾迪普科技发展有限公司 | 一种动作类型识别方法、节目播出方法及装置 |
CN105556508A (zh) * | 2013-08-04 | 2016-05-04 | 艾斯适配有限公司 | 虚拟镜子的装置、系统和方法 |
CN103778643A (zh) * | 2014-01-10 | 2014-05-07 | 深圳奥比中光科技有限公司 | 一种实时生成目标深度信息的方法及其装置 |
CN103697815A (zh) * | 2014-01-15 | 2014-04-02 | 西安电子科技大学 | 基于相位编码的混频结构光三维信息获取方法 |
CN104133565A (zh) * | 2014-07-24 | 2014-11-05 | 四川大学 | 利用结构光技术实现的实时激光点追踪人机交互系统 |
CN105100491A (zh) * | 2015-08-11 | 2015-11-25 | 努比亚技术有限公司 | 一种处理照片的装置和方法 |
CN105227837A (zh) * | 2015-09-24 | 2016-01-06 | 努比亚技术有限公司 | 一种图像合成方法和装置 |
CN105430295A (zh) * | 2015-10-30 | 2016-03-23 | 努比亚技术有限公司 | 图像处理装置及方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105975935A (zh) * | 2016-05-04 | 2016-09-28 | 腾讯科技(深圳)有限公司 | 一种人脸图像处理方法和装置 |
CN106023288A (zh) * | 2016-05-18 | 2016-10-12 | 浙江大学 | 一种基于图像的动态替身构造方法 |
CN105959718A (zh) * | 2016-06-24 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种视频直播中实时互动的方法及装置 |
CN106303578A (zh) * | 2016-08-18 | 2017-01-04 | 北京奇虎科技有限公司 | 一种基于主播节目的信息处理方法、电子设备及服务器 |
CN106937059A (zh) * | 2017-02-09 | 2017-07-07 | 北京理工大学 | 基于Kinect的影像合成方法和系统 |
CN107071580A (zh) * | 2017-03-20 | 2017-08-18 | 北京潘达互娱科技有限公司 | 数据处理方法及装置 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108525305A (zh) * | 2018-03-26 | 2018-09-14 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110515452A (zh) * | 2018-05-22 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN110515452B (zh) * | 2018-05-22 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN110210374B (zh) * | 2018-05-30 | 2022-02-25 | 沈阳工业大学 | 基于光栅条纹投影的三维人脸定位方法 |
CN110210374A (zh) * | 2018-05-30 | 2019-09-06 | 沈阳工业大学 | 基于光栅条纹投影的三维人脸定位方法 |
CN109190536A (zh) * | 2018-08-23 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | 人脸图像处理方法、装置及设备 |
CN109190536B (zh) * | 2018-08-23 | 2023-12-26 | 百度在线网络技术(北京)有限公司 | 人脸图像处理方法、装置及设备 |
CN110858409A (zh) * | 2018-08-24 | 2020-03-03 | 北京微播视界科技有限公司 | 动画生成方法和装置 |
CN110069125A (zh) * | 2018-09-21 | 2019-07-30 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN110069125B (zh) * | 2018-09-21 | 2023-12-22 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN109379538A (zh) * | 2018-10-26 | 2019-02-22 | 阿里巴巴集团控股有限公司 | 图像采集设备、系统及方法 |
CN110069126A (zh) * | 2018-11-16 | 2019-07-30 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN110069126B (zh) * | 2018-11-16 | 2023-11-03 | 北京微播视界科技有限公司 | 虚拟对象的控制方法和装置 |
CN111353519A (zh) * | 2018-12-24 | 2020-06-30 | 北京三星通信技术研究有限公司 | 用户行为识别方法和系统、具有ar功能的设备及其控制方法 |
CN110347246A (zh) * | 2019-06-19 | 2019-10-18 | 深圳前海达闼云端智能科技有限公司 | 人机交互方法、装置、存储介质及电子设备 |
CN111541951A (zh) * | 2020-05-08 | 2020-08-14 | 腾讯科技(深圳)有限公司 | 基于视频的交互处理方法、装置、终端及可读存储介质 |
WO2022174554A1 (zh) * | 2021-02-18 | 2022-08-25 | 深圳市慧鲤科技有限公司 | 图像显示方法、装置、设备、存储介质、程序及程序产品 |
CN113128448A (zh) * | 2021-04-29 | 2021-07-16 | 平安国际智慧城市科技股份有限公司 | 基于肢体识别的视频匹配方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107707839A (zh) | 图像处理方法及装置 | |
CN107529096A (zh) | 图像处理方法及装置 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107734267A (zh) | 图像处理方法和装置 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707838A (zh) | 图像处理方法和装置 | |
CN107509043A (zh) | 图像处理方法及装置 | |
CN107610080A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107734264A (zh) | 图像处理方法和装置 | |
CN107705278A (zh) | 动态效果的添加方法和终端设备 | |
CN107610078A (zh) | 图像处理方法和装置 | |
CN107644440A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107592491A (zh) | 视频通信背景显示方法和装置 | |
CN107622496A (zh) | 图像处理方法及装置 | |
CN107613228A (zh) | 虚拟服饰的添加方法和终端设备 | |
CN107705277A (zh) | 图像处理方法和装置 | |
CN107527335A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107610076A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107613239A (zh) | 视频通信背景显示方法和装置 | |
CN107454336A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107705243A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107613223A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107705276A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107680034A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180216 |
|
RJ01 | Rejection of invention patent application after publication |