CN112669337A - 一种自迭代式的局部绿幕抠像方法 - Google Patents

一种自迭代式的局部绿幕抠像方法 Download PDF

Info

Publication number
CN112669337A
CN112669337A CN202011585423.6A CN202011585423A CN112669337A CN 112669337 A CN112669337 A CN 112669337A CN 202011585423 A CN202011585423 A CN 202011585423A CN 112669337 A CN112669337 A CN 112669337A
Authority
CN
China
Prior art keywords
key
green
area
accurate
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011585423.6A
Other languages
English (en)
Inventor
李汉曦
陈浩
朱文宇
张宝昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xuancai Meike Network Technology Co ltd
Original Assignee
Shanghai Xuancai Meike Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xuancai Meike Network Technology Co ltd filed Critical Shanghai Xuancai Meike Network Technology Co ltd
Priority to CN202011585423.6A priority Critical patent/CN112669337A/zh
Publication of CN112669337A publication Critical patent/CN112669337A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种自迭代式的局部绿幕抠像方法,包括预处理阶段和正式运行阶段;预处理阶段用迭代的方式得到尽量准确的绿幕区域,以得到更好的相机姿态和精准的色键;正式运行阶段是进行逼真的虚拟场景合成以及抠像;(1)在整个过程中,相机和绿幕的位置都是固定的;(2)在预处理阶段,绿幕前没有人、物等前景,而在正式运行阶段,绿幕前会加入人、物等前景进行抠像;与现有技术相比,本发明突破了传统色键抠像的限制,不受拍摄环境的约束,成本低廉,能够在自然环境下同时进行精确的相机姿态估计以及像素级抠像。该算法有自动、实用、快速、精度高的优点。

Description

一种自迭代式的局部绿幕抠像方法
技术领域
本发明涉及绿幕抠像方法技术领域,尤其涉及一种自迭代式的局部绿幕抠像方法。
背景技术
在当今的影视工业中,经常需要使用色键抠像技术(Chroma-Key imagematting),该技术需要表演者身处绿箱(纯绿色背景的半封闭空间)中进行表演,算法拾取背景中的典型绿色设为色键(Chroma-Key)用以区分前景区域(表演者或装置)和背景区域(绿色墙面),在精确检测出摄像机视野里所有属于背景的像素区域后,算法可以将当前绿色背景替换成任何指定场景,以达到在可控成本下丰富视觉表达的目的;
近年来随着虚拟现实及混合现实应用的推广,色键抠像后的前景经常需要与3D的虚拟场景进行融合,在这种情况下,系统需要对相机姿态进行估计,传统的相机姿态估计是通过机械设备和传感器来实现的,相机姿态估计是生成3D场景下的混合现实画面提供先决条件,相机姿态估计越准确,合成的混合现实代入感也越强;
传统色键抠像的缺点是相机姿态估计和抠像要分开完成,相机姿态估计依赖机械设备,成本高昂,对抠像的拍摄环境要求较高;绿色背板要覆盖相机的整个视野,否则合成前的自然图景出现在合成后的虚拟场景周围。
发明内容
为解决上述技术问题,本发明采用了自迭代式的局部绿幕区域抠像方法,可以依靠算法同时完成相机的姿态估计和抠像两项工作,在自然环境下完成绿幕抠像且不影响后续的虚拟场景合成,在抠像结束后可以得到精准的抠像结果以及逼真的虚拟场景合成,该算法不受拍摄环境的限制,不依赖机械设备,成本低廉,适合低成本直播间,具有自动、实用、快速的优点,提供一种自迭代式的局部绿幕抠像方法,以解决上述背景技术中描述问题。
本发明一种自迭代式的局部绿幕抠像方法,包括预处理阶段和正式运行阶段;预处理阶段用迭代的方式得到尽量准确的绿幕区域,以得到更好的相机姿态和精准的色键;正式运行阶段是进行逼真的虚拟场景合成以及抠像;
(1)在整个过程中,相机和绿幕的位置都是固定的;
(2)在预处理阶段,绿幕前没有人、物等前景,而在正式运行阶段,绿幕前会加入人、物等前景进行抠像。
具体步骤如下:
第一步,根据参考帧FR上的关键点集对Ft进行点匹配,找出当前帧Ft对应的关键点集。
第二步,根据这两个点集的几何位置得出单应矩阵Ht,计算得到估计的绿幕区域B和姿态估计。
第三、四步,先对区域B进行色键抽取,再根据公式计算α值,得到绿幕区域掩膜Αt
第五步,对Αt求取边缘处理和霍夫变换,确定该区域的边界,得到新的绿幕四边形区域B”和新的单应矩阵
Figure BDA0002866636840000021
同时计算出更准确的相机姿态。
第六步,重复上述步骤,不断更新单应矩阵,动态调整热点区域,直到点匹配的搜索范围ε小于给定的预设值,或者迭代步数达到预设上限,即可得到精准的相机姿态和色键。
第七步,基于预处理阶段得到的相机姿态放置虚拟场景。
第八步,根据预处理阶段得到的精准色键对每一帧来进行像素级抠像。
有益效果:
1.本专利的关键点在于同时进行精确的相机姿态估计和像素级抠像,以迭代的方式更新单应矩阵,动态调整热点区域,提高取色键的精度,和传统抠像方法相比,会明显可以获得精确的相机姿态估计和很好的抠像质量;
2.与现有技术相比,本发明突破了传统色键抠像的限制,不受拍摄环境的约束,成本低廉,能够在自然环境下同时进行精确的相机姿态估计以及像素级抠像。该算法有自动、实用、快速、精度高的优点。
附图说明
图1示出了绿幕和相机画面图;
图2示出了点匹配图;
图3示出了估计绿幕四边形区域;
图4示出了抠像效果图(黑色区域表示算法检测到的绿幕区域);
图5示出了图4经过坎尼算子处理后的边缘图;
图6示出了图5的霍夫变换图(直线参数空间的投票结果);
图7示出了总体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
具体步骤:
本发明一种自迭代式的局部绿幕抠像方法,包括预处理阶段和正式运行阶段;预处理阶段用迭代的方式得到尽量准确的绿幕区域(如图1中所示),以得到更好的相机姿态和精准的色键;正式运行阶段是进行逼真的虚拟场景合成以及抠像;
(1)在整个过程中,相机和绿幕的位置都是固定的;
(2)在预处理阶段,绿幕前没有人、物等前景,而在正式运行阶段,绿幕前会加入人、物等前景进行抠像。
具体步骤如下:
第一步,根据参考帧FR上的关键点集对Ft进行点匹配,找出当前帧Ft对应的关键点集;
Step 1点匹配:当前帧Ft,是一张摄像机拍摄的无前景的绿幕图像。参考帧FR,是一张事先得到的标准绿幕图像。该图像中的绿幕区域的边缘、端点及比对关键点皆为已知。
假设,当前在参考帧FR上,有关键点集
Figure BDA0002866636840000041
包含N个关键点。每一个关键点
Figure BDA0002866636840000042
2D像素位置为
Figure BDA0002866636840000043
图像特征为
Figure BDA0002866636840000044
且有上一步估计的单应矩阵为Ht-1(当t=1时,Ht-1=I也即单位矩阵),所对应的在当前帧Ft上有搜索域:
Figure BDA0002866636840000045
其中,||·||为二范数(欧氏距离)函数,ε为搜索范围的半径。注意,对于在区域
Figure BDA0002866636840000046
中,匹配算法确定该关键点为:
Figure BDA0002866636840000047
其中,
Figure BDA0002866636840000048
是当前帧Ft上2D位置为
Figure BDA0002866636840000049
的关键点的图像特征。
在第一次点匹配的过程中,Ht-1为单位矩阵,要想在当前帧搜索到参考帧的关键点所对应的关键点,需要将搜索范围ε定为无穷大;
其中,关键点是图像上的视觉显著点,如ORB或SIFT点,或者人工预先定义的,真实物体上某些3D点在图像上的2D投影,如汽车轮胎的中心点,摩托车把手的端点等等;
点匹配是将同一个物体在两张不同视角的图片中的关键点进行匹配的过程,并且点匹配可以使用SIFT、SURF或深度学习算法。
第二步,根据这两个点集的几何位置得出单应矩阵Ht,计算得到估计的绿幕区域B和姿态估计;
Step 2计算单应矩阵:假设在点匹配后,在当前帧Ft上找到对应参考帧关键点集
Figure BDA0002866636840000051
的关键点集
Figure BDA0002866636840000052
也就得到了有若干关键点对的匹配图,如图2所示。
Ft的绿幕区域则可通过两帧之间的坐标转换矩阵Ht得到。Ht也叫单应矩阵,具体来说,假设FR上关键点
Figure BDA0002866636840000053
对应当前帧Ft上的点
Figure BDA0002866636840000054
且它们的2D坐标分别为
Figure BDA0002866636840000055
Figure BDA0002866636840000056
则两帧之间的单应矩阵
Figure BDA0002866636840000057
满足:
Figure BDA0002866636840000058
根据两个关键点集的坐标位置,采用解多元方程组的方法计算出Ht,也可以通过使用RANSAC方法来提高对Ht估计的鲁棒性。在估算的单应矩阵Ht的基础上,算法把参考帧的绿幕的四个顶点坐标投影到当前帧上,得到绿幕在当前帧所占区域的估计B,如图3所示。通过三维物体成像公式估算出相机与绿幕之间的位置关系,即相机姿态;
其中,单应矩阵是一个3×3的矩阵,描述同一平面物体在两张不同视角的图片中的关键点的对应关系。
第三、四步,先对区域B进行色键抽取,再根据公式计算α值,得到绿幕区域掩膜Αt
Step 3取色键:估计的绿幕区域B应为一四边形(可能被图像边缘截断)。可知四边的解析方程式为:
Figure BDA0002866636840000061
由于存在关键点误匹配的现象,估算的Ht不是很准确,导致得到的绿幕区域B和真实绿幕区域相差较大,需要下面的步骤来修正。
在区域B中取色键,进行抠像。先将B区域内像素的RGB值通过下式转化为YUV值:
Figure BDA0002866636840000062
可以得到区域内所有像素点的UV值,然后对该区域内的像素点取色键。取色键可以用K-Means聚类方法。
Step 4α值估计:求取α值的基本思路均是利用一定先验条件求解方程:
Iz=αzF+(1-αz)B'
其中,αz=1表示像素Iz属于前景F;αz=0表示像素Iz属于背景BB';若αz∈(0,1),则表示像素Iz是前景和背景的混合。所以在得到色键后,要进行α值的估计,得到前景和背景。α值是通过下式得出:
Figure BDA0002866636840000063
其中,I={(u1,v1),(u2,v2),...(uz,vz)...(un,vn)}是当前帧像素的U、V值集合,(ui,vi)是上一步得到的色键的UV值,m和n是超参数。由于α值范围在[0,1],所以要将上式的结果d输入到Sigmoid函数,映射在[0,1]区间上,得到当前帧每一个像素的α值,将帧像素分为三类:前景F,背景B'以及混合像素集合M,也就是绿幕区域掩膜Αt
其中,α值是抠像的具体任务是确定每个像素的α值,像素点的α值取值在[0,1]内,α=0表示背景区域,α=1表示前景区域,0<α<1表示前景和背景的边缘混合区域。
其中,色键是像素的α值由该像素的颜色与色键颜色之间的关系决定,凡是与色键颜色相近的像素α值均被置为0。
第五步,对Αt求取边缘处理和霍夫变换,确定该区域的边界,得到新的绿幕四边形区域B”和新的单应矩阵
Figure BDA0002866636840000071
同时计算出更准确的相机姿态;
Step 5提取直线:在得到Αt之后,对Αt进行坎尼算子求取边缘处理(如图4所示),进行霍夫变换(如图5所示):通过对直线参数空间的投票,估计出图像空间中的主要直线的解析方程式{l'1,l'2,l'3,…,l'Q}。在该集合中,对应上文每一条已经估计的四条边缘直线li,提出一根与之最接近的直线,于是算法得到4根霍夫算法估计的边缘线(如图6所示),这四根边缘直线同样确定了一个四边形,也就是新的绿幕四边形区域B”。利用该四边形B”确定的四个顶点位置,可以估计出新的单应矩阵H't,对H't和Ht求均值,算法得到更新后的单应矩阵
Figure BDA0002866636840000072
(注意此处有专门的计算公式,不是简单的代数均值)。已知更新后的
Figure BDA0002866636840000073
通过三维物体成像公式估算出更准确的相机姿态;
其中,霍夫变换是检测图像中直线的方法。通过在参数空间的投票,确定在图像中主要直线的位置与角度(也即直线参数)。
第六步,重复上述步骤,不断更新单应矩阵,动态调整热点区域,直到点匹配的搜索范围ε小于给定的预设值,或者迭代步数达到预设上限,即可得到精准的相机姿态和色键;
Step 6迭代:下一次迭代依旧是对当前帧Ft与参考帧FR进行点匹配,将上一步估计的单应矩阵
Figure BDA0002866636840000081
作为当前帧的Ht-1,且已知参考帧的比对关键点。在点匹配的搜索过程中,由于Ht-1变得准确,缩小搜索范围ε即可得到对应特征点。计算单应矩阵得到的热点区域会更接近真实绿幕区域的位置,相机姿态的估计也更精准提高了取色键的精度。随后取色键和计算α值,优化绿幕区域掩膜Αt,经过再一次的霍夫变换更新Ht后,得到更精准的绿幕区域和姿态估计,也就达到了迭代优化相机姿态估计和绿幕估计区域的目的。
重复1-5步骤,不断更新Ht,逐渐缩小点匹配搜索范围,校正估计的相机姿态,动态调整热点区域,提高取色键的精度,直到搜索范围ε小于预设值,或者迭代步数达到预设上限,几轮迭代结束后即可得到精准的相机姿态和色键;
其中,热点区域是指绿幕的估计区域;
其中,YUV值转换是相比于RGB值,YUV值将颜色和亮度分隔开,颜色只和UV值有关,更有利于基于颜色的抠像,所以需要转换。
第七步,基于预处理阶段得到的相机姿态放置虚拟场景;
基于预处理阶段得到的精准相机姿态,将当前画面抠像后放置在虚拟3D空间中,达到虚实结合的效果。
第八步,根据预处理阶段得到的精准色键对每一帧来进行像素级抠像;
使用预处理阶段得到的精准色键(一个或多个)对每一帧进行抠像,得到高质量的抠像结果。

Claims (3)

1.一种自迭代式的局部绿幕抠像方法,包括预处理阶段和正式运行阶段;预处理阶段用迭代的方式得到尽量准确的绿幕区域(如图1中所示),以得到更好的相机姿态和精准的色键;正式运行阶段是进行逼真的虚拟场景合成以及抠像;
(1)在整个过程中,相机和绿幕的位置都是固定的;
(2)在预处理阶段,绿幕前没有人、物等前景,而在正式运行阶段,绿幕前会加入人、物等前景进行抠像。
其特征在于,具体步骤如下:
第一步,根据参考帧FR上的关键点集对Ft进行点匹配,找出当前帧Ft对应的关键点集;
Step 1点匹配:当前帧Ft,是一张摄像机拍摄的无前景的绿幕图像。参考帧FR,是一张事先得到的标准绿幕图像。该图像中的绿幕区域的边缘、端点及比对关键点皆为已知。
假设,当前在参考帧FR上,有关键点集
Figure FDA0002866636830000011
包含N个关键点。每一个关键点
Figure FDA0002866636830000018
2D像素位置为
Figure FDA0002866636830000012
图像特征为
Figure FDA0002866636830000013
且有上一步估计的单应矩阵为Ht-1(当t=1时,Ht-1=I也即单位矩阵),所对应的在当前帧Ft上有搜索域:
Figure FDA0002866636830000014
其中,||·||为二范数(欧氏距离)函数,ε为搜索范围的半径。注意,对于在区域
Figure FDA0002866636830000019
中,匹配算法确定该关键点为:
Figure FDA0002866636830000015
其中,
Figure FDA0002866636830000016
是当前帧Ft上2D位置为
Figure FDA0002866636830000017
的关键点的图像特征。
在第一次点匹配的过程中,Ht-1为单位矩阵,要想在当前帧搜索到参考帧的关键点所对应的关键点,需要将搜索范围ε定为无穷大。
第二步,根据这两个点集的几何位置得出单应矩阵Ht,计算得到估计的绿幕区域B和姿态估计;
Step 2计算单应矩阵:假设在点匹配后,在当前帧Ft上找到对应参考帧关键点集
Figure FDA0002866636830000021
的关键点集
Figure FDA0002866636830000022
也就得到了有若干关键点对的匹配图,如图2所示。
Ft的绿幕区域则可通过两帧之间的坐标转换矩阵Ht得到。Ht也叫单应矩阵,具体来说,假设FR上关键点
Figure FDA0002866636830000023
对应当前帧Ft上的点
Figure FDA0002866636830000024
且它们的2D坐标分别为
Figure FDA0002866636830000025
Figure FDA0002866636830000026
则两帧之间的单应矩阵
Figure FDA0002866636830000027
满足:
Figure FDA0002866636830000028
根据两个关键点集的坐标位置,采用解多元方程组的方法计算出Ht,也可以通过使用RANSAC方法来提高对Ht估计的鲁棒性。在估算的单应矩阵Ht的基础上,算法把参考帧的绿幕的四个顶点坐标投影到当前帧上,得到绿幕在当前帧所占区域的估计B,如图3所示。通过三维物体成像公式估算出相机与绿幕之间的位置关系,即相机姿态。
第三、四步,先对区域B进行色键抽取,再根据公式计算α值,得到绿幕区域掩膜At
Step 3取色键:估计的绿幕区域B应为一四边形(可能被图像边缘截断)。可知四边的解析方程式为:
Figure FDA0002866636830000031
由于存在关键点误匹配的现象,估算的Ht不是很准确,导致得到的绿幕区域B和真实绿幕区域相差较大,需要下面的步骤来修正。
在区域B中取色键,进行抠像。先将B区域内像素的RGB值通过下式转化为YUV值:
Figure FDA0002866636830000032
可以得到区域内所有像素点的UV值,然后对该区域内的像素点取色键。取色键可以用K-Means聚类方法。
Step 4α值估计:求取d值的基本思路均是利用一定先验条件求解方程:
Iz=αzF+(1-αz)B′
其中,αz=1表示像素Iz属于前景F;αz=0表示像素Iz属于背景BB′;若αz∈(0,1),则表示像素Iz是前景和背景的混合。所以在得到色键后,要进行α值的估计,得到前景和背景。α值是通过下式得出:
Figure FDA0002866636830000033
其中,I={(u1,v1),(u2,v2),...(uz,vz)…(un,vn)}是当前帧像素的U、V值集合,(ui,vi)是上一步得到的色键的UV值,m和n是超参数。由于α值范围在[0,1],所以要将上式的结果d输入到Sigmoid函数,映射在[0,1]区间上,得到当前帧每一个像素的α值。将帧像素分为三类:前景F,背景B′以及混合像素集合M,也就是绿幕区域掩膜At
第五步,对At求取边缘处理和霍夫变换,确定该区域的边界,得到新的绿幕四边形区域B″和新的单应矩阵
Figure FDA0002866636830000041
同时计算出更准确的相机姿态;
Step 5提取直线:在得到At之后,对At进行坎尼算子求取边缘处理(如图4所示),进行霍夫变换(如图5所示):通过对直线参数空间的投票,估计出图像空间中的主要直线的解析方程式{l′1,l′2,l′3,…,l′Q}。在该集合中,对应上文每一条已经估计的四条边缘直线li,提出一根与之最接近的直线,于是算法得到4根霍夫算法估计的边缘线(如图6所示),这四根边缘直线同样确定了一个四边形,也就是新的绿幕四边形区域B″。利用该四边形B″确定的四个顶点位置,可以估计出新的单应矩阵H′t,对H′t和Ht求均值,算法得到更新后的单应矩阵
Figure FDA0002866636830000042
(注意此处有专门的计算公式,不是简单的代数均值)。已知更新后的
Figure FDA0002866636830000043
通过三维物体成像公式估算出更准确的相机姿态。
第六步,重复上述步骤,不断更新单应矩阵,动态调整热点区域,直到点匹配的搜索范围ε小于给定的预设值,或者迭代步数达到预设上限,即可得到精准的相机姿态和色键;
Step 6迭代:下一次迭代依旧是对当前帧Ft与参考帧FR进行点匹配,将上一步估计的单应矩阵
Figure FDA0002866636830000044
作为当前帧的Ht-1,且已知参考帧的比对关键点。在点匹配的搜索过程中,由于Ht-1变得准确,缩小搜索范围ε即可得到对应特征点。计算单应矩阵得到的热点区域会更接近真实绿幕区域的位置,相机姿态的估计也更精准提高了取色键的精度。随后取色键和计算α值,优化绿幕区域掩膜At,经过再一次的霍夫变换更新Ht后,得到更精准的绿幕区域和姿态估计,也就达到了迭代优化相机姿态估计和绿幕估计区域的目的。
重复1-5步骤,不断更新Ht,逐渐缩小点匹配搜索范围,校正估计的相机姿态,动态调整热点区域,提高取色键的精度,直到搜索范围ε小于预设值,或者迭代步数达到预设上限,几轮迭代结束后即可得到精准的相机姿态和色键。
第七步,基于预处理阶段得到的相机姿态放置虚拟场景;
基于预处理阶段得到的精准相机姿态,将当前画面抠像后放置在虚拟3D空间中,达到虚实结合的效果
第八步,根据预处理阶段得到的精准色键对每一帧来进行像素级抠像;
使用预处理阶段得到的精准色键对每一帧进行抠像,得到高质量的抠像结果。。
2.根据权利要求1所述的一种自迭代式的局部绿幕抠像方法,其特征在于:所述点匹配可以使用SIFT、SURF或深度学习算法。
3.根据权利要求1所述的一种自迭代式的局部绿幕抠像方法,其特征在于:所述色键的数量为一个及一个以上,用数据驱动的方法得到。
CN202011585423.6A 2020-12-28 2020-12-28 一种自迭代式的局部绿幕抠像方法 Pending CN112669337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011585423.6A CN112669337A (zh) 2020-12-28 2020-12-28 一种自迭代式的局部绿幕抠像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011585423.6A CN112669337A (zh) 2020-12-28 2020-12-28 一种自迭代式的局部绿幕抠像方法

Publications (1)

Publication Number Publication Date
CN112669337A true CN112669337A (zh) 2021-04-16

Family

ID=75411615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011585423.6A Pending CN112669337A (zh) 2020-12-28 2020-12-28 一种自迭代式的局部绿幕抠像方法

Country Status (1)

Country Link
CN (1) CN112669337A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030185461A1 (en) * 2002-03-29 2003-10-02 Canon Kabushiki Kaisha Method and apparatus for processing information
US20100245387A1 (en) * 2005-04-11 2010-09-30 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
CN103955918A (zh) * 2014-04-03 2014-07-30 吉林大学 一种全自动精细抠像装置及精细抠像方法
CN106254849A (zh) * 2016-08-08 2016-12-21 深圳迪乐普数码科技有限公司 一种前景物体局部置换的方法与终端
CN106296683A (zh) * 2016-08-09 2017-01-04 深圳迪乐普数码科技有限公司 一种虚拟屏幕墙的生成方法及终端
CN109872397A (zh) * 2019-02-18 2019-06-11 北京工业大学 一种基于多目立体视觉的飞机零件的三维重建方法
US20190333541A1 (en) * 2016-11-14 2019-10-31 Lightcraft Technology Llc Integrated virtual scene preview system
CN111862110A (zh) * 2020-06-30 2020-10-30 辽宁向日葵教育科技有限公司 一种绿幕抠像方法、系统、设备和可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030185461A1 (en) * 2002-03-29 2003-10-02 Canon Kabushiki Kaisha Method and apparatus for processing information
US20100245387A1 (en) * 2005-04-11 2010-09-30 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
CN103955918A (zh) * 2014-04-03 2014-07-30 吉林大学 一种全自动精细抠像装置及精细抠像方法
CN106254849A (zh) * 2016-08-08 2016-12-21 深圳迪乐普数码科技有限公司 一种前景物体局部置换的方法与终端
CN106296683A (zh) * 2016-08-09 2017-01-04 深圳迪乐普数码科技有限公司 一种虚拟屏幕墙的生成方法及终端
US20190333541A1 (en) * 2016-11-14 2019-10-31 Lightcraft Technology Llc Integrated virtual scene preview system
CN109872397A (zh) * 2019-02-18 2019-06-11 北京工业大学 一种基于多目立体视觉的飞机零件的三维重建方法
CN111862110A (zh) * 2020-06-30 2020-10-30 辽宁向日葵教育科技有限公司 一种绿幕抠像方法、系统、设备和可读存储介质

Similar Documents

Publication Publication Date Title
CN107516319B (zh) 一种高精度简易交互式抠图方法、存储设备及终端
CN106780576B (zh) 一种面向rgbd数据流的相机位姿估计方法
Zheng et al. Single-image vignetting correction
CN111260543B (zh) 一种基于多尺度图像融合和sift特征的水下图像拼接方法
JP5830546B2 (ja) 対象物のモデル変換に基づくモデルパラメータの決定
CN110349247B (zh) 一种基于语义理解的室内场景cad三维重建方法
CN109389555B (zh) 一种全景图像拼接方法及装置
CN109657612B (zh) 一种基于人脸图像特征的质量排序系统及其使用方法
CN107622480B (zh) 一种Kinect深度图像增强方法
CN108377374A (zh) 用于产生与图像相关的深度信息的方法和系统
CN113538569B (zh) 一种弱纹理物体位姿估计方法和系统
Ge et al. Fast single-image dehazing using linear transformation
Serna et al. Data fusion of objects using techniques such as laser scanning, structured light and photogrammetry for cultural heritage applications
CN102982524B (zh) 玉米果穗有序图像的拼接方法
CN110580715B (zh) 一种基于照度约束和格网变形的图像对齐方法
CN112489193A (zh) 一种基于结构光的三维重建方法
CN110517348B (zh) 基于图像前景分割的目标物体三维点云重建方法
CN111127353A (zh) 一种基于块配准和匹配的高动态图像去鬼影方法
CN108961182B (zh) 针对视频图像的竖直方向灭点检测方法及视频扭正方法
CN111681271B (zh) 一种多通道多光谱相机配准方法、系统及介质
CN107330856B (zh) 一种基于投影变换和薄板样条的全景成像方法
CN111161219B (zh) 一种适用于阴影环境的鲁棒单目视觉slam方法
CN116152121B (zh) 基于畸变参数的曲面屏生成方法、矫正方法
CN111383352A (zh) 一种针对三阶魔方的自动填色及抽象化方法
CN106934846B (zh) 一种布料图像处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination