CN107493465A - 一种虚拟多视点视频生成方法 - Google Patents
一种虚拟多视点视频生成方法 Download PDFInfo
- Publication number
- CN107493465A CN107493465A CN201710841434.8A CN201710841434A CN107493465A CN 107493465 A CN107493465 A CN 107493465A CN 201710841434 A CN201710841434 A CN 201710841434A CN 107493465 A CN107493465 A CN 107493465A
- Authority
- CN
- China
- Prior art keywords
- view
- point
- parallax
- viewpoint
- interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 238000003780 insertion Methods 0.000 claims 1
- 230000037431 insertion Effects 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 8
- 239000011521 glass Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种虚拟多视点视频生成方法,步骤如下:步骤S1,获取单帧图像。步骤S2,得到左视点视图和右视点视图。步骤S3,预处理。步骤S4,获取搜索稠密点初始视差。步骤S5,搜索匹配点,并计算每对匹配点之间的视差。步骤S6,线性插值得到高分辨率的匹配点视差。步骤S7,得到虚拟多视点图像。步骤S8,将虚拟多视点图像压缩成视频格式,送显存播放。本发明需要获取稠密的视差数据,所以用均值代替单点数据可以提高视差搜索的准确度,提高算法稳定性。然后按照几何光学的光线直线传播原理计算出虚拟的其它视点视差,进而由这些虚拟视差生成虚拟多视点图像。本发明是利用现有的两视点3D视频,通过数字计算方式得到其它视点的图像,从而低成本实现多视点3D视频制作。
Description
技术领域
本发明属于视频制作技术领域,具体涉及一种虚拟多视点视频生成方法。
背景技术
人眼具有双目的生理特点,使得人们对空间物体有立体感知。3D视频相对于常见的单视点2D视频而言,能带给人们身临其境的立体感受。传统的3D视频观察需要利用偏振光或者红蓝光原理,给左右眼分别传送带视差的偏振或者红蓝视频信息,由大脑合成立体图像。观察这种3D视频必须配带偏振眼镜或者红蓝眼镜,使人感觉有些不舒服。裸眼3D视频(或自由立体视频)是利用视差屏障或光学折射原理将视差图像分送到人的左右眼,从而产生立体感,观察这种视频无需戴辅助眼镜。
在裸眼3D显示领域,两视点3D显示是最早发展起来的一种立体显示技术,目前用于这种显示的视频源比较多,例如传统的3D视频源即可应用于裸眼3D领域。这种视频的拍摄成本低,但由于受到视点个数的限制,视频包含的立体层次少,观察者只能将自己调整到特定位置,才能使双眼观察到正确的3D视频;如果在观看过程中观察者改变位置,在这个过程中会感觉画面立体层次跳跃太快,使观察者感觉突兀跳跃等不舒服感觉。
发明内容
本发明要解决的是两视点3D视频观看位置受限,观看不舒服等技术问题,从而提供一种虚拟多视点视频生成方法,该方法充分利用现有的两视点视频源,根据观察者位置变化而生成虚拟的多视点3D视频,改善观察的立体效果,具有沉浸感,用户可以自由切换观看角度。
为解决上述技术问题,本发明所采用的技术方案如下:
一种虚拟多视点视频生成方法,步骤如下:步骤S1,获取两视点3D视频,并解码得到若干个对应的单帧图像。
步骤S2,对每个单帧图像进行分割得到左视点视图和右视点视图。
步骤S3,对步骤S2中的每个左视点视图和相对应的右视点视图分别进行预处理。S3.1,建立卷积模板所述卷积模板为奇数大小的椭圆形模板f1;所述椭圆形模板f1为
S3.2,将椭圆形模板f1与每个左视点视图进行卷积得到初步处理的左视点视图IL。
S3.3,设定椭圆形模板f1窗口的大小,并对初步处理后的IL的每一像素点以椭圆形模板f1的窗口中心为基准求窗口均值,并用窗口均值代替初步处理后的左视点视图的单点数据,得到二次处理后的左视点视图ILˊ。
具体步骤为:S3.3.1,将椭圆形模板f1的中心与初步处理的左视点视图IL的第一点对齐,将椭圆形模板f1与左视点视图IL相乘,并将相乘的结果求平均值,用所得均值代替左视点视图IL第一点的值。
S3.3.2,重复步骤S3.3.1,直至得到每一点的均值,进而得到二次处理后的左视点视图ILˊ。
S3.4,对二次处理后的左视点视图进行极线校正,得到矫正后的左视点视图。所述极线校正采用的是Bouguet或者Fusiello极线校正,极线校正是为了降低视差搜索的运算量,提高运算速度。
S3.5,将椭圆形模板f1与左视点视图相对应的右视点视图进行卷积得到初步处理的右视点视图IR。
S3.6,对初步处理后的右视点视图中的每一像素点按椭圆形模板f1窗口大小求均值,并用均值代替初步处理后的右视点视图的单点数据得到二次处理后的右视点视图IRˊ。
具体步骤为:S3.6.1,将椭圆形模板f1的中心与初步处理的右视点视图IR的第一点对齐,将椭圆形模板f1与右视点视图IR相乘,并将相乘的结果求平均值,用所得均值代替右视点视图IR第一点的值。
S3.6.2,重复步骤S3.6.1,直至得到每一点的均值,进而得到二次处理后的右视点视图IRˊ。
S3.7,对二次处理后的右视点视图进行极线校正得到矫正后的右视点视图。所述极线校正采用的是Bouguet或者Fusiello极线校正,极线校正是为了降低视差搜索的运算量,提高运算速度。
步骤S4,对步骤S3中同一帧的矫正后的左/右视点视图进行图像分块并计算每个图像块的视差值,将图像块的视差值作为搜索稠密点初始视差。
在步骤S4中,具体步骤为:S4.1,将矫正后的左/右视点视图分割成n×n大小的图像块;对于1080P的图像,n通常取4或5就可以满足效率和精度要求。
S4.2,对每个图像块从中心开始按左右方向搜索,得到每个图像块相关系数最大的位置,该位置就是当前图像块的视差值,并将该视差值作为搜索稠密点视差的初始值。
步骤S5,利用S4所得初始视差,搜索矫正后的左/右视点视图中的每一点在矫正后的右/左视点视图中相对应的匹配点,并计算每对匹配点之间的视差。
对矫正后的左/右视点视图中的每一点A(xi,yi)在矫正后的右/左视点视图中同一行搜索颜色最接近点B(xj,yi),B点为A点的匹配点,A点与B点的横坐标之差为这两个匹配点之间的视差,视差公式为:dAB=xj-xi;依次搜索每一点,得到所有匹配点对应的视差。
步骤S6,根据步骤S5得到的匹配点视差,通过线性插值得到高分辨率的匹配点视差。
根据步骤S5可得到i点和i+1点的视差di和di+1,如果要在这两点之间插值得到n个点的视差,则线性插入的n个点的视差分别为di+(di+1-di)×1/n,di+(di+1-di)×2/n,…,di+(di+1-di)×(n-1)/n,di+(di+1-di)。
步骤S7,根据步骤S6得到的通过线性插值得到的视差计算出高分辨率的虚拟多视点图像。
虚拟图像的每一点颜色可由左图或者右图插值生成,左图插值的计算公式为Ii(x,y)=IL(x+αdRL(x,y));
其中,(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dRL(x,y)为左右视差。
右图插值的计算公式为Ii(x,y)=IR(x+(1-α)dLR(x,y),y);
其中(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dLR(x,y)是右左视差。
步骤S8,将步骤S7得到的虚拟多视点图像压缩成视频格式,送显存播放。
本发明由两视点3D视频的每一帧计算出同一帧的两幅图像之间的视差,由于视频的每一帧都是单次拍摄的数据,根据测量理论,单次测量的准确度不高,本发明需要获取稠密的视差数据,所以用均值代替单点数据可以提高视差搜索的准确度,提高算法稳定性。然后按照几何光学的光线直线传播原理计算出虚拟的其它视点视差,进而由这些虚拟视差生成虚拟多视点图像。和实际拍摄的多视点视频不同,实际拍摄的多视点视频是利用多个摄像机对同一场景进行拍摄所得,制作成本很高。本发明是利用现有的两视点3D视频,通过数字计算方式得到其它视点的图像,从而低成本实现多视点3D视频制作。
附图说明
图1为本发明单帧两视点图像。
图2为本发明单帧左右视点分割图像。
图3为本发明卷积运算过程图。
图4为本发明实际采集图像基线偏差图。
图5为本发明左视点图像分割过程。
图6为本发明右视点图像分割过程。
图7为本发明搜索过程图。
图8为本发明高分辨率的虚拟多视点图像。
具体实施方式
一种虚拟多视点视频生成方法,步骤如下:步骤S1,获取两视点3D视频,并解码得到若干个对应的单帧图像。
步骤S2,对每个单帧图像进行分割得到左视点视图和右视点视图。
步骤S3,对步骤S2中的每个左视点视图和相对应的右视点视图分别进行预处理。
S3.1,建立卷积模板所述卷积模板为奇数大小的椭圆形模板f1;所述椭圆形模板f1为
S3.2,将椭圆形模板f1与每个左视点视图进行卷积得到初步处理的左视点视图IL。
S3.3,设定椭圆形模板f1窗口的大小,并对初步处理后的IL的每一像素点以椭圆形模板f1的窗口中心为基准求窗口均值,并用窗口均值代替初步处理后的左视点视图的单点数据,得到二次处理后的左视点视图ILˊ。
具体步骤为:S3.3.1,将椭圆形模板f1的中心与初步处理的左视点视图IL的第一点对齐,将椭圆形模板f1与左视点视图IL相乘,并将相乘的结果求平均值,用所得均值代替左视点视图IL第一点的值。
S3.3.2,重复步骤S3.3.1,直至得到每一点的均值,进而得到二次处理后的左视点视图ILˊ。
S3.4,对二次处理后的左视点视图进行极线校正,得到矫正后的左视点视图。所述极线校正采用的是Bouguet或者Fusiello极线校正,极线校正是为了降低视差搜索的运算量,提高运算速度。
S3.5,将椭圆形模板f1与左视点视图相对应的右视点视图进行卷积得到初步处理的右视点视图IR。
S3.6,对初步处理后的右视点视图中的每一像素点按椭圆形模板f1窗口大小求均值,并用均值代替初步处理后的右视点视图的单点数据得到二次处理后的右视点视图IRˊ。
具体步骤为:S3.6.1,将椭圆形模板f1的中心与初步处理的右视点视图IR的第一点对齐,将椭圆形模板f1与右视点视图IR相乘,并将相乘的结果求平均值,用所得均值代替右视点视图IR第一点的值。
S3.6.2,重复步骤S3.6.1,直至得到每一点的均值,进而得到二次处理后的右视点视图IRˊ。
S3.7,对二次处理后的右视点视图进行极线校正得到矫正后的右视点视图。所述极线校正采用的是Bouguet或者Fusiello极线校正,极线校正是为了降低视差搜索的运算量,提高运算速度。
步骤S4,对步骤S3中同一帧的矫正后的左/右视点视图进行图像分块并计算每个图像块的视差值,将图像块的视差值作为搜索稠密点初始视差。
在步骤S4中,具体步骤为:S4.1,将矫正后的左/右视点视图分割成n×n大小的图像块;对于1080P的图像,n通常取4或5就可以满足效率和精度要求。
S4.2,对每个图像块从中心开始按左右方向搜索,得到每个图像块相关系数最大的位置,该位置就是当前图像块的视差值,并将该视差值作为搜索稠密点视差的初始值。
步骤S5,利用S4所得初始视差,搜索矫正后的左/右视点视图中的每一点在矫正后的右/左视点视图中相对应的匹配点,并计算每对匹配点之间的视差。
对矫正后的左/右视点视图中的每一点A(xi,yi)在矫正后的右/左视点视图中同一行搜索颜色最接近点B(xj,yi),B点为A点的匹配点,A点与B点的横坐标之差为这两个匹配点之间的视差,视差公式为:dAB=xj-xi;依次搜索每一点,得到所有匹配点对应的视差。
步骤S6,根据步骤S5得到的匹配点视差,通过线性插值得到高分辨率的匹配点视差。
根据步骤S5可得到i点和i+1点的视差di和di+1,如果要在这两点之间插值得到n个点的视差,则线性插入的n个点的视差分别为di+(di+1-di)×1/n,di+(di+1-di)×2/n,…,di+(di+1-di)×(n-1)/n,di+(di+1-di)。
步骤S7,根据步骤S6得到的通过线性插值得到的视差计算出高分辨率的虚拟多视点图像。
虚拟图像的每一点颜色可由左图或者右图插值生成,左图插值的计算公式为Ii(x,y)=IL(x+αdRL(x,y));
其中,(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dRL(x,y)为左右视差。
右图插值的计算公式为Ii(x,y)=IR(x+(1-α)dLR(x,y),y);
其中(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dLR(x,y)是右左视差。
步骤S8,将步骤S7得到的虚拟多视点图像压缩成视频格式,送显存播放。
下面以一个具体事例对本发明进行说明。
1)、把两视点3D视频解码,得到对应的单帧图像,如图1所示;
2)、由单帧图像分割出左右视点图像,如图2所示;
3)、对左右视点图像进行预处理。
①取奇数大小椭圆形模板,分别对左右视点图像进行卷积运算;卷积运算过程如图3所示。
②按照模板窗口大小用卷积的数据对每一点按窗口求均值,用均值代替原图的单点数据。由于视频的每一帧都是单次拍摄的数据,根据测量理论,单次测量的准确度不高,本方法需要获取稠密的视差数据,所以用均值代替单点数据可以提高视差搜索的准确度,提高算法稳定性。
③对同一帧左右视点图像分别进行基线校正,降低视差搜索的运算量,提高运算速度。实际图像采集存在基线偏差如图4所示。
极线校正是使左右视点图像的基线相互平行或重合,从而消除高度方向视察搜索,达到提高运算速度的目的。
4)将基线校正后的同帧左右图像分割成4×4大小的块,由对应每块的中心开始按左右方向搜索,得到每一块相关系数最大的位置,此位置即对应了每块的视差值,将此值作为搜索稠密点视差的初始值。左视点图像分割过程如图5所示,右视点图像分割过程如图6所示,搜索过程如图7所示。
5)利用4)所得初始视差,对左视点视图中每一点A(xi,yi)在右视点视图中同一行搜索颜色最接近点B(xj,yi),B点即为A点的匹配点,A、B两点的横坐标之差即为这两个匹配点之间的视差,即dAB=xj-xi。依次搜索每一点,得到所有匹配点对应的视差。同理也可以以右图为基准,在左图搜索匹配点。
6)利用5)所得到的视差,如分辨率为1080×960,通过线性插值运算,得到高分辨率视差,如1920×1080。
7)利用6)得到的高分辨率视差,插值得到高分辨率的虚拟多视点图像,如图8所示。
8)将得到的虚拟多视点图像压缩成视频格式,送显存播放。
Claims (6)
1.一种虚拟多视点视频生成方法,其特征在于,步骤如下:步骤S1,获取两视点3D视频,并解码得到若干个对应的单帧图像;
步骤S2,对每个单帧图像进行分割得到左视点视图和右视点视图;
步骤S3,对步骤S2中的每个左视点视图和相对应的右视点视图分别进行预处理;
步骤S4,对步骤S3中同一帧的矫正后的左/右视点视图进行图像分块并计算每个图像块的视差值,将图像块的视差值作为搜索稠密点初始视差;
步骤S5,利用S4所得初始视差,搜索矫正后的左/右视点视图中的每一点在矫正后的右/左视点视图中相对应的匹配点,并计算每对匹配点之间的视差;
步骤S6,根据步骤S5得到的匹配点视差,通过线性插值得到高分辨率的匹配点视差;
步骤S7,根据步骤S6得到的通过线性插值得到的视差计算出高分辨率的虚拟多视点图像;
步骤S8,将步骤S7得到的虚拟多视点图像压缩成视频格式,送显存播放。
2.根据权利要求1所述的虚拟多视点视频生成方法,其特征在于,在步骤S3中,具体步骤为:S3.1,建立卷积模板;所述卷积模板为奇数大小的椭圆形模板f1;所述椭圆形模板f1为
S3.2,将椭圆形模板f1与每个左视点视图进行卷积得到初步处理的左视点视图IL;
S3.3,设定椭圆形模板f1窗口的大小,并对初步处理后的IL的每一像素点以椭圆形模板f1的窗口中心为基准求窗口均值,并用窗口均值代替初步处理后的左视点视图的单点数据,得到二次处理后的左视点视图ILˊ;
具体步骤为:S3.3.1,将椭圆形模板f1的中心与初步处理的左视点视图IL的第一点对齐,将椭圆形模板f1与左视点视图IL相乘,并将相乘的结果求平均值,用所得均值代替左视点视图IL第一点的值;
S3.3.2,重复步骤S3.3.1,直至得到每一点的均值,进而得到二次处理后的左视点视图ILˊ;
S3.4,对二次处理后的左视点视图进行极线校正,得到矫正后的左视点视图;
S3.5,将椭圆形模板f1与左视点视图相对应的右视点视图进行卷积得到初步处理的右视点视图IR;
S3.6,对初步处理后的右视点视图中的每一像素点按椭圆形模板f1窗口大小求均值,并用均值代替初步处理后的右视点视图的单点数据得到二次处理后的右视点视图IRˊ;
具体步骤为:S3.6.1,将椭圆形模板f1的中心与初步处理的右视点视图IR的第一点对齐,将椭圆形模板f1与右视点视图IR相乘,并将相乘的结果求平均值,用所得均值代替右视点视图IR第一点的值;
S3.6.2,重复步骤S3.6.1,直至得到每一点的均值,进而得到二次处理后的右视点视图IRˊ;
S3.7,对二次处理后的右视点视图进行极线校正得到矫正后的右视点视图。
3.根据权利要求1所述的虚拟多视点视频生成方法,其特征在于,在步骤S4中,具体步骤为:S4.1,将矫正后的左/右视点视图分割成n×n大小的图像块;S4.2,对每个图像块从中心开始按左右方向搜索,得到每个图像块相关系数最大的位置,该位置就是当前图像块的视差值,并将该视差值作为搜索稠密点视差的初始值。
4.根据权利要求1所述的虚拟多视点视频生成方法,其特征在于:在步骤S5中,对矫正后的左/右视点视图中的每一点A(xi,yi)在矫正后的右/左视点视图中同一行搜索颜色最接近点B(xj,yi),B点为A点的匹配点,A点与B点的横坐标之差为这两个匹配点之间的视差,视差公式为:dAB=xj-xi;依次搜索每一点,得到所有匹配点对应的视差。
5.根据权利要求1所述的虚拟多视点视频生成方法,其特征在于,在步骤S6中,根据步骤S5得到了i点和i+1点的视差di和di+1,在这两点之间插值得到n个点的视差,则线性插入的n个点的视差分别为di+(di+1-di)×1/n,di+(di+1-di)×2/n,…,di+(di+1-di)×(n-1)/n,di+(di+1-di)。
6.根据权利要求1所述的虚拟多视点视频生成方法,其特征在于,在步骤S7中,虚拟图像的每一点颜色可由左图或者右图插值生成,左图插值的计算公式为Ii(x,y)=IL(x+αdRL(x,y));
其中,(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dRL(x,y)为左右视差;
右图插值的计算公式为Ii(x,y)=IR(x+(1-α)dLR(x,y),y);
其中(x,y)是插值的目标视图中点的坐标,α为插值步长系数,由当前插值图像的视点序号决定,α∈(0,1),dLR(x,y)是右左视差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710841434.8A CN107493465B (zh) | 2017-09-18 | 2017-09-18 | 一种虚拟多视点视频生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710841434.8A CN107493465B (zh) | 2017-09-18 | 2017-09-18 | 一种虚拟多视点视频生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107493465A true CN107493465A (zh) | 2017-12-19 |
CN107493465B CN107493465B (zh) | 2019-06-07 |
Family
ID=60652814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710841434.8A Expired - Fee Related CN107493465B (zh) | 2017-09-18 | 2017-09-18 | 一种虚拟多视点视频生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107493465B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108144292A (zh) * | 2018-01-30 | 2018-06-12 | 河南三阳光电有限公司 | 裸眼3d互动游戏制作设备 |
CN108259881A (zh) * | 2018-01-30 | 2018-07-06 | 深圳市得色科技有限公司 | 基于视差估算的3d合成方法及其系统 |
CN111464804A (zh) * | 2020-04-08 | 2020-07-28 | 北京小米松果电子有限公司 | 一种全向视差视图合成方法、装置及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110798673B (zh) * | 2019-11-13 | 2021-03-19 | 南京大学 | 基于深度卷积神经网络的自由视点视频生成及交互方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437170A (zh) * | 2007-11-13 | 2009-05-20 | 学校法人东京电机大学 | 多眼视图像生成系统以及多眼视图像生成方法 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102254348A (zh) * | 2011-07-25 | 2011-11-23 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN103581650A (zh) * | 2013-10-21 | 2014-02-12 | 四川长虹电器股份有限公司 | 双目3d视频转多目3d视频的方法 |
JP2017017581A (ja) * | 2015-07-02 | 2017-01-19 | 沖電気工業株式会社 | 仮想視点画像生成装置及びプログラム |
CN106548482A (zh) * | 2016-10-19 | 2017-03-29 | 成都西纬科技有限公司 | 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统 |
-
2017
- 2017-09-18 CN CN201710841434.8A patent/CN107493465B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437170A (zh) * | 2007-11-13 | 2009-05-20 | 学校法人东京电机大学 | 多眼视图像生成系统以及多眼视图像生成方法 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102254348A (zh) * | 2011-07-25 | 2011-11-23 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN103581650A (zh) * | 2013-10-21 | 2014-02-12 | 四川长虹电器股份有限公司 | 双目3d视频转多目3d视频的方法 |
JP2017017581A (ja) * | 2015-07-02 | 2017-01-19 | 沖電気工業株式会社 | 仮想視点画像生成装置及びプログラム |
CN106548482A (zh) * | 2016-10-19 | 2017-03-29 | 成都西纬科技有限公司 | 一种基于稀疏匹配与图像边缘的稠密匹配方法及系统 |
Non-Patent Citations (1)
Title |
---|
蒋刚毅等: "基于光线空间插值的任意视点绘制", 《电子学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108144292A (zh) * | 2018-01-30 | 2018-06-12 | 河南三阳光电有限公司 | 裸眼3d互动游戏制作设备 |
CN108259881A (zh) * | 2018-01-30 | 2018-07-06 | 深圳市得色科技有限公司 | 基于视差估算的3d合成方法及其系统 |
CN111464804A (zh) * | 2020-04-08 | 2020-07-28 | 北京小米松果电子有限公司 | 一种全向视差视图合成方法、装置及存储介质 |
US11245886B2 (en) | 2020-04-08 | 2022-02-08 | Beijing Xiaomi Pinecone Electronics Co., Ltd. | Method and apparatus for synthesizing omni-directional parallax view, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN107493465B (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107396087B (zh) | 裸眼三维显示装置及其控制方法 | |
EP1836859B1 (en) | Automatic conversion from monoscopic video to stereoscopic video | |
CN107493465B (zh) | 一种虚拟多视点视频生成方法 | |
CN104010178B (zh) | 双目图像视差调节方法及装置和双目相机 | |
CN102789058B (zh) | 立体图像生成装置和立体图像生成方法 | |
WO2015161541A1 (zh) | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 | |
KR20110124473A (ko) | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 | |
CN105072431A (zh) | 一种基于人眼跟踪的裸眼3d播放方法及系统 | |
US11785197B2 (en) | Viewer-adjusted stereoscopic image display | |
JP6128442B2 (ja) | 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{method and device for stereo base extension of stereoscopic images and image sequences} | |
US9571824B2 (en) | Stereoscopic image display device and displaying method thereof | |
KR20120030005A (ko) | 화상 처리 장치 및 방법과 입체 화상 표시 장치 | |
CN104853185A (zh) | 结合多视差和运动的立体视频舒适度评价方法 | |
CN110381305B (zh) | 裸眼3d的去串扰方法、系统、存储介质及电子设备 | |
CN116567191A (zh) | 一种面向舒适度提升的立体视觉内容视差调节方法 | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
Mangiat et al. | Disparity remapping for handheld 3D video communications | |
Li et al. | A modified just noticeable depth difference model built in perceived depth space | |
JP2014053782A (ja) | 立体画像データ処理装置、および、立体画像データ処理方法 | |
Xia et al. | 9.3: Invited Paper: Geometric distortions in three‐dimensional endoscopic visualization | |
Huang et al. | Adaptive 3D Video Parallax Generation Based on Neural Radiation Field | |
Rhee et al. | Stereo image synthesis by view morphing with stereo consistency | |
CN111684517B (zh) | 观看者调节的立体图像显示 | |
WO2017024422A1 (zh) | 使用色度成形法的内视镜立体可视化系统及方法 | |
CN106331670A (zh) | 使用色度成形法的内视镜立体视觉化系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190607 |