CN104980729B - 一种视差图的生成方法及系统 - Google Patents
一种视差图的生成方法及系统 Download PDFInfo
- Publication number
- CN104980729B CN104980729B CN201510409885.5A CN201510409885A CN104980729B CN 104980729 B CN104980729 B CN 104980729B CN 201510409885 A CN201510409885 A CN 201510409885A CN 104980729 B CN104980729 B CN 104980729B
- Authority
- CN
- China
- Prior art keywords
- depth
- pixel
- value
- map
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明提供了一种视差图的生成方法及系统,一种视差图生成方法包括:获取带有深度信息的图像的深度图;获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值;根据深度图中每个像素的深度值得到深度图中每个像素的视差值;根据深度图中每个像素的视差值得到用于形成3D图像的视差图。本发明能生成准确的视差图以便展示较好3D效果的3D图像,视差图的获取过程通用性更强,步骤简练,可在不同的平台上实现视差图的生成。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种视差图的生成方法及系统。
背景技术
目前,形成3D图像的其中的一个原理是需要一副带有深度信息的图像和一副视差图,2副图进行软件交织形成新的图像,最后通过3D光学棱镜形成三维立体效果,人眼看到的便有3D图像。具有视差的左眼和右眼图像称为立体显示的视差图,那么视差值是影响3D效果的比较关键的因素,视差图与深度图(Depth Map)又有着密切的关系。现有深度图转视差图的过程步骤繁琐,在不同情况下需要修改对应的系数,不能同时适用多种情况,提取深度数据比较消耗内存,如何使生成用于形成3D图像的视差图的过程通用性更强,占用数据存储空间更小,是业界亟需解决的问题。
发明内容
本发明实施例提供一种三维数据的裸眼3D显示方法及显示系统,用于解决深度图生成用于形成3D图像的视差图的通用性不高和步骤繁琐的问题。
本发明实施例采用以下技术方案:
第一方面,提供一种视差图的生成方法,包括:
获取带有深度信息的图像的深度图;
获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值;
根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值;
根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图。
优选的,所述获取带有深度信息的图像的深度图,包括:通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。
优选的,所述获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,还包括:
将所述深度图中的深度信息数据解码为图片内容数据;
获取所述图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值。
优选的,所述获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值,包括:
获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far和最近RGB的深度值near,得到所述深度图中每个像素的深度值depth:depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为显示屏幕的预设参数。
优选的,所述根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值,包括:
根据所述深度图中每个像素的深度值depth计算所述深度图中每个像素的视差值disparity,disparity=(depth*c)/(depth+L1)L2,其中,c为双眼眼距,L1为预设的最佳3D图像观看距离,L2为最佳3D图像的物理长度。
优选的,根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图,包括:
将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图。
第二方面,提供一种视差图的生成系统,包括:
深度图转换单元,用于获取带有深度信息的图像的深度图;
深度值获取单元,用于获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值;
视差值获取单元,用于根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值;
视差图获取单元,用于根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图。
优选的,所述深度图转换单元,用于:通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。
优选的,所述深度值获取单元包括:
解码模块,用于将所述深度图中的深度信息数据解码为图片内容数据;
深度值获取模块,用于获取所述图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值。
优选的,所述深度值获取单元,具体用于:
获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far和最近RGB的深度值near,得到所述深度图中每个像素的深度值depth:depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为显示屏幕的预设参数。
优选的,所述视差值获取单元,具体用于:根据所述深度图中每个像素的深度值depth计算所述深度图中每个像素的视差值disparity,disparity=(depth*c)/(depth+L1)L2,其中,c为双眼眼距,L1为预设的最佳3D图像观看距离,L2为3D图像的物理长度。
优选的,还包括视差图获取单元,用于将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图。
与现有技术相比,本发明提供的一种视差图的生成方法及系统,具有以下有益效果:通过深度图中的每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值计算出深度图中每个像素的深度值,通过每个像素的深度值得出视差值以生成视差图,生成准确的视差图以便展示较好3D效果的3D图像,视差图的获取过程通用性更强,步骤简练,可在不同的平台上实现。
附图说明
图1是本发明的提供一种视差图的生成方法的实施例的方法流程图一。
图2是本发明提供的一种视差图的生成方法的实施例的方法流程图二。
图3是本发明的提供实施例的一种视差图的生成方法及系统中3D感知点、视差值、深度值、最佳观看距离的示意图。
图4是本发明提供的一种视差图的生成系统的实施例的结构框图一。
图5是本发明提供的一种视差图的生成系统的实施例的结构框图二。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1和图2示出根据本发明提供的一种视差图的生成方法实施例的方法流程图。本实施例的一种视差图的生成方法主要由图像处理单元来执行。其中,图像处理单元的硬件装置为处理器,一般可以包括但不限于:个人电脑、笔记本电脑、手机、平板电脑等带有CPU的智能终端。本实施例中,该智能终端为带有显示屏幕的智能终端,该方法包括以下步骤:
101:获取带有深度信息的图像的深度图。
目前,可以生成带有深度信息的图像的方法有很多,比如通过使用两个相隔一定距离的摄像机同时获取场景图像来生成,微软的directX图形函数库、OpenGL函数库、Google Map图像数据中包含GDepth标签数据、Google Camera手机软件等都可以获取一副带有深度信息的图像。深度图为灰度图,表示了图中的每一个像素值表示场景中某一点与摄像机之间的距离,深度图像素值的大小反映了景深的远近,深度图中的像素值越大,代表景深越近,深度图中的像素值越小,代表景深越远。
较佳的,生成深度图通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。
其中,正则表达式,又称正规表示法、常规表示法(英语:Regular Expression,在代码中常简写为regex、regexp或RE),计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列符合某个句法规则的字符串。在很多文本编辑器里,正则表达式通常被用来检索、替换那些符合某个模式的文本。
正则表达式与需要过滤的标签数据匹配,标签数据可以包括水印、xml链接、特殊字符、32位字符等,例如,通过与需要过滤的标签数据匹配的正则表达式为:\\xFF\\xE1.*?[A-Z0-9]{32}[\\s\\S]{8},其中,“\\xFF\\xE1.*?”中“\\xFF”为过滤的开头标记,开始过滤所有标记,“.*?”是正则表达式贪婪匹配模式,“[A-Z0-9]{32}”表示过滤32个字符:
07DA5AE24ECC10FD761F51CF86046830,“[\\s\\S]{8}”表示过滤8个特殊字符,包括不可见的空格,制表符等。
102:获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到深度图中每个像素的深度值。
具体的,获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far(深度图中最小RGB的深度值)和最近RGB的深度值near(深度图中最大RGB的深度值),可以通过字符串函数截取图片内容数据中的最小值和最大值来得到最远RGB的深度值far和最近RGB的深度值near。得到深度图中每个像素的深度值depth:
depth:depth=(dm-near)/(far-near)*a-b;
其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为用于显示最终生成的3D图像的显示屏幕的预设参数。若RGB的深度值drgb的范围为[0,255],需要归一化值为[0,1],即dn=drgb/255.0。若RGB的深度值drgb的范围为[0,1],则不需要归一化处理,即dn=drgb。
步骤102包括步骤121-121。
121:将深度图中的深度信息数据解码为图片内容数据。
一般深度图是采用base64的编码方式,将深度图中base64的深度信息数据解码为各像素RGB的深度值的序列。其中,各像素的RGB的深度值即为RGB值,这种情况下的同一像素中的R、G、B值是一样的,我们取其中的R值即可。
122;获取图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到深度图中每个像素的深度值。
具体的,获取深度图解码得到的图片内容数据中每个像素RGB的深度值dn、最远RGB的深度值far(深度图中最小RGB的深度值)和最近RGB的深度值near(深度图中最大RGB的深度值),可以通过字符串函数截取图片内容数据中的最小值和最大值来得到最远RGB的深度值far和最近RGB的深度值near。得到深度图中每个像素的深度值depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为用于显示最终生成的3D图像的显示屏幕的预设参数。若RGB的深度值drgb的范围为[0,255],需要归一化值为[0,1],即dn=drgb/255.0。若RGB的深度值drgb的范围为[0,1],则不需要归一化处理,即dn=drgb。
103:根据深度图中每个像素的深度值得到深度图中每个像素的视差值。
具体的,根据深度图中每个像素的深度值depth计算深度图中每个像素的视差值disparity,disparity=(depth*6.5)/(depth+L1)L2,L1为预设的最佳3D图像观看距离,L2为3D图像的物理长度,当全屏播放时,L2也可以为屏幕的物理长度。
如图3所示,disparity=(depth*6.5)/(depth+40.0)/12.2,根据等价相似三角形得出公式,其中6.5为双眼眼距,40为最佳3D图像观看距离,12.2为3D图像的物理长度,当全屏播放时,12.2也可以为屏幕的物理长度。
104:根据深度图中每个像素的视差值得到用于形成3D图像的视差图。
将带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图,深度信息的图像向左。
通过步骤103获取了视差值,取带有深度信息的图像(原图)中每个像素的像素数据沿着x坐标轴向左偏移该像素对应的视差值disparity,即原图x坐标点对应的偏移位移为x+disparity,然后取原图中各像素的像素数据,生成右视差图。例如:在OpenGL中可以通过texture2D(sTexture,x+disparity)函数取原图中各像素的像素数据生成右视差图,其中,sTexture为图源,sTexture取原图中每个像素的像素数据。
图4和图5示出了本发明提供的一种视差图的生成系统实施例的结构框图。本实施例的一种视差图的生成系统主要由图像处理单元来执行。其中,图像处理单元的硬件装置为处理器,一般可以包括但不限于:人电脑、笔记本电脑、手机、平板电脑等带有CPU的智能终端,本实施例中,该智能终端为带有显示屏幕的智能终端。本系统包括深度图转换单元201、深度值获取单元202、视差值获取单元203和视差图获取单元204。
深度图转换单元201,用于获取带有深度信息的图像的深度图。
目前,可以生成带有深度信息的图像的方法有很多,比如通过使用两个相隔一定距离的摄像机同时获取场景图像来生成,微软的directX图形函数库、OpenGL函数库、Google Map图像数据中包含GDepth标签数据、Google Camera手机软件等都可以获取一副带有深度信息的图像。深度图为灰度图,表示了图中的每一个像素值表示场景中某一点与摄像机之间的距离,深度图像素值的大小反映了景深的远近,深度图中的像素值越大,代表景深越近,深度图中的像素值越小,代表景深越远。
较佳的,生成深度图通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。其中,正则表达式与需要过滤的标签数据匹配,标签数据可以包括水印、xml链接、特殊字符、32位字符等,例如,通过与需要过滤的标签数据匹配的正则表达式为:
\\xFF\\xE1.*?[A-Z0-9]{32}[\\s\\S]{8},其中,“\\xFF\\xE1.*?”中的“\\xFF”为过滤的开头标记,开始过滤所有标记,“.*?”是正则表达式贪婪匹配模式,“[A-Z0-9]{32}”标示过滤32个字符:
07DA5AE24ECC10FD761F51CF86046830,“[\\s\\S]{8}”表示过滤8个特殊字符,包括不可见的空格,制表符等。
深度值获取单元202,用于获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值。
具体的,获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far(最小RGB的深度值)和最近RGB的深度值near(最大RGB的深度值),可以通过字符串函数截取图片内容数据中的最小值和最大值来得到最远RGB的深度值far和最近RGB的深度值near。得到深度图中每个像素的深度值depth:depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为用于显示最终生成的3D图像的显示屏幕的预设参数。若RGB的深度值drgb的范围为[0,255],需要归一化值为[0,1],即dn=drgb/255.0。若RGB的深度值drgb的范围为[0,1],则不需要归一化处理,即dn=drgb。
优选的,深度值获取单元202包括解码模块221和深度值获取模块222。
解码模块221,用于将深度图中的深度信息数据解码为图片内容数据。
一般深度图是采用base64的编码方式,将深度图中base64的深度信息数据解码为各像素RGB的深度值的序列。其中,各像素的RGB的深度值即为RGB值,这种情况下的同一像素中的R、G、B值是一样的,我们取其中的R值即可。
深度值获取模块232,用于获取图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到深度图中每个像素的深度值。
具体的,获取深度图解码得到的图片内容数据中每个像素RGB的深度值dn、最远RGB的深度值far(最小RGB的深度值)和最近RGB的深度值near(最大RGB的深度值),可以通过字符串函数截取图片内容数据中的最小值和最大值来得到最远RGB的深度值far和最近RGB的深度值near。得到深度图中每个像素的深度值depth:depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为用于显示最终生成的3D图像的显示屏幕的预设参数。若RGB的深度值drgb的范围为[0,255],需要归一化值为[0,1],即dn=drgb/255.0。若RGB的深度值drgb的范围为[0,1],则不需要归一化处理,即dn=drgb。
视差值获取单元203,用于根据深度图中每个像素的深度值得到深度图中每个像素的视差值。
具体的,根据深度图中每个像素的深度值depth计算深度图中每个像素的视差值disparity,disparity=(depth*6.5)/(depth+L1)L2,L1为预设的最佳3D图像观看距离,L2为3D图像的物理长度,当全屏播放时,L2也可以为屏幕的物理长度。
如图3所示,disparity=(depth*6.5)/(depth+40.0)/12.2,根据等价相似三角形得出公式,其中6.5为双眼眼距,40为最佳3D图像观看距离,12.2为3D图像的物理长度,当全屏播放时,12.2也可以为屏幕的物理长度。
视差图获取单元204,用于根据深度图中每个像素的视差值得到用于形成3D图像的视差图。
将带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图。
通过步骤103获取了视差值,取带有深度信息的图像(原图)中每个像素的像素数据沿着x坐标轴向左偏移该像素对应的视差值disparity,即原图x坐标点对应的偏移位移为x+disparity,然后取原图中各像素的像素数据,生成右视差图。例如:在OpenGL中可以通过texture2D(sTexture,x+disparity)函数取原图中各像素的像素数据生成右视差图,其中,sTexture为图源,sTexture取原图中每个像素的像素数据。
综上所述,本发明可以生成带有深度信息的图像的准确的视差图,以便展示较好3D效果的3D图像,视差图的获取过程通用性更强,步骤简练,可在不同的平台上实现视差图的生成。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种视差图的生成方法,其特征在于,包括:
获取带有深度信息的图像的深度图;
获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值,包括获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far和最近RGB的深度值near,得到所述深度图中每个像素的深度值depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为显示屏幕的预设参数;
根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值;
根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图。
2.如权利要求1所述的方法,其特征在于,所述获取带有深度信息的图像的深度图,包括:通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。
3.如权利要求1所述的方法,其特征在于,所述获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,包括:
将所述深度图中的深度信息数据解码为图片内容数据;
获取所述图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值。
4.如权利要求1所述的方法,其特征在于,所述根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值,包括:
根据所述深度图中每个像素的深度值depth计算所述深度图中每个像素的视差值disparity,disparity=(depth*c)/(depth+L1)L2,其中,c为双眼眼距,L1为预设的最佳3D图像观看距离,L2为最佳3D图像的物理长度。
5.如权利要求1所述的方法,其特征在于,根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图,包括:
将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图。
6.一种视差图的生成系统,其特征在于,包括:
深度图转换单元,用于获取带有深度信息的图像的深度图;
深度值获取单元,用于获取深度图中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值,具体用于获取深度图中每个像素RGB的深度值dn、最远RGB的深度值far和最近RGB的深度值near,得到所述深度图中每个像素的深度值depth:depth:depth=(dm-near)/(far-near)*a-b,其中dm=(far*near)/[far-dn*(far-near)],dn为图像中每个像素的归一化RGB值,a、b为显示屏幕的预设参数;
视差值获取单元,用于根据所述深度图中每个像素的深度值得到所述深度图中每个像素的视差值;
视差图获取单元,用于根据所述深度图中每个像素的视差值得到用于形成3D图像的视差图。
7.如权利要求6所述的系统,其特征在于,所述深度图转换单元,用于:通过正则表达式过滤带有深度信息的图像中除深度信息数据以外的标签数据,得到深度图。
8.如权利要求6所述的系统,其特征在于,所述深度值获取单元包括:
解码模块,用于将所述深度图中的深度信息数据解码为图片内容数据;
深度值获取模块,用于获取所述图片内容数据中每个像素RGB的深度值、最远RGB的深度值和最近RGB的深度值,得到所述深度图中每个像素的深度值。
9.如权利要求6所述的系统,其特征在于,所述视差值获取单元,具体用于:根据所述深度图中每个像素的深度值depth计算所述深度图中每个像素的视差值disparity,disparity=(depth*c)/(depth+L1)L2,其中,c为双眼眼距,L1为预设的最佳3D图像观看距离,L2为3D图像的物理长度。
10.如权利要求6所述的系统,其特征在于,还包括视差图获取单元,用于将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向左偏移该像素的视差值,形成3D图像的右视差图;或将所述带有深度信息的图像中每个像素的像素数据沿着x坐标轴向右偏移该像素的视差值,形成3D图像的左视差图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510409885.5A CN104980729B (zh) | 2015-07-14 | 2015-07-14 | 一种视差图的生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510409885.5A CN104980729B (zh) | 2015-07-14 | 2015-07-14 | 一种视差图的生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104980729A CN104980729A (zh) | 2015-10-14 |
CN104980729B true CN104980729B (zh) | 2017-04-26 |
Family
ID=54276765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510409885.5A Active CN104980729B (zh) | 2015-07-14 | 2015-07-14 | 一种视差图的生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104980729B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105681776B (zh) * | 2016-01-13 | 2017-12-08 | 深圳市奥拓电子股份有限公司 | 一种视差图提取的方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110304618A1 (en) * | 2010-06-14 | 2011-12-15 | Qualcomm Incorporated | Calculating disparity for three-dimensional images |
CN102157012B (zh) * | 2011-03-23 | 2012-11-28 | 深圳超多维光电子有限公司 | 对场景进行立体渲染的方法、图形图像处理装置及设备、系统 |
KR20140118091A (ko) * | 2013-03-28 | 2014-10-08 | 인텔렉추얼디스커버리 주식회사 | 영상 제작 시스템 및 변위 맵 생성방법 |
JP2015094831A (ja) * | 2013-11-11 | 2015-05-18 | キヤノン株式会社 | 立体撮像装置およびその制御方法、制御プログラム |
CN104243948B (zh) * | 2013-12-20 | 2017-01-18 | 深圳深讯和科技有限公司 | 2d图像转3d图像的深度调整方法及装置 |
-
2015
- 2015-07-14 CN CN201510409885.5A patent/CN104980729B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104980729A (zh) | 2015-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103945208B (zh) | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 | |
US20230021161A1 (en) | Virtual image generation method and apparatus, electronic device and storage medium | |
KR102624635B1 (ko) | 메시징 시스템에서의 3d 데이터 생성 | |
US20120281906A1 (en) | Method, System and Computer Program Product for Converting a 2D Image Into a 3D Image | |
US20110254835A1 (en) | System and method for the creation of 3-dimensional images | |
CN103631866B (zh) | 网页的显示方法和浏览器 | |
AU2016201655A1 (en) | Estimating depth from a single image | |
KR20090085704A (ko) | 스테레오-가능 디스플레이 상에의 3d 비디오 이미지의 렌더링 | |
US9355436B2 (en) | Method, system and computer program product for enhancing a depth map | |
US11949848B2 (en) | Techniques to capture and edit dynamic depth images | |
WO2018019298A1 (zh) | 一种终端指纹生成方法及装置 | |
US10991068B2 (en) | Projection image construction method and device | |
WO2012094076A1 (en) | Morphological anti-aliasing (mlaa) of a re-projection of a two-dimensional image | |
CN103294453B (zh) | 图像处理方法和图像处理设备 | |
US20110242271A1 (en) | Synthesizing Panoramic Three-Dimensional Images | |
US8619094B2 (en) | Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image | |
EP4352595A1 (en) | Contextual control of digital files built on the blockchain & projected in augmented reality | |
CN110390712B (zh) | 图像渲染方法及装置、三维图像构建方法及装置 | |
CN116977531A (zh) | 三维纹理图像的生成方法、装置、计算机设备和存储介质 | |
CN104980729B (zh) | 一种视差图的生成方法及系统 | |
CN112684892A (zh) | 一种增强现实弹药识别眼镜-手柄连携系统 | |
CN117218398A (zh) | 一种数据处理的方法以及相关装置 | |
CN112633442A (zh) | 一种基于视觉感知技术的弹药识别系统 | |
CN116452466B (zh) | 图像处理方法、装置、设备及计算机可读存储介质 | |
Bektaş et al. | Survey of true 3d and raster level of detail support in gis software |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200401 Address after: 215634 north side of Chengang road and west side of Ganghua Road, Jiangsu environmental protection new material industrial park, Zhangjiagang City, Suzhou City, Jiangsu Province Patentee after: ZHANGJIAGANG KANGDE XIN OPTRONICS MATERIAL Co.,Ltd. Address before: 201203, room 5, building 690, No. 202 blue wave road, Zhangjiang hi tech park, Shanghai, Pudong New Area Patentee before: WZ TECHNOLOGY Inc. |
|
TR01 | Transfer of patent right |