CN106254854B - 三维图像的获得方法、装置及系统 - Google Patents
三维图像的获得方法、装置及系统 Download PDFInfo
- Publication number
- CN106254854B CN106254854B CN201610695365.XA CN201610695365A CN106254854B CN 106254854 B CN106254854 B CN 106254854B CN 201610695365 A CN201610695365 A CN 201610695365A CN 106254854 B CN106254854 B CN 106254854B
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- color
- camera
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了三维图像的获得方法、装置及系统。其中,上述方法包括:分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的第一彩色图像;利用所述第一深度图像和所述第一彩色图像得到所述目标在第一视点的第二彩色图像;由所述第一彩色图像和第二彩色图像形成三维图像。通过上述方式,能够提高基于二维图像生成的三维显示效果。
Description
技术领域
本发明涉及三维显示技术领域,特别是涉及三维图像的获得方法、装置及系统。
背景技术
人类双眼由于位置不同在对具有一定距离的物体进行观看时会产生视觉差异,正是这种视差让人们有了三维的感观效果。三维显示技术根据这一原理,通过将同时获取的双眼图像分别被对应的眼睛接收,从而产生三维效果。由于这一技术给人们带来了全新的立体观看体验,近年来人们对三维图像资源的需求也日渐增加。
目前获得三维图像的方法之一是将二维图像通过图像处理技术转化为三维图像。具体为运用图像处理技术计算得到已有二维图像的场景深度信息,进而绘制出虚拟的其他视点图像,利用已有二维图像和虚拟的其他视点图像形成三维图像。
由于该其他视点图像是由已有视点的二维图像进行图像处理得到虚拟图像,这一过程会导致图像细节信息的流失,影响三维显示的效果。
发明内容
本发明主要解决的技术问题是提供三维图像的获得方法、装置及系统,能够提高基于二维图像生成的三维显示效果。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种三维图像的获得方法,包括:
分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的第一彩色图像;
利用所述第一深度图像和所述第一彩色图像得到所述目标在第一视点的第二彩色图像;
由所述第一彩色图像和第二彩色图像形成三维图像。
其中,所述第一深度图像由设置在所述第一视点的深度相机对所述目标进行采集得到,所述第一彩色图像由设置在所述第二视点的彩色相机对所述目标进行采集得到。
其中,所述利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像,包括:
利用下面公式1计算得到所述第一深度图像的第一像素坐标(uD,vD)与所述第一彩色图像的第二像素坐标(uR,vR)之间的对应关系,
其中,所述ZD为所述第一深度图像中的深度信息,表示所述目标距离所述深度相机的深度值;ZR表示所述目标距离所述彩色相机的深度值;为所述彩色相机的图像坐标系上的像素齐次坐标;为所述深度相机的图像坐标系上的像素齐次坐标;MR为所述彩色相机的内参矩阵,MD为所述深度相机的内参矩阵;R为深度相机相对于彩色相机的外参矩阵中的旋转矩阵,T为深度相机相对于彩色相机的外参矩阵中的平移矩阵;
将所述第一深度图像的第一像素坐标的像素值设置为所述第一彩色图像中与所述第一像素坐标具有对应关系的第二像素坐标的像素值,以形成所述目标在第一视点的第二彩色图像。
其中,所述平移矩阵T=[t,0,0]-1,其中,所述t为设定值。
其中,还包括:
当判断所述目标与所述深度相机和所述彩色相机的距离均大于第一距离值时,将所述设定值t调大;
当判断所述目标与所述深度相机和所述彩色相机的距离均小于第二距离值时,将所述设定值t调小,其中,所述第一距离值大于或等于所述第二距离值。
其中,所述第一视点与第二视点之间的位置关系为人体双眼之间的位置关系。
其中,所述彩色相机和所述深度相机的图像采集靶面大小相等、分辨率相同以及焦距相同;或
所述彩色相机和所述深度相机的图像采集靶面大小、分辨率以及焦距中的至少一个不相同,在所述利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像之后,所述方法还包括:
对所述第一彩色图像和/或所述第二彩色图像进行插值、分割处理,使得所述第一彩色图像和所述第二彩色图像的图像大小和分辨率相同。
其中,所述第一深度图像和所述第一彩色图像为照片或者视频,当所述第一深度图像和所述第一彩色图像为视频时,所述深度相机和彩色相机的采集频率同步,或者若深度相机和彩色相机的采集频率不同步,则通过图像插值的方式获得频率一致的视频图像。
为解决上述技术问题,本发明采用的另一种技术方案是:提供一种三维图像获得装置,包括:
获取模块,用于分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的目标的第一彩色图像;
计算模块,用于利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
形成模块,用于由所述第一彩色图像和第二彩色图像形成三维图像。
为解决上述技术问题,本发明采用的再一种技术方案是:一种三维图像获得系统,包括深度相机、彩色相机、与所述深度相机和彩色相机连接的图像处理设备;
所述图像处理设备用于:
分别获取所述深度相机以第一视点对目标进行采集得到的第一深度图像和所述彩色相机以第二视点对所述目标进行采集得到的目标的第一彩色图像;
利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
由所述第一彩色图像和第二彩色图像形成三维图像。
本发明的有益效果是:利用采集得到的第一视点的第一深度图像和第二视点的第一彩色图像得到第一视点的第二彩色图像,进而由第一彩色图像和第二彩色图像形成三维图像,由于该第一视点的第二彩色图像基于该第一视点的第一深度图像形成,而非单纯依靠其他不同视点的图像处理得到,因此减少了图像细节信息的流失,以更准确获得两个视点的彩色图像,进而减少了合成的三维图像的失真度,提高了基于二维图像生成的三维显示效果。
附图说明
图1是本发明三维图像的获得方法一实施例的流程图;
图2是本发明三维图像的获得方法一应用场景的示意图;
图3是本发明三维图像的获得方法另一实施例的部分流程图;
图4是本发明三维图像的获得方法再一实施例的部分流程图;
图5是本发明三维图像获得装置一实施例的结构示意图;
图6是本发明三维图像获得系统一实施例的结构示意图;
图7是本发明三维图像获得系统另一实施例的结构示意图。
具体实施方式
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
请参阅图1,图1是本发明三维图像的获得方法一实施例的流程图。本实施例中,该方法可由三维图像获得装置执行,包括以下步骤:
S11:分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的第一彩色图像。
值得注意的是,本发明所述的深度图像和彩色图像均为二维图像。
其中,该第一视点和第二视点位于目标的不同位置,以获得该目标的两个视点处的图像。通常,由于三维感观是由双眼观看到的不同图像叠加形成,故该第一视点和第二视点用于作为人体双眼的两个视点,即第一视点与第二视点之间的位置关系为人体双眼之间的位置关系。例如,常规人体双眼的距离为t,则将第一视点和第二视点之间的距离设置为t,该t具体如为6.5cm。而且,为保证第一视点和第二视点的图像深度相同或者类似,将第一视点和第二视点设置为与该目标的距离相同或者距离相差不超过设定阈值,在具体应用中,该设定阈值可设置为不大于10cm或20cm的值。
在一具体应用中,如图2所示,该第一深度图像由设置在所述第一视点的深度相机21对目标23进行采集得到,该第一彩色图像由设置在所述第二视点的彩色相机22对目标23进行采集得到。深度相机21和彩色相机将其采集得到的图像传输至三维图像获得装置24,以进行下述三维图像的获取。由于彩色相机与深度相机的位置不同,故该第一彩色图像与第一深度图像中的相同像素坐标上所对应的空间三维点并不相同。
具体地,该深度相机21可以是基于结构光或TOF等其它原理的相机,这一类的深度相机可由一个投影镜头及采集镜头组成,比如结构光深度相机由投影模组及图像采集镜头组成,其中投影模组用于向目标区域投射特定图案的结构光,图像采集镜头用于采集目标区域带结构光图案并进一步经计算可得到目标的第一深度图像。
进一步地,由于利用深度相机获取的深度图像可能存在一些数据坏点或区域,在后面步骤中进一步处理时会将这些数据进行放大,进而严重影响三维显示效果,为避免深度图像的坏点或区域数据对三维显示的影响,该S11还包括:对该第一深度图像进行去噪、平滑处理,再利用处理后的该第一深度图像进行下述步骤S12。
S12:利用所述第一深度图像和所述第一彩色图像得到所述目标在第一视点的第二彩色图像。
例如,根据三维图像转换(3D Image Wrapping)理论——空间任一三维坐标点与图像采集平面上的二维坐标点可通过透射变换理论对应起来,故由此理论可将第一视点和第二视点的图像的像素坐标对应起来,并根据该对应关系和第二视点的第一彩色图像的像素值,为第一视点的图像像素坐标设置第二视点的第一彩色图像中对应像素坐标的像素值。
请结合参阅图3,在另一实施例中,该第一深度图像由设置在所述第一视点的深度相机对目标进行采集得到,该第一彩色图像由设置在所述第二视点的彩色相机对目标进行采集得到,该S12包括以下子步骤:
S121:利用下面公式11计算得到所述第一深度图像的第一像素坐标(uD,vD)与所述第一彩色图像的第二像素坐标(uR,vR)之间的对应关系,
其中,所述ZD为所述第一深度图像中的深度信息,表示所述目标距离所述深度相机的深度值;ZR表示所述目标距离所述彩色相机的深度值;为所述彩色相机的图像坐标系上的像素齐次坐标;为所述深度相机的图像坐标系上的像素齐次坐标;MR为所述彩色相机的内参矩阵,MD为所述深度相机的内参矩阵;R为深度相机相对于彩色相机的外参矩阵中的旋转矩阵,T为深度相机相对于彩色相机的外参矩阵中的平移矩阵。
上述相机的内参矩阵和外参矩阵可预先设定的,具体该内参矩阵可根据相机的设置参数计算得到,该外参矩阵可由深度相机与彩色相机之间的位置关系确定。在一具体实施例中,由相机的图像采集镜头的像素焦距以及图像采集靶面的中心位置坐标构成的内部参数矩阵。由于第一视点和第二视点的位置关系设置为人眼双眼的位置关系,人体双眼之间没有任何的相对旋转而仅有设定值t的距离,因此彩色相机相对于深度相机的旋转矩阵R为单位矩阵,平移矩阵T=[t,0,0]-1。
进一步地,该设定值t可根据深度相机和彩色相机与目标的距离进行调整。在再一实施例中,在上述S11之前还包括以下步骤:获取目标与深度相机和彩色相机的距离;当判断所述目标与所述深度相机和所述彩色相机的距离均大于第一距离值时,将所述设定值t调大;当判断所述目标与所述深度相机和所述彩色相机的距离均小于第二距离值时,将所述设定值t调小。
其中,所述第一距离值大于或等于所述第二距离值。例如,当目标与深度相机的距离为100cm,目标与彩色相机的距离也为100cm,由于100cm小于第二距离值200cm,则将设定值调小一个步长值,或者按照当前目标与深度相机和彩色相机的距离计算得到调小值后进行调整。当目标与深度相机和彩色相机的距离均为300cm,由于300cm大于第二距离值200且小于第一距离值500cm,则不将该设定值进行调整。
S122:将所述第一深度图像的第一像素坐标的像素值设置为所述第一彩色图像中与所述第一像素坐标具有对应关系的第二像素坐标的像素值,以形成所述目标在第一视点的第二彩色图像。
例如,将第一视点的第一深度图像的深度信息ZD代入上述公式11后,可求得公式11左边的第二视点的深度信息也即第一彩色图像的深度信息ZR,以及第一彩色图像的图像坐标系上的像素齐次坐标在本实施例中,深度相机和彩色相机与目标的距离相同,即求得的ZD与ZR是相等的。由像素齐次坐标可得到与该第一深度图像的第一像素坐标(uD,vD)一一对应的第一彩色图像的第二像素坐标(uR,vR),例如其对应关系为(uR,vR)=(uD+d,vD)。然后,根据对应关系,将第一彩色图像的像素值(也可称为RGB值)赋值于第一深度图像,以生成第二彩色图像。以图像的其中一个像素坐标举例,若d为1,则第一深度图像的像素坐标(1,1)与第一彩色图像的像素坐标(2,1)对应。然后,将第一深度图像的像素坐标(1,1)的像素值设置为第一彩色图像中像素坐标(2,1)的像素值(r,g,b)。
S13:由所述第一彩色图像和第二彩色图像形成三维图像。
例如,将第一彩色图像和第二彩色图像分别作为人体双眼图像,以合成三维图像,具体地可以是上下格式、左右格式或者红蓝格式的用于3D显示的三维图像。进一步地,在合成三维图像后,还可将该三维图像进行显示,或者输出至连接的外部显示装置进行显示。
本实施例中,利用采集得到的第一视点的第一深度图像和第二视点的第一彩色图像得到第一视点的第二彩色图像,进而由第一彩色图像和第二彩色图像形成三维图像,由于该第一视点的第二彩色图像基于该第一视点的第一深度图像形成,而非单纯依靠其他不同视点的图像处理得到,因此减少了图像细节信息的流失,以更准确获得两个视点的彩色图像,进而减少了合成的三维图像的失真度,提高了基于二维图像生成的三维显示效果。
请参阅图4,在再一实施例中,三维图像获得装置不根据上述第一视点和第二视点的彩色图像合成三维图像,而是根据该上述其中一个视点以及不同于上述两个视点的第三视点的彩色图像合成三维图像。故,在上述13包括以下子步骤:
S131:根据所述第一视点的第一深度图像与第二彩色图像得到第三视点的第三彩色图像;
S132:由所述第三彩色图像与所述第一彩色图像或第二彩色图像形成三维图像。
在S131中,可根据深度图像绘制(depth-image-based rendering,DIBR)技术绘制得到第三视点的第三彩色图像。例如,
a.将所述第一视点作为参考视点;
b.利用下述公式12得到第三视点的第三彩色图像与所述参考视点的彩色图像之间的图像视差值d,
其中,B为第三视点与参考视点的间距,Z为所述参考视点的深度图像的深度信息,表示所述目标距离所述第三视点和所述参考视点的深度值;所述f为所述参考视点所设置的相机的焦距;
c.按照所述图像视差值移动所述参考视点的彩色图像中的像素坐标,得到所述第三彩色图像。
例如,将与该参考视点的彩色图像的像素坐标(u1,v1)均移动图像视差值d,得到第三彩色图像的像素坐标(u2,v2)=(u1+d,v1),并将像素坐标(u1,v1)的像素值对应赋值给得到第三彩色图像的像素坐标(u2,v2),得到第三彩色图像每个像素坐标的像素值。
值的注意的是,上述第三视点的第三彩色图像可以第二视点作为参考视点,由第二视点的第一彩色图像和第二深度图像获得,具体获得方式可参考上述a-c。而该第二视点的第二深度图像可根据上述S121得到第一深度图像与第一彩色图像之间的像素坐标的对应关系后,将所述第一彩色图像的第二像素坐标的深度值设置为所述第一深度图像中与所述第二像素坐标具有对应关系的第一像素坐标的深度值,以形成得到。
由于本实施方式可利用第一视点和第二视点的图像绘制出第三视点的彩色图像,进而利用第三视点的彩色图像和第一视点或第二视点的彩色图像作为人体双眼图像合成三维图像,故根据实际观看者双眼两个视点距离进行实时调整选择与之匹配的两个视点的彩色图像合成三维图像,以保证三维显示效果,例如当观看者双眼距离为9cm,则可绘制出与该第一视点距离9cm的第三视点的彩色图像,由该第三视点和第一时点的彩色图像形成三维显示。而且,由于该第一视点和第二视点的深度值可由采集得到的第一深度图像直接得到,而无需经过图像处理转换得到,因此减少了图像细节信息的流失。另外,由于本实施例可绘制出任意视点的真实彩色图像,故无需对第一视点和第二视点的位置关系做出限定,即第一视点和第二视点的距离可设置为任意值,简化了操作流程,降低了图像采集难度。
可以理解的是,上述实施例中,可设置该深度相机和彩色相机的图像采集靶面大小相等、分辨率相同以及焦距相同。或者,彩色相机和所述深度相机的图像采集靶面大小、分辨率以及焦距中的至少一个不相同,例如彩色相机的靶面大小以及分辨率都比深度相机大,此时,上述S12之后,该获得方法还包括:对所述第一彩色图像和/或所述第二彩色图像进行插值、分割处理,使得所述第一彩色图像和所述第二彩色图像对应的目标区域相同,且图像大小与分辨率也相同。由于彩色相机与深度相机在装配时存在误差,故上述该深度相机和彩色相机的图像采集靶面大小相等、分辨率相同以及焦距相同应理解为:该深度相机和彩色相机的图像采集靶面大小、分辨力和焦距为在允许误差的范围内的相同。
而且,上述图像包括照片或者视频,当上述图像为视频时,所述深度相机和彩色相机的采集频率同步,或者若深度相机和彩色相机的采集频率不同步,则通过图像插值的方式获得频率一致的视频图像。
请参阅图5,图5是本发明三维图像获得装置一实施例的结构示意图。本实施例中,该获得装置50包括获取模块51、计算模块52和形成模块53。其中,
获取模块51用于分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的目标的第一彩色图像;
计算模块52用于利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
形成模块53用于由所述第一彩色图像和第二彩色图像形成三维图像。
可选地,所述第一深度图像由设置在所述第一视点的深度相机对所述目标进行采集得到,所述第一彩色图像由设置在所述第二视点的彩色相机对所述目标进行采集得到。
可选地,计算模块52具体用于利用上述公式11计算得到所述第一深度图像的第一像素坐标(uD,vD)与所述第一彩色图像的第二像素坐标(uR,vR)之间的对应关系;将所述第一深度图像的第一像素坐标的像素值设置为所述第一彩色图像中与所述第一像素坐标具有对应关系的第二像素坐标的像素值,以形成所述目标在第一视点的第二彩色图像。
进一步可选地,所述平移矩阵T=[t,0,0]-1,其中,所述t为设定值。
更进一步地,计算模块52还可用于:当判断所述目标与所述深度相机和所述彩色相机的距离均大于第一距离值时,将所述设定值t调大;当判断所述目标与所述深度相机和所述彩色相机的距离均小于第二距离值时,将所述设定值t调小,其中,所述第一距离值大于或等于所述第二距离值。
可选地,所述第一视点与第二视点之间的位置关系为人体双眼之间的位置关系。
可选地,所述彩色相机和所述深度相机的图像采集靶面大小相等、分辨率相同以及焦距相同;或所述彩色相机和所述深度相机的图像采集靶面大小、分辨率以及焦距中的至少一个不相同,该计算模块52还可用于:对所述第一彩色图像和/或所述第二彩色图像进行插值、分割处理,使得所述第一彩色图像和所述第二彩色图像的图像大小和分辨率相同。
可选地,所述第一深度图像和所述第一彩色图像为照片或者视频,当所述第一深度图像和所述第一彩色图像为视频时,所述深度相机和彩色相机的采集频率同步,或者若深度相机和彩色相机的采集频率不同步,则通过图像插值的方式获得频率一致的视频图像。
其中,该获得装置的上述模块分别用于执行上述方法实施例中的相应步骤,具体执行过程如上方法实施例说明,在此不作赘述。
请参阅图6,图6是本发明三维图像获得系统一实施例方式的结构示意图。本实施例中,该系统60包括深度相机61、彩色相机62、与所述深度相机61和彩色相机62连接的图像处理设备63。该图像处理设备63包括输入接口631、处理器632、存储器633。
该输入接口631用于获得深度相机61和彩色相机62采集得到的图像。
存储器633用于存储计算机程序,并向处理器632提供所述计算机程序,且可存储处理器632处理时所采用的数据如深度相机61和彩色相机62的内参矩阵和外参矩阵等,以及输入接口631获得的图像。
处理器632用于:
通过输入接口631分别获取所述深度相机61以第一视点对目标进行采集得到的第一深度图像和所述彩色相机62以第二视点对所述目标进行采集得到的目标的第一彩色图像;
利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
由所述第一彩色图像和第二彩色图像形成三维图像。
本实施例中,图像处理设备63还可包括显示屏634,该显示屏634用于显示该三维图像,以实现三维显示。当然,在另一实施例中,图像处理设备63不用于显示该三维图像,如图7所示,该三维图像获得系统60还包括与图像处理设备63连接的显示设备64,显示设备64用于接收图像处理设备63输出的三维图像,并显示该三维图像。
可选地,处理器632具体用于利用上述公式11计算得到所述第一深度图像的第一像素坐标(uD,vD)与所述第一彩色图像的第二像素坐标(uR,vR)之间的对应关系;将所述第一深度图像的第一像素坐标的像素值设置为所述第一彩色图像中与所述第一像素坐标具有对应关系的第二像素坐标的像素值,以形成所述目标在第一视点的第二彩色图像。
进一步可选地,所述平移矩阵T=[t,0,0]-1,其中,所述t为设定值。
更进一步地,处理器632还可用于:当判断所述目标与所述深度相机61和所述彩色相机62的距离均大于第一距离值时,将所述设定值t调大;当判断所述目标与所述深度相机61和所述彩色相机62的距离均小于第二距离值时,将所述设定值t调小,其中,所述第一距离值大于或等于所述第二距离值。
可选地,所述第一视点与第二视点之间的位置关系为人体双眼之间的位置关系。
可选地,所述彩色相机62和所述深度相机61的图像采集靶面大小相等、分辨率相同以及焦距相同;或所述彩色相机62和所述深度相机61的图像采集靶面大小、分辨率以及焦距中的至少一个不相同,该处理器632还可用于:对所述第一彩色图像和/或所述第二彩色图像进行插值、分割处理,使得所述第一彩色图像和所述第二彩色图像的图像大小和分辨率相同。
可选地,所述第一深度图像和所述第一彩色图像为照片或者视频,当所述第一深度图像和所述第一彩色图像为视频时,所述深度相机和彩色相机的采集频率同步,或者若深度相机和彩色相机的采集频率不同步,则通过图像插值的方式获得频率一致的视频图像。
该图像处理设备63可作为上述三维图像获得装置,用于执行上述实施例所述方法。例如,上述本发明实施方式揭示的方法也可以应用于处理器632中,或者由处理器632实现。处理器632可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器632中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器632可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器633,处理器632读取相应存储器中的信息,结合其硬件完成上述方法的步骤。
上述方案中,利用采集得到的第一视点的第一深度图像和第二视点的第一彩色图像得到第一视点的第二彩色图像,进而由第一彩色图像和第二彩色图像形成三维图像,由于该第一视点的第二彩色图像基于该第一视点的第一深度图像形成,而非单纯依靠其他不同视点的图像处理得到,因此减少了图像细节信息的流失,以更准确获得两个视点的彩色图像,进而减少了合成的三维图像的失真度,提高了基于二维图像生成的三维显示效果。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种三维图像的获得方法,其特征在于,包括:
分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的第一彩色图像;
利用所述第一深度图像和所述第一彩色图像得到所述目标在第一视点的第二彩色图像;
由所述第一彩色图像和第二彩色图像形成三维图像。
2.根据权利要求1所述的方法,其特征在于,所述第一深度图像由设置在所述第一视点的深度相机对所述目标进行采集得到,所述第一彩色图像由设置在所述第二视点的彩色相机对所述目标进行采集得到。
3.根据权利要求2所述的方法,其特征在于,所述利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像,包括:
利用下面公式1计算得到所述第一深度图像的第一像素坐标(uD,vD)与所述第一彩色图像的第二像素坐标(uR,vR)之间的对应关系,
其中,所述ZD为所述第一深度图像中的深度信息,表示所述目标距离所述深度相机的深度值;ZR表示所述目标距离所述彩色相机的深度值;为所述彩色相机的图像坐标系上的像素齐次坐标;为所述深度相机的图像坐标系上的像素齐次坐标;MR为所述彩色相机的内参矩阵,MD为所述深度相机的内参矩阵;R为深度相机相对于彩色相机的外参矩阵中的旋转矩阵,T为深度相机相对于彩色相机的外参矩阵中的平移矩阵;
将所述第一深度图像的第一像素坐标的像素值设置为所述第一彩色图像中与所述第一像素坐标具有对应关系的第二像素坐标的像素值,以形成所述目标在第一视点的第二彩色图像。
4.根据权利要求3所述的方法,其特征在于,所述平移矩阵T=[t,0,0]-1,其中,所述t为设定值。
5.根据权利要求4所述的方法,其特征在于,还包括:
当判断所述目标与所述深度相机和所述彩色相机的距离均大于第一距离值时,将所述设定值t调大;
当判断所述目标与所述深度相机和所述彩色相机的距离均小于第二距离值时,将所述设定值t调小,其中,所述第一距离值大于或等于所述第二距离值。
6.根据权利要求2至5任一项所述的方法,其特征在于,所述第一视点与第二视点之间的位置关系为人体双眼之间的位置关系。
7.根据权利要求6所述的方法,其特征在于,所述彩色相机和所述深度相机的图像采集靶面大小相等、分辨率相同以及焦距相同;或
所述彩色相机和所述深度相机的图像采集靶面大小、分辨率以及焦距中的至少一个不相同,在所述利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像之后,所述方法还包括:
对所述第一彩色图像和/或所述第二彩色图像进行插值、分割处理,使得所述第一彩色图像和所述第二彩色图像的图像大小和分辨率相同。
8.根据权利要求2至5任一项所述的方法,其特征在于,所述第一深度图像和所述第一彩色图像为照片或者视频,当所述第一深度图像和所述第一彩色图像为视频时,所述深度相机和彩色相机的采集频率同步,或者若深度相机和彩色相机的采集频率不同步,则通过图像插值的方式获得频率一致的视频图像。
9.一种三维图像获得装置,其特征在于,包括:
获取模块,用于分别获取以第一视点对目标进行采集得到的第一深度图像和以第二视点对所述目标进行采集得到的目标的第一彩色图像;
计算模块,用于利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
形成模块,用于由所述第一彩色图像和第二彩色图像形成三维图像。
10.一种三维图像获得系统,其特征在于,包括深度相机、彩色相机、与所述深度相机和彩色相机连接的图像处理设备;
所述图像处理设备用于:
分别获取所述深度相机以第一视点对目标进行采集得到的第一深度图像和所述彩色相机以第二视点对所述目标进行采集得到的目标的第一彩色图像;
利用所述第一深度图像和所述第一彩色图像获得所述目标在第一视点的第二彩色图像;
由所述第一彩色图像和第二彩色图像形成三维图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610695365.XA CN106254854B (zh) | 2016-08-19 | 2016-08-19 | 三维图像的获得方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610695365.XA CN106254854B (zh) | 2016-08-19 | 2016-08-19 | 三维图像的获得方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106254854A CN106254854A (zh) | 2016-12-21 |
CN106254854B true CN106254854B (zh) | 2018-12-25 |
Family
ID=57593210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610695365.XA Active CN106254854B (zh) | 2016-08-19 | 2016-08-19 | 三维图像的获得方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106254854B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107124604B (zh) * | 2017-06-29 | 2019-06-04 | 诚迈科技(南京)股份有限公司 | 一种利用双摄像头实现三维图像的方法及装置 |
CN107274447B (zh) * | 2017-07-14 | 2022-06-10 | 梅卡曼德(北京)机器人科技有限公司 | 深度图像获取装置和深度图像获取方法 |
WO2019076467A1 (en) * | 2017-10-20 | 2019-04-25 | Toyota Motor Europe | METHOD AND SYSTEM FOR PROCESSING IMAGE AND DETERMINING POINTS OF VIEW OF OBJECTS |
DE112018006130T5 (de) * | 2017-12-01 | 2020-08-20 | Sony Corporation | Codierungsvorrichtung, codierungsverfahren, decodierungsvorrichtung und decodierungsverfahren |
CN109905691A (zh) * | 2017-12-08 | 2019-06-18 | 浙江舜宇智能光学技术有限公司 | 深度图像采集装置和深度图像采集系统及其图像处理方法 |
CN108805921B (zh) * | 2018-04-09 | 2021-07-06 | 奥比中光科技集团股份有限公司 | 图像获取系统及方法 |
CN109461203B (zh) * | 2018-09-17 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 手势三维图像生成方法、装置、计算机设备及存储介质 |
CN111210471B (zh) * | 2018-11-22 | 2023-08-25 | 浙江欣奕华智能科技有限公司 | 一种定位方法、装置及系统 |
CN109840881B (zh) * | 2018-12-12 | 2023-05-05 | 奥比中光科技集团股份有限公司 | 一种3d特效图像生成方法、装置及设备 |
CN110111380A (zh) * | 2019-03-18 | 2019-08-09 | 西安电子科技大学 | 基于深度相机的3d图像传输及重建方法 |
CN111654626B (zh) * | 2020-06-05 | 2021-11-30 | 合肥泰禾智能科技集团股份有限公司 | 一种包含深度信息的高分辨率相机 |
CN117036352B (zh) * | 2023-10-09 | 2023-12-08 | 天津畅玩网络科技有限公司 | 一种基于人工智能的视频分析方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102625127A (zh) * | 2012-03-24 | 2012-08-01 | 山东大学 | 一种适于3d电视虚拟视点生成的优化方法 |
CN102692236A (zh) * | 2012-05-16 | 2012-09-26 | 浙江大学 | 基于rgb-d相机的视觉里程计方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
CN104134188A (zh) * | 2014-07-29 | 2014-11-05 | 湖南大学 | 一种基于二维和三维摄像机融合的三维视觉信息获取方法 |
CN104346829A (zh) * | 2013-07-29 | 2015-02-11 | 中国农业机械化科学研究院 | 基于pmd相机和摄像头的彩色三维重建系统及其方法 |
CN104918035A (zh) * | 2015-05-29 | 2015-09-16 | 深圳奥比中光科技有限公司 | 一种获取目标三维图像的方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100000671A (ko) * | 2008-06-25 | 2010-01-06 | 삼성전자주식회사 | 영상 처리 방법 |
KR101665567B1 (ko) * | 2010-05-20 | 2016-10-12 | 삼성전자주식회사 | 3차원 뎁스 영상 시간 보간 방법 및 장치 |
-
2016
- 2016-08-19 CN CN201610695365.XA patent/CN106254854B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102625127A (zh) * | 2012-03-24 | 2012-08-01 | 山东大学 | 一种适于3d电视虚拟视点生成的优化方法 |
CN102692236A (zh) * | 2012-05-16 | 2012-09-26 | 浙江大学 | 基于rgb-d相机的视觉里程计方法 |
CN104346829A (zh) * | 2013-07-29 | 2015-02-11 | 中国农业机械化科学研究院 | 基于pmd相机和摄像头的彩色三维重建系统及其方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
CN104134188A (zh) * | 2014-07-29 | 2014-11-05 | 湖南大学 | 一种基于二维和三维摄像机融合的三维视觉信息获取方法 |
CN104918035A (zh) * | 2015-05-29 | 2015-09-16 | 深圳奥比中光科技有限公司 | 一种获取目标三维图像的方法及系统 |
Non-Patent Citations (1)
Title |
---|
基于kinect传感器的物体三维重建;郭连朋等;《四川兵工学报》;20141130;第35卷(第11期);第119-121页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106254854A (zh) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106254854B (zh) | 三维图像的获得方法、装置及系统 | |
CN102164298B (zh) | 全景成像系统中基于立体匹配的元素图像获取方法 | |
KR100950046B1 (ko) | 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법 | |
CN106170086B (zh) | 绘制三维图像的方法及其装置、系统 | |
KR20110124473A (ko) | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 | |
JP5291755B2 (ja) | 立体視画像生成方法および立体視画像生成システム | |
KR101851180B1 (ko) | 2차원 화상의 재투영의 형태학적 안티 에일리어싱 | |
JP2021518701A (ja) | Dibrシステムにおいて立体的視点を生じさせるための、多焦点面ベースの方法(mfp−dibr) | |
KR101538947B1 (ko) | 실감형 자유시점 영상 제공 장치 및 방법 | |
CN108616742B (zh) | 一种3d全景拍摄系统以及方法 | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
US11812009B2 (en) | Generating virtual reality content via light fields | |
JP2012073702A (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
WO2012117706A1 (ja) | 映像処理装置、映像処理方法、プログラム | |
CN113253845A (zh) | 一种基于人眼追踪视图显示方法、装置、介质及电子设备 | |
TWI820246B (zh) | 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品 | |
CN106331672B (zh) | 视点图像的获得方法、装置及系统 | |
CN109345444A (zh) | 深度感知增强的超分辨率立体图像构建方法 | |
Gurrieri et al. | Stereoscopic cameras for the real-time acquisition of panoramic 3D images and videos | |
US9888222B2 (en) | Method and device for generating stereoscopic video pair | |
CN105282534A (zh) | 用于嵌入立体图像的系统及方法 | |
WO2022227753A1 (zh) | 用于双目畸变校正的显示系统、显示方法及车载系统 | |
TWI466535B (zh) | 使用單鏡頭影像擷取裝置之立體成像方法以及基於用於立體影像顯示之第一、第二平面影像之立體影像增強方法與立體影像增強裝置 | |
KR101229421B1 (ko) | 다중 세그먼트 방식을 이용한 3d 입체영상 획득 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Xu Xing Inventor after: Xiao Zhenzhong Inventor after: Huang Yuanhao Inventor after: Liu Long Inventor before: Huang Yuanhao Inventor before: Xiao Zhenzhong Inventor before: Liu Long Inventor before: Xu Xing |