CN103458262B - 一种3d图像空间与3d视听空间转换方法及装置 - Google Patents

一种3d图像空间与3d视听空间转换方法及装置 Download PDF

Info

Publication number
CN103458262B
CN103458262B CN201310438138.5A CN201310438138A CN103458262B CN 103458262 B CN103458262 B CN 103458262B CN 201310438138 A CN201310438138 A CN 201310438138A CN 103458262 B CN103458262 B CN 103458262B
Authority
CN
China
Prior art keywords
destination object
coordinate system
central point
audiovisual
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310438138.5A
Other languages
English (en)
Other versions
CN103458262A (zh
Inventor
胡瑞敏
张茂胜
章佩
李登实
涂卫平
王晓晨
姜林
王松
王樱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201310438138.5A priority Critical patent/CN103458262B/zh
Publication of CN103458262A publication Critical patent/CN103458262A/zh
Application granted granted Critical
Publication of CN103458262B publication Critical patent/CN103458262B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供了一种3D图像空间与3D视听空间转换方法及装置,包括目将图像坐标系内中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息,映射得到目标对象相对于中心点在视听坐标系中的方位信息;从3D视频中提取出目标对象的深度值和中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;还原出目标对象在视听坐标系中的目标位置。本发明创造性提出图像空间转3D视听空间的方案,在图像空间中获取目标对象的方位信息和3D视频中获取目标对象的距离信息,然后在视听空间中还原声像的目标位置,重建目标对象方位信息。

Description

一种3D图像空间与3D视听空间转换方法及装置
技术领域
本发明涉及3D视听技术领域,尤其涉及图像空间转3D视听空间的方法,研究视频中用户视觉对目标对象的位置的感知与用户听觉对目标对象位置的感知之间的转换关系。
背景技术
随着3D影视产业的飞速发展,作为3D影视的灵魂,3D音视频技术已成为多媒体技术领域的研究热点和进一步发展的重要方向,面向影剧院、家庭娱乐环境的3D视听系统不断推陈出新,现有的3D视频技术已经能为观众提供很好的临场体验,市场上也出现了大量支持3D视觉效果的设备,然而,3D音频技术的发展与3D视频技术的发展并未同步跟进。目前市面上销售的产品都是沿用原有的立体声或环绕声技术,基于传统立体声或环绕声发展起来的2D音频系统缺乏对声音对象的三维空间信息表达,在3D视听系统中不能完整表达图像目标对象的声音空间信息,导致3D音频与3D视频感知的不匹配,如3D视频中看到发声体在左前方,而听觉感知发声体在前甚至无法感知到具体位置,损害了听众对视听事件的完整空间感受。.
发明内容
本发明的目的是在图像空间中获取目标对象的方位信息和3D视频中获取目标对象的距离信息,然后在视听空间中还原声像的目标位置,重建目标对象方位信息。
为实现上述目的,本发明提供了一种3D图像空间与3D视听空间转换方法,包括以下步骤,
步骤1,目标对象方位信息获取,包括将图像坐标系内中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息;所述中心点位于图像的中心位置;
步骤2,目标对象方位信息转换,包括将图像坐标系中目标对象相对于中心点的方位信息映射到视听坐标系,得到目标对象相对于中心点在视听坐标系中的方位信息;
步骤3,深度信息获取,包括从3D视频中提取出目标对象的深度值和中心点的深度值;
步骤4,目标对象距离信息获取,包括根据步骤3所得目标对象与中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;
步骤5,声像位置还原,包括根据步骤2中所得到的目标对象相对于中心点的方位信息和步骤4中所得到的目标对象相对于中心点的距离信息,还原出目标对象在视听坐标系中的目标位置。
而且,所述图像坐标系是在图像上定义的直角坐标系u-v,图像的左上角为原点O0,u为图像的水平方向,v为图像的垂直方向;所述视听坐标系是由听音点和Xc,Yc,Zc轴组成的直角坐标系,听音点为原点,Xc轴和Yc轴与图像坐标系的u轴和v轴平行,Zc轴为摄像机光轴,和图像平面垂直;
步骤1中,设图像坐标系内,中心点的位置以二维点的形式记为LC[a,b]T,目标对象的位置为LO[x,y]T,得到目标对象相对于中心点的方位信息是[x-a,y-b]T
步骤2中,得到目标对象相对于中心点在视听坐标系中的方位信息如下,
[xw-aw,yw-bw,zw-cw]T
其中,aw是中心点在视听坐标系中水平方向的值,bw是中心点在视听坐标系中垂直方向的值,cw是中心点在视听坐标系中位于摄像机光轴方向的值,xw是目标对象在视听坐标系中水平方向的值,yw是目标对象在视听坐标系中垂直方向的值,zw是目标对象在视听坐标系中位于摄像机光轴方向的值。
而且,步骤3中,所述目标对象的深度值通过计算摄像机光学中心到目标对象的深度值ZLspeaker(u,v)得到,公式如下,
Z Lspeaker ( u , v ) = BF d Lspeaker ( u , v )
其中,dLspeaker(u,v)代表目标对象以像素为单位的视差;
所述中心点的深度值通过计算摄像机光学中心到中心点的深度值ZLlisten(u,v)得到,公式如下,
Z Llisten ( u , v ) = BF d Llisten ( u , v )
其中,dLlisten(u,v)代表听音点以像素为单位的视差;
步骤4中,目标对象与中心点的深度差deep根据下式计算得到,
deep = BF d Llisten ( u , v ) - BF d Lspeaker ( u , v )
设(X,Y)表示以物理单位度量的成像平面坐标系的坐标,成像平面坐标系的原点O1定义在摄像机光轴和图像平面的交点处,X轴和Y轴方向分别与图像坐标系的u轴和v轴平行,根据成像平面坐标系与图像坐标系的关系转化得到以物理单位为度量的目标对象相对于中心点的距离信息disifm如下,
disifm = BF d Llis tan ( X , Y ) - BY d Lspeaker ( X , Y )
其中,dLspeaker(X,Y)代表目标对象以物理距离为单位的视差,dLlisten(X,Y)代表听音点以物理距离为单位的视差。
而且,视差根据下式计算得到,
D = Frv 0 rv 0 - F ( r + d )
其中,D为视差,v0是像距,F是焦距,r为透镜半径,d为测量模糊圆的半径。
而且,步骤5中,还原所得目标对象在视听坐标系中的目标位置为[xw-aw,yw-bw,zw-cw+disifm]T
本发明还相应提供一种3D图像空间与3D视听空间转换装置,包括以下模块,
目标对象方位信息获取模块,用于将图像坐标系中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息;
目标对象方位信息转换模块,用于将图像坐标系中目标对象相对于中心点的方位信息映射到视听坐标系,得到目标对象相对于中心点在视听坐标系中的方位信息;
深度信息获取模块,用于从3D视频中提取出目标对象的深度值和中心点的深度值;
目标对象距离信息获取模块,用于根据深度信息获取模块所得目标对象与中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;
声像位置还原模块,用于根据目标对象方位信息转换模块所得目标对象相对于中心点的方位信息和目标对象距离信息获取模块所得目标对象相对于中心点的距离信息,还原出目标对象在视听坐标系中的目标位置。
而且,所述图像坐标系是在图像上定义的直角坐标系u-v,图像的左上角为原点O0,u为图像的水平方向,v为图像的垂直方向;所述视听坐标系是由听音点和Xc,Yc,Zc轴组成的直角坐标系,听音点为原点,Xc轴和Yc轴与图像坐标系的u轴和v轴平行,Zc轴为摄像机光轴,和图像平面垂直;
目标对象方位信息获取模块中,设图像坐标系内,中心点的位置以二维点的形式记为LC[a,b]T,目标对象的位置为LO[x,y]T,得到目标对象相对于中心点的方位信息是[x-a,y-b]T
目标对象方位信息转换模块中,得到目标对象相对于中心点在视听坐标系中的方位信息如下,
[xw-aw,yw-bw,zw-cw]T
其中,aw是中心点在视听坐标系中水平方向的值,bw是中心点在视听坐标系中垂直方向的值,cw是中心点在视听坐标系中位于摄像机光轴方向的值,xw是目标对象在视听坐标系中水平方向的值,yw是目标对象在视听坐标系中垂直方向的值,zw是目标对象在视听坐标系中位于摄像机光轴方向的值。
而且,深度信息获取模块中,所述目标对象的深度值通过计算摄像机光学中心到目标对象的深度值ZLspeaker(u,v)得到,公式如下,
Z Lspeaker ( u , v ) = BF d Lspeaker ( u , v )
其中,dLspeaker(u,v)代表目标对象以像素为单位的视差;
所述中心点的深度值通过计算摄像机光学中心到中心点的深度值ZLlisten(u,v)得到,公式如下,
Z Llisten ( u , v ) = BF d Llisten ( u , v )
其中,dLlisten(u,v)代表听音点以像素为单位的视差;
声像距离信息计算模块中,目标对象与中心点的深度差deep根据下式计算得到,
deep = BF d Llisten ( u , v ) - BF d Lspeaker ( u , v )
设(X,Y)表示以物理单位度量的成像平面坐标系的坐标,成像平面坐标系的原点O1定义在摄像机光轴和图像平面的交点处,X轴和Y轴方向分别与图像坐标系的u轴和v轴平行,根据成像平面坐标系与图像坐标系的关系转化得到以物理单位为度量的目标对象相对于中心点的距离信息disifm如下,
disifm = BF d Llis tan ( X , Y ) - BY d Lspeaker ( X , Y )
其中,dLspeaker(X,Y)代表目标对象以物理距离为单位的视差,dLlisten(X,Y)代表听音点以物理距离为单位的视差。
而且,视差根据下式计算得到,
D = Frv 0 rv 0 - F ( r + d )
其中,D为视差,v0是像距,F是焦距,r为透镜半径,d为测量模糊圆的半径。
而且,声像位置还原模块中,还原所得目标对象在视听坐标系中的目标位置为[xw-aw,yw-bw,zw-cw+disifm]T
本发明创造性提出图像空间转3D视听空间的方案,本发明创造性提出图像空间转3D视听空间的方案,在图像空间中获取目标对象的方位信息和3D视频中获取目标对象的距离信息,然后在视听空间中还原声像的目标位置,重建目标对象方位信息。应用本发明可实现3D语音与视频的空间信息一致性,给用户更逼真的3D听觉和视觉体验,实现图像空间信息与3D音频声像空间信息的统一表达,推动3D视听产业的快速同步发展。
附图说明
图1为本发明实施例的图像坐标系到成像平面坐标系的转换示意图。
图2为本发明实施例的图像空间转3D视听空间装置结果图。
图3为本发明实施例的图像空间转3D视听空间示意图。
具体实施方式
以下结合附图和实施例进行详细说明。
本发明所提供方法可采用计算机软件技术实现自动运行流程,实施例的流程具体包括以下步骤:
步骤1,目标对象方位信息获取,包括将图像坐标系中心点的位置和目标对象的位置作为输入,用于计算目标对象相对于中心点的方位信息。
如图1所示,在图像上定义直角坐标系u-v作为图像坐标系,其中图像的左上角为原点O0,u为水平方向,v为垂直方向,每一像素的坐标(u,v)分别是该像素在数组中的列数和行数,故(u,v)是以像素为单位的图像坐标系坐标。在图像坐标系中计算出目标对象相对于中心点的方位,该中心点位于图像的中心位置。
如图3,在图像坐标系中,已知中心点的位置以二维点的形式记为LC[a,b]T,目标对象的位置为LO[x,y]T,得到目标对象相对于中心点的方位信息是[x-a,y-b]T,其中T表示向量的转置。
步骤2,目标对象方位信息转换,包括将图像坐标系中目标对象相对于中心点的方位信息映射得到视听坐标系的方位信息。
步骤2.1,在用户所在的环境中,以听音点为原点建立视听坐标系,该视听坐标系是由听音点和Xc,Yc,Zc轴组成的直角坐标系,Xc轴和Yc轴分别与图像坐标系的u轴和v轴平行,Zc轴为摄像机的光轴,和图像平面垂直。
步骤2.2,参考图3,将图像坐标系中的目标对象相对于中心点的方位信息映射到视听坐标系。
步骤2.2.1,在图像坐标系中将图像坐标系内的二维点表示为m=[U,V]T,视听坐标系内的三维点表示为M=[Xw,Yw,Zw]T,它们的齐次向量表示形式分别为采用小孔透视摄像机模型,可以得到
s m ‾ = K · [ Rt ] M ‾
M ‾ = s m ‾ · ( K [ Rt ] ) - 1
式中,s是任意的比例因子;[Rt]是外参数矩阵;K是内参数矩阵,且有
K = f u γ u 0 0 f v v 0 0 0 1
其中,R是旋转矩阵,t是平移向量;主点定义在摄像机光轴和图像平面的交点处,(u0,v0)是主点坐标,该点一般位于图像中心处;fu、fv分别是u轴和v轴的尺度因子;γ是透镜的畸变因子。
步骤2.2.2,根据步骤3.1的公式在视听坐标系中,图像坐标系中的中心点映射到视听坐标系的坐标表示如下:
LCth[aw,bw,cw]T=s·LC·(K[Rt])-1
其中,aw是中心点在视听坐标系中水平方向(即Xc轴方向)的值,bw是中心点在视听坐标系中垂直方向(即Yc轴方向)的值,cw是中心点在视听坐标系中位于摄像机光轴方向(即Zc轴方向)的值,LC=[a,b,1]T表示中心点位置映射到视听坐标系中的坐标。
目标对象在视听坐标系中的坐标表示如下:
LOth[xw,yw,zw]T=s·LO·(K[Rt])-1
其中,xw是目标对象在视听坐标系中水平方向的值,yw是目标对象在视听坐标系中垂直方向的值,zw是目标对象在视听坐标系中位于摄像机光轴方向的值,LO=[x,y,1]T表示目标对象映射到视听坐标系中的坐标。
步骤2.2.3,从步骤2.2.2中可以得到目标对象相对于中心点在视听坐标系中的方位信息表示为如下:
[xw-aw,yw-bw,zw-cw]T
步骤3,深度信息获取,包括获取目标对象的深度值和中心点的深度值,根据已有的3D视频,在已有的3D视频中提取出目标对象的深度值和中心点的深度值。
步骤3.1,在双目立体视觉中,视差D的公式计算如下:
D = Frv 0 rv 0 - F ( r + d )
其中v0是像距,F是焦距,r为透镜半径,d为测量模糊圆的半径。
步骤3.2,在双目立体视觉中,深度值Z的公式计算如下
Z = BF D
其中B是摄像机之间的基线距离。
计算摄像机光学中心到目标对象的深度值如下:
Z Lspeaker ( u , v ) = BF d Lspeaker ( u , v )
其中,dLspeaker(u,v)代表目标对象以像素为单位的视差。
计算摄像机光学中心到中心点的深度值如下:
Z Llisten ( u , v ) = BF d Llisten ( u , v )
其中,dLlisten(u,v)代表听音点以像素为单位的视差。
dLspeaker(u,v)和dLlisten(u,v)通过步骤3.1中公式计算得到。
步骤4,目标对象距离信息获取,包括根据步骤3中所得到的目标对象与中心点的深度值,计算出目标对象与中心点的深度差,再根据目标对象与中心点的深度差计算出目标对象相对于中心点的距离信息。
步骤4.1,由步骤3.2.1和步骤3.2.2中获取的中心点和目标对象的深度值,计算出目标对象与中心点的深度差deep如下:
deep = BF d Llisten ( u , v ) - BF d Lspeaker ( u , v )
深度差表示以像素为单位的距离信息。
步骤4.2,根据步骤4.1中计算出的目标对象与中心点的深度差deep,将以像素为单位的距离信息转换为以物理单位为度量的距离信息。
步骤4.2.1,如图1所示,用(X,Y)表示以物理单位度量的成像平面坐标系的坐标。在X-Y坐标系中,原点O1定义在摄像机光轴和图像平面的交点处,称为图像的主点(principal point),该点一般位于图像中心处,但由于摄像机制作的原因,可能会有些偏离,设O1在图像坐标系u-v下的坐标为(u0,v0),X轴和Y轴方向分别与图像坐标系的u轴和v轴平行,每个像素在X轴和Y轴方向上的物理尺寸为dX、dY,两个坐标系的关系如下:
u v 1 1 / dX s ′ u 0 0 1 / dY v 0 0 0 1 X Y 1
X Y 1 = u v 1 1 / dX s ′ u 0 0 1 / dY v 0 0 0 1 - 1
其中s′表示因摄像机成像平面坐标轴相互不正交引出的倾斜因子。
步骤4.2.2,由步骤4.1得到的深度差deep,根据步骤4.2.1的公式转化为距离信息disifm,
disifm = BF d Llis tan ( X , Y ) - BY d Lspeaker ( X , Y )
其中,dLspeaker(X,Y)代表目标对象以物理距离为单位的视差。
其中,dLlisten(X,Y)代表听音点以物理距离为单位的视差。
步骤5,声像位置还原,包括根据步骤2中所得到的目标对象相对于中心点的方位信息和步骤4中所得到的目标对象相对于中心点的距离信息,还原出声像在视听坐标系中的目标位置。
如图3所示,由步骤2得到的目标对象相对于中心点在视听坐标系中的方位信息[xw-aw,yw-bw,zw-cw]T和由步骤4得到的距离信息disifm,将目标对象相对于听音点的方位移动disifm,即可得到视频中的目标对象在视听空间中应处的位置为[xw-aw,yw-bw,zw-cw+disifm]T
具体实施时,步骤1、2和步骤3、4为并列关系,可以按步骤1、2、3、4先后执行,也可以先执行步骤3、4后执行步骤1、2,在系统资源足够的情况下也可以并行执行步骤1、2和3、4,最后根据步骤2、4的结果执行步骤5即可,实质上是相同的,都属于本发明保护范围内。
本发明还可采用软件模块化方式实现为装置,如图2所示:
目标对象方位信息获取模块1,用于将图像坐标系中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息;
目标对象方位信息转换模块2,用于将图像坐标系中目标对象相对于中心点的方位信息映射到视听坐标系,得到目标对象相对于中心点在视听坐标系中的方位信息;
深度信息获取模块3,用于从3D视频中提取出目标对象的深度值和中心点的深度值;
目标对象距离信息获取模块4,用于根据深度信息获取模块所得目标对象与中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;
声像位置还原模块5,用于根据目标对象方位信息转换模块所得目标对象相对于中心点的方位信息和目标对象距离信息获取模块所得目标对象相对于中心点的距离信息,还原出目标对象在视听坐标系中的目标位置。
各装置具体实现可参见方法的各步骤实现,不予赘述。
以上仅是用以说明本发明的具体实施案例而已,并非用以限定本发明的可实施范围。熟悉本领域的技术人员在不违背本发明所指示的精神与原理下所完成的一切等效变形、替换或修饰,仍包含在本发明权利要求所限定的范围内。

Claims (10)

1.一种3D图像空间与3D视听空间转换方法,其特征在于:包括以下步骤,
步骤1,目标对象方位信息获取,包括将图像坐标系内中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息;所述中心点位于图像的中心位置;
步骤2,目标对象方位信息转换,包括将图像坐标系中目标对象相对于中心点的方位信息映射到视听坐标系,得到目标对象相对于中心点在视听坐标系中的方位信息;
步骤3,深度信息获取,包括从3D视频中提取出目标对象的深度值和中心点的深度值;
步骤4,目标对象距离信息获取,包括根据步骤3所得目标对象与中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;
步骤5,声像位置还原,包括根据步骤2中所得到的目标对象相对于中心点的方位信息和步骤4中所得到的目标对象相对于中心点的距离信息,还原出目标对象在视听坐标系中的目标位置。
2.根据权利要求1所述3D图像空间与3D视听空间转换方法,其特征在于:所述图像坐标系是在图像上定义的直角坐标系u-v,图像的左上角为原点O0,u为图像的水平方向,v为图像的垂直方向;所述视听坐标系是由听音点和Xc,Yc,Zc轴组成的直角坐标系,听音点为原点,Xc轴和Yc轴与图像坐标系的u轴和v轴平行,Zc轴为摄像机光轴,和图像平面垂直;
步骤1中,设图像坐标系内,中心点的位置以二维点的形式记为LC[a,b]T,目标对象的位置为LO[x,y]T,得到目标对象相对于中心点的方位信息是[x-a,y-b]T
步骤2中,得到目标对象相对于中心点在视听坐标系中的方位信息如下,
[xw-aw,yw-bw,zw-cw]T
其中,aw是中心点在视听坐标系中水平方向的值,bw是中心点在视听坐标系中垂直方向的值,cw是中心点在视听坐标系中位于摄像机光轴方向的值,xw是目标对象在视听坐标系中水平方向的值,yw是目标对象在视听坐标系中垂直方向的值,zw是目标对象在视听坐标系中位于摄像机光轴方向的值。
3.根据权利要求2所述3D图像空间与3D视听空间转换方法,其特征在于:
步骤3中,所述目标对象的深度值通过计算摄像机光学中心到目标对象的深度值ZLspeaker(u,v)得到,公式如下,
Z Lspeaker ( u , v ) = BF d Lspeaker ( u , v )
其中,dLspeaker(u,v)代表目标对象以像素为单位的视差,B是摄像机之间的基线距离,F是焦距;
所述中心点的深度值通过计算摄像机光学中心到中心点的深度值ZLlisten(u,v)得到,公式如下,
Z Llisten ( u , v ) = BF d Llisten ( u , v )
其中,dLlisten(u,v)代表听音点以像素为单位的视差;
步骤4中,目标对象与中心点的深度差deep根据下式计算得到,
deep = BF d Llisten ( u , v ) - BF d Lspeaker ( u , v )
设(X,Y)表示以物理单位度量的成像平面坐标系的坐标,成像平面坐标系的原点O1定义在摄像机光轴和图像平面的交点处,X轴和Y轴方向分别与图像坐标系的u轴和v轴平行,根据成像平面坐标系与图像坐标系的关系转化得到以物理单位为度量的目标对象相对于中心点的距离信息disifm如下,
disifm = BF d Llisten ( X , Y ) - BF d Lspeaker ( X , Y )
其中,dLspeaker(X,Y)代表目标对象以物理距离为单位的视差,dLlisten(X,Y)代表听音点以物理距离为单位的视差。
4.根据权利要求3所述3D图像空间与3D视听空间转换方法,其特征在于:视差根据下式计算得到,
D = Frv 0 rv 0 - F ( r + d )
其中,D为视差,v0是像距,F是焦距,r为透镜半径,d为测量模糊圆的半径。
5.根据权利要求3或4所述3D图像空间与3D视听空间转换方法,其特征在于:步骤5中,还原所得目标对象在视听坐标系中的目标位置为[xw-aw,yw-bw,zw-cw+disifm]T
6.一种3D图像空间与3D视听空间转换装置,其特征在于:包括以下模块,
目标对象方位信息获取模块,用于将图像坐标系中心点的位置和目标对象的位置作为输入,得到目标对象相对于中心点的方位信息;
目标对象方位信息转换模块,用于将图像坐标系中目标对象相对于中心点的方位信息映射到视听坐标系,得到目标对象相对于中心点在视听坐标系中的方位信息;
深度信息获取模块,用于从3D视频中提取出目标对象的深度值和中心点的深度值;
目标对象距离信息获取模块,用于根据深度信息获取模块所得目标对象与中心点的深度值,计算出目标对象与中心点的深度差,转换得到以物理单位为度量的目标对象相对于中心点的距离信息;
声像位置还原模块,用于根据目标对象方位信息转换模块所得目标对象相对于中心点的方位信息和目标对象距离信息获取模块所得目标对象相对于中心点的距离信息,还原出目标对象在视听坐标系中的目标位置。
7.根据权利要求6所述3D图像空间与3D视听空间转换装置,其特征在于:所述图像坐标系是在图像上定义的直角坐标系u-v,图像的左上角为原点O0,u为图像的水平方向,v为图像的垂直方向;所述视听坐标系是由听音点和Xc,Yc,Zc轴组成的直角坐标系,听音点为原点,Xc轴和Yc轴与图像坐标系的u轴和v轴平行,Zc轴为摄像机光轴,和图像平面垂直;
目标对象方位信息获取模块中,设图像坐标系内,中心点的位置以二维点的形式记为LC[a,b]T,目标对象的位置为LO[x,y]T,得到目标对象相对于中心点的方位信息是[x-a,y-b]T
目标对象方位信息转换模块中,得到目标对象相对于中心点在视听坐标系中的方位信息如下,
[xw-aw,yw-bw,zw-cw]T
其中,aw是中心点在视听坐标系中水平方向的值,bw是中心点在视听坐标系中垂直方向的值,cw是中心点在视听坐标系中位于摄像机光轴方向的值,xw是目标对象在视听坐标系中水平方向的值,yw是目标对象在视听坐标系中垂直方向的值,zw是目标对象在视听坐标系中位于摄像机光轴方向的值。
8.根据权利要求7所述3D图像空间与3D视听空间转换装置,其特征在于:
深度信息获取模块中,所述目标对象的深度值通过计算摄像机光学中心到目标对象的深度值ZLspeaker(u,v)得到,公式如下,
Z Lspeaker ( u , v ) = BF d Lspeaker ( u , v )
其中,dLspeaker(u,v)代表目标对象以像素为单位的视差,B是摄像机之间的基线距离,F是焦距;
所述中心点的深度值通过计算摄像机光学中心到中心点的深度值ZLlisten(u,v)得到,公式如下,
Z Llisten ( u , v ) = BF d Llisten ( u , v )
其中,dLlisten(u,v)代表听音点以像素为单位的视差;
声像距离信息计算模块中,目标对象与中心点的深度差deep根据下式计算得到,
deep = BF d Llisten ( u , v ) - BF d Lspeaker ( u , v )
设(X,Y)表示以物理单位度量的成像平面坐标系的坐标,成像平面坐标系的原点O1定义在摄像机光轴和图像平面的交点处,X轴和Y轴方向分别与图像坐标系的u轴和v轴平行,根据成像平面坐标系与图像坐标系的关系转化得到以物理单位为度量的目标对象相对于中心点的距离信息disifm如下,
disifm = BF d Llisten ( X , Y ) - BF d Lspeaker ( X , Y )
其中,dLspeaker(X,Y)代表目标对象以物理距离为单位的视差,dLlisten(X,Y)代表听音点以物理距离为单位的视差。
9.根据权利要求8所述3D图像空间与3D视听空间转换装置,其特征在于:视差根据下式计算得到,
D = Frv 0 rv 0 - F ( r + d )
其中,D为视差,v0是像距,F是焦距,r为透镜半径,d为测量模糊圆的半径。
10.根据权利要求8或9所述3D图像空间与3D视听空间转换装置,其特征在于:声像位置还原模块中,还原所得目标对象在视听坐标系中的目标位置为[xw-aw,yw-bw,zw-cw+disifm]T
CN201310438138.5A 2013-09-24 2013-09-24 一种3d图像空间与3d视听空间转换方法及装置 Expired - Fee Related CN103458262B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310438138.5A CN103458262B (zh) 2013-09-24 2013-09-24 一种3d图像空间与3d视听空间转换方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310438138.5A CN103458262B (zh) 2013-09-24 2013-09-24 一种3d图像空间与3d视听空间转换方法及装置

Publications (2)

Publication Number Publication Date
CN103458262A CN103458262A (zh) 2013-12-18
CN103458262B true CN103458262B (zh) 2015-07-29

Family

ID=49740155

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310438138.5A Expired - Fee Related CN103458262B (zh) 2013-09-24 2013-09-24 一种3d图像空间与3d视听空间转换方法及装置

Country Status (1)

Country Link
CN (1) CN103458262B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102480630A (zh) * 2010-11-29 2012-05-30 索尼公司 信息处理设备、信息处理方法和程序
CN102883172A (zh) * 2011-07-15 2013-01-16 日立民用电子株式会社 接收装置、接收方法和发送接收方法
CN103021414A (zh) * 2012-12-04 2013-04-03 武汉大学 一种三维音频系统距离调制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102480630A (zh) * 2010-11-29 2012-05-30 索尼公司 信息处理设备、信息处理方法和程序
CN102883172A (zh) * 2011-07-15 2013-01-16 日立民用电子株式会社 接收装置、接收方法和发送接收方法
CN103021414A (zh) * 2012-12-04 2013-04-03 武汉大学 一种三维音频系统距离调制方法

Also Published As

Publication number Publication date
CN103458262A (zh) 2013-12-18

Similar Documents

Publication Publication Date Title
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
JP4918689B2 (ja) メッシュマップを用いて二次元画像から立体画像を生成する立体画像生成方法及び立体画像生成装置
CN101902657B (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
CN102164298B (zh) 全景成像系统中基于立体匹配的元素图像获取方法
CN108616742B (zh) 一种3d全景拍摄系统以及方法
CN101266546A (zh) 一种实现操作系统三维显示的方法和一种三维操作系统
CN111325693B (zh) 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN104504671A (zh) 一种用于立体显示的虚实融合图像生成方法
CN105916022A (zh) 一种基于虚拟现实技术的视频图像处理方法及装置
CN101808251B (zh) 立体图像对中遮挡信息的提取方法
CN101729920B (zh) 一种自由视角立体视频显示方法
CN102184570B (zh) 一种三维优化选线系统及其立体场景创建漫游方法及装置
CN102692806B (zh) 自由视点四维空间视频序列的采集与形成方法
WO2019085022A1 (zh) 光场3d显示单元图像的生成方法及生成装置
CN102789058A (zh) 立体图像生成装置和立体图像生成方法
You et al. Internet of Things (IoT) for seamless virtual reality space: Challenges and perspectives
CN102801994A (zh) 一种信息物理图像融合装置与方法
CN104333747A (zh) 一种立体拍照方法和立体拍照设备
CN103269430A (zh) 基于bim的三维场景生成方法
US20130128008A1 (en) Smart pseudoscopic-to-orthoscopic conversion (spoc) protocol for three-dimensional (3d) display
CN113238472B (zh) 基于频域位移的高分辨率光场显示方法及装置
CN111047709A (zh) 一种双目视觉裸眼3d图像生成方法
CN103208110A (zh) 视频图像的转换方法及装置
CN104635337B (zh) 可提高立体图像显示分辨率的蜂窝式透镜阵列设计方法
CN113763301A (zh) 一种减小错切概率的三维图像合成方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150729

Termination date: 20190924