CN112969060A - 一种移轴立体摄像机 - Google Patents
一种移轴立体摄像机 Download PDFInfo
- Publication number
- CN112969060A CN112969060A CN202110202390.0A CN202110202390A CN112969060A CN 112969060 A CN112969060 A CN 112969060A CN 202110202390 A CN202110202390 A CN 202110202390A CN 112969060 A CN112969060 A CN 112969060A
- Authority
- CN
- China
- Prior art keywords
- image
- interest
- point
- stereoscopic
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 67
- 210000001508 eye Anatomy 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 157
- 230000008859 change Effects 0.000 claims description 17
- 238000013519 translation Methods 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 24
- 238000000926 separation method Methods 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 55
- 230000000694 effects Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 238000012546 transfer Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000000691 measurement method Methods 0.000 description 5
- 241001422033 Thestylus Species 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 208000003464 asthenopia Diseases 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 208000002173 dizziness Diseases 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 239000011664 nicotinic acid Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种移轴立体摄像机。一个移轴立体摄像机中左右两个平行设置的镜头组1和2采集的一个位于立体摄像机中心轴线上的关注物体5的左右两个影像分别在左右两个图像传感器成像表面3和4上成像。关注物体5移动时,一个同屏芯片通过对左右两个镜头组1和2沿着水平方向上同步地平移使关注物体5的左右两个影像分别成像在左右两个图像传感器成像表面3和4的中心。左右两个镜头组1和2被平移后,关注物体5的立体影像会聚点保持在屏幕上,关注物体5的立体深度与关注物体5的立体影像会聚点的立体深度之间满足一组线性数学公式。本发明解决了立体影像的非线性畸变、出屏和眼睛的焦点平面与立体影像的像平面分离的问题,应用于内窥镜、腔镜、立体测量、立体摄像机、立体影像处理、其他立体影像制作和应用领域。
Description
技术领域
本发明涉及一种双镜头立体摄像机、立体影像线性光学技术、立体影像采集和播放 技术、立体影像定位、追踪和测量技术。
背景技术
两种传统的立体影像拍摄方法都存在无法避免的梯形畸变、非线性畸变和出屏的问 题。会聚法获得的立体影像效果与眼睛通过转动眼球观察一个关注物体的方式和效果相同。但是 当关注物移动时,左右两个摄像机无法通过向内角或外角方向的同步转动方式追踪移动中的关注 物体,并将左右两个镜头中心线会聚和保持在关注物体上,获得的左右两个影像存在着梯形畸变。 平行法获得的立体影像效果与眼睛观察一个位于无穷远处的关注物体的方式和效果相同。但是当 关注物体距离立体摄像机有限远时,关注物体的立体影像存在的非线性畸变和会聚点的出屏效果 使眼睛感觉不自然和不舒服。上述任何一种拍摄方法,实景中一个关注物体的立体深度与对应的 立体影像会聚点之间都不是线性关系。
市场中主流的立体播放器都是一种基于平面屏幕的立体显示技术,包括VR和AR眼镜。 平面屏幕立体显示技术的核心问题是眼睛的焦点平面与立体影像的像平面是分离的,这与眼睛的 日常观看习惯、经验和模式完全不同。这是眼睛观看立体影像一段时间后感觉疲劳、眩晕和生理 不适的最主要的原因之一。到目前为止,这个问题的有效解决方案仍然没有被找到。
本发明提出的一种移轴立体摄像机解决了立体成像和立体影像重建过程中存在的上 述两个核心问题;第一个是眼睛的焦点平面与立体影像会聚点的像平面分离的问题;第二个是传 统的立体影像拍摄方法存在的梯形畸变、非线性畸变和出屏的问题。移轴立体摄像机具有操作简 单、成本较低、易于推广和普及的特点。
发明内容
本发明的目的是提供一种移轴立体摄像机,首先,解决了实景中一个关注物体的立 体深度与关注物体的立体影像会聚点的立体深度之间满足一组线性数学关系式的技术问题;第二, 解决了眼睛的焦点平面与立体影像会聚点的像平面分离的技术问题;第三,解决了实景中一个关 注物体的立体影像存在梯形畸变、非线性畸变和出屏的技术问题。本发明应用于内窥镜、腔镜、 立体测量、立体摄像机、立体影像处理、立体影像制作和应用领域。
一个移轴立体摄像机是由两个彼此独立、相同、中心线彼此平行设置的镜头组、一个或两个相同的图像传感器CCD或CMOS、一个移轴装置、一个影像处理器和一个同屏芯片组成。权利要求书和说明书中一个移轴立体摄像机是由左右两个镜头组组成。当一个移轴立体摄像 机使用左右两个图像传感器时,左右两个镜头组也可以是左右两个分别拥有各自独立的图像传感 器的摄像机。
一个移轴立体摄像机中两个镜头组完全相同,包括(不限于)镜头组的焦距、视角、光圈、镜头组光学中心,镜片设计和类型、镜片数量、镜片材料、镜片表面镀膜、分辨率、镜头模组外壳内表面涂层、光学设计、结构设计及其他参数。
一个移轴立体摄像机中两个镜头组初始设定时中心线之间的距离t称为移轴立体摄 像机的初始视间距t。初始视间距t在3毫米至300毫米之间。
移轴立体摄像机输出的影像格式有左右格式和左右两个独立影像格式。对于一个设 置有一个图像传感器的移轴立体摄像机,左右两个镜头组采集的左右两个影像分别在一个图像传 感器成像表面的左半部和右半部成像表面上成像并输出一个左右格式的影像。一个左右格式的影 像是由左右两个子影像组成。对于一个设置有左右两个独立的图像传感器的移轴立体摄像机,左 右两个镜头组采集的左右两个影像分别在左右两个图像传感器的成像表面上成像并输出左右两 个独立的影像。
会聚法和平行法是双目立体摄像机最常使用的两种立体影像拍摄方法。但是,会聚 法和平行法都存在一些无法避免的问题,包括梯形畸变、非线性畸变和立体影像会聚点出屏。会 聚法是一种模拟人的双眼观察世界的仿生立体拍摄方法。一个双目立体摄像机在初始设定时,左 右两个摄像机通过向内角转动直到左右两个摄像机中心线会聚到一个位于立体摄像机中心轴线 上的关注物体上。当关注物移动时,左右两个摄像机通过向内角或外角方向同步转动的方式追踪 移动中的关注物体,并将左右两个摄像机中心线会聚和保持在移动中的关注物体上。这个采集关 注物体影像的过程与人的眼睛通过转动眼球方式跟踪并聚焦在关注物体上的过程是相同的,获得 的立体影像的立体效果与眼睛观察一个关注物体获得的视觉效果是相同的,具有一种真实、自然 和舒适的感受。实际上,会聚法的仿生拍摄技术的核心是通过沿着内角或外角方向上同步地转动 左右两个摄像机的方式,使关注物体的左右两个影像分别成像在左右两个图像传感器成像表面的 中心。平行法则是一种相当于眼睛观察一个位于无穷远处的关注物体的方式采集关注物体立体影 像的拍摄方法。平行法获得的影像虽然没有梯形畸变,但是存在非线性畸变和立体影像会聚点出屏的问题。立体影像长时间的出屏效果与眼睛观察物体的传统方式和日常经验的感受不同,会造 成眼睛疲劳和不舒服。尽管获得的影像存在梯形畸变,但是会聚法相较于平行法仍是一种更为理 想的立体影像拍摄方法。
移轴立体摄像机使用一种移轴等效会聚法的立体影像拍摄方法采集一个关注物体的 立体影像。移轴等效会聚法是一种以平行法为基础,融合了会聚法的仿生立体拍摄方法的核心技 术的立体影像拍摄方法。移轴等效会聚法通过对移轴立体摄像机中的左右两个镜头组进行平移的 方式解决了会聚法通过向内角或外角方向上同步转动左右两个摄像机的方式追踪和会聚在移动 中的关注物体的过程中出现的问题。移轴等效会聚法与会聚法的最大区别是对左右两个镜头组进 行平移,不是对左右两个摄像机镜进行转动。移轴同屏等效会聚法获得的立体影像的立体效果与 会聚法通过向内角或外角同步转动摄像机的方式获得的立体影像的立体效果是相同,只是实现的 路径和方式不同。另外,移轴等效会聚法不仅解决了会聚法中梯形畸变的问题,而且一并地解决 了平行法中立体影像的非线性畸变和立体影像会聚点出屏的问题。实际上,移轴等效会聚法最大 的贡献和意义不仅是通过左右两个镜头组的平行设置方式等效地实现了使用会聚法获得的立体 影像的立体效果,而且在立体影像采集空间和立体影像播放空间之间通过一个线性传递函数建立 了一个线性转换关系。这种线性转换关系成为立体空间线性理论和眼睛焦点平面与立体影像的像 平面重合的解决方案的基础。
一个移轴立体摄像机中左右两个镜头组采集的一个位于移轴立体摄像机中心轴线上 的关注物体的左右两个影像分别成像在一个图像传感器的左半部和右半部成像表面上或左右两 个图像传感器成像表面上,但是关注物体的左右两个影像在图像传感器成像表面上的成像都不在 一个图像传感器的左半部和右半部成像表面的中心或左右两个图像传感器的成像表面的中心。移 轴立体摄像机中一个同屏芯片沿着一条位于左右两个镜头组中心线构成的一个平面上并与两个 镜头组中心线垂直的直线方向上,通过一个移轴装置对左右两个镜头组朝向彼此相对或相反的方 向上进行平移,使关注物体的左右两个影像的成像分别位于一个图像传感器的左半部和右半部成 像表面的中心或左右两个图像传感器成像表面的中心。一个移轴立体摄像机在初始设定时,同屏 芯片按照公式L=[(F×t)/2]÷(Zconv+F)通过一个移轴装置对左右两个镜头组进行平移。当关 注物体移动时,同屏芯片按照公式L=[(F×t)/2]÷(Z+F)通过一个移轴装置对左右两个镜头组 同步地进行平移。左右两个镜头组被平移后,关注物体的立体影像会聚点保持在屏幕上。无论关 注物体是静止还是移动时,关注物体的左右两个影像分别成像在一个图像传感器的左半部和右半 部成像表面的中心或左右两个图像传感器成像表面的中心。移轴立体摄像机通过实时地平移左右 两个镜头组的方式获得并输出的左右两个影像的立体效果与会聚法通过旋转左右两个摄像机的 方式获得并输出的左右两个影像的立体效果是相同的。移轴立体摄像机输出的两种格式的影像中, 关注物体的左右两个影像分别位于一个左右格式影像中的左右两个子影像的中心或左右两个影 像的中心。移轴立体摄像机输出的关注物体的左右两个影像在播放时,关注物体的立体影像会聚 点位于屏幕上。当关注物体移动时,关注物体的立体影像会聚点将离开屏幕。这时,同屏芯片开 始对关注物体的左右两个影像分别进行定位追踪和测量并通过一个移轴装置对移轴立体摄像左 右两个镜头组同步地进行平移,将关注物体的立体影像会聚点重新“拉回”到屏幕上并保持在屏 幕上。同屏芯片的同步反应和执行速度愈快,眼睛感觉立体影像的质量和效果就会更稳定、连续、 自然和舒适。移轴立体摄像机和同屏芯片解决了立体影像播放中眼睛的焦点平面和立体影像会聚 点的像平面分离的问题。这是造成眼睛观看立体播放器中的内容一段时间后眼睛感觉疲劳、眩晕和生理不适的最主要的原因之一。移轴立体摄像机的一个重要贡献是在立体影像采集空间与立体 影像播放空间之间建立了一种相互的线性空间关系。立体影像采集空间中一个关注物体的立体深 度和立体影像播放空间中关注物体的立体影像会聚点的立体深度之间可以通过一个称为立体空 间线性传递函数ZC=ZD×[T÷(A×F×t-F×T)]×Z的线性公式关联在一起。立体空间线性传 递函数的物理意义是实景中一个关注点、一条关注直线和一个关注平面与关注点、关注直线和关 注平面对应的立体影像是唯一的和没有变形的。上述公式中,L是左镜头组或右镜头组平移的距 离、T是人的双眼之间的距离即瞳距、F是镜头组的焦距、t是两个镜头组初始设定时中心线之间 的距离、A是动态影像放大率、Zconv是移轴立体摄像机的等效会聚点的立体深度或Z坐标、Z是 实景中一个关注物体的立体深度或Z坐标(立体影像采集空间)、ZC是关注物体对应的立体影像 会聚点的立体深度或Z坐标(立体影像播放空间)、ZD是坐标系原点到平面屏幕的距离。
一个立体影像采集空间坐标系(X’,Y’,Z’)的原点(0’,0’,0’)位于移轴立体摄像机中 左右两个镜头组中心的连线的中点处。一个立体影像播放空间坐标系(X”,Y”,Z”)的原点(0”,0”, 0”)位于人的双眼连线或瞳距的中点处。将立体影像采集空间坐标系(X’,Y’,Z’)和立体影像播放 空间坐标系(X”,Y”,Z”)放置在一起,两个坐标系的原点(0’,0’,0’)和(0”,0”,0”)重合在一起成 为一个新坐标系(X,Y,Z)和(0,0,0)。一个立体影像采集空间中的移轴立体摄像机和一个立体 影像播放空间中的平面屏幕在新坐标系中拥有共同的坐标系原点。在新的坐标系中,立体影像采 集空间和立体影像播放空间重合在一起。
拍摄前,首先确定拍摄的一个主角,称为关注物体。实际上,关注物体上的一个具有代表性的关注点可以被用来代表关注物体。关注物体也可以是一个虚拟物体或虚拟点。将移轴 立体摄像机的中心轴线对准关注物体,并将移轴立体摄像机的等效会聚点M(0,0,Zconv)设置在 位于中心轴线上的关注物体处。这时,关注物体的左右两个影像在图像传感器成像表面上的成像 都不在一个图像传感器的左半部和右半部成像表面的中心或左右两个图像传感器成像表面的中 心。将左右两个镜头组沿着水平方向上朝向彼此相对的方向上平移L=[(F×t)/2]÷(Zconv+F) 的距离。平移后,关注物体的左右两个影像分别成像在一个图像传感器的左半部和右半部成像表 面的中心或左右两个图像传感器成像表面的中心。一个同屏移轴立体摄像机的初始设定就完成了。
一个移轴立体摄像机的等效会聚点M(0,0,Zconv)在立体影像采集空间中的位置决定 了实景中一个物体的立体影像会聚点在立体影像播放空间中的立体深度和与屏幕之间的相对位 置。移轴立体摄像机的等效会聚点M(0,0,Zconv)处的一个物体在平面屏幕上的视差为零,根据 立体空间线性传递函数ZC=ZD×[T÷(A×F×t-F×T)]×Z得到Zconv=(A×F×t-F×T)÷ T。一个移轴立体摄像机的等效会聚点M(0,0,Zconv)是可以通过平移左右两个镜头组L或改变动 态影像放大率A的方式改变的,Zconv=F×(t-2L)÷(2L)=(A×F×t-F×T)÷T。当一个移轴立 体摄像机的等效会聚点M(0,0,Zconv)被设置在一个位于中心轴线上的关注物体处时,关注物体 (0,0,Z=Zconv)的左右两个影像被投射到屏幕上后,关注物体的立体影像会聚点出现在屏幕上, 左右两个影像的视差为零。当一个移轴立体摄像机的等效会聚点M(0,0,Zconv)被设置在一个位 于中心轴线上的关注物体的前方时,关注物体(0,0,Z>Zconv)的左右两个影像被投射到屏幕上 后,关注物体的立体影像会聚点出现在屏幕的后面,左右两个影像的视差为正,称为正视差空间。 正视差空间是一个自然和舒适的立体影像的理想观看空间。当一个移轴立体摄像机的等效会聚点 M(0,0,Zconv)被设置在一个位于中心轴线上的关注物体的后方时,关注物体(0,0,Z<Zconv) 的左右两个影像被投射到屏幕上后,关注物体的立体影像会聚点出现在屏幕的前面,左右两个影 像的视差为负,称为负视差空间或观众空间。立体影像在负视差空间中呈现一种出屏的立体效果。
立体空间线性传递函数ZC=ZD×[T÷(A×F×t-F×T)]×Z表明,一个关注物体 的立体影像会聚点的立体深度只与深度坐标Z有关,与坐标X和Y无关。所以,通过一个移轴立体 摄像机的等效会聚点M(0,0,Zconv)并垂直于中心轴线的一个物平面(X,Y,Zconv)上所有物体的 立体影像会聚点都位于一个垂直于坐标系Z轴的像平面(X,Y,ZD)上,两个平面分别被称为等效会 聚物平面(X,Y,Zconv)和等效会聚像平面M’(X,Y,ZD)。等效会聚像平面M′(X,Y,ZD)上所有物体 的左右两个影像的视差为零。同理,每一个垂直于移轴立体摄像机中心轴线的物平面(X,Y,Z) 都对应着唯一的一个像平面(X,Y,ZC),物平面上所有物体的立体影像会聚点都位于对应的像平 面上。立体影像采集空间中的一个物平面对应着立体影像播放空间中的唯一的一个像平面,物-- 像平面是两个彼此相互对应并且相互映射的平面。
关注物体移动时的极限范围Zmin和Zmax一旦被确定,根据[0012]中所述,左右 两个镜头组对应的极限平移范围就确定,Lmin=[(F×t)/2]÷(Zmin+F)和Lmax=[(F×t)/2]÷(Zmax+F)。拍摄过程中,移轴会造成镜头组成像圆的平移。最大移轴Lmax=[(F×t)/2]÷(Zmax +F)后,镜头组成像圆仍能覆盖图像传感器成像表面的最小成像圆称为最小移轴成像圆。一个 移轴立体摄像机中左右两个镜头组的最小移轴成像圆直径相等。对于一个设置有一个图像传感器 的移轴立体摄像机,两个镜头组的最小移轴成像圆直径是Dmin=2√[(wmax/4+Lmax)2+ (g/2)2]。对于一个设置有两个图像传感器的移轴立体摄像机,两个镜头组的最小移轴成像圆直径 是Dmin=2√[(wmax/2+Lmax)2+(g/2)2]。其中,wmax是图像传感器成像表面水平长度,g是图 像传感器的垂直高度。
实际生活中,眼睛是通过转动眼球并会聚到一个关注物体上的方式观察关注物体。 大脑将双眼分别获得的关注物体的左右两个影像融合后将关注物体对应的一个立体影像准确地 会聚在实景中的关注物体上。眼睛的焦点(关注物体)与关注物体的立体影像(关注物体处)是 重合的。目前,主流立体显示技术和产品都是一种基于平面屏幕立体影像显示技术,包括VR和 AR眼镜。左右两个具有不同视角的影像被同时投射到平面屏幕上时,左眼和右眼分别只能看到 平面屏幕上的左影像和右影像,所以平面屏幕是眼睛的焦点平面。大脑对双眼分别看到的平面屏 幕上的左右两个影像融合后就感受到一个关注物体的立体影像。根据实际生活经验,大脑对左右 两个影像融合后的立体影像会聚点应该出现在屏幕上,ZC=ZD。但是,立体空间线性传递函数 ZC=ZD×[T÷(A×F×t-F×T)]×Z表明,ZC≠ZD或眼睛的焦点平面与立体影像会聚点的像 平面是分离的。这是立体影像重建技术中最核心的一个问题,称为Vergency-Accomodation Conflict(VAC)。这是造成眼睛观看立体播放器中的立体内容一段时间后感觉疲劳、晕眩和生理 上不适的根本原因之一。
立体空间线性传递函数ZC=ZD×[T÷(A×F×t-F×T)]×Z表明,眼睛的焦点平 面和立体影像会聚点的像平面重合(ZC=ZD)的充分必要条件是[T÷(A×F×t-F×T)]×Z=1或A=[T÷(F×t)]×(Z+F)。将平移公式L=T÷(2A)带入上式中,得到L=[(F×t)/2]÷(Z+F)和ΔL=[(F×t)/2]×[1/(Z2+F)-1/(Z1+F)]。当ΔZ>0,则ΔL<0表明,当关注物体变得越 远时,左右两个镜头组朝向彼此相反的方向上进行平移,朝向彼此相反的平移方向定义为负。反 之,当ΔZ<0,则ΔL>0表明,当关注物体变得越近时,左右两个镜头组朝向彼此相对的方向 上进行平移,彼此相对的平移方向定义为正。
移轴装置是一个根据同屏芯片输入的移轴指令,对移轴立体摄像机中左右两个镜头 组沿着一条位于左右两个镜头组中心线构成的一个平面上,并与两个镜头组中心线垂直的直线方 向上,朝向彼此相对或相反的方向上进行平移的装置。权利要求书中对移轴装置没有提出权利要 求,本说明书也不对移轴装置进行更多的说明。市场中众多成熟的移轴装置都可以被应用在移轴 立体摄像机中。
影像处理器是一个设置有一个或二个影像处理芯片ISP、一个或二个无线模块、一个 触摸屏幕、一个集成和存储有多条指令由影像处理器加载并执行的一个同屏芯片、一个数据存储 器和操作系统组成的装置。
一个或两个图像处理芯片对一个或左右两个图像传感器输出的一个左右格式的影像 中的左右两个子影像或左右两个影像进行处理、修正和优化。这种修正,处理和优化包括(不限 于);白平衡、色彩、增加色彩饱和度、提高锐度、亮度、对比度、降低噪点、影像边缘和细节 修复、压缩和其它参数。
一个或二个无线通讯模块分别将经过图像处理芯片修正、处理、优化及同屏芯片平 移或改变了动态影像放大率的影像、图片、语音和文字通过无线方式实时地输出到立体播放器、 触模屏幕、远程控制中心、数据库、其它第三方并可以与第三方实时地进行多媒体互动和交流。
一个触摸屏幕提供了一个操作系统的人机互动的操作界面。操作方式有触屏笔、手 指、鼠标和键盘。一个操作系统通过一个触摸屏幕和操作界面实现人机互动、操作指令对页面和 影像进行管理、影像输入、输出、存储、加载并执行同屏芯片集成和存储的指令、通过有线或无 线方式将经过修正、处理、优化和改变了动态影像放大率的一个左右格式的影像或左右两个影像 输出到立体播放器、触模屏幕、远程控制中心和数据库、开放接口与其他操作系统和第三方应用 软件兼容、下载各种应用和APP的链接、其他第三方并可以与其他第三方实时地进行多媒体互动 和交流。
一个同屏芯片是一个集成和存储有(不限于)一个定位追踪指令、一个测量指令、一个移轴指令、一个动态影像放大指令和一个等效会聚点重设指令的芯片。一个同屏芯片设置在 一个影像处理器中,所有集成和存储的立体影像定位、追踪、测量、移轴、动态影像放大和等效 会聚点重设指令由影像处理器加载并执行。
除了平移左右镜头组方式之外,同屏芯片还可以通过改变动态影像放大率A的方式使 关注物体的立体影像会聚点保持在屏幕上。根据[0019]中所述,眼睛的焦点平面和立体影像的像 平面重合的充分必要条件是A=[T÷(F×t)]×(Z+F)。当实景中一个关注物体移动时,关注物体 的立体深度Z发生变化ΔZ时,ΔA=[T÷(F×t)]×ΔZ。其中,A=W/w中的W和w都可以成为一 个变量。如果w被设定为一个变量,当实景中的关注物的立体深度发生变化ΔZ时,则ΔA=W/Δw =W×(1/w2-1/w1)。Δw的视觉效果是播放屏幕中关注物体对应的立体影像被拉进或推远,与一 个变焦镜头在变焦过程的影像变化效果完全相同。这种影像的变焦效果符合眼睛在日常观察中的 经验和习惯,眼睛感觉自然和舒适。如果W被设定为一个变量,当实景中的关注物体的立体深度 发生变化ΔZ时,ΔW的视觉效果是播放屏幕中影像有效播放区域的变大和缩小。眼睛对这种变化 方式不熟悉,感觉不自然和不舒服。当实景中一个关注物体的立体深度变大ΔZ>0,ΔA>0, 则Δw<0。屏幕中影像的视觉变化效果相当于关注物体的立体影像在屏幕中变得愈来愈远,镜 头组的焦距变大、视角变小、图像传感器上的成像变小,屏幕中关注物体的影像变得愈来愈小。 反之,实景中一个关注物体的立体深度变小ΔZ<0,ΔA<0,则Δw>0。屏幕中影像的视觉变 化效果相当于关注物体的立体影像在屏幕中变得愈来愈近,镜头组的焦距变小,视角变大,图像 传感器上的成像变大,屏幕中关注物体的影像变得愈来愈大。上述过程中,屏幕中影像的变化方 式、过程和视觉效果与人的眼睛对实景中一个关注物体的观察方式、经验和透视效果是一致的。 上述公式中,w是图像传感器实际成像表面的水平长度,W是立体播放器中影像有效播放表面的 水平长度。
实景中,一个关注点的空间座标(X,Y,Z)能够通过关注点对应的立体影像被精确地定 位取决于关注点的左右两个影像分别在一个左右格式的影像截图中的左子影像截图和右子影像 截图或左右两个影像截图中的左影像截图和右影像截图中的横坐标XL和XR能够被精确地定位。 关注点的纵坐标YL和YR位于同一个水平线上,YL=YR。移轴立体摄像机中左右两个镜头组采集 的左右两个影像沿着水平方向上的视差为P=(XR-XL),垂直方向上视差V=(YR-YL)=0。一 个左右格式的影像截图中的左子影像截图和右子影像截图中的左右两个坐标系原点分别位于左 子影像截图和右子影像截图的中心。左右两个影像截图中的左影像截图和右影像截图中的左右两 个坐标系原点分别位于左影像截图和右影像截图的中心。坐标符号规定为;XL和XR分别位于左 右两个坐标系中心垂直轴线的右半部时为正,左半部时为负,坐标系中心垂直轴线上时为零。
实景中一个关注物体的立体深度从Z1变化到Z2。关注物体在立体深度Z1和视差P1= (XR1-XL1)是已知的,代入公式A={[T-(XR-XL)]÷(F×t)}×Z+(T÷t)中,得到,
A1={[T-(XR1-XL1)]÷(F×t)}×Z1+(T÷t)
同屏芯片中的定位追踪和测量指令得到新关注物体在新立体深度Z2处的视差为P2=(XR2-XL2), 代入公式Z=F×[(A×t)-T]÷[T-(XR-XL)]中,得到,
Z2=F×[(A2×t)-T]÷[T-(XR2-XL2)]
ΔZ=Z2-Z1=F×{[(A2×t)-T]÷[T-(XR2-XL2)]-[(A1×t)-T]÷[T-(XR1- XL1)]}
根据[0019]中所述的同屏的充分必要条件A=[T÷(F×t)]×(Z+F)关注物体从立体深度Z1变化 到立体深度Z2时的动态影像放大率相应的变化ΔA可以通过下式获得,
ΔA=A2-A1=[T÷(F×t)]×ΔZ
A2=A1+[T÷(F×t)]×(Z2-Z1)
={[T-(XR1-XL1)]÷(F×t)}×Z1+(T÷t)+(T÷t)×{[(A2×t)-T]÷[T-(XR2-XL2)]-[(A1×t)-T]÷[T-(XR1-XL1)]}
当实景中一个关注物体从一个已知的立体深度Z1处移动到一个新的立体深度Z2处时, 同屏芯片通过定位追踪和测量指令得到关注物体新立体深度Z2处的视差P2=(XR2-XL2),代入 [0028]中所述的公式中,分别得到A2、Z2、ΔL和ΔA。同屏芯片使用平移左右两个镜头组ΔL 或改变动态影像放大率ΔA中的任何一种方法,都可以将关注物体的立体影像会聚点保持在屏幕 上。除了同屏芯片之外,还可以在移轴立体摄像机或周边装置上设置一个激光或红外测距仪获得 移动中的关注物体的立体深度。将激光或红外测距仪直接对准关注物体,激光或红外测距仪就可 以将移轴立体摄像机与关注物体之间的距离进行实时测量并在关注物体移动时同步地追踪关注 物体。同屏芯片根据激光或红外测距器获得的信息快速地对左右两个镜头组同步地进行平移或改 变动态影像放大率。无论使用上述任何一种方法,移轴立体摄像机对关注物体立体深度的变化反 应越快,平移镜头组或屏幕中立体影像的缩放反应速度就越快,眼睛对于同屏效果、质量和表现 就会更加自然,舒适和健康。
一个等效会聚点重设指令是通过立体播放器中一个物体的立体影像将立体影像对应的实景中的一个物体设置为一个新关注物体,实景中新关注物体所在的空间位置成为移 轴立体摄像机的一个新等效会聚点。因为这种确定一个新关注物体的方式很随机,所以绝大 部分新关注物体的空间位置都不在移轴同屏立体摄像机的中心轴线上,或新等效会聚点不在 中心轴线上。根据[0016]中所述的移轴立体摄像机的等效会聚平面是对等效会聚点定义和应 用的一种扩大。一个等效会聚物平面M(X,Y,Zconv)上的任何一个物体与等效会聚像平面M’ (X,Y,ZD)上对应的物体的立体影像会聚点满足立体立体空间线性传递函数。一个新关注物体 的物平面M(X,Y,Z)通过立体空间线性传递函数转换到对应的等效会聚像平面M’(X,Y,ZD)的 过程和步骤是:根据[0029]中所述的过程和方法,一个新关注物体被确定后,同屏芯片中定 位追踪和测量指令就可以确定新关注物体的立体深度Z2。让Z2=Zconv2,则新关注物体所 在的物平面M2(X,Y,Z2)就变换为新关注物体的等效会聚物平面M2(X,Y,Zconv2)。同屏芯片 通过改变屏幕中影像的动态影像放大率ΔA=(T÷t)×{[(A2×t)-T]÷[T-(XR2-XL2)]-[(A1×t)-T]÷[T-(XR1-XL1)]}的方式,使关注物体所在的等效会聚像平面M’2(X,Y,ZD)与平 面屏幕MD(X,Y,ZD)重合。
到目前为止,一台健康立体电视机通常对播放内容中主角的左右两个影像的视差设 置一个上限,其中一个最经常被使用的经验公式为ΔPrel=ΔPmax/W=1/30。尽管这种经验公 式能够使眼睛较长时间观看立体影像后不会明显地感觉疲劳,但是用现在的技术和观点看来经验 公式过于保守,无法真实地将实景中一个关注物体的立体深度表现出来。根据经验公式定义的健 康立体电视机让人有一种感觉不真实和不自然,对立体影像的众多应用造成了困扰和不便。本发 明提出了一个健康立体播放器的全新定义;播放内容中主角的立体影像会聚点始终保持在屏幕上 的一种立体播放器。这个定义彻底放弃了过去一直沿用至今的经验公式,同屏技术从根本上实现 了立体影像健康理念和效果。移轴立体摄像机获得立体影像在一个立体播放器中播放时,眼睛看 到的关注物体和周围环境的立体影像的立体深度是真实的,为基于立体影像的所有应用创建了一 个通用平台。一个立体播放器中设置一个同屏芯片,如果立体播放器中播放的内容来自于一个左 右两个镜头平行设置的立体摄像机,播放器就变成为一个健康立体播放器。观众可以较长时间观 看立体播放器中的内容而不会感觉眼睛疲劳或生理不适,而且能够与健康立体播放器中正在播放 的内容进行互动、感受参与其中的互动效果。互动的过程是,首先,播放内容中包括一个主角在 内的多个不同角色的影像被不同颜色的方框包围,观众使用遥控器确定其中的一个被方框包围的 角色或物体为新主角。然后,内容中原拍摄内容中的主角就被新主角替换了。眼睛的焦点从内容 中的原主角转移到一个新主角并跟随者新主角移动。新主角不断变化和移动过程中,新主角的立 体影像会聚点始终保持在屏幕上。眼睛较长时间观看新主角为主的内容并与新主角之间的互动后, 眼睛不会感觉疲劳,生理也不会感觉不适。但是,如果立体播放器中播放的内容来自于一个使用 会聚法拍摄的双目立体摄像机,眼睛的焦点平面与立体影像的像平面是无法完美重合。
定位追踪指令是实景中一个关注点或一条关注直线的左右两个影像中的左影像在左 右两个影像截图中的左影像截图中的位置被定位后,定位追踪该关注点或关注直线的右影像在左 右两个影像截图中的右影像截图中的位置。或一个相反的过程,实景中一个关注点或一条关注直 线的左右两个影像中的右影像在左右两个影像截图中的右影像截图中的位置被定位后,定位追踪 该关注点或关注直线的左影像在左右两个影像截图中的左影像截图中的位置。下面的定位追踪指 令和测量指令的说明中仅以一个关注点的左右两个影像在一个左右格式的影像截图中的定位追 踪和测量过程及方法为例。对于一个关注点的左右两个影像在左右两个影像截图中的定位追踪和 测量过程及方法与在一个左右格式的影像截图中的定位追踪和测量过程及方法相同。
定位追踪指令包括了影像定位、影像匹配和影像追踪三个不同的过程。首先,定位过程使用一个矩形方框将一个关注物体上的一个关注点或一条关注直线包围在其中,矩形方框的 四个周边分别与左右两个影像截图中的两个坐标轴相互平行,矩形方框的中心是矩形方框的同名 点。定位过程就是确定矩形方框的同名点分别在左右两个影像截图中的位置。包围一个关注点的 矩形方框是一个正方形方框,关注点也是正方形方框的同名点。包围一条关注直线的矩形方框是 一个长方形方框,关注直线是长方形方框的一个对角线。长方形方框的中心是关注直线的中点, 也是关注直线的同名点。第二,匹配过程是一种主要以特征匹配为主,结合其他匹配技术,例如 灰度匹配或其他。第三,匹配仅限于一个有限的矩形方框中的影像进行特征、灰度、对比、比较 和匹配的过程。匹配的内容包括左右两个影像分别与参照物、角点、边缘点、边缘线和其他几何 特征处之间的关系,矩形方框中的颜色特征、表面纹路、颜色和纹路变化模式和规律。第四,追 踪过程是当一个关注点或一条关注直线的左右两个影像被定位后,关注点或关注直线的影像移动 到一个新的位置时,自动追踪已经被定位和被矩形方框包围的关注点或关注直线的左右两个影像 分别在左右两个影像截图中任意时刻矩形方框的同名点的新位置、坐标、视差和与立体摄像机之 间的距离。一个关注点或一条关注直线的影像移动的原因可能是关注点或关注直线的位置发生了变化或立体摄像机的位置或角度发生了变化或两者同时发生了变化。
一个关注物体上的一个关注点的定位过程是:第一步,获得一个包括关注点的左右 两个影像的一个左右格式的影像截图;第二步,使用触屏笔点击屏幕上关注点的左影像,确定了 关注点的左影像在左影像截图中的横坐标XL;第三步,当关注点的左影像在左影像截图中的位置 位于一个具有几何特征的参照物影像上时,例如,一条非水平直线,一条曲线,物体表面上的几 何突变处或具有几何特征处,关注点的右影像在右影像截图中的横坐标XR位于一条通过XL并横 跨左右两个影像截图的水平直线上,与关注点的左影像在左影像截图中具有相同几何特征的参照 物影像的交点处。使用触屏笔点击并确定关注点的右影像在右影像截图中的横坐标XR。一个关 注点的左右两个影像在一个左右格式影像截图中的横坐标XL和XR就被确定了。
测量指令是根据两个彼此独立,相同和中心线彼此平行设置的镜头组与一个关注物 体之间构成的几何关系和移轴等效会聚法,建立一个关注物体上一个关注点的左右两个影像的视 差与关注点在实景中的空间坐标之间的关系。根据[0034]中所述的定位追踪指令获得并确定实景 中一个关注点的左右两个影像在一个左右格式的影像或左右两个影像的截图中的水平坐标XL和 XR后,测量指令则直接获得一个关注点的左右两个影像的视差为P=(XR-XL),则关注点在实 景中的空间坐标(X,Y,Z)对于移轴L的表达式是;
X=[(t-2L)×(XL+T/2)]÷[T-(XR-XL)]-t/2+L
Y=YL÷(m×A)=YR÷(m×A)
Z=[T×F×(t-2L)]÷{2L×[T-(XR-XL)]}
关注点在实景中的空间坐标(X,Y,Z)对于动态影像放大率A的表达式是;
X=[(t-T/A)×(XL+T/2)]÷[T-(XR-XL)]-t/2+T/2A
Y=YL÷(m×A)=YR÷(m×A)
Z=[F×(A×t-T)]÷[T-(XR-XL)]
上式中,m是镜头组的放大率。
一个立体影像测量过程从下面的两个步骤开始。第一步,从影像中获得一个包括了 关注物体表面上的一个或多个关注点,关注表面,关注体积,表面裂纹或受损表面凹凸部分的左 右格式的影像截图;第二步,菜单中选择本次测量的目地(不限于),点-摄像机、点-点、点 -直线、点-平面、表面面积、体积、表面裂纹、表面裂纹面积、表面裂纹横截面、表面受损参 数、表面受损面积、表面受损横截面和最大深度。
一个关注点a到摄像机镜头的距离的测量过程和方法:第一步,从影像中获得一个左 右格式的影像截图;第二步,菜单中选择“点-摄像机”;第三步,使用触屏笔点击并确定关注 点a的左影像在左影像截图中的横坐标XLa,屏幕上将自动出现一条通过XLa坐标处并横跨左右两 个影像截图的水平线;第四步,使用触屏笔在右影像截图的水平线上点击并确定关注点a的右影 像在右影像截图中的横坐标XRa。一个关注点a到摄像机的距离为;
Dc=√[xa2+ya2+(za-c)2]
其中,c为摄像机中心到物镜外表面中心的距离。
两个关注点a和b之间的距离的测量过程和方法:第一步,从影像中获得一个左右格 式的影像截图;第二步,菜单中选择“点-点”;第三步,分别确定两个关注点a和b的左右两 个影像在左右两个影像截图中的横坐标XLa,XRa,XLb和XRb。两个关注点a和b之间的距离为;
Dab=√[(xb-xa)2+(yb-ya)2+(zb-za)2]
一个关注点a到一条空间直线的距离的测量过程和方法:第一步,从影像中获得一个 左右格式的影像截图;第二步,菜单中选择“点一线”;第三步,分别确定关注点a的左右两个 影像在左右两个影像截图中的横坐标XLa和XRa;第四步,分别确定空间中一条直线上的两个特 征点b和c的左右两个影像在左右两个影像截图中的横坐标XLb,XRb,XLc和XRc。一个关注点a 到一条经过了两个特征点b和点c的直线的距离为;
Da-bc=√{[xa-λ(xc-xb)-xb]2+[ya-λ(yc-yb)-yb]2+[za-λ(zc-zb)- zb)]2}
其中,λ=[(xb-xa)×(xc-xb)+(yb-ya)×(yc-yb)+(zb-za)×(zc-zb)]÷ [(xc-xb)2+(yc-yb)2+(zc-zb)2]
一个关注点a到一个空间平面的距离的测量过程和方法:第一步,从影像中获得一个 左右格式的影像截图;第二步,菜单中选择“点-平面”;第三步,分别确定关注点a的左右两 个影像在左右两个影像截图中的横坐标XLa和XRa;第四步,分别确定位于一个空间平面上但不 在一条直线上的三个特征点b,c和d的左右两个影像在左右两个影像截图中的横坐标XLb,XRb, XLc,XRc,XLd和XRd。一个关注点a到一个包括了不在一条直线上的三个特征点b,c和d的平面 的距离为;
Da-(bcd)=[I Axa+Bya+Cza+D I]÷√(A2+B2+C2)
其中,A,B,C由下面的行列式中获得,D=-(Axb+Byb+Czb)
在触模屏幕上移动触屏笔,手指或鼠标从一个像素点到下一个相邻像素点的三种不 同路径分别是沿着水平方向,垂直方向和一个以水平和垂直像素为直角边的三角形斜边方向。触 模屏幕上的一条曲线可以近似地看做是由一条众多个彼此相邻的像素之间的水平直线,垂直直线 和相邻的两个像素之间的水平和垂直线为直角边的三角形斜边拼接而成的拼接曲线。触模屏幕的 分辨率PPI越大,一条曲线的实际长度与一条拼接曲线的长度就越接近。同样,一条闭环曲线包 围的面积与一条闭环拼接曲线包围的所有像素单元面积的总和就越接近。两个相邻像素之间的水 平距离为a,垂直距离为b,一个闭环拼接曲线包围的所有像素面积的总合为Ω=∑(a×b)+∑(a ×b)÷2。关注物体的实际表面面积为Q=Ω÷(m2×A×B),其中,A是动态影像放大率或水平 动态影像放大率,B是垂直动态影像放大率。
一个关注表面面积的测量过程和方法:第一步,从影像中获得一个左右格式的影像 截图;第二步,菜单中选择“面积”,系统将自动地保留其中的一个影像截图并放大至全屏幕; 第三步,使用触屏笔在屏幕中沿着关注表面的影像边缘画出一个闭环拼接曲线,闭环拼接曲线包 围的影像面积是关注表面影像的面积。关注表面面积是关注表面影像的面积除以(m2×A×B)。
根据[0042]中所述的关注表面面积只是关注表面的实际面积在一个与立体摄像机中 心轴线(Z轴)垂直的平面上投影的面积。第四步,回到左右格式的影像截图中,当关注物体表面 是一个平面或曲率半径与表面长度相比大很多的一个曲面时,分别确定平面表面上三个不在同一 条直线上的特征点b,c和d的左右两个影像在左右两个影像截图中的横坐标XLb,XRb,XLc,XRc, XLd和XRd。一个关注表面的实际面积等于上述[0042]中所述的方法获得的关注表面面积除以关 注物体表面的法向矢量N与立体摄像机中心轴线(Z轴)之间夹角的余弦。
一个关注平板体积的测量过程和方法:第一步,从影像中获得一个左右格式的影像 截图;第二步,菜单中选择体积;第三步,根据上述所述[0043]中所述的方法获得关注平板表面 的实际面积;第四步,当关注平板是一个曲率半径与表长度相比大很多的一个曲面时,分别确定 关注平板上两个具有典型厚度的特征点a和b的左右两个影像在左右两个影像截图中的横坐标 XLa,XRa,XLb和XRb。一个关注平板的厚度等于两个特征点a和点b之间的距离乘以矢量ab与 关注平板表面的法向矢量N之间夹角的余弦。一个关注平板的实际体积等于上述第三步中获得 的关注平板表面的实际面积乘以上述第四步中获得的平板的厚度。
一个物体表面裂纹横截面的测量过程和方法:第一步,调整立体摄像机中心轴线的 位置和方向与裂纹的纵向方向一致并与物体表面平行,当触模屏幕中看到一个具有典型特征和感 兴趣的裂纹横截面开口时采集一个左右格式的影像截图;第二步,使用触屏笔分别确定关注物体 表面与裂纹横截面开口的左右两个边缘处的两个交点a和b的左右两个影像在左右两个影像截图 中的横坐标XLa,XRa,XLb和XRb;第三步,菜单中选择“裂纹横截面”,系统将自动地保留其 中的一个影像截图并放大至全屏幕。使用触屏笔在裂纹横截面开口的左右两个边缘上分别确定多 个具有拐点,转折点和峰值点的特征点的横坐标XL1,XL2,XL3,......和XR1,XR2,XR3,...…。 裂纹开口左边缘上的特征点XL#和裂纹开口右边缘上的特征点XR#之间没有任何关系。每一个特 征点XL#和XR#的横坐标与上述的两个交点a和b在同一个裂纹横截面上,所有裂纹横截面的左右 两个开口边缘上的特征点的视差与点a和点b的视差相同,或点a和点b的会聚深度坐标ZC与裂纹 横截面的左右两个裂纹开口边缘上所有特征点的立体影像深度坐标ZC是相同的。裂纹横截面的 开口左边缘是由点a为起点的依次连接着裂纹横截面开口左边缘上所有彼此相邻特征点XL#的直 线组成。裂纹横截面的开口右边缘是由点b为起点的依次连接着裂纹横截面开口右边缘上所有彼 此相邻特征点XR#的直线组成。裂纹横截面的左右两个边缘形成一个“V”字状的横截面开口。 选择的特征点愈多,裂纹横截面的边缘与实际裂纹横截面的边缘愈接近。点a与裂纹横截面开口 左边缘上每一个特征点XL#之间的垂直距离YL#和点b与裂纹横截面开口右边缘上每一个特征点XR#之间的垂直距离YR#,点a与点b之间的距离或裂纹横截面宽度都列在横截面图上。
一个物体表面凹凸部分横截面和最大深度的测量过程和方法:这里仅以物体表面受 损或腐蚀造成的凹陷为例进行说明。第一步,调整立体摄像机中心线的位置和方向与物体表面平 行,当屏幕中看到了物体表面凹陷中具有典型特征和感兴趣的部分时采集一个左右格式的影像截 图,保留其中的一个影像截图并放大至全屏幕;第二步,分别确定物体表面与受损横截面边缘相 交的两个交点a和b的左右两个影像在左右两个影像截图中的横坐标XLa,XRa,XLb和XRb;第三 步,菜单中选择“受损横截面”,并在菜单的下一层指令中输入受损表面的曲率半径+R,(凸 曲面)或-R(凹曲面)。屏幕上将出现一个通过点a和点b的一条曲率半径为R的曲线。如果受损表 面的曲率半径无法获得,使用触屏笔在两个交点a和b之间画出一条拼接曲线。拼接曲线与点a的 左边表面曲线和点b的右边表面曲线平滑地链接在一起。第四步,使用触屏笔在两个交点a和b之 间沿着横截图中受损部分边缘画出一条拼接曲线。受损横截面的闭环拼接曲线是由一条包括了点 a和点b之间的一条曲率为R的曲线和一条拼接曲线组成。第五步,回到左右两个影像截图中,在 拼接曲线上点击并确定受损截面最低点C的横坐标XLc和XRc。一个物体表面受损横截面的面积, 点a和点b之间的距离及分别距离横截面最低点c的垂直距离YC都列在横截面图上。
实际测量过程中,当遇到测量目的和要求与上述基本测量方法不同的情况时、需要 根据不同的情况提出不同的和合理的测量方法和解决方案。新的测量方法和解决方案可以是上述 基本测量方法的组合或其它新的方法。
上述[0037]到[0040]中所述的基本测量方法在使用中,一个关注点的右影像在右影 像截图中的定位过程中依靠使用者的人工判定、准确度不高、效率较低、而且速度慢。同屏芯片 中定位追踪指令将自动地定位追踪关注点的右影像在右影像截图中的位置,彻底地摆脱了手工确 定的过程和工作,使得立体影像的实时定位追踪过程变得更简单、更高效率、更人性化、精确和 更快速。
同屏芯片的测量过程和方法是;首先,手动方式确定一个关注点的左影像在一个左 右格式的影像截图中的左影像截图中的横坐标XL。同屏芯片将对关注点的左右两个影像围绕着 同名点处的相同特征进行匹配,获得同名点在右影像截图中的横坐标XR,关注点的视差P=(XR -XL)和测量结果。
同屏芯片对于一个关注点a到摄像机镜头距离的测量过程和方法:第一步,从影像中 获得一个左右格式的影像截图;第二步,菜单中选择“点-摄像机”;第三步,使用触屏笔点击 并确定点a的位置。同屏芯片将计算出一个关注点a到两个摄像机物镜外表面上中点连线的中点 的距离为;
Dc=√[xa2+ya2+(za-c)2]
同屏芯片对于两个关注点a和b之间距离的测量过程和方法:第一步,从影像中获得 一个左右格式的影像截图;第二步,菜单中选择“直线/直径/高度”;第三步,使用触屏笔点击 并确定点a的位置并保持触屏笔在屏幕上滑动到点b的位置。同屏芯片将计算出两个关注点a和b 之间的距离为;
Dab=√[(xb-xa)2+(yb-ya)2+(zb-za)2]
同屏芯片对于一个关注点a到一条空间直线的距离的测量过程和方法:第一步,从影 像中获得一个左右格式的影像截图;第二步,菜单中选择“点-线”;第三步,使用触屏笔点击 并确定点a的位置;第四步,使用触屏笔点击并确定位于一条直线上的点b的位置并保持触屏笔 在屏幕上滑动到点c的位置。同屏芯片将计算出一个关注点a到一条经过了两个特征点b和点c的 直线的距离为;
Da-bc=√{[xa-λ(xc-xb)-xb]2+[ya-λ(yc-yb)-yb]2+ [za-λ(zc-zb)-zb)]2}
同屏芯片对于一个关注点a到一个空间平面的距离的测量过程和方法:第一步,从影 像中获得一个左右格式的影像截图;第二步,菜单中选择“点-平面”;第三步,使用触屏笔点 击并确定点a的位置;第四步,使用屏幕笔点击并确定点b的位置并保持触屏笔在屏幕上连续滑 动到点c和点d的位置,其中点b,点c和点d是不都在一条直线上的三个点。同屏芯片将计算出一 个关注点a到一个包括了不都在一条直线上的三个特征点b,c和d的平面距离为;
Da-(bcd)=[I Axa+Bya+Cza+D I]÷√(A2+B2+C2)
移轴指令是当一个位于移轴立体摄像机中心轴线上的关注物体的立体深度Z发生变 化ΔZ时,同步地确定移轴立体摄像机中左右两个镜头组沿着一条位于左右两个镜头组中心线构 成的一个平面上并与两个镜头组中心线垂直的直线方向上平移的变化ΔL=[(F×t)/2]×[1/(Z2+ F)-1/(Z1+F)]。根据[0029]中所述的过程和方法,当实景中一个关注物体从一个已知的立体深 度Z1处移动到一个新立体深度Z2处时,同屏芯片通过定位追踪和测量指令得到关注物体在新立 体深度Z2处的视差P2=(XR2-XL2)、带入[0028]中所述的公式中得到Z2=F×[(A2×t)-T)]÷ [T-(XR2-XL2)]和移轴变化ΔL=[(F×t)/2]×[1/(Z2+F)-1/(Z1+F)]。同屏芯片将左右两个镜 头组的移轴变化ΔL指令输出到一个移轴装置后,移轴装置对左右两个镜头组同步地进行平移。 同屏芯片对左右两个镜头组同步地进行平移变化ΔL的同时,关注物体的立体影像会聚点会逐渐 地接近屏幕,最终到达屏幕并保持在屏幕上。这个过程执行速度愈快,眼睛感觉立体影像出现在 屏幕上的影像质量和效果就会更稳定、连续、自然和舒适。
动态影像放大指令是根据一个位于移轴同屏立体摄像机中心轴线上的关注物体的立 体深度Z发生变化ΔZ时,同步地确定动态影像放大率A=[T÷(F×t)]×(Z+F)和动态影像放大 率变化ΔA=[T÷(F×t)]×ΔZ。根据[0029]中所述的过程和方法,当实景中一个关注物体从一个 已知的立体深度Z1处移动到一个新立体深度Z2处时,同屏芯片通过定位追踪和测量指令得到关 注物体在新立体深度Z2处的视差P2=(XR2-XL2),带入[0028]中所述的公式中得到新位置处的 动态影像放大率A2={[T-(XR1-XL1)]÷(F×t)}×Z1+(T÷t)+(T÷t)×{[(A2×t)-T]÷[T- (XR2-XL2)]-[(A1×t)-T]÷[T-(XR1-XL1)]}和动态影像放大率变化ΔA=(T÷t)×{[(A2×t) -T]÷[T-(XR2-XL2)]-[(A1×t)-T]÷[T-(XR1-XL1)]}。同屏芯片改变动态影像放大率变化 ΔA的同时,关注物体的立体影像会聚点会逐渐地接近屏幕、最终到达屏幕并保持在屏幕上。这 个过程执行速度愈快,眼睛感觉立体影像出现在屏幕上的影像质量和效果就会更稳定、连续、自 然和舒适。
同屏芯片不仅应用于移轴立体摄像机,而且可以应用于所有由左右两个彼此独立、 相同、中心线彼此平行设置的镜头组的立体摄像机。设置有一个同屏芯片的立体摄像机采集的立 体影像与使用移轴立体摄像机获得的立体影像具有同样的立体效果。
本发明提出的一种移轴立体摄像机不仅解决了目前立体摄像机采集和播放立体影像 过程中存在的问题,拥有高度集成的结构设计,人性化的操作方法,而且具有操作简单、影像还 原度高、影像延迟小、成本较低、易于推广和普及的特点。
附图说明
图1-1一个立体影像采集空间示意图;
图1-2一个立体影像播放空间示意图;
图2-1会聚法拍摄原理示意图;
图2-2平行法拍摄原理示意图;
图2-3移轴同屏等效会聚法拍摄原理示意图;
图3移轴同屏等效会聚法拍摄空间任意一点的视差原理示意图;
图4-1立体影像会聚点位于屏幕上示意图;
图4-2立体影像会聚点位于屏幕前方示意图;
图4-3立体影像会聚点位于屏幕后方示意图;
图4-4眼睛焦平面与立体影像会聚点像平面同屏原理示意图;
图5-1移轴前,图像传感器与最小成像圆相对位置示意图;
图5-2移轴后,图像传感器与最小成像圆相对位置示意图;
图6一个关注点的左右两个影像在左右两个影像截图中定位示意图。
图7测量一个关注点到立体摄像机的距离示意图;
图8测量两个关注点之间的距离示意图;
图9测量一个关注点到一条直线的距离示意图;
图10测量一个关注点到一个平面的距离示意图;
图11测量一个平面物体表面面积示意图;
图12测量一个平板物体体积示意图;
图13-1采集一个表面裂纹横界面示意图;
图13-2测量一个表面裂纹横截面示意图;
图14-1采集一个表面受损凹陷横截面示意图;
图14-2测量一个表面受损凹陷横截面示意图。
具体实施方式:
本发明的具体实施方式表示本发明具体化的一个例子,与权利要求书和说明书中的内容和 特定事项具有对应关系。本发明不限定实施方式,在不脱离本发明主旨的范围内,能够通过对各 种不同的实施方式实现具体化。所有示意图中的说明案例都是所述的多个可实施技术方案中的一 个例子。
图1-1所示的是一个立体影像采集空间示意图。左右两个摄像机1和2同时围绕着摄像 机镜头中心向内角方向转动,直到左右两台摄像机1和2的中心线同时会聚到实景中一个关注物 体5上时开始拍摄。关注物体的左右两个影像在左右两个摄像机的图像传感器3和4的成像表面的 中心成像。这种拍摄立体影像的方法称为会聚法。左右两个摄像机1和2的镜头中心线之间的距 离为t。关注物体6前方的物体称为前景物6,后方的物体称为后景物7。立体影采集空间的坐标系 原点(0,0,0)位于左右两个摄像机1和2的中心的连线的中点处。
图1-2所示的是一个立体影像播放空间示意图。左右两个摄像机1和2采集的左右两 个影像被同时投射到一个平面屏幕10上。平面屏幕的水平长度为W。左右两个影像在屏幕上的 投影12和13之间的水平距离是左右两个影像的视差P。当人的左眼8和右眼9分别只能看到屏幕 10上左影像和右影像的投影12和13时,大脑中将左眼8和右眼9分别看到的左右两个影像的投影 12和13进行融合后就会感受到关注物体5、6和7对应的立体影像会聚点分别出现在屏幕上11、屏 幕前方14和屏幕后方15的位置处。立体影像播放空间的坐标系原点(0,0,0)位于双眼8和9之间的 连线(瞳距)的中点处。
根据图1-2所示的几何关系得到下面关系式,
ZC=(ZD×T)÷(T-P) (1)
其中,ZC-左右两个影像会聚点的立体深度(Z坐标)
ZD-屏幕的立体深度(Z坐标)(坐标系中点与屏幕的距离)
T-人双眼之间的距离(瞳距)
P-视差,左右两个影像在屏幕上的投影12和13之间的水平距离
ΔP=Pmax-Pmin=T×ZD×(1/Zcnear-1/Zcfar) (2)
其中:Pmax-左右两个影像在屏幕上的投影12和13之间的最大视差
Pmin-左右两个影像在屏幕上的投影12和13之间的最小视差
Zcnear-左右两个影像的会聚点最小立体深度(Z坐标)(P<0负视差)
Zcfar-左右两个影像的会聚点最大立体深度(Z坐标)(P>0正视差)
让,Prel=ΔP/W
其中:Prel-屏幕水平单位长度的视差变化
W-屏幕有效播放面积的水平长度
图2-1所示的是会聚法的拍摄原理示意图。图中,左右两个摄像机1和2同时围绕着摄 像机镜头中心向内角方向转动,直到左右两台摄像机1和2的中心线同时会聚到实景中一个位于 立体摄像机中心轴线上的关注物体5上时开始拍摄。关注物体5的左右两个影像成像在左右两个 图像传感器3和4的成像表面的中心。
图2-2所示的是平行法的拍摄原理示意图。图中,左右两个摄像机1和2中心线彼此平 行设置,采集一个位于立体摄像机中心轴线上的关注物体5的立体影像。关注物体5的左右两个 影像在左右两个图像传感器3和4上的成像不在左右两个图像传感器3和4的成像表面的中心。
图2-3所示的是移轴等效会聚法的拍摄原理示意图。图中,左右两个摄像机1和2中心线彼此平行设置,采集一个位于立体摄像机中心轴线上的关注物体5的立体影像。拍摄前, 将左右两个镜头组1和2分别沿着水平方向上朝着彼此相对的方向上平移L=[(F×t)/2]÷(Zconv +F)]的距离,左右两个镜头组中心线由16的位置平移到17的位置。关注物体5的左右两个影像 就能够分别成像在左右两个图像传感器3和4的成像表面的中心。图中,关注物体5与一个位于中 心轴线上的点M重合,该点M的立体深度为Zconv,称为立体摄像机的等效会聚点M(0,0,Zconv)。
图3所示的是移轴等效会聚法的原理示意图。图中,中心轴线上的一个关注物体5的 位置与立体摄像的等效会聚点M(0,0,Zconv)重合。拍摄前,首先将左右两个镜头组1和2分别朝 向彼此相对的方向上平移L=[(F×t)/2]÷(Zconv+F)]的距离,使得关注物体5的左右两个影像 分别成像在左右两个图像传感器3和4的成像表面的中心。立体摄像机的初始状态就被设定完成。 空间中任意一点处的一个物体18的左右两个影像分别成像在左右两个图像传感器3和4成像表面 上。根据图3所示的几何关系我们得到下面关系式,
d1+L=F×[x+(t/2-L)]÷Z (3a)
d2-L=F×[x-(t/2-L)]÷Z (3b)
Δd=d2-d1=2L-[F×(t-2L)]÷Z (4)
其中,Δd-空间中任意一个物体18在左右两个图像传感器上成像后的视差
L-一个镜头组沿着水平方向上平移的距离
t-左右两个摄像机初始设定时中心线之间的距离
F-摄像机镜头的等效焦距
Z-空间中任意一个物体18的立体深度(Z坐标)
Zconv-等效会聚点M的立体深度(Z坐标)
根据公式(4)推得下式;
Δd=dmax-dmin=[F×(t-2L)]×(1/Znear-1/Zfar) (5)
其中:dmax-左右两个影像在左右两个图像传感器上的最大视差
dmin-左右两个影像在左右两个图像传感器上的最小视差
Znear-空间中的一个物体18在最小视差时的立体深度(Z坐标)
Zfar-空间中的一个物体18在最大视差时的立体深度(Z坐标)
定义,drel=Δd/w
其中:dre-图像传感器成像表面水平方向上单位长度的视差变化
w-图像传感器影像成像表面上动态有效成像的水平长度
让,Prel=drel
推得:t=[(T×ZD)÷(A×F)]×[(1/Zcnear-1/Zcfar)÷(1/Znear-1/Zfar)]+T/A (6)
其中:A-动态影像放大率,W/w
公式(6)表明,双目立体摄像机拍摄时,立体摄像机的视间距设定与人双眼之间的距离(瞳距)是不相等的。
让:P=A×Δd,并代入公式(1)中:
得到:ZC=(ZD×T)÷(T-P)=(ZD×T)÷(T-A×Δd)
=(ZD×T×Z)÷{A×F×(t-2L)-[(2A×L)-T]×Z} (7)
公式(7)表明,ZC与Z之间不是线性关系。理想成像是立体影像采集空间中任意一点,一 条直线和一个平面对应着立体影像播放空间中唯一的一个点,一条直线和一个平面对应的立体影 像会聚点。理想成像的充分和必要条件是实景中一个关注物体的立体深度Z与关注物体的立体影 像会聚点的立体深度Zc之间是线性关系。公式(7)表明,ZC与Z之间的线性关系的充分必要条 件是,
(2A×L)-T=0或L=T÷(2A)
公式(7)被线性化后简化成为下式,
ZC=ZD×{T÷[(A×F×(t-2L)]}×Z (8)
公式(8)被称为立体空间线性传递函数,实景中一个关注物体的立体深度Z与关注物体 的两个影像会聚点ZC的立体深度之间满足立体空间线性传递函数公式。
图4-1所示的是立体影像会聚点位于屏幕上示意图。图中,当立体摄像机的等效会聚 点M(0,0,Zconv)被设置在关注物体5的位置时(见图1),关注物体5的左右两个影像在屏幕10 上的投影12和13是重合的,左右两个影像的视差P=0,关注物体5的立体影像会聚点11位于在 屏幕10上。
图4-2所示的是立体影像会聚点位于屏幕前方示意图。图中,当立体摄像机的等效会 聚点M(0,0,Zconv)被设置在一个前景物6的后方时(见图1),前景物6的左右两个影像在屏幕 10上的投影12和13的位置与左右眼睛的相对位置是反向交叉状态,左右两个影像的视差P<0。 前景物6的立体影像会聚点14出现在屏幕的前方(出屏)。
图4-3所示的是立体影像会聚点位于屏幕后方示意图。图中,当立体摄像机的等效会 聚点M(0,0,Zconv)被设置在一个后景物7的前方时(见图1),后景物7的左右两个影像在屏幕 10上的投影12和13的位置与左右眼睛的相对位置是正向无交叉状态,左右两个影像的视差P>0。 后景物7的立体影像会聚点15出现在屏幕的后方。
图4-4所示的是像平面与屏幕重合的同屏原理示意图。图中,关注物体5与立体摄像 机的等效会聚点M(0,0,Zconv)重合(见图1)。当关注物体5移动时,同屏芯片通过平移左右两 个镜头组1和3或改变屏幕放大率A的方式,使关注物体5的左右两个影像会聚点11始终保持在屏 幕10上。
图5-1所示的是移轴前,图像传感器与最小成像圆相对位置示意图。图中,一个图像 传感器的有效成像表面3或4被一个垂直中心线为16,半径为r的成像圆19覆盖。图像传感器有效 成像表面3或4的中心与成像圆19的中心重合。图像传感器的有效成像表面3或4的水平长度为w, 垂直高度为v。
图5-2所示的是移轴后,图像传感器与最小成像圆相对位置示意图。移轴时,成像圆 19沿着水平方向朝右方向上平移了L的距离,图像传感器的有效成像表面3或4的位置保持不变。 移轴后,成像圆19在新位置处的垂直中心线17与移轴前成像圆19的垂直中心线16之间的水平距 离为L。成像圆19的最小成像圆直径为;
Dmin=2R=2√[(w/2+L)2+(v/2)2]
图6所示的是一个关注点的左右两个影像在左右两个影像截图中的位置示意图。图中, 一个关注点a的左影像20在左右两个影像截图中的左影像截图22中的横坐标为XL,根据符号规则, XL<0。关注点a的右影像21左右两个影像截图中的右影像截图23中的横坐标为XR,XR>0。关 注点a的左影像20在左影像截图22和右影像21在右影像截图23中的位置都位于同一个横跨屏幕 的水平线24上。关注点a的左影像20在左影像截图22中的纵坐标YL与右影像21在右影像截图23 中的纵坐标YR相等。
一个关注点a的左右两个影像20和21在左右两个影像截图22和23中的视差为P=(XR- XL),代入公式(1)中得到;
ZC=ZD×T÷(T-P)=(ZD×T)÷[T-(XR-XL)] (9)
将公式(8)代入公式(9)中,简化后得到,
Z=[A×F×(t-2L)]÷[T-(XR-XL)] (10)
公式(3a)经过变换后得到,
X=[Z×(d1+L)÷F]-t/2+L (11)
将d1=XL/A,L=T/2A和公式(10)带入公式(11)中,简化后得到,
X=[(t-2L)×(XL+T/2)]÷[T-(XR-XL)]-t/2+L (12)
一个关注点a在实景中的空间座标a(x,y,z)是;
X=[(t-2L)×(XL+T/2)]÷[T-(XR-XL)]-t/2+L
Y=YL÷(m×A)=YR÷(m×A)
Z=[A×F×(t-2L)]÷[T-(XR-XL)]
上述是一个关注点在实景中的空间坐标是对于移轴L的表达式,关注点在实景中的空间 坐标对于动态影像放大率A的表达式是;
X=[(t-T/A)×(XL+T/2)]÷[T-(XR-XL)]-t/2+T/2A
Y=YL÷(m×A)=YR÷(m×A)
Z=[A×F×(t-T/A)]÷[T-(XR-XL)]
图7所示的是测量一个关注点到立体摄像机的距离示意图。跟据[0070]中所述的过程 和方法,确定一个关注点a的左右两个影像18和19分别在左右两个影像截图20和21中的横坐标 XLa和XRa。一个关注点a到立体摄像机1和2物镜外表面中心连线中点的距离为;
Dc=√[xa2+ya2+(za-c)2]
其中,c为摄像机1或2的镜头中心到物镜表面中心的距离。
图8所示的是测量两个关注点之间的距离示意图。跟据[0070]中所述的过程和方法, 分别确定两个关注点a和b的左右两个影像18和19在左右两个影像截图20和21中的横坐标XLa, XRa,XLb和XRb。两个关注点a和b之间距离为;
Dab=√[(xb-xa)2+(yb-ya)2+(zb-za)2]
图9所示的是测量一个关注点到一条通过了两个特征点的一条直线的距离示意图。第 一步,跟据[0070]中所述的过程和方法,分别确定一个关注点a的左右两个影像18和19在左右两 个影像截图20和21中的横坐标XLa和XRa。第二步,分别确定位于一条直线上的两个特征点b和c 的左右两个影像18和19在左右两个影像截图20和21中的横坐标XLb,XRb,XLc和XRc。一个关 注点a到一条通过了两个特征点b和c的一条直线的距离为;
Da-bc=√{[xa-λ(xc-xb)-xb]2+[ya-λ(yc-yb)-yb]2+[za-λ(zc-zb)- zb)]2}
其中,λ=[(xb-xa)×(xc-xb)+(yb-ya)×(yc-yb)+(zb-za)×(zc-zb)]÷ [(xc-xb)2+(yc-yb)2+(zc-zb)2]
图10所示的是测量一个关注点到一个平面的距离示意图。第一步,跟据[0070]中所 述的过程和方法,分别确定一个关注点a的左右两个影像20和21在左右两个影像截图22和23中的 横坐标XLa和XRa。第二步,在平面25上分别确定不都在同一条直线上的三个特征点b,c和d的 左右两个影像20和21在左右两个影像截图20和21中的横坐标XLb,XRb,XLc,XRc,XLd和XRd。 一个关注点a到一个包括了三个特征点b,c和d的一个平面25的距离为;
Da-(bcd)=[I Axa+Bya+Cza+D I]÷√(A2+B2+C2)
其中,A,B,C由下面的行列式中获得,D=-(Axb+Byb+Czb)
图11所示的是测量一个平面物体表面面积示意图。一个被一条闭环曲线26包围的关 注平面27的表面面积的测量方法和步骤;第一步,跟据[0042]和[0043]中所述的过程和方法, 使用触屏笔在触摸屏幕上画出一条包括了一个关注平面27表面面积的一条闭环曲线26。获得被 一条闭环曲线26包围的平面表面27的面积。第二步,跟据[0040]中所述的过程和方法,分别确 定包括了关注平面27的表面上不都在一条直线上的三个特征点b,c和d的左右两个影像20和21 在左右两个影像截图22和23中的横坐标XLb,XRb,XLc,XRc,XLd和XRd。一个关注平面27的 表面实际面积等于第一步中获得的正投影面积除以由关注平面27表面上的三个特征点b,c和d确 定的一个法向矢量N与Z轴之间夹角的余弦。
图12所示的是测量一个平板物体体积示意图。一个关注平板的体积的测量方法和步骤;第一步,根据[0075]中所述的过程和方法,获得一个关注平板28的表面29的实际面积。 第二步,根据[0044]中所述的过程和方法,获得关注平板28上的两个具有厚度特征点a和b处 的实际厚度等于两个特征点H和K的长度乘以两个特征点构成的矢量HK与关注平板28的表 面法向矢量N之间夹角的余弦。一个关注平板28的实际体积等于关注平板28的表面29的实际 面积乘以实际厚度。
图13-1所示的是采集一个表面裂纹横截面示意图。图中,一个关注物体表面上出现了一个裂纹30。表面裂纹横截面31处的开口形状和深度的测量方法和步骤:根据[0045]中 所述的过程和方法,第一步,调整立体摄像机1和2的中心轴线与裂纹30的纵向方向一致并与 物体表面平行。从屏幕中看到物体表面裂纹横截面31中一个具有代表性的位置时采集一个左 右格式的影像截图。
图13-2所示的是测量一个表面裂纹横截面示意图。第二步,确定裂纹横截面31处裂 纹30的左右两个边缘与关注物体表面的两个交点a和b之间的距离V,V为裂纹30在裂纹横截面31 处的表面裂纹宽度。第三步,使用触屏笔,手指或鼠标分别确定裂纹横截面31左边缘上的特征 点XL1,XL2,XL3,......和右边缘上的特征点XR1,XR2,XR3,......。裂纹横截面31左右两个 边缘分别以点a和点b为起点依次分别连接裂纹横截面29左右边缘上彼此相邻特征点XL#和XR# 的直线段组成。每一个特征点XL#和XR#与点a和点b之间的垂直高度yL#和yR#分别代表了该特征 点距离关注物体表面的深度。
图14-1所示的是采集一个表面受损凹陷横截面示意图。图中,一个关注物体表面上出现了一个凹陷部分32。物体表面凹陷部分32的横截面33的测量方法和步骤:根据[0046] 中所述的过程和方法,第一步,调整立体摄像机1和2的中心轴线与物体凹陷处周围表面平行 并在触模屏幕中看到物体表面凹陷32中一个具有代表性的部分时采集一个左右格式的影像截 图。
图14-2所示的是测量一个表面受损凹陷横截面示意图。第二步,确定横截面33与物 体表面的两个交点a和b之间的距离U。第三步,在触模屏幕的菜单中选择“受损横截面”并输入 物体表面在受损部分横截面处的曲率半径+R(凸曲面)或-R(凹曲面)。触摸屏幕上将出现一个 通过点a和点b和曲率半径为R的曲线34。第四步,使用触屏笔,手指或鼠标在两个交点a和b之 间沿着影像截图中凹陷部分边缘画出一条曲线35。物体表面上的一个凹陷横截面33上的一条闭 环曲线是由一条曲率半径为R的曲线34和凹陷部分影像边缘的一条曲线35组成。第五步,在一个 影像截图中确定横截面33的最低点c的位置。点a和点b分别距离点c之间的深度ya和yb以及横截 面33的面积(图中阴影部分)。
Claims (2)
1.一种移轴立体摄像机,其特征在于,所述的一种移轴立体摄像机包括左右两个彼此独立,相同,中心线彼此平行设置的镜头组,一个或左右两个相同的图像传感器,一个移轴装置,一个影像处理器和一个同屏芯片组成;一个移轴立体摄像机中左右两个镜头组采集的一个位于立体摄像机中心轴线上的关注物体的左右两个影像分别在一个图像传感器的左半部和右半部成像表面上或左右两个图像传感器成像表面上成像,但是关注物体的左右两个影像在图像传感器成像表面上的成像都不在一个图像传感器的左半部和右半部成像表面的中心或左右两个图像传感器成像表面的中心;所述的一个同屏芯片沿着一条位于左右两个镜头组中心线构成的一个平面上,并与两个镜头组中心线垂直的直线方向上,通过所述的一个移轴装置对左右两个镜头组朝向彼此相对或相反的方向上进行平移,使关注物体的左右两个影像分别成像在一个图像传感器的左半部和右半部成像表面的中心或左右两个图像传感器成像表面的中心;移轴立体摄像机在初始设定时,同屏芯片按照关系式L=[(F×t)/2]÷(Zconv+F)通过移轴装置对左右两个镜头组进行平移,当关注物体移动时,同屏芯片按照关系式L=[(F×t)/2]÷(Z+F)通过移轴装置同步地对左右两个镜头组进行平移,左右两个镜头组被平移后,关注物体的立体影像会聚点位于屏幕上,关注物体的立体深度与关注物体的立体影像会聚点的立体深度之间满足一组线性数学关系式;同屏芯片也可以通过改变动态影像放大率A=[T÷(F×t)]×(Z+F)和动态影像放大率变化ΔA=[T÷(F×t)]×ΔZ的方式使关注物体的立体影像会聚点保持在屏幕上;所述的一个影像处理器是一个设置有一个或二个影像处理芯片ISP,一个集成和存储有多条指令由影像处理器加载并执行的一个同屏芯片组成的装置;所述的一个同屏芯片是一个集成和存储有多条指令,包括一个定位追踪指令,一个测量指令,一个移轴指令,一个动态影像放大指令和一个等效会聚点重设指令的芯片,同屏芯片中的上述指令由影像处理器加载并执行;上述公式中,L是左镜头组或右镜头组平移的距离,T是人的双眼之间的距离即瞳距,F是镜头组的焦距,t是左右两个镜头组初始设定时中心线之间的距离,Zconv是移轴立体摄像机的等效会聚点的立体深度,Z是实景中一个关注物体的立体深度。
2.根据权利要求1所述的一种移轴立体摄像机,其特征在于,所述的一个定位追踪指令是实景中一个关注点或一条关注直线的左右两个影像中的左影像在左右两个影像截图中的左影像截图中的位置被定位后,定位和追踪该关注点或关注直线的右影像在左右两个影像截图中的右影像截图中的位置;也可以是实景中一个关注点或一条关注直线的左右两个影像中的右影像在左右两个影像截图中的右影像截图中的位置被定位后,定位和追踪该关注点或关注直线的左影像在左右两个影像截图中的左影像截图中的位置;
所述的一个测量指令是根据两个彼此独立,相同和中心线彼此平行设置的镜头组与一个关注物体之间构成的几何关系和移轴等效会聚法,建立一个关注物体上一个关注点的左右两个影像的视差与关注点在实景中的空间坐标之间的关系;
实景中一个关注点的左右两个影像在一个左右格式的影像的截图中或左右两个影像的截图中的视差为P=(XR-XL),则关注点在实景中的空间座标(X,Y,Z)是;
X=[(t-2L)×(XL+T/2)]÷[T-(XR-XL)]-t/2+L
Y=YL÷(m×A)=YR÷(m×A)
Z=[T×F×(t-2L)]÷{2L×[T-(XR-XL)]}
或
X=[(t-T/A)×(XL+T/2)]÷[T-(XR-XL)]-t/2+T/2A
Y=YL÷(m×A)=YR÷(m×A)
Z=[A×F×(t-T/A)]÷[T-(XR-XL)]
其中,XL、XR、YL和YR分别是一个关注点的左右两个影像分别在左右两个影像截图中的左影像截图和右影像截图中的横坐标和纵坐标,m是镜头组的放大率;
所述的一个移轴指令是当一个位于移轴立体摄像机中心轴线上的关注物体的立体深度Z发生变化ΔZ时,同步地确定移轴立体摄像机中左右两个镜头组沿着一条位于左右两个镜头组中心线构成的一个平面上,并与两个镜头组中心线垂直的直线方向上的平移变化ΔL=[(F×t)/2]×[(1/(Z2+F)-1/(Z1+F)]和平移方向;
所述的一个动态影像放大指令是当一个位于移轴立体摄像机中心轴线上的关注物体的立体深度Z发生变化ΔZ时,同步地确定动态影像放大率A=[T÷(F×t)]×(Z+F)和动态影像放大率变化ΔA=[T÷(F×t)]×ΔZ;
所述的一个等效会聚点重设指令是通过立体播放器中一个物体的立体影像将立体影像对应的实景中的一个物体设置为一个新关注物体后,新关注物体在实景中的空间位置成为移轴立体摄像机的一个新等效会聚点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110202390.0A CN112969060A (zh) | 2021-02-23 | 2021-02-23 | 一种移轴立体摄像机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110202390.0A CN112969060A (zh) | 2021-02-23 | 2021-02-23 | 一种移轴立体摄像机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112969060A true CN112969060A (zh) | 2021-06-15 |
Family
ID=76285721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110202390.0A Pending CN112969060A (zh) | 2021-02-23 | 2021-02-23 | 一种移轴立体摄像机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112969060A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645462A (zh) * | 2021-08-06 | 2021-11-12 | 深圳臻像科技有限公司 | 一种3d光场的转换方法及装置 |
CN114157803A (zh) * | 2021-10-22 | 2022-03-08 | 北京注色影视科技有限公司 | 虚拟现实拍摄场景中摄像机的定位方法及摄像机承托设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102256151A (zh) * | 2011-07-14 | 2011-11-23 | 深圳市掌网立体时代视讯技术有限公司 | 一种双光路单传感器合成模组及三维成像装置 |
WO2017197971A1 (zh) * | 2016-05-18 | 2017-11-23 | 彭波 | 汽车或移动设备3d影像采集和裸眼3d平视显示系统及3d影像处理方法 |
CN109259717A (zh) * | 2018-08-27 | 2019-01-25 | 彭波 | 一种立体内窥镜及内窥镜测量方法 |
CN110780455A (zh) * | 2019-11-08 | 2020-02-11 | 彭波 | 一种立体眼镜 |
CN110830784A (zh) * | 2019-11-08 | 2020-02-21 | 彭波 | 一种移轴立体摄像机 |
-
2021
- 2021-02-23 CN CN202110202390.0A patent/CN112969060A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102256151A (zh) * | 2011-07-14 | 2011-11-23 | 深圳市掌网立体时代视讯技术有限公司 | 一种双光路单传感器合成模组及三维成像装置 |
WO2017197971A1 (zh) * | 2016-05-18 | 2017-11-23 | 彭波 | 汽车或移动设备3d影像采集和裸眼3d平视显示系统及3d影像处理方法 |
CN109259717A (zh) * | 2018-08-27 | 2019-01-25 | 彭波 | 一种立体内窥镜及内窥镜测量方法 |
CN110780455A (zh) * | 2019-11-08 | 2020-02-11 | 彭波 | 一种立体眼镜 |
CN110830784A (zh) * | 2019-11-08 | 2020-02-21 | 彭波 | 一种移轴立体摄像机 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645462A (zh) * | 2021-08-06 | 2021-11-12 | 深圳臻像科技有限公司 | 一种3d光场的转换方法及装置 |
CN113645462B (zh) * | 2021-08-06 | 2024-01-16 | 深圳臻像科技有限公司 | 一种3d光场的转换方法及装置 |
CN114157803A (zh) * | 2021-10-22 | 2022-03-08 | 北京注色影视科技有限公司 | 虚拟现实拍摄场景中摄像机的定位方法及摄像机承托设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110830784B (zh) | 一种移轴立体摄像机 | |
CN110780455B (zh) | 一种立体眼镜 | |
CN109259717B (zh) | 一种立体内窥镜及内窥镜测量方法 | |
CN101072366B (zh) | 基于光场和双目视觉技术的自由立体显示系统和方法 | |
WO2019041351A1 (zh) | 一种3d vr视频与虚拟三维场景实时混叠渲染的方法 | |
WO2012147363A1 (ja) | 画像生成装置 | |
CN114401414B (zh) | 沉浸式直播的信息显示方法及系统、信息推送方法 | |
US20070248260A1 (en) | Supporting a 3D presentation | |
JP2017532847A (ja) | 立体録画及び再生 | |
CN101631257A (zh) | 一种实现二维视频码流立体播放的方法及装置 | |
WO2015192547A1 (zh) | 一种基于移动终端的三维照片拍摄方法及移动终端 | |
CN112969060A (zh) | 一种移轴立体摄像机 | |
CN203746012U (zh) | 一种三维虚拟场景人机交互立体显示系统 | |
CN102929091A (zh) | 数字球幕立体电影的制作方法 | |
CN107005689B (zh) | 数字视频渲染 | |
US20220078392A1 (en) | 2d digital image capture system, frame speed, and simulating 3d digital image sequence | |
CN114040185B (zh) | 一种自聚焦摄像机和立体摄像机 | |
CN108769648A (zh) | 一种基于720度全景vr的3d场景呈现方法 | |
CN109084679B (zh) | 一种基于空间光调制器的3d测量及获取装置 | |
CN112995640A (zh) | 一种同屏立体摄像机 | |
CN110060349B (zh) | 一种扩展增强现实头戴式显示设备视场角的方法 | |
JP2020191624A (ja) | 電子機器およびその制御方法 | |
KR20210114230A (ko) | Vr 또는 ar 기기용 렌즈의 왜곡 측정방법 | |
CN109151273B (zh) | 一种光扇立体摄像机及立体测量方法 | |
CN116012509A (zh) | 一种虚拟形象的驱动方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210615 |
|
RJ01 | Rejection of invention patent application after publication |