CN102801994A - 一种信息物理图像融合装置与方法 - Google Patents
一种信息物理图像融合装置与方法 Download PDFInfo
- Publication number
- CN102801994A CN102801994A CN2012102031749A CN201210203174A CN102801994A CN 102801994 A CN102801994 A CN 102801994A CN 2012102031749 A CN2012102031749 A CN 2012102031749A CN 201210203174 A CN201210203174 A CN 201210203174A CN 102801994 A CN102801994 A CN 102801994A
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- model
- viewpoint
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种信息物理图像融合装置与方法,通过实物空间特征立方体的特征边快速准确地获得模型空间左右视点位置,生成模型空间的左右图像;通过模型空间左右图像中的特征立方体与实物左右图像特征立方体完全重合实现信息物理图像的快速融合;通过检测当前实物图像与上一幅实物图像中特征立方体的特征点是否重合判断视点是否发生变化,当视点变化时,计算新视点坐标从而生成新的模型左右图像。本发明基于立体显示方式实现装配环境的立体仿真,使操作者有身临其境的感觉,并通过双目视觉感知场景中实物装配单元的位置,建立虚拟装配单元模型,完成虚拟装配单元与实物装配单元的融合,实现信息世界与物理世界的联合。
Description
技术领域
本发明涉及CPS(Cyber-Physical Systems信息物理融合系统)和图像处理技术的3D显示技术领域,具体为一种信息物理图像融合装置与方法,实现三维模型与实物多角度融合显示。
背景技术
信息物理融合系统(Cyber-Physical Systems,CPS)是一种通过计算、通信和控制等相关技术的相互协作,实现信息世界和物理世界深度融合的新型嵌入式系统。CPS能依据物理环境中的各个特征点信息对各物理实体进行实时高效的调整和控制,促进了虚拟装配技术发展。
建立一个与实际装配生产环境相一致的虚拟装配环境,通过信息物理图像的交互进行产品的装配、拆卸等操作是虚拟装配的重要过程。目前虚拟装配环境的建模方式主要涉及到CAD三维软件建模和虚拟显示建模语言;交互方式主要涉及到数据手套、位置跟踪器、菜单以及对话框方式。数据手套和位置跟踪器通过内置的传感器捕捉手指的动作,从而进行手势识别将手势映射为相应的命令和操作,完成装配过程的仿真;菜单和对话框均采用键盘和鼠标操作,实现对装配场景的控制,完成虚拟产品的装配过程。如《组合机床与自动化加工技术》2011年08期上的魏园园等发表的题为《网络环境下组合夹具虚拟装配平台的构建》介绍了一种基于虚拟显示建模语言构建的虚拟装配环境,其采用菜单以及对话框的交互方式,并通过Java语言实现对场景的控制。
根据目前的研究,主要的建模方法和交互方式均没有实现对装配环境的三维模拟,在构建虚拟装配环境时存在着以下不足:
1)零件的装配过程通常受装配工具、组合夹具以及其他装配环境信息的影响,而目前装配环境的构建技术仅仅涉及到零件的三维模型构建过程,并未考虑到装配工具及组合夹具等其他装配环境的影响;
2)目前虚拟装配涉及的交互技术完全依靠传感器和对话框菜单实现装配的仿真过程,并没有实现信息世界与物理世界的融合。同时在二维平面环境下的装配仿真忽视了人机交互过程,很难实现真正意义上的三维虚拟装配过程。
发明内容
要解决的技术问题
为解决目前虚拟装配技术的不足,本发明提出一种信息物理图像融合装置与方法,基于立体显示方式实现装配环境的立体仿真,使操作者有身临其境的感觉,并通过双目视觉感知场景中实物装配单元的位置,建立虚拟装配单元模型,完成虚拟装配单元与实物装配单元的融合,实现信息世界与物理世界的联合。
技术方案
本发明的技术方案为:
所述一种信息物理图像融合装置,其特征在于:包括眼镜式立体显示器、双目相机、图像处理装置和特征立方体;
眼镜式立体显示器包括左眼显示器和右眼显示器;
所述双目相机为两个微型CCD摄像头,每个摄像头的分辨率应不低于640*480,用于模拟人双眼采集图像;
摄像头安装在相机固定装置中,相机固定装置包括矩形支架和球形转动块;矩形支架一端面上有梯形滑块,矩形支架另一端面上开有球形凹槽,球形转动块安装在球形凹槽内,且球形转动块与矩形支架通过转轴连接,转轴过球形转动块球心,转轴平行于矩形支架端面且垂直于矩形支架上梯形滑块的滑动方向;在球形转动块朝外的方向上有相机安装孔,且相机安装孔中心轴线与球形转动块中心轴线垂直相交;摄像头固定在相机安装孔中,且摄像头的中心轴线与相机安装孔中心轴线重合;
相机固定装置安装在相机定位板上,相机定位板边缘有卡扣,用于将相机定位板卡接在眼镜式立体显示器上;相机定位板外侧面上有与梯形滑块配合的梯形滑槽;
特征立方体起到图像配准作用,特征立方体整体外表面为单一颜色,特征立方体中一个顶点的三条棱边分别为红、绿、蓝三种颜色,且三条棱边的颜色不同于特征立方体整体的颜色;所述三条棱边为特征立方体的特征边;
双目相机同步采集的双路图像信号经过图像处理装置转化为数字图像信号,并经过信息物理图像融合,输出至眼镜式立体显示器,实现左右模式立体图像的播放显示。
所述一种信息物理图像融合方法,其特征在于:包括以下步骤:
步骤1:基于OpenGL图形软件接口在模型空间中建立特征立方体三维模型,并设置透视投影所需的锥形视域体:
步骤1.1:在模型空间中设置模型坐标系与世界坐标系重合,并建立与实物空间中特征立方体外形尺寸相同的特征立方体三维模型,设置特征立方体三维模型同一顶点上的三条棱边V0Vx,V0Vy,V0Vz的颜色属性与实物空间中特征立方体的特征边颜色相同;
步骤1.2:根据双目相机的物理参数,在模型空间中设置透视投影变换所需的锥形视域体的相关参数:锥形视域体的近裁剪面距视点的距离为摄像头的焦距f,近裁剪面设置为投影平面,投影面大小为摄像头物理感光元件的大小W×H,锥形视域体的后裁剪面距视点的距离为f+d,其中d为近裁剪面与后裁剪面的距离,同时锥形视域体中对象的显示窗口大小与摄像头采集到的图像大小一致;
步骤2:调节双目相机,使双目相机中两个摄像头的距离为眼镜式立体显示器佩戴者双眼瞳距S;将实物空间中特征立方体放置在摄像头的视角范围内,并使两个摄像头都能拍摄到实物空间中特征立方体的特征边;
步骤3:双目相机的两个摄像头同步连续采集实物空间的左图像和右图像,左图像和右图像的分辨率为U×Z;采用下列步骤分别提取实物空间左图像和右图像中特征立方体的特征边:
步骤3.1:将实物空间图像滤波灰度处理:检测实物空间图像中各像素点的红色分量,将图像中红色分量大于绿色分量与蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的红色滤波灰度图像;检测实物空间图像中各像素点的蓝色分量,将图像中蓝色分量大于绿色分量和红色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的蓝色滤波灰度图像;检测实物空间图像中各像素点的绿色分量,将图像中绿色分量大于红色分量和蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的绿色滤波灰度图像;
步骤3.2:采用数学形态学腐蚀和膨胀算法分别求出实物空间图像的三幅滤波灰度图像的边缘;
步骤3.3:采用运用Freeman准则的直线检测算法分别检测实物空间图像的三幅滤波灰度图像中的直线段,并保留长度不小于个像素点的直线段,在每条直线段上均匀取至少6个像素点拟合出直线方程,得到三幅滤波灰度图像的直线段集合:红色滤波灰度图像中直线段集合绿色滤波灰度图像中直线段集合蓝色滤波灰度图像中直线段集合
步骤3.6:重复步骤3.5遍历集合M和N中的所有直线得到Li取到最小值min(Li)时对应集合R、G和B中的三条直线分别为特征立方体的红、绿、蓝三条特征边,红、绿、蓝三条特征边的斜率分别对应为对应的交点qimin和交点simin之间连线的中点为三条特征边的顶点
步骤4:根据步骤3提取的实物图像中特征立方体的特征边与步骤1建立的模型空间投影图像中特征立方体三维模型的特征边的对应关系分别确定模型空间中的左视点和右视点的坐标及视点观察方向向量,包括以下步骤:
ul[x-(xl+f·uj)]+vl[y-(yl+f·vl)]+[z-(zl+f)]=0 (4-1)
步骤4.2:设置模型空间中任一点P(xp,yp,zp)与视点Vl(xl,yl,zl)的空间直线方程为
其中O点为模型空间中模型坐标系原点;利用公式4-1和公式4-2联立求解出参数t和P点与投影面的交点P′(x′P,y′P,z′P),其中P′点坐标为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.3:在投影面上建立图像坐标系,图像坐标系原点为投影面左下角点O′(xo,yo,zo),投影面横向为轴方向,纵向为轴方向,轴垂直于投影面且指向视点观察方向,;则模型坐标系与图像坐标系的齐次坐标变换关系为:
P″(x″p,y″p,z″p,1)=Q·T·P′(x′p,y′p,z′p,1) (4-3)
其中P″(xp,y″p,zp)为P′(x′P,y′P,z′P)在图像坐标系下的坐标,平移转换矩阵T为:
旋转变换矩阵Q为:
步骤4.4:利用公式4-1、公式4-2得到模型空间中特征立方体的特征边端点V0,Vx,Vy,Vz在投影面上的投影点V′0,V′x,V′y,V′z;利用公式4-3得到投影点V′0,V′x,V′y,V′z在图像坐标系中的坐标V″0(x″0,y″0),V″x(x″x,y″x),V″y(x″y,y″y),V″z(x″z,y″z);计算直线V″0V″x,V″0V″y,V″0V″z的斜率分别为kr′,kg′,k′b,kr′,kg′,k′b为为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.5:根据公式
步骤5:在模型空间中建立需要融合在实物图像中的虚拟物体模型,并确定虚拟物体模型的模型坐标系与特征立方体三维模型的模型坐标系间的变换关系,并将变化关系表示为平移矩阵T′和旋转矩阵Q′;
步骤6:根据步骤4得到的模型空间中的左视点和右视点坐标和视点观察方向,在OpenGL中对模型空间进行透视投影变换,得到模型空间的左图像和右图像;
步骤7:将步骤6得到的模型空间的左图像和右图像分别与摄像头采集的实物左图像和实物右图像重叠,并用将模型空间的左图像和右图像中的需要融合的虚拟物体模型将实物左图像和实物右图像对应部分覆盖;将融合后的左图像和右图像分别显示在眼镜式立体显示器的左眼显示器和右眼显示器上。
所述一种信息物理图像融合方法,其特征在于:通过调整平移矩阵T′和旋转矩阵Q′,实现将需要融合的虚拟物体模型在到融合后的图像中移动。
所述一种信息物理图像融合方法,其特征在于:检测任一摄像头采集的实物图像中的特征立方体特征边与上一帧实物图像中的特征立方体特征边是否重合,若重合,则表示视点不变,模型空间的左图像和右图像不变,若不重合,则表示视点变化,则根据步骤3和步骤4,重新计算模型空间中视点坐标和视点观察方向向量。
有益效果
本发明中采用装置一体化设计,实现了:
1)双目相机通过相机定位装置和相机固定装置固定连接于眼镜式立体显示器上,组成了集图像采集、处理、显示为一体的信息物理图像融合系统,使装置的设计更加符合人体工学原理,方便使用;
2)视频采集卡采集的双路图像对直接送入缓冲区,进行图像配准融合,系统将配准之后的图像对实时地送入显卡的显存中输出供视频眼镜显示,整个过程快速高效,充分体现了信息物理融合系统的高效性和实时性的特点;
本发明中图像配准融合方法的效果:
1)通过实物空间特征立方体的特征边快速准确地获得模型空间左右视点位置,生成模型空间的左右图像。通过模型空间左右图像中的特征立方体与实物左右图像特征立方体完全重合实现信息物理图像的快速融合。
2)通过检测当前实物图像与上一幅实物图像中特征立方体的特征点是否重合判断视点是否发生变化,当视点变化时,计算新视点坐标从而生成新的模型左右图像。
综上所述,该发明可以快速地寻找物理世界中的特征物体,且视频采集卡可以控制相机同步采集具有视角差的双路图像。双路图像采集的同时,根据物理世界的特征立方体与模型特征立方体的配准关系,进行图像融合。融合之后的双路图像按左右对准拼接在一起,输出到视频眼镜中,通过视频眼镜的立体转换功能进行立体显示。根据发明人的实验验证,通过采集合适视角差的双路图像与建立准确的三维模型,该系统可以实现实物图像与虚拟模型的快速配准,实时立体显示的功能,最终实现物理世界和虚拟世界的联合。
附图说明
图1:本发明中装置的立体图;
图2:相机固定装置的结构示意图;
图3:本发明中装置的结构示意图;
图4:相机定位装置的结构示意图;
图5:特征立方体示意图;
其中:1、双目相机;3、相机固定装置;6、眼镜式立体显示器;7、相机定位板;8、梯形滑槽;9、矩形支架;10、球形转动块;11、特征立方体。
具体实施方式
下面根据实施例具体描述本发明:
参照附图1和附图3,本发明中信息物理图像融合系统的装置包括眼镜式立体显示器6、双目相机1、图像处理装置和特征立方体11。眼镜式立体显示器包括左眼显示器和右眼显示器,本实施例中,眼镜式立体显示器采用的是众观博览公司的Wrap9000视频眼镜,支持左右模式立体影片的显示播放,并通过VGA接口与显卡连接。
双目相机为两个微型CCD摄像头,每个摄像头的分辨率应不低于640*480,用于模拟人双眼采集图像。本实施例中,摄像头采用卡默莱电子科技公司提供的3.6mm镜头超微型CCD摄像头,分辨率为640×480,视场角大小为73°,尺寸为16mm×16mm×12mm。
摄像头安装在相机固定装置3中,参照附图4,相机固定装置3包括矩形支架9和球形转动块10。矩形支架一端面上有梯形滑块,矩形支架另一端面上开有球形凹槽,球形转动块安装在球形凹槽内,且球形转动块与矩形支架通过转轴连接,转轴过球形转动块球心,转轴平行于矩形支架端面且垂直于矩形支架上梯形滑块的滑动方向。本实施例中,矩形支架9大小为35mm×35mm×20mm,球形凹槽的半径为15mm;球形转动块10的半径为13mm。在球形转动块朝外的方向上有相机安装孔,且相机安装孔中心轴线与球形转动块中心轴线垂直相交;摄像头固定在相机安装孔中,且摄像头的中心轴线与相机安装孔中心轴线重合。
相机固定装置安装在相机定位板7上,参照附图2,相机定位板边缘有卡扣,用于将相机定位板卡接在眼镜式立体显示器上;相机定位板外侧面上有与梯形滑块配合的梯形滑槽8。
特征立方体起到图像配准作用,大小为55mm×55mm×55mm,特征立方体整体外表面为单一颜色,特征立方体中一个顶点的三条棱边分别为红、绿、蓝三种颜色,且三条棱边的颜色不同于特征立方体整体的颜色;所述三条棱边为特征立方体的特征边。
双目相机同步采集的双路图像信号经过图像处理装置转化为数字图像信号,图像处理装置包括有图像采集卡和双路输出显卡。数字图像信号经过信息物理图像融合,输出至眼镜式立体显示器,实现左右模式立体图像的播放显示。图像采集卡采用的是维视公司的MV-8002双路图像采集卡,通过视频信号接口与摄像头连接,将双目相机采集的视频信号转换为数字图像信号,二次开发图像采集卡,使其可以同步双路采集图像,采集频率为20帧/s,同时提供处理采集图像的接口;双路输出显卡为NVIDIAGT210M芯片的双路VGA输出显卡,双VGA接口用于连接电脑显示器和眼镜式立体显示器。
本实施例中采用的信息物理图像融合方法,包括以下步骤:
步骤1:基于OpenGL图形软件接口在模型空间中建立特征立方体三维模型,并设置透视投影所需的锥形视域体:
步骤1.1:在模型空间中设置模型坐标系与世界坐标系重合,并建立与实物空间中特征立方体外形尺寸相同的特征立方体三维模型,设置特征立方体三维模型同一顶点上的三条棱边V0Vx,V0Vy,V0Vz的颜色属性与实物空间中特征立方体的特征边颜色相同;
步骤1.2:根据双目相机的物理参数,在模型空间中设置透视投影变换所需的锥形视域体的相关参数:锥形视域体的近裁剪面距视点的距离为摄像头的焦距3.6mm,近裁剪面设置为投影平面,投影面大小为摄像头物理感光元件的大小9.7mm×7.9mm,锥形视域体的后裁剪面距视点的距离为3.6+500mm,同时锥形视域体中对象的显示窗口为640×480,大小与摄像头采集到的图像大小一致;
步骤2:调节双目相机,使双目相机中两个摄像头的距离为眼镜式立体显示器佩戴者双眼瞳距63mm;将实物空间中特征立方体放置在摄像头的视角范围内,并使两个摄像头都能拍摄到实物空间中特征立方体的特征边;
步骤3:双目相机的两个摄像头同步连续采集实物空间的左图像和右图像,左图像和右图像的分辨率为640×480;采用下列步骤分别提取实物空间左图像和右图像中特征立方体的特征边:
步骤3.1:将实物空间图像滤波灰度处理:检测实物空间图像中各像素点的红色分量,将图像中红色分量大于绿色分量与蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的红色滤波灰度图像;检测实物空间图像中各像素点的蓝色分量,将图像中蓝色分量大于绿色分量和红色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的蓝色滤波灰度图像;检测实物空间图像中各像素点的绿色分量,将图像中绿色分量大于红色分量和蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的绿色滤波灰度图像;
步骤3.2:采用数学形态学腐蚀和膨胀算法分别求出实物空间图像的三幅滤波灰度图像的边缘;
步骤3.3:参考尚振宏提出的《运用Freeman准则的直线检测算法》分别检测实物空间图像的三幅滤波灰度图像中的直线段,并保留长度不小于32个像素点的直线段,在每条直线段上均匀取6个像素点拟合出直线方程,得到三幅滤波灰度图像的直线段集合:红色滤波灰度图像中直线段集合绿色滤波灰度图像中直线段集合蓝色滤波灰度图像中直线段集合
步骤3.6:重复步骤3.5遍历集合M和N中的所有直线得到Li取到最小值min(Li)时对应集合R、G和B中的三条直线分别为特征立方体的红、绿、蓝三条特征边,红、绿、蓝三条特征边的斜率分别对应为对应的交点qimin和交点simin之间连线的中点为三条特征边的顶点
步骤4:根据步骤3提取的实物图像中特征立方体的特征边与步骤1建立的模型空间投影图像中特征立方体三维模型的特征边的对应关系分别确定模型空间中的左视点和右视点的坐标及视点观察方向向量,包括以下步骤:
ul[x-(xl+3.6·ul)]+vl[y-(yl+3.6·vl)]+[z-(zl+3.6)]=0 (4-1)
步骤4.2:设置模型空间中任一点P(xp,yp,zp)与视点Vl(xl,yl,zl)的空间直线方程为
其中O点为模型空间中模型坐标系原点;利用公式4-1和公式4-2联立求解出参数t和P点与投影面的交点P′(x′P,y′P,z′P),其中P′点坐标为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.3:在投影面上建立图像坐标系,图像坐标系原点为投影面左下角点O′(xo,yo,zo),投影面横向为轴方向,纵向为轴方向,轴垂直于投影面且指向视点观察方向,;则模型坐标系与图像坐标系的齐次坐标变换关系为:
P″(x″p,y″p,z″p,1)=Q·T·P′(x′p,y′p,z′p,1) (4-3)
其中P″(x″p,y″p,z″p)为P′(x′P,y′P,z′P)在图像坐标系下的坐标,平移转换矩阵T为:
旋转变换矩阵Q为:
步骤4.4:利用公式4-1、公式4-2得到模型空间中特征立方体的特征边端点V0,Vx,Vy,Vz在投影面上的投影点V′0,V′x,Vy′,V′z;利用公式4-3得到投影点V′0,V′x,Vy′,V′z在图像坐标系中的坐标V″(x″0,y″0),V″x(x″x,y″x),V″y(x″y,y″y),V″z(x″z,y″z);计算直线V″0V″x,V″0V″y,V″0V″z的斜率分别为k′r,k′g,k′b,kr′,kg′,k′b为为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.5:根据公式
步骤5:在模型空间中建立需要融合在实物图像中的虚拟物体模型,并确定虚拟物体模型的模型坐标系与特征立方体三维模型的模型坐标系间的变换关系,并将变化关系表示为平移矩阵T′和旋转矩阵Q′;
步骤6:根据步骤4得到的模型空间中的左视点和右视点坐标和视点观察方向,在OpenGL中对模型空间进行透视投影变换,得到模型空间的左图像和右图像;
步骤7:将步骤6得到的模型空间的左图像和右图像分别与摄像头采集的实物左图像和实物右图像重叠,并用将模型空间的左图像和右图像中的需要融合的虚拟物体模型将实物左图像和实物右图像对应部分覆盖;将融合后的左图像和右图像分别显示在眼镜式立体显示器的左眼显示器和右眼显示器上。
进一步的,通过调整平移矩阵T′和旋转矩阵Q′,实现将需要融合的虚拟物体模型在到融合后的图像中移动。
进一步的,在实时显示过程中,检测任一摄像头采集的实物图像中的特征立方体特征边与上一帧实物图像中的特征立方体特征边是否重合,若重合,则表示视点不变,模型空间的左图像和右图像不变,若不重合,则表示视点变化,则根据步骤3和步骤4,重新计算模型空间中视点坐标和视点观察方向向量。
Claims (4)
1.一种信息物理图像融合装置,其特征在于:包括眼镜式立体显示器、双目相机、图像处理装置和特征立方体;
所述眼镜式立体显示器包括左眼显示器和右眼显示器;
所述双目相机为两个微型CCD摄像头,每个摄像头的分辨率应不低于640*480,用于模拟人双眼采集图像;
所述摄像头安装在相机固定装置中,相机固定装置包括矩形支架和球形转动块;矩形支架一端面上有梯形滑块,矩形支架另一端面上开有球形凹槽,球形转动块安装在球形凹槽内,且球形转动块与矩形支架通过转轴连接,转轴过球形转动块球心,转轴平行于矩形支架端面且垂直于矩形支架上梯形滑块的滑动方向;在球形转动块朝外的方向上有相机安装孔,且相机安装孔中心轴线与球形转动块中心轴线垂直相交;摄像头固定在相机安装孔中,且摄像头的中心轴线与相机安装孔中心轴线重合;
所述相机固定装置安装在相机定位板上,相机定位板边缘有卡扣,用于将相机定位板卡接在眼镜式立体显示器上;相机定位板外侧面上有与梯形滑块配合的梯形滑槽;
所述特征立方体起到图像配准作用,特征立方体整体外表面为单一颜色,特征立方体中一个顶点的三条棱边分别为红、绿、蓝三种颜色,且三条棱边的颜色不同于特征立方体整体的颜色;所述三条棱边为特征立方体的特征边;
所述双目相机同步采集的双路图像信号经过图像处理装置转化为数字图像信号,并经过信息物理图像融合,输出至眼镜式立体显示器,实现左右模式立体图像的播放显示。
2.一种采用权利要求1所述装置的信息物理图像融合方法,其特征在于:包括以下步骤:
步骤1:基于OpenGL图形软件接口在模型空间中建立特征立方体三维模型,并设置透视投影所需的锥形视域体:
步骤1.1:在模型空间中设置模型坐标系与世界坐标系重合,并建立与实物空间中特征立方体外形尺寸相同的特征立方体三维模型,设置特征立方体三维模型同一顶点上的三条棱边V0Vx,V0Vy,V0Vz的颜色属性与实物空间中特征立方体的特征边颜色相同;
步骤1.2:根据双目相机的物理参数,在模型空间中设置透视投影变换所需的锥形视域体的相关参数:锥形视域体的近裁剪面距视点的距离为摄像头的焦距f,近裁剪面设置为投影平面,投影面大小为摄像头物理感光元件的大小W×H,锥形视域体的后裁剪面距视点的距离为f+d,其中d为近裁剪面与后裁剪面的距离,同时锥形视域体中对象的显示窗口大小与摄像头采集到的图像大小一致;
步骤2:调节双目相机,使双目相机中两个摄像头的距离为眼镜式立体显示器佩戴者双眼瞳距S;将实物空间中特征立方体放置在摄像头的视角范围内,并使两个摄像头都能拍摄到实物空间中特征立方体的特征边;
步骤3:双目相机的两个摄像头同步连续采集实物空间的左图像和右图像,左图像和右图像的分辨率为U×Z;采用下列步骤分别提取实物空间左图像和右图像中特征立方体的特征边:
步骤3.1:将实物空间图像滤波灰度处理:检测实物空间图像中各像素点的红色分量,将图像中红色分量大于绿色分量与蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的红色滤波灰度图像;检测实物空间图像中各像素点的蓝色分量,将图像中蓝色分量大于绿色分量和红色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的蓝色滤波灰度图像;检测实物空间图像中各像素点的绿色分量,将图像中绿色分量大于红色分量和蓝色分量之和的像素点的灰度值置为255,其余像素点灰度值置为0,得到实物空间图像的绿色滤波灰度图像;
步骤3.2:采用数学形态学腐蚀和膨胀算法分别求出实物空间图像的三幅滤波灰度图像的边缘;
步骤3.3:采用运用Freeman准则的直线检测算法分别检测实物空间图像的三幅滤波灰度图像中的直线段,并保留长度不小于个像素点的直线段,在每条直线段上均匀取至少6个像素点拟合出直线方程,得到三幅滤波灰度图像的直线段集合:红色滤波灰度图像中直线段集合绿色滤波灰度图像中直线段集合蓝色滤波灰度图像中直线段集合
步骤3.6:重复步骤3.5遍历集合M和N中的所有直线得到Li取到最小值min(Li)时对应集合R、G和B中的三条直线分别为特征立方体的红、绿、蓝三条特征边,红、绿、蓝三条特征边的斜率分别对应为对应的交点qimin和交点simin之间连线的中点为三条特征边的顶点
步骤4:根据步骤3提取的实物图像中特征立方体的特征边与步骤1建立的模型空间投影图像中特征立方体三维模型的特征边的对应关系分别确定模型空间中的左视点和右视点的坐标及视点观察方向向量,包括以下步骤:
ul[x-(xl+f·ul)]+vl[y-(yl+f·vl)]+[z-(zl+f)]=0 (4-1)
步骤4.2:设置模型空间中任一点P(xp,yp,zp)与视点Vl(xl,yl,zl)的空间直线方程为
其中O点为模型空间中模型坐标系原点;利用公式4-1和公式4-2联立求解出参数t和P点与投影面的交点P′(x′P,y′P,z′P),其中P′点坐标为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.3:在投影面上建立图像坐标系,图像坐标系原点为投影面左下角点O′(xo,yo,zo),投影面横向为轴方向,纵向为轴方向,轴垂直于投影面且指向视点观察方向,;则模型坐标系与图像坐标系的齐次坐标变换关系为:
P″(x″p,y″p,z″p,1)=Q·T·P′(x′p,y′p,z′p,1) (4-3)
其中P″(x″p,y″p,z″p)为P′(x′P,y′P,z′P)在图像坐标系下的坐标,平移转换矩阵T为:
旋转变换矩阵Q为:
步骤4.4:利用公式4-1、公式4-2得到模型空间中特征立方体的特征边端点V0,Vx,Vy,Vz在投影面上的投影点V′0,V′y,V′y,V′z;利用公式4-3得到投影点V′0,V′x,V′y,V′z在图像坐标系中的坐标V″(x″0,y″0),V″x(x″x,y″x),V″y(x″y,y″y),V″z(x″z,y″z);计算直线V″0V″x,V″0V″y,V″0V″z的斜率分别为kr′,kg′,k′b,kr′,kg′,k′b为为模型空间中视点坐标和视点观察方向向量的函数;
步骤4.5:根据公式
计算得到模型空间中视点坐标Vl(xl,yl,zl)和视点观察方向向量以及视点观察方向向量;
步骤5:在模型空间中建立需要融合在实物图像中的虚拟物体模型,并确定虚拟物体模型的模型坐标系与特征立方体三维模型的模型坐标系间的变换关系,并将变化关系表示为平移矩阵T′和旋转矩阵Q′;
步骤6:根据步骤4得到的模型空间中的左视点和右视点坐标和视点观察方向,在OpenGL中对模型空间进行透视投影变换,得到模型空间的左图像和右图像;
步骤7:将步骤6得到的模型空间的左图像和右图像分别与摄像头采集的实物左图像和实物右图像重叠,并用将模型空间的左图像和右图像中的需要融合的虚拟物体模型将实物左图像和实物右图像对应部分覆盖;将融合后的左图像和右图像分别显示在眼镜式立体显示器的左眼显示器和右眼显示器上。
3.根据权利要求2所述的信息物理图像融合方法,其特征在于:通过调整平移矩阵T′和旋转矩阵Q′,实现将需要融合的虚拟物体模型在到融合后的图像中移动。
4.根据权利要求2或3所述的信息物理图像融合方法,其特征在于:检测任一摄像头采集的实物图像中的特征立方体特征边与上一帧实物图像中的特征立方体特征边是否重合,若重合,则表示视点不变,模型空间的左图像和右图像不变,若不重合,则表示视点变化,则根据步骤3和步骤4,重新计算模型空间中视点坐标和视点观察方向向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210203174.9A CN102801994B (zh) | 2012-06-19 | 2012-06-19 | 一种信息物理图像融合装置与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210203174.9A CN102801994B (zh) | 2012-06-19 | 2012-06-19 | 一种信息物理图像融合装置与方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102801994A true CN102801994A (zh) | 2012-11-28 |
CN102801994B CN102801994B (zh) | 2014-08-20 |
Family
ID=47200949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210203174.9A Expired - Fee Related CN102801994B (zh) | 2012-06-19 | 2012-06-19 | 一种信息物理图像融合装置与方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102801994B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104484053A (zh) * | 2015-01-04 | 2015-04-01 | 王美金 | 基于穿戴式眼镜的单目视线范围测量的方法和系统 |
CN105574847A (zh) * | 2014-11-03 | 2016-05-11 | 韩华泰科株式会社 | 相机系统及其图像配准方法 |
CN105578021A (zh) * | 2014-10-15 | 2016-05-11 | 上海弘视通信技术有限公司 | 双目相机的成像方法及其装置 |
CN107635111A (zh) * | 2016-07-18 | 2018-01-26 | 杭州海康威视数字技术股份有限公司 | 一种视频监控方法及系统 |
WO2018094932A1 (zh) * | 2016-11-23 | 2018-05-31 | 北京清影机器视觉技术有限公司 | 用于立体视觉呈现的人眼观察图像的生成方法和装置 |
CN109887030A (zh) * | 2019-01-23 | 2019-06-14 | 浙江大学 | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 |
CN110077093A (zh) * | 2019-04-12 | 2019-08-02 | 北京空间飞行器总体设计部 | 一种复合材料结构板快速制造方法及制造辅助系统 |
CN110414101A (zh) * | 2019-07-15 | 2019-11-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 一种仿真场景测量方法、准确性测定方法及系统 |
CN111126450A (zh) * | 2019-11-29 | 2020-05-08 | 上海宇航系统工程研究所 | 一种基于九线构型的长方体空间飞行器的建模方法及装置 |
CN112508071A (zh) * | 2020-11-30 | 2021-03-16 | 中国公路工程咨询集团有限公司 | 基于bim的桥梁病害标记方法和装置 |
CN112952649A (zh) * | 2021-03-16 | 2021-06-11 | 北京道亨软件股份有限公司 | 一种双联双挂点耐张绝缘子串三维模型自动调长的方法 |
CN113012270A (zh) * | 2021-03-24 | 2021-06-22 | 纵深视觉科技(南京)有限责任公司 | 一种立体显示的方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101277454A (zh) * | 2008-04-28 | 2008-10-01 | 清华大学 | 一种基于双目摄像机的实时立体视频生成方法 |
CN101527033A (zh) * | 2008-03-04 | 2009-09-09 | 河海大学 | 超分辨率重建和自动配准的工业ccd彩色成像系统 |
US20100299651A1 (en) * | 2009-05-19 | 2010-11-25 | Nec Laboratories America, Inc. | Robust testing for discrete-time and continuous-time system models |
CN202634612U (zh) * | 2012-06-19 | 2012-12-26 | 西北工业大学 | 一种信息物理图像融合装置 |
-
2012
- 2012-06-19 CN CN201210203174.9A patent/CN102801994B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101527033A (zh) * | 2008-03-04 | 2009-09-09 | 河海大学 | 超分辨率重建和自动配准的工业ccd彩色成像系统 |
CN101277454A (zh) * | 2008-04-28 | 2008-10-01 | 清华大学 | 一种基于双目摄像机的实时立体视频生成方法 |
US20100299651A1 (en) * | 2009-05-19 | 2010-11-25 | Nec Laboratories America, Inc. | Robust testing for discrete-time and continuous-time system models |
CN202634612U (zh) * | 2012-06-19 | 2012-12-26 | 西北工业大学 | 一种信息物理图像融合装置 |
Non-Patent Citations (2)
Title |
---|
谭朋柳,舒坚,吴振华: "一种信息-物理融合系统体系结构", 《计算机研究与发展》 * |
魏园园,瞿畅,王君泽: "网络环境下组合夹具虚拟装配平台的构建", 《组合机床与自动化加工技术》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105578021A (zh) * | 2014-10-15 | 2016-05-11 | 上海弘视通信技术有限公司 | 双目相机的成像方法及其装置 |
CN105578021B (zh) * | 2014-10-15 | 2019-03-26 | 上海弘视通信技术有限公司 | 双目相机的成像方法及其装置 |
CN105574847B (zh) * | 2014-11-03 | 2020-11-10 | 韩华泰科株式会社 | 相机系统及其图像配准方法 |
CN105574847A (zh) * | 2014-11-03 | 2016-05-11 | 韩华泰科株式会社 | 相机系统及其图像配准方法 |
CN104484053B (zh) * | 2015-01-04 | 2017-10-27 | 北京远程视界眼科医院管理有限公司 | 基于穿戴式眼镜的单目视线范围测量的方法和系统 |
CN104484053A (zh) * | 2015-01-04 | 2015-04-01 | 王美金 | 基于穿戴式眼镜的单目视线范围测量的方法和系统 |
CN107635111A (zh) * | 2016-07-18 | 2018-01-26 | 杭州海康威视数字技术股份有限公司 | 一种视频监控方法及系统 |
WO2018094932A1 (zh) * | 2016-11-23 | 2018-05-31 | 北京清影机器视觉技术有限公司 | 用于立体视觉呈现的人眼观察图像的生成方法和装置 |
CN109887030A (zh) * | 2019-01-23 | 2019-06-14 | 浙江大学 | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 |
CN110077093A (zh) * | 2019-04-12 | 2019-08-02 | 北京空间飞行器总体设计部 | 一种复合材料结构板快速制造方法及制造辅助系统 |
CN110414101A (zh) * | 2019-07-15 | 2019-11-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 一种仿真场景测量方法、准确性测定方法及系统 |
CN111126450A (zh) * | 2019-11-29 | 2020-05-08 | 上海宇航系统工程研究所 | 一种基于九线构型的长方体空间飞行器的建模方法及装置 |
CN111126450B (zh) * | 2019-11-29 | 2024-03-19 | 上海宇航系统工程研究所 | 一种基于九线构型的长方体空间飞行器的建模方法及装置 |
CN112508071A (zh) * | 2020-11-30 | 2021-03-16 | 中国公路工程咨询集团有限公司 | 基于bim的桥梁病害标记方法和装置 |
CN112508071B (zh) * | 2020-11-30 | 2023-04-18 | 中国公路工程咨询集团有限公司 | 基于bim的桥梁病害标记方法和装置 |
CN112952649A (zh) * | 2021-03-16 | 2021-06-11 | 北京道亨软件股份有限公司 | 一种双联双挂点耐张绝缘子串三维模型自动调长的方法 |
CN113012270A (zh) * | 2021-03-24 | 2021-06-22 | 纵深视觉科技(南京)有限责任公司 | 一种立体显示的方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102801994B (zh) | 2014-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102801994B (zh) | 一种信息物理图像融合装置与方法 | |
CN100483462C (zh) | 融合多视角、多线索二维信息的人脸三维模型的建立方法 | |
CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN104504671A (zh) | 一种用于立体显示的虚实融合图像生成方法 | |
WO2012153447A1 (ja) | 画像処理装置、映像処理方法、プログラム、集積回路 | |
CN101072366A (zh) | 基于光场和双目视觉技术的自由立体显示系统和方法 | |
CN109242954A (zh) | 基于模板变形的多视角三维人体重建方法 | |
CN103136744A (zh) | 用于计算特征点的三维位置的装置和方法 | |
CN111710036A (zh) | 三维人脸模型的构建方法、装置、设备及存储介质 | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
CN104318604A (zh) | 一种3d图像拼接方法及装置 | |
CN105989326A (zh) | 人眼三维位置信息的确定方法和装置 | |
CN101794459A (zh) | 一种立体视觉影像与三维虚拟物体的无缝融合方法 | |
Shimamura et al. | Construction of an immersive mixed environment using an omnidirectional stereo image sensor | |
CN202634612U (zh) | 一种信息物理图像融合装置 | |
Siebert et al. | C3D™: a Novel Vision-Based 3-D Data Acquisition System | |
CN111881807A (zh) | 基于人脸建模及表情追踪的vr会议控制系统及方法 | |
CN112686865A (zh) | 一种3d视图辅助检测方法、系统、装置及存储介质 | |
CN112288876A (zh) | 远距离ar识别服务器及系统 | |
CN112102504A (zh) | 一种基于混合现实的三维场景和二维图像混合方法 | |
CN206331183U (zh) | 一种增强现实与虚拟现实两用显示设备和可穿戴设备 | |
CN116129043A (zh) | 用于融合现实场景的通用三维模型及其构建方法 | |
CN104616287A (zh) | 一种用于3d图像采集与3d打印的移动终端及方法 | |
Daniilidis et al. | Real-time 3d-teleimmersion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140820 Termination date: 20150619 |
|
EXPY | Termination of patent right or utility model |