CN102368810B - 一种半自动化对齐的视频融合系统和方法 - Google Patents

一种半自动化对齐的视频融合系统和方法 Download PDF

Info

Publication number
CN102368810B
CN102368810B CN 201110277360 CN201110277360A CN102368810B CN 102368810 B CN102368810 B CN 102368810B CN 201110277360 CN201110277360 CN 201110277360 CN 201110277360 A CN201110277360 A CN 201110277360A CN 102368810 B CN102368810 B CN 102368810B
Authority
CN
China
Prior art keywords
video
camera
real scene
prime
dimensional character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110277360
Other languages
English (en)
Other versions
CN102368810A (zh
Inventor
柳有权
高宇霞
段宗涛
崔尚森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN 201110277360 priority Critical patent/CN102368810B/zh
Publication of CN102368810A publication Critical patent/CN102368810A/zh
Application granted granted Critical
Publication of CN102368810B publication Critical patent/CN102368810B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种半自动化对齐的视频融合系统及方法,该方法包括如下步骤:通过摄像机采集真实场景视频,创建虚拟几何模型;摄像机的标定;选取虚拟几何模型的三维特征点;选取真实场景视频中研究对象的二维特征点:在第一帧视频中的研究对象上选择8个二维特征点,将第一帧视频作为当前帧视频;当前帧视频中特征点跟踪和匹配;将真实场景视频的下一帧视频作为当前帧视频,直至真实场景视频结束;进行误差反馈控制。本发明成本低、设备简单、执行效率高、可操作性强,能够将真实视频与虚拟几何模型高效率进行重叠融合,以半自动化对齐的视频融合达到了将虚拟几何模型和现实场景相结合的目的。

Description

一种半自动化对齐的视频融合系统和方法
技术领域
本发明属于视频融合技术领域,涉及一种半自动化对齐的视频融合系统及视频融合方法。
背景技术
在当今社会,交通发展如此迅速,给人们的生活带来了极大的方便、快捷,但随着交通工具的日益增加,交通出现拥堵、交通事故频有发生。为了解决交通的实际问题,具体车辆型号的识别、交通事故的情景重现显得尤为重要。如何将真实场景再现,已经成为本领域技术人员考虑研究的重点问题。
视频融合技术是目前再现真实场景的一种常用手段,该技术是指将一个或多个由视频采集设备采集的关于某场景或模型的图像序列视频与一个与之相关的虚拟场景加以融合,以生成一个新的关于此场景的虚拟场景或模型。通过视频融合技术,可以更加真实地反映交通场景,及时地对交通事故作出响应,发出警示,进而使交通事故的处理更加准确、迅速、快捷,辅助交通运行流畅。目前,现有的视频融合方法在对真实场景视频选取二维特征点时大多采用全自动的方式,该方式通常是把真实场景视频中所有的特征点选出,并对所有的特征点进行匹配计算,达到跟踪的目的,如SIFT算法、MSER算法、FAST算法、SURF算法等,这种方式的计算复杂度要高,耗时较多,同时由于选取的特征点过多,很难解决正确匹配的问题,不能被广泛地应用。
发明内容
针对上述现有技术存在的缺陷或不足,本发明的目的在于,提供一种执行效率高、可操作性强的半自动化对齐的视频融合系统及方法,该方法能够将摄像机采集的真实场景视频与虚拟系统构建的虚拟几何模型进行快速高校的融合。
为了实现上述任务,本发明采用如下的技术方案:
一种半自动化对齐的视频融合系统,包括用于对摄像机进行标定的A4棋盘网格纸、采集真实场景视频的摄像机、与摄像机相连接且对虚拟几何模型进行虚拟识别,对研究对象和虚拟几何模型动态叠加的PC机,PC机包括控制器、显示器、鼠标和键盘,其中,控制器用于分析处理视频数据,显示器用于将分析处理的结果同步显示,鼠标和键盘构成参数设置单元;对摄像机进行标定时,摄像机置于A4棋盘网格纸上方。
进一步的,所述的虚拟几何模型与所述摄像机所采集的真实场景视频中研究对象等比例。
上述半自动化对齐的视频融合系统的视频融合方法,该方法所采用的系统包括用于对摄像机进行标定的A4棋盘网格纸、采集真实场景视频的摄像机、与摄像机相连接且对虚拟几何模型进行虚拟识别,对研究对象和虚拟几何模型动态叠加的PC机,PC机包括控制器、显示器、鼠标和键盘,其中,控制器用于分析处理视频数据,显示器用于将分析处理的结果同步显示,鼠标和键盘构成参数设置单元;该方法具体按以下步骤进行:
步骤1),首先通过摄像机采集真实场景视频,启动PC机打开该视频,将该真实场景视频中的研究对象创建虚拟几何模型,所述虚拟几何模型与研究对象的尺寸成比例;
步骤2),摄像机的标定:通过对棋盘网格对摄像机进行标定获得摄像机的内参数。
步骤3),选取虚拟几何模型的三维特征点:获取采集的真实场景视频的第一帧视频中的所有二维特征点,在研究对象上随机选取8处二维特征点分布密集的位置,在研究对象的虚拟几何模型上相对应的8处位置各选取并标出一个三维特征点;
步骤4),选取真实场景视频中研究对象的二维特征点:在第一帧视频中的研究对象上选择8个二维特征点,将第一帧视频作为当前帧视频;
步骤5),当前帧视频中特征点跟踪和匹配:依次计算当前帧视频中每个二维特征点对应的虚拟相机的外参数M′2,从而得到当前帧视频时间段中的虚拟相机的位置和方向,进而实现当前帧视频中的研究对象和虚拟几何模型重合叠加显示;
步骤6),将真实场景视频的下一帧视频作为当前帧视频,通过子像素跟踪算法得到当前帧视频中8个二维特征点新的位置,循环执行步骤5),直至真实场景视频结束,即实现真实场景视频的研究对象与虚拟三维模型在同一窗口中动态叠加显示;
步骤7),误差控制:在真实场景视频结束后,计算特征点跟踪过程中每个三维特征点与其对应的二维特征点的位置绝对误差,如果有一个或一个以上三维特征点与二维特征点的位置绝对误差大于设定的阈值,则转入执行步骤4)重新进行试验,直至误差被控制在允许范围内,否则结束。
进一步的,所述步骤1)中通过3DMax将真实场景视频中的研究对象创建虚拟几何模型。
进一步的,所述步骤2)中所述的摄像机的内参数 M 1 = fx 0 u 0 0 fy v 0 0 0 1 , 其中包括摄像机的焦距(fx,fy),图像中心点位置(u0,v0)4个参数,采用的摄像机模型是针孔模型,针孔模型是线性的,不考虑镜头畸变。
进一步的,所述对摄像机2进行标定时,摄像机2置于A4棋盘网格纸1上方,通过A4棋盘网格纸1对摄像机2的标定只需一次。
进一步的,所述步骤3)中采用SURF算法获取采集的真实场景视频的第一帧视频中的所有二维特征点。
进一步的,所述步骤4)中所述的8个二维特征点的选取顺序与步骤3)中所述的8个三维特征点的选取顺序相同,每个二维特征点相对于研究对象上的位置与其对应的三维特征点在虚拟几何模型上的位置一致。
进一步的,所述步骤5)依次计算当前帧视频的每个二维特征点对应的虚拟相机的外参数M′2是指:根据公式1所示的三维特征点和二维特征点的匹配关系,按照8个二维特征点的选取顺序进行计算得到,
M 2 ′ = r 11 ′ r 12 ′ r 13 ′ t x ′ r 21 ′ r 22 ′ r 23 ′ t y ′ r 31 ′ r 32 ′ r 33 ′ t z ′ = fx 0 u 0 0 fy v 0 0 0 1 - 1 s u v 1 X Y Z 1 - 1 公式1
式中,s为齐次坐标的尺度缩放因子,(X,Y,Z)是二维特征点的世界坐标,(u,v)是二维特征点的世界坐标投影在真实场景视频的坐标; fx 0 u 0 0 fy v 0 0 0 1 是摄像头的内参数M1;M′2是虚拟相机的外参数,包括旋转与平移参数。
本发明的半自动化对齐的视频融合系统及其方法,与现有技术相比具有以下优点:
1)半自动化对齐的视频融合系统设备简单且投入成本非常低。
2)执行效率高。仅仅选取真实视频第一帧图像的8个二维特征点与虚拟的几何模型相匹配,反复通过子像素跟踪算法较为精确地得到新一帧视频中对应的8个二维特征点的位置,从而根据二维特征点与三维特征点的匹配关系,反算出虚拟相机的外参数,完成虚实物体动态的对齐显示。
3)根据误差进行反馈控制,即实时计算每个三维特征点与其对应的二维特征点的位置绝对误差,用来进行反馈控制,超过误差阈值即重新进行试验。
4)利用混合现实中增强现实的技术,将摄像机采集的真实视频与相对应的虚拟三维模型在同一个二维窗口中重叠融合显示,更好的与真实场景视频中的研究对象做出对比,方便操作人员的观察。
综上所述,本发明成本低、硬件设备简单、执行效率高、可操作性强,能够将真实视频与虚拟几何模型很好地、效率高地进行重叠融合,以半自动化对齐的视频融合方法达到了将虚拟几何模型和现实场景相结合的目的。
附图说明
图1为本发明的半自动化对齐的视频融合系统的结构示意图。
图2为本发明的半自动化对齐的视频融合方法的流程图。
图3为获取8个二维特征点的流程图。
图4为每一帧视频的特征点动态跟踪和匹配的流程图。
以下结合附图和具体实施方式对本发明作进一步的详细说明。
具体实施方式
如图1所示,本发明的半自动化对齐的视频融合系统,包括用于对摄像机2进行标定的A4棋盘网格纸1、采集真实场景视频的摄像机2、与摄像机2相连接且对虚拟几何模型进行虚拟识别,对研究对象和虚拟几何模型动态叠加的PC机3,PC机3包括控制器3-1、显示器3-2、鼠标和键盘,其中,控制器3-1用于分析处理视频数据,显示器3-2用于将分析处理的结果同步显示,鼠标和键盘构成参数设置单元;对摄像机2进行标定时,摄像机2置于A4棋盘网格纸1上方;通过A4棋盘网格纸1对摄像机2的标定只需一次。虚拟几何模型与摄像机2所采集的真实场景视频中研究对象等比例。
上述半自动化对齐的视频融合系统的视频融合方法,该方法所采用的系统包括用于对摄像机2进行标定的A4棋盘网格纸1、采集真实场景视频的摄像机2、与摄像机2相连接且对虚拟几何模型进行虚拟识别,对研究对象和虚拟几何模型动态叠加的PC机3,PC机3包括控制器3-1、显示器3-2、鼠标和键盘,其中,控制器3-1用于分析处理视频数据,显示器3-2用于将分析处理的结果同步显示,鼠标和键盘构成参数设置单元;如图2所示,该方法具体包括以下步骤:
步骤1),首先,通过摄像机采集真实场景视频,启动PC机打开该视频,将该真实场景视频中的研究对象通过3DsMax等三维制作软件创建虚拟几何模型,所述虚拟几何模型与真实场景视频中的研究对象的尺寸成比例;
步骤2),摄像机的标定:通过对棋盘网格进行标定获得摄像机的内参数M1 M 1 = fx 0 u 0 0 fy v 0 0 0 1 , 其中包括摄像机的焦距(fx,fy),图像中心点位置(u0,v0)4个参数,采用的摄像机模型是针孔模型,针孔模型是线性的,不考虑镜头畸变。对摄像机2进行标定时,摄像机2置于A4棋盘网格纸1上方;通过A4棋盘网格纸1对摄像机2的标定只需一次。
步骤3),选取虚拟几何模型的三维特征点:利用SURF算法获取采集的真实场景视频的第一帧视频中的所有二维特征点,然后在研究对象上随机选取8处二维特征点分布密集的位置,在研究对象的虚拟几何模型上相对应的8处位置各选一个三维特征点,并将选定的8个三维特征点在虚拟几何模型上标出;注意记住这8个点的选取顺序及它们各自在虚拟几何模型上的位置;
步骤4),选取真实场景视频中研究对象的二维特征点:如图3所示,在第一帧视频中的研究对象上依次选择8个二维特征点,该8个二维特征点的选取顺序与8个三维特征点的选取顺序相同,每个二维特征点相对于研究对象上的位置与其对应的三维特征点在虚拟几何模型上的位置一致;将第一帧视频作为当前帧视频;
步骤5),当前帧视频中特征点跟踪和匹配:如图4所示,对于当前帧视频的二维特征点,根据公式1所示的三维特征点和二维特征点的匹配关系,按照步骤4)中8个二维特征点的选取顺序,依次计算每个二维特征点对应的虚拟相机的外参数M′2,从而得到当前帧视频时间段中的虚拟相机的位置和方向,进而实现当前帧视频中的研究对象和虚拟几何模型重合叠加显示;
M 2 ′ = r 11 ′ r 12 ′ r 13 ′ t x ′ r 21 ′ r 22 ′ r 23 ′ t y ′ r 31 ′ r 32 ′ r 33 ′ t z ′ = fx 0 u 0 0 fy v 0 0 0 1 - 1 s u v 1 X Y Z 1 - 1 公式1
式中,s为齐次坐标的尺度缩放因子,(X,Y,Z)是二维特征点的世界坐标,(u,v)是二维特征点的世界坐标投影在真实场景视频的坐标, fx 0 u 0 0 fy v 0 0 0 1 是摄像头的内参数M1;M′2是虚拟相机的外参数,包括旋转与平移参数;
步骤6),将真实场景视频的下一帧视频作为当前帧视频,通过子像素跟踪算法得到当前帧视频中8个二维特征点新的位置,循环执行步骤5),直至真实场景视频结束,即可实现真实场景视频的研究对象与虚拟三维模型在同一窗口中动态叠加显示。假定视频中物体运动是连续且速度均匀的,下一帧视频中每个二维特征点必然在当前帧视频中与其对应的二维特征点位置附近。
步骤7),误差控制:在真实场景视频结束后,计算特征点跟踪过程中每个三维特征点与其对应的二维特征点的位置绝对误差,如果有一个或一个以上三维特征点与二维特征点的位置绝对误差大于设定的阈值,则转入执行步骤4)重新进行试验,直至误差被控制在允许范围内,否则结束。
误差产生的原因主要有:(I)虚拟三维模型与研究对象的比例关系不一致导致的误差;(II)真实摄像机(2)内参数计算时产生的误差;(III)二维特征点获取过程产生的误差;本发明的半自动化对齐的视频融合方法的误差主要源自第3个原因。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (5)

1.一种半自动化对齐的视频融合系统的视频融合方法,其特征在于,该方法所采用的系统包括用于对摄像机(2)进行标定的A4棋盘网格纸(1)、采集真实场景视频的摄像机(2)、与摄像机(2)相连接且对虚拟几何模型进行虚拟识别,对研究对象和虚拟几何模型动态叠加的PC机(3),PC机(3)包括控制器(3-1)、显示器(3-2)、鼠标和键盘,其中,控制器(3-1)用于分析处理视频数据,显示器(3-2)用于将分析处理的结果同步显示,鼠标和键盘构成参数设置单元;该方法具体按以下步骤进行:
步骤1),首先通过摄像机采集真实场景视频,启动PC机打开该视频,将该真实场景视频中的研究对象创建虚拟几何模型,所述虚拟几何模型与研究对象的尺寸成比例;
步骤2),摄像机的标定:通过对棋盘网格对摄像机进行标定获得摄像机的内参数;
摄像机的内参数 M 1 = fx 0 u 0 0 fy v 0 0 0 1 , 其中包括摄像机的焦距(fx,fy),图像中心点位置(u0,v0)4个参数,采用的摄像机模型是针孔模型,针孔模型是线性的,不考虑镜头畸变;
步骤3),选取虚拟几何模型的三维特征点:获取采集的真实场景视频的第一帧视频中的所有二维特征点,在研究对象上随机选取8处二维特征点分布密集的位置,在研究对象的虚拟几何模型上相对应的8处位置各选取并标出一个三维特征点;
步骤4),选取真实场景视频中研究对象的二维特征点:在第一帧视频中的研究对象上选择8个二维特征点,将第一帧视频作为当前帧视频;
步骤5),当前帧视频中特征点跟踪和匹配:依次计算当前帧视频中每个二维特征点对应的虚拟相机的外参数
Figure FDA00002895005600012
从而得到当前帧视频时间段中的虚拟相机的位置和方向,进而实现当前帧视频中的研究对象和虚拟几何模型重合叠加显示;
所述依次计算当前帧视频的每个二维特征点对应的虚拟相机的外参数
Figure FDA00002895005600013
是指:根据公式1所示的三维特征点和二维特征点的匹配关系,按照8个二维特征点的选取顺序进行计算得到;
M 2 ′ = r 11 ′ r 12 ′ r 13 ′ t x ′ r 21 ′ r 22 ′ r 23 ′ t y ′ r 31 ′ r 32 ′ r 33 ′ t z ′ = fx 0 u 0 0 fy v 0 0 0 1 - 1 s u v 1 X Y Z 1 - 1 公式1
式中,s为齐次坐标的尺度缩放因子,(u,v)是二维特征点的世界坐标投影在真实场景视频的坐标;(X,Y,Z)是二维特征点的世界坐标, fx 0 u 0 0 fy v 0 0 0 1 是摄像头的内参数M1
Figure FDA00002895005600023
是虚拟相机的外参数,包括旋转与平移参数;
步骤6),将真实场景视频的下一帧视频作为当前帧视频,通过子像素跟踪算法得到当前帧视频中8个二维特征点新的位置,循环执行步骤5),直至真实场景视频结束,即实现真实场景视频的研究对象与虚拟三维模型在同一窗口中动态叠加显示;
步骤7),误差控制:计算特征点跟踪过程中每个三维特征点与其对应的二维特征点的位置绝对误差,如果有一个或一个以上三维特征点与二维特征点的位置绝对误差大于设定的阈值,则转入执行步骤4)重新进行试验,直至误差被控制在允许范围内,否则结束。
2.如权利要求1所述的方法,其特征在于,所述步骤1)中通过3DMax将真实场景视频中的研究对象创建虚拟几何模型。
3.如权利要求1所述的方法,其特征在于,所述对摄像机(2)进行标定时,摄像机(2)置于A4棋盘网格纸(1)上方,通过A4棋盘网格纸(1)对摄像机(2)的标定只需一次。
4.如权利要求1所述的方法,其特征在于,所述步骤3)中采用SURF算法获取采集的真实场景视频的第一帧视频中的所有二维特征点。
5.如权利要求1所述的方法,其特征在于,所述步骤4)中所述的8个二维特征点的选取顺序与步骤3)中所述的8个三维特征点的选取顺序相同,每个二维特征点相对于研究对象上的位置与其对应的三维特征点在虚拟几何模型上的位置一致。
CN 201110277360 2011-09-19 2011-09-19 一种半自动化对齐的视频融合系统和方法 Expired - Fee Related CN102368810B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110277360 CN102368810B (zh) 2011-09-19 2011-09-19 一种半自动化对齐的视频融合系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110277360 CN102368810B (zh) 2011-09-19 2011-09-19 一种半自动化对齐的视频融合系统和方法

Publications (2)

Publication Number Publication Date
CN102368810A CN102368810A (zh) 2012-03-07
CN102368810B true CN102368810B (zh) 2013-07-17

Family

ID=45761359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110277360 Expired - Fee Related CN102368810B (zh) 2011-09-19 2011-09-19 一种半自动化对齐的视频融合系统和方法

Country Status (1)

Country Link
CN (1) CN102368810B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109035337A (zh) * 2018-07-10 2018-12-18 广州巧瞳科技有限公司 一种摄像头指向性的识别方法、系统、装置和存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708385B (zh) * 2012-04-06 2014-07-16 张丛喆 用于视频监控场景的三维车型比对识别的方法和系统
US9183618B2 (en) * 2012-05-09 2015-11-10 Nokia Technologies Oy Method, apparatus and computer program product for alignment of frames
CN104715479A (zh) * 2015-03-06 2015-06-17 上海交通大学 基于增强虚拟的场景复现检测方法
CN106993152B (zh) * 2016-01-21 2019-11-08 杭州海康威视数字技术股份有限公司 三维监控系统及其快速部署方法
US10834305B2 (en) 2016-04-11 2020-11-10 Spiideo Ab System and method for providing virtual pan-tilt-zoom, PTZ, video functionality to a plurality of users over a data network
CN107134194A (zh) * 2017-05-18 2017-09-05 河北中科恒运软件科技股份有限公司 沉浸式车辆模拟器
CN107368188B (zh) * 2017-07-13 2020-05-26 河北中科恒运软件科技股份有限公司 介导现实中的基于多重空间定位的前景抽取方法及系统
CN109982005A (zh) * 2017-12-27 2019-07-05 艾迪普(北京)文化科技股份有限公司 一种基于全景视频的图文跟随合成方法
CN108355347B (zh) * 2018-03-05 2021-04-06 网易(杭州)网络有限公司 交互控制方法、装置、电子设备及存储介质
WO2020133080A1 (zh) * 2018-12-27 2020-07-02 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
CN111934968B (zh) * 2020-06-28 2022-05-10 深圳市奥拓电子股份有限公司 一种环型链路视频控制方法、装置和系统
CN113949914A (zh) * 2021-08-19 2022-01-18 广州博冠信息科技有限公司 直播互动方法、装置、电子设备及计算机可读存储介质
CN113784107A (zh) * 2021-09-17 2021-12-10 国家能源集团陕西富平热电有限公司 一种用于视频信号的三维可视化显示方法和系统
CN113870163B (zh) * 2021-09-24 2022-11-29 埃洛克航空科技(北京)有限公司 基于三维场景的视频融合方法以及装置、存储介质、电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321302A (zh) * 2008-07-08 2008-12-10 浙江大学 基于摄像机阵列的三维实时获取系统
CN101505434A (zh) * 2009-03-12 2009-08-12 浙江大学 具有全局同步功能的高分辨率智能网络摄像机阵列系统
CN101646067A (zh) * 2009-05-26 2010-02-10 华中师范大学 数字化全空间智能监控系统及方法
CN101727182A (zh) * 2010-01-28 2010-06-09 南京航空航天大学 头盔式虚拟现实环境中参与者实际手的可视化方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321302A (zh) * 2008-07-08 2008-12-10 浙江大学 基于摄像机阵列的三维实时获取系统
CN101505434A (zh) * 2009-03-12 2009-08-12 浙江大学 具有全局同步功能的高分辨率智能网络摄像机阵列系统
CN101646067A (zh) * 2009-05-26 2010-02-10 华中师范大学 数字化全空间智能监控系统及方法
CN101727182A (zh) * 2010-01-28 2010-06-09 南京航空航天大学 头盔式虚拟现实环境中参与者实际手的可视化方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
俞俊.计算机角色动画制作中的可视媒体融合综述.《计算机辅助设计与图形学学报》.2008,第20卷(第5期),
计算机角色动画制作中的可视媒体融合综述;俞俊;《计算机辅助设计与图形学学报》;20080531;第20卷(第5期);545-552 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109035337A (zh) * 2018-07-10 2018-12-18 广州巧瞳科技有限公司 一种摄像头指向性的识别方法、系统、装置和存储介质

Also Published As

Publication number Publication date
CN102368810A (zh) 2012-03-07

Similar Documents

Publication Publication Date Title
CN102368810B (zh) 一种半自动化对齐的视频融合系统和方法
CN112894832B (zh) 三维建模方法、装置、电子设备和存储介质
CN104330074B (zh) 一种智能测绘平台及其实现方法
CN100432836C (zh) 实现二维全景真实成像的方法
CN101859433B (zh) 图像拼接设备和方法
CN102646275B (zh) 通过跟踪和定位算法实现虚拟三维叠加的方法
CN106355647A (zh) 增强现实系统和方法
CN103226838A (zh) 地理场景中移动监控目标的实时空间定位方法
CN107784038B (zh) 一种传感器数据的标注方法
CN104424630A (zh) 三维重建方法及装置、移动终端
CN105635551A (zh) 一种球型摄像机生成全景图像的方法及球型摄像机
CN105448184A (zh) 地图道路的绘制方法及装置
CN110793548B (zh) 基于gnss接收机硬件在环的虚实结合的导航仿真测试系统
CN104584032A (zh) 混合式精确跟踪
CN103914521B (zh) 基于混合瓦片金字塔的街景影像存储的方法及装置
CN107066975B (zh) 基于深度传感器的视频识别与跟踪系统及其方法
CN103942820A (zh) 一种多角度仿真三维地图的方法及装置
CN103065359A (zh) 一种光学成像的三维轮廓重建系统及其重建方法
CN103824277A (zh) 基于非线性参数优化标定的变电站三维实景监测布点方法
CN108170166A (zh) 机器人的跟随控制方法及其智能装置
CN103260008B (zh) 一种影像位置到实际位置的射影转换方法
CN107798010A (zh) 一种传感器数据的标注装置
CN105844700A (zh) 一种室外场景三维点云采集系统
CN111667591B (zh) 基于全景摄影的虚拟现实融合方法
CN203893850U (zh) 道路交通事故现场双目视觉三维测距系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130717

Termination date: 20200919