CN102831401B - 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 - Google Patents
对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 Download PDFInfo
- Publication number
- CN102831401B CN102831401B CN201210273907.6A CN201210273907A CN102831401B CN 102831401 B CN102831401 B CN 102831401B CN 201210273907 A CN201210273907 A CN 201210273907A CN 102831401 B CN102831401 B CN 102831401B
- Authority
- CN
- China
- Prior art keywords
- target object
- dimensional
- image
- real
- video camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明属于计算机应用技术领域,提供了一种对无特定标记目标物体跟踪、三维叠加及交互的方法及系统,首先从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板;然后利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;最后通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中;本方法利用加速surf算法对视频图像与模板图像进行特征匹配,完成摄像机标定,实现了无特定标记的目标物体实时跟踪、实时三维叠加,对每帧视频图像均实时计算目标的三维坐标信息,实现了现实中人或物和虚拟的人或物的交互,自动化程度较高,具有较强的推广与应用价值。
Description
技术领域
本发明属于增强现实技术领域,尤其涉及一种对无特定标记目标物体跟踪、三维叠加及交互的方法及系统。
背景技术
增强现实技术简称AR技术,也被称为扩增现实,把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息,声音,味道,触觉等),通过科学技术模拟仿真后再叠加到现实世界被人类感官所感知,从而达到超越现实的感官体验,这种技术叫做增强现实技术,简称AR技术。
增强现实可根据所应用的范围分为户内型与户外型。户内型增强现实从广义上说包括各种将数据层覆盖于建筑物内部物理空间的实践,为建筑师、壁画师、展览设计师和新媒体艺术家所关心;相对而言,狭义的户内型增强现实是在计算机技术支持下发展起来的,它允许用户在现实环境中与虚拟物体交互。
增强现实技术中的诸多关键技术中,跟踪和定位技术、以及摄像机标定技术是重点,同时也是难点。为了实现虚拟与现实交互,增强现实技术需要对目标物体的三维坐标信息进行精确定位,因而准确地跟踪目标物体在三维坐标系下的位置以及目标和摄像机之间的相对位置十分重要。传统的增强现实技术实现方法通常需要预先在已知位置上放置基准标记(例如四周加黑色的方框),通过识别和跟踪这些标记来间接跟踪目标物体,其优点是在确定或可控环境下能够实现鲁棒性较高的跟踪效果。缺点是不能实现直接对目标进行三维坐标信息提取和跟踪。
发明内容
本发明提供了一种对现实中存在的目标物体直接进行识别、三维坐标信息提取、跟踪的方法,旨在解决现有技术提供的增强现实技术需要预先在已知位置上放置基准标记,通过识别和跟踪这些标记来间接跟踪目标物体,不能自动对目标物体建立模板,并不能实现直接对现实中目标物体进行识别、三维坐标信息提取、跟踪的问题。
本发明的目的在于提供一种对无特定标记目标物体实时跟踪、三维叠加及交互的方法,该方法包括以下步骤:
从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板或预知已知目标物体的特征模版;
利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中,利用图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互。
进一步,所述利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息以及通过图形引擎将虚拟物体或动画实时叠加在现实空间三维坐标系的实现方法为:
对采集到的某一帧视频图像Q,利用surf算法求解出与模板匹配的所有特征点P={p1,p2,...,pn},其中,pi为图像Q中的特征点;
从全部匹配特征点P={p1,p2,...,pn}中选择4个最准确的匹配特征点jk∈{1,2,...,n},k=1,2,3,4,记录这些特征点的图像坐标值(ui,vi),i=j1,j2,j3,j4,并以其中一点为世界坐标原点,记录下其他特征点的世界坐标jk∈{1,2,...,n},k=1,2,3,4;
利用世界坐标系的坐标与其投影点的像素坐标(ui,vi)之间的关系式计算相机的外参数矩阵H,其中,i=j1,j2,j3,j4;
利用计算出的外参数矩阵H,在图形引擎中将当前视频帧图像作为三维引擎中三维场景的背景,在场景中所需要的位置渲染出三维模型,实现实时三维叠加;
利用图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互。
进一步,该方法可对摄像机拍摄图像中多个目标物体进行计算,得出每个物体的三维信息,对多个目标物体进行三维叠加。
进一步,目标物体相对于摄像机的三维信息为目标物体相对于摄像机的三维实时位移及旋转角度。
本发明的另一目的在于提供一种对无特定标记目标物体实时跟踪、三维叠加及交互的系统,该系统包括:
特征模板建立模块,用于从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板,也可预置已知的特征模板;
三维信息计算模块,与所述特征模板建立模块相连接,用于利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
三维模型叠加模块,与所述三维信息计算模块相连接,用于通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中。
进一步,所述系统还包括:
交互模块,与所述三维模型叠加模块相连接,用于通过图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互。
进一步,所述三维信息计算模块进一步包括:
三维实时位移计算单元,与所述特征模板建立模块相连接,用于计算出目标物体相对于摄像机的三维实时位移;
三维实时旋转角度计算单元,与所述特征模板建立模块相连接,用于计算出目标物体相对于摄像机的三维实时旋转角度。
本发明的另一目的在于提供一种对无特定标记目标物体实时跟踪、三维叠加及交互的方法,所述方法包括如下步骤:
步骤1,将目标物体物预先拍摄一张图片或者由程序从摄像机的图像中自动分割出目标物体作为模板M;
步骤2,对输入的每帧图像Q与模板图像M,利用加速surf算法进行特征点匹配;得到匹配特征点PQ={p1,p2,...,pn}Q,PM={p1,p2,...,pn}M,点分别为图像Q与模板M中的点,i=1,2,...,n;
步骤3,从图像Q与模板M中选取四对最准确的匹配特征点其中,jk∈{1,2,...,n},k=1,2,3,4;确定匹配特征点在对应图像上的像素坐标(uk,vk)Q,(uk,vk)M;并以其中一对匹配特征点k0∈{1,2,3,4}为世界坐标原点,记录下其它匹配特征点的世界坐标值 匹配特征点有相同的世界坐标;
步骤4,建立摄像机成像模型,利用世界坐标系下的坐标值 与其投影点的像素坐标值(uk,vk)Q,(uk,vk)M之间的关系式,计算摄像机的内参数N和外参数H:
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v,轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为相机内部参数矩阵;H为相机的外部参数矩阵;
步骤5,由于摄像机存在镜头畸变,引入透镜的径向畸变和切向畸变,xd、yd分别为考虑畸变情况下的像点物理坐标,有等式:
其中k1、k2为径向畸变,k3、k4为切向畸变,
步骤6,利用步骤3记录的特征点图像坐标值代入到步骤4和步骤5中的公式,计算出外参数矩阵H;
步骤7,利用三维引擎,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加。
进一步,所述方法还可对图像中多个目标物体进行计算,得出每个物体的三维信息,从而实现多个目标物体的叠加效果以及运用上述的三维叠加、实时跟踪方法,配合语音识别、动作捕捉、肢体识别技术,在三维引擎中实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间等的碰撞,即可实现现实中人或物和虚拟的人或物的交互效果。
本发明提供的对无特定标记目标物体跟踪、三维叠加及交互的方法及系统,首先从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板;然后利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;最后通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中;利用加速surf算法对视频图像与模板图像进行特征匹配,完成摄像机标定,实现了无特定标记的目标物体实时跟踪、实时三维叠加,对每帧视频图像均实时计算目标的三维坐标信息,实现了现实中人或物和虚拟的人或物的交互,具有较强的推广与应用价值。
附图说明
图1是本发明实施例提供的对无特定标记目标物体实时跟踪、三维叠加及交互的方法的实现流程图;
图2是本发明实施例提供的对无特定标记目标物体实时跟踪、三维叠加及交互的系统的结构框图。
图3是本发明实施例提供的对无特定标记目标物体实时跟踪、三维叠加及交互的方法的具体实现流程图;
图4是本发明实施例提供的CCD相机成像原理。
图中:21、特征模板建立模块;22、三维信息计算模块;221、三维实时位移计算单元;222、三维实时旋转角度计算单元;23、三维模型叠加模块。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定发明。
图1示出了本发明实施例提供的对无特定标记目标物体实时跟踪、三维叠加及交互的方法的实现流程。
该方法包括以下步骤:
在步骤S101中,从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板;
在步骤S102中,利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
在步骤S103中,通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中。
在本发明实施例中,利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息以及通过图形引擎将虚拟物体或动画实时叠加在现实空间三维坐标系的实现方法为:
对采集到的某一帧视频图像Q,利用surf算法求解出与模板匹配的所有特征点P={p1,p2,...,pn},其中,pi为图像Q中的特征点;
从全部匹配特征点P={p1,p2,...,pn}中选择4个最准确的匹配特征点jk∈{1,2,...,n},k=1,2,3,4,记录这些特征点的图像坐标值(ui,vi),i=j1,j2,j3,j4,并以其中一点为世界坐标原点,记录下其他特征点的世界坐标jk∈{1,2,...,n},k=1,2,3,4;
利用世界坐标系的坐标与其投影点的像素坐标(ui,vi)之间的关系式计算相机的外参数矩阵H,其中,i=j1,j2,j3,j4;
利用计算出的外参数矩阵H,将当前视频帧图像作为三维引擎中三维场景的背景,在场景中所需要的位置渲染出三维模型,实现实时三维叠加。
在本发明实施例中,无特定标记是指不需要对目标物体建立模版时加特定标记,如黑色方框、圆框或其他标识,而是使用目标物体照片作为模版,对物体直接进行识别。
在本发明实施例中,该方法可对摄像机拍摄图像中多个目标物体进行计算,得出每个物体的三维信息,对多个目标物体进行三维叠加。
在本发明实施例中,目标物体相对于摄像机的三维信息为目标物体相对于摄像机的三维实时位移及旋转角度。
图2示出了本发明实施例提供的对无特定标记目标物体实时跟踪、三维叠加及交互的系统的结构。为了便于说明,仅示出了与本发明相关的部分。
该系统包括:
特征模板建立模块21,用于从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板;
三维信息计算模块22,与特征模板建立模块21相连接,用于利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
三维模型叠加模块23,与三维信息计算模块22相连接,用于通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中。
在本发明实施例中,该系统还包括:
交互模块24,与所述三维模型叠加模块相连接,用于通过图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互。
在本发明实施例中,三维信息计算模块22包括:
三维实时位移计算单元221,与特征模板建立模块21相连接,用于计算出目标物体相对于摄像机的三维实时位移;
三维实时旋转角度计算单元222,与特征模板建立模块21相连接,用于计算出目标物体相对于摄像机的三维实时旋转角度。
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
自动建立目标是指程序从摄像机拍摄的图像中分割出目标物体(目标物体可以是:图形、现实物体、人的肢体和躯干等)并自动建立该目标的特征模板方法;无特定标记目标物体是指目标物体(目标物体可以是:图形、现实物体、人的肢体和躯干等)的自身特征(自身特征可以是特征点、点方向、点坐标、纹理、轮廓等),不用外加特定标记的现实物体和图片;实时跟踪是指在摄像机拍摄到图像中检测目标物体,并根据目标物体特征为基础,计算出目标物体相对于摄像机实时位移和旋转角度的方法;三维叠加是指在摄像机拍摄到图像中检测目标物体,并根据目标物体特征为基础,计算出目标物体相对于摄像机位移和旋转角度后,建立空间中的三维坐标系,然后通过图形引擎(例如:OPENGL、DIRECTX、三维图形处理引擎或虚拟现实软件)将三维或二维的虚拟物体或动画实时叠加在现实的空间三维坐标系中;交互是指运用三维叠加、实时跟踪、物体识别和人体动作识别等技术,实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间等的碰撞,从而实现现实中人和虚拟物体的交互功能。
从摄像机拍摄的图像中分割出目标物体并自动建立该目标物体的特征模板;在不用基准标记的状况下,利用目标的自身特征,直接对目标进行识别,并计算出目标物体相对于摄像机实时位移和旋转角度等三维信息;通过图形引擎(例如:OPENGL、DIRECTX、FLASH、三维图形处理引擎或虚拟现实软件等)将三维或二维的虚拟物体或动画实时叠加在现实的空间三维坐标系中;可对图像中多个目标物体进行计算,得出每个物体的三维信息,从而实现多个目标物体的叠加效果;运用三维叠加、实时跟踪、物体识别和人体动作识别等技术,实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间等的碰撞,从而实现现实中人或物和虚拟的人或物的交互功能。
首先,拍摄一个或多个目标物体的图片或者由程序从摄像机的图像中分割出一个或多个目标物体图片作为模板,然后运用加速surf算法可计算视频图像中目标物体的自身特征,利用其自身特征便可直接地跟踪目标物体,实时地计算出视频中一个或多个目标物体相对于摄像机的三维坐标和旋转信息。根据这些三维坐标信息,利用三维引擎(三维引擎可以是OPENGL、DIRECTX、FLASH、三维图形处理引擎或虚拟现实软件等任意一款来实现,此处采用了OPENGL做示例)平台,实时对每个目标物体叠加三维物体,同时配合语音识别、肢体识别、人体躯干识别、动作捕捉、体感等辅助技术,使用三维引擎中的物理碰撞功能,可实现华丽的人机交互效果。此外,本方法可以在Windows,Linux,WindowsPhone,IOS,MacOSX,Android等操作系统中应用。
本发明设计新颖,技术方案先进,功能完善,成本低廉,操作简单,可广泛运用于教育、出版、营销、展示、旅游、文化、军事、游戏、互联网等领域。
1)预先拍摄一张需要叠加三维模型的目标物体图片或者由程序从摄像机的图像中自动分割出目标物体图片作为模板M;
2)对采集到的某一帧视频图像Q,利用surf算法求解出与模板M匹配的所有特征点P={p1,p2,...,pn};其中,pi为图像Q中的特征点;
3)从全部匹配特征点P={p1,p2,...,pn}中选择4个最准确的匹配特征点jk∈{1,2,...,n},k=1,2,3,4;记录这些特征点的图像坐标值(ui,vi),i=j1,j2,j3,j4;此外,以其中一点为世界坐标原点,记录下其他特征点的世界坐标jk∈{1,2,...,n},k=1,2,3,4;
4)利用世界坐标系的坐标与其投影点的像素坐标(ui,vi)之间的关系式计算相机的外参数H,其中,i=j1,j2,j3,j4;
5)利用计算出的外参数矩阵H,将当前视频帧图像作为三维引擎中三维场景的背景,在场景中所需要的位置渲染出三维模型,从而实现了实时三维叠加的效果。
6)利用采用上述方法,还可对图像中多个目标物体进行计算,得出每个物体的三维信息,从而实现多个目标物体的叠加效果。
7)运用上述的三维叠加、实时跟踪方法,配合语音识别、动作捕捉、肢体识别等技术,在三维引擎中实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间等的碰撞,即可实现现实中人或物和虚拟的人或物的交互效果。
以下结合具体实例,对本发明实现方法进行详细说明。
参照附图3,本发明是实现增强现实技术的一种解决方法,包括如下步骤:
步骤1,将目标物体物预先拍摄一张图片或者由程序从摄像机的图像中自动分割出目标物体作为模板M;
步骤2,对输入的每帧图像Q与模板图像M,利用加速surf算法进行特征点匹配;得到匹配特征点PQ={p1,p2,...,pn}Q,PM={p1,p2,...,pn}M,点分别为图像Q与模板M中的点,i=1,2,...,n;
步骤3,从图像Q与模板M中选取四对最准确的匹配特征点其中,jk∈{1,2,...,n},k=1,2,3,4;确定匹配特征点在对应图像上的像素坐标(uk,vk)Q,(uk,vk)M;并以其中一对匹配特征点k0∈{1,2,3,4}为世界坐标原点,记录下其它匹配特征点的世界坐标值 匹配特征点有相同的世界坐标;
步骤4,建立如图4所示的摄像机成像模型,利用世界坐标系下的坐标值 与其投影点的像素坐标值(uk,vk)Q,(uk,vk)M之间的关系式,计算摄像机的内参数N和外参数H:
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为相机内部参数矩阵;H为相机的外部参数矩阵。
步骤5,由于摄像机存在镜头畸变,成像模型并不能满足线性关系,而是一种非线性关系,需要引入透镜的径向畸变和切向畸变,xd、yd分别为考虑畸变情况下的像点物理坐标,有等式:
其中k1、k2为径向畸变,k3、k4为切向畸变,
步骤6,利用步骤3记录的特征点图像坐标值代入到步骤4)和步骤5)中的公式,计算出外参数矩阵H。
步骤7,利用三维引擎,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加。
步骤8,利用采用上述方法,还可对图像中多个目标物体进行计算,得出每个物体的三维信息,从而实现多个目标物体的叠加效果。
步骤9,运用上述的三维叠加、实时跟踪方法,配合语音识别、动作捕捉、肢体识别等技术,在三维引擎中实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间等的碰撞,即可实现现实中人或物和虚拟的人或物的交互效果。
通过实验可以得到:摄像机拍摄的每一帧图像,程序会实时地将其与模板图像进行特征点匹配。若一个或多个目标物体出现在视频图像中,则可以得到一个或多个目标物体最匹配特征点的数据,包括图像像素坐标以及世界坐标,利用这些数据可计算出当前帧图像的相机外参数,将相机外参数矩阵赋给三维引擎中的相应模型视角矩阵,绘制用户自定义的三维模型。
用本发明的方法对视频中出现的各个目标物体进行相机外参数的计算,再将参数赋给三维引擎中相应的模型视角矩阵,渲染用户自定义的三维物体,实时性完全满足实际要求。
本发明实施例提供的对无特定标记目标物体跟踪、三维叠加及交互的方法及系统,首先从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板;然后利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;最后通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中;利用加速surf算法对视频图像与模板图像进行特征匹配,完成摄像机标定,实现了无特定标记的目标物体实时跟踪、实时三维叠加,对每帧视频图像均实时计算目标的三维坐标信息,实现了现实中人或物和虚拟的人或物的交互,具有较强的推广与应用价值。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种对无特定标记目标物体实时跟踪、三维叠加及交互的方法,其特征在于,该方法包括以下步骤:
从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板或预知已知目标物体的特征模版;
利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中,利用图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互;
所述利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息以及通过图形引擎将虚拟物体或动画实时叠加在现实空间三维坐标系的实现方法为
对采集到的某一帧视频图像Q,利用surf算法求解出与模板匹配的所有特征点P={p1,p2,...,pn},其中,pi为图像Q中的特征点;
从全部匹配特征点P={p1,p2,...,pn}中选择4个最准确的匹配特征点jk∈{1,2,...,n},k=1,2,3,4,记录这些特征点的图像坐标值(ui,vi),i=j1,j2,j3,j4,并以其中一点为世界坐标原点,记录下其他特征点的世界坐标jk∈{1,2,...,n},k=1,2,3,4;
利用世界坐标系的坐标与其投影点的像素坐标(ui,vi)之间的关系式计算相机的外参数矩阵H,其中,i=j1,j2,j3,j4;
利用计算出的外参数矩阵H,在图形引擎中将当前视频帧图像作为三维引擎中三维场景的背景,在场景中所需要的位置渲染出三维模型,实现实时三维叠加;
利用图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互;
该方法可对摄像机拍摄图像中多个目标物体进行计算,得出每个物体的三维信息,对多个目标物体进行三维叠加;
目标物体相对于摄像机的三维信息为目标物体相对于摄像机的三维实时位移及旋转角度;
从摄像机拍摄的图像中分割出目标物体,并自动建立目标物体的特征模板或预知已知目标物体的特征模版;
利用目标物体的自身特征,直接对目标物体进行识别,并计算出目标物体相对于摄像机的三维信息;
通过图形引擎将虚拟物体或动画实时叠加在现实的空间三维坐标系中,利用图形引擎中的交互功能,实现三维叠加的虚拟物体和现实物体之间的交互。
2.一种对无特定标记目标物体实时跟踪、三维叠加及交互的方法,其特征在于,所述方法包括如下步骤:
步骤1,将目标物体物预先拍摄一张图片或者由程序从摄像机的图像中自动分割出目标物体作为模板M;
步骤2,对输入的每帧图像Q与模板图像M,利用加速surf算法进行特征点匹配;得到匹配特征点PQ={p1,p2,...,pn}Q,PM={p1,p2,...,pn}M,点分别为图像Q与模板M中的点,i=1,2,...,n;
步骤3,从图像Q与模板M中选取四对最准确的匹配特征点其中,jk∈{1,2,...,n},k=1,2,3,4;确定匹配特征点在对应图像上的像素坐标(uk,vk)Q,(uk,vk)M;并以其中一对匹配特征点k0∈{1,2,3,4}为世界坐标原点,记录下其它匹配特征点的世界坐标值匹配特征点有相同的世界坐标;
步骤4,建立摄像机成像模型,利用世界坐标系下的坐标值与其投影点的像素坐标值(uk,vk)Q,(uk,vk)M之间的关系式,计算摄像机的内参数N和外参数H
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为相机内部参数矩阵;H为相机的外部参数矩阵;
步骤5,由于摄像机存在镜头畸变,引入透镜的径向畸变和切向畸变,xd、yd分别为考虑畸变情况下的像点物理坐标,有等式:
其中k1、k2为径向畸变,k3、k4为切向畸变,
步骤6,利用步骤3记录的特征点图像坐标值代入到步骤4和步骤5中的公式,计算出外参数矩阵H;
步骤7,利用三维引擎,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加;
所述方法还可对图像中多个目标物体进行计算,得出每个物体的三维信息,从而实现多个目标物体的叠加效果以及运用上述的三维叠加、实时跟踪方法,配合语音识别、动作捕捉、肢体识别技术,在三维引擎中实时检测图像中的虚拟物体和虚拟物体之间,现实物体和虚拟物体之间、现实人和虚拟物体之间的碰撞,实现现实中人或物和虚拟的人或物的交互效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210273907.6A CN102831401B (zh) | 2012-08-03 | 2012-08-03 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210273907.6A CN102831401B (zh) | 2012-08-03 | 2012-08-03 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102831401A CN102831401A (zh) | 2012-12-19 |
CN102831401B true CN102831401B (zh) | 2016-01-13 |
Family
ID=47334529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210273907.6A Active CN102831401B (zh) | 2012-08-03 | 2012-08-03 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102831401B (zh) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140095414A (ko) * | 2013-01-24 | 2014-08-01 | (주) 애니펜 | 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
EP2770783B1 (en) * | 2013-02-21 | 2018-06-20 | Apple Inc. | A wearable information system having at least one camera |
CN103544724A (zh) * | 2013-05-27 | 2014-01-29 | 华夏动漫集团有限公司 | 一种利用增强现实与卡片识别技术在移动智能终端实现虚拟动漫角色的系统及方法 |
CN103543754A (zh) * | 2013-10-17 | 2014-01-29 | 广东威创视讯科技股份有限公司 | 一种三维gis漫游中相机的控制方法及装置 |
CN104079816B (zh) * | 2013-11-11 | 2018-02-27 | 国网山东省电力公司 | 一种基于虚拟现实技术的监控摄像机自动控制方法 |
CN103593658A (zh) * | 2013-11-22 | 2014-02-19 | 中国电子科技集团公司第三十八研究所 | 一种基于红外图像识别的三维空间定位系统 |
CN105205799B (zh) * | 2014-06-10 | 2019-04-02 | 北京七鑫易维信息技术有限公司 | 一种具有全方位特征面的装置及增强现实三维注册系统 |
CN104270577A (zh) * | 2014-08-22 | 2015-01-07 | 北京德馨同创科技发展有限责任公司 | 用于移动智能终端的图像处理方法和装置 |
CN104598036B (zh) * | 2015-03-02 | 2019-03-08 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN105025209B (zh) * | 2015-06-30 | 2018-03-02 | 广东欧珀移动通信有限公司 | 一种图像预览方法和装置 |
CN105096382B (zh) * | 2015-07-09 | 2018-04-27 | 浙江宇视科技有限公司 | 一种在视频监控图像中关联真实物体信息的方法及装置 |
CN104966307B (zh) * | 2015-07-10 | 2019-03-01 | 成都品果科技有限公司 | 一种基于实时跟踪的ar方法 |
CN106569591A (zh) * | 2015-10-26 | 2017-04-19 | 苏州梦想人软件科技有限公司 | 基于计算机视觉跟踪和传感器跟踪的跟踪方法和跟踪系统 |
CN105405168A (zh) * | 2015-11-19 | 2016-03-16 | 青岛黑晶信息技术有限公司 | 一种实现三维增强现实的方法及装置 |
CN105574545B (zh) * | 2015-12-17 | 2018-01-02 | 福州华鹰重工机械有限公司 | 街道环境图像多视角语义切割方法及装置 |
CN105635712B (zh) * | 2015-12-30 | 2018-01-19 | 视辰信息科技(上海)有限公司 | 基于增强现实的视频实时录制方法及录制设备 |
CN105701828B (zh) * | 2016-01-14 | 2019-09-20 | 广州视睿电子科技有限公司 | 一种图像处理方法和装置 |
CN105681684A (zh) * | 2016-03-09 | 2016-06-15 | 北京奇虎科技有限公司 | 基于移动终端的图像实时处理方法及装置 |
CN107798704B (zh) * | 2016-08-30 | 2021-04-30 | 成都理想境界科技有限公司 | 一种用于增强现实的实时图像叠加方法及装置 |
CN106408515A (zh) * | 2016-08-31 | 2017-02-15 | 郑州捷安高科股份有限公司 | 一种增强现实的视景合成系统 |
CN107992188B (zh) * | 2016-10-26 | 2021-12-07 | 宏达国际电子股份有限公司 | 虚拟现实交互方法、装置与系统 |
CN108154074A (zh) * | 2016-12-02 | 2018-06-12 | 金德奎 | 一种基于位置和图像识别的图像匹配方法 |
CN107077216A (zh) * | 2016-12-19 | 2017-08-18 | 深圳市阳日电子有限公司 | 一种画面显示的方法及移动终端 |
CN106791784B (zh) * | 2016-12-26 | 2019-06-25 | 深圳增强现实技术有限公司 | 一种虚实重合的增强现实显示方法和装置 |
CN106873768B (zh) * | 2016-12-30 | 2020-05-05 | 中兴通讯股份有限公司 | 一种增强现实方法、装置及系统 |
CN106774935B (zh) * | 2017-01-09 | 2020-03-31 | 京东方科技集团股份有限公司 | 一种显示设备 |
CN107077739A (zh) * | 2017-01-23 | 2017-08-18 | 香港应用科技研究院有限公司 | 使用单目相机的三维标记模型构建和实时跟踪 |
CN106846448A (zh) * | 2017-02-09 | 2017-06-13 | 武汉吉客威睿数字科技有限公司 | 一种基于虚拟现实的微课录制方法及系统 |
CN107369188A (zh) * | 2017-07-12 | 2017-11-21 | 北京奇虎科技有限公司 | 图像的合成方法及装置 |
CN107464290A (zh) * | 2017-08-07 | 2017-12-12 | 上海白泽网络科技有限公司 | 三维信息展示方法、装置和移动终端 |
CN107589093A (zh) * | 2017-09-08 | 2018-01-16 | 邓雷 | 一种基于回归分析的煤质在线检测分析方法 |
CN107734265A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
CN107613223A (zh) * | 2017-09-11 | 2018-01-19 | 广东欧珀移动通信有限公司 | 图像处理方法及装置、电子装置和计算机可读存储介质 |
CN107811443A (zh) * | 2017-10-23 | 2018-03-20 | 中山职业技术学院 | 一种多用途的折叠家具椅 |
CN107918955A (zh) * | 2017-11-15 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 增强现实方法和装置 |
CN109934931B (zh) * | 2017-12-19 | 2023-03-28 | 阿里巴巴集团控股有限公司 | 采集图像、建立目标物体识别模型的方法及装置 |
CN108230366B (zh) * | 2017-12-28 | 2021-09-07 | 厦门市美亚柏科信息股份有限公司 | 一种目标物的追踪方法 |
CN108427499A (zh) * | 2018-02-13 | 2018-08-21 | 视辰信息科技(上海)有限公司 | 一种ar系统及ar设备 |
CN108447032B (zh) * | 2018-03-07 | 2021-10-08 | 浙江大学 | 一种基于增强现实的绘画作品临摹和再创作方法 |
CN108492378A (zh) * | 2018-03-15 | 2018-09-04 | 南京智格电力科技有限公司 | 一种基于ar图像增强技术的故障排除方法 |
CN108495032B (zh) * | 2018-03-26 | 2020-08-04 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN108830894B (zh) * | 2018-06-19 | 2020-01-17 | 亮风台(上海)信息科技有限公司 | 基于增强现实的远程指导方法、装置、终端和存储介质 |
CN109003305B (zh) * | 2018-07-18 | 2021-07-20 | 江苏实景信息科技有限公司 | 一种定位定姿方法及装置 |
CN109102527B (zh) * | 2018-08-01 | 2022-07-08 | 甘肃未来云数据科技有限公司 | 基于标识点的视频动作的获取方法和装置 |
CN109685913B (zh) * | 2018-12-21 | 2022-12-02 | 西安电子科技大学 | 基于计算机视觉定位的增强现实实现方法 |
CN109740587B (zh) * | 2018-12-22 | 2022-05-10 | 武汉新运维光电科技股份有限公司 | 输电线路增强现实智能巡检系统及方法 |
CN110443850B (zh) * | 2019-08-05 | 2022-03-22 | 珠海优特电力科技股份有限公司 | 目标对象的定位方法及装置、存储介质、电子装置 |
CN110443898A (zh) * | 2019-08-12 | 2019-11-12 | 北京枭龙科技有限公司 | 一种基于深度学习的ar智能终端目标识别系统及方法 |
CN110691175B (zh) * | 2019-08-19 | 2021-08-24 | 深圳市励得数码科技有限公司 | 演播室中模拟摄像机运动跟踪的视频处理方法及装置 |
CN111476816A (zh) * | 2019-09-29 | 2020-07-31 | 深圳市捷高电子科技有限公司 | 一种智能多种物体高效同时识别方法 |
CN111880649A (zh) * | 2020-06-24 | 2020-11-03 | 合肥安达创展科技股份有限公司 | Ar观景仪的演示方法、系统及计算机可读储存介质 |
CN112634411B (zh) * | 2021-01-06 | 2023-04-07 | 上海欣子信息科技有限公司 | 一种动画生成方法、系统及其可读介质 |
CN114549766B (zh) * | 2022-04-24 | 2022-09-09 | 成都纵横自动化技术股份有限公司 | 一种实时ar可视化方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101859439A (zh) * | 2010-05-12 | 2010-10-13 | 合肥寰景信息技术有限公司 | 一种用于人机交互的运动追踪装置及其追踪方法 |
-
2012
- 2012-08-03 CN CN201210273907.6A patent/CN102831401B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101859439A (zh) * | 2010-05-12 | 2010-10-13 | 合肥寰景信息技术有限公司 | 一种用于人机交互的运动追踪装置及其追踪方法 |
Non-Patent Citations (3)
Title |
---|
《结合SURF与聚类分析方法实现运动目标的快速跟踪》;李英等;《液晶与显示》;20110831;第26卷(第4期);正文第544-550页 * |
《镜头畸变及其校正技术》;朱铮涛等;《光学技术》;20050131;第31卷(第1期);正文第136-138、141页 * |
陈卓.《基于自然特征点的增强现实系统配准技术研究》.《中国优秀硕士学位论文全文数据库信息科技辑》.2011,第I138-1099. * |
Also Published As
Publication number | Publication date |
---|---|
CN102831401A (zh) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102831401B (zh) | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 | |
US11537894B2 (en) | Fully convolutional interest point detection and description via homographic adaptation | |
US11030525B2 (en) | Systems and methods for deep localization and segmentation with a 3D semantic map | |
CN112150575B (zh) | 场景数据获取方法及模型训练方法、装置及计算机设备 | |
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
Bostanci et al. | Augmented reality applications for cultural heritage using Kinect | |
CN107016704A (zh) | 一种基于增强现实的虚拟现实实现方法 | |
Sekkat et al. | The omniscape dataset | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及系统 | |
CN103366610A (zh) | 基于增强现实的三维互动学习系统及方法 | |
CN109543285B (zh) | 一种融合数据驱动与强化学习的人群疏散仿真方法和系统 | |
CN104537705A (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
TWI797715B (zh) | 用於使用從透視校正影像中所提取之特徵的特徵匹配之電腦實施方法、電腦系統及非暫時性電腦可讀記憶體 | |
CN112954292B (zh) | 一种基于增强现实的数字博物馆导览系统和方法 | |
CN107145224A (zh) | 基于三维球面泰勒展开的人眼视线跟踪方法和装置 | |
CN107452056A (zh) | 一种增强现实的教学系统及其控制方法 | |
CN112085835A (zh) | 三维卡通人脸生成方法、装置、电子设备及存储介质 | |
KR20200136723A (ko) | 가상 도시 모델을 이용하여 객체 인식을 위한 학습 데이터 생성 방법 및 장치 | |
CN114092670A (zh) | 一种虚拟现实显示方法、设备以及存储介质 | |
CN108765575A (zh) | 一种基于ar的工业设备图鉴展示方法和系统 | |
CN109215128B (zh) | 物体运动姿态图像的合成方法及系统 | |
Masuda et al. | Event-Based Camera Tracker by∇ t NeRF | |
CN110008873B (zh) | 面部表情捕捉方法、系统及设备 | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
WO2023151271A1 (zh) | 模型展示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |