CN101520904B - 带有现实环境估算的增强现实的方法及其系统 - Google Patents
带有现实环境估算的增强现实的方法及其系统 Download PDFInfo
- Publication number
- CN101520904B CN101520904B CN2009100481123A CN200910048112A CN101520904B CN 101520904 B CN101520904 B CN 101520904B CN 2009100481123 A CN2009100481123 A CN 2009100481123A CN 200910048112 A CN200910048112 A CN 200910048112A CN 101520904 B CN101520904 B CN 101520904B
- Authority
- CN
- China
- Prior art keywords
- mark
- unique point
- frame
- point
- front elevation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
带有现实环境估算的增强现实的方法及其系统,包括:初始化系统环境、配置系统参数;选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;计算标志物图像的相机内部参数并进行校正;对摄像头拍摄到的真实环境中的每一帧,进行校正,基于训练数据识别标志物,计算该标志物在摄像头坐标系中的相对位置矩阵;通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置,绘制虚拟模型,通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息,进行现实环境光源估算,估算出现实光源的位置,生成阴影。本发明极大地减少了对标志物的限制,可用于对地图与复杂二维图像进行标示。
Description
技术领域
本发明属于增强现实技术领域,特别涉及增强现实的方法及系统,应用于虚拟现实与计算机视觉领域,利用模式识别与虚拟现实技术对视频采集到的现实图像帧起到添加内容、增强效果的作用。
背景技术
增强现实(AR,Augmented Reality)是利用虚拟物体对真实场景进行现实增强的技术。增强现实基于摄像头等采集器件采集到的真实物理环境,通过将文本、二维图像、三维模型等虚拟生成的信息标注在显示屏所显示的真实物理环境中的物体上,从而实现对用户身处的现实物理环境的注释、说明,或者增强、强调现实环境的某些效果。比如用户戴上专用的增强现实显示眼镜,观察某个复杂机械时,他不仅可以看到现实世界中存在的机械结构本身,还可以同时看到通过增强现实技术附加的多媒体信息如机械各个部分的介绍等。增强现实技术给用户一种虚拟对象与现实环境两相融合的体验,它能有效地帮助用户认知周围环境,增添周围环境的信息,实现用户与周围环境的交互。
“ARToolkit”是一种可用于增强现实的开源软件包。ARtoolkit使用计算机视觉技术来计算真实摄像场景与标记符号之间的相对位置关系。ARToolkit的主要算法流程为:输入实时捕获的视频图像帧,通过可设定的阈值将其转换成黑白二值图;搜索场景中标志物的黑框颜色所对应的连通区域,作为标志物黑框的候选对象;得到各连通区域的轮廓线,若能提取出四条相交的直边,则作为可能的标志物;利用四条直边找到的角特征,进行形变矫正,并计算出标志物变换成前视图的一个单应性矩阵(homography)变换;利用该单应性矩阵在标志物的黑框内部区域进行采样,采样模板一般为16×16,共得到256个采样点构成一个采样向量;将这个采样向量与预先存放在标志物数据库的标志物逐个进行比较,计算标志物上相应点构成的向量与采样向量的归一化向量点积,得到一个可信度值;如果可信度值低于一个阈值,就当作是未匹配成功,否则就是匹配成功。根据匹配成功的标志物查找到相对应的虚拟物体,将虚拟物体按相机与标志物的当前相对方位进行变换,使之与标志物相吻合。
现有技术中,有基于ARToolKit包与二维可视编码技术实现三维增强现实的方法和系统,用以实现虚实物体之间映射关系的建立。该系统具体包括:视频帧捕获模块、视频跟踪模块、虚拟图形系统模块、虚实合成模块以及视频显示模块,各个部分功能具体为:
A、视频帧捕获模块,用于捕获二维可视编码标志物的视频帧,并将该视频帧发送给视频跟踪模块;
B、视频跟踪模块,用于计算处理获得的标志物视频帧,根据计算处理结果获得从标志物坐标系到相机坐标系的变换矩阵;通过采样二维可视编码中编码图案,获得标志物编码值,检索出与该编码值对应的三维模型,并根据该三维模型的顶点数组与变换矩阵的乘积,得到该三维图形在相机坐标系下的坐标数组。
C、虚拟图形系统模块,用于根据获得的三维图形在相机坐标系下的坐标数组绘制对应的三维图形,并将该三维图形存储在帧缓存中,生成虚拟图形帧。
D、虚实合成模块,用于将获得的虚拟图形帧与二维可视编码标志物的视频帧进行合成,得到合成视频帧。
该技术方案的主要特点为:
1、在现有的三维增强现实技术中引入规范的二维可视化编码图像作为跟踪所用标志物,以代替现有技术中ARToolkit采用的任意形状的标志物,从而提高了ARToolkit中的跟踪算法速度以及可靠性、并且加快了模式匹配处理速度。
2、在现有的二维可视化编码基础上引入对三维相对变换信息的计算与提取,检索出相应的三维媒体信息并且三维注册合成的增强现实技术,该技术可识别出二维可视编码,还能将得到的其对应的三维空间位置,通过编码检索到的三维模型实时地增强显示在编码图形上,进而实现增强现实功能。
3、主要用于在计算资源相对有限的手持移动计算设备上实施增强现实技术,拓展增强现实技术的应用领域。
其缺点是,对标志物的要求较高,要求标志物形态简单,形状边沿与背景色的反差非常清晰明显,并且必须有四条直边组成的四边形边框作为清晰边界,否则会影响识别效果。
发明内容
本发明的目的在于,提供一种带有现实环境估算的增强现实的方法及其系统,通过判断特定标志物区域是否被覆盖的方式改变虚拟物体与真实场景的合成效果,增强与用户的交互性。
本发明采用如下技术方案:
一种带有现实环境估算的增强现实的方法,包括以下步骤:
步骤10)、初始化系统环境、配置系统参数;
步骤20)、选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;
步骤30)、计算标志物图像的相机内部参数并进行校正;
步骤40)、对摄像头拍摄到的真实环境中的每一帧,利用步骤30)中的数据进行校正,再基于步骤20)中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵;
步骤50)、通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置;
步骤60)、在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型;
步骤70)、通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息,进行现实环境光源估算,估算出现实光源的位置,生成阴影。
进一步地,所述步骤70)具体包括以下步骤:
步骤71)、将标志物平面转向各个方向,获取识别出标志物的帧;
步骤72)、保存该帧中当前标志物的亮度及法向量坐标值;
步骤73)、判断识别到标志物并保存亮度信息的帧的总数是否达到一定数目,若达到,则进入步骤74),若未达到,转步骤71);
步骤74)、找到满足一定数目的帧,这些帧的标志物法向量指向同一个方向,并且其亮度值均值为最大,将这些帧的法向量坐标的均值作为光源方向的估算位置;
步骤75)、根据光源估算的位置,生成阴影。
进一步地,所述步骤20)具体包括以下步骤:
步骤21)、将彩色图转化为灰度图;
步骤22)、初步提取特征点,具体提取特征点的方法如下:
对于图片上的每个象素m,若以m为中点、围绕着m的八个象素中的任意两个满足以下两个条件,则排除这个像素m:
a、这两个像素处于以m为中点的这圈像素的某条直径两端,
b、这两个像素的灰度值均与m接近;
步骤23)、把灰度图进行正视图视角变换,在变换后的视图中提取特征点,用来得到更为稳定的特征点;
步骤24)、将所有经不同角度的透视变换的正视图中的同一个特征点取出,构成一个“特定视点集合”,得到N个“特定视点集合”,每个“特定视点集合”对应一个稳定特征点;
步骤25)、构建随机树用以特征点分类和识别。
进一步地,所述步骤24)中“特定视点集合”的构成方法为:
将原始正视图分别绕x轴、y轴按(-π,+π)的范围旋转进行透视变换,将绕x轴的转向均分为Lx个角度,将绕y轴的转向均分为Ly个角度,得L=Lx×Ly幅变换视图,将所有变换视图中编号相同的特征点取出,得到N个集合Vn={vn1,vn2……vnL},1≤n≤N,每个Vn就是对应一个特征点的“特定视点集合”,该集合中的每个元素包含了在不同视角变换下同一特征点的不同位置。
进一步地,所述步骤23)具体为:
对于一幅给定的标志物的正视图,用步骤22)中的方法提取出M个特征点,按特征点的坐标位置顺序编号,构成一个特征点集合K={k1,k2……kM},集合中每个元素表示相应编号的一个特征点;
对该标志物原始正视图进行多个不同角度的透视变换,并给变换后的正视图加上白噪声,之后再利用步骤22)中的方法提取变换后的视图的特征点,再利用反变换将提取出的特征点还原为相应的正视图特征点;统计多个经过不同角度变换的视图经上述“变换-提取-还原”后的特征点仍能找到原始正视图相对应特征点的概率,概率最高的N个点被确认为“稳定”的特征点,集合K的元素数由M减为N,即K={K1,K2……KN}。
进一步地,所述步骤25)中构建随机树用以特征点分类和识别,具体如下:
随机树采用二叉树结构,输入的数据为32×32像素的面片,在训练时将大量包含“特定视点集合”中的特征点的面片输入随机树,让每个面片进入某一片树叶,当所有的面片都进入树叶后,计算每片叶子对应所有“稳定”的特征点的概率分布,某片树叶包含的概率分布可由如下公式表示:
Pη(l,p)(Y(p)=c)
其中,p代表32×32像素的一块面片,Y(p)是该面片所包含的特征点对应的特征点标号,c∈{-1,1,2……N},其中-1表示不包含任何特征点的面片,l为随机树的编号,η代表p面片投入第l棵树所到达的那片树叶;
为每个结点选取的判断公式如下,
其中,I(p,m)表示面片p在m点的亮度,m1,m2,m3,m4为面片p中随机挑选的四个位置不同像素。
进一步地,所述步骤40)具体包括以下步骤:
将采集的一帧图像分解为32×32像素的面片,将每片面片输入步骤25)中构建的不同的随机树;
该公式是将面片p在不同树中所到达的叶片的概率分布相加取平均值,得到一个平均概率分布,将这个平均概率分布中概率最大的那个稳定特征点的标号,作为面片p对应的特征点的标号;利用该公式建立新采集图像特征点和原始正视图特征点的对应。
本发明还提供一种带有现实环境估算的增强现实的方法,包括:
视频帧训练模块,用于选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;
视频帧校正模块,与所述视频帧训练模块相连接,用于计算标志物图像的相机内部参数并进行校正;
视频帧捕获模块,与所述视频帧训练模块和所述视频帧校正模块相连接,用于对摄像头拍摄到的真实环境中的每一帧,利用所述视频帧校正模块中的数据进行校正,再基于所述视频帧训练模块中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵,并通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息;
虚实合成模块,与视频帧捕获模块相连接,用于通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置,在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型,
现实环境光源估算模块,与所述虚实合成模块相连接,用于进行现实环境光源估算,根据估算出的现实光源位置,生成阴影。
相对于已有的其他发明,如ARToolkit开发包与华为的系统,本系统极大地减少了对标志物的限制,这些限制主要包括以下几条:
(1)、要求标志物色彩深而单一,与背景色反差大。
(2)、标志物形态为简单图形。
(3)、标志物四周有四边形的清晰边框作为识别的边界。
而本系统所对应标志物无需任何边界,可截取任意二维图像中包含一定纹理特征的任意四边形区域,主要面向真实环境中用摄像头、照相机等摄取的含真实景物、具有照片特性的二维图像,图形内容可以极为复杂。系统的这些特性极大地扩展了增强现实的使用范围。
本系统可用于对地图与复杂二维图像进行标示,也可在任意二维图像上合成三维模型,形成立体、生动的效果。
并且通过现实环境光源估算模块,估算出的现实光源位置,生成阴影,增添的效果的生动性,进一步提高了用户现实体验。
以下结合附图及实施例进一步说明本发明。
附图说明
图1为本发明基于图像特征点提取与随机树分类的增强现实的系统实施例示意图;
图2为本发明带有现实环境估算的增强现实的方法实施例流程图;
图3为本发明方法实施例中对标志物进行训练的流程图;
图4为一页书上特征点对应的实际情况;
图5为本发明实施例中现实环境光源估算步骤流程图;
图6为ShadowMap法生成阴影示意图。
具体实施方式
如图1所示,一种带有现实环境估算的增强现实的系统,包括:
视频帧训练模块,用于选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;
视频帧校正模块,与所述视频帧训练模块相连接,用于计算标志物图像的相机内部参数并进行校正;
视频帧捕获模块,与所述视频帧训练模块和所述视频帧校正模块相连接,用于对摄像头拍摄到的真实环境中的每一帧,利用所述视频帧校正模块中的数据进行校正,再基于所述视频帧训练模块中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵,并通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息;
虚实合成模块,与视频帧捕获模块相连接,用于通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置,在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型。
现实环境光源估算模块,与所述虚实合成模块相连接,用于进行现实环境光源估算,根据估算出的现实光源位置,生成阴影。
如图2所示,一种带有现实环境估算的增强现实的方法,包括以下步骤:
步骤10)、初始化系统环境、配置系统参数;主要包括搭建系统硬件平台,设置能够支持二维和三维图形的绘图环境,分配图像缓存空间,识别摄像头等;
步骤20)、从文件中选择一幅标志物正视图的图像文件或者从摄像头中提取标志物正视图,对标志物进行训练。训练主要包括灰度处理与特征点处理等;
步骤30)、计算标志物图像的内参并进行校正。相机内部参数是指摄像头相机的焦距和形变等内部固有参数,该参数确定了摄像头相机的投影变换矩阵,它取决于相机本身的属性,所以对同一个相机来说其内部参数是恒定不变的。本系统通过在多个不同角度拍摄标志物,通过对不同角度的标志物与标志物正视图的比对,计算相机的内参并读入系统,用来对之后虚实合成的每一帧图形进行校正;
步骤40)、对摄像头拍摄到的真实环境中的每一帧,利用步骤30)中的数据进行校正,再基于步骤20)中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵与光照等信息;
标志物在相机平面上成相的过程,相当于构成标志物的每个象素点坐标从三维坐标系上变换到相机坐标系上,然后投影到相机平面上形成标志物的二维图像。这一变换可由相对位置矩阵来表达。步骤40)即用来计算这一位置矩阵。之后通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息;
步骤50)、由识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置;
步骤60)、在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型,实现增强现实;
步骤70)、通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息,进行现实环境光源估算,估算出现实光源的位置,生成阴影。
本实施例中的光源估算是对标志物所在的现实环境中的光的方向与强度进行估算。该步骤也可在训练结束之后,识别与合成阶段刚开始的n帧进行。实践中n取100。在最开始的n帧中采集标志物法向量指向各个不同方向时标志物的亮度值,经统计得到亮度值最大的方向,并将该方向作为光源的估算方向。所述步骤70)具体如图5所示,包括以下步骤:
步骤71)、将标志物平面转向各个方向,获取识别出标志物的帧;由于需要得到标志物朝向各个不同方向时的表面亮度值,故在这个阶段,要手动将标志物平面缓缓转向各个方向,并且速度要缓和,因为若是转动过则快无法识别标志物,导致无法判断亮度;
步骤72)、保存该帧中当前标志物的亮度及法向量坐标值;
步骤73)、判断识别到标志物并保存亮度信息的帧的总数是否达到一定数目,若达到,则进入步骤74),若未达到,转步骤71);
步骤74)、找到满足一定数目的帧,这些帧的标志物法向量指向同一个方向,并且其亮度值均值为最大,将这些帧的法向量坐标的均值作为光源方向的估算位置;
步骤75)、根据光源估算的位置,生成阴影,增添的效果的生动性。
其中,所述步骤75)中采用现有的ShadowMap法生成阴影。ShadowMap法是一种简单高效的阴影生成算法。它的主要优点在于不需要计算场景几何物体的形状,即便对于复杂场景也只需要产生一张图(Map)就可以进行阴影生成。该方法如图6所示,首先设置一台摄像机以光源为视点观察物体,进行投影变换。由常识可知,从光源的角度观察物体,看不到由这个光源所形成的任何阴影。因此从该视角观察物体,任何在默认摄像头中应渲染为阴影的点都被遮挡,无法被观察到。由该光源视角观察物体,渲染出一幅带深度缓冲的平面阴影贴图,该贴图即为ShadowMap。该贴图中的灰度代表以灯光视点出发,穿过投影面形成的射线经过的所有场景中的点中离灯光最近的那个点的深度值。ShadowMap中的颜色灰度记录了从灯光视角点出发一条射线上所有顶点的Z深度值信息中最接近光源的点所转化为的灰度,而那些被遮挡的顶点即是产生阴影的点。再以光源为试点,进行投影变换,但这一次记录投影变换后场景中的每个点的真实的Z深度值。将每个点真实的Z深度值与ShadowMap中同一位置上的点的灰度值进行对比,如果是被光照到的点,则这两个值相同;如果是该被渲染为阴影的点,则这两个值不同。由此可判断哪些点是处在阴影中的点。在正常摄像机的视角中将判断为处在阴影中的点渲染为黑色,即得到物体的阴影。利用ShadowMap方法可快速生成合成图像的阴影。
图6中A、B、C三点在正常摄像机中都可被观察到,图中:
A点的Map灰度值=2小于摄像机Z深度值=7,因此渲染为黑色;
B点的Map灰度值=2小于摄像机Z深度值=6,因此渲染为黑色;
C点的Map灰度值=2等于摄像机Z深度值=2,因此渲染光照。
从灯光视角观察物体,生成ShadowMap灰度图,则在直线ABC上的点的z深度值都用点C的z深度值替代,保存在ShadowMap中。渲染时将从灯光视角得到的A、B、C三点的真实z深度值和灰度图中的值对比,即可得A、B两点为应该渲染为阴影的点。
进一步地,如图3所示,所述步骤20)具体包括以下步骤:
步骤21)、将彩色图转化为灰度图;
步骤22)、初步提取特征点,具体提取特征点的方法如下:
对于图片上的每个象素m,若以m为中点、围绕着m的八个象素中的任意两个满足以下两个条件:
a、这两个像素处于以m为中点的这圈像素的某条直径两端;
b、这两个像素的灰度值均与m接近。
则这个像素m被认为是“不稳定”的点。排除所有“不稳定”的像素后,剩下的即为初步提取出的“较稳定”特征点。这样可以很快地去除位于灰度值较平均的区域与位于边缘上的点;
步骤23)、把灰度图进行正视图视角变换,在变换后的视图中提取特征点,用来得到更为稳定的特征点,具体如下:
对于一幅给定的标志物的正视图,用步骤22)中的方法提取出M个特征点,按特征点的坐标位置顺序编号,构成一个特征点集合K={k1,k2……kM},集合中每个元素表示相应编号的一个特征点。
对该标志物原始正视图进行多个不同角度的透视变换,并给变换后的正视图加上白噪声,之后再利用步骤22)中的方法提取变换后的视图的特征点,再利用反变换将提取出的特征点还原为相应的正视图特征点。统计多个经过不同角度变换的视图经上述“变换-提取-还原”后的特征点仍能找到原始正视图相对应特征点的概率,概率最高的N个点被最终确认为“稳定”的特征点。通过该方法可对步骤22)中提取出的特征点进行进一步筛选,得到最为稳定的特征点。集合K的元素数由M减为N,即K={K1,K2……KN};
步骤24)、构建“特定视点集合”,该“特定视点集合”用于步骤25)中训练与构建“随机树”;
本发明基于特征点提取与随机树分类对标志物进行识别且计算标志物在摄像头坐标系中的位置,其中一个最为关键的问题是,判断待识别帧中是否包含正视图上的“稳定特征点”,以及包含的是哪个特征点。为实现此目的,构建了“特定视点集合”,对其的解释如下:
将所有经不同角度的透视变换的正视图中的同一个特征点取出,专门构成一个集合,可得到N个集合,每个集合对应一个稳定特征点,这些集合即所谓的“特定视点集合”。例如,将原始正视图分别绕x轴、y轴按(-π,+π)的范围旋转进行透视变换,将绕x轴的转向均分为Lx个角度,将绕y轴的转向均分为Ly个角度,最终可得L=Lx×Ly幅变换视图,将所有变换视图中编号相同的特征点取出,可得到N个集合Vn={vn1,vn2……vnL},1≤n≤N,每个Vn就是对应一个特征点的“特定视点集合”,该集合中的每个元素包含了在不同视角变换下同一特征点的不同位置;
步骤25)、构建随机树用以特征点分类和识别;
随机树分类法是一种快速简洁的分类法。其具体构建方法如下:
随机树采用二叉树结构,只有一个树冠,分出两个节点,每个节点再分出两个节点,依次递归,直到最底层的节点不再有分支,称之为树叶。每个节点都有一个判断公式,当一个数据从树冠输入后,每个节点的判断公式会对其进行判断,以决定将其放入左边还是右边的节点,放入下一层节点后再进行判断,直到进入某一个树叶。本发明中,输入的数据为32×32像素的面片,每个面片可包含或不包含特征点。在训练时将大量包含“特定视点集合”中的特征点的面片输入随机树,让每个面片进入某一片树叶,当所有的面片都进入树叶后,便可计算每片叶子对应所有“稳定”的特征点的概率分布,即数一下进入这个叶片的每个编号的特征点的总数占进入这个叶片的总面片数的比例。这样,每片叶子都包含各自的一组面向所有“稳定”特征点的概率分布。本实施例中使用了多棵随机树来增加识别的准确性。某片树叶包含的概率分布可由如下公式表示:
Pη(l,p)(Y(p)=c)
其中,p代表32×32像素的一块面片,Y(p)是该面片所包含的特征点对应的特征点标号,c∈{-1,1,2……N},其中-1表示不包含任何特征点的面片。l为随机树的编号,η代表p面片投入第l棵树所到达的那片树叶。
为每个结点选取的多种判断公式,本实施例中为每个结点选取的判断公式如下:
其中,I(p,m)表示面片p在m点的亮度,m1,m2,m3,m4为面片p中随机挑选的四个位置不同像素。
这样便构建起了一棵随机树,其主要特征就是各个结点上的判断公式以及各片叶子上不同的概率分布。
通过以不同方式分割面片与计算每个像素不同方向的梯度值,可为每个节点设置不同的判断公式,进而构建出多棵不同的随机树。
进一步地,所述步骤40)具体包括以下步骤:
将摄像头采集的一帧图像分解为32×32像素的面片,将每片面片输入步骤25)中构建的不同的随机树;
该公式的含义是将面片p在不同树中所到达的叶片的概率分布相加取平均值,得到一个平均概率分布,将这个平均概率分布中概率最大的那个稳定特征点的标号,作为面片p对应的特征点的标号。利用该公式便可以建立新采集图像特征点和原始正视图特征点的对应。实验表明,该对应的正确率在90%以上。在建立了特征点的对应之后,便可以利用计算机视觉中常用的算法来计算标志物在摄像头坐标系中的位置。图4显示了一页书上特征点对应的情况。
以上所述的实施例仅用于说明本发明的技术思想及特点,其目的在使本领域内的技术人员能够了解本发明的内容并据以实施,当不能仅以本实施例来限定本发明的专利范围,即凡依本发明所揭示的精神所作的同等变化或修饰,仍落在本发明的专利范围内。
Claims (5)
1.一种带有现实环境估算的增强现实的方法,其特征在于包括以下步骤:
步骤10)、初始化系统环境、配置系统参数;
步骤20)、选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;
步骤30)、计算标志物图像的相机内部参数并对相机内部参数数据进行校正;
步骤40)、对摄像头拍摄到的真实环境中的每一帧,利用步骤30)中的相机内部参数数据进行校正,再基于步骤20)中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵;
步骤50)、通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物在摄像头坐标系中的相对位置矩阵确定模型的位置;
步骤60)、在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型;
步骤70)、通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息,进行现实环境光源估算,估算出现实光源的位置,生成阴影。
2.根据权利要求1所述的带有现实环境估算的增强现实的方法,其特征在于,所述步骤70)具体包括以下步骤:
步骤71)、将标志物平面转向各个方向,获取识别出标志物的帧;
步骤72)、保存该帧中当前标志物的亮度及法向量坐标值;
步骤73)、判断识别到标志物并保存亮度信息的帧的总数是否达到一定数目,若达到,则进入步骤74),若未达到,转步骤71);
步骤74)、找到满足一定数目的帧,这些帧的标志物法向量指向同一个方向,并且其亮度值均值为最大,将这些帧的法向量坐标的均值作为光源方向的估算位置;
步骤75)、根据光源估算的位置,生成阴影。
3.根据权利要求1或2所述的带有现实环境估算的增强现实的方法,其特征在于,所述步骤20)具体包括以下步骤:
步骤21)、将彩色图转化为灰度图;
步骤22)、初步提取特征点,具体提取特征点的方法如下:
对于图片上的每个像素m,若以m为中点、围绕着m的八个像素中的任意两个满足以下两个条件,则排除这个像素m:
a、这两个像素处于以m为中点的这圈像素的某条直径两端,
b、这两个像素的灰度值均与m接近;
步骤23)、把灰度图进行正视图视角变换,在变换后的视图中提取特征点,用来得到“稳 定”的特征点,具体步骤为:对于一幅给定的标志物的正视图,用步骤22)中的方法提取出M个特征点,按特征点的坐标位置顺序编号,构成一个特征点集合K={k1,k2……kM},集合中每个元素表示相应编号的一个特征点;对该标志物原始正视图进行多个不同角度的透视变换,并给变换后的正视图加上白噪声,之后再利用步骤22)中的方法提取变换后的视图的特征点,再利用反变换将提取出的特征点还原为相应的正视图特征点;统计多个经过不同角度变换的视图经上述“变换-提取-还原”后的特征点仍能找到原始正视图相对应特征点的概率,概率最高的N个点被确认为“稳定”的特征点,集合K的元素数由M减为N,即K={K1,K2……KN};
步骤24)、将所有经不同角度的透视变换的正视图中的同一个特征点取出,构成一个“特定视点集合”,得到N个“特定视点集合”,每个“特定视点集合”对应一个稳定特征点;所述“特定视点集合”的构成方法为:将原始正视图分别绕x轴、y轴按(-π,+π)的范围旋转进行透视变换,将绕x轴的转向均分为Lx个角度,将绕y轴的转向均分为Ly个角度,得L=Lx×Ly幅变换视图,将所有变换视图中编号相同的特征点取出,得到N个集合Vn={vn1,vn2……vnL},1≤n≤N,每个Vn就是对应一个特征点的“特定视点集合”,该集合中的每个元素包含了在不同视角变换下同一特征点的不同位置;
步骤25)、构建随机树用以特征点分类和识别。
4.根据权利要求3所述的带有现实环境估算的增强现实的方法,其特征在于,所述步骤25)中构建随机树用以特征点分类和识别,具体如下:
随机树采用二叉树结构,输入的数据为32×32像素的面片,在训练时将大量包含“特定视点集合”中的特征点的面片输入随机树,让每个面片进入某一片树叶,当所有的面片都进入树叶后,计算每片树叶对应所有“稳定”的特征点的概率分布,某片树叶包含的概率分布可由如下公式表示:
Pη(l,p)(Y(p)=c)
其中,p代表32×32像素的一块面片,Y(p)是该面片所包含的特征点对应的特征点标号,c∈{-1,1,2……N},其中-1表示不包含任何特征点的面片,l为随机树的编号,η代表p面片投入第1棵树所到达的那片树叶,为每个结点选取的判断公式如下,
其中,I(p,m)表示面片p在m点的亮度,m1,m2,m3,m4为面片p中随机挑选的四个位置不同像素;
所述步骤40)具体包括以下步骤:
将采集的一帧图像分解为32×32像素的面片,将每片面片输入步骤25)中构建的不同的随机树;
该公式是将面片p在不同树中所到达的叶片的概率分布相加取平均值,得到一个平均概率分布,将这个平均概率分布中概率最大的那个稳定特征点的标号,作为面片p对应的特征点的标号;利用该公式建立新采集图像特征点和原始正视图特征点的对应。
5.一种带有交互功能的增强现实的系统,其特征在于包括:
视频帧训练模块,用于选择或提取一幅标志物正视图,对标志物进行训练,获得训练数据;
视频帧校正模块,与所述视频帧训练模块相连接,用于计算标志物图像的相机内部参数并对相机内部参数数据进行校正;
视频帧捕获模块,与所述视频帧训练模块和所述视频帧校正模块相连接,用于对摄像头拍摄到的真实环境中的每一帧,利用所述视频帧校正模块中的相机内部参数数据进行校正,再基于所述视频帧训练模块中的训练数据识别标志物,若含有标志物,则计算该标志物在摄像头坐标系中的相对位置矩阵,并通过对已识别标志物和标志物正视图的亮度进行比对来估算标志物所处环境的光照信息;
虚实合成模块,与视频帧捕获模块相连接,用于通过识别出的标志物寻找对应虚拟模型,利用提取出的标志物位置矩阵确定模型的位置,在真实拍摄的视频帧上根据计算出的相对位置绘制虚拟模型;
现实环境光源估算模块,与所述虚实合成模块相连接,用于进行现实环境光源估算,根据估算出的现实光源位置,生成阴影。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100481123A CN101520904B (zh) | 2009-03-24 | 2009-03-24 | 带有现实环境估算的增强现实的方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100481123A CN101520904B (zh) | 2009-03-24 | 2009-03-24 | 带有现实环境估算的增强现实的方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101520904A CN101520904A (zh) | 2009-09-02 |
CN101520904B true CN101520904B (zh) | 2011-12-28 |
Family
ID=41081476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100481123A Expired - Fee Related CN101520904B (zh) | 2009-03-24 | 2009-03-24 | 带有现实环境估算的增强现实的方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101520904B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9495386B2 (en) | 2008-03-05 | 2016-11-15 | Ebay Inc. | Identification of items depicted in images |
WO2009111047A2 (en) | 2008-03-05 | 2009-09-11 | Ebay Inc. | Method and apparatus for image recognition services |
US9164577B2 (en) | 2009-12-22 | 2015-10-20 | Ebay Inc. | Augmented reality system, method, and apparatus for displaying an item image in a contextual environment |
US8416263B2 (en) * | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
CN101833896B (zh) * | 2010-04-23 | 2011-10-19 | 西安电子科技大学 | 基于增强现实的地理信息指引方法与系统 |
CN101894264B (zh) * | 2010-05-31 | 2012-11-14 | 中国科学院自动化研究所 | 基于短语包模型的图像类别标注方法 |
CN101976464B (zh) * | 2010-11-03 | 2013-07-31 | 北京航空航天大学 | 基于单应性矩阵的多平面动态的增强现实注册的方法 |
KR101591579B1 (ko) | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
JP5732988B2 (ja) * | 2011-04-08 | 2015-06-10 | ソニー株式会社 | 画像処理装置、表示制御方法及びプログラム |
JP5279875B2 (ja) * | 2011-07-14 | 2013-09-04 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
CN102509104B (zh) * | 2011-09-30 | 2013-03-20 | 北京航空航天大学 | 基于置信度图的增强现实场景虚拟对象判别和检测方法 |
US9449342B2 (en) | 2011-10-27 | 2016-09-20 | Ebay Inc. | System and method for visualization of items in an environment using augmented reality |
US9240059B2 (en) | 2011-12-29 | 2016-01-19 | Ebay Inc. | Personal augmented reality |
KR20130117303A (ko) * | 2012-04-18 | 2013-10-25 | 삼성전자주식회사 | 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치 |
US10846766B2 (en) | 2012-06-29 | 2020-11-24 | Ebay Inc. | Contextual menus based on image recognition |
US9508146B2 (en) * | 2012-10-31 | 2016-11-29 | The Boeing Company | Automated frame of reference calibration for augmented reality |
US9514573B2 (en) * | 2013-12-26 | 2016-12-06 | Dassault Systemes | Diminished reality |
CN104639843B (zh) * | 2014-12-31 | 2017-12-05 | 小米科技有限责任公司 | 图像处理方法及装置 |
US20160202947A1 (en) * | 2015-01-09 | 2016-07-14 | Sony Corporation | Method and system for remote viewing via wearable electronic devices |
CN105183823B (zh) * | 2015-08-28 | 2018-07-27 | 上海永为科技有限公司 | 一种虚拟对象和实景影像的互动展示系统 |
CN107682688B (zh) * | 2015-12-30 | 2020-02-07 | 视辰信息科技(上海)有限公司 | 基于增强现实的视频实时录制方法及录制设备 |
CN107025683A (zh) * | 2017-03-30 | 2017-08-08 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
EP3385912B1 (en) * | 2017-04-06 | 2022-08-24 | Hexagon Technology Center GmbH | Near field manoeuvring for ar-devices using image tracking |
CN107492144B (zh) * | 2017-07-12 | 2020-07-24 | 联想(北京)有限公司 | 光影处理方法及电子设备 |
CN107749076B (zh) * | 2017-11-01 | 2021-04-20 | 太平洋未来科技(深圳)有限公司 | 增强现实场景中生成现实光照的方法和装置 |
CN109961471B (zh) * | 2017-12-14 | 2021-05-28 | 北京猎户星空科技有限公司 | 一种图像中物体位置的标注方法、装置及电子设备 |
KR102091217B1 (ko) * | 2018-12-12 | 2020-03-19 | 주식회사 하이쓰리디 | 모바일 증강현실 영상 편집 시스템 |
CN109976523B (zh) * | 2019-03-22 | 2021-05-18 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN110033423B (zh) * | 2019-04-16 | 2020-08-28 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN111161232B (zh) * | 2019-12-24 | 2023-11-14 | 贵州航天计量测试技术研究所 | 一种基于图像处理的元器件表面定位方法 |
CN111914716B (zh) * | 2020-07-24 | 2023-10-20 | 深圳市瑞立视多媒体科技有限公司 | 主动光刚体识别方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101171565A (zh) * | 2005-05-31 | 2008-04-30 | 菲利普莫里斯生产公司 | 虚拟现实吸烟系统 |
CN101339654A (zh) * | 2007-07-04 | 2009-01-07 | 北京威亚视讯科技有限公司 | 一种基于标志点的增强现实三维注册方法和系统 |
-
2009
- 2009-03-24 CN CN2009100481123A patent/CN101520904B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101171565A (zh) * | 2005-05-31 | 2008-04-30 | 菲利普莫里斯生产公司 | 虚拟现实吸烟系统 |
CN101339654A (zh) * | 2007-07-04 | 2009-01-07 | 北京威亚视讯科技有限公司 | 一种基于标志点的增强现实三维注册方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101520904A (zh) | 2009-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101520904B (zh) | 带有现实环境估算的增强现实的方法及其系统 | |
CN101520849B (zh) | 基于图像特征点提取与随机树分类的增强现实方法及系统 | |
CN101551732A (zh) | 带有交互功能的增强现实的方法及其系统 | |
Huang et al. | Universal physical camouflage attacks on object detectors | |
Dash et al. | Designing of marker-based augmented reality learning environment for kids using convolutional neural network architecture | |
CN110766020A (zh) | 一种面向多语种自然场景文本检测与识别的系统及方法 | |
CN108564120B (zh) | 基于深度神经网络的特征点提取方法 | |
CN101101505A (zh) | 一种实现三维增强现实的方法及系统 | |
CN107689050B (zh) | 一种基于彩色图像边缘引导的深度图像上采样方法 | |
Zhu et al. | An optimization approach for localization refinement of candidate traffic signs | |
CN103984963B (zh) | 一种高分辨率遥感图像场景分类方法 | |
CN111126412A (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN111626292B (zh) | 一种基于深度学习技术的楼宇指示标识的文字识别方法 | |
CN105531740A (zh) | 扩展物理平面的数字表示 | |
CN102147867A (zh) | 一种基于主体的国画图像和书法图像的识别方法 | |
CN112734914A (zh) | 一种增强现实视觉的图像立体重建方法及装置 | |
Donoser et al. | Robust planar target tracking and pose estimation from a single concavity | |
CN201374082Y (zh) | 基于图像特征点提取与随机树分类的增强现实系统 | |
CN110766645A (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
CN113628349B (zh) | 基于场景内容自适应的ar导航方法、设备及可读存储介质 | |
Beglov | Object information based on marker recognition | |
Vu et al. | Automatic extraction of text regions from document images by multilevel thresholding and k-means clustering | |
Hagbi et al. | In-place augmented reality | |
Sung et al. | Feature based ghost removal in high dynamic range imaging | |
Li et al. | A Lightweight Stereo Visual Odometry System for Navigation of Autonomous Vehicles in Low‐Light Conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C56 | Change in the name or address of the patentee |
Owner name: SHANGHAI CRYSTAL VISUAL DISPLAY CO., LTD. Free format text: FORMER NAME: CRYSTAL DIGITAL TECHNOLOGY CO., LTD. |
|
CP03 | Change of name, title or address |
Address after: 200052, room 6, building 999, 625 Changning Road, Shanghai, Changning District Patentee after: SHANGHAI CRYSTAL VISUAL DISPLAY Co.,Ltd. Address before: 200052, 1058 triumph Road, Shanghai, Changning District Patentee before: Shanghai Crystal Information Technology Co.,Ltd. |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111228 |