CN110335292A - 一种基于图片跟踪实现模拟场景跟踪的方法及系统 - Google Patents

一种基于图片跟踪实现模拟场景跟踪的方法及系统 Download PDF

Info

Publication number
CN110335292A
CN110335292A CN201910612552.0A CN201910612552A CN110335292A CN 110335292 A CN110335292 A CN 110335292A CN 201910612552 A CN201910612552 A CN 201910612552A CN 110335292 A CN110335292 A CN 110335292A
Authority
CN
China
Prior art keywords
image
picture
real
tracking
characteristic point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910612552.0A
Other languages
English (en)
Other versions
CN110335292B (zh
Inventor
华晨
张云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Cat Eye Vision Technology Co Ltd
Original Assignee
Beijing Cat Eye Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Cat Eye Vision Technology Co Ltd filed Critical Beijing Cat Eye Vision Technology Co Ltd
Priority to CN201910612552.0A priority Critical patent/CN110335292B/zh
Publication of CN110335292A publication Critical patent/CN110335292A/zh
Application granted granted Critical
Publication of CN110335292B publication Critical patent/CN110335292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于图片跟踪实现模拟场景跟踪的方法,包括如下步骤:步骤S1,图像获取:捕捉场景图像用于制作识别跟踪的目标图像,通过解析场景图像,进行拍摄截屏获取目标图像内容;步骤S2,图像优化:获得步骤S1中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;步骤S3,特征点提取:根据优化后图像的图像像素信息,提取出图片纹理特征点,构建特征点目标信息;步骤S4,识别跟踪:完成特征点提取之后,开始启动识别跟踪,首先获取到相机实时画面,并进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群的位置变化,实时计算并更新移动终端设备在坐标系中的位置;步骤S5,内容展示:生成产品AR影像并加载在终端设备显示画面中,观察者可360度观察产品外观和内部结构,产品始终都会在终端设备屏幕中间进行展示。

Description

一种基于图片跟踪实现模拟场景跟踪的方法及系统
技术领域
本发明设计增强现实技术领域,具体而言,本发明涉及一种基于图片跟踪实现模拟场景跟踪的方法及系统。
背景技术
增强现实(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
现有AR应用场景中为实现虚实结合,即将现实画面和虚拟模型同时显示到移动设备中并且虚拟模型要始终保持在现实画面的固定位置,需要一套帮助移动设备进行实时空间定位的解决方案,常见的解决方案有两种:
1)SLAM(Simultaneous Localization and Mapping),同步定位与建图,进行实时空间定位的原理:
定位:移动设备通过摄像头获取并分析实时画面,从画面中提取出特征点,通过特征点的变化计算设备在环境中的位置
建图:移动设备在移动中不断提取特征点,通过特征点间的位置关系构建周围环境的特征地图
场景跟踪:将实时画面的特征点与构建的特征地图进行匹配实现实时空间定位
2)Image Target,图像识别
图像预处理:将要识别的图像提前进行特征点提取,并基于这些特征点建立虚拟空间坐标系
图像识别跟踪:移动设备通过摄像头获取并分析实时画面,从画面中提取出特征点,并与预处理过的目标特征进行匹配,匹配成功后实时计算移动设备的虚拟空间位置。
然而,SLAM虽然本身是一套比较完善的空间定位及跟踪的方法,但是只要终端设备移动,就会不断采集数据,采集量大,对终端设备的计算能力要求比较高,在移动设备硬件及算力不足的情况下建图的速度和质量都有明显影响,从而导致定位不准和跟踪延;而Image Target因为提前准备识别图像,所以不需要设备进行实时建图,实时计算量和对设备算力的要求都会小很多,但提前准备识别图像耗时较长因此导致只能在固定场景中使用,并且对场景图像要求比较高,当场景在发生改变、污染、光线变化的情况下会影响使用。
发明内容
本发明旨在解决上述的技术缺陷,提供一种基于图片跟踪实现模拟场景跟踪的方法及系统。
本发明提供了一种基于图片跟踪实现模拟场景跟踪的方法,包括如下步骤:
步骤S1,图像获取:捕捉场景图像用于制作识别跟踪的目标图像,通过解析场景图像,进行拍摄截屏获取目标图像内容;
步骤S2,图像优化:获得步骤S1中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
步骤S3,特征点提取:根据优化后图像的图像像素信息,提取出图片纹理特征点,构建特征点目标信息;
步骤S4,识别跟踪:完成特征点提取之后,开始启动识别跟踪,首先获取到相机实时画面,并进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群的位置变化,实时计算并更新移动终端设备在坐标系中的位置;
步骤S5,内容展示:生成产品AR影像并加载在终端设备显示画面中,观察者可360度观察产品外观和内部结构,产品始终都会在终端设备屏幕中间进行展示。
进一步地,步骤S1中捕捉场景图像时,终端设备拍摄界面中会显示至少一个拍摄线框,通过垂直面线框和/或水平面线框用来辅助拍照,识别出立体空间2D映射图像中的垂直面和/或水平面,线框内的区域为最终获取的图像内容,根据线框的提示移动终端设备找到合适的角度进行拍摄并截屏,最终获取图像内容
进一步地,步骤S2中,同步读取图像像素信息,利用陀螺仪获取设备位置姿态,根据位置姿态对线框内的图片进行优化矫正,根据各个轴的角度对线框进行旋转并记录旋转后的线框四个角在屏幕上的位置,通过优化矫正将图像还原成正面观察时正常的平面状态图像形状。
进一步地,步骤S3中,根据步骤S2优化后的图像像素信息,通过算法提取出图片纹理特征点,包括特征点群及位置关系等信息,构建x坐标范围在[l,r]、y坐标范围在[b,t]、z坐标范围在[n,f]的视域体,建立视域体投影矩阵:
建立若干特征点的二维坐标数组T={(p1,p2),(p3,p4),(p5,p6)....},将二维特征点转换为齐次坐标T1={(p1,p2,N,1),(p3,p4,N,1),(p5,p6,N,1)....},其中N为空间点距离终端设备屏幕的距离;之后绑定模型用的空间坐标P=T1*Tj-1,即齐次坐标与投影矩阵的逆矩阵相乘所得;该步骤中可以采集若干个特征点群,设定出一个原点,确定每个特征点群和这个原点的位置和角度,构建特征点目标信息。
进一步地,在步骤S4的匹配过程中,移动设备摄像头的拍摄位置朝向步骤S1中捕捉的真实场景图像所在的区域,使真实场景与系统内保存的图像信息进行匹配,如果由于拍摄位置偏差没有匹配成功,可以移动设备的位置,当摄像头识别出特征点,系统会自动进行匹配,当稳定达到匹配阈值即成功匹配。
进一步地,在步骤S4中成功匹配后,根据特征点群位置中心建立空间虚拟坐标系,根据特征点群的位置变化,通过单应性变换实时计算与之匹配的矩阵投影角度并实时更新移动设备在空间坐标系中的位置。
进一步地,在步骤S5中,由于终端设备在虚拟坐标系内的移动,都会通过步骤S4不停的计算位置,实时更新移动设备在空间坐标系中的位置,例如距离和角度,通过所述位置,就可以计算出观察者应该从其所在角度观察到的产品画面的结构形状,在此过程中产品始终都会在终端屏幕中间进行展示。
本发明还提供了一种基于图片跟踪实现模拟场景跟踪的增强现实系统,包括:
图像获取模块(100),启动终端摄像头后用于捕捉场景图像,通过解析场景图像,识别出立体空间的垂直面和/或水平面,进行拍摄截屏获取图像内容;
图像优化模块(200),其通过读取图像获取模块中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
特征点提取模块(300),其根据通过图像优化模块优化后图像的图像像素信息,提取出图片纹理特征点,包括特征点群及位置关系;
识别跟踪模块(400),其通过获取到相机实时画面,进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群位置中心建立空间坐标系,计算移动设备在坐标系中的初始位置,并根据特征点群的位置变化,实时计算与之匹配的矩阵投影角度并更新移动设备在坐标系中的位置;
显示模块(500),生成产品AR影像并加载在终端显示画面中,观察者可360度观察产品外观和内部结构,产品始终都会保持在终端屏幕中间进行展示。
进一步地,图像优化模块(200)提取出的图片纹理特征点信息包括特征点群及位置关系,并可以采集若干个特征点群,设定出一个原点,确定每个特征点群与该原点的位置和角度,构建特征点目标信息。
本发明还提供一种增强现实的终端,其特征在于,包括前述的基于图片跟踪实现模拟场景跟踪的增强现实系统。
本发明通过上述基于图片跟踪实现模拟场景跟踪的方法及系统,实现产品AR展示,传统未经定位的AR展示,如果终端设备移动范围过大比如向下翻转手机,展示的虚拟产品就会移动出手机屏幕,而本发明通过计算,将虚拟产品定位在画面的中间位置,这样无论如何移动终端设备,产品都会在终端设备中间进行展示,如果向下翻转终端设备,终端设备中会显示从下向下看的产品视图,比如要销售一台汽车,汽车无法随身携带,并且有的地点空间比较小汽车无法驶入,这时候就需要在有限空间内展示一个产品,最好360度的展示,展示的内容会随着手机或者AR头盔之类的终端设备移动而移动,比如终端设备中显示一辆虚拟的汽车,因为是AR模拟出来的产品,终端设备转向车顶方向,就是车顶的视角,而转向车底方向,就是车底的视角,把终端设备向前移动,终端设备中虚拟的AR产品模型就会放大,还可以在终端设备中拆解产品,比如把汽车门打开,后备厢打开,机器盖子打开,甚至可以展示发动机运行状态下的状态。而在设备辅助维修方面,通过本发明可以把一个需要维修产品的模型定位在真实设备旁边,维修人员一边看着AR展示,一边实际操作拆解设备进行维修,好处也是终端设备一直定位在某个地方;在互动娱乐方面,可以将游戏中的虚拟场地固定在某个位置,比如像FIFA2019这种操控类的足球游戏,可以把足球场固定在手机画面的中心,也可以充满整个屏幕,但是足球场在虚拟坐标系中的位置一直是固定的,手机只是围绕着坐标原点进行运动,游戏中的球员会在足球场上来回运动,玩家控制的球员也会来回运动,玩家可以移动手机,模拟出在操控球员头上得到视角,增强沉浸式体验感。
本发明的有益效果是:
本发明在图像识别的基础上加以优化形成一种普适性更强的效果更优的方案,利用拍照截屏获取使用场景的图形信息,不用提前准备图像,随时用随时拍,屏蔽掉了图像和场景的差异化和使用场景限制,对拍照截屏获取到的图形进行加工,使跟踪效果更接近于对2D图像的跟踪,达到更优的跟踪效果,移动设备配置高低都可以使用,不影响运行速度,可广泛应用于展品展示、辅助维修、互动娱乐领域。
附图说明
图1为一个实施例的基于图片跟踪实现模拟场景跟踪的方法流程图;
图2为获取真实场景垂直面水平面内容的示意图;
图3为根据图2的拍摄角度进行拍摄后获取的水平面线框内图像与经过优化矫正消除形变后的图像对比图;
图4为特征点提取步骤中记录特征点群及位置关系的示意图;
图5为根据特征点位置计算与之匹配的矩阵投影角度更新其在坐标系中的位置的方法图;
图6为根据特征点群的位置变化实时计算与之匹配的矩阵投影角度并更新移动设备在坐标系中的位置;
图7为基于图片跟踪实现模拟场景跟踪的增强现实系统模块图。
具体实施方式
在本发明实施例中,如图1所示,本发明提供一种基于图片跟踪实现模拟场景跟踪的方法,包括如下步骤:
步骤S1,图像获取:捕捉场景图像,用于制作识别跟踪的目标图像,通过解析场景图像,识别出立体空间的垂直面和/或水平面,进行拍摄截屏获取图像内容;
在该步骤中进入终端设备AR应用捕捉场景图像,目的是为了制作识别跟踪的目标图像,但截屏获取到的图像是立体空间的2D映射图像,为了保证和2D映射图像一样的跟踪效果,需要取出图像中的部分内容,只保留它一个面的内容如水平面、垂直面,如图2所示,图2中终端设备拍摄界面中会显示至少一个拍摄线框,通过垂直面线框和/或水平面线框用来辅助拍照,识别出立体空间2D映射图像中的垂直面和/或水平面,线框内的区域就是最终获取的图像内容,根据线框的提示移动设备找到合适的角度进行拍摄并截屏,最终获取图像内容,后续步骤中AR影像以垂直面和/或水平面为参照投影在终端屏幕中。
步骤S2,图像优化:获得步骤S1中获取的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
在实际获取图像的时会发现,截屏时的角度和实际想获取的平面往往存在角度偏差,比如想截取一张水平图像,但移动终端设备未必是与待拍摄面平行来拍摄截取图片的,这就造成获取到的图片有一定的形变,如图3所示,图3a为根据图2的拍摄角度进行拍摄后获取的水平面线框内的图像,由于移动终端设备并非水平放置来拍摄水平面场景截取图片的,造成如图3a所示获取到的图片有一定的形变,在获得截取到的场景图像后,同步读取图片像素信息,为了保证最终图像质量,利用陀螺仪获取设备位置姿态,根据位置姿态对线框内的图片进行优化矫正,例如把窄边的像素点根据计算的结果重新拉伸调整,根据各个轴的角度对线框进行旋转并记录旋转后的线框四个角在屏幕上的位置,通过优化矫正将图像还原成正面观察时正常的平面状态图像形状,图3b中所示的图像即为经过优化矫正消除形变后的图像,与移动终端设备与待拍摄水平面平行时拍摄的效果相同。
最后根据之前保存的线框位置对图片进行裁剪,获取新的图像信息并保存。
步骤S3,特征点提取:根据优化后图像的信息,提取出图片纹理特征点,包括特征点群及位置关系,,构建特征点目标信息;
针对步骤S2优化后的图片,根据图像像素信息,通过算法提取出图片纹理特征点,包括特征点群及位置关系等信息,构建x坐标范围在[l,r]、y坐标范围在[b,t]、z坐标范围在[n,f]的视域体,建立视域体投影矩阵:
建立若干特征点的二维坐标数组T={(p1,p2),(p3,p4),(p5,p6)....},将二维特征点转换为齐次坐标T1={(p1,p2,N,1),(p3,p4,N,1),(p5,p6,N,1)....},其中N为空间点距离终端设备屏幕的距离;之后绑定模型用的空间坐标P=T1*Tj-1,即齐次坐标与投影矩阵的逆矩阵相乘所得;该步骤中可以采集若干个特征点群,设定出一个原点,确定每个特征点群和这个原点的位置和角度,构建特征点目标信息。
步骤S4,识别跟踪:完成特征点提取步骤之后,开始启动识别跟踪算法,算法首先获取到相机实时画面,并进行实时画面特征点识别,将实时画面的特征点信息与步骤S3中所构建的目标信息进行匹配,匹配过程中,移动设备摄像头的拍摄位置朝向步骤S1中捕捉的真实场景图像所在的区域,使真实场景与系统内保存的图像信息进行匹配,如果由于拍摄位置偏差没有匹配成功,可以移动设备的位置,当摄像头识别出特征点,系统会自动进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群位置中心建立空间虚拟坐标系,具体算法实现上要引入单应性的概念,单应性是几何中的一个概念,是一个从实射影平面到射影平面的可逆变换,直线在该变换下仍映射为直线;在计算机视觉领域中,空间中同一平面的任意两幅图像可以通过单应性关联在一起,比如一个物体可以通过旋转相机镜头获取两张不同的照片,这两张照片的内容不一定要完全对应,部分对应即可,可以把单应性设为一个二维矩阵M,那么其中一张照片的特征点坐标乘以M就是另一张照片的特征点坐标。单应性有着广泛的实际应用,比如图像校正、图像对齐或两幅图像之间的相机运动计算(旋转和平移)等,通过旋转和平移即可确定相机和图像的相对位置关系。
在数学里齐次坐标,或投影坐标是指一个用于投影几何里的坐标系统,如同用于欧氏几何里的笛卡儿坐标一样。如果点Q到成像仪上的点q的映射使用齐次坐标,这种映射可以用矩阵相乘的方式表示,进行如下定义:则可以将单应性简单的表示为:参数s为根据实际工况定义的单应性尺度比例,可以为任意尺度的比例,H为用于定位观察的物体平面的物理变换和使用摄像机内参数矩阵的投影。物理变换部分是与观测到的图像平面相关的部分旋转R和部分平移t的影响之和,表示如下:这里R为3*3大小的矩阵,t表示一个3维的列矢量,摄像设备内参数矩阵用M表示,那么我们重写单应性如下:
where单应性是一个平面上到另外一个平面的映射,那么上述公式中的Q,就可以简化为平面坐标中的Q′,即我们使Z=O。即物体平面上的点我们用x,y表示,拍摄显示设备平面上的点,也用二维点表示,当去掉了Z方向的坐标,那么相对于旋转矩阵R,R可以分解为R=[r1 r2 r3],参考如下的推导:
其中H为:H=sM[r1 r2 t],是一个3×3大小的矩阵,故最终的单应性矩阵可表示如下:
正如图6所示,根据特征点群的位置变化,通过单应性变换实时计算与之匹配的矩阵投影角度并实时更新移动设备在空间坐标系中的位置。
步骤S5,内容展示:生成产品AR影像并加载在设备显示画面中,观察者可360度观察产品外观和内部结构,步骤S1至S4中所做的工作就是为了在内容展示阶段可以将虚拟产品放在固定位置便于观察和展示,由于产品AR影像一直定位在固定点,因此终端设备在虚拟坐标系内的移动,都会被不停的计算位置,实时更新移动设备在空间坐标系中的位置,例如距离和角度,通过所述位置,就可以计算出观察者应该从这个角度看到的产品画面的结构形状,比如计算出来手机是在产品上方的,用户就会看到从上往下看的产品画面,在此过程中产品始终都会在终端屏幕中间进行展示。
图7为一个实施例的基于图片跟踪实现模拟场景跟踪的显示系统模块图。
一种基于图片跟踪实现模拟场景跟踪的增强现实系统,包括:图像获取模块100、图像优化模块200、特征点提取模块300、识别跟踪模块400、显示模块500。
图像获取模块100,用于启动终端摄像头后捕捉场景图像。
当标识场景出现时,用户想在此标识场景下显示产品AR影像,可以进入AR应用启动终端设备的摄像头捕捉场景图像,用于制作识别跟踪的目标图像,当截屏获取到立体空间的2D映射图像时,为了保证和2D映射图像一样的跟踪效果,图像获取模块取出图像中的部分内容,只保留它一个面的内容如水平面、垂直面,终端设备拍摄界面中会显示至少一个拍摄线框,通过垂直面线框和/或水平面线框用来辅助拍照,以确定立体空间2D映射图像中的垂直面和/或水平面,根据线框的提示移动设备找到合适的角度进行拍摄并截屏,最终图像获取模块100获取图像内容。
图像优化模块200,其通过读取图像获取模块中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
在实际获取图像的时会发现,截屏时的角度和实际想获取的平面往往存在角度偏差,比如想截取一张水平图像,但移动终端设备未必是与待拍摄面平行来拍摄截取图片的,这就造成获取到的图片有一定的形变,如图3所示,图3a为根据图2的拍摄角度进行拍摄后获取的水平面线框内的图像,由于移动终端设备并非水平放置来拍摄水平面场景截取图片的,造成如图3a所示获取到的图片有一定的形变,在获得截取到的场景图像后,图像优化模块200读取图片像素信息,为了保证最终图像质量,图像优化模块200利用陀螺仪获取设备位置姿态,根据位置姿态对线框内的图片进行优化矫正,例如把窄边的像素点根据计算的结果重新拉伸调整,根据各个轴的角度对线框进行旋转并记录旋转后的线框四个角在屏幕上的位置,图像优化模块200通过优化矫正将图像还原成正面观察时正常的平面状态图像形状,图3b中所示的图像即为经过优化矫正消除形变后的图像,与移动终端设备与待拍摄水平面平行时拍摄的效果相同。
最后图像优化模块200根据之前保存的线框位置对图片进行裁剪,获取新的图像信息并保存。
特征点提取模块300,其根据通过图像优化模块优化后图像的图像像素信息,提取出图片纹理特征点,包括特征点群及位置关系;
特征点提取模块300针对图像优化模块200优化后的图片,根据图像像素信息,通过前述方法中的步骤S3,即特征点提取步骤中的算法提取出图片纹理特征点,包括特征点群及位置关系等信息,建立投影矩阵,建立若干特征点的二维坐标数组,将二维特征点转换为齐次坐标,之后绑定模型用的空间坐标P=T1*Tj-1,设定出一个原点位置,确定每个特征点群和这个原点的位置和角度,构建特征点目标信息。
识别跟踪模块400,其在特征点提取模块300完成特征点提取构建好特征点目标信息之后,通过获取到相机实时画面,进行实时画面特征点识别,开始启动识别跟踪算法,算法首先获取到相机实时画面,并进行特征点识别,将实时画面的特征点信息与特征点提取模块300所构建的目标信息进行匹配,匹配过程中,移动设备摄像头的拍摄位置朝向图像获取模块100捕捉真实场景图像时所在的区域,使真实场景实时画面与系统特征点提取模块300内保存的图像信息进行匹配,如果由于拍摄位置偏差没有匹配成功,可以移动设备的位置,当摄像头识别出特征点,识别跟踪模块400会自动进行匹配,当稳定达到匹配阈值即成功匹配,根据特征点群的位置变化,识别跟踪模块400采用前述步骤S4,即识别跟踪步骤中的方法实时更新移动设备在空间坐标系中的位置。
显示模块500,用于生成产品AR影像并加载在终端显示画面中。
显示模块500生成产品AR影像并加载在设备显示画面中,由于识别跟踪模块400实时更新移动设备在空间坐标系中的位置,使得内容展示阶段可以将虚拟产品放在固定位置便于观察和展示,由于产品AR影像一直定位在固定点,因此手机设备在虚拟坐标系内的移动,都会被识别跟踪模块400不停的计算位置,例如距离和角度,通过该位置,就可以计算出观察者应该从这个角度看到的产品画面的结构形状,比如计算出来手机是在产品上方的,显示模块500就会显示从上往下看的产品画面,在此过程中产品始终都会在终端屏幕中间进行展示,观察者可360度观察产品外观和内部结构。
另一实施例中,还提供了一种增强现实的终端,包括前述的基于图片跟踪实现模拟场景跟踪的增强现实系统,其可以为手机、平板电脑、VR眼镜等。
应该理解的是,虽然图1的流程图中的各个步骤标注有箭头,但是各个步骤并不是必然按照箭头指示的顺序依次执行。除非本说明书中有明确说明,这些步骤的执行并没有明确的顺序限制,其可以以其他的顺序进行。而且,图1中的各个步骤可以包括多个子步骤,这些子步骤也不必然是按序依次执行,可以与其他步骤或者子步骤轮流或者交替进行。
以上仅是本发明的部分实施方式,对于本领域技术人员来说,在不脱离本发明原理的情况下,可以进行若干改进,这些改进也应当视为本发明的保护范围。

Claims (10)

1.一种基于图片跟踪实现模拟场景跟踪的方法,包括如下步骤:
步骤S1,图像获取:捕捉场景图像用于制作识别跟踪的目标图像,通过解析场景图像,进行拍摄截屏获取目标图像内容;
步骤S2,图像优化:获得步骤S1中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
步骤S3,特征点提取:根据优化后图像的图像像素信息,提取出图片纹理特征点,构建特征点目标信息;
步骤S4,识别跟踪:完成特征点提取之后,开始启动识别跟踪,首先获取到相机实时画面,并进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群的位置变化,实时计算并更新移动终端设备在坐标系中的位置;
步骤S5,内容展示:生成产品AR影像并加载在终端设备显示画面中,观察者可360度观察产品外观和内部结构,产品始终都会在终端设备屏幕中间进行展示。
2.根据权利要求1所述的方法,其特征在于,步骤S1中捕捉场景图像时,终端设备拍摄界面中会显示至少一个拍摄线框,通过垂直面线框和/或水平面线框用来辅助拍照,识别出立体空间2D映射图像中的垂直面和/或水平面,线框内的区域为最终获取的图像内容,根据线框的提示移动终端设备找到合适的角度进行拍摄并截屏,最终获取图像内容。
3.根据权利要求1所述的方法,其特征在于,步骤S2中,同步读取图像像素信息,利用陀螺仪获取设备位置姿态,根据位置姿态对线框内的图片进行优化矫正,根据各个轴的角度对线框进行旋转并记录旋转后的线框四个角在屏幕上的位置,通过优化矫正将图像还原成正面观察时正常的平面状态图像形状。
4.根据权利要求1所述的方法,其特征在于,步骤S3中,根据步骤S2优化后的图像像素信息,通过算法提取出图片纹理特征点,包括特征点群及位置关系等信息,构建x坐标范围在[l,r]、y坐标范围在[b,t]、z坐标范围在[n,f]的视域体,建立视域体投影矩阵:
建立若干特征点的二维坐标数组T={(p1,p2),(p3,p4),(p5,p6)....},将二维特征点转换为齐次坐标T1={(p1,p2,N,1),(p3,p4,N,1),(p5,p6,N,1)....},其中N为空间点距离终端设备屏幕的距离;之后绑定模型用的空间坐标P=T1*Tj-1,即齐次坐标与投影矩阵的逆矩阵相乘所得;该步骤中可以采集若干个特征点群,设定出一个原点,确定每个特征点群和这个原点的位置和角度,构建特征点目标信息。
5.根据权利要求1所述的方法,其特征在于,在步骤S4的匹配过程中,移动设备摄像头的拍摄位置朝向步骤S1中捕捉的真实场景图像所在的区域,使真实场景与系统内保存的图像信息进行匹配,如果由于拍摄位置偏差没有匹配成功,可以移动设备的位置,当摄像头识别出特征点,系统会自动进行匹配,当稳定达到匹配阈值即成功匹配。
6.根据权利要求5所述的方法,其特征在于,在步骤S4中成功匹配后,根据特征点群位置中心建立空间虚拟坐标系,根据特征点群的位置变化,通过单应性变换实时计算与之匹配的矩阵投影角度并实时更新移动设备在空间坐标系中的位置。
7.根据权利要求1所述的方法,其特征在于,在步骤S5中,由于终端设备在虚拟坐标系内的移动,都会通过步骤S4不停的计算位置,实时更新移动设备在空间坐标系中的位置,例如距离和角度,通过所述位置,就可以计算出观察者应该从其所在角度观察到的产品画面的结构形状,在此过程中产品始终都会在终端屏幕中间进行展示。
8.一种基于图片跟踪实现模拟场景跟踪的增强现实系统,包括:
图像获取模块(100),启动终端摄像头后用于捕捉场景图像,通过解析场景图像,识别出立体空间的垂直面和/或水平面,进行拍摄截屏获取图像内容;
图像优化模块(200),其通过读取图像获取模块中的场景图像,读取其图像像素信息,并进行优化矫正裁剪保存;
特征点提取模块(300),其根据通过图像优化模块优化后图像的图像像素信息,提取出图片纹理特征点,包括特征点群及位置关系;
识别跟踪模块(400),其通过获取到相机实时画面,进行特征点识别,将实时画面的特征点信息与目标信息进行匹配,当稳定达到匹配阈值即成功匹配,并根据特征点群位置中心建立空间坐标系,计算移动设备在坐标系中的初始位置,并根据特征点群的位置变化,实时计算与之匹配的矩阵投影角度并更新移动设备在坐标系中的位置;
显示模块(500),生成产品AR影像并加载在终端显示画面中,观察者可360度观察产品外观和内部结构,产品始终都会保持在终端屏幕中间进行展示。
9.根据权利要求8所述的增强现实系统,其特征在于,图像优化模块(200)提取出的图片纹理特征点信息包括特征点群及位置关系,并可以采集若干个特征点群,设定出一个原点,确定每个特征点群与该原点的位置和角度,构建特征点目标信息。
10.一种增强现实的终端,其特征在于,包括如权利要求8或9所述的基于图片跟踪实现模拟场景跟踪的增强现实系统。
CN201910612552.0A 2019-07-09 2019-07-09 一种基于图片跟踪实现模拟场景跟踪的方法、系统及终端 Active CN110335292B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910612552.0A CN110335292B (zh) 2019-07-09 2019-07-09 一种基于图片跟踪实现模拟场景跟踪的方法、系统及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910612552.0A CN110335292B (zh) 2019-07-09 2019-07-09 一种基于图片跟踪实现模拟场景跟踪的方法、系统及终端

Publications (2)

Publication Number Publication Date
CN110335292A true CN110335292A (zh) 2019-10-15
CN110335292B CN110335292B (zh) 2021-04-30

Family

ID=68144369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910612552.0A Active CN110335292B (zh) 2019-07-09 2019-07-09 一种基于图片跟踪实现模拟场景跟踪的方法、系统及终端

Country Status (1)

Country Link
CN (1) CN110335292B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956642A (zh) * 2019-12-03 2020-04-03 深圳市未来感知科技有限公司 多目标跟踪识别方法、终端及可读存储介质
CN111061374A (zh) * 2019-12-20 2020-04-24 京东方科技集团股份有限公司 一种支持多人模式增强现实应用的方法及装置
CN111222537A (zh) * 2019-11-19 2020-06-02 杭州事件视界科技有限公司 可快速制作并传播增强现实系统及方法
CN111369684A (zh) * 2019-12-10 2020-07-03 杭州海康威视系统技术有限公司 目标跟踪方法、装置、设备及存储介质
CN111580676A (zh) * 2020-05-20 2020-08-25 深圳中科盾科技有限公司 脚势识别全向控制系统及其实现方法
CN111598921A (zh) * 2020-04-03 2020-08-28 厦门钛尚人工智能科技有限公司 球场线映射关系计算方法、系统、移动终端及存储介质
CN112068704A (zh) * 2020-09-10 2020-12-11 上海幻维数码创意科技有限公司 一种在目标对象上显示增强现实效果的方法
CN112633115A (zh) * 2020-12-17 2021-04-09 杭州海康机器人技术有限公司 一种车底携带物检测方法、装置及存储介质
CN112771480A (zh) * 2020-06-28 2021-05-07 华为技术有限公司 交互方法及电子设备
CN112783325A (zh) * 2021-01-25 2021-05-11 江苏华实广告有限公司 基于多投影系统的人机互动方法、系统以及存储介质
WO2021164712A1 (zh) * 2020-02-19 2021-08-26 Oppo广东移动通信有限公司 位姿跟踪方法、可穿戴设备、移动设备以及存储介质
CN113421343A (zh) * 2021-05-27 2021-09-21 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN114723923A (zh) * 2022-03-01 2022-07-08 杭州杰牌传动科技有限公司 一种传动解决方案模拟展示系统和方法
CN114818397A (zh) * 2022-07-01 2022-07-29 中汽信息科技(天津)有限公司 一种定制化场景的智能仿真方法和系统
CN115082648A (zh) * 2022-08-23 2022-09-20 海看网络科技(山东)股份有限公司 一种基于标志物模型绑定的ar场景布置方法及系统
CN115086541A (zh) * 2021-03-15 2022-09-20 北京字跳网络技术有限公司 一种拍摄位置确定方法、装置、设备及介质
WO2022194158A1 (zh) * 2021-03-15 2022-09-22 北京字跳网络技术有限公司 一种目标跟踪方法、装置、设备及介质
CN116958332A (zh) * 2023-09-20 2023-10-27 南京竹影数字科技有限公司 基于图像识别的纸张绘图实时映射3d模型的方法及系统
CN113421343B (zh) * 2021-05-27 2024-06-04 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877063A (zh) * 2009-11-25 2010-11-03 中国科学院自动化研究所 一种基于亚像素级特征点检测的图像匹配方法
CN104156998A (zh) * 2014-08-08 2014-11-19 深圳中科呼图信息技术有限公司 一种基于图片虚拟内容融合真实场景的实现方法及系统
CN104851004A (zh) * 2015-05-12 2015-08-19 杨淑琪 一种饰品试戴的展示装置和展示方法
US20170109931A1 (en) * 2014-03-25 2017-04-20 Metaio Gmbh Method and sytem for representing a virtual object in a view of a real environment
CN107274491A (zh) * 2016-04-09 2017-10-20 大连七界合创科技有限公司 一种三维场景的空间操控虚拟实现方法
CN108227920A (zh) * 2017-12-26 2018-06-29 中国人民解放军陆军航空兵学院 运动封闭空间追踪方法及追踪系统
CN106251404B (zh) * 2016-07-19 2019-02-01 央数文化(上海)股份有限公司 方位跟踪方法、实现增强现实的方法及相关装置、设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877063A (zh) * 2009-11-25 2010-11-03 中国科学院自动化研究所 一种基于亚像素级特征点检测的图像匹配方法
US20170109931A1 (en) * 2014-03-25 2017-04-20 Metaio Gmbh Method and sytem for representing a virtual object in a view of a real environment
CN104156998A (zh) * 2014-08-08 2014-11-19 深圳中科呼图信息技术有限公司 一种基于图片虚拟内容融合真实场景的实现方法及系统
CN104851004A (zh) * 2015-05-12 2015-08-19 杨淑琪 一种饰品试戴的展示装置和展示方法
CN107274491A (zh) * 2016-04-09 2017-10-20 大连七界合创科技有限公司 一种三维场景的空间操控虚拟实现方法
CN106251404B (zh) * 2016-07-19 2019-02-01 央数文化(上海)股份有限公司 方位跟踪方法、实现增强现实的方法及相关装置、设备
CN108227920A (zh) * 2017-12-26 2018-06-29 中国人民解放军陆军航空兵学院 运动封闭空间追踪方法及追踪系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUYA YOU 等: "Hybrid Inertial and Vision Tracking for Augmented Reality Registration", 《PROCEEDINGS IEEE VIRTUAL REALITY》 *
杨松 等: "基于BRISK特征的增强现实系统设计", 《软件工程师》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222537A (zh) * 2019-11-19 2020-06-02 杭州事件视界科技有限公司 可快速制作并传播增强现实系统及方法
CN110956642A (zh) * 2019-12-03 2020-04-03 深圳市未来感知科技有限公司 多目标跟踪识别方法、终端及可读存储介质
CN111369684A (zh) * 2019-12-10 2020-07-03 杭州海康威视系统技术有限公司 目标跟踪方法、装置、设备及存储介质
CN111369684B (zh) * 2019-12-10 2023-09-01 杭州海康威视系统技术有限公司 目标跟踪方法、装置、设备及存储介质
CN111061374A (zh) * 2019-12-20 2020-04-24 京东方科技集团股份有限公司 一种支持多人模式增强现实应用的方法及装置
CN111061374B (zh) * 2019-12-20 2024-04-09 京东方科技集团股份有限公司 一种支持多人模式增强现实应用的方法及装置
WO2021164712A1 (zh) * 2020-02-19 2021-08-26 Oppo广东移动通信有限公司 位姿跟踪方法、可穿戴设备、移动设备以及存储介质
CN111598921A (zh) * 2020-04-03 2020-08-28 厦门钛尚人工智能科技有限公司 球场线映射关系计算方法、系统、移动终端及存储介质
CN111598921B (zh) * 2020-04-03 2023-02-28 厦门钛尚人工智能科技有限公司 球场线映射关系计算方法、系统、移动终端及存储介质
CN111580676A (zh) * 2020-05-20 2020-08-25 深圳中科盾科技有限公司 脚势识别全向控制系统及其实现方法
CN112771480B (zh) * 2020-06-28 2022-04-12 华为技术有限公司 交互方法及电子设备
CN112771480A (zh) * 2020-06-28 2021-05-07 华为技术有限公司 交互方法及电子设备
CN112068704A (zh) * 2020-09-10 2020-12-11 上海幻维数码创意科技有限公司 一种在目标对象上显示增强现实效果的方法
CN112068704B (zh) * 2020-09-10 2023-12-08 上海幻维数码创意科技股份有限公司 一种在目标对象上显示增强现实效果的方法
CN112633115A (zh) * 2020-12-17 2021-04-09 杭州海康机器人技术有限公司 一种车底携带物检测方法、装置及存储介质
CN112633115B (zh) * 2020-12-17 2024-04-05 杭州海康机器人股份有限公司 一种车底携带物检测方法、装置及存储介质
CN112783325A (zh) * 2021-01-25 2021-05-11 江苏华实广告有限公司 基于多投影系统的人机互动方法、系统以及存储介质
CN115086541A (zh) * 2021-03-15 2022-09-20 北京字跳网络技术有限公司 一种拍摄位置确定方法、装置、设备及介质
WO2022194158A1 (zh) * 2021-03-15 2022-09-22 北京字跳网络技术有限公司 一种目标跟踪方法、装置、设备及介质
CN115086541B (zh) * 2021-03-15 2023-12-22 北京字跳网络技术有限公司 一种拍摄位置确定方法、装置、设备及介质
CN113421343A (zh) * 2021-05-27 2021-09-21 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN113421343B (zh) * 2021-05-27 2024-06-04 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN114723923A (zh) * 2022-03-01 2022-07-08 杭州杰牌传动科技有限公司 一种传动解决方案模拟展示系统和方法
CN114723923B (zh) * 2022-03-01 2024-05-14 杭州杰牌传动科技有限公司 一种传动解决方案模拟展示系统和方法
CN114818397A (zh) * 2022-07-01 2022-07-29 中汽信息科技(天津)有限公司 一种定制化场景的智能仿真方法和系统
CN114818397B (zh) * 2022-07-01 2022-09-20 中汽信息科技(天津)有限公司 一种定制化场景的智能仿真方法和系统
CN115082648A (zh) * 2022-08-23 2022-09-20 海看网络科技(山东)股份有限公司 一种基于标志物模型绑定的ar场景布置方法及系统
CN116958332B (zh) * 2023-09-20 2023-12-22 南京竹影数字科技有限公司 基于图像识别的纸张绘图实时映射3d模型的方法及系统
CN116958332A (zh) * 2023-09-20 2023-10-27 南京竹影数字科技有限公司 基于图像识别的纸张绘图实时映射3d模型的方法及系统

Also Published As

Publication number Publication date
CN110335292B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN110335292A (zh) 一种基于图片跟踪实现模拟场景跟踪的方法及系统
CN109685913B (zh) 基于计算机视觉定位的增强现实实现方法
CN105210368B (zh) 背景差分提取装置以及背景差分提取方法
US8094928B2 (en) Stereo video for gaming
US8237775B2 (en) System and method for 3D space-dimension based image processing
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
CN113963044B (zh) 一种基于rgbd相机的货物箱智能装载方法及系统
CN110443898A (zh) 一种基于深度学习的ar智能终端目标识别系统及方法
CN109559349A (zh) 一种用于标定的方法和装置
CN108416832B (zh) 媒体信息的显示方法、装置和存储介质
CN112954292B (zh) 一种基于增强现实的数字博物馆导览系统和方法
CN112639846A (zh) 一种训练深度学习模型的方法和装置
CN108805979A (zh) 一种动态模型三维重建方法、装置、设备和存储介质
CN112037320A (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN109711472B (zh) 训练数据生成方法和装置
Oskiper et al. Augmented reality binoculars
CN108259764A (zh) 摄像机、应用于摄像机的图像处理方法及装置
CN109785373A (zh) 一种基于散斑的六自由度位姿估计系统及方法
CN107145224A (zh) 基于三维球面泰勒展开的人眼视线跟踪方法和装置
CN107784687A (zh) 一种基于白光扫描仪的三维重建方法及系统
CN114913308A (zh) 摄像机跟踪方法、装置、设备及存储介质
CN115008454A (zh) 一种基于多帧伪标签数据增强的机器人在线手眼标定方法
CN113961068B (zh) 一种基于增强现实头盔的近距离实物眼动交互方法
CN113850905B (zh) 一种用于周扫型光电预警系统的全景图像实时拼接方法
CN108171802B (zh) 一种云端与终端结合实现的全景增强现实实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A method, system and terminal for realizing simulated scene tracking based on picture tracking

Effective date of registration: 20220418

Granted publication date: 20210430

Pledgee: Bank of Nanjing Limited by Share Ltd. Beijing branch

Pledgor: BEIJING CAT-EYES TECHNOLOGY CO.,LTD.

Registration number: Y2022110000087

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20230711

Granted publication date: 20210430

Pledgee: Bank of Nanjing Limited by Share Ltd. Beijing branch

Pledgor: BEIJING CAT-EYES TECHNOLOGY CO.,LTD.

Registration number: Y2022110000087

PC01 Cancellation of the registration of the contract for pledge of patent right