CN104156998A - 一种基于图片虚拟内容融合真实场景的实现方法及系统 - Google Patents
一种基于图片虚拟内容融合真实场景的实现方法及系统 Download PDFInfo
- Publication number
- CN104156998A CN104156998A CN201410388313.9A CN201410388313A CN104156998A CN 104156998 A CN104156998 A CN 104156998A CN 201410388313 A CN201410388313 A CN 201410388313A CN 104156998 A CN104156998 A CN 104156998A
- Authority
- CN
- China
- Prior art keywords
- image
- scene
- virtual content
- real scene
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明适用于图像融合领域,提供了一种基于图片虚拟内容融合真实场景的实现方法,包括以下步骤:A、将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;B、利用识别结果激发不同的虚拟内容;C、利用图像特征追踪算法跟踪获取的场景图像特征点;D、在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。通过采用单一图片作为输入源,识别该图片从而激发虚拟内容;同时利用场景特征追踪技术,将虚拟内容置于用户的真实环境中,从而实现增强现实的效果,解除了特征图像激发虚拟内容的限制,促进了产业的发展。
Description
技术领域
本发明属于动静融合领域,尤其涉及一种基于图片虚拟内容融合真实场景的实现方法及系统。
背景技术
增强现实(Augmented Reality,简称AR),是在虚拟现实的基础上发展起来的新技术。是通过计算机系统提供的信息增加用户对现实世界感知的技术,将虚拟的信息应用到真实世界,并将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,从而实现对现实的增强。
目前,实现增强现实的必要条件是需具备识别图,即通过识别特定图像来激发虚拟内容。此种方式大大限制了增强现实技术的应用,也在很大程度上阻碍了增强现实产业的发展。
发明内容
本发明一种基于图片虚拟内容融合真实场景的实现方法及系统,旨在解决现有技术中通过特征图像来激发虚拟内容大大限制了增强现实技术的应用、很大程度阻碍产业发展的问题。
本发明是这样实现的,一种基于图片虚拟内容融合真实场景的实现方法,所述方法包括以下步骤:
A、将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;
B、利用识别结果激发不同的虚拟内容;
C、利用图像特征追踪算法跟踪获取的场景图像特征点;
D、在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。
本发明的进一步技术方案是:所述步骤A包括以下步骤:
A1、系统对硬件设备内的图像进行读取;
A2、对读取到的图像进行数据分析获取图像的特征点;
A3、将获取的图像特征点与数据库中图像进行对比得到识别结果;
A4、系统利用摄像设备获取真实场景分析场景特征。
本发明的进一步技术方案是:所述步骤C包括以下步骤:
C1、给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
C2、根据各个像素点的速度矢量特征对图像进行动态分析;
C3、判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
C4、获得图像特征点新的位置。
本发明的进一步技术方案是:所述步骤D包括以下步骤:
D1、根据得到图像特征点新的位置与原始位置,基于摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
D2、将激发的虚拟内容赋予得到的平移、旋转与缩放矢量完成虚拟内容与真实场景融合。
本发明的进一步技术方案是:所述步骤A2与A4中采用压缩后的较低分辨率 ,图像均由彩色格式转换灰度格式。
本发明的另一目的在于提供一种基于图片虚拟内容融合真实场景的实现系统,该实现系统包括:
获取分析识别模块,用于将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;
虚拟内容激发模块,用于利用识别结果激发不同的虚拟内容;
场景特征点获取模块,用于利用图像特征追踪算法跟踪获取的场景图像特征点;
融合模块,用于在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。
本发明的进一步技术方案是:所述获取分析识别模块包括:
图像读取单元,用于系统对硬件设备内的图像进行读取;
图像分析单元,用于对读取到的图像进行数据分析获取图像的特征点;
图像识别单元,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
场景获取分析单元,用于系统利用摄像设备获取真实场景分析场景特征。
本发明的进一步技术方案是:所述场景特征点获取模块包括:
形成图像运动场单元,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
新位置获得单元,用于获得图像特征点新的位置。
本发明的进一步技术方案是:所述融合模块包括:
三维空间计算单元,用于根据得到图像特征点新的位置与原始位置,基于摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
虚拟真实融合单元,用于将激发的虚拟内容赋予得到的平移、旋转与缩放矢量完成虚拟内容与真实场景融合。
本发明的进一步技术方案是:所述图像分析单元与场景获取分析单元中采用压缩后的较低分辨率,图像均由彩色格式转换灰度格式。
本发明的有益效果是:通过采用单一图片作为输入源,识别该图片从而激发虚拟内容;同时利用场景特征追踪技术,将虚拟内容置于用户的真实环境中,从而实现增强现实的效果,解除了特征图像激发虚拟内容的限制,极大的扩展了增强现实技术的使用空间,也为增强现实内容的传播提供了极大的便利性,促进了产业的发展。
附图说明
图1是本发明实施例提供的基于图片虚拟内容融合真实场景的实现方法的流程图;
图2是本发明实施例提供的基于图片虚拟内容融合真实场景的实现方系统结构框图;
图3是本发明实施例提供的获取分析识别模块的结构框图;
图4是本发明实施例提供的场景特征点获取模块的结构框图;
图5是本发明实施例提供的融合模块的结构框图。
具体实施方式
附图标记:10-获取分析识别模块 20-虚拟内容激发模块 30-场景特征点获取模块 40-融合模块 101-图像读取单元 102-图像分析单元 103-图像识别单元 104-场景获取分析单元 301-形成图像运动场单元 302-动态分析单元 303-判断单元 304-新位置获得单元 401-三维空间计算单元 402-虚拟真实融合单元
图1示出了本发明提供的基于图片虚拟内容融合真实场景的实现方法的流程图,其详述如下:
步骤S1中,在将系统启动初始化后,系统通过图像读取单元读取系统硬件设备中存取的指定图像;在系统硬件设备中存取的图像文件均是用户通过摄像拍摄的照片或是通过其他的途径获取的图片,将这些照片和图片存储到系统设备中的图像数据库中,供给后续需要选择各种图像的来源。
步骤S2中,系统对在步骤S1中获取的图像进行分析,获取到图像数据,根据图像数据得到图像的特征点信息;在对图像进行分析的过程中首先将图像文件的分辨率进行统一,将其分辨率压缩到较低,其中分辨率320*240大小,在将分辨率调整后对图像文件需要进行格式转化,将图像的彩色格式转化为灰度格式,将转化格式后的图像利用二维图像亮度变化距离的点或图像边缘曲线上具有曲率极大值的点分析图像角点的特征,并以分析的图像角点特征作为图像特征点。
步骤S3中,将获取的图像特征点信息与数据库中特想进行对比得到识别结果;利用局部随机二值特征,分别计算在步骤S2中获取的特征点信息和数据库中图像的特征描述信息,在通过各个角点的描述信息来判断他们在两张图像中的对应关系,去除两张图片中错误匹配的外点,保留下正确匹配的内点,当保留的正确北配特征点的数量超过了设定的阈值,则判断为识别成功进如下一个步骤;若识别不成功,则返回步骤S2中从新对图片进行循环处理直到识别成功为止。
步骤S4中,在系统启动初始化后,系统同时还利用摄像设备摄录动态是真实场景,并且对摄录的真是长的图像特征点进行分析;在对摄录的真实场景特想进行分析中要对获取的真实场景图像的分辨率进行统一的压缩,将其分辨率压缩到较低,其中分辨率320*240大小,分辨率处理后对摄录的图像的格式进行转化,将其彩色格式转化为灰度格式,将转化格式后的图像利用二维图像亮度变化距离的点或图像边缘曲线上具有曲率极大值的点分析图像角点的特征,并以分析的图像角点特征作为图像特征点。
步骤S5中,系统利用步骤S3中得到的识别结果激发不同的虚拟内容,依据步骤S3中的识别结果得到识别到的目标编号,按照编号在数据库中检索出相对应的虚拟内容。
步骤S6中,系统利用图像特征追踪算法跟踪步骤S4获取的场景图像特征点;对追踪的成精图像中的每一个像素点赋予一个初始速度矢量,使其形成场景图像运动场,在运行的特定时刻,使其图像上的点鱼三维物体上的点一一对应,这种对应关系可以由投影关系得到,根据各个像素点的所读矢量特征,对图像进行动态分析,判断图像中是否有运动的物体,如果图像中没有物体在运动,则光流矢量在整个图像区域是连续变化的;如果图像中有运动的物体,则目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景矢量不同,从而检测出运动物体及位置,使其得到场景图像特征点的新位置。
步骤S7中,将静态图像转化成虚拟内容和动态的真实场景均准备妥当后,在摄像设备空间中将步骤S5激发的虚拟内容置于步骤S6中跟踪的特征点空间位置,将虚拟内容与真实场景进行融合;根据步骤S6中得到的场景图像特征点新的位置与原始位置,依据摄像头的物理参数计算出在三维图像空间内物体的平移、旋转与缩放矢量,这时将激发的虚拟内容赋予计算出来在三维空间内物体的平移、旋转与缩放矢量上,就实现了虚拟内容与真实场景的完整融合。
通过采用单一图片作为输入源,识别该图片从而激发虚拟内容;同时利用场景特征追踪技术,将虚拟内容置于用户的真实环境中,从而实现增强现实的效果,解除了特征图像激发虚拟内容的限制,促进了产业的发展。
本发明的另一目的在于提供一种基于图片虚拟内容融合真实场景的实现系统,该实现系统包括:
获取分析识别模块10,用于将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;
虚拟内容激发模块20,用于利用识别结果激发不同的虚拟内容;
场景特征点获取模块30,用于利用图像特征追踪算法跟踪获取的场景图像特征点;
融合模块40,用于在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。
所述获取分析识别模块10包括:
图像读取单元101,用于系统对硬件设备内的图像进行读取;
图像分析单元102,用于对读取到的图像进行数据分析获取图像的特征点;
图像识别单元103,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
场景获取分析单元104,用于系统利用摄像设备获取真实场景分析场景特征。
所述场景特征点获取模块30包括:
形成图像运动场单元301,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元302,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元303,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
新位置获得单元304,用于获得图像特征点新的位置。
所述融合模块40包括:
三维空间计算单元401,用于根据得到图像特征点新的位置与原始位置,基于摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
虚拟真实融合单元402,用于将激发的虚拟内容赋予得到的平移、旋转与缩放矢量完成虚拟内容与真实场景融合。
所述图像分析单元与场景获取分析单元中采用压缩后的较低分辨率,图像均由彩色格式转换灰度格式。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于图片虚拟内容融合真实场景的实现方法,其特征在于,所述方法包括以下步骤:
A、将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;
B、利用识别结果激发不同的虚拟内容;
C、利用图像特征追踪算法跟踪获取的场景图像特征点;
D、在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。
2.根据权利要求1所述的实现方法,其特征在于,所述步骤A包括以下步骤:
A1、系统对硬件设备内的图像进行读取;
A2、对读取到的图像进行数据分析获取图像的特征点;
A3、将获取的图像特征点与数据库中图像进行对比得到识别结果;
A4、系统利用摄像设备获取真实场景分析场景特征。
3.根据权利要求2所述的实现方法,其特征在于,所述步骤C包括以下步骤:
C1、给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
C2、根据各个像素点的速度矢量特征对图像进行动态分析;
C3、判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
C4、获得图像特征点新的位置。
4.根据权利要求3所述的实现方法,其特征在于,所述步骤D包括以下步骤:
D1、根据得到图像特征点新的位置与原始位置,基于摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
D2、将激发的虚拟内容赋予得到的平移、旋转与缩放矢量完成虚拟内容与真实场景融合。
5.根据权利要求3所述的实现方法,其特征在于,所述步骤A2与A4中采用压缩后的较低分辨率 ,图像均由彩色格式转换灰度格式。
6.一种基于图片虚拟内容融合真实场景的实现系统,其特征在于,该实现系统包括:
获取分析识别模块,用于将设备内部的图像进行读取、分析、识别并且利用摄像设备获取真实场景分析场景特征;
虚拟内容激发模块,用于利用识别结果激发不同的虚拟内容;
场景特征点获取模块,用于利用图像特征追踪算法跟踪获取的场景图像特征点;
融合模块,用于在摄像设备空间中将激发的虚拟内容置于跟踪的特征点空间位置进行虚拟内容与真实场景融合。
7.根据权利要求6所述的实现系统,其特征在于,所述获取分析识别模块包括:
图像读取单元,用于系统对硬件设备内的图像进行读取;
图像分析单元,用于对读取到的图像进行数据分析获取图像的特征点;
图像识别单元,用于将获取的图像特征点与数据库中图像进行对比得到识别结果;
场景获取分析单元,用于系统利用摄像设备获取真实场景分析场景特征。
8.根据权利要求7所述的实现系统,其特征在于,所述场景特征点获取模块包括:
形成图像运动场单元,用于给图像中每一个像素点赋予一个初始速度矢量形成图像运动场;
动态分析单元,用于根据各个像素点的速度矢量特征对图像进行动态分析;
判断单元,用于判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,目标和图像背景存在相对运动,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体及位置;
新位置获得单元,用于获得图像特征点新的位置。
9.根据权利要求7所述的实现系统,其特征在于,所述融合模块包括:
三维空间计算单元,用于根据得到图像特征点新的位置与原始位置,基于摄像头的物理参数计算出三维空间内物体的平移、旋转与缩放矢量;
虚拟真实融合单元,用于将激发的虚拟内容赋予得到的平移、旋转与缩放矢量完成虚拟内容与真实场景融合。
10.根据权利要求6所述的实现系统,其特征在于,所述图像分析单元与场景获取分析单元中采用压缩后的较低分辨率,图像均由彩色格式转换灰度格式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410388313.9A CN104156998A (zh) | 2014-08-08 | 2014-08-08 | 一种基于图片虚拟内容融合真实场景的实现方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410388313.9A CN104156998A (zh) | 2014-08-08 | 2014-08-08 | 一种基于图片虚拟内容融合真实场景的实现方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104156998A true CN104156998A (zh) | 2014-11-19 |
Family
ID=51882486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410388313.9A Pending CN104156998A (zh) | 2014-08-08 | 2014-08-08 | 一种基于图片虚拟内容融合真实场景的实现方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104156998A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105812764A (zh) * | 2014-12-30 | 2016-07-27 | 孙彬丰 | 即时贴图的三维影像产生方法 |
CN106447643A (zh) * | 2016-09-19 | 2017-02-22 | 西安你的主意电子商务有限公司 | 一种基于ar技术的互动影像处理方法 |
CN106598238A (zh) * | 2016-12-03 | 2017-04-26 | 赵良华 | 基于增强现实展示照片书的实现方法及显示系统 |
CN106896925A (zh) * | 2017-04-14 | 2017-06-27 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN106952349A (zh) * | 2017-03-29 | 2017-07-14 | 联想(北京)有限公司 | 一种显示控制方法、装置及电子设备 |
CN106971426A (zh) * | 2017-04-14 | 2017-07-21 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN106981100A (zh) * | 2017-04-14 | 2017-07-25 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN106997618A (zh) * | 2017-04-14 | 2017-08-01 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN107016730A (zh) * | 2017-04-14 | 2017-08-04 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN107016729A (zh) * | 2017-04-14 | 2017-08-04 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN107274491A (zh) * | 2016-04-09 | 2017-10-20 | 大连七界合创科技有限公司 | 一种三维场景的空间操控虚拟实现方法 |
CN108139807A (zh) * | 2015-11-20 | 2018-06-08 | 谷歌有限责任公司 | 使用像素速度的电子显示稳定 |
CN109731356A (zh) * | 2018-12-13 | 2019-05-10 | 苏州双龙文化传媒有限公司 | 舞台效果塑造方法及舞台效果呈现系统 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
-
2014
- 2014-08-08 CN CN201410388313.9A patent/CN104156998A/zh active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105812764A (zh) * | 2014-12-30 | 2016-07-27 | 孙彬丰 | 即时贴图的三维影像产生方法 |
CN108139807B (zh) * | 2015-11-20 | 2021-03-23 | 谷歌有限责任公司 | 具有头戴式显示器hmd设备的系统及在该系统中的方法 |
CN108139807A (zh) * | 2015-11-20 | 2018-06-08 | 谷歌有限责任公司 | 使用像素速度的电子显示稳定 |
CN107274491A (zh) * | 2016-04-09 | 2017-10-20 | 大连七界合创科技有限公司 | 一种三维场景的空间操控虚拟实现方法 |
CN106447643A (zh) * | 2016-09-19 | 2017-02-22 | 西安你的主意电子商务有限公司 | 一种基于ar技术的互动影像处理方法 |
CN106598238A (zh) * | 2016-12-03 | 2017-04-26 | 赵良华 | 基于增强现实展示照片书的实现方法及显示系统 |
CN106598238B (zh) * | 2016-12-03 | 2019-05-24 | 赵良华 | 基于增强现实展示照片书的实现方法及显示系统 |
CN106952349A (zh) * | 2017-03-29 | 2017-07-14 | 联想(北京)有限公司 | 一种显示控制方法、装置及电子设备 |
CN107016730A (zh) * | 2017-04-14 | 2017-08-04 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN107016729A (zh) * | 2017-04-14 | 2017-08-04 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN106997618A (zh) * | 2017-04-14 | 2017-08-01 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN106981100A (zh) * | 2017-04-14 | 2017-07-25 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN106971426A (zh) * | 2017-04-14 | 2017-07-21 | 陈柳华 | 一种虚拟现实与真实场景融合的方法 |
CN106896925A (zh) * | 2017-04-14 | 2017-06-27 | 陈柳华 | 一种虚拟现实与真实场景融合的装置 |
CN109731356A (zh) * | 2018-12-13 | 2019-05-10 | 苏州双龙文化传媒有限公司 | 舞台效果塑造方法及舞台效果呈现系统 |
CN110335292A (zh) * | 2019-07-09 | 2019-10-15 | 北京猫眼视觉科技有限公司 | 一种基于图片跟踪实现模拟场景跟踪的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104156998A (zh) | 一种基于图片虚拟内容融合真实场景的实现方法及系统 | |
US11393173B2 (en) | Mobile augmented reality system | |
CN106503671B (zh) | 确定人脸姿态的方法和装置 | |
CN110866953B (zh) | 地图构建方法及装置、定位方法及装置 | |
US9418480B2 (en) | Systems and methods for 3D pose estimation | |
US8644551B2 (en) | Systems and methods for tracking natural planar shapes for augmented reality applications | |
CN104885098B (zh) | 基于移动装置的文本检测及跟踪 | |
KR101469398B1 (ko) | 텍스트 기반 3d 증강 현실 | |
WO2017041731A1 (en) | Markerless multi-user multi-object augmented reality on mobile devices | |
US8442307B1 (en) | Appearance augmented 3-D point clouds for trajectory and camera localization | |
TWI506563B (zh) | A method and apparatus for enhancing reality of two - dimensional code | |
CN112435338B (zh) | 电子地图的兴趣点的位置获取方法、装置及电子设备 | |
WO2016132371A1 (en) | Gesture recognition using multi-sensory data | |
Barandiaran et al. | Real-time optical markerless tracking for augmented reality applications | |
Puwein et al. | Joint camera pose estimation and 3d human pose estimation in a multi-camera setup | |
CN111459269A (zh) | 一种增强现实显示方法、系统及计算机可读存储介质 | |
CN110310325B (zh) | 一种虚拟测量方法、电子设备及计算机可读存储介质 | |
CN107818596B (zh) | 一种场景参数确定方法、装置及电子设备 | |
CN112991441A (zh) | 相机定位方法、装置、电子设备及存储介质 | |
KR101586071B1 (ko) | 마커리스 증강현실 서비스 제공 장치 및 이를 위한 촬영 위치 추정 방법 | |
McIlroy et al. | Kinectrack: 3d pose estimation using a projected dense dot pattern | |
CN112102404B (zh) | 物体检测追踪方法、装置及头戴显示设备 | |
CN109785444A (zh) | 图像中现实平面的识别方法、装置及移动终端 | |
CN113240656A (zh) | 视觉定位方法及相关装置、设备 | |
US9135715B1 (en) | Local feature cameras for structure from motion (SFM) problems with generalized cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141119 |
|
RJ01 | Rejection of invention patent application after publication |