CN114842173A - 一种增强现实系统及其控制方法 - Google Patents
一种增强现实系统及其控制方法 Download PDFInfo
- Publication number
- CN114842173A CN114842173A CN202210395663.2A CN202210395663A CN114842173A CN 114842173 A CN114842173 A CN 114842173A CN 202210395663 A CN202210395663 A CN 202210395663A CN 114842173 A CN114842173 A CN 114842173A
- Authority
- CN
- China
- Prior art keywords
- image
- live
- data information
- action
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims description 17
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000009877 rendering Methods 0.000 claims abstract description 15
- 238000012544 monitoring process Methods 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 230000007547 defect Effects 0.000 abstract description 2
- 238000007499 fusion processing Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种增强现实系统,包括摄像头,用于拍摄实景图像;六轴陀螺仪,用于实时测量摄像头的运动状态;定位模块,用于实时定位摄像头的位置信息;图像数据库,用于预存目标图像的特征数据信息和渲染数据信息;图像识别模块,用于使用图像数据库中预存的目标图像的特征数据信息识别摄像头拍摄到的实景图像中待渲染的目标图像;图像处理模块,用于使用图像数据库中预存的目标图像的渲染数据信息对图像识别模块识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;图像输出模块,用于将图像处理模块处理后的图像输出。本发明能够改进现有技术的不足,提高虚拟图像与现实图像的融合处理速度和显示效果。
Description
技术领域
本发明涉及增强现实技术领域,尤其是一种增强现实系统及其控制方法。
背景技术
增强现实(AR)是一种近些年新型的图像处理技术,可以实现虚拟图像与现实图像的融合显示。但是,现有的增强现实系统在进行虚拟图像与现实图像融合过程中,虚拟图像和现实图像之间经常出现明显的拼接痕迹,显示图像容易出现卡顿,导致显示效果不佳。
发明内容
本发明要解决的技术问题是提供一种增强现实系统及其控制方法,能够解决现有技术的不足,提高虚拟图像与现实图像的融合处理速度和显示效果。
为解决上述技术问题,本发明所采取的技术方案如下。
一种增强现实系统,其特征在于包括:
摄像头,用于拍摄实景图像;
六轴陀螺仪,用于实时测量摄像头的运动状态;
定位模块,用于实时定位摄像头的位置信息;
图像数据库,用于预存目标图像的特征数据信息和渲染数据信息;
图像识别模块,用于使用图像数据库中预存的目标图像的特征数据信息识别摄像头拍摄到的实景图像中待渲染的目标图像;
图像处理模块,用于使用图像数据库中预存的目标图像的渲染数据信息对图像识别模块识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
图像输出模块,用于将图像处理模块处理后的图像输出。
一种上述的增强现实系统的控制方法,包括以下步骤:
A、摄像头拍摄实景图像,并将拍摄到的实景图像实时发送至图像识别模块和图像处理模块;
B、图像识别模块根据六轴陀螺仪和定位模块发送的摄像头的位置信息和运动状态信息判断摄像头的拍摄范围,然后根据拍摄范围从图像数据库调取对应的目标图像的特征数据信息;然后使用特征数据信息与实景图像进行比对,当出现与特征数据信息匹配度高于设定阈值的区域时,将此区域判定为与特征数据信息对应的目标图像;
C、图像处理模块使用图像数据库中预存的目标图像的渲染数据信息对图像识别模块识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
D、图像处理模块将处理后的图像发送至图像输出模块进行输出。
作为优选,步骤B中,使用特征数据信息与实景图像进行比对包括以下步骤,
将特征数据信息依次与实景图像进行比对,将比对成功的特征数据信息标记在实景图像的对应区域;将标记有特征数据信息的区域按照相对位置进行分组,当同组区域所包含的特征数据信息数量超过目标图像所包含特征数据信息总数的80%时,将上述同组区域判定为与特征数据信息对应的目标图像。
作为优选,计算每个特征数据信息与图像数据库中其它特征数据信息的平均相似度,将待对比特征数据信息按照平均相似度由低到高的顺序依次对实景图像进行比对。
作为优选,步骤C中,对图像识别模块识别出的目标图像进行渲染后,若图像识别模块暂时处于空闲状态,则根据目标图像之间的相对位置关系,将已渲染目标图像周边的其它目标图像进行渲染处理。
作为优选,步骤C中,将渲染后的目标图像与实景图像进行融合包括以下步骤,
C1、根据目标图像的形状确定实景图像中的融合边界,使用渲染后的目标图像在融合边界内对实景图像进行替换;
C2、在融合边界的内侧设置图像过渡区,使用图像过渡区对应的实景图像对图像过渡区中的目标图像进行叠加;
C3、在融合边界的外侧设置图像监控区,根据图像监控区的图像参数变化对目标图像进行修正。
作为优选,步骤C2中,将实景图像中亮度超过上限阈值和亮度低于下限阈值的区域标记出来,将实景图像标记区域的RGB值与目标图像对应位置的RGB值进行加权平均,实景图像标记区域RGB值的加权因子随着实景图像亮度与上限阈值或下限阈值的偏差增大而增加。
作为优选,实景图像标记区域RGB值的加权因子的取值范围为0.05~0.2。
作为优选,步骤C3中,在图像监控区中选取追踪点,计算每个追踪点在每个时间周期内的位置变化向量,根据位置变化向量的相似度对追踪点进行分组,然后根据每组追踪点的位置对图像监控区进行分块,使用图像监控区块对应追踪点的变化向量拟合图像监控区块的变化向量,然后根据拟合出的变化向量将图像监控区块的图像进行移动和变换,然后降低进入融合边界的图像监控区块图像的分辨率,然后将进入融合边界的图像监控区块图像的RGB值与目标图像对应位置的RGB值进行平均。
采用上述技术方案所带来的有益效果在于:本发明通过优化图像特征比对的流程,提高比对速度,降低图像实时显示的卡顿程度。在使用预先渲染的目标图像对实景图像进行融合时,通过使用融合边界内外两侧实景图像对目标图像进行叠加修正,淡化了图像拼接痕迹,提高了融合之后图像的真实度,同时这一过程运算量少,不会对图像显示的实时性造成明显影响。
附图说明
图1是本发明一个具体实施方式的原理图。
具体实施方式
参照图1,本发明一个具体实施方式包括,
摄像头1,用于拍摄实景图像;
六轴陀螺仪2,用于实时测量摄像头1的运动状态;
定位模块3,用于实时定位摄像头1的位置信息;
图像数据库4,用于预存目标图像的特征数据信息和渲染数据信息;
图像识别模块5,用于使用图像数据库4中预存的目标图像的特征数据信息识别摄像头1拍摄到的实景图像中待渲染的目标图像;
图像处理模块6,用于使用图像数据库4中预存的目标图像的渲染数据信息对图像识别模块5识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
图像输出模块7,用于将图像处理模块6处理后的图像输出。
一种上述的增强现实系统的控制方法,包括以下步骤:
A、摄像头1拍摄实景图像,并将拍摄到的实景图像实时发送至图像识别模块5和图像处理模块6;
B、图像识别模块5根据六轴陀螺仪2和定位模块3发送的摄像头1的位置信息和运动状态信息判断摄像头的拍摄范围,然后根据拍摄范围从图像数据库4调取对应的目标图像的特征数据信息;然后使用特征数据信息与实景图像进行比对,当出现与特征数据信息匹配度高于设定阈值的区域时,将此区域判定为与特征数据信息对应的目标图像;
C、图像处理模块6使用图像数据库4中预存的目标图像的渲染数据信息对图像识别模块5识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
D、图像处理模块6将处理后的图像发送至图像输出模块7进行输出。
步骤B中,使用特征数据信息与实景图像进行比对包括以下步骤,
将特征数据信息依次与实景图像进行比对,将比对成功的特征数据信息标记在实景图像的对应区域;将标记有特征数据信息的区域按照相对位置进行分组,当同组区域所包含的特征数据信息数量超过目标图像所包含特征数据信息总数的80%时,将上述同组区域判定为与特征数据信息对应的目标图像。
计算每个特征数据信息与图像数据库4中其它特征数据信息的平均相似度,将待对比特征数据信息按照平均相似度由低到高的顺序依次对实景图像进行比对。
步骤C中,对图像识别模块5识别出的目标图像进行渲染后,若图像识别模块5暂时处于空闲状态,则根据目标图像之间的相对位置关系,将已渲染目标图像周边的其它目标图像进行渲染处理。
步骤C中,将渲染后的目标图像与实景图像进行融合包括以下步骤,
C1、根据目标图像的形状确定实景图像中的融合边界,使用渲染后的目标图像在融合边界内对实景图像进行替换;
C2、在融合边界的内侧设置图像过渡区,使用图像过渡区对应的实景图像对图像过渡区中的目标图像进行叠加;
C3、在融合边界的外侧设置图像监控区,根据图像监控区的图像参数变化对目标图像进行修正。
步骤C2中,将实景图像中亮度超过上限阈值和亮度低于下限阈值的区域标记出来,将实景图像标记区域的RGB值与目标图像对应位置的RGB值进行加权平均,实景图像标记区域RGB值的加权因子随着实景图像亮度与上限阈值或下限阈值的偏差增大而增加。
实景图像标记区域RGB值的加权因子的取值范围为0.05~0.2。
步骤C3中,在图像监控区中选取追踪点,计算每个追踪点在每个时间周期内的位置变化向量,根据位置变化向量的相似度对追踪点进行分组,然后根据每组追踪点的位置对图像监控区进行分块,使用图像监控区块对应追踪点的变化向量拟合图像监控区块的变化向量,然后根据拟合出的变化向量将图像监控区块的图像进行移动和变换,然后降低进入融合边界的图像监控区块图像的分辨率,然后将进入融合边界的图像监控区块图像的RGB值与目标图像对应位置的RGB值进行平均。
将本发明使用在手机、头戴设备等对实时性要求较高的增强现实系统中,可以实现流场、真实的图像显示效果。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (9)
1.一种增强现实系统,其特征在于包括:
摄像头(1),用于拍摄实景图像;
六轴陀螺仪(2),用于实时测量摄像头(1)的运动状态;
定位模块(3),用于实时定位摄像头(1)的位置信息;
图像数据库(4),用于预存目标图像的特征数据信息和渲染数据信息;
图像识别模块(5),用于使用图像数据库(4)中预存的目标图像的特征数据信息识别摄像头(1)拍摄到的实景图像中待渲染的目标图像;
图像处理模块(6),用于使用图像数据库(4)中预存的目标图像的渲染数据信息对图像识别模块(5)识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
图像输出模块(7),用于将图像处理模块(6)处理后的图像输出。
2.一种权利要求1所述的增强现实系统的控制方法,其特征在于包括以下步骤:
A、摄像头(1)拍摄实景图像,并将拍摄到的实景图像实时发送至图像识别模块(5)和图像处理模块(6);
B、图像识别模块(5)根据六轴陀螺仪(2)和定位模块(3)发送的摄像头(1)的位置信息和运动状态信息判断摄像头的拍摄范围,然后根据拍摄范围从图像数据库(4)调取对应的目标图像的特征数据信息;然后使用特征数据信息与实景图像进行比对,当出现与特征数据信息匹配度高于设定阈值的区域时,将此区域判定为与特征数据信息对应的目标图像;
C、图像处理模块(6)使用图像数据库(4)中预存的目标图像的渲染数据信息对图像识别模块(5)识别出的目标图像进行渲染,并将渲染后的目标图像与实景图像进行融合;
D、图像处理模块(6)将处理后的图像发送至图像输出模块(7)进行输出。
3.根据权利要求2所述的增强现实系统的控制方法,其特征在于:步骤B中,使用特征数据信息与实景图像进行比对包括以下步骤,
将特征数据信息依次与实景图像进行比对,将比对成功的特征数据信息标记在实景图像的对应区域;将标记有特征数据信息的区域按照相对位置进行分组,当同组区域所包含的特征数据信息数量超过目标图像所包含特征数据信息总数的80%时,将上述同组区域判定为与特征数据信息对应的目标图像。
4.根据权利要求3所述的增强现实系统的控制方法,其特征在于:计算每个特征数据信息与图像数据库(4)中其它特征数据信息的平均相似度,将待对比特征数据信息按照平均相似度由低到高的顺序依次对实景图像进行比对。
5.根据权利要求2所述的增强现实系统的控制方法,其特征在于:步骤C中,对图像识别模块(5)识别出的目标图像进行渲染后,若图像识别模块(5)暂时处于空闲状态,则根据目标图像之间的相对位置关系,将已渲染目标图像周边的其它目标图像进行渲染处理。
6.根据权利要求5所述的增强现实系统的控制方法,其特征在于:步骤C中,将渲染后的目标图像与实景图像进行融合包括以下步骤,
C1、根据目标图像的形状确定实景图像中的融合边界,使用渲染后的目标图像在融合边界内对实景图像进行替换;
C2、在融合边界的内侧设置图像过渡区,使用图像过渡区对应的实景图像对图像过渡区中的目标图像进行叠加;
C3、在融合边界的外侧设置图像监控区,根据图像监控区的图像参数变化对目标图像进行修正。
7.根据权利要求6所述的增强现实系统的控制方法,其特征在于:步骤C2中,将实景图像中亮度超过上限阈值和亮度低于下限阈值的区域标记出来,将实景图像标记区域的RGB值与目标图像对应位置的RGB值进行加权平均,实景图像标记区域RGB值的加权因子随着实景图像亮度与上限阈值或下限阈值的偏差增大而增加。
8.根据权利要求7所述的增强现实系统的控制方法,其特征在于:所述实景图像标记区域RGB值的加权因子的取值范围为0.05~0.2。
9.根据权利要求8所述的增强现实系统的控制方法,其特征在于:步骤C3中,在图像监控区中选取追踪点,计算每个追踪点在每个时间周期内的位置变化向量,根据位置变化向量的相似度对追踪点进行分组,然后根据每组追踪点的位置对图像监控区进行分块,使用图像监控区块对应追踪点的变化向量拟合图像监控区块的变化向量,然后根据拟合出的变化向量将图像监控区块的图像进行移动和变换,然后降低进入融合边界的图像监控区块图像的分辨率,然后将进入融合边界的图像监控区块图像的RGB值与目标图像对应位置的RGB值进行平均。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210395663.2A CN114842173B (zh) | 2022-04-15 | 2022-04-15 | 一种增强现实系统及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210395663.2A CN114842173B (zh) | 2022-04-15 | 2022-04-15 | 一种增强现实系统及其控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114842173A true CN114842173A (zh) | 2022-08-02 |
CN114842173B CN114842173B (zh) | 2023-08-29 |
Family
ID=82565759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210395663.2A Active CN114842173B (zh) | 2022-04-15 | 2022-04-15 | 一种增强现实系统及其控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114842173B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015096806A1 (zh) * | 2013-12-29 | 2015-07-02 | 刘进 | 智能机姿态测定、全景影像生成及目标识别方法 |
CN106657906A (zh) * | 2016-12-13 | 2017-05-10 | 国家电网公司 | 具有自适应场景虚拟现实功能的信息设备监控系统 |
CN108481327A (zh) * | 2018-05-31 | 2018-09-04 | 珠海市微半导体有限公司 | 一种增强视觉的定位装置、定位方法及机器人 |
WO2019196133A1 (zh) * | 2018-04-09 | 2019-10-17 | 杭州瑞杰珑科技有限公司 | 一种头戴式助视装置 |
CN110706164A (zh) * | 2019-09-03 | 2020-01-17 | 北京爱博同心医学科技有限公司 | 基于增强现实的管状视野图像变形显示方法及眼镜 |
CN111091132A (zh) * | 2020-03-19 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像识别方法、装置、计算机设备及介质 |
CN111222444A (zh) * | 2019-12-31 | 2020-06-02 | 的卢技术有限公司 | 一种考虑驾驶员情绪的增强现实抬头显示方法和系统 |
CN111241988A (zh) * | 2020-01-08 | 2020-06-05 | 北京天睿空间科技股份有限公司 | 一种结合定位信息的大场景内运动目标检测识别方法 |
CN111882607A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种适用于增强现实应用的视觉惯导融合位姿估计方法 |
CN112329851A (zh) * | 2020-11-05 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 一种图标检测方法、装置及计算机可读存储介质 |
CN113706721A (zh) * | 2021-09-07 | 2021-11-26 | 中国计量大学 | 一种基于增强现实技术的电梯检验方法及系统 |
-
2022
- 2022-04-15 CN CN202210395663.2A patent/CN114842173B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015096806A1 (zh) * | 2013-12-29 | 2015-07-02 | 刘进 | 智能机姿态测定、全景影像生成及目标识别方法 |
CN106657906A (zh) * | 2016-12-13 | 2017-05-10 | 国家电网公司 | 具有自适应场景虚拟现实功能的信息设备监控系统 |
WO2019196133A1 (zh) * | 2018-04-09 | 2019-10-17 | 杭州瑞杰珑科技有限公司 | 一种头戴式助视装置 |
CN108481327A (zh) * | 2018-05-31 | 2018-09-04 | 珠海市微半导体有限公司 | 一种增强视觉的定位装置、定位方法及机器人 |
CN110706164A (zh) * | 2019-09-03 | 2020-01-17 | 北京爱博同心医学科技有限公司 | 基于增强现实的管状视野图像变形显示方法及眼镜 |
CN111222444A (zh) * | 2019-12-31 | 2020-06-02 | 的卢技术有限公司 | 一种考虑驾驶员情绪的增强现实抬头显示方法和系统 |
CN111241988A (zh) * | 2020-01-08 | 2020-06-05 | 北京天睿空间科技股份有限公司 | 一种结合定位信息的大场景内运动目标检测识别方法 |
CN111091132A (zh) * | 2020-03-19 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像识别方法、装置、计算机设备及介质 |
CN111882607A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种适用于增强现实应用的视觉惯导融合位姿估计方法 |
CN112329851A (zh) * | 2020-11-05 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 一种图标检测方法、装置及计算机可读存储介质 |
CN113706721A (zh) * | 2021-09-07 | 2021-11-26 | 中国计量大学 | 一种基于增强现实技术的电梯检验方法及系统 |
Non-Patent Citations (4)
Title |
---|
TAEHYUN RHEE等: "Augmented Virtual Teleportation for High-Fidelity Telecollaboration", IEEE * |
夏杰;尤志翔;李凯;安平;: "基于AR技术的实时互动体验电商系统", 电视技术, no. 02 * |
张艳;田翔;: "鱼眼图像中手部定位及手势识别", 计算机与现代化, no. 03 * |
莫才健;田健榕;武锋强;陈莉;邹强;: "基于加权小波分析的遥感图像融合算法", 吉林大学学报(理学版), no. 03 * |
Also Published As
Publication number | Publication date |
---|---|
CN114842173B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109785291B (zh) | 一种车道线自适应检测方法 | |
JP4822766B2 (ja) | 路面標示認識装置及びシステム | |
US6493465B2 (en) | Matching point extracting method and apparatus therefor | |
US8289402B2 (en) | Image processing apparatus, image pickup apparatus and image processing method including image stabilization | |
CN110378837B (zh) | 基于鱼眼摄像头的目标检测方法、装置和存储介质 | |
CN112560684B (zh) | 车道线检测方法、装置、电子设备、存储介质以及车辆 | |
CN109033955B (zh) | 一种人脸跟踪方法和系统 | |
CN112598746B (zh) | 电梯门开关检测方法、装置、可读介质及电子设备 | |
US20140037212A1 (en) | Image processing method and device | |
CN110135420B (zh) | 表盘状态识别方法及装置、可读存储介质和电子设备 | |
CN114037938B (zh) | 一种基于NFL-Net的低照度目标检测方法 | |
CN111723805B (zh) | 一种信号灯的前景区域识别方法及相关装置 | |
CN111222419A (zh) | 一种物体识别方法、机器人以及计算机可读存储介质 | |
CN113840135B (zh) | 色偏检测方法、装置、设备及存储介质 | |
CN114842173B (zh) | 一种增强现实系统及其控制方法 | |
CN112749664A (zh) | 一种手势识别方法、装置、设备、系统及存储介质 | |
CN112949423A (zh) | 物体识别方法、物体识别装置及机器人 | |
CN115690770A (zh) | 基于空间注意力特征的非受限场景下的车牌识别方法 | |
CN111563883B (zh) | 屏幕视觉定位方法、定位设备及存储介质 | |
CN112966575B (zh) | 一种应用于智慧社区的目标人脸识别方法及装置 | |
JPH09265538A (ja) | 自動追尾装置 | |
CN111833376B (zh) | 目标跟踪系统及方法 | |
CN114071109A (zh) | 一种改善白平衡不稳定的方法及摄像模组 | |
CN114140494A (zh) | 复杂场景下单目标跟踪系统、方法、电子设备及存储介质 | |
CN112464727A (zh) | 一种基于光场相机的自适应人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |