CN107015655A - 博物馆虚拟场景ar体验眼镜装置及其实现方法 - Google Patents
博物馆虚拟场景ar体验眼镜装置及其实现方法 Download PDFInfo
- Publication number
- CN107015655A CN107015655A CN201710231783.8A CN201710231783A CN107015655A CN 107015655 A CN107015655 A CN 107015655A CN 201710231783 A CN201710231783 A CN 201710231783A CN 107015655 A CN107015655 A CN 107015655A
- Authority
- CN
- China
- Prior art keywords
- camera
- processor
- eyeglass
- information
- museum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000009471 action Effects 0.000 claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000005516 engineering process Methods 0.000 claims abstract description 14
- 230000003238 somatosensory effect Effects 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000011084 recovery Methods 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 239000011521 glass Substances 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 244000062793 Sorghum vulgare Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 235000019713 millet Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Abstract
本发明涉及博物馆虚拟场景AR体验眼镜装置及实现方法,眼镜组件包括镜架、镜片和内核处理器,镜架具有两镜片支持部,两镜片设于镜片支持部,镜片支持部上设有内核处理器;识别扫描装置包括信息发射摄像头、第一处理器、信息接收摄像头和第二处理器,信息发射摄像头和信息接收摄像头安装于两镜片支持部上,信息发射摄像头连接第一处理器,信息接收摄像头连接第二处理器;体感设备装置包括动作捕捉摄像头、第三处理器、动作接收摄像头和第四处理器,动作捕捉摄像头和动作接收摄像头安装于镜架两侧的前端,动作捕捉摄像头连接第三处理器,动作接收摄像头连接第四处理器,处理器均与内核处理器通讯。结合眼镜,呈现虚拟四维场景,体验AR技术。
Description
技术领域
本发明涉及一种博物馆虚拟场景AR体验眼镜装置及其实现方法。
背景技术
虚拟现实(Virtual Reality,简称VR,又译作灵境、幻真)是近年来出现的高新技术,也称灵境技术或人工环境。虚拟现实是利用电脑模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。
增强现实(Augmented Reality,简称AR),也被称之为混合现实。通过计算机技术,将虚拟的信息应用到真实世界,真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。AR增强现实这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
VR头盔提供由封闭式3D场景,根本无法与人分享在虚拟世界中的乐趣,AR眼镜则必须有现实环境作为基础,强调的就是虚拟和真实互动,非常适合于多人分享。也是因此原因,两者的交互方式也是大不一样,VR采用的交互手段完全由人工设定,AR则更注重真实物体与虚拟效果的链接。
发明内容
本发明的目的是克服现有技术存在的不足,提供一种博物馆虚拟场景AR体验眼镜装置及其实现方法。
本发明的目的通过以下技术方案来实现:
博物馆虚拟场景AR体验眼镜装置,特点是:包含眼镜组件、识别扫描装置以及体感设备装置,所述眼镜组件包括镜架、镜片和内核处理器,镜架具有两镜片支持部,两只镜片分别设置于两镜片支持部,镜片支持部上还设置有内核处理器;
所述识别扫描装置包括信息发射摄像头、第一处理器、信息接收摄像头以及第二处理器,信息发射摄像头和信息接收摄像头分别安装于两镜片支持部上,信息发射摄像头连接第一处理器,信息接收摄像头连接第二处理器,第一处理器和第二处理器均与内核处理器通讯连接;
所述体感设备装置包括动作捕捉摄像头、第三处理器、动作接收摄像头以及第四处理器,动作捕捉摄像头和动作接收摄像头分别安装于镜架两侧的前端,动作捕捉摄像头连接第三处理器,动作接收摄像头连接第四处理器,第三处理器和第四处理器均与内核处理器通讯连接。
进一步地,上述的博物馆虚拟场景AR体验眼镜装置,其中,所述动作接收摄像头为3D体感摄影机。
进一步地,上述的博物馆虚拟场景AR体验眼镜装置,其中,所述3D体感摄影机包含RGB摄像头以及位于其两侧的红外线发射器和红外线接收器。
进一步地,上述的博物馆虚拟场景AR体验眼镜装置,其中,所述3D体感摄影机的两侧设有用于声源定位和语音识别的四元麦克风阵列。
博物馆虚拟场景AR体验实现方法,其中,由识别扫描装置的信息发射摄像头和第一处理器对物体进行信息获取、进行摄像头标定、对场景中对象点在摄像头图像平面上的坐标位置与其世界空间坐标之间的映射关系进行确立,进而将图像反馈到信息接收摄像头,最后由第二处理器对图像信息处理,处理后的图像信息传输至内核处理器,镜片上有图像的显示,透明的状态,亦可看到具体的物体;
由体感设备装置的动作捕捉摄像头和第三处理器对手势动作进行获取,抬起手,捕捉手势的动作,进而反馈到动作接收摄像头上进行处理,最后由第四处理器对图像信息处理,信息传输至内核处理器;
内核处理器结合图像的识别处理与人体手势动作在空间上的坐标定位,实现AR场景;结合全息投影技术,打造四维空间,将整个要呈现的博物馆场景生成在空间里,在空间中来到展品画面前,镜片上提示有AR增强现实提示,抬起手,通过识别手势的动作,当手指点到与人眼看到镜片中AR位置一致时,此处即可呈现出AR场景。
进一步地,上述的博物馆虚拟场景AR体验实现方法,其中,由识别扫描装置进行图像获取、摄像机标定、特征提取、立体匹配、三维恢复和视频分析。
进一步地,上述的博物馆虚拟场景AR体验实现方法,其中,所述摄像机标定是对三维场景中对象点在左右摄像机图像平面上的坐标位置al(ul,vl)、ar(ur,vr)与其世界空间坐标A(X,Y,Z)之间的映射关系的确立,实现立体视觉三维模型重构。
进一步地,上述的博物馆虚拟场景AR体验实现方法,其中,所述特征提取,获取匹配赖以进行的图像特征,图像特征的性质与图像匹配的选择有密切的联系。
进一步地,上述的博物馆虚拟场景AR体验实现方法,其中,所述图像匹配是将三维空间中一点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点al(ul,vl)和ar(ur,vr)对应起来。
进一步地,上述的博物馆虚拟场景AR体验实现方法,其中,所述三维恢复是对被测对象表面点的三维信息进行恢复。
本发明与现有技术相比具有显著的优点和有益效果,具体体现在以下方面:
本发明设计独特,将增强现实和虚拟现实相结合,产生新的可视化环境;结合眼镜,呈现虚拟的四维场景;在四维场景中,体验AR技术;实现全新的体验模式,在某种意义上来说,是将博物馆搬回了家,可以在家中就能参观体验博物馆,不用去排队参观,从体验上来说,融合了科技的时代感,能够接触到最新的科学技术;可以与文物亲密接触,甚至可将文物拿在手中把玩,提升了博物馆的趣味性和教育意义。
附图说明
图1:本发明装置的结构示意图;
图2:本发明装置的工作原理示意图;
图3:识别扫描装置的工作原理示意图;
图4:体感设备装置的工作原理示意图;
图5:双目视觉的原理示意图;
图6:平行光轴的系统结构示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明具体实施方案。
如图1、图2所示,博物馆虚拟场景AR体验眼镜装置,包含眼镜组件、识别扫描装置以及体感设备装置,眼镜组件包括镜架11、镜片12和内核处理器13,镜架11具有两镜片支持部,两只镜片12分别设置于两镜片支持部,镜片支持部上还设置有内核处理器13。
识别扫描装置包括信息发射摄像头21、第一处理器22、信息接收摄像头23以及第二处理器24,信息发射摄像头21和信息接收摄像头23分别安装于两镜片支持部上,信息发射摄像头21连接第一处理器22,信息接收摄像头23连接第二处理器24,第一处理器22和第二处理器24均与内核处理器13通讯连接。
体感设备装置包括动作捕捉摄像头31、第三处理器32、动作接收摄像头33以及第四处理器34,动作捕捉摄像头31和动作接收摄像头33分别安装于镜架两侧的前端,动作捕捉摄像头31连接第三处理器32,动作接收摄像头33连接第四处理器34,第三处理器32和第四处理器34均与内核处理器13通讯连接。
动作接收摄像头31为3D体感摄影机,包含RGB摄像头以及位于其两侧的红外线发射器和红外线接收器,3D体感摄影机的两侧设有用于声源定位和语音识别的四元麦克风阵列。3D体感摄影机同时具有即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能;RGB摄像头用来获取640×480的彩色图像,每秒钟最多获取30帧图像;两边的是两个深度传感器,左侧的是红外线发射器,右侧的是红外线接收器,用来检测玩家的相对位置。两侧是一组四元麦克风阵列,用于声源定位和语音识别;下方还有一个带内置马达的底座,可以调整俯仰角。
如图2~4所示,由识别扫描装置的信息发射摄像头21和第一处理器22对物体进行信息获取、进行摄像头标定、对场景中对象点在摄像头图像平面上的坐标位置与其世界空间坐标之间的映射关系进行确立,进而将图像反馈到信息接收摄像头23,最后由第二处理器24对图像信息处理,处理后的图像信息传输至内核处理器13,镜片上有图像的显示,透明的状态,亦可看到具体的物体;
由体感设备装置的动作捕捉摄像头31和第三处理器32对手势动作进行获取,抬起手,捕捉手势的动作,进而反馈到动作接收摄像头33上进行处理,最后由第四处理器34对图像信息处理,信息传输至内核处理器13;
内核处理器13结合图像的识别处理与人体手势动作在空间上的坐标定位,实现AR场景;结合全息投影技术,打造四维空间,将整个要呈现的博物馆场景生成在空间里,在空间中来到展品画面前,镜片上提示有AR增强现实提示,抬起手,通过识别手势的动作,当手指点到与人眼看到镜片中AR位置一致时,此处即可呈现出AR场景。
左右两部摄像头(信息发射摄像头与信息接收摄像头),如图5所示,图中分别以下标l和r标注左、右摄像头的相应参数。空间中一点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点分别为al(ul,vl)和ar(ur,vr)。这两个像点是空间中同一个对象点A的像,称为“共轭点”。知道了这两个共轭像点,分别作与各自相机的光心Ol和Or的连线,即投影线alOl和arOr,交点即为世界空间中的对象点A(X,Y,Z)。这就是双目视觉的基本原理。
平行光轴的系统结构,如图6所示,在平行光轴的立体视觉系统中,左右两台摄像头的焦距及其它内部参数均相等,光轴与摄像头的成像平面垂直,两台摄像头的x轴重合,y轴相互平行,因此将左摄像头沿着其x轴方向平移一段距离b(称为基线baseline)后与右摄像头重合。由空间点A及左右两摄像头的光心Ol、Or确定的极平面(Epipolar plane)分别与左右成像平面Cl、Cr的交线pl、pr为共轭极线对,分别与各自成像平面的坐标轴ul、ur平行且共线。在这种理想的结构形式中,左右摄像头配置的几何关系最为简单,极线已具有很好的性质,为寻找对象点A在左右成像平面上的投影点al和ar之间的匹配关系提供了非常便利的条件。
由识别扫描装置进行图像获取、摄像机标定、特征提取、立体匹配、三维恢复和视频分析。
数字图像获取是立体视觉的信息来源,立体视觉图像一般为双目图像,有的采用多目图像。图像获取的方式有多种,由具体运用的场合和目的决定。立体图像的获取不仅要满足应用要求,而且要考虑视点差异、光照条件、摄像机性能和场景特点等方面的影响。
摄像机标定是对三维场景中对象点在左右摄像机图像平面上的坐标位置al(ul,vl)、ar(ur,vr)与其世界空间坐标A(X,Y,Z)之间的映射关系的确立,实现立体视觉三维模型重构。
特征提取,获取匹配赖以进行的图像特征,图像特征的性质与图像匹配的选择有密切的联系。相位作为匹配基元,本身反映信号的结构信息,对图像的高频噪声有很好的抑制作用,适于并行处理,能获得亚像素级精度的致密视差。但存在相位奇点和相位卷绕的问题,需加入自适应滤波器解决。或者是像素的集合,也可以是抽象表达,如图像结构、图像目标和关系结构等。匹配特征主要有点状特征、线状特征和区域特征等。尺度较大的图像特征蕴含较多的图像信息,且特征本身的数目较少,匹配效率高。对于尺度较小的图像特征来说,对其进行表达和描述相对简单,定位精度较高;但由于其本身数目较多,所包含的图像信息少,在匹配时采较严格的约束条件和匹配策略,以尽可能地减少匹配歧义和提高匹配效率。好的匹配特征应具有要可区分性、不变性、唯一性以及有效解决匹配歧义的能力。
图像匹配是将三维空间中一点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点al(ul,vl)和ar(ur,vr)对应起来。
三维恢复是对被测对象表面点的三维信息进行恢复。影响三维测量精度的因素主要有摄像机标定误差、CCD成像设备的数字量化效应、特征提取和匹配定位精度等。
视频分析(运动检测、运动跟踪、规则判断、报警处理),通过视差计算,得到全屏幕的视差图像后,采用背景建模的方式,得到运动前景物体的视差图像,再进行膨胀和腐蚀算法进行图像预处理,得到完整的可供分析的前景运动物体视差图。采用运动跟踪算法,全屏实时检测物体的大小、运动轨迹,并与事先设置的规则进行对比,如果有人进入或离开设置报警区域,系统则实时报警。
综上所述,本发明将增强现实和虚拟现实相结合,产生新的可视化环境;结合眼镜,呈现虚拟的四维场景;数据处理交互模式,实时运行,在四维场景中,体验AR技术。为全新的体验模式,在某种意义上来说,是将博物馆搬回了家,可以在家中就能参观体验博物馆,不用去排队参观,从体验上来说,融合了科技的时代感,能够接触到最新的科学技术。可以与文物亲密接触,甚至可将文物拿在手中把玩,提升了博物馆的趣味性和教育意义。
需要说明的是:以上所述仅为本发明的优选实施方式,并非用以限定本发明的权利范围;同时以上的描述,对于相关技术领域的专门人士应可明了及实施,因此其它未脱离本发明所揭示的精神下所完成的等效改变或修饰,均应包含在申请专利范围中。
Claims (10)
1.博物馆虚拟场景AR体验眼镜装置,其特征在于:包含眼镜组件、识别扫描装置以及体感设备装置,所述眼镜组件包括镜架、镜片和内核处理器,镜架具有两镜片支持部,两只镜片分别设置于两镜片支持部,镜片支持部上还设置有内核处理器;
所述识别扫描装置包括信息发射摄像头、第一处理器、信息接收摄像头以及第二处理器,信息发射摄像头和信息接收摄像头分别安装于两镜片支持部上,信息发射摄像头连接第一处理器,信息接收摄像头连接第二处理器,第一处理器和第二处理器均与内核处理器通讯连接;
所述体感设备装置包括动作捕捉摄像头、第三处理器、动作接收摄像头以及第四处理器,动作捕捉摄像头和动作接收摄像头分别安装于镜架两侧的前端,动作捕捉摄像头连接第三处理器,动作接收摄像头连接第四处理器,第三处理器和第四处理器均与内核处理器通讯连接。
2.根据权利要求1所述的博物馆虚拟场景AR体验眼镜装置,其特征在于:所述动作接收摄像头为3D体感摄影机。
3.根据权利要求2所述的博物馆虚拟场景AR体验眼镜装置,其特征在于:所述3D体感摄影机包含RGB摄像头以及位于其两侧的红外线发射器和红外线接收器。
4.根据权利要求1所述的博物馆虚拟场景AR体验眼镜装置,其特征在于:所述3D体感摄影机的两侧设有用于声源定位和语音识别的四元麦克风阵列。
5.利用权利要求1所述装置实现博物馆虚拟场景AR体验的方法,其特征在于:由识别扫描装置的信息发射摄像头和第一处理器对物体进行信息获取、进行摄像头标定、对场景中对象点在摄像头图像平面上的坐标位置与其世界空间坐标之间的映射关系进行确立,进而将图像反馈到信息接收摄像头,最后由第二处理器对图像信息处理,处理后的图像信息传输至内核处理器,镜片上有图像的显示,透明的状态,亦可看到具体的物体;
由体感设备装置的动作捕捉摄像头和第三处理器对手势动作进行获取,抬起手,捕捉手势的动作,进而反馈到动作接收摄像头上进行处理,最后由第四处理器对图像信息处理,信息传输至内核处理器;
内核处理器结合图像的识别处理与人体手势动作在空间上的坐标定位,实现AR场景;结合全息投影技术,打造四维空间,将整个要呈现的博物馆场景生成在空间里,在空间中来到展品画面前,镜片上提示有AR增强现实提示,抬起手,通过识别手势的动作,当手指点到与人眼看到镜片中AR位置一致时,此处即可呈现出AR场景。
6.根据权利要求5所述的博物馆虚拟场景AR体验实现方法,其特征在于:由识别扫描装置进行图像获取、摄像机标定、特征提取、立体匹配、三维恢复和视频分析。
7.根据权利要求6所述的博物馆虚拟场景AR体验实现方法,其特征在于:所述摄像机标定是对三维场景中对象点在左右摄像机图像平面上的坐标位置al(ul,vl)、ar(ur,vr)与其世界空间坐标A(X,Y,Z)之间的映射关系的确立,实现立体视觉三维模型重构。
8.根据权利要求6所述的博物馆虚拟场景AR体验实现方法,其特征在于:所述特征提取,获取匹配赖以进行的图像特征,图像特征的性质与图像匹配的选择有密切的联系。
9.根据权利要求6所述的博物馆虚拟场景AR体验实现方法,其特征在于:所述图像匹配是将三维空间中一点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点al(ul,vl)和ar(ur,vr)对应起来。
10.根据权利要求6所述的博物馆虚拟场景AR体验实现方法,其特征在于:所述三维恢复是对被测对象表面点的三维信息进行恢复。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710231783.8A CN107015655A (zh) | 2017-04-11 | 2017-04-11 | 博物馆虚拟场景ar体验眼镜装置及其实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710231783.8A CN107015655A (zh) | 2017-04-11 | 2017-04-11 | 博物馆虚拟场景ar体验眼镜装置及其实现方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107015655A true CN107015655A (zh) | 2017-08-04 |
Family
ID=59446354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710231783.8A Withdrawn CN107015655A (zh) | 2017-04-11 | 2017-04-11 | 博物馆虚拟场景ar体验眼镜装置及其实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107015655A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108594988A (zh) * | 2018-03-22 | 2018-09-28 | 美律电子(深圳)有限公司 | 用于音频成像的可穿戴式电子装置及其操作方法 |
CN108683903A (zh) * | 2018-05-29 | 2018-10-19 | 太若科技(北京)有限公司 | 全息影像显示系统和全息影像显示方法 |
CN109905754A (zh) * | 2017-12-11 | 2019-06-18 | 腾讯科技(深圳)有限公司 | 虚拟礼物收取方法、装置及存储设备 |
CN111679742A (zh) * | 2020-06-10 | 2020-09-18 | 浙江商汤科技开发有限公司 | 基于ar的交互控制方法、装置、电子设备及存储介质 |
CN112424728A (zh) * | 2018-07-20 | 2021-02-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112710608A (zh) * | 2020-12-16 | 2021-04-27 | 深圳晶泰科技有限公司 | 实验观测方法及系统 |
CN112954292A (zh) * | 2021-01-26 | 2021-06-11 | 北京航天创智科技有限公司 | 一种基于增强现实的数字博物馆导览系统和方法 |
CN114167610A (zh) * | 2021-11-24 | 2022-03-11 | 上海实迅网络科技有限公司 | 一种基于ar的数字博物馆展示系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN103946732A (zh) * | 2011-09-26 | 2014-07-23 | 微软公司 | 基于对透视、近眼显示器的传感器输入的视频显示修改 |
CN106251357A (zh) * | 2016-08-04 | 2016-12-21 | 合肥景昇信息科技有限公司 | 基于虚拟现实与视觉定位系统 |
CN106504339A (zh) * | 2016-11-09 | 2017-03-15 | 四川长虹电器股份有限公司 | 基于虚拟现实的文物3d展示方法 |
CN206961069U (zh) * | 2017-04-11 | 2018-02-02 | 苏州和云观博数字科技有限公司 | 博物馆虚拟场景ar体验眼镜装置 |
-
2017
- 2017-04-11 CN CN201710231783.8A patent/CN107015655A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103946732A (zh) * | 2011-09-26 | 2014-07-23 | 微软公司 | 基于对透视、近眼显示器的传感器输入的视频显示修改 |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN106251357A (zh) * | 2016-08-04 | 2016-12-21 | 合肥景昇信息科技有限公司 | 基于虚拟现实与视觉定位系统 |
CN106504339A (zh) * | 2016-11-09 | 2017-03-15 | 四川长虹电器股份有限公司 | 基于虚拟现实的文物3d展示方法 |
CN206961069U (zh) * | 2017-04-11 | 2018-02-02 | 苏州和云观博数字科技有限公司 | 博物馆虚拟场景ar体验眼镜装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109905754A (zh) * | 2017-12-11 | 2019-06-18 | 腾讯科技(深圳)有限公司 | 虚拟礼物收取方法、装置及存储设备 |
CN109905754B (zh) * | 2017-12-11 | 2021-05-07 | 腾讯科技(深圳)有限公司 | 虚拟礼物收取方法、装置及存储设备 |
CN108594988A (zh) * | 2018-03-22 | 2018-09-28 | 美律电子(深圳)有限公司 | 用于音频成像的可穿戴式电子装置及其操作方法 |
CN108683903A (zh) * | 2018-05-29 | 2018-10-19 | 太若科技(北京)有限公司 | 全息影像显示系统和全息影像显示方法 |
CN112424728A (zh) * | 2018-07-20 | 2021-02-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN111679742A (zh) * | 2020-06-10 | 2020-09-18 | 浙江商汤科技开发有限公司 | 基于ar的交互控制方法、装置、电子设备及存储介质 |
CN112710608A (zh) * | 2020-12-16 | 2021-04-27 | 深圳晶泰科技有限公司 | 实验观测方法及系统 |
CN112710608B (zh) * | 2020-12-16 | 2023-06-23 | 深圳晶泰科技有限公司 | 实验观测方法及系统 |
CN112954292A (zh) * | 2021-01-26 | 2021-06-11 | 北京航天创智科技有限公司 | 一种基于增强现实的数字博物馆导览系统和方法 |
CN112954292B (zh) * | 2021-01-26 | 2022-08-16 | 北京航天创智科技有限公司 | 一种基于增强现实的数字博物馆导览系统和方法 |
CN114167610A (zh) * | 2021-11-24 | 2022-03-11 | 上海实迅网络科技有限公司 | 一种基于ar的数字博物馆展示系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107015655A (zh) | 博物馆虚拟场景ar体验眼镜装置及其实现方法 | |
US11687151B2 (en) | Methods and apparatuses for determining and/or evaluating localizing maps of image display devices | |
CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
CN106101689B (zh) | 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法 | |
US8933931B2 (en) | Distributed asynchronous localization and mapping for augmented reality | |
CN107016704A (zh) | 一种基于增强现实的虚拟现实实现方法 | |
CN108288292A (zh) | 一种三维重建方法、装置及设备 | |
CN110458897A (zh) | 多摄像头自动标定方法及系统、监控方法及系统 | |
WO2018028152A1 (zh) | 一种图像采集设备、虚拟现实设备 | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
CN110377148A (zh) | 计算机可读介质、训练对象检测算法的方法及训练设备 | |
CN114119739A (zh) | 一种基于双目视觉的手部关键点空间坐标获取方法 | |
CN107864372A (zh) | 立体拍照方法、装置及终端 | |
JP6775669B2 (ja) | 情報処理装置 | |
CN109426336A (zh) | 一种虚拟现实辅助选型设备 | |
CN206961069U (zh) | 博物馆虚拟场景ar体验眼镜装置 | |
CN105893452B (zh) | 一种呈现多媒体信息的方法及装置 | |
CN108628447A (zh) | 一种医学影像ar显示系统 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
CN207115339U (zh) | 双目磁吸体感键盘 | |
CN116643648B (zh) | 一种三维场景匹配交互方法、装置、设备及存储介质 | |
CN109872371A (zh) | 一种基于改进Sift算法的单目视觉三维重建方法 | |
CN103285585A (zh) | 一种基于互联网架构的体感击剑互动装置 | |
CN108093222A (zh) | 一种手持式vr成像方法 | |
CN112085777A (zh) | 六自由度vr眼镜 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170804 |
|
WW01 | Invention patent application withdrawn after publication |