CN106919262A - 增强现实设备 - Google Patents
增强现实设备 Download PDFInfo
- Publication number
- CN106919262A CN106919262A CN201710164921.5A CN201710164921A CN106919262A CN 106919262 A CN106919262 A CN 106919262A CN 201710164921 A CN201710164921 A CN 201710164921A CN 106919262 A CN106919262 A CN 106919262A
- Authority
- CN
- China
- Prior art keywords
- virtual
- display screen
- image display
- camera
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 71
- 230000008859 change Effects 0.000 claims abstract description 20
- 230000003993 interaction Effects 0.000 claims abstract description 17
- 230000005540 biological transmission Effects 0.000 claims description 24
- 230000001133 acceleration Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 9
- 239000011521 glass Substances 0.000 claims description 7
- 238000011161 development Methods 0.000 claims description 4
- 230000004886 head movement Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 210000003128 head Anatomy 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000010354 integration Effects 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010040007 Sense of oppression Diseases 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
Abstract
本发明适用于AR技术领域,公开了增强现实设备,其包括:摄像头,用于拍摄外部真实环境;图像显示屏,用于显示虚拟特征;半反半透镜,用于供人眼观看由虚拟特征与外部真实环境叠合得到的集成景象,且该半反半透镜为双眼共用的单目结构;光路转换组件,用于将图像显示屏上所显示之虚拟特征投射至半反半透镜上;数据处理器,与摄像头、图像显示屏数据连接,用于对摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制图像显示屏改变显示信息,从而实现用户与虚拟特征的空间交互。本发明的光路系统为双眼共用的单目系统,无需进行分屏运算,节约运算量及功耗,兼容性强且实现了用户与虚拟特征的空间交互,提高了用户的体验效果。
Description
技术领域
本发明属于AR技术领域,尤其涉及增强现实设备。
背景技术
增强现实技术(AR)是一种将真实世界信息和虚拟世界信息集成的新技术,用户在使用增强现实设备时,既可看到外部真实世界也可以看到投影出来的虚拟特征。
目前,市场上已经出现了一些增强现实设备,然而,现有的增强现实设备仍普遍存在以下问题:
1)现有的增强现实设备只能让用户看到虚拟特征与外部真实世界的叠加场景,而无法实现用户与虚拟特征的空间交互,即用户无法操控通过增强现实设备看到的虚拟特征,体验效果较差。
2)现有的增强现实设备没有设置软件开发工具包(SDK),不利于开发者的开发,这样,在具体使用过程中难以实现虚拟特征与真实物体重合的设置问题。
3)现有的增强现实设备主要采用在人眼前方的观看显示屏中夹入显示模块的方式,其成本高、可视角度少,且为了要保护人眼前方脆弱的观看显示屏,观看显示屏一般设计为采用多层玻璃夹着液晶屏,这样,会把较大的重量集中压到用户的鼻梁上,造成用户使用的不适。
4)现有的增强现实设备,通常自带运算系统,使用者必须使用其自带系统,这很大一部分原因是要把显示的内容分成双目显示,有视差的内容,所以其兼容性差,不能使用通用的智能手机或通用的系统。同时,这分屏运算会耗费较大的运算量及功耗,其控制系统成本较高,且不利于增强现实设备的长时间连续运行。此外,现有的增强现实设备无法调节瞳距,对于用户使用时会有一定的影响。
发明内容
本发明的目的在于克服上述现有技术的至少一个不足之处,提供了增强现实设备,其解决了现有的增强现实设备兼容性差、成本高、功耗大、无法实现用户与虚拟特征的空间交互的技术问题。
为达到上述目的,本发明采用的技术方案是:增强现实设备,包括:
摄像头,用于拍摄外部真实环境;
图像显示屏,用于显示虚拟特征;
半反半透镜,用于供人眼观看由虚拟特征与外部真实环境叠合得到的集成景象,且该半反半透镜为双眼共用的单目结构;
光路转换组件,用于将所述图像显示屏上所显示之虚拟特征投射至所述半反半透镜上;
数据处理器,与所述摄像头、所述图像显示屏数据连接,用于对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏改变显示信息,从而实现用户与虚拟特征的空间交互。
可选地,所述图像显示屏显示的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,所述数据处理器能够对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏输出不同的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,从而实现用户对所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标的点击操控;或者,
所述图像显示屏显示的虚拟特征为虚拟模型,所述数据处理器能够对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏输出不同状态下的虚拟模型,从而实现用户对虚拟模型的多方位观看或者操控。
可选地,用户对所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标的点击操控方式为:所述数据处理器识别摄像头拍摄到用户伸出的手指或者用户操作的所述操控部件,并运算得出手指或操控部件的平面位置,当所述数据处理器识别到手指在所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标或操控部件对应位置处停留到设定时间后即触发点击操控;或者,
用户对所述虚拟模型多方位观看的实现方式为:所述数据处理器识别到所述摄像头摄像信息的相对方位角改变后,通过重新识别、定位、运算激发所述图像显示屏显示出所述虚拟模型在相应方位角度的图像信息;或者,
用户操控虚拟模型的实现方式为:所述数据处理器识别所述摄像头拍摄到用户伸出的手指或者用户操作的操控部件,并获取手指或操控部件的平面位置,当所述数据处理器识别到手指或操控部件的位置坐标在所述虚拟模型上停留到设定时间后即触发操控。
可选地,所述虚拟特征投射到半反半透镜上的方式为:所述数据处理器根据所述摄像头的摄像信息激发所述图像显示屏在对应位置采用非黑色的形式显示设定好的虚拟特征,并使所述图像显示屏上的其他位置都呈黑色显示或关闭所述图像显示屏上其他位置的发光像素点,所述图像显示屏的显示内容通过所述光路转换组件转换后投射到所述半反半透镜上,用户将仅看到所述图像显示屏上非黑色的所述虚拟特征。
可选地,上述的增强现实设备,还包括用于根据用户头部移动而激发所述图像显示屏改变显示信息的角速度传感器或者加速度传感器,所述角速度传感器或者所述加速度传感器与所述摄像头、所述数据处理器数据连接。
可选地,上述的增强现实设备,还包括用于控制所述角速度传感器或者所述加速度传感器开关和/或激发所述图像显示屏改变显示信息的遥控器,所述遥控器与所述数据处理器数据传输连接。
可选地,所述遥控器上设有语音输入结构和用于控制所述语音输入结构开、关的语音控制开关。
可选地,所述数据处理器内设有用于供开发者开发的软件开发工具包;且/或,
所述光路转换组件包括转角反射构件和设置于所述转角反射构件与所述半反半透镜之间的透射构件,所述图像显示屏和所述转角反射构件都位于所述透射构件的上方,其中,所述转角反射构件位于靠近所述半反半透镜的一侧,所述图像显示屏位于远离所述半反半透镜的一侧;或者,所述转角反射构件位于远离所述半反半透镜的一侧,所述图像显示屏位于靠近所述半反半透镜的一侧。
可选地,所述半反半透镜与人眼之间具有用于避让用户所佩戴之眼镜的避让空间;且/或,所述半反半透镜以与竖直面之间之夹角大于45°小于90°的形式倾斜设置;且/或,所述光路转换组件之投射于所述半反半透镜上的光线与所述半反半透镜之间的夹角为45°±5°。
可选地,所述图像显示屏为智能手机的显示屏,所述摄像头为所述智能手机的后置摄像头,所述数据处理器为所述智能手机的处理器;或者,所述图像显示屏、所述摄像头、所述数据处理器为相互独立设置的独立显示屏、独立摄像头、独立处理器,所述独立显示屏、所述独立摄像头都与所述独立处理器数据连接;或者,所述图像显示屏为智能手机的显示屏,所述摄像头为所述智能手机之前置摄像头与一个可调位置之广角镜头或者鱼眼镜头的组合,所述数据处理器为所述智能手机的处理器;或者,所述图像显示屏为智能手机的显示屏,所述摄像头为一传感运算装置上的广角镜头或者鱼眼镜头,所述数据处理器包括所述智能手机的处理器和所述传感运算装置的处理器。
本发明提供的增强现实设备,采用双眼共用的单目结构供用户观看由虚拟特征与外部真实环境叠合得到的集成景象,这样,叠加增强的虚拟内容为单目显示,数据处理器无需进行分屏运算,节约运算量及功耗,利于实现增强现实设备的长时间连续运行,同时有效改良了增强现实设备的兼容性。此外,本发明中数据处理器能够将摄像头的摄像信息与图像显示屏所显示的虚拟特征进行定位整合、运算,并根据运算结果控制所述图像显示屏改变显示信息,从而实现用户与虚拟特征的空间交互,极大程度地提高了用户的体验效果。同时,因为光学系统结合了真实环境进行叠加和结合了定位算法,所以,可以实现用户在各个角度看到虚拟特征的不同侧面,所以,单目系统不会降低用户的立体体验。
附图说明
图1是本发明实施例一提供的增强现实设备的光路系统的侧向结构示意图;
图2是本发明实施例二提供的增强现实设备的光路系统的侧向结构示意图;
图3是本发明实施例三提供的增强现实设备的光路系统的侧向结构示意图;
图4是本发明实施例三提供的增强现实设备的光路系统的正向结构示意图;
图5是本发明实施例四提供的增强现实设备的光路系统的侧向结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件上时,它可以直接在另一个元件上或者可能同时存在居中元件。当一个元件被称为是“连接”另一个元件,它可以是直接连接另一个元件或者可能同时存在居中元件。
还需要说明的是,以下实施例中的左、右、上、下、顶、底等方位用语,仅是互为相对概念或是以产品的正常使用状态为参考的,而不应该认为是具有限制性的。
实施例一:
如图1所示,本发明实施例一提供的增强现实设备,包括:
摄像头1,用于拍摄外部真实环境;
图像显示屏2,用于显示虚拟特征,图像显示屏2可以是任何形式的屏幕,如可为普通的液晶显示屏或者自发光的OLED显示屏或者LED显示屏等;
半反半透镜3,用于反射图像显示屏2上的内容,并且有一定的透过率,可供人眼5观看由虚拟特征与外部真实环境叠合得到的集成景象,且该半反半透镜3为双眼共用的单目结构;
光路转换组件4,用于将图像显示屏2上所显示之虚拟特征投射至半反半透镜3上,由光路转换组件4和半反半透镜3构成的光路系统为双眼共用的单目系统;
数据处理器(图未示),与摄像头1、图像显示屏2数据连接(两部件之间数据连接具体指,两部件以能够进行数据传输的连接方式连接,其具体),用于对摄像头1的摄像信息进行定位、识别、运算以及根据运算结果控制图像显示屏2改变显示信息,从而实现用户与虚拟特征的空间交互。两部件之间数据连接具体指,两部件以能够进行数据传输的连接方式连接,其具体可为有线连接也可为无线连接。
半反半透镜3可反射由光路转换组件4投射至其上的内容,并且有一定的透过率,这样,用户戴上本实施例提供的增强现实设备后,可通过半反半透镜3看到经图像显示屏2、光路转换组件4依次投射至其上的虚拟特征,同时可透过半反半透镜3看到外部真实环境,这样,就仿佛虚拟特征处于真实环境中一样。当用户要与虚拟特征进行互动时,数据处理器可以根据摄像头1的摄像信息对该摄像信息与虚拟特征进行定位整合、运算,从而可以判断用户的意图,进而控制改变图像显示屏2的显示信息,最终实现了用户与虚拟特征的空间交互,极大程度地提高了用户的体验效果。此外,本实施例提供的增强现实设备,采用双眼共用的单目系统供用户观看由虚拟特征与外部真实环境叠合得到的集成景象,这样,数据处理器无需进行分屏运算,节约运算量及功耗,利于实现增强现实设备的长时间连续运行,同时有效改良了增强现实设备的兼容性,能快速接入到现行软件,进行增强现实操作。同时,因为光学系统结合了真实环境进行叠加和结合了定位算法,所以,可以实现用户在各个角度看到虚拟特征的不同侧面,所以,单目系统不会降低用户的立体体验。
优选地,图像显示屏2为智能手机100的显示屏,摄像头1为智能手机100的后置摄像头1,该后置摄像头为三维摄像头,数据处理器为智能手机100的处理器。摄像头1、图像显示屏2、数据处理器直接采用智能手机100的摄像头1、显示屏、处理器,使得用户可以在AR模式下操控自己的智能手机100,且无需使用其它的控制系统进行额外的运算配合,用户不用额外购置显示设备、运算设备和电源,其可操控的应用程序与真实环境中直接使用智能手机100操控无异,同时其可兼容市面上几乎所有的智能手机100,智能手机100可以随时更换。
优选地,智能手机100具有SLAM(simultaneous localization and mapping,即同步定位与建图)定位功能,这样,可直接使用智能手机100的SLAM定位功能实现对摄像头1摄像信息的快速定位,利于简化增强现实设备的控制系统。
优选地,本实施例提供的增强现实设备,包括可供用户佩戴的头戴设备主体,半反半透镜3和光路转换组件4都设于头戴设备主体上,头戴设备主体上设有可供智能手机100容置定位的容置腔,在使用增强现实设备时先将智能手机100安装于容置腔内。容置腔内可以插入多种屏幕尺寸的智能手机100,作为摄像、显示、数据运算的功能部件,其使用方便、兼容性强。
优选地,图像显示屏2的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,数据处理器能够对摄像头1的摄像信息进行识别、定位、运算以及根据运算结果控制图像显示屏2输出不同的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,从而实现用户对虚拟按钮或者虚拟操控界面或者虚拟图标的点击操控。
优选地,虚拟按钮或者虚拟操控界面(UI)或者虚拟图标投射到半反半透镜3上的方式为:数据处理器根据摄像头1的摄像信息激发图像显示屏2在对应位置采用非黑色的形式显示设定好的虚拟按钮或者虚拟操控界面或者虚拟图标,并使图像显示屏2上的其他位置都呈黑色显示或关闭图像显示屏2上其他位置的发光像素点。图像显示屏2的显示内容通过上述的光路转换组件4转换后投射到半反半透镜3上,用户只看到图像显示屏2上非黑色的(已点亮的像素点显示的)虚拟按钮或者虚拟操控界面或者虚拟图标,而看不到图像显示屏2的黑色内容,这样,用户看到的是在外部真实环境中叠加了虚拟按钮或者虚拟操控界面或者虚拟图标,用户感觉虚拟按钮或者虚拟操控界面或者虚拟图标仿佛真的存在外部真实环境中一样,且好像就在自己眼前可触控的区域。
优选地,用户对虚拟按钮或者虚拟操控界面或者虚拟图标的点击操控方式为:用户通过半反半透镜3可以看到虚拟按钮或者虚拟操控界面或者虚拟图标呈现于自己的前方,用户将手指伸向想要点击的虚拟按钮或者虚拟操控界面或者虚拟图标或者操控部件上对应的位置,摄像头1会拍摄到用户伸出的手指或者拍摄到用户操作的操控部件,操控部件可为手柄或者遥控器或者键盘或者鼠标等,数据处理器识别摄像头1拍摄到用户伸出的手指或者用户操作的操控部件,并运算得出手指或操控部件的平面位置(XOY平面的坐标),作为控制如虚拟按钮或者虚拟操控界面或者虚拟图标的选择。当数据处理器识别到手指或操控部件在虚拟按钮或者虚拟操控界面或者虚拟图标对应位置处停留到设定时间(如2s)后即触发点击事件,犹如点击了触控屏中的虚拟按钮或者虚拟操控界面或者虚拟图标。
优选地,手指或操控部件的识别定位方式为:首先通过调节摄像头1的焦点,以使摄像头1的聚焦点尽量短,通过数据处理器算法识别出虚焦与实焦位置的区域,再利用手指或操控部件的颜色作为筛选条件分割出手指或者操控部件所在的位置(或直接用形态学识别出手指前伸及手指所在的位置),作为手指或者操控部件的位置数据。具体应用中,根据具体实际情况,可先让用户在使用前先进行校准,校准时让用户依次点击显示区域4个角点的虚拟特征,获取用户实际点击位置与摄像头1捕捉的手指或者操控部件的图片的像素坐标的差值,从而获得摄像头1捕捉的手指或者操控部件在图像上的坐标与实际点击位置的对应关系。
优选地,上述的增强现实设备还包括用于根据用户头部移动而激发图像显示屏2改变显示信息的角速度传感器或加速度传感器(图未示),角速度传感器或加速度传感器与摄像头1、数据处理器数据连接。角速度传感器或加速度传感器的设置,使得用户对虚拟特征进行上滑、下滑、左滑、右滑的操作,可以通过用户仰头、低头、向左转头、向右转头的方式实现。数据处理器可以根据摄像头1的摄像信息和角速度传感器或加速度传感器的检测数据信息进行定位整合、运算,从而可以判断用户的意图,进而控制改变图像显示屏2的显示信息。对于摄像头1、图像显示屏2、数据处理器直接采用智能手机100的摄像头1、显示屏、处理器的方案而言,角速度传感器为智能手机100的陀螺仪,加速度传感器为智能手机100的加速度传感器。
具体地,本实施例中,通过用户仰头、低头、向左转头、向右转头实现对虚拟特征进行上滑、下滑、左滑、右滑操作的实施方式为:利用角速度传感器,检测用户头部垂直角度上角加速度变化(或者还可进一步再结合重力加速度传感器的数据),确定用户头部方向的转动向量。这样角速度传感器可一直检测角加速度的变化,当某一方向角加速度突然有一较大的变化时,识别为用户朝该方向偏移头部,触发对虚拟特征向上滑动或向下滑动或向左滑动向右滑动对应的操作。为提高识别率,触发对虚拟特征向上滑动或向下滑动或向左滑动向右滑动对应操作的设定阈值可通过机器长期学习、识别用户通常的角加速度变化的数值,或者在使用前用户在增强现实设备的声音指引下进行一次抬头、低头、头向左偏转、头向右偏转的操作,增强现实设备记录下用户这时加速度突变的数值作为触发对应事件的设定阈值。
优选地,为了进一步降低对虚拟特征向上滑动或向下滑动或向左滑动向右滑动操作的误触发率,可以配合一遥控器来触发,即上述的增强现实设备还包括用于控制角速度传感器开关的遥控器,遥控器与数据处理器数据传输连接。。该遥控器的形态可以是矩形键盘状或者鼠标状或者手环状或者手柄状。具体应用中,通过按遥控器上某一特定的按键,遥控器会发送信号到手机,触发抬头、低头、向左偏转头,向右偏转头控制达到控制虚拟特征滑动方向的功能。遥控器的数据传送方式可以是wifi、蓝牙、ZigBee、NFC、红外等。wifi(WirelessFidelity)是采用无线局域网实现数据传输的技术。ZigBee是基于IEEE802.15.4标准的低功耗局域网协议;根据国际标准规定,ZigBee技术是一种短距离、低功耗的无线通信技术。NFC(Near Field Communication)即近场通信,是一种短距高频的无线电技术,在13.56MHz频率运行于10厘米距离内。
优选地,上述的遥控器还可用于激发图像显示屏2改变显示信息,这样,具体应用中,可以直接通过操控遥控器上的按键来实现对虚拟特征的上滑、下滑、左滑、右滑操作。
优选地,上述的遥控器上还设有激发图像显示屏2改变显示信息的语音输入结构和用于控制语音输入结构开、关的语音控制开关。语音输入结构具体可为麦克风。语音控制开关具体可为按钮或者旋钮或者触摸开关等。具体应用中,语音控制开关触发语音输入结构开启后,用户说出对应的语音命令,即可激发图像显示屏2改变显示信息。
优选地,数据处理器内设有用于供开发者开发的软件开发工具包(SDK)。本实施例的增强显示设备带有软件开发工具包,利于开发者的开发,解决了虚拟特征与真实物体重合等设置问题。
优选地,光路转换组件4包括转角反射构件41和设置于转角反射构件41 与半反半透镜3之间的透射构件42。具体应用中,图像显示屏2发射出光线投射至转角反射构件41上,转角反射构件41将由图像显示屏2投射至其上的光线反射至透射构件42上,由转角反射构件41投射至透射构件42上光线可透过透射构件42投射至半反半透镜3,半反半透镜3将由透射构件42投射至其上的光线反射至用户的人眼5上,从而使得用户可以通过半反半透镜3看到由图像显示屏2、转角反射构件41、透射构件42投射的虚拟特征;此外,外部真实环境中的光线可透过半反半透镜3投射至用户的人眼5上,从而使得用户可以通过半反半透镜3看到外部真实环境,这样,用户通过半反半透镜3看到的就是虚拟特征与外部真实环境的集成景象。
本实施例中,由图像显示屏2、转角反射构件41、透射构件42、半反半透镜3组成的光路中,不需设置双目隔板,无需进行分屏处理,无需调节瞳距,兼容性强。
优选地,转角反射构件41为直角棱镜或者由多个反射镜组成的全反射构件。转角反射构件41优选以45°度的入射方向将光线反射至透射构件42上;当然了,具体应用中,转角反射构件41反射至透射构件42上的光线也可不是严格的45°度的入射方向。转角反射构件41的光程可根据透射构件42的参数和虚拟特征所需成像的距离进行优化选择。
优选地,透射构件42为菲涅尔透镜,其重量轻、成本低。当然了,具体应用中,透射构件42也可采用其它设置形式,如平凸透镜或者由多个透镜组成的放大镜组,采用由多个透镜组成的放大镜组可利于用户使用过程中的手动调焦。优选地,该菲涅尔透镜或平凸透镜或者放大镜组的焦距可根据调节其与转角反射构件41的距离调节为180mm±10mm。
优选地,半反半透镜3与人眼5之间具有用于避让用户所佩戴之眼镜的避让空间;且/或,半反半透镜3以与竖直面之间之夹角大于45°小于90°的形式倾斜设置;且/或,光路转换组件4之投射于半反半透镜3上的光线与半反半透镜3之间的夹角为45°±5°。避让空间的设置,佩戴眼镜的用户在戴上本实施例提供的增强现实设备后,眼镜与半反半透镜3之间仍存在一定的间距,从而使得佩戴眼镜的用户可以很好地使用本实施例提供的增强现实设备,且使用时不会产生压迫感,极大程度地提高了用户使用增强现实设备的舒适性。将半反半透镜3设置为以与竖直面之间之夹角大于45°小于90°的形式倾斜设置,并将图像显示屏2竖直横放于半反半透镜3和透射构件42的上方,这样,可以把头戴设备主体的大部分重量自然地分配到用户的额头上,从而使得用户鼻梁和耳朵上承受的压力大大减少(差不多就相当于只需承受半反半透镜3的重量),提高了用户使用该增强现实设备的舒适性。此外,用户在使用这种增强现实设备时,其他用户除非是在半反半透镜3的下方、且在一定距离下才可能看到半反半透镜3上显示的虚拟特征,所以其他用户基本上无法看到正在使用用户所看到的虚拟内容,能保护使用用户的隐私。
优选地,本实施例中,图像显示屏2和转角反射构件41都位于透射构件42的上方,且转角反射构件41位于远离半反半透镜3的一侧,图像显示屏2位于靠近半反半透镜3的一侧,即:智能手机100和转角反射构件41都位于透射构件41的上方,且转角反射构件41位于靠近人眼5的一侧,智能手机100位于远离人眼的一侧。
优选地,光路转换组件4之投射于半反半透镜3上的光线与半反半透镜3之间的夹角为45°,此时,半反半透镜3的反射最强,可在使用透过率较高(反射率较低)的半反半透镜3的情况下,看到的虚拟特征更清晰(更亮,对比度更高),同时看到外部真实环境又不会太暗;而且,这样严格按照45°投影的虚拟特征会垂直人眼5视线前方,让用户感觉更自然,但半反半透镜3与光轴的夹角也可按具体度数情况作调整。具体应用中,根据图像显示屏2亮度及使用环境的不同可以采用不同反射率和透射率的半反半透镜3。
优选地,半反半透镜3之朝向人眼5的表面可以为平面也可以为弧面或者其它曲面。
本实施例通过对透射构件42焦距的调节巧妙地增加了光程,使得外部真实环境中的特定特征可以与虚拟特征能够在透射构件42的焦点中重叠显示,解决了近距离观看半反半透镜3不能对焦的问题。
本实施例提供的增强现实设备,具有如下有益效果:
1)可兼容市面上几乎所有的智能手机100,智能手机100可以随时更换。
2)光路系统为双眼共用的单目系统,数据处理器无需进行分屏运算,只是单屏显示内容节约运算能力及功耗,可以直接采用智能手机100的处理器,无需使用别的软件系统或进行额外的运算配合,也不用另外购置具有电源、运算处理器的装置;用户可以在AR模式下操作自己的智能手机100,在AR模式下可操作的应用程序跟在真实环境中的操作类似。
3)用户使用该增强现实设备时,重量主要集中于额头处,鼻梁处和耳朵处压力较少。
4)通过特定光路设计,延展光路使虚拟特征成像于人眼5前方触手可及的距离,使得用户与虚拟特征的交互更自然,使AR效果更逼真。
5)用户在使用增强现实设备观看虚拟特征时,其他用户基本上无法看到正在使用用户所看到的虚拟内容,利于有效保护用户的使用隐私。
6)使用具有SLAM功能的智能手机100后,可以有Inside-out的定位能力(6自由度空间定位),可以使得虚拟特征仿佛真的在外部真实环境中,用户在外部真实环境中能走到不同角度观看虚拟特征。
7)结构简单、成本低。
实施例二:
一并参照图1和图2所示,本实施例提供的增强现实设备,与实施例一的主要区别在于:实施例一中,图像显示屏2为智能手机100的显示屏,摄像头1为智能手机100的后置摄像头1,数据处理器为智能手机100的处理器;而本实施例中,图像显示屏2、摄像头1、数据处理器为相互独立设置的独立显示屏、独立摄像头1、独立处理器,独立显示屏、独立摄像头1都与独立处理器数据连接,即实施例一中的图像显示屏2、摄像头1、数据处理器是集成设计于同一移动设备(智能手机100)上的,而本实施例中的图像显示屏2、摄像头1、数据处理器是分开独立设置、独立安装的。增强现实设备包括可供用户穿戴的头戴设备和主机,独立摄像头1、独立显示屏、半反半透镜3和光路转换组件4都设置于头戴设备上,独立处理器设置于主机上。当然了具体应用中,独立处理器也可通过有线连接或者无线连接电脑使用。
优选地,本实施例中,图像显示屏2、摄像头1和转角反射构件41都位于透射构件42的上方,且转角反射构件41位于靠近半反半透镜3的一侧,图像显示屏2位于远离半反半透镜3的一侧,即:转角反射构件41位于远离人眼5的一侧,图像显示屏2位于靠近人眼的一侧;且图像显示屏2和摄像头1分别位于转角反射构件41的两侧。
除了上述不同之外,本实施例提供的增强现实设备的其它部分都可参照实施例一进行优化设计,在此不再详述。
实施例三:
本实施例提供的增强现实设备,与实施例一类似,图像显示屏2为智能手机100的显示屏,数据处理器为智能手机100的处理器;而与实施例一的主要区别在于摄像头1的设置方式不同,具体体现在:参照图1所示,实施例一中,摄像头1为智能手机100的后置摄像头,该后置摄像头为三维摄像头,其智能手机100具有SLAM定位功能;而本实施例中,参照图3和图4所示,摄像头1为智能手机100之前置摄像头11与一个可调位置之广角(或鱼眼)镜头12的组合,该广角(或鱼眼)镜头12的相对位置可调,其可与所有智能手机100的前置摄像头11组合使用。本实施例提供的增强现实设备,可适用于没有SLAM定位功能的智能手机100,且其显示原理与实施例一基本一致,具体地,图像显示屏2(智能手机的显示屏)朝向转角反射构件41(反射镜)发光,经过转角反射构件41反射,再经过透射构件42(菲涅尔透镜)透射,投射在半反半透镜3上,人眼5向前看,将看到半反半透镜3上由虚拟特征与外部真实环境叠合得到的集成景象。
优选地,本实施例与实施例一还具有以下不同:实施例一中,图像显示屏2和转角反射构件41都位于透射构件42的上方,且转角反射构件41位于远离半反半透镜3的一侧,图像显示屏2位于靠近半反半透镜3的一侧,即:智能手机100和转角反射构件41都位于透射构件42的上方,且转角反射构件41位于靠近人眼5的一侧,智能手机100位于远离人眼的一侧;而本实施例中,图像显示屏2、广角(或鱼眼)镜头12和转角反射构件41都位于透射构件42的上方,且转角反射构件41位于靠近半反半透镜3的一侧,图像显示屏2位于远离半反半透镜3的一侧,广角(或鱼眼)镜头12位于智能手机100和转角反射构件41之间,即:本实施例中,智能手机100、广角(或鱼眼)镜头12和转角反射构件41都位于透射构件42的上方,且智能手机100位于靠近人眼5的一侧,转角反射构件41位于远离人眼的一侧,广角(或鱼眼)镜头12位于智能手机100和转角反射构件41之间。本实施例的摄像头1采用智能手机100之前置摄像头11与广角(或鱼眼)镜头12的组合模式,且由于智能手机100位置后移,在智能手机100之前置摄像头11与转角反射构件41之间外加(或鱼眼)镜头12,这样可以拍摄更大范围的外部空间,所以手指操控的空间位置更广,同时,智能手机100后移,可使增强现实设备的整体部件重心后移,减轻用户头部佩戴时的实感重量。
除了上述不同之外,本实施例提供的增强现实设备的其它部分都可参照实施例一进行优化设计,在此不再详述。
实施例四:
本实施例提供的增强现实设备,与实施例一、实施例三类似,图像显示屏2为智能手机100的显示屏。本实施例与实施例一、实施例三的主要区别在于:参照图1所示,实施例一中,摄像头1为智能手机100的后置摄像头,该后置摄像头为三维摄像头,其智能手机100具有SLAM定位功能,数据处理器为智能手机100的处理器;参照图3和图4所示,实施例三中,摄像头1为智能手机100之前置摄像头11与一个可调位置之广角(或鱼眼)镜头12的组合,数据处理器为智能手机100的处理器;而本实施例中,参照图5所示,不采用智能手机100本身的摄像头,而是在转角反射构件41(反射镜)的外侧设置一个传感运算装置6,摄像头1为设于传感运算装置6上的广角或鱼眼摄像头,数据处理器包括智能手机100的处理器和传感运算装置6的处理器。该传感运算装置6与智能手机100通过无线wifi或蓝牙或有线连接的方式通讯。该传感运算装置6上还设有加速度传感器或者角加速度传感器(陀螺仪)或者地磁传感器。传感运算装置6上设有能够对其摄像、感应之数据进行运算、定位的处理器,从而可以实现SLAM定位功能,这样,在同一电路板上实现摄像、传感及运算,可减少信息传输延时造成的定位数据不及时的问题。该传感运算装置6上还可配置有独立电源。其能够将摄像、感应、运算定位等信息输送到智能手机100上。本实施例的显示原理与实施例一、实施例三类似:图像显示屏2(智能手机100的显示屏)朝向转角反射构件41(反射镜)发光,经过转角反射构件41反射,再经过透射构件42(菲涅尔透镜)透射,投射在半反半透镜3上,人眼5向前看,将看到半反半透镜3上由虚拟特征与外部真实环境叠合得到的集成景象。
优选地,本实施例中,传感运算装置6上还设有用于进行三维空间物体识别或三维手势交互的深度摄像头。经过传感运算装置6的运算,把得到的三维点云数据或深度图数据传输到智能手机100上。本实施例可快速、简易地使传统的智能手机100在连接后立即实现AR互动及基于真实空间位置的定位,有了空间定位后AR交互体验感更真实,能看到虚拟特征的各个面,虚拟特征能与用户进行三个空间方向的交互。本实施例把上述定位、三维点云的运算放在传感运算装置6上进行,智能手机100可以专注于AR效果显示及渲染的运算,无需额外增加运算量及耗电量。传感运算装置6仅作为一个AR输入设备的外设,就犹如传统的蓝牙键鼠,可兼容所有智能手机100,使用户以最低成本、最少改动及无需升级的情况下,实现AR互动。
除了上述不同之外,本实施例提供的增强现实设备的其它部分都可参照实施例一或实施例三进行优化设计,在此不再详述。
实施例五:
本实施例提供的增强现实设备,与实施例一、实施例二、实施例三、实施例四的主要区别在于:实施例一、实施例二、实施例三、实施例四中,图像显示屏2显示的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,用户与虚拟特征之间的空间交互为用户对虚拟按钮或者虚拟操控界面或者虚拟图标的点击操控;而本实施例中,图像显示屏2显示的虚拟特征为虚拟模型,数据处理器能够对摄像头1的摄像信息进行识别、定位、运算以及根据运算结果控制图像显示屏2输出不同状态下的虚拟模型,从而实现用户对虚拟模型的多方位观看或者操控,即用户与虚拟特征之间的空间交互为用户对虚拟模型的多方位观看或者操控。虚拟模型可以是任何真实物体的虚拟模型,如人物或者动物或者车或者食物或者武器或者盒子或者办公用品或者生活用品等的虚拟模型。用户对虚拟模型的多方位观看具体为用户可以空间立体的各方向观看虚拟模型的不同部位,仿佛虚拟模型真实处于用户眼前一样。用户对虚拟模型的操控具体包括用户对虚拟模型的触碰、点击、旋转等。
优选地,虚拟模型投射到半反半透镜3上的方式为:数据处理器根据摄像头1的摄像信息激发图像显示屏2在对应位置采用非黑色的形式显示设定好的三维虚拟模型,并使图像显示屏2上的其他位置都呈黑色显示。图像显示屏2的显示内容通过上述的光路转换组件4转换后投射到半反半透镜3上,用户只看到图像显示屏2上非黑色的虚拟模型,而看不到图像显示屏2的黑色内容,这样,用户看到的是在外部真实环境中叠加了虚拟模型,用户感觉虚拟模型仿佛真的存在外部真实环境中一样,且好像就在自己眼前。
具体地,用户所感觉这些虚拟模型离用户的真实距离与透射构件42的焦距有关,具体应用,可以将透射构件42的焦距设定为一定数值以使虚拟模型仿佛就显示在用户手指可触及的距离(手指比较方便触摸的距离为0.3m至0.65m),这样利于实现用户与虚拟模型的空间交互。
优选地,用户对虚拟模型多方位观看的实现方式为:数据处理器识别到摄像头1摄像信息的相对方位角改变后,通过重新识别、定位、运算激发图像显示屏2显示出三维虚拟模型在相应方位角度的图像信息,从而使得用户在各个角度观看三维虚拟模型会看到三维虚拟模型不同的面,如果用户绕着三维虚拟模型走一圈后,就能看到三维虚拟模型的360°各个面,这样使得虚拟模型仿佛真的在外部真实环境中,用户在外部真实环境中能走到不同角度观看虚拟模型。
优选地,用户操控虚拟模型的实现方式为:用户通过半反半透镜3可以看到虚拟模型呈现于自己的前方,用户将手指伸向想要点击的虚拟按钮或者虚拟操控界面或者虚拟图标或者将手指伸向操控部件上对应的操控部位,摄像头1会拍摄到用户伸出的手指或者拍摄到用户操作的操控部件,操控部件可为手柄或者遥控器或者键盘或者鼠标等,数据处理器识别摄像头1拍摄到用户伸出的手指或者用户操作的操控部件,并获取手指或操控部件的平面位置(XOY平面的坐标),作为控制如虚拟模型的选择。当识别到手指或操控部件的位置坐标在虚拟模型的上方停留到设定时间(如2s)后即触发操控事件,犹如操控了触控屏中的虚拟模型。
除了上述不同之外,本实施例提供的增强现实设备的其它部分都可参照实施例一或者实施例二或者实施例三或者实施例四进行优化设计,在此不再详述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换或改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.增强现实设备,其特征在于,包括:
摄像头,用于拍摄外部真实环境;
图像显示屏,用于显示虚拟特征;
半反半透镜,用于供人眼观看由虚拟特征与外部真实环境叠合得到的集成景象,且该半反半透镜为双眼共用的单目结构;
光路转换组件,用于将所述图像显示屏上所显示之虚拟特征投射至所述半反半透镜上;
数据处理器,与所述摄像头、所述图像显示屏数据连接,用于对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏改变显示信息,从而实现用户与虚拟特征的空间交互。
2.如权利要求1所述的增强现实设备,其特征在于,所述图像显示屏显示的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,所述数据处理器能够对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏输出不同的虚拟特征为虚拟按钮或者虚拟操控界面或者虚拟图标,从而实现用户对所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标的点击操控;或者,
所述图像显示屏显示的虚拟特征为虚拟模型,所述数据处理器能够对所述摄像头的摄像信息进行识别、定位、运算以及根据运算结果控制所述图像显示屏输出不同状态下的虚拟模型,从而实现用户对虚拟模型的多方位观看或者操控。
3.如权利要求2所述的增强现实设备,其特征在于,用户对所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标的点击操控方式为:所述数据处理器识别摄像头拍摄到用户伸出的手指或者用户操作的所述操控部件,并运算得出手指或操控部件的平面位置,当所述数据处理器识别到手指在所述虚拟按钮或者所述虚拟操控界面或者所述虚拟图标或操控部件对应位置处停留到设定时间后即触发点击操控;或者,
用户对所述虚拟模型多方位观看的实现方式为:所述数据处理器识别到所述摄像头摄像信息的相对方位角改变后,通过重新识别、定位、运算激发所述图像显示屏显示出所述虚拟模型在相应方位角度的图像信息;或者,
用户操控虚拟模型的实现方式为:所述数据处理器识别所述摄像头拍摄到用户伸出的手指或者用户操作的操控部件,并获取手指或操控部件的平面位置,当所述数据处理器识别到手指或操控部件的位置坐标在所述虚拟模型上停留到设定时间后即触发操控。
4.如权利要求1或2所述的增强现实设备,其特征在于,所述虚拟特征投射到半反半透镜上的方式为:所述数据处理器根据所述摄像头的摄像信息激发所述图像显示屏在对应位置采用非黑色的形式显示设定好的虚拟特征,并使所述图像显示屏上的其他位置都呈黑色显示或关闭所述图像显示屏上其他位置的发光像素点,所述图像显示屏的显示内容通过所述光路转换组件转换后投射到所述半反半透镜上,用户将仅看到所述图像显示屏上非黑色的所述虚拟特征。
5.如权利要求1或2所述的增强现实设备,其特征在于,还包括用于根据用户头部移动而激发所述图像显示屏改变显示信息的角速度传感器或者加速度传感器,所述角速度传感器或者所述加速度传感器与所述摄像头、所述数据处理器数据连接。
6.如权利要求5所述的增强现实设备,其特征在于,还包括用于控制所述角速度传感器或者所述加速度传感器开关和/或激发所述图像显示屏改变显示信息的遥控器,所述遥控器与所述数据处理器数据传输连接。
7.如权利要求6所述的增强现实设备,其特征在于,所述遥控器上设有语音输入结构和用于控制所述语音输入结构开、关的语音控制开关。
8.如权利要求1所述的增强现实设备,其特征在于,所述数据处理器内设有用于供开发者开发的软件开发工具包;且/或,
所述光路转换组件包括转角反射构件和设置于所述转角反射构件与所述半反半透镜之间的透射构件,所述图像显示屏和所述转角反射构件都位于所述透射构件的上方,其中,所述转角反射构件位于靠近所述半反半透镜的一侧,所述图像显示屏位于远离所述半反半透镜的一侧;或者,所述转角反射构件位于远离所述半反半透镜的一侧,所述图像显示屏位于靠近所述半反半透镜的一侧。
9.如权利要求1或2或8所述的增强现实设备,其特征在于,所述半反半透镜与人眼之间具有用于避让用户所佩戴之眼镜的避让空间;且/或,所述半反半透镜以与竖直面之间之夹角大于45°小于90°的形式倾斜设置;且/或,所述光路转换组件之投射于所述半反半透镜上的光线与所述半反半透镜之间的夹角为45°±5°。
10.如权利要求1或2或8所述的增强现实设备,其特征在于,所述图像显示屏为智能手机的显示屏,所述摄像头为所述智能手机的后置摄像头,所述数据处理器为所述智能手机的处理器;或者,所述图像显示屏、所述摄像头、所述数据处理器为相互独立设置的独立显示屏、独立摄像头、独立处理器,所述独立显示屏、所述独立摄像头都与所述独立处理器数据连接;或者,所述图像显示屏为智能手机的显示屏,所述摄像头为所述智能手机之前置摄像头与一个可调位置之广角镜头或者鱼眼镜头的组合,所述数据处理器为所述智能手机的处理器;或者,所述图像显示屏为智能手机的显示屏,所述摄像头为一传感运算装置上的广角镜头或者鱼眼镜头,所述数据处理器包括所述智能手机的处理器和所述传感运算装置的处理器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710164921.5A CN106919262A (zh) | 2017-03-20 | 2017-03-20 | 增强现实设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710164921.5A CN106919262A (zh) | 2017-03-20 | 2017-03-20 | 增强现实设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106919262A true CN106919262A (zh) | 2017-07-04 |
Family
ID=59460935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710164921.5A Pending CN106919262A (zh) | 2017-03-20 | 2017-03-20 | 增强现实设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106919262A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255862A (zh) * | 2017-08-11 | 2017-10-17 | 深圳市辰羿科技有限公司 | 一种混合现实的放大影像装置 |
CN107450184A (zh) * | 2017-09-19 | 2017-12-08 | 歌尔科技有限公司 | 一种ar显示设备 |
CN108334870A (zh) * | 2018-03-21 | 2018-07-27 | 四川意高汇智科技有限公司 | Ar设备数据服务器状态的远程监控系统 |
CN108446639A (zh) * | 2018-03-21 | 2018-08-24 | 四川意高汇智科技有限公司 | 低功耗增强现实设备 |
CN108491791A (zh) * | 2018-03-21 | 2018-09-04 | 四川意高汇智科技有限公司 | 分布式ar数据传输方法 |
CN108521545A (zh) * | 2018-03-26 | 2018-09-11 | 广东欧珀移动通信有限公司 | 基于增强现实的图像调整方法、装置、存储介质和电子设备 |
CN108830939A (zh) * | 2018-06-08 | 2018-11-16 | 杭州群核信息技术有限公司 | 一种基于混合现实的场景漫游体验方法及体验系统 |
CN109217943A (zh) * | 2018-07-19 | 2019-01-15 | 珠海格力电器股份有限公司 | 定向播报方法、装置、家用电器及计算机可读存储介质 |
CN109714589A (zh) * | 2019-02-22 | 2019-05-03 | 上海北冕信息科技有限公司 | 用于增强现实的输入输出装置、设备 |
CN110662008A (zh) * | 2018-06-28 | 2020-01-07 | 广东虚拟现实科技有限公司 | 图像显示装置及图像显示方法 |
CN110908519A (zh) * | 2019-12-04 | 2020-03-24 | Oppo广东移动通信有限公司 | 数据处理方法以及电子设备、增强现实设备和存储介质 |
CN111083391A (zh) * | 2018-10-19 | 2020-04-28 | 舜宇光学(浙江)研究院有限公司 | 虚实融合系统及其方法 |
CN113051424A (zh) * | 2021-03-26 | 2021-06-29 | 联想(北京)有限公司 | 一种基于slam地图的定位方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120113140A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | Augmented Reality with Direct User Interaction |
CN102681651A (zh) * | 2011-03-07 | 2012-09-19 | 刘广松 | 一种用户交互系统和方法 |
CN103543827A (zh) * | 2013-10-14 | 2014-01-29 | 南京融图创斯信息科技有限公司 | 基于单个摄像机的沉浸式户外活动交互平台的实现方法 |
CN105068659A (zh) * | 2015-09-01 | 2015-11-18 | 陈科枫 | 一种增强现实系统 |
CN105607263A (zh) * | 2016-03-22 | 2016-05-25 | 深圳市世尊科技有限公司 | 头戴式电子设备 |
WO2016086439A1 (zh) * | 2014-12-04 | 2016-06-09 | 上海交通大学 | 自配准透射式头戴显示设备 |
WO2016101861A1 (zh) * | 2014-12-26 | 2016-06-30 | 成都理想境界科技有限公司 | 头戴式显示装置 |
-
2017
- 2017-03-20 CN CN201710164921.5A patent/CN106919262A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120113140A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | Augmented Reality with Direct User Interaction |
CN102681651A (zh) * | 2011-03-07 | 2012-09-19 | 刘广松 | 一种用户交互系统和方法 |
CN103543827A (zh) * | 2013-10-14 | 2014-01-29 | 南京融图创斯信息科技有限公司 | 基于单个摄像机的沉浸式户外活动交互平台的实现方法 |
WO2016086439A1 (zh) * | 2014-12-04 | 2016-06-09 | 上海交通大学 | 自配准透射式头戴显示设备 |
WO2016101861A1 (zh) * | 2014-12-26 | 2016-06-30 | 成都理想境界科技有限公司 | 头戴式显示装置 |
CN105068659A (zh) * | 2015-09-01 | 2015-11-18 | 陈科枫 | 一种增强现实系统 |
CN105607263A (zh) * | 2016-03-22 | 2016-05-25 | 深圳市世尊科技有限公司 | 头戴式电子设备 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107255862A (zh) * | 2017-08-11 | 2017-10-17 | 深圳市辰羿科技有限公司 | 一种混合现实的放大影像装置 |
CN107450184A (zh) * | 2017-09-19 | 2017-12-08 | 歌尔科技有限公司 | 一种ar显示设备 |
WO2019056639A1 (zh) * | 2017-09-19 | 2019-03-28 | 歌尔科技有限公司 | 一种ar显示设备 |
CN108491791A (zh) * | 2018-03-21 | 2018-09-04 | 四川意高汇智科技有限公司 | 分布式ar数据传输方法 |
CN108446639A (zh) * | 2018-03-21 | 2018-08-24 | 四川意高汇智科技有限公司 | 低功耗增强现实设备 |
CN108334870A (zh) * | 2018-03-21 | 2018-07-27 | 四川意高汇智科技有限公司 | Ar设备数据服务器状态的远程监控系统 |
CN108521545B (zh) * | 2018-03-26 | 2020-02-11 | Oppo广东移动通信有限公司 | 基于增强现实的图像调整方法、装置、存储介质和电子设备 |
CN108521545A (zh) * | 2018-03-26 | 2018-09-11 | 广东欧珀移动通信有限公司 | 基于增强现实的图像调整方法、装置、存储介质和电子设备 |
CN108830939A (zh) * | 2018-06-08 | 2018-11-16 | 杭州群核信息技术有限公司 | 一种基于混合现实的场景漫游体验方法及体验系统 |
CN108830939B (zh) * | 2018-06-08 | 2022-06-10 | 杭州群核信息技术有限公司 | 一种基于混合现实的场景漫游体验方法及体验系统 |
CN110662008A (zh) * | 2018-06-28 | 2020-01-07 | 广东虚拟现实科技有限公司 | 图像显示装置及图像显示方法 |
CN109217943A (zh) * | 2018-07-19 | 2019-01-15 | 珠海格力电器股份有限公司 | 定向播报方法、装置、家用电器及计算机可读存储介质 |
WO2020015297A1 (zh) * | 2018-07-19 | 2020-01-23 | 珠海格力电器股份有限公司 | 定向播报方法、装置、家用电器及计算机可读存储介质 |
CN111083391A (zh) * | 2018-10-19 | 2020-04-28 | 舜宇光学(浙江)研究院有限公司 | 虚实融合系统及其方法 |
CN109714589A (zh) * | 2019-02-22 | 2019-05-03 | 上海北冕信息科技有限公司 | 用于增强现实的输入输出装置、设备 |
CN110908519A (zh) * | 2019-12-04 | 2020-03-24 | Oppo广东移动通信有限公司 | 数据处理方法以及电子设备、增强现实设备和存储介质 |
CN113051424A (zh) * | 2021-03-26 | 2021-06-29 | 联想(北京)有限公司 | 一种基于slam地图的定位方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106919262A (zh) | 增强现实设备 | |
US10788673B2 (en) | User-based context sensitive hologram reaction | |
US10521026B2 (en) | Passive optical and inertial tracking in slim form-factor | |
US20220153412A1 (en) | Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight | |
CN109313497B (zh) | 用于六自由度混合现实输入的惯性控制器的模块化扩展 | |
JP6786792B2 (ja) | 情報処理装置、表示装置、情報処理方法、及び、プログラム | |
US20220130124A1 (en) | Artificial reality system with varifocal display of artificial reality content | |
WO2016203792A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US10474226B2 (en) | Head-mounted display device, computer program, and control method for head-mounted display device | |
KR20180096434A (ko) | 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치 | |
US20130326364A1 (en) | Position relative hologram interactions | |
CN111886564B (zh) | 信息处理装置、信息处理方法和程序 | |
WO2013006518A2 (en) | Multi-visor: managing applications in head mounted displays | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
KR20190101827A (ko) | 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법 | |
JP6303274B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP2017120556A (ja) | 操作用ヘッドマウントディスプレイ、操作用ヘッドマウントディスプレイの制御方法および操作用ヘッドマウントディスプレイのプログラム | |
KR20180109669A (ko) | 가상 오브젝트의 처리가 가능한 스마트 안경 | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
CN206906983U (zh) | 增强现实设备 | |
CN114115544B (zh) | 人机交互方法、三维显示设备及存储介质 | |
JP6631299B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
KR20240142273A (ko) | 이미지를 표시하기 위한 영역을 식별하는 웨어러블 장치 및 그 방법 | |
KR20240018990A (ko) | 증강 현실에서 사용자를 인증하는 장치 및 방법 | |
KR20240084665A (ko) | 외부 전자 장치의 제어와 관련된 사용자 인터페이스를 표시하기 위한 웨어러블 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |