CN111552076B - 一种图像显示方法、ar眼镜及存储介质 - Google Patents
一种图像显示方法、ar眼镜及存储介质 Download PDFInfo
- Publication number
- CN111552076B CN111552076B CN202010403469.5A CN202010403469A CN111552076B CN 111552076 B CN111552076 B CN 111552076B CN 202010403469 A CN202010403469 A CN 202010403469A CN 111552076 B CN111552076 B CN 111552076B
- Authority
- CN
- China
- Prior art keywords
- glasses
- area
- camera
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011521 glass Substances 0.000 title claims abstract description 190
- 238000000034 method Methods 0.000 title claims abstract description 48
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 53
- 238000001514 detection method Methods 0.000 claims description 15
- 210000001508 eye Anatomy 0.000 claims description 14
- 210000003128 head Anatomy 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000012544 monitoring process Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000036772 blood pressure Effects 0.000 claims description 6
- 238000012806 monitoring device Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000004418 eye rotation Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0154—Head-up displays characterised by mechanical features with movable elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请公开了一种图像显示方法,应用于AR眼镜,所述AR眼镜的眼镜内框设置有第一摄像头,所述AR眼镜的眼镜外框设置有第二摄像头,所述图像显示方法包括:利用所述第一摄像头检测眼镜佩戴者的眼球转动信息;根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;判断所述目标图像中是否存在目标物体;若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像。本申请能够提高了AR眼镜的物体识别精度。本申请还公开了一种AR眼镜及一种存储介质,具有以上有益效果。
Description
技术领域
本申请涉及智能穿戴设备技术领域,特别涉及一种图像显示方法、一种AR眼镜及一种存储介质。
背景技术
AR(Augmented Reality,增强现实)技术是一种将虚拟信息与真实世界巧妙融合的技术,可以将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后应用到真实世界中,从而实现对真实世界的“增强”。
采用AR技术的AR眼镜在游戏娱乐、医疗、购物、教育上已经广泛应用,但是相关技术中的AR眼镜重视显示预先设置好的虚拟场景,如过山车、赛车跑道等,通常仅对AR眼镜拍摄范围的中心区域物体进行识别,往往忽略了AR眼镜拍摄范围的边缘区域物体,物体识别精度较低。
因此,如何提高AR眼镜的物体识别精度是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种图像显示方法、一种AR眼镜及一种存储介质,能够提高AR眼镜的物体识别精度。
为解决上述技术问题,本申请提供一种图像显示方法,应用于AR眼镜,所述AR眼镜的眼镜内框设置有第一摄像头,所述AR眼镜的眼镜外框设置有第二摄像头,所述图像显示方法包括:
利用所述第一摄像头检测眼镜佩戴者的眼球转动信息;
根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;
判断所述目标图像中是否存在目标物体;
若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像。
可选的,若所述目标图像中不存在所述目标物体,还包括:
将所述目标图像对应的区域设置为第一类区域,并更新区域地图;其中,所述区域地图包括第一类区域和第二类区域,所述第一类区域为不包括所述目标物体的区域,所述第二类区域为包括所述目标物体的区域;
通过所述AR眼镜镜片显示更新后的区域地图。
可选的,在所述更新区域地图之后,还包括:
根据所述更新后的区域地图中所述第一类区域和第二类区域的区域面积比例计算工作完成度,并将所述工作完成度显示至所述AR眼镜镜片。
可选的,还包括:
接收安全装置传输的安全监测信息,并通过所述AR眼镜镜片显示所述安全监测信息;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合。
可选的,在获取所述第二摄像头调整拍摄角度后采集的目标图像之后,还包括:
对所述目标图像执行图像识别操作,根据图像识别结果确定所述目标图像对应区域的区域地形;
若所述区域地形为危险地形时,则生成对应的提示信息。
可选的,获取所述第二摄像头调整拍摄角度后采集的目标图像,包括:
获取所述第二摄像头调整拍摄角度后采集的多张所述目标图像;
相应的,还包括:
确定所有所述目标图像的公共拍摄区域;
按照拍摄顺序依次对相邻的所述目标图像中公共拍摄区域执行相似度比对操作;
根据相似度比对结果判断所述公共拍摄区域是否存在高空坠物;
若是,则生成对应的报警信息。
可选的,所述AR眼镜包括用于检测头部倾斜角度的加速度传感器;
相应的,所述图像显示方法还包括:
根据所述头部倾斜角度和所述眼球转动信息计算所述眼镜佩戴者的可视区域;
将所述可视区域中视角小于预设值的区域设置为待遮挡区域;
确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域;
在所述目标镜片区域中显示预设透明度的预设图片。
本申请还提供了一种AR眼镜,包括:
设置于所述AR眼镜的眼镜内框的第一摄像头,用于拍摄眼镜佩戴者的眼部图片;
设置于所述AR眼镜的眼镜外框的第二摄像头,用于采集目标图像;
分别与所述第一摄像头和所述第二摄像头连接的处理器,用于根据所述眼部图片确定所述眼镜佩戴者的眼球转动信息;还用于根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;还用于判断所述目标图像中是否存在目标物体;若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像。
可选的,还包括:
分别与所述处理器和安全装置连接的通信装置,用于将安全装置传输的安全监测信息发送至所述处理器;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合;
相应的,所述处理器还用于通过所述AR眼镜镜片显示所述安全监测信息。
本申请还提供了一种存储介质,其上存储有计算机程序,所述计算机程序执行时实现上述图像显示方法执行的步骤。
本申请提供了一种图像显示方法,应用于AR眼镜,所述AR眼镜的眼镜内框设置有第一摄像头,所述AR眼镜的眼镜外框设置有第二摄像头,所述图像显示方法包括:利用所述第一摄像头检测眼镜佩戴者的眼球转动信息;根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;判断所述目标图像中是否存在目标物体;若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像。
本申请所应用的AR眼镜包括用于检测眼球转动信息的第一摄像头,以及采集目标图像的第二摄像头。本申请根据眼镜佩戴者的眼球转动信息调整第二摄像头的拍摄角度,进而在该拍摄角度下采集相应的目标图像。若目标图像中包括目标物体,则通过AR眼镜镜片显示目标物体的位置信息。本申请能够根据眼镜佩戴者实施的眼球转动信息对第二摄像头的拍摄角度进行动态调整,拍摄得到与眼镜佩戴者观察区域相同的目标图像,以便确定用户当前观察的区域中是否存在目标物体。本申请提供的方案能够根据用户的视角转动动态调整检测目标物体的拍摄角度,提高了AR眼镜的物体识别精度。本申请同时还提供了一种AR眼镜和一种存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例所提供的一种图像显示方法的流程图;
图2为本申请实施例所提供的一种AR眼镜的外观示意图;
图3为本申请实施例所提供的一种高空作业AR眼镜的目标物体识别原理示意图;
图4为本申请实施例所提供的一种高空作业AR眼镜的扫描流程提流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面请参见图1,图1为本申请实施例所提供的一种图像显示方法的流程图。
具体步骤可以包括:
S101:利用第一摄像头检测眼镜佩戴者的眼球转动信息;
其中,本实施例可以应用于AR眼镜中,该AR眼镜可以包括镜框、眼镜镜片,该AR眼镜还可以通过相应的头戴设备进行组装得到AR头盔。具体的,本实施例所应用于的AR眼镜的镜框可以包括朝向佩戴者眼部的眼镜内框,还可以包括朝向外部的眼镜外框,在本实施例中AR眼镜的眼镜内框设置有第一摄像头,AR眼镜的眼镜外框设置有第二摄像头,此处不限定第一摄像头与第二摄像头在眼镜内框和眼镜外框中的位置及其数量。
本实施例首先利用第一摄像头检测眼镜佩戴者的眼球转动信息,眼球转动信息可以包括眼球的动作变化,如水平左转30度、竖直向下转15度等。作为一种可行的实施方式,本实施例获取眼球转动信息的操作可以包括:确定当前时刻瞳孔在眼部的位置,延时预设时长后确定下一时刻瞳孔在眼部的位置,根据当前时刻与下一时刻瞳孔在眼部位置的变化情况确定眼球转动信息。作为另一种可行的实施方式,眼镜内框通常包括两部分:左侧眼镜内框和右侧眼镜内框,本实施例可以分别在左侧眼镜内框和右侧眼镜内框分别设置一个第一摄像头,设置于左侧眼镜内框的第一摄像头用于检测眼镜佩戴者的左眼球转动信息,设置于右侧眼镜内框的第一摄像头用于检测眼镜佩戴者的右眼球转动信息,最终将左眼球转动信息和右眼球转动信息进行均值计算得到本步骤中所确定的眼球转动信息。进一步的,若使用上述左侧眼镜内框和右侧眼镜内框各设置一个第一摄像头的方案时,左侧眼镜内框中设置第一摄像头的位置与和右侧眼镜内框设置第二摄像头的位置关于眼镜的中轴线对称,所述中轴线为将AR眼镜划分为左半侧眼镜和右半侧眼镜的线。
S102:根据眼球转动信息调整第二摄像头的拍摄角度,并获取第二摄像头调整拍摄角度后采集的目标图像;
其中,第二摄像头为设置于眼镜外框的摄像头,第二摄像头可以拍摄用于进行目标物体检测的图片。在确定了眼球转动信息的基础上,本实施例根据眼球转动信息调整第二摄像头的拍摄角度,以便在调整拍摄角度后利用第二摄像头拍摄目标图像。具体的,本实施例调整第二摄像头的拍摄角度的过程可以包括:根据眼球转动信息确定待调整信息,根据待调整信息调整第二摄像头的拍摄角度。本实施例可以预先设置眼球转动信息与待调整信息的对应关系,在确定了眼球转动信息后可以根据眼球转动信息与待调整信息的对应关系确定待调整信息,待调整信息包括目标方向与目标角度,控制第二摄像头向目标方向移动目标角度。
例如,眼球转动信息与待调整信息的对应关系为:眼球转动信息的转动方向与待调整信息的转动方向一致,眼球转动信息的转动角度乘以关联系数(如0.98)等于待调整信息,若S101检测的眼球转动信息为:向水平向右转动20度,那么根据眼球转动信息与待调整信息的对应关系得到的待调整信息中目标方向为水平向右转动,待调整信息中目标角度为20*0.98=19.6度,此时可以控制第二摄像头水平向右转动19.6度,以便获取所述第二摄像头水平向右转动19.6度后采集的目标图像。
可以理解的是,本实施例中的第二摄像头可以一直存在按照预设频率采集图像的操作,本实施例将调整第二摄像头调整拍摄角度后采集的图像设置为目标图像。
S103:判断目标图像中是否存在目标物体;若是,则进入S104;若否,则结束流程;
其中,在得到目标图像之后,本实施例可以对目标图像执行图像识别操作判断目标图像中是否存在目标物体,本实施例不限定目标物体的种类。当本实施例应用于环卫工人的工作场景时,目标物体可以包括矿泉水瓶、报纸、落叶等。
作为一种可行的实施方式,本实施例判断目标图像中是否存在目标物体的过程可以包括:对目标图像执行图像识别操作,得到图像识别结果;其中图像识别结果包括目标物体在目标图像中位置和目标物体的数量信息;若目标物体的数量为0则说明目标图像中不存在目标物体;若目标物体的数量不为0则说明目标图像中存在目标物体,可以进入S104的相关操作。
S104:通过AR眼镜镜片显示包括目标物体的位置信息的图像。
其中,本步骤建立在确定目标图像中包括目标物体的基础上,根据目标物体在目标图像中位置计算目标物体的位置信息,生成包括位置信息的图像,并通过AR眼镜镜片显示包括所述目标物体的位置信息的图像,以便指示眼镜佩戴者目标物体所在的方位。作为一种可行的实施方式,本实施例可以通过AR眼镜镜片显示包括所有目标物体的位置信息的图像。
本实施例所应用的AR眼镜包括用于检测眼球转动信息的第一摄像头,以及采集目标图像的第二摄像头。本实施例根据眼镜佩戴者的眼球转动信息调整第二摄像头的拍摄角度,进而在该拍摄角度下采集相应的目标图像。若目标图像中包括目标物体,则通过AR眼镜镜片显示目标物体的位置信息。本实施例能够根据眼镜佩戴者实施的眼球转动信息对第二摄像头的拍摄角度进行动态调整,拍摄得到与眼镜佩戴者观察区域相同的目标图像,以便确定用户当前观察的区域中是否存在目标物体。本实施例提供的方案能够根据用户的视角转动动态调整检测目标物体的拍摄角度,提高了AR眼镜的物体识别精度。
作为对于图1对应实施例的进一步介绍,若S103中判断目标图像中不存在所述目标物体,本实施例还可以将所述目标图像对应的区域设置为第一类区域,并更新区域地图;通过所述AR眼镜镜片显示更新后的区域地图。其中,所述区域地图包括第一类区域和第二类区域,所述第一类区域为不包括所述目标物体的区域,所述第二类区域为包括所述目标物体的区域。
当本实施例中应用于高空擦玻璃的场景中时,待识别的目标物体为带有灰尘的玻璃,当工作人员佩戴本申请实施例所提供的AR眼镜进行高空擦玻璃时,可以自动识别带有灰尘的玻璃(即需要擦的玻璃),并在工作人员将玻璃擦干净后自动将已擦过的玻璃区域设置为第一类区域,将未擦过的玻璃区域设置为第二类区域,工作人员可以根据区域地图确定需要工作的区域。高空作业人员工作面积大,人眼很难扫描所在工作区域。本实施例的AR眼镜可显示区域地图,并标注出已完成区域和未完成区域。当然,当佩戴者完成所有区域的扫描且无目标物体时,AR眼镜的通信系统会发出完成信号,避免区域遗漏,本实施例可以根据AR眼镜的通信系统会发出长度完成信号进行考勤记录,依次评估作业员工作完成度。
当然,本实施例还可以将所需数据发送到相关服务器上,发送的数据信息可以包括眼镜佩戴者信息、扫描的区域、该区域中目标物的数量等,可对这些数据进行分析。当目标物过多时,可突出重点防范区域。例如某段时间检测到某地垃圾过多,可对该区域进行重点分析并治理。
作为对于图1对应实施例的进一步介绍,在根据第一类区域和第二类区域更新区域地图之后,还可以根据所述更新后的区域地图中所述第一类区域和第二类区域的区域面积比例计算工作完成度,并将所述工作完成度显示至所述AR眼镜镜片。
作为对于图1对应实施例的进一步介绍,本实施例中所提到的AR眼镜还可以与多种安全设备进行有线连接或无线连接,以便AR眼镜接收安全装置传输的安全监测信息,并通过所述AR眼镜镜片显示所述安全监测信息;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合。安全带检测装置为用于检测安全带卡扣是否在位的装置。
作为对于图1对应实施例的进一步介绍,在S102获取所述第二摄像头调整拍摄角度后采集的目标图像之后,还可以对所述目标图像执行图像识别操作,根据图像识别结果确定所述目标图像对应区域的区域地形;若所述区域地形为危险地形时,则生成对应的提示信息。作为一种可行的实施方式,本实施例中所提到的第二摄像头为深度摄像头,可以结合目标图像中的深度信息进行区域地形识别操作。
作为对于图1对应实施例的进一步介绍,S102可以获取所述第二摄像头调整拍摄角度后采集的多张所述目标图像;确定所有目标图像的公共拍摄区域;按照拍摄顺序依次对相邻的所述目标图像中公共拍摄区域执行相似度比对操作;根据相似度比对结果判断所述公共拍摄区域是否存在高空坠物;若是,则生成对应的报警信息。
其中,所有目标图像的公共拍摄区域为所有目标图像对应的拍摄区域中重合的区域,由于目标图像之间存在一定的拍摄时间间隔,因此本实施例可以通过按照拍摄顺序依次对目标图像中公共拍摄区域对应的图像进行相似度比对可以确定在拍摄时间间隔内是否存在向下移动的物体。
具体的,本实施例可以按照拍摄顺序依次对相邻的所述目标图像中公共拍摄区域执行相似度比对操作,根据相似度比对结果确定相邻的目标图像中存在位置变化的物体,若连续N张目标图像中均存在向下移动相同物体时,则判定公共拍摄区域存在高空坠物,此时可以生成对应的报警信息。本实施例通过检测高空坠物,可以避免操作员因视线盲点而出现危险,提高了安全性。
作为对于图1对应实施例的进一步介绍,可以根据佩戴者头部动作,选择是否启动遮挡模式。在遮挡模式启动后,当佩戴者往下看时镜片会出现一些画面来遮挡下面的物体。这样恐高人员也可从事高空作业,扩大就业人员范围。进一步的图1对应实施例中所提到的AR眼镜可以包括用于检测头部倾斜角度的加速度传感器。AR眼镜可以根据所述头部倾斜角度和所述眼球转动信息计算所述眼镜佩戴者的可视区域;将所述可视区域中视角小于预设值的区域设置为待遮挡区域;确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域;在所述目标镜片区域中显示预设透明度的预设图片。
其中,上述实施方式中提到的AR眼镜可以应用于高空作业过程中,可视区域为眼镜佩戴者在当前视角下可以看见的区域,为了避免处于高空的眼镜佩戴者出现恐高现象,本实施例将可视区域中视角小于预设值的区域设置为待遮挡区域,上述视角指用户瞳孔与可视区域边界上某点连线和水平线的夹角。本实施例进一步确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域,并在所述目标镜片区域中显示预设透明度的预设图片,能够避免眼镜佩戴者看到下方的环境,克服恐高现象。
请参见图2,图2为本申请实施例所提供的一种AR眼镜的外观示意图,该AR眼镜可以包括:
设置于所述AR眼镜的眼镜内框的第一摄像头,用于拍摄眼镜佩戴者的眼部图片;
设置于所述AR眼镜的眼镜外框的第二摄像头,用于采集目标图像;
分别与所述第一摄像头和所述第二摄像头连接的处理器,用于根据所述眼部图片确定所述眼镜佩戴者的眼球转动信息;还用于根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;还用于判断所述目标图像中是否存在目标物体;若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像。
本实施例所应用的AR眼镜包括用于检测眼球转动信息的第一摄像头,以及采集目标图像的第二摄像头。本实施例根据眼镜佩戴者的眼球转动信息调整第二摄像头的拍摄角度,进而在该拍摄角度下采集相应的目标图像。若目标图像中包括目标物体,则通过AR眼镜镜片显示目标物体的位置信息。本实施例能够根据眼镜佩戴者实施的眼球转动信息对第二摄像头的拍摄角度进行动态调整,拍摄得到与眼镜佩戴者观察区域相同的目标图像,以便确定用户当前观察的区域中是否存在目标物体。本实施例提供的方案能够根据用户的视角转动动态调整检测目标物体的拍摄角度,提高了AR眼镜的物体识别精度。
进一步的,该AR眼镜还包括:
分别与所述处理器和安全装置连接的通信装置,用于将安全装置传输的安全监测信息发送至所述处理器;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合;
相应的,所述处理器还用于通过所述AR眼镜镜片显示所述安全监测信息。
若所述目标图像中不存在所述目标物体,该AR眼镜还包括:
地图更新模块,用于将所述目标图像对应的区域设置为第一类区域,并更新区域地图;其中,所述区域地图包括第一类区域和第二类区域,所述第一类区域为不包括所述目标物体的区域,所述第二类区域为包括所述目标物体的区域;通过所述AR眼镜镜片显示更新后的区域地图。
工作进度计算模块,用于根据所述更新后的区域地图中所述第一类区域和第二类区域的区域面积比例计算工作完成度,并将所述工作完成度显示至所述AR眼镜镜片。
进一步的,还包括:
地形识别模块,用于在获取所述第二摄像头调整拍摄角度后采集的目标图像之后,对所述目标图像执行图像识别操作,根据图像识别结果确定所述目标图像对应区域的区域地形;若所述区域地形为危险地形时,则生成对应的提示信息。
进一步的,处理器还用于获取所述第二摄像头调整拍摄角度后采集的多张所述目标图像;还用于确定所有所述目标图像的公共拍摄区域;还用于按照拍摄顺序依次对相邻的所述目标图像中公共拍摄区域执行相似度比对操作;还用于根据相似度比对结果判断所述公共拍摄区域是否存在高空坠物;若是,则生成对应的报警信息。
进一步的,所述AR眼镜包括用于检测头部倾斜角度的加速度传感器;
相应的,所述处理器还用于根据所述头部倾斜角度和所述眼球转动信息计算所述眼镜佩戴者的可视区域;用于将所述可视区域中视角小于预设值的区域设置为待遮挡区域;用于确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域;用于在所述目标镜片区域中显示预设透明度的预设图片。
请参见图3和图4,图3为本申请实施例所提供的一种高空作业AR眼镜的目标物体识别原理示意图,图4为本申请实施例所提供的一种高空作业AR眼镜的扫描流程提流程图。图3和图4中的目标物即目标物体。
在本实施例中AR眼镜外部放置两个外侧摄像头,当佩戴者头部转向一个方向时,外侧摄像头重点扫描转向的区域;外侧摄像头根据内侧摄像头捕捉到的人眼的动作来调整摄像头向相应的方向扫描。当外侧摄像头扫描到目标物时(例如塑料垃圾),两个外侧摄像头可对目标物精准定位,目标物定位信息会以文字或图片的形式显示在眼镜片上,并通过AR眼镜中的语音播报模块播放出来。
本实施例可以将需要扫描的区域图会显示在AR眼镜上,还可以将常用区域地图软件包可下载到AR眼镜中。可以选择其中一只眼镜镜片上显示当前扫描区域、已扫描区域和未扫描区域。当所有的工作区域都扫描完成后,AR眼镜可以将该区域目标物的数量、区域工作人员信息等数据会上传至服务器。上传至服务器的数据可用于对目标物进行分析,还可作为工作人员考勤标准。
AR眼镜的镜框内侧设置有内侧摄像头,该内侧摄像头可捕捉佩戴者眼部动作。例如,可根据佩戴者眼球转动的方向,控制外置摄像头对相应的区域进行扫描。当然还可以根据佩戴者眨眼以及眨眼来记录实际获得目标物数。
AR眼镜中还可以内置加速度传感器,在佩戴者保持头部竖直时,可以观察到眼睛能看到的地方,当佩戴者有头向下的动作,并且向下超过一定的角度时,佩戴者的AR眼镜镜片上回出现一些图片来遮挡下面的视野,防止出现头晕等恐高症状。遮挡模式可以根据需求进行选择。当使用者不需要使,可以关闭遮挡模式,当使用者有需要时可以打开遮挡模式。
本实施例所提供的AR眼镜可根据佩戴者的目的自主寻找设定目标物体,并将目标物体通过图像、语音、文字等形式显示在镜片上,提高了高空作业员(高空擦玻璃、悬崖捡垃圾)工作效率;本实施例还可以根据佩戴者的需求,实现通透模式和遮挡模式的切换,使具有特殊症状人员也可适应这种高危工作。另外,该AR眼镜还可以向服务器上报数据,有利于数据的分析。
由于装置部分的实施例与方法部分的实施例相互对应,因此装置部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本申请还提供了一种存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (9)
1.一种图像显示方法,其特征在于,应用于AR眼镜,所述AR眼镜的眼镜内框设置有第一摄像头,所述AR眼镜的眼镜外框设置有第二摄像头,所述图像显示方法包括:
利用所述第一摄像头检测眼镜佩戴者的眼球转动信息;
根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;
判断所述目标图像中是否存在目标物体;
若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像,以便指示所述眼镜佩戴者所述目标物体所在的方位;
其中,所述AR眼镜包括用于检测头部倾斜角度的加速度传感器;
相应的,所述图像显示方法还包括:
根据所述头部倾斜角度和所述眼球转动信息计算所述眼镜佩戴者的可视区域;
将所述可视区域中视角小于预设值的区域设置为待遮挡区域;
确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域;
在所述目标镜片区域中显示预设透明度的预设图片。
2.根据权利要求1所述图像显示方法,其特征在于,若所述目标图像中不存在所述目标物体,还包括:
将所述目标图像对应的区域设置为第一类区域,并更新区域地图;其中,所述区域地图包括第一类区域和第二类区域,所述第一类区域为不包括所述目标物体的区域,所述第二类区域为包括所述目标物体的区域;
通过所述AR眼镜镜片显示更新后的区域地图。
3.根据权利要求2所述图像显示方法,其特征在于,在所述更新区域地图之后,还包括:
根据所述更新后的区域地图中所述第一类区域和所述第二类区域的区域面积比例计算工作完成度,并将所述工作完成度显示至所述AR眼镜镜片。
4.根据权利要求1所述图像显示方法,其特征在于,还包括:
接收安全装置传输的安全监测信息,并通过所述AR眼镜镜片显示所述安全监测信息;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合。
5.根据权利要求1所述图像显示方法,其特征在于,在获取所述第二摄像头调整拍摄角度后采集的目标图像之后,还包括:
对所述目标图像执行图像识别操作,根据图像识别结果确定所述目标图像对应区域的区域地形;
若所述区域地形为危险地形时,则生成对应的提示信息。
6.根据权利要求1所述图像显示方法,其特征在于,获取所述第二摄像头调整拍摄角度后采集的目标图像,包括:
获取所述第二摄像头调整拍摄角度后采集的多张所述目标图像;
相应的,还包括:
确定所有所述目标图像的公共拍摄区域;
按照拍摄顺序依次对相邻的所述目标图像中公共拍摄区域执行相似度比对操作;
根据相似度比对结果判断所述公共拍摄区域是否存在高空坠物;
若是,则生成对应的报警信息。
7.一种AR眼镜,其特征在于,包括:
设置于所述AR眼镜的眼镜内框的第一摄像头,用于拍摄眼镜佩戴者的眼部图片;
设置于所述AR眼镜的眼镜外框的第二摄像头,用于采集目标图像;
分别与所述第一摄像头和所述第二摄像头连接的处理器,用于根据所述眼部图片确定所述眼镜佩戴者的眼球转动信息;还用于根据所述眼球转动信息调整所述第二摄像头的拍摄角度,并获取所述第二摄像头调整拍摄角度后采集的目标图像;还用于判断所述目标图像中是否存在目标物体;若是,则通过AR眼镜镜片显示包括所述目标物体的位置信息的图像,以便指示所述眼镜佩戴者所述目标物体所在的方位;
其中,所述AR眼镜还包括用于检测头部倾斜角度的加速度传感器;
相应的,所述处理器还用于根据所述头部倾斜角度和所述眼球转动信息计算所述眼镜佩戴者的可视区域;还用于将所述可视区域中视角小于预设值的区域设置为待遮挡区域;还用于确定所述AR眼镜镜片中所述眼镜佩戴者观察所述待遮挡区域时视线通过的目标镜片区域;还用于在所述目标镜片区域中显示预设透明度的预设图片。
8.根据权利要求7所述AR眼镜,其特征在于,还包括:
分别与所述处理器和安全装置连接的通信装置,用于将安全装置传输的安全监测信息发送至所述处理器;其中,所述安全装置包括安全带检测装置、血压监测装置和心率检测装置中的任一项或任几项的组合;
相应的,所述处理器还用于通过所述AR眼镜镜片显示所述安全监测信息。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如上权利要求1至6任一项所述图像显示方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010403469.5A CN111552076B (zh) | 2020-05-13 | 2020-05-13 | 一种图像显示方法、ar眼镜及存储介质 |
PCT/CN2020/127358 WO2021227402A1 (zh) | 2020-05-13 | 2020-11-07 | 一种图像显示方法、ar眼镜及存储介质 |
US17/996,459 US11835726B2 (en) | 2020-05-13 | 2020-11-07 | Image display method, AR glasses and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010403469.5A CN111552076B (zh) | 2020-05-13 | 2020-05-13 | 一种图像显示方法、ar眼镜及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111552076A CN111552076A (zh) | 2020-08-18 |
CN111552076B true CN111552076B (zh) | 2022-05-06 |
Family
ID=72004634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010403469.5A Active CN111552076B (zh) | 2020-05-13 | 2020-05-13 | 一种图像显示方法、ar眼镜及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11835726B2 (zh) |
CN (1) | CN111552076B (zh) |
WO (1) | WO2021227402A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111552076B (zh) * | 2020-05-13 | 2022-05-06 | 歌尔科技有限公司 | 一种图像显示方法、ar眼镜及存储介质 |
CN111950520B (zh) * | 2020-08-27 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN114285984B (zh) * | 2020-09-27 | 2024-04-16 | 宇龙计算机通信科技(深圳)有限公司 | 基于ar眼镜的摄像头切换方法、装置、存储介质以及终端 |
CN112558302B (zh) * | 2020-12-08 | 2022-12-20 | 恒玄科技(上海)股份有限公司 | 一种用于确定眼镜姿态的智能眼镜及其信号处理方法 |
CN112712597A (zh) * | 2020-12-21 | 2021-04-27 | 上海影创信息科技有限公司 | 目的地相同用户的轨迹提示方法和系统 |
CN113413593A (zh) * | 2021-07-20 | 2021-09-21 | 网易(杭州)网络有限公司 | 一种游戏画面显示方法、装置、计算机设备及存储介质 |
CN113570624A (zh) * | 2021-07-30 | 2021-10-29 | 平安科技(深圳)有限公司 | 基于智能穿戴眼镜的前景信息提示方法及相关设备 |
CN114327066A (zh) * | 2021-12-30 | 2022-04-12 | 上海曼恒数字技术股份有限公司 | 虚拟现实屏幕的立体显示方法、装置、设备及存储介质 |
CN114815257A (zh) * | 2022-04-25 | 2022-07-29 | 歌尔股份有限公司 | 一种xr眼镜及摄像头调整方法、系统、设备、介质 |
CN115097903B (zh) * | 2022-05-19 | 2024-04-05 | 深圳智华科技发展有限公司 | Mr眼镜控制方法、装置、mr眼镜及存储介质 |
CN115103094A (zh) * | 2022-06-16 | 2022-09-23 | 深圳市天趣星空科技有限公司 | 一种基于注视点的摄像头模组远视角调节方法及系统 |
CN115866388B (zh) * | 2022-11-24 | 2023-06-30 | 广州新城建筑设计院有限公司 | 智能眼镜拍摄控制方法、装置、存储介质及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942419B1 (en) * | 2012-01-06 | 2015-01-27 | Google Inc. | Position estimation using predetermined patterns of light sources |
CN105827960A (zh) * | 2016-03-21 | 2016-08-03 | 乐视网信息技术(北京)股份有限公司 | 一种成像方法及装置 |
CN106662930A (zh) * | 2014-09-17 | 2017-05-10 | 英特尔公司 | 用于调整所捕获的图像的视角以供显示的技术 |
CN107092346A (zh) * | 2017-03-01 | 2017-08-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN207397225U (zh) * | 2017-10-09 | 2018-05-22 | 中山大学中山眼科中心 | 捕捉眼部信息的组件以及控制系统 |
CN108829250A (zh) * | 2018-06-04 | 2018-11-16 | 苏州市职业大学 | 一种基于增强现实ar的对象互动展示方法 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
CN209148966U (zh) * | 2018-11-30 | 2019-07-23 | 歌尔科技有限公司 | 一种头戴设备 |
WO2019233210A1 (zh) * | 2018-06-06 | 2019-12-12 | 北京七鑫易维信息技术有限公司 | 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质 |
CN110647822A (zh) * | 2019-08-30 | 2020-01-03 | 重庆博拉智略科技有限公司 | 高空抛物行为识别方法、装置、存储介质及电子设备 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2729749Y (zh) * | 2004-05-24 | 2005-09-28 | 孙学川 | 心理眼镜 |
KR100947990B1 (ko) * | 2008-05-15 | 2010-03-18 | 성균관대학교산학협력단 | 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법 |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9507416B2 (en) * | 2011-02-22 | 2016-11-29 | Robert Howard Kimball | Providing a corrected view based on the position of a user with respect to a mobile platform |
CN202810048U (zh) * | 2012-09-07 | 2013-03-20 | 林铭昭 | 一种楼梯栏杆的安全挡板 |
US20190272029A1 (en) * | 2012-10-05 | 2019-09-05 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CN106030458B (zh) * | 2013-12-31 | 2020-05-08 | 谷歌有限责任公司 | 用于基于凝视的媒体选择和编辑的系统和方法 |
KR101430614B1 (ko) | 2014-05-30 | 2014-08-18 | 주식회사 모리아타운 | 웨어러블 안경을 이용한 디스플레이 장치 및 그 동작 방법 |
US10567641B1 (en) * | 2015-01-19 | 2020-02-18 | Devon Rueckner | Gaze-directed photography |
TWI576787B (zh) * | 2016-02-05 | 2017-04-01 | 黃宇軒 | 擴增實境影像產生系統及其應用 |
US10890751B2 (en) * | 2016-02-05 | 2021-01-12 | Yu-Hsuan Huang | Systems and applications for generating augmented reality images |
US10477157B1 (en) * | 2016-03-02 | 2019-11-12 | Meta View, Inc. | Apparatuses, methods and systems for a sensor array adapted for vision computing |
JP6738641B2 (ja) * | 2016-04-11 | 2020-08-12 | 株式会社バンダイナムコエンターテインメント | シミュレーション制御装置及びシミュレーション制御プログラム |
CN105955456B (zh) * | 2016-04-15 | 2018-09-04 | 深圳超多维科技有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
CN205812229U (zh) * | 2016-06-23 | 2016-12-14 | 青岛歌尔声学科技有限公司 | 一种头戴显示器、视频输出设备和视频处理系统 |
JP2018036993A (ja) * | 2016-09-02 | 2018-03-08 | オリンパス株式会社 | 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム |
JP2018082363A (ja) * | 2016-11-18 | 2018-05-24 | セイコーエプソン株式会社 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
CN106444088A (zh) * | 2016-11-18 | 2017-02-22 | 无锡新人居科贸有限公司 | 一种新型眼镜 |
CN106933348A (zh) * | 2017-01-24 | 2017-07-07 | 武汉黑金科技有限公司 | 一种基于虚拟现实的脑电神经反馈干预系统及方法 |
CN206711427U (zh) * | 2017-03-13 | 2017-12-05 | 福州众衡时代信息科技有限公司 | 一种基于虚拟现实技术的恐高训练装置 |
GB201709199D0 (en) * | 2017-06-09 | 2017-07-26 | Delamont Dean Lindsay | IR mixed reality and augmented reality gaming system |
EP3642662B1 (en) * | 2017-06-21 | 2023-05-03 | Luxembourg, Itzhak | Magnification glasses with multiple cameras |
EP3628076B1 (en) * | 2017-07-13 | 2024-02-14 | Huawei Technologies Co., Ltd. | Dual mode headset |
KR20190015907A (ko) * | 2017-08-07 | 2019-02-15 | 주식회사 엠투에스 | 고소공포증 치료를 위한 가상 현실 시스템 |
JP2019031362A (ja) * | 2017-08-07 | 2019-02-28 | 株式会社日立ビルシステム | 展望用エレベーター制御システム |
CN109683701A (zh) * | 2017-10-18 | 2019-04-26 | 深圳市掌网科技股份有限公司 | 基于视线跟踪的增强现实交互方法和装置 |
CN109960061A (zh) * | 2017-12-22 | 2019-07-02 | 托普瑞德(无锡)设计顾问有限公司 | 一种便于拆装和调节的带有摄像头的眼镜 |
KR20190089627A (ko) * | 2018-01-23 | 2019-07-31 | 삼성전자주식회사 | Ar 서비스를 제공하는 디바이스 및 그 동작 방법 |
US10825251B2 (en) * | 2018-02-08 | 2020-11-03 | Varian Medical Systems International Ag | Systems and methods for providing medical information and for performing a medically-related process using augmented reality technology |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
US10586394B2 (en) * | 2018-03-01 | 2020-03-10 | Intel Corporation | Augmented reality depth sensing using dual camera receiver |
CN208345545U (zh) * | 2018-05-22 | 2019-01-08 | 上海百通项目管理咨询有限公司 | 一种建筑升降装置 |
EP3572912A1 (en) * | 2018-05-23 | 2019-11-27 | Universitat de Barcelona | Methods and systems for gradual exposure to a fear |
US11151793B2 (en) * | 2018-06-26 | 2021-10-19 | Magic Leap, Inc. | Waypoint creation in map detection |
CN109044373B (zh) * | 2018-07-12 | 2022-04-05 | 济南博图信息技术有限公司 | 基于虚拟现实和眼动脑波检测的恐高症测评系统 |
CN109254659A (zh) * | 2018-08-30 | 2019-01-22 | Oppo广东移动通信有限公司 | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 |
US10930275B2 (en) * | 2018-12-18 | 2021-02-23 | Microsoft Technology Licensing, Llc | Natural language input disambiguation for spatialized regions |
US11320957B2 (en) * | 2019-01-11 | 2022-05-03 | Microsoft Technology Licensing, Llc | Near interaction mode for far virtual object |
CN109829927B (zh) * | 2019-01-31 | 2020-09-01 | 深圳职业技术学院 | 一种电子眼镜及高空景象图像重建方法 |
CN110007466A (zh) * | 2019-04-30 | 2019-07-12 | 歌尔科技有限公司 | 一种ar眼镜及人机交互方法、系统、设备、计算机介质 |
US11698529B2 (en) * | 2019-07-09 | 2023-07-11 | Meta Platforms Technologies, Llc | Systems and methods for distributing a neural network across multiple computing devices |
CN112789543B (zh) * | 2019-09-10 | 2024-01-16 | Lg电子株式会社 | 电子设备 |
CN110824699B (zh) * | 2019-12-25 | 2020-12-04 | 歌尔光学科技有限公司 | 一种近眼显示设备的眼球追踪系统及近眼显示设备 |
CN111552076B (zh) * | 2020-05-13 | 2022-05-06 | 歌尔科技有限公司 | 一种图像显示方法、ar眼镜及存储介质 |
-
2020
- 2020-05-13 CN CN202010403469.5A patent/CN111552076B/zh active Active
- 2020-11-07 WO PCT/CN2020/127358 patent/WO2021227402A1/zh active Application Filing
- 2020-11-07 US US17/996,459 patent/US11835726B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8942419B1 (en) * | 2012-01-06 | 2015-01-27 | Google Inc. | Position estimation using predetermined patterns of light sources |
CN106662930A (zh) * | 2014-09-17 | 2017-05-10 | 英特尔公司 | 用于调整所捕获的图像的视角以供显示的技术 |
CN105827960A (zh) * | 2016-03-21 | 2016-08-03 | 乐视网信息技术(北京)股份有限公司 | 一种成像方法及装置 |
CN107092346A (zh) * | 2017-03-01 | 2017-08-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN207397225U (zh) * | 2017-10-09 | 2018-05-22 | 中山大学中山眼科中心 | 捕捉眼部信息的组件以及控制系统 |
CN108829250A (zh) * | 2018-06-04 | 2018-11-16 | 苏州市职业大学 | 一种基于增强现实ar的对象互动展示方法 |
WO2019233210A1 (zh) * | 2018-06-06 | 2019-12-12 | 北京七鑫易维信息技术有限公司 | 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
CN209148966U (zh) * | 2018-11-30 | 2019-07-23 | 歌尔科技有限公司 | 一种头戴设备 |
CN110647822A (zh) * | 2019-08-30 | 2020-01-03 | 重庆博拉智略科技有限公司 | 高空抛物行为识别方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111552076A (zh) | 2020-08-18 |
US11835726B2 (en) | 2023-12-05 |
WO2021227402A1 (zh) | 2021-11-18 |
US20230213773A1 (en) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111552076B (zh) | 一种图像显示方法、ar眼镜及存储介质 | |
CN109086726B (zh) | 一种基于ar智能眼镜的局部图像识别方法及系统 | |
CN103501406B (zh) | 图像采集系统及图像采集方法 | |
Upenik et al. | A simple method to obtain visual attention data in head mounted virtual reality | |
US20050190989A1 (en) | Image processing apparatus and method, and program and recording medium used therewith | |
JP5730995B2 (ja) | 基本姿勢を推定するための方法 | |
WO2020020022A1 (zh) | 视觉识别方法及其系统 | |
CN107368192B (zh) | Vr眼镜的实景观测方法及vr眼镜 | |
US9928421B2 (en) | Method for helping determine the vision parameters of a subject | |
CN106325511A (zh) | 一种虚拟现实实现系统 | |
CN110826374B (zh) | 监测人眼注视时间的方法和装置、存储介质、电子设备 | |
US20230239457A1 (en) | System and method for corrected video-see-through for head mounted displays | |
CN109901290A (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
CN109828663A (zh) | 瞄准区域的确定方法及装置、瞄准目标物的操作方法 | |
JP6576639B2 (ja) | 電子眼鏡および電子眼鏡の制御方法 | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
KR20090078085A (ko) | 입체 영상 디스플레이 장치 및 그 입체 영상 디스플레이장치에서의 표시부 위치 조절 방법 | |
CN113960788B (zh) | 图像显示方法、装置、ar眼镜及存储介质 | |
CN115103094A (zh) | 一种基于注视点的摄像头模组远视角调节方法及系统 | |
US10783853B2 (en) | Image provision device, method and program that adjusts eye settings based on user orientation | |
CN112435347A (zh) | 一种增强现实的电子书阅读系统及方法 | |
JP2000182058A (ja) | 三次元運動入力方法及び三次元運動入力システム | |
KR20200096492A (ko) | 대상자의 참조 머리 자세를 결정하기 위한 방법 및 장치 | |
CN115834858A (zh) | 显示方法、装置、头戴显示设备及存储介质 | |
CN115955547B (zh) | 一种xr眼镜的摄像头调整方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |