CN112633128A - 余光区域中感兴趣对象信息的推送方法和系统 - Google Patents
余光区域中感兴趣对象信息的推送方法和系统 Download PDFInfo
- Publication number
- CN112633128A CN112633128A CN202011505517.8A CN202011505517A CN112633128A CN 112633128 A CN112633128 A CN 112633128A CN 202011505517 A CN202011505517 A CN 202011505517A CN 112633128 A CN112633128 A CN 112633128A
- Authority
- CN
- China
- Prior art keywords
- real object
- area
- glasses wearer
- afterglow
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000011521 glass Substances 0.000 claims abstract description 96
- 238000012544 monitoring process Methods 0.000 claims description 6
- 241000009328 Perro Species 0.000 abstract description 14
- 230000002159 abnormal effect Effects 0.000 abstract description 4
- 230000009467 reduction Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种余光区域中感兴趣对象信息的推送方法和系统,包括:注视点获取步骤:获取AR眼镜佩戴者的注视点;余光区域获取步骤:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;对象跟踪步骤:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。本发明对余光区域中感兴趣对象进行跟踪,跟踪通过画面的图像识别处理来实现,并在跟踪对象的行为发生异常时,例如宠物狗离开了视线,则推送报警信息给AR眼镜佩戴者。
Description
技术领域
本发明涉及AR领域,具体地,涉及余光区域中感兴趣对象信息的推送方法和系统。
背景技术
专利文献CN109145566A提供了一种基于注视点信息解锁AR眼镜的方法、装置及AR眼镜,涉及虚拟现实技术领域。本发明实施例提供的基于注视点信息解锁AR眼镜的方法、装置及AR眼镜,采集用户的注视点的信息,根据注视点的信息,生成解锁信息,将解锁信息与预存的解锁秘钥进行比对;根据比对结果,判断是否解锁AR眼镜。与现有的解锁方式相比,提高了解锁操作的便捷性,改善了用户体验。在已知解锁信息的情况下不易犯错,在不知解锁信息的情况下,很难通过穷举法破解,进一步提高了设备的使用安全性。
专利文献CN109298780A提供一种基于AR的信息处理方法、装置、AR设备及存储介质。本发明实施例的方法,通过在用户使用AR设备过程中,当用户眼球注视目标物体时,能够获取到用户眼球所注视的目标物体的图像信息,根据目标物体的图像信息获取目标物体的相关信息,并将目标物体的相关信息叠加到用户视野范围内的AR场景图像中,从而可以实时地根据用户注视点,将搜索到用户所注视的物体的任何相关信息叠加到AR场景图像中,极大地丰富了叠加到AR场景中的虚拟信息;并且可以根据用户关注点的不同,向用户展示用户所关注的物体的相关信息,无需为AR场景或者AR场景中的部分物体绑定对应的虚拟信息,可以实现AR场景中虚拟信息个性化叠加。
现有技术的不足之处是,没有充分利用余光区域。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种余光区域中感兴趣对象信息的推送方法和系统。
根据本发明提供的一种余光区域中感兴趣对象信息的推送方法,包括:
注视点获取步骤:获取AR眼镜佩戴者的注视点;
余光区域获取步骤:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;
对象跟踪步骤:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。
优选地,所述预设行为包括感兴趣现实对象离开余光区域。
优选地,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向。
优选地,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。
优选地,包括:
偏好获取步骤:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息;
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次;将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。
根据本发明提供的一种余光区域中感兴趣对象信息的推送系统,包括:
注视点获取模块:获取AR眼镜佩戴者的注视点;
余光区域获取模块:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;
对象跟踪模块:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。
优选地,所述预设行为包括感兴趣现实对象离开余光区域。
优选地,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向。
优选地,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。
优选地,包括:
偏好获取模块:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息;
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次;将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。
与现有技术相比,本发明具有如下的有益效果:
本发明对余光区域中感兴趣对象进行跟踪,跟踪通过画面的图像识别处理来实现,并在跟踪对象的行为发生异常时,例如宠物狗离开了视线,则推送报警信息给AR眼镜佩戴者。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明方法的步骤流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种余光区域中感兴趣对象信息的推送方法,包括:
注视点获取步骤:获取AR眼镜佩戴者的注视点;具体地,根据AR眼镜佩戴者的眼部信息可以得到AR眼镜佩戴者的注视点的位置。本领域技术人员至少可以参照专利文献CN105812777B实现注视点的获取,在此不予赘述。
余光区域获取步骤:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;在一个优选例中,将距离注视点设定距离之外的区域作为余光区域;或者是,将AR眼镜佩戴者的视界区域网格化划分,将与AR眼镜佩戴者的注视点所在网格不相邻的网格区域作为余光区域。其中,所述网格采用行列排布的网格。进一步优选地,网格化可以是分别将每个眼镜的视界区域划分为5行6列的网格。
对象跟踪步骤:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。所述预设行为包括感兴趣现实对象离开余光区域。本发明对余光区域中感兴趣对象进行跟踪,跟踪通过画面的图像识别处理来实现,并在跟踪对象的行为发生异常时,例如宠物狗离开了视线,则推送报警信息给AR眼镜佩戴者。在优选例中,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向,这样有助于AR眼镜佩戴者遵循箭头寻找感兴趣现实对象。
在一个变化例中,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。例如,AR眼镜通过语音播报报警信息,又例如,AR眼镜在镜片上闪烁现实报警程序界面,还例如,AR眼镜突然将感兴趣现实对象用高亮的轮廓线标示等等,以足够引起AR眼镜佩戴者的关注。
偏好获取步骤:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息。本发明中余光区域也是使用者的感兴趣区域,例如使用者始终让自己的宠物狗位于自己的余光区域中,以持续注意宠物狗的行为。通过比较不同时间下余光区域中内容的共性信息,从而可以发现余光区域中的感兴趣现实对象。
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次。将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。对于作为AR眼镜佩戴者的偏好的现实对象,在余光区域中进行高亮现实。例如宠物狗曾被注视过,将宠物狗的图像作为比对模版进行存储,将余光区域中的待识别现实对象与模版匹配,得到该现实对象为宠物狗,大为增加了识别率。且同时利用了注视点与余光区域的兴趣信息。
余光区域图像处理步骤:将位于AR眼镜佩戴者的余光区域中的虚拟对象进行降画质处理后显示。所述降画质处理包括:降低虚拟对象的分辨率。所述降画质处理包括:令虚拟对象模糊。本发明考虑到余光区域在现实视觉中是模糊的,因此没必要在余光区域中投入图形处理能力,并且余光区域很清晰反而不真实,因此经过较简单的算力处理后显示为余光区域。具体地,所述虚拟对象为程序界面,降低画质处理中可以仅仅显示程序界面的轮廓或者边缘,或者不对程序界面进行渲染。
尤其是,所述余光区域中感兴趣对象信息的推送方法包括:
提前加载步骤:根据注视点的运动轨迹预判注视点将到达的当前的余光区域,令所述注视点将到达的余光区域的程序界面按照非降画质的要求提前加载渲染;其中,可以将注视点的超过设定距离阈值的运动轨迹的延长线所接触的当前的余光区域,例如延长线所接触到的当前作为余光区域的网格区域,认为是所述注视点将到达的余光区域。
根据本发明提供的一种余光区域中感兴趣对象信息的推送系统,包括:
注视点获取模块:获取AR眼镜佩戴者的注视点;具体地,根据AR眼镜佩戴者的眼部信息可以得到AR眼镜佩戴者的注视点的位置。本领域技术人员至少可以参照专利文献CN105812777B实现注视点的获取,在此不予赘述。
余光区域获取模块:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;在一个优选例中,将距离注视点设定距离之外的区域作为余光区域;或者是,将AR眼镜佩戴者的视界区域网格化划分,将与AR眼镜佩戴者的注视点所在网格不相邻的网格区域作为余光区域。其中,所述网格采用行列排布的网格。
对象跟踪模块:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。所述预设行为包括感兴趣现实对象离开余光区域。本发明对余光区域中感兴趣对象进行跟踪,跟踪通过画面的图像识别处理来实现,并在跟踪对象的行为发生异常时,例如宠物狗离开了视线,则推送报警信息给AR眼镜佩戴者。在优选例中,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向,这样有助于AR眼镜佩戴者遵循箭头寻找感兴趣现实对象。
在一个变化例中,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。例如,AR眼镜通过语音播报报警信息,又例如,AR眼镜在镜片上闪烁现实报警程序界面,还例如,AR眼镜突然将感兴趣现实对象用高亮的轮廓线标示等等,以足够引起AR眼镜佩戴者的关注。
偏好获取模块:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息。本发明中余光区域也是使用者的感兴趣区域,例如使用者始终让自己的宠物狗位于自己的余光区域中,以持续注意宠物狗的行为。通过比较不同时间下余光区域中内容的共性信息,从而可以发现余光区域中的感兴趣现实对象。
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次。将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。对于作为AR眼镜佩戴者的偏好的现实对象,在余光区域中进行高亮现实。例如宠物狗曾被注视过,将宠物狗的图像作为比对模版进行存储,将余光区域中的待识别现实对象与模版匹配,得到该现实对象为宠物狗,大为增加了识别率。且同时利用了注视点与余光区域的兴趣信息。
余光区域图像处理模块:将位于AR眼镜佩戴者的余光区域中的虚拟对象进行降画质处理后显示。所述降画质处理包括:降低虚拟对象的分辨率。所述降画质处理包括:令虚拟对象模糊。本发明考虑到余光区域在现实视觉中是模糊的,因此没必要在余光区域中投入图形处理能力,并且余光区域很清晰反而不真实,因此经过较简单的算力处理后显示为余光区域。具体地,所述虚拟对象为程序界面,降低画质处理中可以仅仅显示程序界面的轮廓或者边缘,或者不对程序界面进行渲染。
尤其是,所述余光区域中感兴趣对象信息的推送系统包括:
提前加载模块:根据注视点的运动轨迹预判注视点将到达的当前的余光区域,令所述注视点将到达的余光区域的程序界面按照非降画质的要求提前加载渲染;其中,可以将注视点的超过设定距离阈值的运动轨迹的延长线所接触的当前的余光区域,例如延长线所接触到的当前作为余光区域的网格区域,认为是所述注视点将到达的余光区域。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种余光区域中感兴趣对象信息的推送方法,其特征在于,包括:
注视点获取步骤:获取AR眼镜佩戴者的注视点;
余光区域获取步骤:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;
对象跟踪步骤:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。
2.根据权利要求1所述的余光区域中感兴趣对象信息的推送方法,其特征在于,所述预设行为包括感兴趣现实对象离开余光区域。
3.根据权利要求2所述的余光区域中感兴趣对象信息的推送方法,其特征在于,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向。
4.根据权利要求1所述的余光区域中感兴趣对象信息的推送方法,其特征在于,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。
5.根据权利要求1所述的余光区域中感兴趣对象信息的推送方法,其特征在于,包括:
偏好获取步骤:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息;
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次;将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。
6.一种余光区域中感兴趣对象信息的推送系统,其特征在于,包括:
注视点获取模块:获取AR眼镜佩戴者的注视点;
余光区域获取模块:根据AR眼镜佩戴者的注视点,确定AR眼镜佩戴者的余光区域;
对象跟踪模块:对于余光区域中的感兴趣现实对象进行跟踪,并在感兴趣现实对象发生预设行为时,向AR眼镜佩戴者进行提示。
7.根据权利要求6所述的余光区域中感兴趣对象信息的推送系统,其特征在于,所述预设行为包括感兴趣现实对象离开余光区域。
8.根据权利要求7所述的余光区域中感兴趣对象信息的推送系统,其特征在于,所述提示包括通过箭头指示感兴趣现实对象离开余光区域的离开方向。
9.根据权利要求6所述的余光区域中感兴趣对象信息的推送系统,其特征在于,所述预设行为包括感兴趣现实对象与AR眼镜佩戴者之间的距离大于预设监视距离,则提示AR眼镜佩戴者转移注视点。
10.根据权利要求6所述的余光区域中感兴趣对象信息的推送系统,其特征在于,包括:
偏好获取模块:对余光区域中的现实环境中的现实对象进行识别,并将被识别到的次数超过次数阈值的现实对象作为AR眼镜佩戴者的感兴趣现实对象,根据所述偏好向AR眼镜佩戴者提供推荐信息;
若一现实对象在余光区域中持续出现的时间大于时间阈值,且然后被AR眼镜佩戴者的注视点注视,则将该现实对象被识别到的次数增加1次;将AR眼镜佩戴者的注视点注视过的现实对象的图像作为比对模版存储,在余光区域识别现实对象时,将待识别的现实对象与比对模版进行匹配,来识别现实对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011505517.8A CN112633128A (zh) | 2020-12-18 | 2020-12-18 | 余光区域中感兴趣对象信息的推送方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011505517.8A CN112633128A (zh) | 2020-12-18 | 2020-12-18 | 余光区域中感兴趣对象信息的推送方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112633128A true CN112633128A (zh) | 2021-04-09 |
Family
ID=75317152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011505517.8A Pending CN112633128A (zh) | 2020-12-18 | 2020-12-18 | 余光区域中感兴趣对象信息的推送方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633128A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110116580A (ko) * | 2010-04-19 | 2011-10-26 | 국방과학연구소 | 헤드 트랙커 및 아이 트랙커가 통합된 시선 추적 시스템 및 그 방법 |
US20140168056A1 (en) * | 2012-12-19 | 2014-06-19 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
CN107014378A (zh) * | 2017-05-22 | 2017-08-04 | 中国科学技术大学 | 一种视线跟踪瞄准操控系统及方法 |
KR101842210B1 (ko) * | 2017-03-02 | 2018-03-27 | (주)유투 시스템 | 시선 추적 기반 콘텐츠 제공 방법 및 장치 |
WO2018076202A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
FR3062938A1 (fr) * | 2017-02-14 | 2018-08-17 | Thales | Dispositif et procede d'analyse du regard en temps reel |
CN108960937A (zh) * | 2018-08-10 | 2018-12-07 | 陈涛 | Ar智能眼镜的应用基于眼动追踪技术的广告推送方法 |
CN110187774A (zh) * | 2019-06-06 | 2019-08-30 | 北京悉见科技有限公司 | 光学透视式的ar设备及其实体标注方法 |
CN110858300A (zh) * | 2018-08-22 | 2020-03-03 | 福特全球技术公司 | 车辆乘员的眼睛注视跟踪 |
CN111007939A (zh) * | 2019-11-25 | 2020-04-14 | 华南理工大学 | 一种基于深度感知的虚拟现实系统空间定位方法 |
-
2020
- 2020-12-18 CN CN202011505517.8A patent/CN112633128A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110116580A (ko) * | 2010-04-19 | 2011-10-26 | 국방과학연구소 | 헤드 트랙커 및 아이 트랙커가 통합된 시선 추적 시스템 및 그 방법 |
US20140168056A1 (en) * | 2012-12-19 | 2014-06-19 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
WO2018076202A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
FR3062938A1 (fr) * | 2017-02-14 | 2018-08-17 | Thales | Dispositif et procede d'analyse du regard en temps reel |
KR101842210B1 (ko) * | 2017-03-02 | 2018-03-27 | (주)유투 시스템 | 시선 추적 기반 콘텐츠 제공 방법 및 장치 |
CN107014378A (zh) * | 2017-05-22 | 2017-08-04 | 中国科学技术大学 | 一种视线跟踪瞄准操控系统及方法 |
CN108960937A (zh) * | 2018-08-10 | 2018-12-07 | 陈涛 | Ar智能眼镜的应用基于眼动追踪技术的广告推送方法 |
CN110858300A (zh) * | 2018-08-22 | 2020-03-03 | 福特全球技术公司 | 车辆乘员的眼睛注视跟踪 |
CN110187774A (zh) * | 2019-06-06 | 2019-08-30 | 北京悉见科技有限公司 | 光学透视式的ar设备及其实体标注方法 |
CN111007939A (zh) * | 2019-11-25 | 2020-04-14 | 华南理工大学 | 一种基于深度感知的虚拟现实系统空间定位方法 |
Non-Patent Citations (4)
Title |
---|
RENNER P , PFEIFFER T: "Attention guiding techniques using peripheral vision and eye tracking for feedback in augmented-reality-based assistance systems", IEEE SYMPOSIUM ON 3D USER INTERFACES, pages 186 - 194 * |
王剑, 赵歆波, 马钟等: "基于眼动交互的增强现实抬头显示系统", .科学技术与工程, vol. 17, no. 2, pages 81 - 87 * |
赵孟凯;张菁;卓力;沈兰荪;: "基于视点跟踪的感兴趣区检测方法", 数据采集与处理, no. 1, pages 54 - 59 * |
赵新灿;左洪福;徐兴民;: "基于视线跟踪的增强现实交互", 光电工程, no. 4, pages 139 - 143 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI741512B (zh) | 駕駛員注意力監測方法和裝置及電子設備 | |
CN108846365B (zh) | 视频中打架行为的检测方法、装置、存储介质及处理器 | |
USRE40014E1 (en) | Method for presenting high level interpretations of eye tracking data correlated to saved display images | |
CN107111629B (zh) | 用于检测感兴趣的对象的方法和系统 | |
Eisma et al. | Visual sampling processes revisited: Replicating and extending Senders (1983) using modern eye-tracking equipment | |
US11314089B2 (en) | Method and device for evaluating view images | |
KR20150096319A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
US11579686B2 (en) | Method and device for carrying out eye gaze mapping | |
CN112101123B (zh) | 一种注意力检测方法及装置 | |
Howard et al. | Suspiciousness perception in dynamic scenes: a comparison of CCTV operators and novices | |
Moacdieh et al. | Using eye tracking to detect the effects of clutter on visual search in real time | |
Ulahannan et al. | Using glance behaviour to inform the design of adaptive HMI for partially automated vehicles | |
Hild et al. | Gaze-based moving target acquisition in real-time full motion video | |
Weidemann et al. | Confusion and compensation in visual perception: effects of spatiotemporal proximity and selective attention. | |
CN112633128A (zh) | 余光区域中感兴趣对象信息的推送方法和系统 | |
CN109298782B (zh) | 眼动交互方法、装置及计算机可读存储介质 | |
CN112861633A (zh) | 一种基于机器学习的图像识别方法、设备及存储介质 | |
CN112669578B (zh) | 余光区域中基于声源的感兴趣对象告警方法和系统 | |
US20210335492A1 (en) | Automated techniques for testing prospective memory | |
Ahlstrom et al. | A generalized method to extract visual time-sharing sequences from naturalistic driving data | |
CN112633273A (zh) | 基于余光区域的用户偏好处理方法和系统 | |
CN114967128B (zh) | 一种应用于vr眼镜的视线追踪系统及方法 | |
JP2021026744A (ja) | 情報処理装置、画像認識方法及び学習モデル生成方法 | |
Caudek et al. | Priming effects under correct change detection and change blindness | |
Wood et al. | Now or never: noticing occurs early in sustained inattentional blindness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |