CN110879976A - 自适应智能眼动数据处理系统及其使用方法 - Google Patents
自适应智能眼动数据处理系统及其使用方法 Download PDFInfo
- Publication number
- CN110879976A CN110879976A CN201911080490.XA CN201911080490A CN110879976A CN 110879976 A CN110879976 A CN 110879976A CN 201911080490 A CN201911080490 A CN 201911080490A CN 110879976 A CN110879976 A CN 110879976A
- Authority
- CN
- China
- Prior art keywords
- data
- eye movement
- processing
- state
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000003044 adaptive effect Effects 0.000 title claims description 17
- 238000001914 filtration Methods 0.000 claims abstract description 25
- 238000009499 grossing Methods 0.000 claims abstract description 13
- 230000003993 interaction Effects 0.000 claims abstract description 10
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 238000013500 data storage Methods 0.000 claims abstract description 8
- 238000005286 illumination Methods 0.000 claims abstract description 6
- 238000010191 image analysis Methods 0.000 claims abstract description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000002776 aggregation Effects 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 230000030279 gene silencing Effects 0.000 claims description 2
- 238000003745 diagnosis Methods 0.000 abstract description 4
- 210000001508 eye Anatomy 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001802 infusion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/008—Vector quantisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Ophthalmology & Optometry (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种自适应智能眼动数据处理系统及其使用方法,属于图形图像识别与人机交互事件处理技术领域。所述系统包括参数设置单元、数据采集单元、数据处理单元及控制输出单元,所述参数设置单元用于控制参数及系统参数的设置;所述数据采集单元用于采集面部图像2D数据及环境光照数据;所述数据处理单元包括数据存储归类、信号滤波处理、野值剔除处理及数据平滑处理四个模块;所述控制输出单元包括图像输出模块及音频输出模块。所述系统的使用方法步骤:2D图像采集、2D图像分析、2D转3D模型重建及3D矢量数据转换,得到目光凝视与屏幕的焦点数据。上述系统使眼动仪在更换用户时,无需重新校正,极大缩短了医护人员的诊疗时间。
Description
技术领域
本发明属于图形图像识别与人机交互事件处理技术领域,尤其涉及一种眼动数据处理系统。
背景技术
人机交互技术,是指通过计算机输入输出设备以有效的方式实现人与计算机对话的技术。人机交互技术主要包括两个方面,一方面机器通过输出或显示设备给人提供大量有关信息及提示请示等,另一方面人通过输入设备给机器输入有关信息,回答问题及提示请示等。
人机交互技术在医疗或护理设备领域也得到了广泛的应用,包括医用输液泵、智能护理床等。在使用上述设备时,往往需要对人的面部进行识别,但由于每个人的面部特征都有其独特性与差异性,每次更换用户前都需要先进行校正后才能使用,增加了等待的时间,因此延长了医护人员的诊疗时间,不利于对急诊或抢救的病人进行快速诊治。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一自适应眼动数据处理系统及其使用方法,以解决上述背景技术中提出的问题。
第一方面,提供一种自适应智能眼动数据处理系统。
本发明所述自适应智能眼动数据处理系统,包括参数设置单元、数据采集单元、数据处理单元及控制输出单元。
参数设置单元,主要用于对控制参数及系统参数进行设置。控制参数设置,主要用来设置设备在使用时的控制状态,包括:目光聚焦点光标的显示与关闭;设备控制的灵敏度,分为极快、快、中、慢、缓慢五个档位;眼球模型的校准模式,包括快速校准及标准校准。系统参数设置,主要用来设置软件系统与硬件之间接口的参数,包括设备屏幕尺寸参数及屏幕相对于眼动设备的三维坐标参数(x,y,z)。
数据采集单元,用于采集面部图像2D数据及环境光照数据,过滤掉环境光源中800nm以下的无用光线,只接受系统自带的光源,避免环境光对患者的眼动数据产生影响。
数据处理单元,包括数据存储归类、信号滤波处理、野值剔除处理及数据平滑处理四个模块。所述数据存储归类模块用于存储500ms内的历史数据并不断刷新,对数据状态进行分析,主要包括聚焦状态、移动状态及静默状态,根据存储的数据中中位数的占比,判断数据所处的状态。信号滤波处理模块,采用滤波算法对无用的眼动数据进行过滤处理。野值剔除处理模块,对采集的部分眼动数据在设备屏幕上模拟的汇聚点分析,去除一些超出汇聚点范围及阈值的无用数据点。数据平滑处理模块,在数据状态固定时,采用加权平均算法,数据链中最新数据权重与最远点数据权重比分别为:聚集状态(1:1)、移动状态(1.2:1)、静默状态(1:1);数据状态变化时,采用动态加权平均方法,最新数据与最远点数据权重比在1~1.2间渐变,保障数据结果的平滑顺畅。
控制输出单元,包括图像输出模块及音频输出模块,所述图像输出模块与设备显示屏幕相连,用于采集数据模拟汇聚点位及面部三维模型匹配过程等显示,所述音频输出模块与扬声器相连,用于状态提示及指令声音的输出。
第二方面,提供了所述自适应智能眼动数据处理系统的使用方法。
所述自适应智能眼动数据处理系统的使用方法包括以下步骤:2D图像采集、2D图像分析、2D转3D模型重建、3D矢量数据换算。
2D图像采集,使用数据采集单元进行人脸图像2D数据采集时,采用2个808nm红外光源进行照明,过滤掉800nm以下的无用光线,可通过近红外相机,获取清晰的人脸面部2D图像。
2D图像分析,将采集到的2D图像转化为眼动交互数据,模拟为汇聚点在屏幕上显示,将采集到最近500ms内的数据进行状态分析,分析该数据处于聚焦、移动或静默状态中的哪一种状态,根据数据的不同状态,通过信号滤波处理和野值剔除处理,将无用的眼动数据进行过滤,对采集的部分眼动数据在设备屏幕上模拟的汇聚点分析,去除一些超出汇聚点范围及阈值的无用数据点,将过滤后的有用数据,根据其状态不同,进行数据平滑处理,得到平滑可靠的2D图像数据。
2D转3D模型重建,将采集到的2D图像数据进行旋转和缩放,并与数据库中大量的3D模型进行贴合和比对,找到差异最小的模型,将图像作为贴图替换找到的模型,形成新的面部三维模型。
3D矢量数据转换,采用重建后的3D模型信息,获取人眼部瞳孔与设备屏幕的角度、位置(x,y,z)信息,通过矢量转换,计算出当前人的目光凝视与显示屏的精确焦点数据,将焦点数据反馈给系统的数据处理单元,从而实现人机交互。
本发明具有的有益效果:本发明所述自适应智能眼动数据处理系统,通过采集人脸图像,并对图像进行分析,生成眼动数据3D矢量,与累积的大量不同人群的面部三维数据进行比对,通过三维模型比对与插补,使眼动仪在更换用户时,无需重新校正即可投入使用,极大地缩短了医护人员的诊疗时间,为急诊或抢救患者争取了更大的生存几率,也为很多老年或失能患者等不方便校正人员提供了方便。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本发明自适应智能眼动数据处理系统的系统结构框图;
图2为本发明自适应智能眼动数据处理系统的使用流程图;
图3为采集的数据位于聚焦状态时野值剔除前后对比示意图;
图4为采集的数据处于移动状态时野值剔除前后对比示意图;
图5为红外相机采集人面部2D图像原理示意图;
图6为通过3D矢量转换得到眼部坐标原理示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
实施例一
如图1所示,所述自适应智能眼动数据处理系统包括参数设置单元、数据采集单元、数据处理单元及控制输出单元。
所述参数设置单元,主要用于控制参数设置及系统参数设置。控制参数设置,主要用来设置设备在使用时的控制状态,包括:目光聚焦点光标的显示与关闭;设备控制的灵敏度,分为极快、快、中、慢、缓慢五个档位;眼球模型的加载,包括左眼模型及右眼模型;眼球模型的校准模式,包括快速校准及标准校准。系统参数设置,主要用来设置软件系统与硬件之间接口的参数,包括设备屏幕参数及屏幕相对于眼动设备的三维坐标参数(x,y,z),其中屏幕参数包括屏幕的尺寸、分辨率等。
所述数据采集单元,包括面部2D图像数据采集及环境光照数据采集。面部数据采集是指采集人的面部2D图像。环境光照数据会对人的面部图像采集有很大影响。一般环境光对人眼可见的范围为波长600nm~900nm,当波长大于900nm以上时,眼睛的视觉为黑色。当波长在600~800nm之间时,光线的变化极大,对面部图像的采集会产生很大影响。因此本系统配备两个808nm的红外照明光源,在接收光线采集数据时,使用长波过滤,过滤掉800nm以下的对图像采集不利的光线,避免复杂的环境光线对面部数据采集产生影响。
数据处理单元,包括数据存储归类、信号滤波处理、野值剔除处理及数据平滑处理四个模块。
数据存储归类模块,主要用于数据存储及数据归类,对红外相机采集到的最近500ms的历史数据进行存储,并不断进行刷新,保证所得数据为最近500ms内的,并确定采集当前数据时人眼所处的状态。人眼凝视某物时会有三种状态:a、连续性地盯住某一事物;b、移动至另一事物;c、无凝视。所以对应三种人眼凝视状态,采集的数据会有三种状态:a、聚焦状态;b、移动状态;c、静默状态。
对当前存储的数据进行分析,判断中位数在存储的数据总量中所占的比例。中位数为均值,是某一阈值范围内的数值组。取中位数数值组,比对其他数据与中位数数值的占比,分析中位数的占比变化率,如果变化率为正,则说明当前数据处于汇聚状态,人眼凝视处于聚焦状态;如果中位数的占比变化率连续为负,则说明人眼当前凝视处于移动状态,从一目标转移到另一目标;如果无新增数据组,或者新增数据超过了阈值,则该数据处于静默状态,对应的人眼无凝视。
信号滤波处理模块,采用滤波算法对无用的眼动数据进行过滤处理,包括人眼未凝视眼动仪时采集的人脸图像数据以及受其他光线干扰下采集到的无用数据,使经过滤后的数据更加准确合理。
野值剔除处理模块,所谓“野值”,是指在本设备的交互使用时产生的无用数据。这些无用数据包含:眨眼造成的视线瞬间下移数据、目光闪烁大过一定阈值的数据以及与近期数据偏差过大的数据。这些野值会造成目光焦点定位紊乱或错误闪烁,影响设备使用时的精确度与感知效果,因此野值的剔除处理是数据处理单元的重要一环。如图3所示,所有黑色点为采集到的部分眼动交互数据在屏幕上的汇聚点模拟,图3(a)为剔除野值前聚焦状态时的汇聚点模拟,数据更多地倾向于往某一点汇聚,对于超过一定阈值参数的数据,进行标记,并计算剔除,并取被剔除点最近两点的均值进行补位,剔除后的结果如图3(b)所示。图4所示为移动状态下剔除野值前后汇聚点对比示意图,(a)为剔除前汇聚点示意图,数据点为一系列平滑过度的点,通过标记,剔除超过阈值的无用点,剔除后取相邻两点的均值进行补位,剔除野值后的汇聚点如图4(b)所示。
数据平滑处理模块,当数据状态位于聚焦、移动或静默中任一状态,且保持不变时,采用加权平均算法,数据链中最新数据权重与最远点数据权重比分别为:聚集状态(1:1)、移动状态(1.2:1)、静默状态(1:1);数据状态变化时,需逐步切换状态,采用动态加权平均,使最新数据与最远点数据权重比在1~1.2间渐变,保障数据结果的平滑顺畅。
控制输出单元,包括图像输出模块及音频输出模块,所述图像输出模块与设备显示屏幕相连,用于采集数据模拟汇聚点位及面部三维模型匹配过程等显示,所述音频输出模块与扬声器相连,用于状态提示及指令声音的输出。
如图2所示,所述自适应智能眼动数据处理系统的使用方法,包括以下步骤:2D图像采集、2D图像分析、2D转3D模型重建、3D矢量数据换算。
2D图像采集,如图5所示,使用数据采集单元进行人脸图像数据采集时,采用2个808nm红外光源进行照明,过滤掉800nm以下的无用光线,可通过近红外相机,获取清晰的人脸面部2D图像。
2D图像分析,将采集到的2D图像转化为眼动交互数据,模拟为汇聚点在屏幕上显示,将采集到的最近500ms内的数据进行状态分析,分析该数据处于聚焦、移动或静默状态中的哪一种状态,根据数据的不同状态,通过信号滤波处理和野值剔除处理,将无用的眼动数据进行过滤,然后将过滤后的有用数据,根据其状态不同,进行数据平滑处理。数据位于任一状态且保持不变时,采用加权平均算法,数据链中最新数据权重与最远点数据权重比分别为:聚集状态(1:1)、移动状态(1.2:1)、静默状态(1:1);数据状态连续变化时,需逐步切换状态,采用动态加权平均,使最新数据与最远点数据权重比在1~1.2间渐变,得到平滑可靠的2D图像数据。
2D转3D模型重建,结合相机本身的参数,与获取到的2D图片的像素点信息,将采集到的2D图像数据进行旋转和缩放,使用一定的锐化算法,增强并恢复图片中的细节。分析场景的明暗状态,获取物体景深信息等三维立体数据,将二维坐标转换为三维坐标,使其拥有三维方向矢量数据,将拥有景深信息的图片与数据库中大量的3D模型进行贴合和比对,找到差异最小的模型,将图像作为贴图替换找到的模型,形成新的面部三维模型,作为眼部瞳孔位置数据计算的模型依据。
3D矢量数据转换,如图6所示,采用重建后的3D模型信息,获取人眼部瞳孔与设备屏幕的角度、位置(x,y,z)信息,通过矢量转换,计算出当前人的目光凝视与显示屏的精确焦点数据,将焦点数据反馈给系统的数据处理单元,从而实现人机交互。
上实施例仅说明发明的技术方案而非对其限制,尽管参照各实施例对本发明进行详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (7)
1.一种自适应智能眼动数据处理系统,其特征在于:包括
参数设置单元,所述参数设置单元用于对控制参数及系统参数进行设置;
数据采集单元,用于采集面部图像2D数据及环境光照数据;
数据处理单元,用于对采集的数据进行状态归类,过滤无用眼动数据,剔除超阈值数据点,并对数据进行平滑处理;
控制输出单元,包括图像输出模块及音频输出模块,所述图像输出模块与设备显示屏幕相连,所述音频输出模块与扬声器相连。
2.如权利要求1所述一种自适应智能眼动数据处理系统,其特征在于:所述数据处理单元包括数据存储归类、信号滤波处理、野值剔除处理及数据平滑处理四个模块,所述数据存储归类模块包括存储最近500ms内的历史数据并分析所述数据处于聚焦、移动或静默中的何种状态;所述信号滤波处理模块用滤波算法对无用的眼动数据进行过滤处理;所述野值剔除处理模块,用于对采集的部分眼动数据在设备屏幕上模拟的汇聚点分析,并去除一些超出汇聚点范围及阈值的无用数据点;所述数据平滑处理模块,在数据状态固定时采用加权平均算法,数据状态变化时,采用动态加权平均算法,使所得数据结果平滑可靠。
3.如权利要求2所述一种自适应智能眼动数据处理系统,其特征在于:所述数据平滑处理模块,在数据状态固定时,采用加权平均算法,数据链中最新数据权重与最远点数据权重比分别为:聚集状态(1:1)、移动状态(1.2:1)、静默状态(1:1)。
4.如权利要求2所述一种自适应智能眼动数据处理系统,其特征在于:所述数据平滑处理模块,在数据状态变化时,采用动态加权平均算法,最新数据与最远点数据权重比在1~1.2间变化。
5.如权利要求1所述一种自适应智能眼动数据处理系统的使用方法,其特征在于,包括以下步骤:
S1、2D图像采集,所述数据采集单元过滤掉环境中800nm以下无用光线,利用红外相机采集清晰的人面部2D图像;
S2、2D图像分析,将采集到的2D图像转化为眼动交互数据,模拟为汇聚点在屏幕上显示,将采集到的最近500ms内的数据进行状态分析,分析该数据处于聚焦、移动或静默的何种状态,通过信号滤波处理和野值剔除处理,过滤无用的眼动数据,进行数据平滑处理,得到平滑可靠的2D图像数据;
S3、2D转3D模型重建,将采集到的2D图像数据进行旋转和缩放,并与数据库中的3D模型进行贴合和比对,找到差异最小的模型,将图像作为贴图替换找到的模型,形成新的面部三维模型;
S4、3D矢量数据转换,采用重建后的3D模型信息,获取人眼部瞳孔与设备屏幕的角度、位置信息,通过矢量转换,计算出当前人的目光凝视与显示屏的精确焦点数据。
6.如权利要求5所述一种自适应智能眼动数据处理系统的使用方法,其特征在于:所述步骤S2中信号滤波处理为使用滤波算法对无用的眼动数据进行过滤处理。
7.如权利要求5所述一种自适应智能眼动数据处理系统的使用方法,其特征在于:所述步骤S2中的野值剔除处理是对采集的部分眼动数据在设备屏幕上模拟的汇聚点分析,并去除一些超出汇聚点范围及阈值的无用数据点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911080490.XA CN110879976B (zh) | 2019-12-20 | 2019-12-20 | 自适应智能眼动数据处理系统及其使用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911080490.XA CN110879976B (zh) | 2019-12-20 | 2019-12-20 | 自适应智能眼动数据处理系统及其使用方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110879976A true CN110879976A (zh) | 2020-03-13 |
CN110879976B CN110879976B (zh) | 2023-04-21 |
Family
ID=69728772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911080490.XA Active CN110879976B (zh) | 2019-12-20 | 2019-12-20 | 自适应智能眼动数据处理系统及其使用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110879976B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836747A (zh) * | 2021-02-02 | 2021-05-25 | 首都师范大学 | 眼动数据的离群处理方法及装置、计算机设备、存储介质 |
CN114690909A (zh) * | 2022-06-01 | 2022-07-01 | 润芯微科技(江苏)有限公司 | 一种ai视觉自适应的方法、装置、系统、计算机可读介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787884A (zh) * | 2014-12-18 | 2016-07-20 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
WO2019128677A1 (zh) * | 2017-12-29 | 2019-07-04 | 北京七鑫易维信息技术有限公司 | 基于眼动分析设备的确定注视点的方法和装置 |
-
2019
- 2019-12-20 CN CN201911080490.XA patent/CN110879976B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105787884A (zh) * | 2014-12-18 | 2016-07-20 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
WO2019128677A1 (zh) * | 2017-12-29 | 2019-07-04 | 北京七鑫易维信息技术有限公司 | 基于眼动分析设备的确定注视点的方法和装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈瑜;李锦涛;徐军莉;陈威月;: "基于眼动特征的驾驶员疲劳预警系统设计" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836747A (zh) * | 2021-02-02 | 2021-05-25 | 首都师范大学 | 眼动数据的离群处理方法及装置、计算机设备、存储介质 |
CN114690909A (zh) * | 2022-06-01 | 2022-07-01 | 润芯微科技(江苏)有限公司 | 一种ai视觉自适应的方法、装置、系统、计算机可读介质 |
CN114690909B (zh) * | 2022-06-01 | 2022-08-16 | 润芯微科技(江苏)有限公司 | 一种ai视觉自适应的方法、装置、系统、计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110879976B (zh) | 2023-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Garbin et al. | Openeds: Open eye dataset | |
CN111868737A (zh) | 使用神经网络的基于事件相机的注视跟踪 | |
JP5047798B2 (ja) | コンピュータグラフィックスアニメーション用に顔面筋および眼球の運動を追跡するためのシステムおよび方法 | |
US11503998B1 (en) | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases | |
JP2022527818A (ja) | ユーザの眼に関連する幾何学的変数を推定する方法及びシステム | |
Garbin et al. | Dataset for eye tracking on a virtual reality platform | |
CN110879976B (zh) | 自适应智能眼动数据处理系统及其使用方法 | |
Wu et al. | Appearance-based gaze block estimation via CNN classification | |
CN110472546B (zh) | 一种婴幼儿非接触式眼动特征提取装置及方法 | |
Alva et al. | An image based eye controlled assistive system for paralytic patients | |
Longin et al. | Augmenting perception: How artificial intelligence transforms sensory substitution | |
WO2024140417A1 (zh) | 可穿戴扩展现实设备的人机交互采集方法、装置和系统 | |
CN117056786A (zh) | 非接触式应激状态识别方法与系统 | |
CN113452985A (zh) | 装置和头戴式套件 | |
CN117409038A (zh) | 一种眼动追踪方法、装置、电子设备及计算机存储介质 | |
CN118402010A (zh) | 对人执行视力测试程序的方法和设备 | |
Parada et al. | ExpertEyes: Open-source, high-definition eyetracking | |
KR101501165B1 (ko) | 눈동자 추적을 이용한 안구 마우스 | |
CN116503475A (zh) | 一种基于深度学习的vrar双目3d目标定位方法 | |
Srisabarimani et al. | A Solution for Monitoring the Eye's Viewing Distance from Electronical Displays | |
Lindén | Calibration in deep-learning eye tracking | |
US20240062400A1 (en) | Eye movement analysis method and system | |
US12033299B2 (en) | Interaction training system for autistic patient using image warping, method for training image warping model, and computer readable storage medium including executions causing processor to perform same | |
Abbas et al. | Eye-to-text communication based on human-computer interface method | |
Chang | Appearance-based gaze estimation and applications in healthcare |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |