CN113741697A - 一种多模态融合技术的体感操作系统、方法、眼镜、装置 - Google Patents

一种多模态融合技术的体感操作系统、方法、眼镜、装置 Download PDF

Info

Publication number
CN113741697A
CN113741697A CN202111047806.2A CN202111047806A CN113741697A CN 113741697 A CN113741697 A CN 113741697A CN 202111047806 A CN202111047806 A CN 202111047806A CN 113741697 A CN113741697 A CN 113741697A
Authority
CN
China
Prior art keywords
information
somatosensory
fusion
eyeball
brain wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111047806.2A
Other languages
English (en)
Inventor
王森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Yuanxin Intelligent Technology Co ltd
Original Assignee
Xiamen Yuanxin Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Yuanxin Intelligent Technology Co ltd filed Critical Xiamen Yuanxin Intelligent Technology Co ltd
Priority to CN202111047806.2A priority Critical patent/CN113741697A/zh
Publication of CN113741697A publication Critical patent/CN113741697A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Neurosurgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种多模态融合技术的体感操作系统、方法、眼镜、装置,属于体感技术领域;本发明系统包括:脑电波信息获取模块、体感信息获取模块、眼球信息获取模块、融合分析模块、交互反馈模块;本发明基于多模态的融合,从脑电波的识别获取出发结合体感、眼球多模态信息,并将其进行融合,进而实现更加智慧的辅助体感操作;本发明是基于虚拟空间与现实环境的交互,对于虚拟环境下基于人体的多模态信息融合,进而实现用户与虚拟空间假设的虚拟人物进行智能交互,利用多模态信息的融合,智能研判用户的意图,并将意图转化实现虚拟人物的智能交互,能够大大提升虚拟人物在虚拟场景中的拟人化,对于建立人‑机、数字孪生工程有着巨大的帮助。

Description

一种多模态融合技术的体感操作系统、方法、眼镜、装置
技术领域
本发明属于体感技术领域,特别涉及一种多模态融合技术的体感操作系统、方法、眼镜、装置。
背景技术
多模态机器学习,旨在通过机器学习的方法实现处理和理解多源模态信息的能力。目前比较热门的研究方向是图像、视频、音频、语义之间的多模态学习。多模态学习从1970年代起步,经历了几个发展阶段,在2010后全面步入Deep Learning阶段。人其实是一个多模态学习的总和;多模态学习是未来人工智能的发展方向。随着计算机能力的提升,虚拟现实、增强现实等虚拟现实交互的技术逐渐成为现实,但是目前而言还存留较多的空白,尤其是人机交互、数字孪生的发展越来越快,需求越来越明显,如何提高虚拟现实人机交互中机器的智能化显得尤为的重要,尤其是人在虚拟环境下,面对构建的虚拟人物如何实现虚拟人物更加的拟人化、智能化;
发明内容
(一)要解决的技术问题
基于上述内容,本发明有四种目的,第一个目的是基于多模态融合技术提出一种多模态融合技术的体感操作系统;第二个目的是基于构建好的系统提出一种相应的多模态融合技术的体感操作方法;第三个目的是基于系统提出一种装置用于搭载第一个目的所提出的系统,进而实现第二个目的中提出的方法;第四个目的在于提出一种装置用于辅助多模态融合技术的体感操作。
(二)技术方案
本发明通过如下技术方案实现:一种多模态融合技术的体感操作系统所述系统包括:
脑电波信息获取模块:用于识别获取脑电波信息;
体感信息获取模块:用于识别获取肢体信息;
眼球信息获取模块:用于识别眼球动作信息;
融合分析模块:用于对获取的脑电波信息、体感信息、眼球信息的多个多模态信息进行融合;
交互反馈模块:用于将融合分析模块融合的信息进行决策,并将决策信息进行反馈。
作为上述方案的进一步说明,所述脑电波信息获取模块包括脑电波识别芯片、至少四个温度传感芯片及至少两枚太阳穴监测芯片;其对应的脑电波多模态信息包括:脑电波信息、脑部前后左右四个区域的温度信息、心率信息。
作为上述方案的进一步说明,所述眼球信息获取模块对应获取眼球动态追踪信息、虹膜识别信息。
作为上述方案的进一步说明,融合分析模块包括特征提取模块及融合模块;
所述特征提取模块用于提取脑电波信息、体感信息、眼球信息的多个模态信息特征的提取,并通过通着判别当前环境下人体特征及需求信息;
所述融合模块用于将特征提取模块提取的特征信息及意图信息进行融合,生成融合需求。
作为上述方案的进一步说明,所述人体特征包括眼球聚焦位置、兴奋程度、肢体变化情况。
作为上述方案的进一步说明,所述交互模块根据脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息识别当前人对目标的眼球聚焦位置、兴奋程度;通过体感信息获判断对目标的需求;通过多模态信息的融合将决策信息反馈至目标,目标依据决策信息做出不同响应。
本发明还提出一种多模态融合技术的体感操作检测方法,所述方法包括如下步骤:
通过感知设备获取人体的脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息及肢体信息;
将获得的多个模态信息进行融合决策当前人对目标的眼球聚焦位置、兴奋程度及动作需求;
将决策信息反馈至目标并进行信息反馈。
本发明还提出一种多模态融合技术的体感操作眼镜,包括至少一个脑电波检测装置、眼球追踪装置、体感检测装置、显示装置、处理芯片、存储装置、及通讯装置;其中所述存储期内存储有执行代码,所述执行带帽能够被所述处理器执行并实现权利要求7所述的一种基于多模态融合技术的体感操作检测方法。
本发明还提出一种多模态融合技术的体感操作手持控制装置,使用者通过所述手持控制装置控制如权利要求1所述的一种基于多模态融合技术的体感操作系统中的基础控制。
(三)有益效果
本发明相对于现有技术,具有以下有益效果:本发明基于多模态的融合,从脑电波的识别获取出发,进而结合体感、眼球多模态信息,并将其进行融合,进而实现更加智慧的辅助体感操作;本发明建立的场景是基于虚拟空间与现实环境的交互,对于虚拟环境下基于人体的多模态信息融合,进而实现用户与虚拟空间假设的虚拟人物进行智能交互,而非传统的通过设定虚拟人物的语言脚本实现交互,本发明意在利用多模态信息的融合,并学习智能的研判用户的意图,并将意图转化为实际的语言并利用虚拟人物进行智能交互,能够大大提升虚拟人物在虚拟场景中的拟人化,对于建立人-机、数字孪生工程有着巨大的帮助。
具体实施方式
一种多模态融合技术的体感操作系统所述系统包括:
脑电波信息获取模块:用于识别获取脑电波信息;
体感信息获取模块:用于识别获取肢体信息;
眼球信息获取模块:用于识别眼球动作信息;
融合分析模块:用于对获取的脑电波信息、体感信息、眼球信息的多个多模态信息进行融合;
交互反馈模块:用于将融合分析模块融合的信息进行决策,并将决策信息进行反馈。
其中,所述脑电波信息获取模块包括脑电波识别芯片、至少四个温度传感芯片及至少两枚太阳穴监测芯片;其对应的脑电波多模态信息包括:脑电波信息、脑部前后左右四个区域的温度信息、心率信息。
其中,所述眼球信息获取模块对应获取眼球动态追踪信息、虹膜识别信息。
其中,融合分析模块包括特征提取模块及融合模块;
所述特征提取模块用于提取脑电波信息、体感信息、眼球信息的多个模态信息特征的提取,并通过通着判别当前环境下人体特征及需求信息;
所述融合模块用于将特征提取模块提取的特征信息及意图信息进行融合,生成融合需求。
其中,所述人体特征包括眼球聚焦位置、兴奋程度、肢体变化情况。
其中,所述交互模块根据脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息识别当前人对目标的眼球聚焦位置、兴奋程度;通过体感信息获判断对目标的需求;通过多模态信息的融合将决策信息反馈至目标,目标依据决策信息做出不同响应。
一种多模态融合技术的体感操作检测方法,所述方法包括如下步骤:
通过感知设备获取人体的脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息及肢体信息;
将获得的多个模态信息进行融合决策当前人对目标的眼球聚焦位置、兴奋程度及动作需求;
将决策信息反馈至目标并进行信息反馈。
一种多模态融合技术的体感操作眼镜,包括至少一个脑电波检测装置、眼球追踪装置、体感检测装置、显示装置、处理芯片、存储装置、及通讯装置;其中所述存储期内存储有执行代码,所述执行带帽能够被所述处理器执行并实现权利要求7所述的一种基于多模态融合技术的体感操作检测方法。
一种多模态融合技术的体感操作手持控制装置,使用者通过所述手持控制装置控制如权利要求1所述的一种基于多模态融合技术的体感操作系统中的基础控制。
工作原理:
实施例
本发明提一种多模态融合技术的体感操作系统所述系统,基于多模态的融合,从脑电波的识别获取出发,进而结合体感、眼球多模态信息,并将其进行融合,进而实现更加智慧的辅助体感操作;本发明建立的场景是基于虚拟空间与现实环境的交互,对于虚拟环境下基于人体的多模态信息融合,进而实现用户与虚拟空间假设的虚拟人物进行智能交互,而非传统的通过设定虚拟人物的语言脚本实现交互,本发明意在利用多模态信息的融合,并学习智能的研判用户的意图,并将意图转化为实际的语言并利用虚拟人物进行智能交互,能够大大提升虚拟人物在虚拟场景中的拟人化,对于建立人-机、数字孪生工程有着巨大的帮助;
本发明的包括:脑电波信息获取模块:用于识别获取脑电波信息;脑电波信息获取模块包括脑电波识别芯片、至少四个温度传感芯片及至少两枚太阳穴监测芯片;其对应的脑电波多模态信息包括:脑电波信息、脑部前后左右四个区域的温度信息、心率信息。通过在太阳穴附近设置电极芯片可以实时感知用户的心率、心跳,基于这类信息进而识别用户的情绪,相比于传统的表情识别,心率、温度、脑电波的信息更加贴近人的真实情绪,能够帮助计算机更加的了解用户的真实意图;
体感信息获取模块:用于识别获取肢体信息;并通过脑电波信息获取模块获取的信息进行辅助帮助;眼球信息获取模块:用于识别眼球动作信息;对应获取眼球动态追踪信息、虹膜识别信息,其中眼球动态追踪信息的目的在于对于视觉聚焦点的研判,提高融合分析模块研判分析的结果,避免分析误判;
融合分析模块:用于对获取的脑电波信息、体感信息、眼球信息的多个多模态信息进行融合;包括特征提取模块及融合模块;特征提取模块用于提取脑电波信息、体感信息、眼球信息的多个模态信息特征的提取,并通过通着判别当前环境下人体特征包括眼球聚焦位置、兴奋程度、肢体变化情况。及需求信息;融合模块用于将特征提取模块提取的特征信息及意图信息进行融合,生成融合需求。融合分析模块的用处在于将上述的模块进行转化融合,将各种信息进行统一,最后生成需求;
交互反馈模块:用于将融合分析模块融合的信息进行决策,并将决策信息进行反馈;所述交互模块根据脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息识别当前人对目标的眼球聚焦位置、兴奋程度;通过体感信息获判断对目标的需求;通过多模态信息的融合将决策信息反馈至目标,目标依据决策信息做出不同响应。
其次基于上述系统,本发明还建立了一种多模态融合技术的体感操作检测方法,通过感知设备获取人体的脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息及肢体信息;将获得的多个模态信息进行融合决策当前人对目标的眼球聚焦位置、兴奋程度及动作需求;将决策信息反馈至目标并进行信息反馈。
其次基于上述系统,本发明一种多模态融合技术的体感操作眼镜,包括至少一个脑电波检测装置、眼球追踪装置、体感检测装置、显示装置、处理芯片、存储装置、及通讯装置;其中所述存储期内存储有执行代码,所述执行带帽能够被所述处理器执行并实现一种基于多模态融合技术的体感操作检测方法。本发明眼镜的目的在于构建一部智能眼镜能够搭载本发明所提出的操作系统,同时基于本发明提出的系统及方法,实现在虚拟环境中的使用;
本发明基于实际的用途,还提出一种多模态融合技术的体感操作手持控制装置,使用者通过所述手持控制装置控制一种基于多模态融合技术的体感操作系统中的基础控制,在针对一些无法通过融合分析模块研判分析的情况下,便于用户利用手持控制装置进行额外的控制。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (9)

1.一种多模态融合技术的体感操作系统,其特征在于,所述系统包括:
脑电波信息获取模块:用于识别获取脑电波信息;
体感信息获取模块:用于识别获取肢体信息;
眼球信息获取模块:用于识别眼球动作信息;
融合分析模块:用于对获取的脑电波信息、体感信息、眼球信息的多个多模态信息进行融合;
交互反馈模块:用于将融合分析模块融合的信息进行决策,并将决策信息进行反馈。
2.如权利要求1所述的一种多模态融合技术的体感操作系统,其特征在于:所述脑电波信息获取模块包括脑电波识别芯片、至少四个温度传感芯片及至少两枚太阳穴监测芯片;其对应的脑电波多模态信息包括:脑电波信息、脑部前后左右四个区域的温度信息、心率信息。
3.如权利要求1所述的一种多模态融合技术的体感操作系统,其特征在于:所述眼球信息获取模块对应获取眼球动态追踪信息、虹膜识别信息。
4.如权利要求1所述的一种多模态融合技术的体感操作系统,其特征在于:融合分析模块包括特征提取模块及融合模块;
所述特征提取模块用于提取脑电波信息、体感信息、眼球信息的多个模态信息特征的提取,并通过通着判别当前环境下人体特征及需求信息;
所述融合模块用于将特征提取模块提取的特征信息及意图信息进行融合,生成融合需求。
5.如权利要求4所述的一种多模态融合技术的体感操作系统,其特征在于:所述人体特征包括眼球聚焦位置、兴奋程度、肢体变化情况。
6.如权利要求1所述的一种多模态融合技术的体感操作系统,其特征在于:所述交互模块根据脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息识别当前人对目标的眼球聚焦位置、兴奋程度;通过体感信息获判断对目标的需求;通过多模态信息的融合将决策信息反馈至目标,目标依据决策信息做出不同响应。
7.一种多模态融合技术的体感操作检测方法,其特征在于,所述方法包括如下步骤:
通过感知设备获取人体的脑电波信息、脑部前后左右四个区域的温度信息、心率信息、眼球动作信息及肢体信息;
将获得的多个模态信息进行融合决策当前人对目标的眼球聚焦位置、兴奋程度及动作需求;
将决策信息反馈至目标并进行信息反馈。
8.一种多模态融合技术的体感操作眼镜,其特征在于,包括至少一个脑电波检测装置、眼球追踪装置、体感检测装置、显示装置、处理芯片、存储装置、及通讯装置;其中所述存储期内存储有执行代码,所述执行带帽能够被所述处理器执行并实现权利要求7所述的一种基于多模态融合技术的体感操作检测方法。
9.一种多模态融合技术的体感操作手持控制装置,其特征在于:使用者通过所述手持控制装置控制如权利要求1所述的一种基于多模态融合技术的体感操作系统中的基础控制。
CN202111047806.2A 2021-09-08 2021-09-08 一种多模态融合技术的体感操作系统、方法、眼镜、装置 Pending CN113741697A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111047806.2A CN113741697A (zh) 2021-09-08 2021-09-08 一种多模态融合技术的体感操作系统、方法、眼镜、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111047806.2A CN113741697A (zh) 2021-09-08 2021-09-08 一种多模态融合技术的体感操作系统、方法、眼镜、装置

Publications (1)

Publication Number Publication Date
CN113741697A true CN113741697A (zh) 2021-12-03

Family

ID=78736850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111047806.2A Pending CN113741697A (zh) 2021-09-08 2021-09-08 一种多模态融合技术的体感操作系统、方法、眼镜、装置

Country Status (1)

Country Link
CN (1) CN113741697A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103338265A (zh) * 2013-07-10 2013-10-02 安徽大学 一种结合脑电和眼电的信息交互系统及信息交互方法
CN106200943A (zh) * 2016-06-30 2016-12-07 宇龙计算机通信科技(深圳)有限公司 虚拟现实设备控制方法、装置和系统
CN108983636A (zh) * 2018-06-20 2018-12-11 浙江大学 人机智能共生平台系统
CN110269612A (zh) * 2019-08-08 2019-09-24 西安慧脑智能科技有限公司 一种智能脑电采集仪

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103338265A (zh) * 2013-07-10 2013-10-02 安徽大学 一种结合脑电和眼电的信息交互系统及信息交互方法
CN106200943A (zh) * 2016-06-30 2016-12-07 宇龙计算机通信科技(深圳)有限公司 虚拟现实设备控制方法、装置和系统
CN108983636A (zh) * 2018-06-20 2018-12-11 浙江大学 人机智能共生平台系统
CN110269612A (zh) * 2019-08-08 2019-09-24 西安慧脑智能科技有限公司 一种智能脑电采集仪

Similar Documents

Publication Publication Date Title
Fan et al. Facial expression recognition with deeply-supervised attention network
Kishore et al. Optical flow hand tracking and active contour hand shape features for continuous sign language recognition with artificial neural networks
CA3036208A1 (en) Sensory eyewear
CN111898407B (zh) 一种基于人脸动作识别的人机交互操作系统
CN103294194B (zh) 一种基于眼球跟踪的翻译方法及系统
CN111831119A (zh) 眼球追踪方法、装置、存储介质及头戴式显示设备
CN107885124A (zh) 一种增强现实环境中的脑眼协同控制方法及系统
Madhuri et al. Vision-based sign language translation device
CN107423392A (zh) 基于ar技术的字、词典查询方法、系统及装置
CN112990074A (zh) 基于vr的多场景自主式控制的混合脑机接口在线系统
CN110569775A (zh) 一种识别人体姿势的方法、系统、存储介质及电子设备
Nan et al. Learning to infer human attention in daily activities
CN109634407B (zh) 一种基于多模人机传感信息同步采集与融合的控制方法
CN109240510B (zh) 基于视线追踪的增强现实人机交互设备及控制方法
Liu et al. Gaze estimation with multi-scale channel and spatial attention
CN113741697A (zh) 一种多模态融合技术的体感操作系统、方法、眼镜、装置
CN111368663A (zh) 自然场景中静态面部表情识别方法、装置、介质及设备
CN113961063A (zh) 一种基于深度学习的多信息融合人机交互方法及系统
CN113420783B (zh) 一种基于图文匹配的智能人机交互方法及装置
CN106815264B (zh) 一种信息处理方法及系统
Rupanagudi et al. Design and implementation of a novel eye gaze recognition system based on scleral area for mnd patients using video processing
CN109145010B (zh) 信息查询方法、装置、存储介质及穿戴式设备
Raees et al. THE-3DI: Tracing head and eyes for 3D interactions: An interaction technique for virtual environments
Liu et al. Flow-guided spatial attention tracking for egocentric activity recognition
Miah et al. Mouse Cursor Movement and Control using Eye Gaze-A Human Computer Interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination