CN106354264A - 基于视线追踪的实时人机交互系统及其工作方法 - Google Patents
基于视线追踪的实时人机交互系统及其工作方法 Download PDFInfo
- Publication number
- CN106354264A CN106354264A CN201610812205.9A CN201610812205A CN106354264A CN 106354264 A CN106354264 A CN 106354264A CN 201610812205 A CN201610812205 A CN 201610812205A CN 106354264 A CN106354264 A CN 106354264A
- Authority
- CN
- China
- Prior art keywords
- information
- component
- user
- machine interaction
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视线追踪的实时人机交互系统及其工作方法,所述系统包括数据采集组件、数据分析处理组件、动作反馈组件和通信及操控组件,其中,数据采集组件用于追踪用户的面部特征信息并建立坐标系;数据分析处理组件与数据采集组件连接,对数据采集组件追踪的信息进行分析处理;动作反馈组件与数据分析处理组件连接,对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,反馈给通信及操控组件;通信及操控组件与动作反馈组件连接,接受动作反馈组件提供的反馈信息,根据反馈信息控制相应设备的动作。根据本发明,实现了较高的识别可用精度,降低了生产和使用成本。
Description
技术领域
本发明涉及人机交互智能系统,具体涉及一种基于视线追踪的实时人机交互系统及其工作方法。
背景技术
随着计算机的普遍应用,人工智能技术、人机交互系统开始发展起来。通过人机交互系统,人与计算机之间完成交流与通信,在最大程度上通过计算机智能为人们完成信息管理,服务和处理等功能。视线追踪技术也称为眼动跟踪技术,是利用电子、机械、光学等各种检测手段获取用户当前视觉注意的方向的技术。视觉注意是指导视线追踪技术应用的基础,它体现了用户注意力集中的目标区域或者感兴趣区域,因此可以根据跟踪用户的视觉路径,来查看用户感兴趣的内容。
现有的人机交互一般都是通过手动输入或通过身体接触进行人工操作的方式完成,将视线追踪技术用于人机交互系统中,可以将人们的手解放出来,视线追踪系统将用户的视觉注意目标点实时的输入到计算机中来完成用户的命令,这样不仅避免了传统输入设备需要手参与的冗余,而且增加了设备使用的灵活性与趣味性。
当将视线追踪技术应用于计算机领域创建视线追踪系统模拟鼠标操作时,需要对人脸图像进行处理、提取人眼的特征参数,人眼建模,建立人眼空间坐标与计算机屏幕坐标点之间的映射关系,并进行实时的反馈。现阶段国内外均有类似技术出现,但大多需依赖价格高昂的专业设备或通过外接硬件实现目标,且精度大多不能令人满意。
发明内容
本发明所要解决的技术问题是提供一种具有较高识别可用精度的基于视线追踪的实时人机交互系统及其工作方法。
为解决上述技术问题,一方面,本发明所采取的技术方案是:
一种基于视线追踪的实时人机交互系统,包括数据采集组件、数据分析处理组件、动作反馈组件和通信及操控组件,其中,
所述数据采集组件用于追踪用户的面部特征信息,并转换成数据信号输入系统中,同时根据面部特征信息分别建立二维坐标系和三维坐标系;
所述数据分析处理组件与数据采集组件连接,用于对数据采集组件追踪的信息进行分析处理;
所述动作反馈组件与数据分析处理组件连接,用于对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,并得到反馈信息反馈给通信及操控组件,以判定通信及操控组件的操控动作;
所述通信及操控组件与动作反馈组件连接,用于接受动作反馈组件提供的反馈信息,并根据反馈信息控制相应设备的动作。
进一步的技术方案在于:所述数据采集组件包括多个设置在同一空间不同位置的摄像头,使其可捕获不同角度的同一空间环境的图像信息。
进一步的技术方案在于:所述数据分析处理组件包括图像处理模块和面部特征识点定位模块,其中,
所述图像处理模块用于实时对每帧图像进行预处理;
面部特征识点定位模块用于识别预处理完成的图像中的用户面部及用户瞳孔坐标点和眼部内外角点,并储存由多帧图像组成的视频流,通过视频流识别用户的面部特征点的变化和视觉注意力的改变。
进一步的技术方案在于:所述图像处理模块对每帧图像的预处理,包括但不限于:将多张图像合成为全景图片、灰度处理、高斯模糊、二值化处理,以为之后的识别做准备。
进一步的技术方案在于:所述面部特征识点定位模块内设置有多种算法,以用于识别用户的面部特征点的变化和视觉注意力的改变,实现对用户视觉注意目标的实时追踪。
进一步的技术方案在于:所述动作反馈组件包括面部特征点数据库模块和视觉注意力数据库模块,其中,面部特征点数据库模块中保存有用户预设的一系列对应特定意义的面部特征动作;视觉注意力数据库模块中保存有用户预设的在一固定空间环境中一系列的特殊视线注意力点,所述特殊视线注意力点在固定空间环境中以三维坐标点和绝对人脸朝向角度储存。
进一步的技术方案在于:所述通信及操控组件包括Wi-Fi模块、蓝牙通信模块、红外发射模块中的任意一种或任意几种。
另一方面,本发明还提供了一种基于视线追踪的实时人机交互系统的工作方法,包括如下步骤:
S1:数据采集并建立坐标系:数据采集组件追踪用户的面部特征信息,并转换成数据信号;根据面部特征信息分别建立以用户面部平面建立的二维坐标系和以用户为固定不变点建立的三维坐标系;
S2:数据分析:数据分析处理组件对数据采集组件追踪的信息进行分析处理;
S3:对比判定:动作反馈组件对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,根据对比结果输出不同结果至通信及操控组件;
S4:通信及操控组件根据动作反馈组件输入的特定动作,控制相应设备进行相应操作。
进一步的技术方案在于:步骤S1包括:
所述步骤S1中,通过数据采集组件中的多个设置在同一空间不同位置的摄像头拍摄多张不同角度的空间环境信息图片,作为面部特征信息。
进一步的技术方案在于:步骤S2包括:
S21:数据分析处理组件中的图像处理模块将多张不同角度拍摄的空间环境信息图片通过算法合成为一张空间环境信息全景图片并做相应图片预处理;
S22:所述数据分析处理组件中的面部特征识点定位模块对S21合成的全景图片做面部特征点定位,并储存进缓存临时保存。
采用上述技术方案所产生的有益效果在于:
本发明所述的人机交互系统精度较高,根据视线追踪技术的方法,结合人脸检测的相关理论,运用图像处理手段,降低了生产和使用成本,能解放人手方便做更多的事情。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明系统的组成示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
图1为本发明提供的基于视线追踪的实时人机交互系统的组成示意图,如图所示,本发明提供的基于视线追踪的实时人机交互系统,包括数据采集组件、数据分析处理组件、动作反馈组件和通信及操控组件。其中,所述数据采集组件与数据分析处理组件相连;动作反馈组件与数据分析处理组件连接;通信及操控组件与动作反馈组件相连;通信及操控组件同时与相应设备,即相应的智能电器相连接。
所述数据采集组件用于追踪用户的面部特征信息,并转换成数据信号输入到系统中,同时根据采集到的面部特征信息建立坐标系,所述坐标系包括二维坐标系和三维坐标系。其中,三维坐标系以用户在其所在的空间环境的位置为基准点建立;二维坐标系以用户的面部平面为基准平面建立。数据采集组件包括多个摄像头,多个摄像头分别安装在同一空间中的不同位置,保证所有摄像头在工作状态时,能够以360°无死角追踪捕获用户的面部特征信息,此处的空间为客厅、书房或者卧室等用户所处的空间。为保证追踪拍摄效果,所述摄像头均选用高分辨率网络摄像头。
所述数据分析处理组件用于对数据采集组件追踪的信息进行分析处理。数据分析处理组件将摄像头拍摄到的多个图片信息通过特定的算法进行预处理,将多个图片信息合成为空间环境信息的全景图片,对全景图片图像中的面部特征进行识别分析,并进行临时缓存。数据分析处理组件包括图像处理模块和面部特征识点定位模块。所述图像处理模块用于实时对每帧图像进行预处理,包括但不限于:将多张图片合成为全景图片、灰度处理、高斯模糊、二值化处理等,为之后的识别做准备。所述面部特征识点定位模块中内置有一种或多种算法,用于在空间环境全景图片中识别用户面部细节特征及用户瞳孔坐标点和眼部内、外角点,并储存一段时间内多帧全景图片组成的视频流,进而识别该视频流中每帧图像中用户的面部特征点的规律性变化和视觉注意力的改变,实现对用户视觉注意目标的实时追踪。所述面部细节特征主要包括多个面部特征点,这些面部特征点会根据精度和用途进行选定,通常认为在对人的面部信息进行分类识别时会标注68个特征点。
在固定空间环境中,视觉注意力的目标使用眼部特征点来进行相对定位。根据用户眼部特征点坐标在一段时间的变化来跟踪用户看的方向和目标的变化,即为视觉注意力坐标的变化。本发明所述的系统中的三维坐标系是以用户在其所在空间环境内的位置为中心基准点所建立的,此三维坐标点用于定位用户在该空间环境内的位置,在此固定空间环境中,用户不进行位移,仅通过转动头部等原地动作改变视觉注意力坐标点。由于系统的三维坐标系是以用户为固定点建立的,因此三维坐标系的三轴是确定的。根据用户人脸实时在每帧全景图片中出现的不同位置点可以计算出此时用户人脸的朝向角度,此朝向角度即为此时用户人脸所对的方向与坐标系x轴的夹角之间的度数。因为三维坐标系是固定的,所以此朝向角度又可称为绝对朝向角度。
眼部特征点坐标主要包括瞳孔坐标点和眼部内、外角点的坐标,分别包括左、右眼的瞳孔坐标点及左、右眼的内、外角点的坐标,一共6个坐标点。所述瞳孔坐标点即为在根据全景图片中定位出的人脸平面为基准建立的二维坐标系中的眼球的中心点坐标。眼部内角点即为用户左眼巩膜与皮肤交界处的最右端和用户右眼巩膜与皮肤交界处的最左端,外角点则相反。根据瞳孔坐标点和眼部内、外角点这6个点在一段时间的位移关系我们可以得到用户视觉注意力的移动方向和过程。例如在时间点n,用户的左瞳孔坐标为(x,y);左眼内角点为(x+1,y);左眼外角点为(x-1,y)。而在时间点(n+1),左瞳孔坐标变为(x+0.5,y)。则系统即可判断在n到(n+1)的这段时间内用户的视觉注意力向朝向方向的左侧移动了0.5个单位。而每个单位的长度可以根据用户左右眼内、外角点之间距离的均值计算得出,根据用户人脸距离摄像头的远近不同,其左右眼内外角点之间距离的均值会发生改变,离摄像头越近,该值越大,反之则越小,从而改变了单位长度,如此一来在部署系统和使用过程中用户离摄像头的距离的远近导致的坐标系单位缩放就能被规避。
所述动作反馈组件用于对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,并得到反馈信息反馈给通信及操控组件,以判定通信及操控组件的操控动作。动作反馈组件包括面部特征点数据库模块和视觉注意力数据库模块。所述面部特征点数据库模块中保存有用户预设的一系列对应特定意义的面部特征动作,例如规律眨眼、动眉毛等动作,每个面部特征动作由多帧典型面部动作组成一个特征视频流。视觉注意力数据库模块中保存有用户预设的在一固定空间环境中一系列的特殊视线注意力点,并将此特殊视线注意力点在该固定空间环境中以三维坐标点和人脸的绝对朝向角度储存。所述视觉注意力数据库模块会实时将用户的视觉注意力坐标点与储存在数据库中的一系列的特殊视线注意力点的三维坐标点进行对比,当用户的视觉注意力坐标点与数据库中存储的特殊视线注意力点的三维坐标点重合并稳定一段时间的时候,系统触发该特殊视线注意力点的三维坐标点在数据库中对应的动作反馈。
所述通信及操控组件用于接受动作反馈组件提供的反馈信息,并根据反馈信息控制相应智能电器设备的动作。通信及操控组件包括Wi-Fi模块、蓝牙通信模块、红外发射模块,实际使用时可以选用其中的任意一种或任意几种进行不同组合。
本发明另外提供一种基于上述视线追踪的实时人机交互系统的工作方法,包括如下步骤:
S1:数据采集:所述数据采集组件追踪用户的面部特征信息,并转换成数据信号,具体实施时,由多个设置在同一空间不同位置的摄像头对固定空间环境信息和用户的面部特征信息进行实时追踪拍摄进行图像采集,并将这些信息转换成数据信号输入数据分析处理组件中。同时,根据采集到的面部特征信息建立二维坐标系和三维坐标系。其中,三维坐标系以用户在其所在的空间环境的位置为基准点建立;二维坐标系以用户的面部平面为基准平面建立。
S2:数据分析:所述数据分析处理组件对数据采集组件追踪的信息进行分析处理。
具体实施时,该数据分析步骤具体包括:
S21:由所述数据分析处理组件中的图像处理模块对数据采集得到的图像进行预处理:将多张不同角度拍摄的空间环境信息和用户的动作图像通过算法合成为一张全景图片并做相应的图片预处理,如灰度处理、高斯模糊、二值化处理等。
S22:由数据分析处理组件中的面部特征识点定位模块对该经过预处理的全景图片做面部特征点定位,并储存进缓存中进行临时保存。在面部特征识点定位模块中内置有一种或多种算法,识别空间环境全景图片中用户面部细节特征及用户瞳孔坐标点和眼部内外角点,并储存一段时间内的多帧全景图片组成的视频流,进而识别该视频流中每帧图像中用户的面部特征点的规律性变化和视觉注意力的改变。
S3:对比判定:所述动作反馈组件对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,根据对比结果输出不同结果至通信及操控组件。
将缓存中临时保存的由前几帧全景图片组成的视频流与面部特征点数据库模块中的数据库内保存的用户预设的一系列对应特定意义的特征动作进行对比,同时将视频流中得到的用户视觉注意力坐标点与视觉注意力数据库模块中的一系列的特殊视线注意力点的三维坐标点进行对比,根据对比结果得到不同的输出结果:若在面部特征点数据库中存有高相似度的特征动作,则输出与该特征视频流对应的特定动作,例如根据该特征视频流对比得到与数据库中保存的开空调的特征动作相对应,则输出结果“开空调”至相应的智能电器。若用户当前的视觉注意力坐标点与视觉注意力数据库模块的数据库中存储的特殊视线注意力点的三维坐标点重合并稳定一段时间的时候,输出该特殊视线注意力点的三维坐标点在数据库中对应的动作反馈,例如当用户凝视电视开关时,开启电视。若面部特征点数据库模块的数据库中没有相似的特征视频流或视觉注意力数据库模块的数据库中没有相似的特殊视线注意力点的三维坐标点,则循环进行下一帧的判定;
S4:通信及操控组件根据动作反馈组件输入的特定动作,控制相应设备进行相应操作。根据第步骤S4对比判定后的输出结果,由不同的通信及操控模块做出相应动作,并发送至相应的智能电器。例如输出结果为“开空调”,则调用红外发射模块发送信号给空调执行开启动作。
至此,所述人机交互系统完成一个工作循环。系统的工作效率及识别精度受限于组成本系统的各个组件选取的硬件设备,当每秒进行30个循环以上,即可保证系统正常流畅的工作。
综上,本发明所述的人机交互系统精度较高,根据视线追踪技术的方法,结合人脸人眼检测的相关理论,运用图像处理手段,降低了生产和使用成本,能解放人手方便做更多的事情。
本发明所述的人机交互系统也可以有助于帮助手部有疾病的特殊人群使用计算机或者其他智能机器,帮助从事计算机相关的工作人员脱离键盘与鼠标,远离键盘手与使用电脑引起的肩周炎等疾病。本发明所述的人机交互系统还可以作为家庭智能环境的终端管理系统,用户通过眼部运动即可抛弃遥控器,随心所欲的对家庭的智能电器进行控制和操作。
本发明所述的人机交互系统在固定空间环境中以多个摄像头捕获图片追踪用户面部特征信息输入系统,具备高复杂度的图像处理能力和多种输出功能,在固定空间环境中实时追踪并计算用户瞳孔的坐标点和眼部的内、外角点的坐标,通过坐标识别规律性的变化,确定用户视觉注意力的目标,实现在固定空间中对用户的视线的实时追踪。在实时追踪的基础上,动作反馈组件中的面部特征点数据库模块和视觉注意力数据库模块根据保存其中的预设数据与实时追踪的结果进行对比,判断用户想要达成的交互目标和交互动作,提供多种输出信号,完成人机交互。
Claims (10)
1.一种基于视线追踪的实时人机交互系统,其特征在于:包括数据采集组件、数据分析处理组件、动作反馈组件和通信及操控组件,其中,
所述数据采集组件用于追踪用户的面部特征信息,并转换成数据信号输入系统中,同时根据面部特征信息分别建立二维坐标系和三维坐标系;
所述数据分析处理组件与数据采集组件连接,用于对数据采集组件追踪的信息进行分析处理;
所述动作反馈组件与数据分析处理组件连接,用于对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,并得到反馈信息反馈给通信及操控组件,以判定通信及操控组件的操控动作;
所述通信及操控组件与动作反馈组件连接,用于接受动作反馈组件提供的反馈信息,并根据反馈信息控制相应设备的动作。
2.根据权利要求1所述的基于视线追踪的实时人机交互系统,其特征在于:所述数据采集组件包括多个设置在同一空间不同位置的摄像头,使其可捕获不同角度的同一空间环境的图像信息。
3.根据权利要求1所述的基于视线追踪的实时人机交互系统,其特征在于:所述数据分析处理组件包括图像处理模块和面部特征识点定位模块,其中,
所述图像处理模块用于实时对每帧图像进行预处理;
面部特征识点定位模块用于识别预处理完成的图像中的用户面部及用户瞳孔坐标点和眼部内外角点,并储存由多帧图像组成的视频流,通过视频流识别用户的面部特征点的变化和视觉注意力的改变。
4.根据权利要求3所述的基于视线追踪的实时人机交互系统,其特征在于:所述图像处理模块对每帧图像的预处理,包括但不限于:将多张图像合成为全景图片、灰度处理、高斯模糊、二值化处理,以为之后的识别做准备。
5.据权利要求3所述的基于视线追踪的实时人机交互系统,其特征在于:所述面部特征识点定位模块内设置有多种算法,以用于识别用户的面部特征点的变化和视觉注意力的改变,实现对用户视觉注意目标的实时追踪。
6.根据权利要求1所述的基于视线追踪的实时人机交互系统,其特征在于:所述动作反馈组件包括面部特征点数据库模块和视觉注意力数据库模块,其中,面部特征点数据库模块中保存有用户预设的一系列对应特定意义的面部特征动作;视觉注意力数据库模块中保存有用户预设的在一固定空间环境中一系列的特殊视线注意力点,所述特殊视线注意力点在固定空间环境中以三维坐标点和人脸的绝对朝向角度储存。
7.根据权利要求1所述的基于视线追踪的实时人机交互系统,其特征在于:所述通信及操控组件包括Wi-Fi模块、蓝牙通信模块、红外发射模块中的任意一种或任意几种。
8.一种基于上述任一项所述的基于视线追踪的实时人机交互系统的工作方法,其特征在于,包括如下步骤:
S1:数据采集并建立坐标系:数据采集组件追踪用户的面部特征信息,并转换成数据信号;根据面部特征信息分别建立以用户面部平面为基准建立的二维坐标系和以用户所在空间环境位置为基准点建立的三维坐标系;
S2:数据分析:数据分析处理组件对数据采集组件追踪的信息进行分析处理;
S3:对比判定:动作反馈组件对比分析数据分析处理组件处理的信息以及动作反馈组件中储存的信息,根据对比结果输出不同结果至通信及操控组件;
S4:通信及操控组件根据动作反馈组件输入的特定动作,控制相应设备进行相应操作。
9.根据权利要求8所述的基于视线追踪的实时人机交互系统的工作方法,其特征在于:步骤S1中,通过数据采集组件中的多个设置在同一空间不同位置的摄像头拍摄多张不同角度的空间环境信息图片,作为面部特征信息。
10.根据权利要求9所述的基于视线追踪的实时人机交互系统的工作方法,其特征在于:步骤S2包括:
S21:数据分析处理组件中的图像处理模块将多张不同角度拍摄的空间环境信息图片通过算法合成为一张空间环境信息全景图片并做相应图片预处理;
S22:所述数据分析处理组件中的面部特征识点定位模块对S21合成的全景图片做面部特征点定位,并储存进缓存临时保存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610812205.9A CN106354264A (zh) | 2016-09-09 | 2016-09-09 | 基于视线追踪的实时人机交互系统及其工作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610812205.9A CN106354264A (zh) | 2016-09-09 | 2016-09-09 | 基于视线追踪的实时人机交互系统及其工作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106354264A true CN106354264A (zh) | 2017-01-25 |
Family
ID=57858404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610812205.9A Pending CN106354264A (zh) | 2016-09-09 | 2016-09-09 | 基于视线追踪的实时人机交互系统及其工作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106354264A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122052A (zh) * | 2017-04-26 | 2017-09-01 | 深圳前海弘稼科技有限公司 | 一种基于vr设备的种植设备控制方法及装置 |
CN107831902A (zh) * | 2017-11-23 | 2018-03-23 | 腾讯科技(上海)有限公司 | 一种运动控制方法及其设备、存储介质、终端 |
CN107861625A (zh) * | 2017-12-04 | 2018-03-30 | 北京易真学思教育科技有限公司 | 基于3d空间模型的视线跟踪系统及方法 |
CN109240510A (zh) * | 2018-10-30 | 2019-01-18 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
WO2019128917A1 (zh) * | 2017-12-29 | 2019-07-04 | 腾讯科技(深圳)有限公司 | 对象控制方法、装置、存储介质和计算机设备 |
CN110032268A (zh) * | 2018-01-11 | 2019-07-19 | 束齐展 | 一种基于视线追踪的实时人机交互系统及其工作方法 |
CN110286755A (zh) * | 2019-06-12 | 2019-09-27 | Oppo广东移动通信有限公司 | 终端操控方法、装置、电子设备及计算机可读取存储介质 |
CN111276140A (zh) * | 2020-01-19 | 2020-06-12 | 珠海格力电器股份有限公司 | 语音命令识别方法、装置、系统及存储介质 |
CN112711984A (zh) * | 2020-12-09 | 2021-04-27 | 北京航空航天大学 | 注视点定位方法、装置和电子设备 |
CN114646457A (zh) * | 2022-05-20 | 2022-06-21 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪精准度测试方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870796A (zh) * | 2012-12-13 | 2014-06-18 | 汉王科技股份有限公司 | 一种人眼视线估计的方法与装置 |
CN103914142A (zh) * | 2013-01-04 | 2014-07-09 | 三星电子株式会社 | 在电子装置中使用头跟踪技术提供控制服务的设备和方法 |
CN104089606A (zh) * | 2014-06-30 | 2014-10-08 | 天津大学 | 一种自由空间视线跟踪测量方法 |
CN104699124A (zh) * | 2015-03-24 | 2015-06-10 | 天津通信广播集团有限公司 | 一种基于视线观看角度检测的电视机角度调整方法 |
CN105183169A (zh) * | 2015-09-22 | 2015-12-23 | 小米科技有限责任公司 | 视线方向识别方法及装置 |
CN105874405A (zh) * | 2013-12-11 | 2016-08-17 | Lg电子株式会社 | 智能家用电器、其操作方法及使用智能家用电器的语音识别系统 |
-
2016
- 2016-09-09 CN CN201610812205.9A patent/CN106354264A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870796A (zh) * | 2012-12-13 | 2014-06-18 | 汉王科技股份有限公司 | 一种人眼视线估计的方法与装置 |
CN103914142A (zh) * | 2013-01-04 | 2014-07-09 | 三星电子株式会社 | 在电子装置中使用头跟踪技术提供控制服务的设备和方法 |
CN105874405A (zh) * | 2013-12-11 | 2016-08-17 | Lg电子株式会社 | 智能家用电器、其操作方法及使用智能家用电器的语音识别系统 |
CN104089606A (zh) * | 2014-06-30 | 2014-10-08 | 天津大学 | 一种自由空间视线跟踪测量方法 |
CN104699124A (zh) * | 2015-03-24 | 2015-06-10 | 天津通信广播集团有限公司 | 一种基于视线观看角度检测的电视机角度调整方法 |
CN105183169A (zh) * | 2015-09-22 | 2015-12-23 | 小米科技有限责任公司 | 视线方向识别方法及装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122052A (zh) * | 2017-04-26 | 2017-09-01 | 深圳前海弘稼科技有限公司 | 一种基于vr设备的种植设备控制方法及装置 |
CN107831902A (zh) * | 2017-11-23 | 2018-03-23 | 腾讯科技(上海)有限公司 | 一种运动控制方法及其设备、存储介质、终端 |
CN107861625A (zh) * | 2017-12-04 | 2018-03-30 | 北京易真学思教育科技有限公司 | 基于3d空间模型的视线跟踪系统及方法 |
WO2019128917A1 (zh) * | 2017-12-29 | 2019-07-04 | 腾讯科技(深圳)有限公司 | 对象控制方法、装置、存储介质和计算机设备 |
CN110032268A (zh) * | 2018-01-11 | 2019-07-19 | 束齐展 | 一种基于视线追踪的实时人机交互系统及其工作方法 |
CN109240510B (zh) * | 2018-10-30 | 2023-12-26 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
CN109240510A (zh) * | 2018-10-30 | 2019-01-18 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
WO2020087919A1 (zh) * | 2018-10-30 | 2020-05-07 | 东北大学 | 基于视线追踪的增强现实人机交互设备及控制方法 |
CN110286755A (zh) * | 2019-06-12 | 2019-09-27 | Oppo广东移动通信有限公司 | 终端操控方法、装置、电子设备及计算机可读取存储介质 |
CN110286755B (zh) * | 2019-06-12 | 2022-07-12 | Oppo广东移动通信有限公司 | 终端操控方法、装置、电子设备及计算机可读取存储介质 |
CN111276140B (zh) * | 2020-01-19 | 2023-05-12 | 珠海格力电器股份有限公司 | 语音命令识别方法、装置、系统及存储介质 |
CN111276140A (zh) * | 2020-01-19 | 2020-06-12 | 珠海格力电器股份有限公司 | 语音命令识别方法、装置、系统及存储介质 |
CN112711984A (zh) * | 2020-12-09 | 2021-04-27 | 北京航空航天大学 | 注视点定位方法、装置和电子设备 |
CN114646457A (zh) * | 2022-05-20 | 2022-06-21 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪精准度测试方法及系统 |
CN114646457B (zh) * | 2022-05-20 | 2022-08-12 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪精准度测试方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106354264A (zh) | 基于视线追踪的实时人机交互系统及其工作方法 | |
Lian et al. | Multiview multitask gaze estimation with deep convolutional neural networks | |
Damen et al. | You-Do, I-Learn: Egocentric unsupervised discovery of objects and their modes of interaction towards video-based guidance | |
Betancourt et al. | The evolution of first person vision methods: A survey | |
CN108200334B (zh) | 图像拍摄方法、装置、存储介质及电子设备 | |
Zhao et al. | Combing rgb and depth map features for human activity recognition | |
Chen et al. | Robust activity recognition for aging society | |
WO2020125499A1 (zh) | 一种操作提示方法及眼镜 | |
Medioni et al. | Identifying noncooperative subjects at a distance using face images and inferred three-dimensional face models | |
Nguyen et al. | Static hand gesture recognition using artificial neural network | |
CN110688910B (zh) | 一种可穿戴人体基本姿态识别的实现方法 | |
Baby et al. | Dynamic vision sensors for human activity recognition | |
CN109803109A (zh) | 一种可穿戴增强现实远程视频系统及视频通话方法 | |
Wong et al. | Gaze estimation using residual neural network | |
CN106272446A (zh) | 机器人动作模拟的方法和装置 | |
CN105225270B (zh) | 一种信息处理方法及电子设备 | |
Yan et al. | Human-object interaction recognition using multitask neural network | |
Lemley et al. | Eye tracking in augmented spaces: A deep learning approach | |
CN110543813B (zh) | 一种基于场景的人脸画像、目光计数方法及系统 | |
CN111582036A (zh) | 可穿戴设备下基于形状和姿态的跨视角人物识别方法 | |
Nan et al. | Human action recognition for social robots | |
Wu et al. | Real-time human posture reconstruction in wireless smart camera networks | |
CN109829415A (zh) | 基于深度残差网络的性别识别方法、装置、介质和设备 | |
CN106815264B (zh) | 一种信息处理方法及系统 | |
Yang et al. | vGaze: Implicit saliency-aware calibration for continuous gaze tracking on mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170125 |