CN104360751B - 一种实现智能控制的方法和设备 - Google Patents

一种实现智能控制的方法和设备 Download PDF

Info

Publication number
CN104360751B
CN104360751B CN201410737284.2A CN201410737284A CN104360751B CN 104360751 B CN104360751 B CN 104360751B CN 201410737284 A CN201410737284 A CN 201410737284A CN 104360751 B CN104360751 B CN 104360751B
Authority
CN
China
Prior art keywords
eye
sight line
data
data sequence
moving axes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410737284.2A
Other languages
English (en)
Other versions
CN104360751A (zh
Inventor
邓晔
李文静
石磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics China R&D Center, Samsung Electronics Co Ltd filed Critical Samsung Electronics China R&D Center
Priority to CN201410737284.2A priority Critical patent/CN104360751B/zh
Publication of CN104360751A publication Critical patent/CN104360751A/zh
Application granted granted Critical
Publication of CN104360751B publication Critical patent/CN104360751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种实现智能控制的方法和设备,其中方法包括:按照固定的周期获取用户的眼动坐标数据,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;根据所述眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令;采用该控制命令控制智能设备。本发明能够提高智能控制的准确性并且不影响屏幕显示效果。

Description

一种实现智能控制的方法和设备
技术领域
本发明涉及智能控制技术领域,尤其涉及一种实现智能控制的方法和设备。
背景技术
对于终端设备的控制操作,传统的方式是鼠标/键盘/遥控器控制方式,其缺点是用户离开鼠标/键盘/遥控后即无法执行控制功能,而这往往给用户造成控制上的不便;并且对某些特殊人群,或者某些应用场景,有诸多不便之处。
为了解决该问题,现有技术中出现了基于眼睛的屏幕操作方式,这种方式通过眼睛注视在屏幕的位置触发对应的动作,至少存在如下缺点:
1)需要界面上首先存在一些控制项目,然后通过眼睛的凝视和眨眼等动作来激活这些控制项目。但是,在屏幕的特定位置放置控制项目会影响用户观看,特别是对于全屏播放的视频文件,这一问题更为突出;
2)通过对眼睛注视位置和眨眼动作来判定用户的动作,这往往有一些不准确性。因为用户可能无意间注视到了特定的位置,并进行了眨眼的动作,从而引起误判。
发明内容
本发明提供了一种实现智能控制的方法,能够提高智能控制的准确性并且不影响屏幕显示效果。
本发明还提供了一种实现智能控制的设备,能够提高智能控制的准确性并且不影响屏幕显示效果。
本发明的技术方案是这样实现的:
一种实现智能控制的方法,包括:
按照固定的周期获取用户的眼动坐标数据,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
根据所述眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令;
采用该控制命令控制智能设备。
一种实现智能控制的设备,包括:
眼动数据管理模块,用于按照固定的周期获取用户的眼动坐标数据,将所述眼动坐标数据发送至事件生成模块;其中,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
事件生成模块,用于判断收到的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件,将所述眼动事件发送至控制管理模块;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
控制管理模块,用于根据收到的眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令,将该控制命令发送至UI管理模块;
UI管理模块,用于采用收到的控制命令控制智能设备。
可见,本发明提出的实现智能控制的方法和设备,检测用户视线的滑动及凝视动作,通过视线滑动及注视的双重动作对用户意图进行判定,从而降低误判的可能性;并且,不需要在屏幕特定位置方式控制项目,因此不影响智能终端的全屏显示。
附图说明
图1本发明提出的实现智能控制的方法实现流程图;
图2为本发明实施例一介绍的判断是否满足视线轨迹要求的实现流程图;
图3为本发明实施例二介绍的判断滑动数据序列中的眼动坐标数据组成的用户视线轨迹是否满足视线滑动要求的实现流程图;
图4为本发明实施例三介绍的判断凝视数据序列中的眼动坐标数据是否满足视线凝视要求的实现流程图;
图5为视线滑动举例示意图;
图6为视线凝视举例示意图;
图7本发明提出的实现智能控制的设备结构示意图。
具体实施方式
本发明提出一种实现智能控制的方法,如图1为该方法的实现流程图,包括:
步骤101:按照固定的周期获取用户的眼动坐标数据,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
步骤102:判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则执行步骤103;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
步骤103:查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件;
步骤104:根据所述眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令;
步骤105:采用该控制命令控制智能设备。
上述步骤104中,可以针对不同的应用场景设置并保存眼动事件与控制命令的对应关系;即,当应用场景不同时,相同的眼动事件对应不同的控制命令。
上述步骤102中,视线轨迹要求可以包括:前部分的视线滑动要求及后部分的视线凝视要求;也就是说,获取的多个眼动坐标数据所组成的视线轨迹需要满足首先按照预定的轨迹滑动、之后在规定的位置凝视的要求。当满足该要求时,生成对应的眼动事件。
在步骤102中,为了判断获取的多个眼动坐标数据是否满足预先设定的视线轨迹要求,可以设置两个数据序列,即滑动数据序列和凝视数据序列,这两个数据序列的初始内容均为空;每次获取到一个新的眼动坐标数据时,将该眼动坐标数据添加至滑动数据序列或凝视数据序列(具体添加至哪个序列,将在后续实施例中详细描述);之后,判断滑动数据序列中的多个眼动坐标数据组成的用户视线轨迹是否满足视线滑动要求、以及凝视数据序列中的多个眼动坐标数据是否满足视线凝视要求,如果均满足,则判定满足预先设定的视线轨迹要求。
以下举具体的实施例,对上述判断过程详细介绍。
实施例一:
本实施例介绍上述步骤102中判断步骤的具体实现方式。如图2为本实施例的实现流程图,包括:
步骤201:当获取到一个眼动坐标数据时,判断滑动数据序列中的眼动坐标数据组成的用户视线轨迹是否已满足所述视线滑动要求;如果不满足,则执行步骤202;否则,执行步骤203。
步骤202:将所述眼动坐标数据添加入滑动数据序列,对所述滑动数据序列中的眼动坐标数据组成的用户视线轨迹进行判断,之后结束当前判断;具体判断过程将在实施二中详细介绍。
步骤203:将所述眼动坐标数据添加入凝视数据序列,判断所述凝视数据序列中的眼动坐标数据是否满足视线凝视要求;具体判断过程将在实施例三中详细介绍。
步骤204:当所述视线滑动要求和视线凝视要求均被满足时,判定获取的多个眼动坐标数据组成的用户视线轨迹满足预先设定的视线轨迹要求。
实施例二:
本实施例介绍上述步骤202中判断步骤的具体实现方式。如图3为本实施例的实现流程图,包括:
步骤301:判断滑动数据序列中的第一个眼动坐标数据是否位于视线起点区域,如果不是,则判定为不满足视线滑动要求,并清空滑动数据序列;如果是,则执行步骤302。
步骤302:判断所述滑动数据序列中的最后一个眼动坐标数据是否位于所述视线终点区域,如果不是,则判定为不满足视线滑动要求;如果是,则执行步骤303。
步骤303:计算实际滑动距离和直线滑动距离,其中,实际滑动距离为所述滑动数据序列中相邻两个眼动坐标数据的距离之和,实际滑动距离为所述滑动数据序列中第一个眼动坐标数据和最后一个眼动坐标数据的距离。
步骤304:判断所述实际滑动距离和直线滑动距离的差值是否满足预先设定的条件,如果满足,则判定满足所述视线滑动要求;如果不满足,则判定不满足所述视线滑动要求。
其中,判断实际滑动距离和直线滑动距离的差值是否满足预先设定的条件的方式可以为:
判断实际滑动距离与直线滑动距离的比例是否满足预先设定的比例要求,或者,判断实际滑动距离与直线滑动距离的差值是否满足预先设定的差值要求。
实施例三:
本实施例介绍上述步骤203中判断步骤的具体实现方式。如图4为本实施例的实现流程图,包括:
步骤401:判断所述凝视数据序列中的最后一个眼动坐标数据是否位于视线终点区域,如果不是,则执行步骤402;如果是,则执行步骤403。
步骤402:判定为不满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列,将所述当前获取的眼动坐标数据添加入滑动数据序列;结束当前判断。
步骤403:则判断所述凝视数据序列中的眼动坐标数据的数量是否超过预先设定的阈值,如果超过,则判定为满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列;否则,判定为不满足视线凝视要求。
如图5和图6显示了一种视线滑动和视线凝视的实例。
图5中,中间圆形划定的区域为预先设定的视线起点区域,四角弧形及屏幕边缘划定的区域为预先设定的四个视线终点区域;用户视线由点A滑动至点B,其中,点A位于视线起点区域,点B位于视线终点区域。在图5的右下角显示了视线由A滑动至B的实际滑动路线和直线滑动路线,其中,由点A到点B的折线为实际滑动路径,该折线的长度为视线由A滑动至B的实际滑动距离;由点A到点B的直线为直线滑动路径,该直线的长度为视线由A滑动至B的直线滑动距离。
图6中,显示了用户视线最终停留在屏幕右上方的视线终点区域,并在该视线终点区域凝视。
获取的多个眼动坐标数据满足前部分的视线滑动要求及后部分的视线凝视要求时,即可判定满足视线轨迹要求,生成相应的眼动事件。
为了执行上述方法,本发明还提出一种实现智能控制的设备,如图7为该设备的结构示意图,包括:
眼动数据管理模块701,用于按照固定的周期获取用户的眼动坐标数据,将所述眼动坐标数据发送至事件生成模块702;其中,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
事件生成模块702,用于判断收到的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件,将所述眼动事件发送至控制管理模块703;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
控制管理模块703,用于根据收到的眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令,将该控制命令发送至UI管理模块704;
UI管理模块704,用于采用收到的控制命令控制智能设备。
上述设备中,眼动数据管理模块701为了实现获取及发送眼动坐标数据,可以采用A线程将获取到的眼动坐标数据存储入眼动数据队列,采用B线程按次序取出眼动数据队列中的眼动坐标数据,并递交至事件生成模块702进行处理。
事件生成模块702根据接收的眼动坐标数据更新其事件状态机,事件生成模块702检查事件状态机是否有新的眼动事件产生,如果反馈没有满足新眼动事件产生的条件,则结束本次活动;如果反馈满足新眼动事件产生的条件,则事件生成模块702将新的眼动事件递交给控制管理模块703。
控制管理模块703根据新的眼动事件查询其命令映射表(包含眼动事件与控制命令的对应关系),并解析出眼动事件所对应的控制命令,将控制命令递交至用户界面(UI,User Interface)管理模块704。
UI管理模块给用户界面反馈,结束本次活动。
上述装置中,事件生成模块702可以预先保存视线起点区域、视线终点区域、滑动数据序列和凝视数据序列;其中,所述滑动数据序列和凝视数据序列的初始内容为空;
所述事件生成模块702判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求的方式可以为:
当获取到一个眼动坐标数据时,判断滑动数据序列中的眼动坐标数据组成的用户视线轨迹是否已满足所述视线滑动要求;
如果不满足,则将所述眼动坐标数据添加入滑动数据序列,对所述滑动数据序列中的眼动坐标数据组成的用户视线轨迹进行判断;
如果满足,则将所述眼动坐标数据添加入凝视数据序列,判断所述凝视数据序列中的眼动坐标数据是否满足视线凝视要求;
当所述视线滑动要求和视线凝视要求均被满足时,判定获取的多个眼动坐标数据组成的用户视线轨迹满足预先设定的视线轨迹要求。
其中,事件生成模块702对滑动数据序列中已有的眼动坐标数据组成的用户视线轨迹进行判断的方式可以为:
判断所述滑动数据序列中的第一个眼动坐标数据是否位于所述视线起点区域,如果不是,则判定为不满足视线滑动要求,并清空滑动数据序列;
如果是,则判断所述滑动数据序列中的最后一个眼动坐标数据是否位于所述视线终点区域,如果不是,则判定为不满足视线滑动要求;
如果是,则计算实际滑动距离和直线滑动距离,其中,实际滑动距离为所述滑动数据序列中相邻两个眼动坐标数据的距离之和,实际滑动距离为所述滑动数据序列中第一个眼动坐标数据和最后一个眼动坐标数据的距离;判断所述实际滑动距离和直线滑动距离的差值是否满足预先设定的条件,如果满足,则判定满足所述视线滑动要求;如果不满足,则判定不满足所述视线滑动要求。
事件生成模块702判断实际滑动距离和直线滑动距离的差值是否满足预先设定的条件的方式可以为:
判断实际滑动距离与直线滑动距离的比例是否满足预先设定的比例要求,或者,判断实际滑动距离与直线滑动距离的差值是否满足预先设定的差值要求。
事件生成模块702判断凝视数据序列中的眼动坐标数据是否满足视线凝视要求的方式为:
判断所述凝视数据序列中的最后一个眼动坐标数据是否位于视线终点区域,如果不是,则判定为不满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列,将所述当前获取的眼动坐标数据添加入滑动数据序列;
如果是,则判断所述凝视数据序列中的眼动坐标数据的数量是否超过预先设定的阈值,如果超过,则判定为满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列;否则,判定为不满足视线凝视要求。
此外,上述设备还可以包括设备适配模块705,用于提供对具体的眼动设备的接口适配功能。
综上可见,本发明提出的实现智能控制的方法和设备,提出了通过屏幕的四个角落,实现眼睛的聚焦;通过当前的场景和眼睛所注视的具体角落位置,自动执行预定义的动作,避免了需要在界面上放置固定菜单,也实现了屏幕操作时解放人的双手的目的。本发明所提出的眼动控制方案通过滑动加注视的双重动作,对用户意图进行判定,从而大大降低了误判的可能性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (8)

1.一种实现智能控制的方法,其特征在于,所述方法包括:
按照固定的周期获取用户的眼动坐标数据,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
根据所述眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令;
采用该控制命令控制智能设备;
预先设定视线起点区域、视线终点区域、滑动数据序列和凝视数据序列;其中,所述滑动数据序列和凝视数据序列的初始内容为空;
所述判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求的方式为:
当获取到一个眼动坐标数据时,判断滑动数据序列中的眼动坐标数据组成的用户视线轨迹是否已满足所述视线滑动要求;
如果不满足,则将所述眼动坐标数据添加入滑动数据序列,对所述滑动数据序列中的眼动坐标数据组成的用户视线轨迹进行判断;
如果满足,则将所述眼动坐标数据添加入凝视数据序列,判断所述凝视数据序列中的眼动坐标数据是否满足视线凝视要求;
当所述视线滑动要求和视线凝视要求均被满足时,判定获取的多个眼动坐标数据组成的用户视线轨迹满足预先设定的视线轨迹要求。
2.根据权利要求1所述的方法,其特征在于,所述对滑动数据序列中已有的眼动坐标数据组成的用户视线轨迹进行判断的方式为:
判断所述滑动数据序列中的第一个眼动坐标数据是否位于所述视线起点区域,如果不是,则判定为不满足视线滑动要求,并清空滑动数据序列;
如果是,则判断所述滑动数据序列中的最后一个眼动坐标数据是否位于所述视线终点区域,如果不是,则判定为不满足视线滑动要求;
如果是,则计算实际滑动距离和直线滑动距离,其中,实际滑动距离为所述滑动数据序列中相邻两个眼动坐标数据的距离之和,直线滑动距离为所述滑动数据序列中第一个眼动坐标数据和最后一个眼动坐标数据的距离;判断所述实际滑动距离和直线滑动距离的差值是否满足预先设定的条件,如果满足,则判定满足所述视线滑动要求;如果不满足,则判定不满足所述视线滑动要求。
3.根据权利要求2所述的方法,其特征在于,所述判断实际滑动距离和直线滑动距离的差值是否满足预先设定的条件的方式为:
判断实际滑动距离与直线滑动距离的比例是否满足预先设定的比例要求,或者,判断实际滑动距离与直线滑动距离的差值是否满足预先设定的差值要求。
4.根据权利要求1所述的方法,其特征在于,所述判断凝视数据序列中的眼动坐标数据是否满足视线凝视要求的方式为:
判断所述凝视数据序列中的最后一个眼动坐标数据是否位于视线终点区域,如果不是,则判定为不满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列,将所述当前获取的眼动坐标数据添加入滑动数据序列;
如果是,则判断所述凝视数据序列中的眼动坐标数据的数量是否超过预先设定的阈值,如果超过,则判定为满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列;否则,判定为不满足视线凝视要求。
5.一种实现智能控制的设备,其特征在于,所述设备包括:
眼动数据管理模块,用于按照固定的周期获取用户的眼动坐标数据,将所述眼动坐标数据发送至事件生成模块;其中,所述眼动坐标数据为用户视线在智能设备屏幕上的坐标位置;
事件生成模块,用于判断收到的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求,如果满足,则查询预先保存的视线轨迹与眼动事件的对应关系,得到该视线轨迹对应的眼动事件,将所述眼动事件发送至控制管理模块;其中,所述视线轨迹要求包括:前部分的视线滑动要求及后部分的视线凝视要求;
所述事件生成模块预先保存视线起点区域、视线终点区域、滑动数据序列和凝视数据序列;其中,所述滑动数据序列和凝视数据序列的初始内容为空;
所述事件生成模块判断获取的多个眼动坐标数据组成的用户视线轨迹是否满足预先设定的视线轨迹要求的方式为:
当获取到一个眼动坐标数据时,判断滑动数据序列中的眼动坐标数据组成的用户视线轨迹是否已满足所述视线滑动要求;
如果不满足,则将所述眼动坐标数据添加入滑动数据序列,对所述滑动数据序列中的眼动坐标数据组成的用户视线轨迹进行判断;
如果满足,则将所述眼动坐标数据添加入凝视数据序列,判断所述凝视数据序列中的眼动坐标数据是否满足视线凝视要求;
当所述视线滑动要求和视线凝视要求均被满足时,判定获取的多个眼动坐标数据组成的用户视线轨迹满足预先设定的视线轨迹要求;
控制管理模块,用于根据收到的眼动事件查询预先保存的眼动事件与控制命令的对应关系,得到该眼动事件对应的控制命令,将该控制命令发送至UI管理模块;
UI管理模块,用于采用收到的控制命令控制智能设备。
6.根据权利要求5所述的设备,其特征在于,所述事件生成模块对滑动数据序列中已有的眼动坐标数据组成的用户视线轨迹进行判断的方式为:
判断所述滑动数据序列中的第一个眼动坐标数据是否位于所述视线起点区域,如果不是,则判定为不满足视线滑动要求,并清空滑动数据序列;
如果是,则判断所述滑动数据序列中的最后一个眼动坐标数据是否位于所述视线终点区域,如果不是,则判定为不满足视线滑动要求;
如果是,则计算实际滑动距离和直线滑动距离,其中,实际滑动距离为所述滑动数据序列中相邻两个眼动坐标数据的距离之和,直线滑动距离为所述滑动数据序列中第一个眼动坐标数据和最后一个眼动坐标数据的距离;判断所述实际滑动距离和直线滑动距离的差值是否满足预先设定的条件,如果满足,则判定满足所述视线滑动要求;如果不满足,则判定不满足所述视线滑动要求。
7.根据权利要求6所述的设备,其特征在于,所述事件生成模块判断实际滑动距离和直线滑动距离的差值是否满足预先设定的条件的方式为:
判断实际滑动距离与直线滑动距离的比例是否满足预先设定的比例要求,或者,判断实际滑动距离与直线滑动距离的差值是否满足预先设定的差值要求。
8.根据权利要求5所述的设备,其特征在于,所述事件生成模块判断凝视数据序列中的眼动坐标数据是否满足视线凝视要求的方式为:
判断所述凝视数据序列中的最后一个眼动坐标数据是否位于视线终点区域,如果不是,则判定为不满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列,将所述当前获取的眼动坐标数据添加入滑动数据序列;
如果是,则判断所述凝视数据序列中的眼动坐标数据的数量是否超过预先设定的阈值,如果超过,则判定为满足视线凝视要求,并清空所述滑动数据序列和凝视数据序列;否则,判定为不满足视线凝视要求。
CN201410737284.2A 2014-12-05 2014-12-05 一种实现智能控制的方法和设备 Active CN104360751B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410737284.2A CN104360751B (zh) 2014-12-05 2014-12-05 一种实现智能控制的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410737284.2A CN104360751B (zh) 2014-12-05 2014-12-05 一种实现智能控制的方法和设备

Publications (2)

Publication Number Publication Date
CN104360751A CN104360751A (zh) 2015-02-18
CN104360751B true CN104360751B (zh) 2017-05-10

Family

ID=52528018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410737284.2A Active CN104360751B (zh) 2014-12-05 2014-12-05 一种实现智能控制的方法和设备

Country Status (1)

Country Link
CN (1) CN104360751B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898828B (zh) * 2015-04-17 2017-11-14 杭州豚鼠科技有限公司 应用体感交互系统的体感交互方法
CN106569590B (zh) * 2015-10-10 2019-09-03 华为技术有限公司 对象选择方法及装置
CN105677018A (zh) * 2015-12-28 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种屏幕截图方法、装置和电子设备
CN106055102A (zh) * 2016-05-30 2016-10-26 北京奇艺世纪科技有限公司 一种虚拟现实设备控制方法及装置
CN106354777B (zh) * 2016-08-22 2019-09-17 广东小天才科技有限公司 一种应用于电子终端的搜题方法及装置
CN106502378A (zh) * 2016-09-08 2017-03-15 深圳市元征科技股份有限公司 一种电子设备界面的控制方法及电子设备
CN107024981B (zh) 2016-10-26 2020-03-20 阿里巴巴集团控股有限公司 基于虚拟现实的交互方法及装置
CN108491068B (zh) * 2018-02-08 2020-11-17 东南大学 一种眼动信号控制的交互方法
CN110598644B (zh) * 2019-09-16 2021-05-11 腾讯科技(深圳)有限公司 多媒体播放控制方法、装置及电子设备
CN114706484A (zh) * 2022-04-18 2022-07-05 Oppo广东移动通信有限公司 视线坐标确定方法及装置、计算机可读介质和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102981609A (zh) * 2011-08-02 2013-03-20 联发科技股份有限公司 执行显示控制的方法及装置
CN102981616A (zh) * 2012-11-06 2013-03-20 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
CN103116403A (zh) * 2013-02-16 2013-05-22 广东欧珀移动通信有限公司 一种屏幕切换方法及移动智能终端
CN103336582A (zh) * 2013-07-30 2013-10-02 黄通兵 一种运动信息控制人机交互方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102981609A (zh) * 2011-08-02 2013-03-20 联发科技股份有限公司 执行显示控制的方法及装置
CN102981616A (zh) * 2012-11-06 2013-03-20 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
CN103116403A (zh) * 2013-02-16 2013-05-22 广东欧珀移动通信有限公司 一种屏幕切换方法及移动智能终端
CN103336582A (zh) * 2013-07-30 2013-10-02 黄通兵 一种运动信息控制人机交互方法

Also Published As

Publication number Publication date
CN104360751A (zh) 2015-02-18

Similar Documents

Publication Publication Date Title
CN104360751B (zh) 一种实现智能控制的方法和设备
US9575650B2 (en) Mobile communications device, non-transitory computer-readable medium and method of switching screen of mobile communications device from screen locked state to screen unlocked state
AU2015244101B2 (en) Non-visual feedback of visual change in a gaze tracking method and device
CN105892647B (zh) 一种显示屏调整方法、其装置及显示装置
EP3341818B1 (en) Method and apparatus for displaying content
EP3179290A3 (en) Mobile terminal and method for controlling the same
US10416835B2 (en) Three-dimensional user interface for head-mountable display
CN107219889A (zh) 护眼显示装置和显示屏调整方法
CN105975083A (zh) 一种虚拟现实环境下的视觉校正方法
EP3206413A8 (en) Control method and control system of earphone, and earphone
US10921963B2 (en) Information processing apparatus, information processing method, and program for controlling a location at which an operation object for a device to be operated is displayed
CN105376125B (zh) 一种智能家居系统操控方法及装置
CN108920234B (zh) 动态显示ui元素的方法和终端
US20190324526A1 (en) Information processing apparatus, information processing method, and program
Gips et al. The Camera Mouse: Preliminary investigation of automated visual tracking for computer access
DE102013227220A1 (de) Blindsteuerungssystem für fahrzeug
CN109782968B (zh) 一种界面调整方法及终端设备
CN104749980A (zh) 一种显示控制方法及电子设备
CN104793732A (zh) 一种智能眼镜的操作方法及智能眼镜
CN103731534A (zh) 通知栏内快捷开关的显示方法与装置
CN103955273A (zh) 一种通过操作系统实现用户姿态检测的移动终端和方法
EP3109734A1 (en) Three-dimensional user interface for head-mountable display
CN104935737A (zh) 通话过程中实现屏亮灭的方法及设备
CN109901709A (zh) 调节显示画面的方法、装置及vr设备
US20220129068A1 (en) Eye tracking for displays

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant