CN105677026B - 信息处理方法及电子设备 - Google Patents

信息处理方法及电子设备 Download PDF

Info

Publication number
CN105677026B
CN105677026B CN201511031049.4A CN201511031049A CN105677026B CN 105677026 B CN105677026 B CN 105677026B CN 201511031049 A CN201511031049 A CN 201511031049A CN 105677026 B CN105677026 B CN 105677026B
Authority
CN
China
Prior art keywords
focus
area
distribution density
eye movement
specified time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201511031049.4A
Other languages
English (en)
Other versions
CN105677026A (zh
Inventor
谌琛
戴海生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201511031049.4A priority Critical patent/CN105677026B/zh
Publication of CN105677026A publication Critical patent/CN105677026A/zh
Priority to US15/374,987 priority patent/US20170192503A1/en
Application granted granted Critical
Publication of CN105677026B publication Critical patent/CN105677026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明实施例提供一种信息处理方法及电子设备,所述方法包括:检测作用于显示单元的眼动焦点;基于所述眼动焦点,形成焦点区域;显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。

Description

信息处理方法及电子设备
技术领域
本发明涉及信息技术领域,尤其涉及一种信息处理方法及电子设备。
背景技术
随着信息技术和电子技术的发展,现在出现了眼神示意交互的方法,具体的应用包括眼动仪等。在眼动检测过程中,通过检测眼神关注的焦点,并将检测焦点显示在显示单元上,让用户确定是否已经通过眼动选定了自己想要的交互图标或交互信息,并最终根据交互突变或交互信息,电子设备会执行一定的操作。
在具体的实现过程中,用户经常会发现显示焦点经常出现跳动,用户轻微的延伸移动都会导致在显示单元上显示焦点的大的移动,给用户的感观感受好像是显示单元上出现了大量密集变动的显示噪声。且在非校准或检测精度较低的情况下,显示焦点跳动更加频繁,定位性就更低了。这样导致用户交互感受很差;显然电子设备的智能性还不够高。
发明内容
有鉴于此,本发明实施例期望提供
为达到上述目的,本发明的技术方案是这样实现的:
本发明实施例第一方面提供一种信息处理方法,所述方法包括:
检测作用于显示单元的眼动焦点;
基于所述眼动焦点,形成焦点区域;
显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
基于上述方案,所述检测作用于显示单元的眼动焦点,包括:
在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
基于上述方案,所述方法还包括:
统计在第二指定时间内的眼动焦点的第一分布密度;
基于所述第一分布密度,确定所述第一指定时间的时长。
基于上述方案,所述基于所述第一分布密度,确定所述第一指定时间的时长,包括
若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;
若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
基于上述方案,所述显示单元上显示有至少一个交互对象;
所述方法还包括:
统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
基于所述第二分布密度,确定所述焦点区域作用的交互对象。
基于上述方案,所述方法还包括:
统计在第三指定时间内的眼动焦点的第三分布密度;
基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
基于上述方案,所述基于所述第三分布密度确定,确定在第四指定时间内所述焦点区域的显示面积,包括:
若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;
若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
基于上述方案,所述基于所述眼动焦点,形成焦点区域,包括:
统计所述第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;
选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;
所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
本发明实施例第二方面提供一种电子设备,所述电子设备包括:
检测单元,用于检测作用于显示单元的眼动焦点;
形成单元,用于基于所述眼动焦点,形成焦点区域;
显示单元,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
基于上述方案,所述检测单元,具体用于在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
基于上述方案,所述电子设备,还包括:
第一统计单元,用于统计在第二指定时间内的眼动焦点的第一分布密度;
第一确定单元,用于基于所述第一分布密度,确定所述第一指定时间的时长。
基于上述方案,所述第一确定单元,用于若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
基于上述方案,所述显示单元上显示有至少一个交互对象;
所述电子设备还包括:
第二统计单元,用于统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
第二确定单元,用于基于所述第二分布密度,确定所述焦点区域作用的交互对象。
基于上述方案,所述电子设备还包括:
第三统计单元,用于统计在第三指定时间内的眼动焦点的第三分布密度;
第三确定单元,用于基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
基于上述方案,所述第三确定单元,用于若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
基于上述方案,所述形成单元,具体用于统计所述第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
本发明实施例提供的信息处理方法及电子设备,在检测到眼动焦点之后,会形成一个焦点区域,该焦点区域的显示面积是大于眼动焦点对应的显示面积,在显示单元显示的是焦点区域。本发明实施例提供的技术方案至少可以缓解眼动焦点因用户非有意识的轻微眼动和检测设备的精确度及稳定性低导致的直接显示眼动焦点出现的眼动焦点频繁跳动以及显示噪音等各种不良现象,提升用户视觉感受良好度,提升智能电子设备的智能性及用户使用满意度。
附图说明
图1为本发明实施例提供的第一种信息处理方法的流程示意图;
图2为本发明实施例提供的第一种焦点区域和眼动焦点的显示效果示意图;
图3为本发明实施例提供的第二种信息处理方法的流程示意图;
图4为本发明实施例提供的第二种焦点区域和眼动焦点的显示效果示意图;
图5为本发明实施例提供的焦点区域的显示面积变更效果示意图;
图6为本发明实施例提供的电子设备的结构示意图;
图7为本发明实施例提供的第三种信息处理方法的流程示意图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案做进一步的详细阐述。
实施例一:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
本实施例所述信息处理方法可运用于电子显示屏、台式电脑、投影设备等各种具有显示单元的电子设备中。
在步骤S110中可图像采集或采集图像接收等各种方式采集到用户眼睛运动后的对准的焦点。例如利用眼动仪检测所述眼动焦点。
在步骤S120中基于所述眼动焦点,形成一个焦点区域,在步骤S130中显示的所述焦点区域。这个焦点区域的显示面积大于一个眼动焦点对应的显示区域。例如,所述眼动焦点在所述显示单元上对应的显示面积为A,所述焦点区域的面积为B,B的面积大于A的面积。
例如,如图2所示,所述黑色圆形区域为所述焦点区域,所述黑色圆形区域内的白色点状区域为所述眼动焦点,显然所述焦点区域对应的黑色圆形区域的显示面积是大于所述眼动焦点对应的白色点状区域的面积的。
此时,若用户的眼睛有轻微的运动导致眼动焦点发生轻微的移动,或检测眼动焦点设备因精确度问题在用户眼睛未运动的状态下,检测到的眼动焦点发生了位置的偏移,若眼动焦点作用于显示单元上的显示面积依然位于所述焦点区域对应的显示区域内,显然所述焦点区域就不会移动或焦点区域移动的距离小于所述焦点区域的直径,就可以很好的解决现有技术中直接显示眼动焦点对应的图像出现的眼动焦点图像频繁跳动的现象。
在本实施例中所述焦点区域可为图2所示的圆形区域,也可以是其他形状的区域,如矩形区域、椭圆形区域或其他不规则块状区域。
当然现在有些眼动设备检测精度不高,可能会导致眼动焦点频繁的出现噪音,这些噪音都是在眼动焦点周围,若采用本实施例中所述方法形成焦点区域,显然也可以解决噪音现象导致的眼动焦点图像的乱动或频繁移动等现象;同时显示的是对应于眼动焦点的焦点区域也方便用户观看显示在所述显示单元上的焦点区域,能够有效的降低用户的视觉疲劳及提升用户使用满意度。
实施例二:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述步骤S110可包括:
在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
本实施例所述第一指定时间可为预先设置的时间,可对应于一个预设时长,具体如0.01秒或0.1秒。这样的话,在第一指定时间内持续监控所述眼动焦点,将会检测到作用于显示单元上多个眼动焦点。在步骤S120中将根据这N个眼动焦点确定出所述焦点区域,这样能够提升定位的精确度。在本实施例中检测设备检测形成一个眼动焦点时间及实现间隔都小于所述第一指定时间。通常,检测形成一个所述眼动焦点的时长为第一时长,则所述第一指定时间对应的时长至少为2倍或2倍以上的所述第一时长。
例如,用户想使眼动焦点对准显示单元上一个图标,在现有技术中由于眼动焦点较小,用户轻微动作可能就会导致眼动焦点移动,显然在对准的过程中就会出现眼动焦点对准该图标之后,又离开这个图标,最后用户修正眼睛关注的位置,眼动焦点又回到该图标之上。在现有技术中用户将会看到眼动焦点在显示单元上的大幅度的移动和位置变迁,而利用本实施例所述方法,显示的基于第一指定时间内的眼动焦点确定的焦点区域,就可以很好的解决上述现象造成的问题。在本实施例中所述焦点区域是根据第一指定时间的眼动焦点确定的,可认为第一指定时间为焦点区域变更的最小时间单元,若用户眼睛的运动导致眼动焦点导致漂移或眼动仪等眼动检测设备造成眼动焦点移动,在本实施例中都可视为所述第一指定时间内的正常移动,显示单元不会立即响应所述眼动焦点的移动,进而移动所述眼动焦点。在本实施例中将生成一个显示面积相对较大的焦点区域,通过焦点区域的移动或维持焦点区域的不动,减少用户眼睛轻微运动和检测设备不精确性导致的不良现象,减少用户视觉疲劳,提升用户使用满意度。
以图2为例,在第一指定时间内检测到如图2所示的白点的眼动焦点,按照现有技术直接显示眼动焦点图像,则将会出现眼动焦点从一个白点位置移动到另一个白点位置,这样显然出现眼动焦点图像的频繁移动及用户容易出现视觉疲劳等问题,但是在本实施例中检测到所述眼动焦点,将形成一个焦点区域,该焦点区域覆盖住所述眼动焦点,显然就不会出现频繁移动或不连续的频繁跳动显现,至少部分缓解用户容易出现视觉疲劳的问题。
实施例三:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述步骤S110可包括:
在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
如图3所示,所述方法还包括:
步骤S101:统计在第二指定时间内的眼动焦点的第一分布密度;
步骤S102:基于所述第一分布密度,确定所述第一指定时间的时长。
在本实施例中将检测所述第二指定时间内的眼动焦点的分布密度,这里的分布密度命名为第一分布密度。本实施例所述第二指定时间的截止时间不晚于所述第一指定时间的截止时间。所述第二指定时间的时长可以大于所述第一指定时间的时长,也可以短于所述第一指定时间的时长。例如,在决定本次第一指定时间之前的第二指定时间内,通过眼动焦点的分布密度的统计,得到了所述第一分布密度,在根据第一分布密度确定本次确定所述焦点区域的第一指定时间的时长。当然,所述第二指定时间也可以为第一指定时间范围内的一个不大于所述第一指定时间对应的时长的时间段。所述第一指定时间可至少包括一个或多个第二指定时间,统计每一个第二指定时间内的分布密度,得到所述第一分布密度,一但统计到第一分布密度大于一定值,就确定第一指定时间结束,这样的话,每一个第一指定时间都可是动态确定的。
总之,在本实施例中第二指定时间内的眼动焦点的分布密度较大,可能当前检测设备的检测精度比较高或用户轻微的眼睛运动较小,这个时候为了提升响应速率,在本实施例中会调整所述第一指定时间的时长。当然检测设备的精确度也可能出现浮动,用户眼睛运动速度,也可以出现波动,在本实施例中将动态确定出所述第一指定时间的时长,从而很好的平衡用户的视觉疲劳和响应速度之间的关系。
具体的如,所述步骤S122可包括:
若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;
若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
所述第一密度阈值为预先设置值,通过比较判断,适当的调整所述第一指定时间的时长。这里调整所述第一指定时间的时长的可以按照预设步长值来调整,也可以根据所述第一分布密度与所述第一密度阈值满足的函数关系式来动态确定时长的调整值。例如求解所述第一分布密度与所述第一密度阈值的比值,利用所述比值的倒数与所述第一指定时长的乘积作为调整后的所述第一指定时长。
在本实施例中所述第一分布密度大于所述第一密度阈值,认为当前眼动焦点分布比较集中,可以通过缩小所述第一指定时间来提升响应速率。当所述第一分布密度小于所述第一密度阈值,表示当前检测到的眼动焦点比较分散,为了减少眼动焦点的频繁跳动的现象,降低用户的视觉疲劳,在本实施例中可以适当的增加所述第一指定时间的长度。当然为了保证一定的响应速率,在本实施例中可以设置所述第一指定时间的时长上限,若当前所述第一指定时间的时长已经为所述时间上限,在本实施例中将维持所述第一指定时间的时长。
总之本实施例所述的信息处理方法,不仅会根据眼动焦点形成焦点区域,通过显示焦点区域来简便解决检测设备的精确度低、用户轻微运动导致误操作或噪音干扰形成的眼动焦点图像频繁出现不必要跳动的现象,同时能够根据眼动焦点的分布密度,动态的调整第一指定时间的时长,以保证一定的响应速率。
实施例四:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述步骤S110可包括:
在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
所述显示单元上显示有至少一个交互对象;
所述方法还包括:
统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
基于所述第二分布密度,确定所述焦点区域作用的交互对象。
在本实施例中所述交互对象可包括各种具有交互功能的交互图标或交互文字。这里的交互对象可包括显示在显示单元的应用图标、文件图标、连接、“确定”或“取消”等各种功能按钮。通常在这些图标或文字上施加对应的操作,例如点击,能够与电子设备的一些交互操作。例如,通过点击应用图标可以打开对应的应用。这里的应用图标即为所述交互对象的一种,这里的打开对应的应用即为电子设备检测到了用户的指示指定的操作。
在本实施例中第一指定时间内将检测到多个眼动焦点,这些眼动焦点有的靠近,有的远离;在本实施例中所述焦点区域将覆盖前述检测的多个眼动焦点中的至少部分。在本实施例中将检测到焦点区域覆盖的眼动焦点的分布密度,该分布密度在本实施例中称为第二分布密度,基于分布密度确定焦点区域作用的交互对象。例如,如图4所示,显示单元在相邻位置显示有两个交互对象,分别是应用图标A和“下一页”的翻页链接。标号111指示的是本申请中提到的焦点区域,显然此时焦点区域覆盖了两个交互对象,在本实施例中将统计出覆盖在两个交互对象的眼动焦点的第二分布密度,在图2中用白点表示的眼动焦点。通过统计发现在焦点区域内眼动焦点分布在应用图标A处的第二分布密度大于覆盖在“下一页”文字链接,这个时候可确定所述焦点区域终于应用图标A。当然此处的例子,仅适用于当前利用焦点区域进行单交互对象的选择过程中,并非前述根基于所述第二分布密度,确定所述焦点区域作用的交互对象的所有实施例。
当然在本实施例中所述根据第二分布密度,确定所述焦点区域作用的交互对象,还可包括:当所述第二分布密度大于预设阈值密度时,才认为是该焦点区域作用于所述交互对象。例如,在显示单元显示有多个交互对象,用户眼睛一直在搜寻自己想要找的交互对象,当时间超过第一指定时间长度时,也可能会形成一个焦点区域,但是电子设备发现在焦点区域内的第二分布密度很小,可认为用户没有要选择该交互对象的意图,将不选择该焦点区域覆盖的交互对象。当然所第二分布密度大于所述预设阈值密度,就至少选择所述焦点区域覆盖的一个或多个交互对象。
总之,本实施例中将会根据第二分布密度来确定焦点区域作用的交互对象,使电子设备更加精确的响应用户指令。
实施例五:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述方法还包括:
统计在第三指定时间内的眼动焦点的第三分布密度;
基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
本实施例中的所述第三指定时间的时长可为1分钟、2分钟、5分钟或30秒等各种预定时长。所述眼动焦点的分布密度可以一定程度上,表征用户眼睛移动的速率或移动幅度参数,或表征检测设备的检测精度等信息,根据所述第三分布密度来调整所述焦点区域的显示面积。这里的调整所述显示面积可包括增大显示面积、缩小显示面积等各种调整。
所述第四指定时间可为所述第三指定时间以后的一个时间段,例如,当前时刻以后的一个时间端。该第四指定时间可为预先设定的一个时长对应的时间段,也可以是灵活可调的一个时间段。例如,当确定了所述显示面积以后,未接收到所述焦点区域对应的新的显示面积时,在该段时间内都可认为是第四指定时间。显然此时所述第四指定时间的时长和对应的时间段都是决定于两个不同的显示面积的产生时间。
总之,本实施例在前述实施例的基础上,提供了一种根据第三分布密度动态调整焦点区域的显示面积,可以避免因焦点区域的显示面积过大导致的定位交互对象等不精确的现象。
所述基于所述第三分布密度确定,确定在第四指定时间内所述焦点区域的显示面积,包括:
若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;
若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
在本实施例中执行本实施例所述的信息处理方法可以预先存储有所述第二密度阈值,也可以从其他电子设备接收或查询所述第二密度阈值,通过将所述第三分布密度与第二密度阈值之间的比较等处理,确定出是缩小焦点区域的显示面积或维持焦点区域的显示面或增大显示面积。
例如,为了避免所述焦点区域过大导致的焦点区域定位混乱的显现,在本实施例中可设置焦点区域的面积上限,若当前的焦点区域的显示面积已经是所述面积上限时,即便所述第三分布密度小于所述第二密度阈值,也不再增大所述焦点区域的显示面积,而仅是维持所述焦点区域的显示面积。
总之本实施例不仅提供的基于第三分布密度调整焦点区域的显示面积的方案,同时还提供至少一种具体如何调整所述焦点区域的显示面积的方式,具有实现简单,且能够动态调整所述显示面积来很好的平衡用户视觉感官和定位精确度之前的关系。
实施例六:
如图1所示,本实施例提供一种信息处理方法,所述方法包括:
步骤S110:检测作用于显示单元的眼动焦点;
步骤S120:基于所述眼动焦点,形成焦点区域;
步骤S130:显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述步骤S120包括:
统计所述第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;
选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;
所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
所述第五指定时间可为预先设定的时间,也可以为电子设备根据之前眼动焦点的分布密度确定时间,本实施例为在前述任意一个实施例提供的技术方案上的进一步改进。
在第五指定时间内,N个所述眼点焦点可能会有部分重叠,也可能会分布在不同的位置,在本实施例中可以将所述眼动焦点作用于显示单元的区域划分多个第一区域,这里的第一区域可为显示面积相同的多个区域。再分别统计各个第一区域内的眼动焦点的分布密度,从而确定出所述焦点区域在所述显示单元的显示位置。在本实施例中将分布密度最大的一个第一区域作为所述焦点区域的中心区域,且该第一区域的显示面积小于所述焦点区域。这样就简便的确定了所述焦点区域对应于所述显示单元的显示位置。
本实施例在前述实施例的基础上,提供了如何确定焦点区域的显示位置的方法,具有实现简单且能够精确定位出用户眼睛当前关注的显示区域的特点,具有定位精确度高的特点。
实施例七:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
本实施例所述的电子设备可包括笔记本电脑、台式电脑,电子阅读器、电子显示大屏幕等各种电子设备。
所述检测到哪元110可包括各种能够采集所述眼动焦点的采集设备或传感器,例如,利用图像采集所述眼动焦点的摄像头,还可包括眼动仪等设备。
所述形成单元120对应电子设备内的处理器或处理电路,所述处理器可包括应用处理器,中央处理器、微处理器、数字信号处理或可编程阵列等。所述处理电路可包括专用集成电路。所述处理器或处理电路通过执行对应的代码可以生成所述焦点区域。
所述显示单元130可对应于各种显示屏,例如,液晶显示屏、有机发光二极管OLED显示屏、投影显示屏及电子墨水显示屏等各种显示设备,能够显示图像和/或文字,在本实施例中可用于显示所述焦点区域。
在本实施例中当检测眼动焦点之后,不直接显示眼动焦点,而是形成一个眼动区域,该眼动区域的显示面积大于眼动焦点对应的区域。本实施例所述的电子设备通过形成单元120形成眼动区域,利用显示单元130显示的为眼动区域,这样能够减少直接显示眼动焦点导致用户看到的眼动焦点频繁的移动及因检测设备精确度不够及稳定性不够导致的眼动焦点的噪音等各种导致用户视觉疲劳的现象,提升了电子设备的智能性及用户使用满意度。
实施例八:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述检测单元110,具体用于在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
在本实施例中所述检测单元110将在第一指定时间内,检测作用于所述显示单元的至少两个眼动焦点。显然这里的检测单元110每检测一次所述眼动焦点所需的时间小于所述第一指定时间。所述形成单元120将具体根据N个所述眼动焦点生成所述焦点区域。在本实施例中利用检测单元110多次检测来确定一个焦点区域,这样显然可以提升根据用户眼动定位用户眼睛所关注的显示单元的显示内容的精确度。
实施例九:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述检测单元110,具体用于在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
所述电子设备,还包括:
第一统计单元,用于统计在第二指定时间内的眼动焦点的第一分布密度;
第一确定单元,用于基于所述第一分布密度,确定所述第一指定时间的时长。
本实施例所述第一统计单元可包括计时器、计数器和计算器等结构或同时具有计时、计数及计算功能的处理器或处理电路等结构。所述计时器可用于对所述第二指定时间进行计时。所述计数器可用于对在第二指定时间内各个位置的眼动焦点进行计数。所述计算器可用于计算各个位置的眼动焦点的第二分布密度。
所述第一确定单元可对应于电子设备内的处理器或处理电路,这里的处理器或处理电路的详细描述可参见前述实施例。将根据所述第一分布密度调整所述第一指定时间的时长,从而平衡响应速率、定位精确度及用户视觉感受之间的矛盾,尽可能的保证响应速率较快的同时确保一定的精确度和用户视觉感受的良好度。
作为本实施例的进一步改进,所述第一确定单元,用于若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
在本实施例所述第一确定单元可包括比较器或具有比较功能的处理器,例如,比较器将第一分布密度与第一密度阈值进行大小的比较。当然所述第一确定单元还可包括处理器或处理电路,所述处理器或处理电路可根据第一分布密度与第一密度阈值的比较结果,缩小第一指定时间的时长。确定维持或增大所述第一指定时间的时长。此处,在本实施例前述技术方案提供的电子设备的基础上,还提供了具体如何调整第一指定时间的时长的电子设备的可选结构,具有结构简单及实现简便的特点。
实施例十:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述显示单元130上显示有至少一个交互对象;
所述电子设备还包括:
第二统计单元,用于统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
第二确定单元,用于基于所述第二分布密度,确定所述焦点区域作用的交互对象。
本实施例所述交互对象可包括显示单元显示的各种能够信息交互的对象,例如,图像交互对象、文字交互对象等。
本实施例第二统计单元对应的硬件结构与前述实施例中第一统计单元的硬件结构类似,所述第二确定单元也与前述实施例中第一确定单元对应的硬件结构类似。不同的是本实施例中所述第二统计单元统计的第一指定时间内所述焦点区域内所述眼动焦点的分布密度,在本实施例中该分布密度称之为第二分布密度。在本实施例中所述第二确定单元将基于所述第二分布密度,来确定所述焦点区域作用的交互对象。例如,在本实施例中将根据所述焦点区域的第二分布密度确定是否选定了某一个交互对象,选定了哪一个交互对象。本实施例所述的电子设备根据叠分布密度来确定交互对象,相对于现有技术中依据单一的一个眼动焦点来确定交互对象,能够提升眼动定位交互对象的精确度。
实施例十一:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述电子设备还包括:
第三统计单元,用于统计在第三指定时间内的眼动焦点的第三分布密度;
第三确定单元,用于基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
本实施例所述的第三统计单元对应的硬件结构可参见前述实施例的第一统计单元或第二统计单元,同样是可包括计时器、计数器或计算器等结构,来确定第三指定时间内的第三分布密度。这里的第三确定单元对应的硬件结构也与第一确定单元或第二确定单元类似。在本实施例中将根据第三指定时间内的第三分布密度动态的调整所述焦点区域的显示面积,这样就能够很好的平衡好焦点区域的定位精确度与用户视觉感受之间的矛盾。
作为本实施例的进一步改进,所述第三确定单元,用于若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
在图5中显示单元显示的焦点区域111的显示面积由黑色实心点表示的区域扩到黑边白底的圆圈表示的区域,显然是焦点区域111的显示区域的增大。
在本实施例中所述第三确定单元可对应于比较器或比较电路或具有比较功能的处理器或处理电路,可通过将第三分布密度与第二密度阈值的比较,确定是缩小焦点区域的显示面积、还是维持焦点区域的显示面积不变还是增大所述焦点区域的显示面积。采用本实施例所述的电子设备根据第三指定时间内的第三分布密度,动态调整所述焦点区域的显示面积,具有结构简单及实现简便的特点。
实施例十二:
如图6所示,本实施例提供一种电子设备,所述电子设备包括:
检测单元110,用于检测作用于显示单元的眼动焦点;
形成单元120,用于基于所述眼动焦点,形成焦点区域;
显示单元130,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
所述形成单元120,具体用于统计所述第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
在本实施例中所述形成单元120的具体结构可参见前述实施例,在本实施例中所述形成单元120会确定焦点求的显示面积,还会确定焦点区域的显示位置。在本实施例中会将所述第五指定时间内检测到焦点区域所覆盖的显示范围分为若干个所述第一区域,这里的第一区域的显示面积是小于所述焦点区域的显示面积,在统计各个第一区域的眼动焦点的分布密度,选择出分布密度最大的一个第一区域作为本实施例中所述焦点区域的中心区域,这样就能够简便的确定出所述焦点区域的显示面积了,具有结构简单及实现简便的特点。
以下结合上述任意一个实施例提供一个具体示例:
如图7所示,本实施例提供一个信息处理方法,包括:
步骤S1:检测时间t内的焦点密度p;这里的焦点密度对应于前述实施例中分布密度。
步骤S2:判断p是否大于密度阈值,若是则进入步骤S3,若否则进入步骤S4,这里的密度阈值对应于前述实施例中的分布密度。
步骤S3:增大t或增大焦点区域的面积。
步骤S4:减小t。当然在具体的实现过程中,所述步骤S4还可包括缩小焦点区域的面积。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (14)

1.一种信息处理方法,其特征在于,所述方法包括:
统计在第二指定时间内的眼动焦点的第一分布密度;
基于所述第一分布密度,确定第一指定时间的时长;
在所述第一指定时间内,检测作用于显示单元的眼动焦点;
基于所述眼动焦点,形成焦点区域;
显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
2.根据权利要求1所述的方法,其特征在于,
所述在所述第一指定时间内,检测作用于显示单元的眼动焦点,包括:
在第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
3.根据权利要求1所述的方法,其特征在于,
所述基于所述第一分布密度,确定第一指定时间的时长,包括
若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;
若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
4.根据权利要求2所述的方法,其特征在于,
所述显示单元上显示有至少一个交互对象;
所述方法还包括:
统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
基于所述第二分布密度,确定所述焦点区域作用的交互对象。
5.根据权利要求1或2所述的方法,其特征在于,
所述方法还包括:
统计在第三指定时间内的眼动焦点的第三分布密度;
基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
6.根据权利要求5所述的方法,其特征在于,
所述基于所述第三分布密度确定,确定在第四指定时间内所述焦点区域的显示面积,包括:
若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;
若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
7.根据权利要求1至4、6任一项所述的方法,其特征在于,
所述基于所述眼动焦点,形成焦点区域,包括:
统计第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;
选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;
所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
8.一种电子设备,其特征在于,所述电子设备包括:
第一统计单元,用于统计在第二指定时间内的眼动焦点的第一分布密度;
第一确定单元,用于基于所述第一分布密度,确定第一指定时间的时长;
检测单元,用于在所述第一指定时间内,检测作用于显示单元的眼动焦点;
形成单元,用于基于所述眼动焦点,形成焦点区域;
显示单元,用于显示所述焦点区域;其中,所述焦点区域的显示面积大于所述眼动焦点对应的显示面积;所述眼动焦点位于所述焦点区域内。
9.根据权利要求8所述的电子设备,其特征在于,
所述检测单元,具体用于在所述第一指定时间内,检测作用于所述显示单元的N个眼动焦点;其中,所述N不小于2。
10.根据权利要求8所述的电子设备,其特征在于,
所述第一确定单元,用于若所述第一分布密度不小于第一密度阈值,缩小所述第一指定时间的时长;若所述第一分布密度小于所述第一密度阈值,维持或增大所述第一指定时间的时长。
11.根据权利要求9所述的电子设备,其特征在于,
所述显示单元上显示有至少一个交互对象;
所述电子设备还包括:
第二统计单元,用于统计所述第一指定时间内,对应于所述焦点区域的第二分布密度;
第二确定单元,用于基于所述第二分布密度,确定所述焦点区域作用的交互对象。
12.根据权利要求8或9所述的电子设备,其特征在于,
所述电子设备还包括:
第三统计单元,用于统计在第三指定时间内的眼动焦点的第三分布密度;
第三确定单元,用于基于所述第三分布密度,确定在第四指定时间内所述焦点区域的显示面积;
其中,所述第四指定时间晚于所述第三指定时间。
13.根据权利要求12所述的电子设备,其特征在于,
所述第三确定单元,用于若所述第三分布密度不小于第二密度阈值,缩小所述焦点区域的显示面积;若所述第三分布密度小于所述第二密度阈值,维持或增大所述焦点区域的显示面积。
14.根据权利要求8至11、13任一项所述的电子设备,其特征在于,
所述形成单元,具体用于统计第五指定时间内,所述眼动焦点作用于显示单元上各个第一区域内的第四分布密度;选择所述第四分布密度最大的第一区域作为所述焦点区域的中心区域;所述第一区域的显示面积不大于所述焦点区域的显示面积,且所述焦点区域包括所述第一区域。
CN201511031049.4A 2015-12-31 2015-12-31 信息处理方法及电子设备 Active CN105677026B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201511031049.4A CN105677026B (zh) 2015-12-31 2015-12-31 信息处理方法及电子设备
US15/374,987 US20170192503A1 (en) 2015-12-31 2016-12-09 Electronic Device and Method for Displaying Focal Region via Display Unit for Control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511031049.4A CN105677026B (zh) 2015-12-31 2015-12-31 信息处理方法及电子设备

Publications (2)

Publication Number Publication Date
CN105677026A CN105677026A (zh) 2016-06-15
CN105677026B true CN105677026B (zh) 2020-01-31

Family

ID=56189927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511031049.4A Active CN105677026B (zh) 2015-12-31 2015-12-31 信息处理方法及电子设备

Country Status (2)

Country Link
US (1) US20170192503A1 (zh)
CN (1) CN105677026B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106445085B (zh) * 2016-10-11 2019-07-23 传线网络科技(上海)有限公司 基于虚拟现实的交互控制方法及装置
CN106534678B (zh) * 2016-10-28 2020-06-09 潍坊恩源信息科技有限公司 一种移动终端及其控制方法
US10732826B2 (en) * 2017-11-22 2020-08-04 Microsoft Technology Licensing, Llc Dynamic device interaction adaptation based on user engagement
CN113419631B (zh) * 2021-06-30 2022-08-09 珠海云洲智能科技股份有限公司 一种编队控制方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101515199A (zh) * 2009-03-24 2009-08-26 北京理工大学 一种基于视线跟踪和p300脑电电位的字符输入装置
CN104145232A (zh) * 2012-01-04 2014-11-12 托比技术股份公司 用于注视交互的系统
CN104641316A (zh) * 2012-07-30 2015-05-20 约翰·哈登 光标移动设备
CN105159460A (zh) * 2015-09-10 2015-12-16 哈尔滨理工大学 基于眼动跟踪的智能家居控制器及其控制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
JP5854553B2 (ja) * 2011-10-18 2016-02-09 富士電機株式会社 目視検査支援装置及び目視検査支援装置の制御方法
KR102098277B1 (ko) * 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP6123694B2 (ja) * 2014-02-10 2017-05-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101515199A (zh) * 2009-03-24 2009-08-26 北京理工大学 一种基于视线跟踪和p300脑电电位的字符输入装置
CN104145232A (zh) * 2012-01-04 2014-11-12 托比技术股份公司 用于注视交互的系统
CN104641316A (zh) * 2012-07-30 2015-05-20 约翰·哈登 光标移动设备
CN105159460A (zh) * 2015-09-10 2015-12-16 哈尔滨理工大学 基于眼动跟踪的智能家居控制器及其控制方法

Also Published As

Publication number Publication date
CN105677026A (zh) 2016-06-15
US20170192503A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
CN105677026B (zh) 信息处理方法及电子设备
US8593418B2 (en) Method and system for adjusting display content
WO2016165522A1 (zh) 驱动方法及装置、显示装置
CN102253753B (zh) 用于触摸传感器数据的运动锁定的运动分量优势度因子
CN105807997B (zh) 一种触控屏灵敏度调整方法及装置
JP6206791B2 (ja) 集中度計測装置、プログラム
CN103885675B (zh) 一种控制方法及电子设备
US20130152002A1 (en) Data collection and analysis for adaptive user interfaces
US9459789B2 (en) Information processing apparatus and operation method thereof for determining a flick operation of a pointer
CN112988303B (zh) 一种电子墨水屏刷新方法、装置、电子设备及存储介质
KR20210007054A (ko) 애플리케이션의 사용을 제한하는 방법 및 단말기
US20180095528A1 (en) Apparatus, system and method for dynamic modification of a graphical user interface
US10067594B2 (en) Method and device for controlling touch screen
CN105843480A (zh) 桌面图标调整方法及装置
CN105824496A (zh) 一种基于用户使用情况设置图标亮度的方法和移动终端
JP2018205447A (ja) ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
CN109003665A (zh) 基于终端设备的视力检测方法、装置、设备及存储介质
CN103365541A (zh) 展示窗口的方法及终端
TWI610220B (zh) 自動控制顯示螢幕密度的設備及方法
US20180307359A1 (en) Touch determining device and method, and display device
CN109389082B (zh) 视线采集方法、装置、系统、计算机可读存储介质
US10198088B2 (en) Non-transitory computer readable recording medium can perform optical movement quality determining method and related optical movement detecting system
CN106293446B (zh) 显示方法及显示设备
CN115793918A (zh) 壁纸显示方法、装置和电子设备
CN104731503B (zh) 一种控制方法及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant