CN106339069A - 屏幕处理方法及装置 - Google Patents
屏幕处理方法及装置 Download PDFInfo
- Publication number
- CN106339069A CN106339069A CN201510395695.2A CN201510395695A CN106339069A CN 106339069 A CN106339069 A CN 106339069A CN 201510395695 A CN201510395695 A CN 201510395695A CN 106339069 A CN106339069 A CN 106339069A
- Authority
- CN
- China
- Prior art keywords
- wearable device
- screen
- user
- angle change
- described user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
本申请提供一种屏幕处理方法及装置。一种方法包括:监测用户是否发出使用穿戴设备的动作;判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上;若用户发出使用穿戴设备的动作,并且用户的视觉焦点聚焦于屏幕上,则调整屏幕。本申请将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。
Description
【技术领域】
本申请涉及电子屏幕技术领域,尤其涉及一种屏幕处理方法及装置。
【背景技术】
穿戴设备主要是指能够直接穿在用户身上,或是整合到用户的衣服或配件中的一种便携式设备,例如手机、电子腕表等。穿戴设备不仅仅是一种硬件设备,而且可以通过软件支持以及数据交互、云端交互来实现强大的功能。
对于穿戴设备来说,要想发挥其强大的功能,离不开其屏幕。在使用穿戴设备的过程中,用户经常需要调整穿戴设备的屏幕,例如激活、关闭等。传统的调整方式是触控方式,即通过触控穿戴设备上的物理按钮来调整屏幕。这种操作方式虽然操作简单,但在一些特殊环境下会给用户来带一定的麻烦。例如,用户正处于运动中或者双手并无空闲时,用户无法完成屏幕的激活或关闭等操作。
针对上述问题,现有技术提出一种手势调整方式,即通过特定手势或用户的常用动作来调整屏幕的方式。与传统方式相比,这种方式具有一定的灵活性和便利性,但是也存在一定弊端,就是非常容易引发误操作,因为用户在进行其他运动或者动作行为时,有可能触发类似的动作,导致穿戴设备的屏幕被频繁的误调整。
【发明内容】
本申请的多个方面提供一种屏幕处理方法及装置,用以提高屏幕调整的准确度,降低误调整的概率。
本申请的一方面,提供一种屏幕处理方法,包括:
监测用户是否发出使用穿戴设备的动作;
判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
若所述用户发出使用所述穿戴设备的动作且所述用户的视觉焦点聚焦于所述屏幕上,则调整所述屏幕。
本申请的另一方面,提供一种屏幕处理方法,包括:
监测用户是否发出终止使用穿戴设备的动作;
判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
若所述用户发出终止使用所述穿戴设备的动作且所述用户的视觉焦点未聚焦于所述屏幕上,则调整所述屏幕。
本申请的又一方面,提供一种屏幕处理装置,包括:
监测模块,用于监测用户是否发出使用穿戴设备的动作;
判断模块,用于判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
调整模块,用于在所述用户发出使用所述穿戴设备的动作且所述用户的视觉焦点聚焦于所述屏幕上时,调整所述屏幕。
本申请的又一方面,提供一种屏幕处理装置,包括:
监测模块,用于监测用户是否发出终止使用穿戴设备的动作;
判断模块,用于判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
调整模块,用于在所述用户发出终止使用所述穿戴设备的动作且所述用户的视觉焦点未聚焦于所述屏幕上时,调整所述屏幕。
本申请首先监测用户是否发出使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,只有在用户发出使用穿戴设备的动作且用户的视觉焦点聚焦于穿戴设备的屏幕上时,才调整穿戴设备的屏幕。由此可见,本申请将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的屏幕处理方法的流程示意图;
图2为本申请另一实施例提供的屏幕处理方法的流程示意图;
图3为本申请一实施例提供的屏幕处理装置的结构示意图;
图4为本申请另一实施例提供的屏幕处理装置的结构示意图;
图5为本申请又一实施例提供的屏幕处理装置的结构示意图;
图6为本申请又一实施例提供的屏幕处理装置的结构示意图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在现有技术中,用户可能发出一些动作,这些动作类似用户调整屏幕使用的动作,这些类似动作可能导致屏幕被调整,但实际上用户并不希望调整屏幕,从而出现误调整的问题。针对屏幕被误调整的问题,本申请提供一种解决方案,该方案的主要原理是:结合用户动作与视觉焦点,只有用户发出使用穿戴设备的动作并且用户的视觉焦点聚焦于穿戴设备的屏幕上时,才调整屏幕,否则,保持屏幕处于初始状态。由于需要两个条件才能调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。
图1为本申请一实施例提供的屏幕处理方法的流程示意图。如图1所示,该方法包括:
101、监测用户是否发出使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。
103、若用户发出使用穿戴设备的动作且用户的视觉焦点聚焦于屏幕上,则调整屏幕。
本实施例提供一种屏幕处理方法,主要用于调整穿戴设备的屏幕。该方法可由屏幕处理装置来执行。屏幕处理装置可以作为穿戴设备中的一个模块来实现,或者也可以独立于穿戴设备,但可以与穿戴设备进行通信。
在本实施例中,所述穿戴设备可以是能够直接穿在用户身上的便携式设备,例如智能腕表、手环等;或者也可以是能够整合到用户的衣服或配件中的便携式设备,例如手机、Mp3、平板电脑等。
在实际应用中,用户需要使用穿戴设备时,一般会发出使用穿戴设备的动作,从而使穿戴设备处于便于使用的位置。举例说明,对于智能腕表,用户会移动手臂,将智能腕表的屏幕移动到适合用户查看的高度和方向,进一步,用户还可以配合转头或低头等动作。对于手机,用户会从口袋或手包中拿出手机,并将手机举至适合用户查看的高度和方向,进一步,用户还可以配合转头或低头等动作。
基于上述,屏幕处理装置可以监测用户是否发出使用穿戴设备的动作,从而预测用户是否需要使用穿戴设备,以便于为判断是否调整穿戴设备的屏幕提供依据。如果监测到用户发出了使用穿戴设备的动作,则确定用户需要使用穿戴设备,则可以初步确定需要调整穿戴设备的屏幕。如果未监测到用户发出使用穿戴设备的动作,则确定用户不需要使用穿戴设备,则可以直接确定不需要调整穿戴设备的屏幕。
通常来说,用户使用穿戴设备而发出的动作可以通过穿戴设备的移动轨迹来体现。基于此,可以预先设定一轨迹范围,该轨迹范围可由穿戴设备针对用户使用穿戴设备时发出的常规或习惯性的动作所体现的移动轨迹获得。基于此,屏幕处理装置可以监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内,若监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定用户发出使用穿戴设备的动作;若监测到穿戴设备在空间上的移动轨迹未落在预设轨迹范围内,则确定用户未发出使用穿戴设备的动作。
具体的,屏幕处理装置可以通过穿戴设备自带的各种传感器,例如速度传感器、陀螺仪、磁传感器或位移传感器来监测穿戴设备在空间上的移动轨迹。
值得说明的是,针对不同的穿戴设备,用户使用时所发出的动作也会有所不同,意味着穿戴设备在空间上的移动轨迹会有所不同,所以判断穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内的方式也会有所不同。
在一可选实施方式中,屏幕处理装置监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内具体为:监测穿戴设备的屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件,当监测到上述角度变化满足预设角度变化条件时,确定监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内。这种监测方式适用于使用时需要旋转屏幕的穿戴设备,例如智能腕表、智能手环等。
具体的,以穿戴于用户手腕上的穿戴设备,例如智能腕表或智能手环为例,预设角度变化条件包括角度变化的方向和角度变化的大小。其中,角度变化的方向可分为顺时针方向和逆时针方向,具体可根据实际应用情况而设定。其中,角度变化的大小可通过预设的角度阈值来判断。一般来说,若穿戴设备穿戴于用户的左手,则按照用户使用习惯可知,用户使用穿戴设备时,穿戴设备的移动轨迹是从下往上并且会按照顺时针旋转,基于此,屏幕处理装置可以判断穿戴设备的屏幕所在平面与重力方向之间的角度变化的方向是否为顺时针,且该角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到该角度变化符合预设角度变化条件。另外,若穿戴设备穿戴于用户的右手,则按照用户使用习惯可知,用户使用穿戴设备时,穿戴设备的移动轨迹是从下往上并且会按照逆时针旋转,基于此,屏幕处理装置可以判断穿戴设备的屏幕所在平面与重力方向之间的角度变化的方向是否为逆时针,且该角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到该角度变化符合预设角度变化条件。
在上述判断角度变化的大小是否大于预设的第一角度阈值中,第一角度阈值可以是60度,但不限于此。相应的,在在上述判断角度变化的大小是否大于预设的第二角度阈值中,第二角度阈值可以是60度。第一角度阈值和第二角度阈值可以相同,也可以不相同。
在另一可选实施方式中,屏幕处理装置监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内具体为:监测指定时间内穿戴设备的X轴、Y轴和Z轴方向的加速度值和角速度值;根据穿戴设备的X轴、Y轴和Z轴方向的加速度值和角速度值,确定穿戴设备在空间上的移动轨迹上;然后判断该移动轨迹是否落在预设轨迹范围内。
在本实施例中,除了监测用户是否发出使用穿戴设备的动作之外,还要判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,以便于结合用户动作与视觉焦点来确定是否调整穿戴设备的屏幕。本实施例不需要限定监测用户是否发出使用穿戴设备的动作与判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上这两个操作的执行顺序。优选的,先执行监测用户是否发出使用穿戴设备的动作,在监测到用户发出使用穿戴设备的动作后,再判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。这样如果监测到用户未发出使用穿戴设备的动作,则可以不用执行后续判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上的操作,有利于节约资源。
在一可选实施方式中,判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上的方式具体为:
对用户进行视线追踪处理,以获得用户的视线落点;
若用户的视线落点位于屏幕上,确定用户的视觉聚焦于屏幕上;
若用户的视线落点未位于屏幕上,确定用户的视觉未聚焦于屏幕上。
上述对用户进行视线追踪处理,以获得用户的视线落点的一种实施方式为:启动穿戴设备上的摄像头;通过摄像头录制指定时间长度的用户的眼睛运动,以获得眼动视频;对眼动视频进行图像分析,以获得用户的视线落点。
在通过摄像头录制指定时间长度的用户的眼睛运动中,所述指定时间长度不做限定,可以根据不同穿戴设备进行适应性设置,例如可以是但不限于2秒钟。
值得说明的是,本实施例中对穿戴设备的屏幕的调整主要包括激活屏幕,或者调整屏幕的亮度,一般是增加屏幕的亮度。
可选的,若用户未发出使用穿戴设备的动作或用户的视觉焦点未聚焦于屏幕上,则保持屏幕处于初始状态。这里的初始状态可以是休眠状态,或者亮度较低的状态。亮度较低是指屏幕亮度低于亮度阈值。
综上可见,本实施例提供的屏幕处理方法,监测用户是否发出使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,只有在用户发出了使用穿戴设备的动作并且用户的视觉焦点聚焦于穿戴设备的屏幕上时,才调整穿戴设备的屏幕。由此可见,本实施例通过将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。另外,采用本实施例提供的方法,用户无需任何手动操作,即可便捷准确的完成屏幕的调整,给穿戴设备的使用带来便利。
值得说明的是,上述方法原理不仅可用于在穿戴设备的屏幕处于休眠状态时激活屏幕,或者在屏幕亮度较低时增加屏幕亮度,还可以用于在穿戴设备的屏幕处于激活状态时关闭屏幕,或者在屏幕亮度较高时降低屏幕亮度。
图2为本申请另一实施例提供的屏幕处理方法的流程示意图。如图2所示,该方法包括:
201、监测用户是否发出终止使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。
203、若用户发出终止使用穿戴设备的动作且用户的视觉焦点未聚焦于屏幕上,则调整屏幕。
本实施例提供一种屏幕处理方法,主要用于调整穿戴设备的屏幕。该方法可由屏幕处理装置来执行。屏幕处理装置可以作为穿戴设备中的一个模块来实现,或者也可以独立于穿戴设备,但可以与穿戴设备进行通信。
在本实施例中,所述穿戴设备可以是能够直接穿在用户身上的便携式设备,例如智能腕表、手环等;或者也可以是能够整合到用户的衣服或配件中的便携式设备,例如手机、Mp3、平板电脑等。
在实际应用中,用户需要使用穿戴设备时,一般会发出使用穿戴设备的动作,从而使穿戴设备处于便于使用的位置。举例说明,对于智能腕表,用户会移动手臂,将智能腕表的屏幕移动到适合用户查看的高度和方向,进一步,用户还可以配合转头或低头等动作。对于手机,用户会从口袋或手包中拿出手机,并将手机举至适合用户查看的高度和方向,进一步,用户还可以配合转头或低头等动作。相应的,当用户终止使用穿戴设备时,会发出终止使用穿戴设备的动作,该动作可能时与使用穿戴设备时相反的动作。
基于上述,屏幕处理装置可以监测用户是否发出终止使用穿戴设备的动作,从而预测用户是否需要终止使用穿戴设备,以便于为判断是否调整穿戴设备的屏幕提供依据。如果监测到用户发出了终止使用穿戴设备的动作,则确定用户需要终止使用穿戴设备,则可以初步确定需要调整穿戴设备的屏幕。如果未监测到用户发出终止使用穿戴设备的动作,则确定用户需要继续使用穿戴设备,则可以继续保持穿戴设备的屏幕处于初始状态。
通常来说,用户终止使用穿戴设备而发出的动作可以通过穿戴设备的移动轨迹来体现。基于此,可以预先设定一轨迹范围,该轨迹范围可由穿戴设备针对用户终止使用穿戴设备时发出的常规或习惯性的动作所体现的移动轨迹获得。基于此,屏幕处理装置可以监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内,若监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定用户发出终止使用穿戴设备的动作;若监测到穿戴设备在空间上的移动轨迹未落在预设轨迹范围内,则确定用户未发出终止使用穿戴设备的动作。值得说明的是,这里的轨迹范围与上述用户使用穿戴设备时预先设定的轨迹范围相同,但方向相反。
具体的,屏幕处理装置可以通过穿戴设备自带的各种传感器,例如速度传感器、陀螺仪、磁传感器或位移传感器来监测穿戴设备在空间上的移动轨迹。
值得说明的是,针对不同的穿戴设备,用户终止使用时所发出的动作也会有所不同,意味着穿戴设备在空间上的移动轨迹会有所不同,所以判断穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内的方式也会有所不同。
在一可选实施方式中,屏幕处理装置监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内具体为:监测穿戴设备的屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件,当监测到上述角度变化满足预设角度变化条件时,确定监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内。这种监测方式适用于终止使用时需要旋转屏幕的穿戴设备,例如智能腕表、智能手环等。
具体的,以穿戴于用户手腕上的穿戴设备,例如智能腕表或智能手环为例,预设角度变化条件包括角度变化的方向和角度变化的大小。其中,角度变化的方向可分为顺时针方向和逆时针方向,具体可根据实际应用情况而设定。其中,角度变化的大小可通过预设的角度阈值来判断。一般来说,若穿戴设备穿戴于用户的左手,则按照用户使用习惯可知,用户终止使用穿戴设备时,穿戴设备的移动轨迹是从上往下并且会按照逆时针旋转,基于此,屏幕处理装置可以判断穿戴设备的屏幕所在平面与重力方向之间的角度变化的方向是否为逆时针,且该角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到该角度变化符合预设角度变化条件。另外,若穿戴设备穿戴于用户的右手,则按照用户使用习惯可知,用户终止使用穿戴设备时,穿戴设备的移动轨迹是从上往下并且会按照顺时针旋转,基于此,屏幕处理装置可以判断穿戴设备的屏幕所在平面与重力方向之间的角度变化的方向是否为顺时针,且该角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到该角度变化符合预设角度变化条件。
在上述判断角度变化的大小是否大于预设的第一角度阈值中,第一角度阈值可以是60度,但不限于此。相应的,在在上述判断角度变化的大小是否大于预设的第二角度阈值中,第二角度阈值可以是60度。第一角度阈值和第二角度阈值可以相同,也可以不相同。
在另一可选实施方式中,屏幕处理装置监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内具体为:监测指定时间内穿戴设备的X轴、Y轴和Z轴方向的加速度值和角速度值;根据穿戴设备的X轴、Y轴和Z轴方向的加速度值和角速度值,确定穿戴设备在空间上的移动轨迹上;然后判断该移动轨迹是否落在预设轨迹范围内。
在本实施例中,除了监测用户是否发出终止使用穿戴设备的动作之外,还要判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,以便于结合用户动作与视觉焦点来确定是否调整穿戴设备的屏幕。本实施例不需要限定监测用户是否发出终止使用穿戴设备的动作与判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上这两个操作的执行顺序。优选的,先执行监测用户是否发出终止使用穿戴设备的动作,在监测到用户发出终止使用穿戴设备的动作后,再判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。这样如果监测到用户未发出终止使用穿戴设备的动作,则可以不用执行后续判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上的操作,有利于节约资源。
在一可选实施方式中,判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上的方式具体为:
对用户进行视线追踪处理,以获得用户的视线落点;
若用户的视线落点位于屏幕上,确定用户的视觉聚焦于屏幕上;
若用户的视线落点未位于屏幕上,确定用户的视觉未聚焦于屏幕上。
上述对用户进行视线追踪处理,以获得用户的视线落点的一种实施方式为:启动穿戴设备上的摄像头;通过摄像头录制指定时间长度的用户的眼睛运动,以获得眼动视频;对眼动视频进行图像分析,以获得用户的视线落点。
在通过摄像头录制指定时间长度的用户的眼睛运动中,所述指定时间长度不做限定,可以根据不同穿戴设备进行适应性设置,例如可以是但不限于2秒钟。
值得说明的是,本实施例中对穿戴设备的屏幕的调整主要包括关闭屏幕,或者调整屏幕的亮度,一般是降低屏幕的亮度。
可选的,若用户未发出终止使用穿戴设备的动作或用户的视觉焦点聚焦于屏幕上,则保持屏幕处于初始状态。这里的初始状态可以是激活状态,或者亮度较高的状态。亮度较高是指屏幕亮度大于亮度阈值。
综上可见,本实施例提供的屏幕处理方法,监测用户是否发出终止使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,只有在用户发出终止使用穿戴设备的动作并且用户的视觉焦点未聚焦于穿戴设备的屏幕上时,才调整穿戴设备的屏幕。由此可见,本实施例通过将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。另外,采用本实施例提供的方法,用户无需任何手动操作,即可便捷准确的完成屏幕的调整,给穿戴设备的使用带来便利。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图3为本申请一实施例提供的屏幕处理装置的结构示意图。如图3所示,该装置包括:监测模块31、判断模块32和调整模块33。
监测模块31,用于监测用户是否发出使用穿戴设备的动作。
判断模块32,用于判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。
调整模块33,用于在监测模块31监测到用户发出使用穿戴设备的动作并且判断模块32判断出用户的视觉焦点聚焦于屏幕上时,调整屏幕。这里的调整屏幕主要是指激活屏幕,或调整屏幕的亮度,一般是增加屏幕的亮度。
在一可选实施方式中,如图4所示,该装置还包括:保持模块34。
保持模块34,用于在监测模块31监测到用户未发出使用穿戴设备的动作或者判断模块32判断出用户的视觉焦点未聚焦于屏幕上时,保持屏幕处于初始状态。所述初始状态为休眠状态或屏幕亮度较低的状态。亮度较低是指屏幕亮度低于亮度阈值。
在一可选实施方式中,判断模块32具体用于:在监测模块31监测到用户发出使用穿戴设备的动作后,判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。
在一可选实施方式中,监测模块31具体可用于:
监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定用户发出使用穿戴设备的动作。
在一可选实施方式中,监测模块31在监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内时,具体用于:
监测屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到角度变化满足预设角度变化条件时,确定监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
在一可选实施方式中,监测模块31在监测屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件时,具体用于:
若穿戴设备穿戴于用户的左手,判断角度变化的方向是否为顺时针,且角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到角度变化满足预设角度变化条件;
若穿戴设备穿戴于用户的右手,判断角度变化的方向是否为逆时针,且角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到角度变化满足预设角度变化条件。
在一可选实施方式中,判断模块32具体用于:
对用户进行视线追踪处理,以获得用户的视线落点;
若用户的视线落点位于屏幕上,确定用户的视觉聚焦于屏幕上;
若用户的视线落点未位于屏幕上,确定用户的视觉未聚焦于屏幕上。
进一步,判断模块32在对用户进行视线追踪处理,以获得用户的视线落点时,具体用于:
启动穿戴设备上的摄像头;
通过摄像头录制指定时间长度的用户的眼睛运动,以获得眼动视频;
对眼动视频进行图像分析,以获得用户的视线落点。
本实施例提供的屏幕处理装置,监测用户是否发出使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,只有在监测到用户发出使用穿戴设备的动作并且用户的视觉焦点聚焦于穿戴设备的屏幕上时,才调整穿戴设备的屏幕。由此可见,本实施例提供的屏幕处理装置将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。
图5为本申请又一实施例提供的屏幕处理装置的结构示意图。如图5所示,该装置包括:监测模块51、判断模块52和调整模块53。
监测模块51,用于监测用户是否发出终止使用穿戴设备的动作;
判断模块52,用于判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上;
调整模块53,用于在监测模块51监测到用户发出终止使用穿戴设备的动作并且判断模块52判断出用户的视觉焦点未聚焦于屏幕上时,调整屏幕。这里的调整屏幕主要是指关闭屏幕,或调整屏幕的亮度,一般是降低屏幕的亮度。
在一可选实施方式中,如图6所示,该装置还包括:保持模块54。
保持模块54,用于在监测模块51监测到用户未发出终止使用穿戴设备的动作或者判断模块52判断出用户的视觉焦点聚焦于屏幕上时,保持屏幕处于初始状态。这里的初始状态可以是激活状态,或者亮度较高的状态。亮度较高是指屏幕亮度大于亮度阈值。
在一可选实施方式中,判断模块52具体用于:在监测模块51监测到用户发出终止使用穿戴设备的动作后,判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上。
在一可选实施方式中,监测模块51具体可用于:
监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定用户发出终止使用穿戴设备的动作。
进一步,监测模块51在监测穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内时,具体可用于:
监测屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到角度变化满足预设角度变化条件时,确定监测到穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
进一步,监测模块51在监测屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件时,具体可用于:
若穿戴设备穿戴于用户的左手,判断角度变化的方向是否为逆时针,且角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到角度变化满足预设角度变化条件;
若穿戴设备穿戴于用户的右手,判断角度变化的方向是否为顺时针,且角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到角度变化满足预设角度变化条件。
在一可选实施方式中,判断模块52具体用于:
对用户进行视线追踪处理,以获得用户的视线落点;
若用户的视线落点位于屏幕上,确定用户的视觉聚焦于屏幕上;
若用户的视线落点未位于屏幕上,确定用户的视觉未聚焦于屏幕上。
进一步,判断模块52在对用户进行视线追踪处理,以获得用户的视线落点时,具体用于:
启动穿戴设备上的摄像头;
通过摄像头录制指定时间长度的用户的眼睛运动,以获得眼动视频;
对眼动视频进行图像分析,以获得用户的视线落点。
本实施例提供的屏幕处理装置,监测用户是否发出终止使用穿戴设备的动作,并判断用户的视觉焦点是否聚焦于穿戴设备的屏幕上,只有在监测到用户发出终止使用穿戴设备的动作并且用户的视觉焦点未聚焦于穿戴设备的屏幕上时,才调整穿戴设备的屏幕。由此可见,本实施例提供的屏幕处理装置通过将用户动作与视觉焦点相结合,只有在满足两个条件时,才调整屏幕,有利于提高调整屏幕的准确度,降低误调整的概率。另外,采用本实施例提供的方法,用户无需任何手动操作,即可便捷准确的完成屏幕的调整,给穿戴设备的使用带来便利。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (32)
1.一种屏幕处理方法,其特征在于,包括:
监测用户是否发出使用穿戴设备的动作;
判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
若所述用户发出使用所述穿戴设备的动作且所述用户的视觉焦点聚焦于所述屏幕上,则调整所述屏幕。
2.根据权利要求1所述的方法,其特征在于,所述判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上,具体为:
在监测到所述用户发出使用所述穿戴设备的动作后,判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上。
3.根据权利要求1所述的方法,其特征在于,还包括:
若所述用户未发出使用所述穿戴设备的动作或所述用户的视觉焦点未聚焦于所述屏幕上,则保持所述屏幕处于初始状态。
4.根据权利要求1所述的方法,其特征在于,所述监测用户是否发出使用穿戴设备的动作,包括:
监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定所述用户发出使用所述穿戴设备的动作。
5.根据权利要求4所述的方法,其特征在于,所述监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内,包括:
监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到所述角度变化满足预设角度变化条件时,确定监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
6.根据权利要求5所述的方法,其特征在于,所述监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件,包括:
若所述穿戴设备穿戴于所述用户的左手,判断所述角度变化的方向是否为顺时针,且所述角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件;
若所述穿戴设备穿戴于所述用户的右手,判断所述角度变化的方向是否为逆时针,且所述角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上,包括:
对所述用户进行视线追踪处理,以获得所述用户的视线落点;
若所述用户的视线落点位于所述屏幕上,确定所述用户的视觉聚焦于所述屏幕上;
若所述用户的视线落点未位于所述屏幕上,确定所述用户的视觉未聚焦于所述屏幕上。
8.根据权利要求7所述的方法,其特征在于,所述对所述用户进行视线追踪处理,以获得所述用户的视线落点,包括:
启动所述穿戴设备上的摄像头;
通过所述摄像头录制指定时间长度的所述用户的眼睛运动,以获得眼动视频;
对所述眼动视频进行图像分析,以获得所述用户的视线落点。
9.一种屏幕处理方法,其特征在于,包括:
监测用户是否发出终止使用穿戴设备的动作;
判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
若所述用户发出终止使用所述穿戴设备的动作且所述用户的视觉焦点未聚焦于所述屏幕上,则调整所述屏幕。
10.根据权利要求9所述的方法,其特征在于,所述判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上,具体为:
在监测到所述用户发出终止使用所述穿戴设备的动作后,判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上。
11.根据权利要求9所述的方法,其特征在于,还包括:
若所述用户未发出终止使用所述穿戴设备的动作或所述用户的视觉焦点聚焦于所述屏幕上,则保持所述屏幕处于初始状态。
12.根据权利要求9所述的方法,其特征在于,所述监测用户是否发出终止使用穿戴设备的动作,包括:
监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定所述用户发出终止使用所述穿戴设备的动作。
13.根据权利要求12所述的方法,其特征在于,所述监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内,包括:
监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到所述角度变化满足预设角度变化条件时,确定监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
14.根据权利要求13所述的方法,其特征在于,所述监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件,包括:
若所述穿戴设备穿戴于所述用户的左手,判断所述角度变化的方向是否为逆时针,且所述角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件;
若所述穿戴设备穿戴于所述用户的右手,判断所述角度变化的方向是否为顺时针,且所述角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件。
15.根据权利要求9-14任一项所述的方法,其特征在于,所述判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上,包括:
对所述用户进行视线追踪处理,以获得所述用户的视线落点;
若所述用户的视线落点位于所述屏幕上,确定所述用户的视觉聚焦于所述屏幕上;
若所述用户的视线落点未位于所述屏幕上,确定所述用户的视觉未聚焦于所述屏幕上。
16.根据权利要求15所述的方法,其特征在于,所述对所述用户进行视线追踪处理,以获得所述用户的视线落点,包括:
启动所述穿戴设备上的摄像头;
通过所述摄像头录制指定时间长度的所述用户的眼睛运动,以获得眼动视频;
对所述眼动视频进行图像分析,以获得所述用户的视线落点。
17.一种屏幕处理装置,其特征在于,包括:
监测模块,用于监测用户是否发出使用穿戴设备的动作;
判断模块,用于判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
调整模块,用于在所述用户发出使用所述穿戴设备的动作且所述用户的视觉焦点聚焦于所述屏幕上时,调整所述屏幕。
18.根据权利要求17所述的装置,其特征在于,所述判断模块具体用于:
在所述监测模块监测到所述用户发出使用所述穿戴设备的动作后,判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上。
19.根据权利要求17所述的装置,其特征在于,还包括:
保持模块,用于在所述用户未发出使用所述穿戴设备的动作或所述用户的视觉焦点未聚焦于所述屏幕上时,保持所述屏幕处于初始状态。
20.根据权利要求17所述的装置,其特征在于,所述监测模块具体用于:
监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定所述用户发出使用所述穿戴设备的动作。
21.根据权利要求20所述的装置,其特征在于,所述监测模块具体用于:
监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到所述角度变化满足预设角度变化条件时,确定监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
22.根据权利要求21所述的装置,其特征在于,所述监测模块具体用于:
若所述穿戴设备穿戴于所述用户的左手,判断所述角度变化的方向是否为顺时针,且所述角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件;
若所述穿戴设备穿戴于所述用户的右手,判断所述角度变化的方向是否为逆时针,且所述角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件。
23.根据权利要求17-22任一项所述的装置,其特征在于,所述判断模块具体用于:
对所述用户进行视线追踪处理,以获得所述用户的视线落点;
若所述用户的视线落点位于所述屏幕上,确定所述用户的视觉聚焦于所述屏幕上;
若所述用户的视线落点未位于所述屏幕上,确定所述用户的视觉未聚焦于所述屏幕上。
24.根据权利要求23所述的装置,其特征在于,所述判断模块具体用于:
启动所述穿戴设备上的摄像头;
通过所述摄像头录制指定时间长度的所述用户的眼睛运动,以获得眼动视频;
对所述眼动视频进行图像分析,以获得所述用户的视线落点。
25.一种屏幕处理装置,其特征在于,包括:
监测模块,用于监测用户是否发出终止使用穿戴设备的动作;
判断模块,用于判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上;
调整模块,用于在所述用户发出终止使用所述穿戴设备的动作且所述用户的视觉焦点未聚焦于所述屏幕上时,调整所述屏幕。
26.根据权利要求25所述的装置,其特征在于,所述判断模块具体用于:
在所述监测模块监测到所述用户发出终止使用所述穿戴设备的动作后,判断所述用户的视觉焦点是否聚焦于所述穿戴设备的屏幕上。
27.根据权利要求25所述的装置,其特征在于,还包括:
保持模块,用于在所述用户未发出终止使用所述穿戴设备的动作或所述用户的视觉焦点聚焦于所述屏幕上时,保持所述屏幕处于初始状态。
28.根据权利要求25所述的装置,其特征在于,所述监测模块具体用于:
监测所述穿戴设备在空间上的移动轨迹是否落在预设轨迹范围内;
若监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内,则确定所述用户发出终止使用所述穿戴设备的动作。
29.根据权利要求28所述的装置,其特征在于,所述监测模块具体用于:
监测所述屏幕所在平面与重力方向之间的角度变化是否满足预设角度变化条件;
当监测到所述角度变化满足预设角度变化条件时,确定监测到所述穿戴设备在空间上的移动轨迹落在预设轨迹范围内。
30.根据权利要求29所述的装置,其特征在于,所述监测模块具体用于:
若所述穿戴设备穿戴于所述用户的左手,判断所述角度变化的方向是否为逆时针,且所述角度变化的大小是否大于预设的第一角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件;
若所述穿戴设备穿戴于所述用户的右手,判断所述角度变化的方向是否为顺时针,且所述角度变化的大小是否大于预设的第二角度阈值;若判断结果为是,则确定监测到所述角度变化满足预设角度变化条件。
31.根据权利要求25-30任一项所述的装置,其特征在于,所述判断模块具体用于:
对所述用户进行视线追踪处理,以获得所述用户的视线落点;
若所述用户的视线落点位于所述屏幕上,确定所述用户的视觉聚焦于所述屏幕上;
若所述用户的视线落点未位于所述屏幕上,确定所述用户的视觉未聚焦于所述屏幕上。
32.根据权利要求31所述的装置,其特征在于,所述判断模块具体用于:
启动所述穿戴设备上的摄像头;
通过所述摄像头录制指定时间长度的所述用户的眼睛运动,以获得眼动视频;
对所述眼动视频进行图像分析,以获得所述用户的视线落点。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510395695.2A CN106339069A (zh) | 2015-07-08 | 2015-07-08 | 屏幕处理方法及装置 |
US15/742,841 US20180203507A1 (en) | 2015-07-08 | 2016-06-28 | Wearable device locking and unlocking using motion and gaze detection |
PCT/CN2016/087460 WO2017005114A1 (zh) | 2015-07-08 | 2016-06-28 | 屏幕处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510395695.2A CN106339069A (zh) | 2015-07-08 | 2015-07-08 | 屏幕处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106339069A true CN106339069A (zh) | 2017-01-18 |
Family
ID=57684684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510395695.2A Pending CN106339069A (zh) | 2015-07-08 | 2015-07-08 | 屏幕处理方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180203507A1 (zh) |
CN (1) | CN106339069A (zh) |
WO (1) | WO2017005114A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382691A (zh) * | 2020-03-05 | 2020-07-07 | 甄十信息科技(上海)有限公司 | 一种屏幕内容翻页的方法及移动终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156536A (zh) * | 2010-02-12 | 2011-08-17 | 英华达(南京)科技有限公司 | 移动电子装置的操控方法 |
CN103677267A (zh) * | 2013-12-09 | 2014-03-26 | 惠州Tcl移动通信有限公司 | 移动终端及其唤醒方法、装置 |
CN103793075A (zh) * | 2014-02-14 | 2014-05-14 | 北京君正集成电路股份有限公司 | 一种应用在智能手表上的识别方法及智能手表 |
CN103885592A (zh) * | 2014-03-13 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 一种在屏幕上显示信息的方法及装置 |
CN104391574A (zh) * | 2014-11-14 | 2015-03-04 | 京东方科技集团股份有限公司 | 视线处理方法、系统、终端设备及穿戴式设备 |
CN104536654A (zh) * | 2014-12-25 | 2015-04-22 | 小米科技有限责任公司 | 智能穿戴设备上的菜单选取方法、装置及智能穿戴设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1293446C (zh) * | 2005-06-02 | 2007-01-03 | 北京中星微电子有限公司 | 一种非接触式目控操作系统和方法 |
US9652135B2 (en) * | 2012-12-10 | 2017-05-16 | Samsung Electronics Co., Ltd. | Mobile device of bangle type, control method thereof, and user interface (ui) display method |
US20150185855A1 (en) * | 2013-02-24 | 2015-07-02 | Praveen Elak | Method and apparatus to continuously maintain users eyes focused on an electronic display when either one or both are moving |
TWI521382B (zh) * | 2013-12-06 | 2016-02-11 | 廣達電腦股份有限公司 | 穿戴式裝置之控制方法 |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US8811951B1 (en) * | 2014-01-07 | 2014-08-19 | Google Inc. | Managing display of private information |
CN106575150B (zh) * | 2014-08-16 | 2020-03-03 | 谷歌有限责任公司 | 使用运动数据识别手势的方法和可穿戴计算设备 |
CN106575100B (zh) * | 2014-09-04 | 2020-08-25 | 索尼公司 | 信息显示装置和信息显示方法、程序以及通信系统 |
US10228766B2 (en) * | 2014-09-12 | 2019-03-12 | Microsoft Technology Licensing, Llc | Enhanced Display Rotation |
-
2015
- 2015-07-08 CN CN201510395695.2A patent/CN106339069A/zh active Pending
-
2016
- 2016-06-28 US US15/742,841 patent/US20180203507A1/en not_active Abandoned
- 2016-06-28 WO PCT/CN2016/087460 patent/WO2017005114A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156536A (zh) * | 2010-02-12 | 2011-08-17 | 英华达(南京)科技有限公司 | 移动电子装置的操控方法 |
CN103677267A (zh) * | 2013-12-09 | 2014-03-26 | 惠州Tcl移动通信有限公司 | 移动终端及其唤醒方法、装置 |
CN103793075A (zh) * | 2014-02-14 | 2014-05-14 | 北京君正集成电路股份有限公司 | 一种应用在智能手表上的识别方法及智能手表 |
CN103885592A (zh) * | 2014-03-13 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 一种在屏幕上显示信息的方法及装置 |
CN104391574A (zh) * | 2014-11-14 | 2015-03-04 | 京东方科技集团股份有限公司 | 视线处理方法、系统、终端设备及穿戴式设备 |
CN104536654A (zh) * | 2014-12-25 | 2015-04-22 | 小米科技有限责任公司 | 智能穿戴设备上的菜单选取方法、装置及智能穿戴设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382691A (zh) * | 2020-03-05 | 2020-07-07 | 甄十信息科技(上海)有限公司 | 一种屏幕内容翻页的方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2017005114A1 (zh) | 2017-01-12 |
US20180203507A1 (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102003493B1 (ko) | 가상 현실에서 헤드, 제스쳐 및 터치 입력의 동적 전환 및 병합 | |
CN107667328B (zh) | 用于在增强和/或虚拟现实环境中跟踪手持设备的系统 | |
CN103885592B (zh) | 一种在屏幕上显示信息的方法及装置 | |
US11383166B2 (en) | Interaction method of application scene, mobile terminal, and storage medium | |
US9804679B2 (en) | Touchless user interface navigation using gestures | |
WO2017196395A1 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
US20130002534A1 (en) | Systems and Methods for Controlling a Cursor on a Display Using a Trackpad Input Device | |
US9658699B2 (en) | System and method for using a side camera for free space gesture inputs | |
EP3195098A2 (en) | Remote user interface | |
WO2016204869A1 (en) | Facilitating increased user experience and efficient power performance using intelligent segmentation on flexible display screens | |
CN113031840B (zh) | 腕戴设备的防误触发方法、装置、电子设备及存储介质 | |
CN106547204A (zh) | 一种智能手表及其亮显屏幕的方法 | |
US11592907B2 (en) | Gesture-triggered augmented-reality | |
CN105549878A (zh) | 电子书翻页控制方法及设备 | |
US10976890B2 (en) | Intelligent command batching in an augmented and/or virtual reality environment | |
KR20220073832A (ko) | 머리 및 눈 기반 제스처 인식 | |
CN106339069A (zh) | 屏幕处理方法及装置 | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
CN104951038A (zh) | 操作便携计算装置的节能方法 | |
US20200192480A1 (en) | Systems and methods for providing haptic effects based on a user's motion or environment | |
JP6891891B2 (ja) | 情報処理装置 | |
US11340703B1 (en) | Smart glasses based configuration of programming code | |
US11815687B2 (en) | Controlling head-mounted device with gestures into wearable device | |
US11532958B2 (en) | Predictive wireless charging of electronic devices | |
KR102539045B1 (ko) | 착용형 증강현실 장치를 위한 대시보드 제어 장치 및 대시보드 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170118 |