CN106293039B - 设备间的交互方法以及用户设备 - Google Patents
设备间的交互方法以及用户设备 Download PDFInfo
- Publication number
- CN106293039B CN106293039B CN201510337240.5A CN201510337240A CN106293039B CN 106293039 B CN106293039 B CN 106293039B CN 201510337240 A CN201510337240 A CN 201510337240A CN 106293039 B CN106293039 B CN 106293039B
- Authority
- CN
- China
- Prior art keywords
- information
- equipment
- motion information
- user
- user equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
本申请实施例公开了一种设备间的交互方法以及用户设备,所述方法包括:一用户设备获取所述用户设备的第一运动信息;从一近眼设备获取一用户眼睛的第二运动信息;响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。本申请的技术方案提供了一种自然、便捷、安全的设备间交互方法,特别适合所述用户眼睛的视野中有多个用户设备的情况下,进行所述近眼设备与用户想要交互的一个或多个用户设备之间的交互。
Description
技术领域
本申请涉及设备间的交互技术领域,尤其涉及一种设备间的交互方法以及用户设备。
背景技术
随着用户设备种类的不断增加、功能的不断强大,给用户的生活、工作带来了越来越多的便利。在此基础上,用户希望对用户设备的操作更加简单、方便,特别是在通过用户设备进行与其他设备的设备间交互时,希望这样的交互可以通过自然、安全的方式自动进行,而尽量少的打扰用户。
发明内容
本申请实施例可能的目的是:提供一种设备间的交互方案。
第一方面,本申请的一可能的实施方案提供了一种交互方法,包括:
一用户设备获取所述用户设备的第一运动信息;
从一近眼设备获取一用户眼睛的第二运动信息;
响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
结合第一方面,在第二种可能的实施方式中,
所述第一运动信息包括:所述用户设备的第一运动特征信息;
所述第二运动信息包括:所述用户眼睛的第二运动特征信息。
结合第一方面的上述任一种可能的实施方式,在第三种可能的实施方式中,所述第一运动特征信息包括:
所述用户设备的惯性传感特征信息。
结合第一方面的上述任一种可能的实施方式,在第四种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的眼动特征信息、以及所述用户的头部运动特征信息。
结合第一方面的上述任一种可能的实施方式,在第五种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的注视点的运动特征信息。
结合第一方面的上述任一种可能的实施方式,在第六种可能的实施方式中,所述第一运动信息与所述第二运动信息相匹配包括:
所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征相匹配。
结合第一方面的上述任一种可能的实施方式,在第七种可能的实施方式中,
所述第一运动信息还包括:与所述第一运动特征信息对应的第一时间戳信息;
所述第二运动信息还包括:与所述第二运动特征信息对应的第二时间戳信息。
结合第一方面的上述任一种可能的实施方式,在第八种可能的实施方式中,
所述第一运动信息与所述第二运动信息相匹配还包括:
根据所述第一时间戳信息和所述第二时间戳信息,所述至少一第一运动特征中的每个第一运动特征对应的一第一时间与所述至少一第二运动特征中匹配的每个第二运动特征对应的一第二时间基本重合。
结合第一方面的上述任一种可能的实施方式,在第九种可能的实施方式中,所述与所述近眼设备之间的交互操作包括:
与所述近眼设备关联的操作。
结合第一方面的上述任一种可能的实施方式,在第十种可能的实施方式中,所述与所述近眼设备之间的交互操作包括:
对所述近眼设备授权认证的操作。
第二方面,本申请的一可能的实施方案提供了一种用户设备,包括:
第一信息获取模块,用于获取所述用户设备的第一运动信息;
第二信息获取模块,用于从一近眼设备获取一用户眼睛的第二运动信息;
执行模块,用于响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
结合第二方面,在第二种可能的实施方式中,所述用户设备还包括:
匹配确定模块,用于确定所述第一运动信息与所述第二运动信息是否相匹配。
结合第二方面的上述任一种可能的实施方式,在第三种可能的实施方式中,
所述第一运动信息包括:所述用户设备的第一运动特征信息;
所述第二运动信息包括:所述用户眼睛的第二运动特征信息;
所述匹配确定模块包括:
第一匹配确定单元,用于至少根据所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征是否匹配。
结合第二方面的上述任一种可能的实施方式,在第四种可能的实施方式中,所述第一运动特征信息包括:
所述用户设备的惯性传感特征信息。
结合第二方面的上述任一种可能的实施方式,在第五种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的眼动特征信息、以及所述用户的头部运动特征信息。
结合第二方面的上述任一种可能的实施方式,在第六种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的注视点的运动特征信息。
结合第二方面的上述任一种可能的实施方式,在第七种可能的实施方式中,所述第一运动信息还包括:与所述第一运动特征信息对应的第一时间戳信息;
所述第二运动信息还包括:与所述第二运动特征信息对应的第二时间戳信息;
所述匹配确定模块还包括:
第二匹配确定单元,用于根据所述第一时间戳信息和所述第二时间戳信息,确定所述至少一第一运动特征中的每个第一运动特征对应的一第一时间与所述至少一第二运动特征中匹配的每个第二运动特征对应的一第二时间是否基本重合。
结合第二方面的上述任一种可能的实施方式,在第八种可能的实施方式中,所述执行模块包括:
关联单元,用于执行与所述近眼设备关联的操作。
结合第二方面的上述任一种可能的实施方式,在第九种可能的实施方式中,所述执行模块包括:
授权认证单元,用于执行对所述近眼设备授权认证的操作。
第三方面,本申请的一可能的实施方案提供了一种用户设备,所述用户设备包括:
存储器,用于存放指令;
处理器,用于执行所述存储器存储的指令,所述指令使得所述处理器执行以下操作:
获取所述用户设备的第一运动信息;
从一近眼设备获取一用户眼睛的第二运动信息;
响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
本申请实施例的至少一个实施方案通过一用户设备在自身的运动信息与一近眼设备采集到的用户眼睛的运动信息匹配时,进行与所述近眼设备之间的交互操作,提供了一种自然、便捷、安全的设备间交互方法。特别适合所述用户眼睛的视野中有多个用户设备的情况下,进行所述近眼设备与用户想要交互的一个或多个用户设备之间的交互。
附图说明
图1为本申请实施例的一种设备间的交互方法的流程图;
图2为本申请实施例的一种用户设备的结构示意框图;
图3a~3d为本申请实施例的四种用户设备的结构示意框图;
图4为本申请实施例的一种用户设备的结构示意框图。
具体实施方式
下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本申请的具体实施方式作进一步详细说明。以下实施例用于说明本申请,但不用来限制本申请的范围。
本领域技术人员可以理解,本申请中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
如图1所示,本申请实施例提供了一种交互方法,包括:
S110一用户设备获取所述用户设备的第一运动信息;
S120从一近眼设备获取一用户眼睛的第二运动信息;
S130响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
举例来说,本申请提供的用户设备作为本实施例的执行主体,执行S110~S130。具体地,所述用户设备可以为方便移动的便携设备、或者可以为具有可运动部分的其它设备。所述用户设备包括但不限于:智能手表、智能戒指、智能手机、智能眼镜、智能头盔等。
本申请实施例的实施方式通过一用户设备在自身的运动信息与一近眼设备采集到的用户眼睛的运动信息匹配时,进行与所述近眼设备之间的交互操作,提供了一种自然、便捷、安全的设备间交互方法。特别适合所述用户眼睛的视野中有多个用户设备的情况下,进行所述近眼设备与用户想要交互的一个或多个用户设备之间的交互。
通过下面的实施方式进一步说明本申请实施例的各步骤。
S110一用户设备获取所述用户设备的第一运动信息。
在一种可能的实施方式中,所述第一运动信息包括:所述用户设备的第一运动特征信息。
在一种可能的实施方式中,所述第一运动特征信息例如可以为所述用户设备的运动方向、运动速度、运动距离、运动时间、运动加速度等直接表征所述用户设备的运动的信息中的一个或多个。
在另一种可能的实施方式中,所述第一运动特征信息还可以为其它间接表征所述用户设备的运动的信息中的一个或多个。例如,在一种可能的实施方式中,所述第一运动特征信息包括:所述用户设备的惯性传感特征信息。
所述惯性传感特征信息例如可以由所述用户设备的至少一惯性传感器获取。所述至少一惯性传感器例如可以包括下述的至少一个:
加速度传感器、陀螺仪、磁传感器、重力传感器等。
所述第一运动特征信息例如可以包括所述至少一惯性传感器中的一个所采集的惯性传感特征信息。
在另一种可能的实施方式中,所述第一运动信息还包括:与所述第一运动特征信息对应的第一时间戳信息。
例如,在一种可能的实施方式中,所述第一运动特征信息包括:所述用户设备的加速度变化信息,所述第一时间戳信息可以包括所述加速度变化信息中各点或部分特征点所对应的时间戳。在一种可能的实施方式中,为了增强与其他设备的时间戳的可比性,可选地,所述第一时间戳信息为绝对时间戳信息。例如,在一种可能的实施方式中,所述用户设备通过网络与一时间服务器的时间同步,所述绝对时间戳信息为通过与所述时间服务器同步获得的时间。
在一种可能的实施方式中,可选地,所述S110包括所述用户设备通过所述至少一惯性传感器采集所述第一运动特征信息。在一种可能的实施方式中,所述S110还包括所述用户设备通过一时间戳记录模块来记录与所述第一运动特征信息对应的第一时间戳信息。
在另一种可能的实施方式中,可选地,所述S110包括所述用户设备从本地的存储器中读取存储在所述存储器中的所述第一运动信息。
在又一种可能的实施方式中,可选地,所述S110还可以包括所述用户设备从至少一外部设备来获取所述第一运动信息。例如,在一种可能的实施方式中,所述至少一外部设备为与所述用户设备运动状态相同的其它设备记录的自身的运动信息。例如,用户的一手腕上同时佩戴有一智能手表和一智能手环,其中,所述智能手环自身的惯性传感器精度不高、或者缺乏合适的惯性传感器,因此,可以获取与其位置强相关的智能手表的运动信息作为所述智能手环的所述第一运动信息。
S120从一近眼设备获取一用户眼睛的第二运动信息。
在一种可能的实施方式中,所述第二运动信息可以包括:所述用户眼睛的第二运动特征信息。其中,所述用户眼睛的运动可以包括眼睛在眼眶中的运动和眼睛随着用户的头部的运动,因此,在一种可能的实施方式中,所述第二运动特征信息可以包括:所述用户眼睛的眼动特征信息、以及所述用户的头部运动特征信息。
在一种可能的实施方式中,可选地,所述眼动特征信息可以包括眼球在眼眶中的转动信息。在另一种可能的实施方式中,可选地,所述眼动特征信息还可以包括注视点到用户眼睛的距离信息。
其中,所述眼动特征信息例如可以通过所述近眼设备上朝向所述用户眼睛的对眼摄像头、或者眼电信号传感器等获取。所述用户的头部运动特征信息例如可以通过用户头部佩戴的设备(例如所述近眼设备、耳机设备等)中的惯性传感器等获取。
在另一种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的注视点的运动特征信息。
在一种可能的实施方式中,例如,可以根据上面所述的眼动特征信息和头部运动特征信息来得到所述注视点的运动特征信息。
在一种可能的实施方式中,可选地,所述第二运动信息还包括:与所述第二运动特征信息对应的第二时间戳信息。
所述第二时间戳信息与所述第二运动特征信息之间的对应与上面所述的第一时间戳信息与所述第一运动特征信息之间的对应类似,这里不再赘述。
在本实施方式中,所述第二时间戳信息也可以为绝对时间戳信息。
在一种可能的实施方式中,所述S120可以为通过通信的方式直接从所述近眼设备获取所述第二运动信息。
在另一种可能的实施方式中,所述S120还可以通过其它设备间接的从所述近眼设备获取所述第二运动信息。
S130响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
在本申请实施例中,所述第一运动信息与所述第二运动信息相匹配为:所述第一运动信息所对应的所述用户设备的运动与第二运动信息所对应的所述用户眼睛的注视对象的运动相一致。例如,所述用户设备向右移动时,用户眼睛的注视点也向右移动;所述用户设备靠近用户移动时,用户眼睛的注视点也靠近所述用户移动等。
根据上面的描述,在一种可能的实施方式中,可以通过运动特征信息的匹配来表示所述两个运动的相一致。例如,所述第一运动信息与所述第二运动信息相匹配可以包括:
所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征相匹配。
其中,所述至少一第一运动特征和所述至少一第二运动特征的数量可以根据需要设定。例如,在安全级别要求低时,所述数量可以少一些;在安全级别要求高时,所述数量可以多一些。
以所述第一运动特征信息包括所述角度变化信息、所述第二运动特征信息包括所述用户的眼动信息的运动特征信息为例进行说明:
例如:所述角度变化信息包括一第一运动特征:先顺时针方向、以第一角速度运动第一时间长度,再逆时针方向、以第二角速度运动第二时间长度。
与所述第一运动特征信息匹配的第二运动特征信息例如可以包括一第二运动特征:所述用户的头部不动,眼珠先向第一方向移动了第一时间长度,然后再反方向移动了第二时间长度。
在一种可能的实施方式中,还可以通过预先的训练来学习所述第一运动特征与所述第二运动特征匹配的情况。
在一种可能的实施方式中,在所述第一运动信息包括所述第一时间戳信息,所述第二运动信息包括所述第二时间戳信息时,所述第一运动信息与所述第二运动信息相匹配还包括:
根据所述第一时间戳信息和所述第二时间戳信息,所述至少一第一运动特征中的每个第一运动特征对应的一第一时间与所述至少一第二运动特征中匹配的每个第二运动特征对应的一第二时间基本重合。
还是以上面的所述角度变化信息和所述用户的眼动信息的实施方式为例进行说明,这里,所述第一时间与所述第二时间基本重合例如可以为:
所述角度变化信息对应的第一时间长度的起始点与所述眼动信息对应的第一时间长度的起始点相同;所述角度变化信息对应的第二时间长度的起始点与所述眼动信息对应的第二时间长度的起始点相同。
当然,在一些可能的实施方式中,由于设备的延迟等原因,所述第一时间与所述第二时间并不是完全重合的,而有可能会有一些偏差。在这些实施方式中,在所述第一时间与所述第二时间的偏差在设定的范围内时,也可以认为二者是重合的。
在本实施方式中,除了运动特征的匹配外,还结合所述第一时间戳信息与所述第二时间戳信息的匹配来确定所述第一运动信息是否与所述第二运动信息匹配,可以使得所述用户设备与所述近眼设备之间的交互更加安全。例如,在一种可能的实施方式中,用户希望自己的智能眼镜匹配自己佩戴的智能手环,因此控制手部进行一动作,并注视该智能手环;在此过程中,有可能在附近还有另一用户也控制自己的一智能手环进行了一动作(有可能该另一用户学习了所述用户的动作),因此,所述用户的第二运动信息有可能同时与这两个智能手环的第一运动信息都匹配,此时,可以根据所述时间戳的匹配来确定哪个智能手环才是用户关注的智能手环。
在一种可能的实施方式中,所述与所述近眼设备之间的交互操作可以包括:
与所述近眼设备关联的操作。
例如:所述近眼设备广播一配对请求以及所述第二运动信息;所述用户设备在获取了所述配对请求以及所述第二运动信息后,根据上面的方案,确定所述第二运动信息与自身的第一运动信息相匹配,则所述与所述近眼设备配对的操作可以:向所述近眼设备发送一配对应答。
可以看出,在本实施方式中,所述第一运动信息和所述第二运动信息起到设备间的关联码的作用,通过这二者的匹配确定两个设备的匹配,不需要用户进行手动输入,非常便捷。并且,在所述近眼设备侧采用了用户眼睛的运动信息作为所述第二运动信息,将用户的注意力引入到两个设备的关联过程中,可以使得关联更加准确、安全。例如,在一场景中具有多个用户设备时,可以准确的确定用户所看的一用户设备为需要与所述近眼设备关联的用户设备。
在一种可能的实施方式中,所述用户设备与所述近眼设备已经处于关联状态、或者通过上面的配对操作完成了配对关联,并且所述用户设备具有所述近眼设备所没有的一权限时,所述与所述近眼设备之间的交互操作还可以包括:
对所述近眼设备授权认证的操作。
例如,在一种可能的实施方式中,所述授权认证操作包括:向所述近眼设备发送一授权认证码。
或者,在一种可能的实施方式中,例如,所述用户设备具有对用户的一第一身份识别信息(例如所述用户设备为腕戴设备时,通过体表特征识别得到该信息),所述近眼设备具有对用户的一第二身份识别信息(例如通过虹膜识别得到该信息),所述授权认证的操作例如可以为所述用户设备向所述近眼设备发送所述第一身份识别信息,以便进行相互认证。
本领域技术人员可以知道,所述与所述近眼设备之间的交互操作除了上面所述的两种外,还可以包括其它可能的交互操作,这里不再赘述。
本领域技术人员可以理解,在本申请具体实施方式的上述方法中,各步骤的序号大小并不意味着执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本申请具体实施方式的实施过程构成任何限定。
如图2所示,本申请实施例一种可能的实施方式提供了一种用户设备200,包括:
第一信息获取模块210,用于获取所述用户设备的第一运动信息;
第二信息获取模块220,用于从一近眼设备获取一用户眼睛的第二运动信息;
执行模块230,用于响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
本申请实施例的实施方式通过一用户设备在自身的运动信息与一近眼设备采集到的用户眼睛的运动信息匹配时,进行与所述近眼设备之间的交互操作,提供了一种自然、便捷、安全的设备间交互方法。特别适合所述用户眼睛的视野中有多个用户设备的情况下,进行所述近眼设备与用户想要交互的一个或多个用户设备之间的交互。
通过下面的实施方式进一步说明本申请实施例的用户设备。
在一种可能的实施方式中,所述第一运动信息包括:所述用户设备的第一运动特征信息。
在一种可能的实施方式中,所述第一运动特征信息例如可以为所述用户设备的运动方向、运动速度、运动距离、运动时间、运动加速度等直接表征所述用户设备的运动的信息中的一个或多个。
在另一种可能的实施方式中,所述第一运动特征信息还可以为其它间接表征所述用户设备的运动的信息中的一个或多个。例如,在一种可能的实施方式中,所述第一运动特征信息包括:所述用户设备的惯性传感特征信息。
所述惯性传感特征信息例如可以由所述用户设备的至少一惯性传感器获取。所述至少一惯性传感器例如可以包括下述的至少一个:
加速度传感器、陀螺仪、磁传感器、重力传感器等。
在另一种可能的实施方式中,所述第一运动信息还包括:与所述第一运动特征信息对应的第一时间戳信息。
在一种可能的实施方式中,所述第一信息获取模块210可以包括:信息采集单元,用于采集所述第一运动信息。
例如,所述信息采集单元包括上面所述的至少一惯性传感器。所述信息采集单元还可以包括时间戳记录器件来记录与所述第一运动特征信息对应的第一时间戳信息。
在另一种可能的实施方式中,所述用户设备200还包括一存储器,用于存储所述第一运动信息。在本实施方式中,所述第一信息获取模块210可以包括:
读取单元,用于从所述存储器读取所述第一运动信息。
在又一种可能的实施方式中,所述第一信息获取模块210可以包括:
第一通信单元,用于从至少一外部设备获取所述第一运动信息。
在一种可能的实施方式中,所述第二运动信息可以包括:所述用户眼睛的第二运动特征信息。其中,所述用户眼睛的运动可以包括眼睛在眼眶中的运动和眼睛随着用户的头部的运动,因此,在一种可能的实施方式中,所述第二运动特征信息可以包括:所述用户眼睛的眼动特征信息、以及所述用户的头部运动特征信息。
在另一种可能的实施方式中,所述第二运动特征信息包括:
所述用户眼睛的注视点的运动特征信息。
在一种可能的实施方式中,例如,可以根据上面所述的眼动特征信息和头部运动特征信息来得到所述注视点的运动特征信息。
在一种可能的实施方式中,可选地,所述第二运动信息还包括:与所述第二运动特征信息对应的第二时间戳信息。
在一种可能的实施方式中,所述第二信息获取模块220可以包括:
第二通信单元,用于从至少一外部设备获取所述第二运动信息。
其中,所述至少一外部设备例如可以包括所述近眼设备。
在一种可能的实施方式中,如图3a所示,所述用户设备200还包括:
匹配确定模块240,用于确定所述第一运动信息与所述第二运动信息是否相匹配。
在本申请实施例中,所述第一运动信息与所述第二运动信息相匹配为:所述第一运动信息所对应的所述用户设备的运动与第二运动信息所对应的所述用户眼睛的注视对象的运动相一致。
在一种可能的实施方式中,如图3a所示,所述匹配确定模块240包括:
第一匹配确定单元241,用于至少根据所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征是否匹配。
其中,至少在所述至少一第一运动特征与至少一第二运动特征匹配时,所述第一运动信息与所述第二运动信息相匹配。
在一种可能的实施方式中,在所述第一运动信息包括所述第一时间戳信息,所述第二运动信息包括所述第二时间戳信息时,如图3b所示,所述匹配确定模块240还包括:
第二匹配确定单元242,用于根据所述第一时间戳信息和所述第二时间戳信息,确定所述至少一第一运动特征中的每个第一运动特征对应的一第一时间与所述至少一第二运动特征中匹配的每个第二运动特征对应的一第二时间是否基本重合。
其中,在所述至少一第一运动特征与至少一第二运动特征匹配、并且所述第一时间与所述第二时间基本重合时,所述第一运动信息与所述第二运动信息匹配。
在本实施方式中,除了运动特征的匹配外,还结合所述第一时间戳信息与所述第二时间戳信息的匹配来确定所述第一运动信息是否与所述第二运动信息匹配,可以使得所述用户设备与所述近眼设备之间的交互更加安全。
如图3c所示,在一种可能的实施方式中,可选地,所述执行模块230可以包括:
关联单元231,用于执行与所述近眼设备关联的操作。
可以看出,在本实施方式中,所述第一运动信息和所述第二运动信息起到设备间的关联码的作用,通过这二者的匹配确定两个设备的匹配,不需要用户进行手动输入,非常便捷。并且,在所述近眼设备侧采用了用户眼睛的运动信息作为所述第二运动信息,将用户的注意力引入到两个设备的关联过程中,可以使得关联更加准确、安全。
如图3d所示,在一种可能的实施方式中,可选地,所述执行模块230可以包括:
授权认证单元232,用于执行对所述近眼设备授权认证的操作。
本申请实施例各模块、单元的进一步的功能描述参见图1所示实施例中对应的描述,这里不再赘述。
图4为本申请实施例提供的又一种用户设备400的结构示意图,本申请具体实施例并不对用户设备400的具体实现做限定。如图4所示,该用户设备400可以包括:
处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430、以及通信总线440。其中:
处理器410、通信接口420、以及存储器430通过通信总线440完成相互间的通信。
通信接口420,用于与比如客户端等的网元通信。
处理器410,用于执行指令432,具体可以执行上述方法实施例中的相关步骤。
具体地,指令432可以包括计算机操作指令。
处理器410可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
存储器430,用于存放指令432。存储器430可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。指令432具体可以用于使得所述用户设备400执行以下步骤:
获取所述用户设备的第一运动信息;
从一近眼设备获取一用户眼睛的第二运动信息;
响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
指令432中各步骤的具体实现可以参见上述实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本申请,而并非对本申请的限制,有关技术领域的普通技术人员,在不脱离本申请的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请的范畴,本申请的专利保护范围应由权利要求限定。
Claims (10)
1.一种交互方法,其特征在于,包括:
一用户设备获取所述用户设备的第一运动信息;
从一近眼设备获取一用户眼睛的第二运动信息;
响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
2.如权利要求1所述的方法,其特征在于,
所述第一运动信息包括:所述用户设备的第一运动特征信息;
所述第二运动信息包括:所述用户眼睛的第二运动特征信息。
3.如权利要求2所述的方法,其特征在于,
所述第一运动信息与所述第二运动信息相匹配包括:
所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征相匹配。
4.如权利要求1所述的方法,其特征在于,所述与所述近眼设备之间的交互操作包括:
与所述近眼设备关联的操作。
5.如权利要求1或4所述的方法,其特征在于,所述与所述近眼设备之间的交互操作包括:
对所述近眼设备授权认证的操作。
6.一种用户设备,其特征在于,包括:
第一信息获取模块,用于获取所述用户设备的第一运动信息;
第二信息获取模块,用于从一近眼设备获取一用户眼睛的第二运动信息;
执行模块,用于响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
7.如权利要求6所述的用户设备,其特征在于,所述用户设备还包括:
匹配确定模块,用于确定所述第一运动信息与所述第二运动信息是否相匹配。
8.如权利要求 7所述的用户设备,其特征在于,
所述第一运动信息包括:所述用户设备的第一运动特征信息;
所述第二运动信息包括:所述用户眼睛的第二运动特征信息;
所述匹配确定模块包括:
第一匹配确定单元,用于至少根据所述第一运动特征信息对应的至少一第一运动特征与所述第二运动特征信息对应的至少一第二运动特征是否匹配。
9.如权利要求6所述的用户设备,其特征在于,所述执行模块包括:
关联单元,用于执行与所述近眼设备关联的操作。
10.一种用户设备,其特征在于,所述用户设备包括:
存储器,用于存放指令;
处理器,用于执行所述存储器存储的指令,所述指令使得所述处理器执行以下操作:
获取所述用户设备的第一运动信息;
从一近眼设备获取一用户眼睛的第二运动信息;
响应于所述第一运动信息与所述第二运动信息相匹配,执行与所述近眼设备之间的交互操作。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510337240.5A CN106293039B (zh) | 2015-06-17 | 2015-06-17 | 设备间的交互方法以及用户设备 |
US15/184,999 US9990047B2 (en) | 2015-06-17 | 2016-06-16 | Interaction method between pieces of equipment and user equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510337240.5A CN106293039B (zh) | 2015-06-17 | 2015-06-17 | 设备间的交互方法以及用户设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106293039A CN106293039A (zh) | 2017-01-04 |
CN106293039B true CN106293039B (zh) | 2019-04-12 |
Family
ID=57587036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510337240.5A Active CN106293039B (zh) | 2015-06-17 | 2015-06-17 | 设备间的交互方法以及用户设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9990047B2 (zh) |
CN (1) | CN106293039B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102822771A (zh) * | 2010-01-21 | 2012-12-12 | 托比技术股份公司 | 基于眼球跟踪器的上下文动作 |
CN104243279A (zh) * | 2013-06-24 | 2014-12-24 | 联想(北京)有限公司 | 信息处理方法、信息处理设备和穿戴式电子设备 |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互系统及方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050052427A1 (en) * | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US20120257035A1 (en) | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US9162144B2 (en) | 2011-12-05 | 2015-10-20 | Microsoft Technology Licensing, Llc | Portable device pairing with a tracking system |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US20140309893A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Health statistics and communications of associated vehicle users |
US20130342672A1 (en) * | 2012-06-25 | 2013-12-26 | Amazon Technologies, Inc. | Using gaze determination with device input |
KR102135353B1 (ko) * | 2013-08-30 | 2020-07-17 | 엘지전자 주식회사 | 시계형 단말기와 이를 포함하는 시스템 |
US9213413B2 (en) * | 2013-12-31 | 2015-12-15 | Google Inc. | Device interaction with spatially aware gestures |
CN104199546A (zh) | 2014-08-31 | 2014-12-10 | 上海威璞电子科技有限公司 | 基于腕带和手环类产品采用四种手势实现控制的方法 |
-
2015
- 2015-06-17 CN CN201510337240.5A patent/CN106293039B/zh active Active
-
2016
- 2016-06-16 US US15/184,999 patent/US9990047B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102822771A (zh) * | 2010-01-21 | 2012-12-12 | 托比技术股份公司 | 基于眼球跟踪器的上下文动作 |
CN104243279A (zh) * | 2013-06-24 | 2014-12-24 | 联想(北京)有限公司 | 信息处理方法、信息处理设备和穿戴式电子设备 |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106293039A (zh) | 2017-01-04 |
US20160370868A1 (en) | 2016-12-22 |
US9990047B2 (en) | 2018-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106055088B (zh) | 交互式穿戴式设备的空气书写和手势系统 | |
CN104503589B (zh) | 体感识别系统及其识别方法 | |
PH12019501080B1 (en) | Virtual reality environment-based identity authentication method and apparatus | |
CN103984413B (zh) | 信息交互方法及信息交互装置 | |
CN106462743A (zh) | 用于向安全移动通信使用眼睛信号的系统和方法 | |
CN104036169B (zh) | 生物认证方法及生物认证装置 | |
WO2014168994A1 (en) | Personal holographic billboard | |
US11769306B2 (en) | User-exhibit distance based collaborative interaction method and system for augmented reality museum | |
CN106778565B (zh) | 引体向上的计数方法及装置 | |
CN109117779A (zh) | 一种穿搭推荐方法、装置及电子设备 | |
CN103248825A (zh) | 基于计算机视觉的防偷拍装置及方法 | |
Maekawa et al. | WristSense: wrist-worn sensor device with camera for daily activity recognition | |
CN106709303A (zh) | 一种显示方法、装置及智能终端 | |
CN108572719A (zh) | 利用体态识别的智能头盔控制方法及系统 | |
Windau et al. | Situation awareness via sensor-equipped eyeglasses | |
CN109272473A (zh) | 一种图像处理方法及移动终端 | |
CN103257703B (zh) | 一种增强现实装置及方法 | |
CN106296796B (zh) | 信息处理方法、信息处理装置及用户设备 | |
CN106293039B (zh) | 设备间的交互方法以及用户设备 | |
CN107209936A (zh) | 信息处理设备,信息处理方法和程序 | |
CN104076926B (zh) | 建立数据传输链路的方法和穿戴式电子设备 | |
CN106096912A (zh) | 智能眼镜的人脸识别方法及智能眼镜 | |
CN106325468B (zh) | 设备间的交互方法以及用户设备 | |
CN106464796B (zh) | 控制生活轨迹相机的方法和电子装置 | |
CN106293040B (zh) | 设备间的交互方法以及近眼设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |