CN104866103B - 一种相对位置确定方法、穿戴式电子设备及终端设备 - Google Patents
一种相对位置确定方法、穿戴式电子设备及终端设备 Download PDFInfo
- Publication number
- CN104866103B CN104866103B CN201510292925.2A CN201510292925A CN104866103B CN 104866103 B CN104866103 B CN 104866103B CN 201510292925 A CN201510292925 A CN 201510292925A CN 104866103 B CN104866103 B CN 104866103B
- Authority
- CN
- China
- Prior art keywords
- image
- display interface
- virtual display
- position information
- wearable electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种相对位置确定方法、穿戴式电子设备及终端设备,所述方法包括:通过穿戴式电子设备上的采集单元获得图像数据;所述图像数据包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及所述虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面;解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息;通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备基于所述第一位置信息执行针对所述虚拟显示界面的控制指令。
Description
技术领域
本发明涉及数据处理技术领域,特别涉及一种相对位置确定方法、穿戴式电子设备及终端设备。
背景技术
随着科技的发展,投影技术在终端设备上的应用越来越广泛。
目前,对于投影屏上的操作动作识别,通常是利用终端设备上的摄像头等来实现。
但由于操作体只能处于与投影屏近距离位置,才能对所述投影屏进行手势操作,因此操作体处于摄像头和投影屏之间,存在遮挡终端设备向投影屏上的投影显示的情况,影响用户的观看体验。
发明内容
本发明的目的在于,提供一种相对位置确定方法、穿戴式电子设备及终端设备,用以解决现有技术中由于操作体处于摄像头和投影屏之间,存在遮挡终端设备向投影屏上的投影显示的情况,影响用户的观看体验的技术问题。
本发明提供了一种相对位置确定方法,所述方法包括:
通过穿戴式电子设备上的采集单元获得图像数据;所述图像数据包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及所述虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面;
解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息;
通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备基于所述第一位置信息执行针对所述虚拟显示界面的控制指令。
上述方法,优选的,所述解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息,包括:
识别所述图像数据中第一图像内所述操作体的操作手势;
基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
上述方法,优选的,所述基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息,包括:
确定所述操作手势在所述图像数据中的操作区域;
判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果;
在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
本发明还提供了另一种相对位置确定方法,包括:
接收穿戴式电子设备发送的第一位置信息,所述第一位置信息为所述操作体对应的操作点在所述虚拟显示界面的位置信息;所述虚拟显示界面为终端设备输出显示的显示界面;
通过所述终端设备的采集单元,获得所述虚拟显示界面的第三图像;
确定在所述三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对所述虚拟显示界面的控制指令。
上述方法,优选的,所述确定在所述三图像中与所述第一位置信息相对应的第二位置信息,包括:
基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置对应关系;
依据所述位置对应关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
本发明还提供了一种穿戴式电子设备,包括:
采集单元,用于获得图像数据,所述图像数据包括佩戴有所述穿戴式电子设备的用户操作的第一图像及所述虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面;
图像解析单元,用于解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息;
信息发送单元,用于通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备基于所述第一位置信息执行针对所述虚拟显示界面的控制指令。
上述穿戴式电子设备,优选的,所述图像解析单元包括:
手势识别子单元,用于识别所述图像数据中第一图像内所述操作体的操作手势;
位置确定子单元,用于基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
上述穿戴式电子设备,优选的,所述位置确定子单元包括:
区域确定模块,用于确定所述操作手势在所述图像数据中的操作区域;
区域判断模块,用于判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果,在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,触发位置确定模块;
位置确定模块,用于确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
本发明还提供了另一种终端设备,包括:
信息接收单元,用于接收穿戴式电子设备发送的第一位置信息,所述第一位置信息为所述操作体对应的操作点在所述虚拟显示界面的位置信息;所述虚拟显示界面为所述终端设备输出显示的显示界面;
采集单元,用于获得所述虚拟界面的第三图像;
位置确定单元,用于确定所述第三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对上述虚拟显示界面的控制指令。
上述终端设备,优选的,所述位置确定单元包括:
关系确定子单元,用于基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置相对关系;
信息确定子单元,用于依据所述位置对应关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
由上述方案可知,本发明提供的一种相对位置确定方法、穿戴式电子设备及终端设备,在本发明方案的应用中,用户可以佩戴穿戴式电子设备处于非终端设备及虚拟显示界面所在位置之间,而是可以处于其他位置不遮挡所述虚拟显示界面的显示内容,并通过其佩戴的穿戴式电子设备上的采集单元采集到用户操作体的第一图像及虚拟显示界面的第二图像之后,对该图像进数据进行解析,以确定操作体对应的操作点在虚拟显示界面上的第一位置信息,实现在不遮挡虚拟显示界面的前提下完成位置确定,改善用户的观看体验,达到本发明目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种相对位置确定方法实施例一的流程图;
图2a、图2b及图2c分别为本发明实施例的应用示例图;
图3为本发明提供的一种相对位置确定方法实施例二的部分流程图;
图4为本发明实施例的另一应用示例图;
图5为本发明实施例二的另一部分流程图;
图6a及图6b分别为本发明实施例的其他应用示例图;
图7为本发明提供的一种相对位置确定方法实施例三的流程图;
图8为本发明提供的一种相对位置确定方法实施例四的部分流程图;
图9为本发明提供的一种穿戴式电子设备实施例五的结构示意图;
图10为本发明提供的一种穿戴式电子设备实施例六的部分结构示意图;
图11为本发明实施例六的部分结构示意图;
图12为本发明提供的一种终端设备实施例七的结构示意图;
图13为本发明提供的一种终端设备实施例八的部分结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参考图1,为本发明提供的一种相对位置确定方法实施例一的流程图,其中,所述方法适用于对穿戴式电子设备中,该穿戴式电子设备可以佩戴在用户身上,如智能眼镜佩戴在用户头部眼睛上。用户携带该穿戴式电子设备可以在终端设备与其输出显示的虚拟显示界面之间的区域之外的任意位置对所述虚拟显示界面进行操作,实现不遮挡所述虚拟显示界面显示内容的同时对所述虚拟显示界面进行控制的目的。具体的,所述虚拟显示界面可以理解为所述终端设备如投影设备所输出的投影内容,落在帷幕或者墙壁上,形成虚拟显示界面。
具体的,本实施例中,所述方法可以包括以下步骤:
步骤101:通过所述穿戴式电子设备上的采集单元获得图像数据。
其中,所述图像数据包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及所述虚拟显示界面的第二图像。
如图2a中所示,处于位置A的所述终端设备在位置B上输出显示所述虚拟显示界面,所述终端设备与所述虚拟显示界面之间形成光线输出区域X,而本实施例中用户佩戴所述穿戴式电子设备之后,可以在所述输出区域X之外的其他的位置Y上进行其操作,此时用户携带所述穿戴式电子设备与所述虚拟显示界面之间连线与所述终端设备和所述虚拟显示界面之间连线具有夹角q。
需要说明的是,所述图像数据可以划分为两个图像,即:佩戴所穿戴式电子设备的用户操作体的第一图像、及所述虚拟显示界面的第二图像,如图2b中所示,本实施例中所采集到的第一图像为s用户操作体进行操作时的实时图像,所述第二图像t为处于用户所在角度所获取到的虚拟显示界面图像,区别于处于终端设备所处位置所能够采集到的虚拟显示界面r,如图2c中所示。
具体的,所述穿戴式电子设备上的采集单元可以为摄像头等图像数据采集装置,用以采集其周边环境的图像数据。
步骤102:解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息。
具体的,在本实施例中,可以基于所述穿戴式电子设备上的采集单元与用户操作体的空间距离、操作体的操作手势及所述第二图像中虚拟显示界面的图像区域,来确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息,这里的第一位置信息是指,用户所在位置(位置Y)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面的界面图像上的位置信息,区别于处于终端设备所在位置能够观看到的虚拟显示界面的界面图像上的位置信息。
步骤103:通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备基于所述第一位置信息执行针对所述虚拟显示界面的控制指令。
其中,所述数据通道可以理解为:所述穿戴式电子设备与所述终端设备之间的数据传输通道,也就是说,所述穿戴式电子设备与所述终端设备通过其各自的通信模块建立数据通道,这里的数据通道可以为WiFi数据通道、蓝牙数据通道或互联网数据通道等。
在本实施例中,将所述第一位置信息传输到所述终端设备中,由所述终端设备基于该第一位置信息执行针对上述虚拟显示界面的控制指令,具体的,由于所述第一位置信息对应的虚拟显示界面的界面图像区别于所述终端设备所在位置对应的虚拟显示界面的界面图像,因此,在本实施例中,所述终端设备在接收到所述第一位置信息之后,需要将所述第一位置信息根据两个界面图像之间的关系转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,进而基于该转换后的位置信息执行相应的控制指令,实现对所述虚拟显示界面的控制。
由上述方案可知,本发明提供的一种相对位置确定方法实施例一中,用户可以佩戴穿戴式电子设备处于非终端设备及虚拟显示界面所在位置之间,而是可以处于其他位置不遮挡所述虚拟显示界面的显示内容,并通过其佩戴的穿戴式电子设备上的采集单元采集到用户操作体的第一图像及虚拟显示界面的第二图像之后,对该图像进数据进行解析,以确定操作体对应的操作点在虚拟显示界面上的第一位置信息,实现在不遮挡虚拟显示界面的前提下完成位置确定,改善用户的观看体验,达到本实施例目的。
参考图3,为本发明提供的一种相对位置确定方法实施例二中所述步骤102的实现流程图,其中,所述步骤102可以通过以下步骤中的方案实现:
步骤121:识别所述图像数据中第一图像内所述操作体的操作手势。
具体的,本实施例中可以通过图像识别算法等来对所述图像数据解析,具体对所述图像数据中所述第一图像进行图像解析,以识别到所述第一图像内所述操作体的操作手势,如识别所述操作手势为滑动操作手势还是点击操作手势等。
步骤122:基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
具体的,本实施例中在识别出所述操作体的操作手势之后,基于该操作手势与所述第二图像内的虚拟显示界面的相对位置,在所述第二图像内的虚拟显示界面上得到该操作手势对应的手势延长线或区域,进而确定该延长线或区域在所述第二图像内的虚拟显示界面的界面图像上的交点或交点集合,即所述第一位置信息。
需要说明的是,由于所述穿戴式电子设备的采集单元与所述操作体之间具有一定的距离及偏差角度,使得本实施例中所获取到第一位置信息具有一定偏差。如图4中所示,所述穿戴式电子设备及其采集单元佩戴在用户的头部,如智能眼镜佩戴在用户的眼睛上。本实施例中通过操作手势延长的方案所确定的第一位置信息f可以理解为在所述第二图像内操作体遮挡所述虚拟显示界面的位置,但是在实际应用中,根据用户操作习惯,用户所看到的被操作体遮挡的位置会与其进行操作的位置有一定的偏差,如位置f1,因此,需要根据所述穿戴式电子设备的采集单元在用户身上的佩戴位置对所述第一位置信息进行校正,由此得到较为准确的第一位置信息。
在具体实现中,存在用户挥动其操作体但并非进行对所述虚拟显示界面进行控制的操作,如教室在利用虚拟显示界面为学生讲解时,会有手指挥动或点击操作,并不需要全部识别为对虚拟显示界面的控制操作,而本实施例中将穿戴式电子设备佩戴在用户身上,会对其采集单元获得到的所有图像数据均会进行采集识别,由此产生对所述虚拟显示界面的误操作,因此,为了避免这种误操作,影响用户体验的问题,在本实施例中,可以对用户操作体的操作手势进行判断,以达到避免操作的显现。
参考图5,为本发明实施例中所述步骤122的实现流程图,其中,所述步骤122可以通过以下步骤实现:
步骤501:确定所述操作手势在所述图像数据中的操作区域。
也就是说,本实施例中首先基于该操作区域,在所述图像数据中确定一个与该操作手势对应的操作区域,如所述操作手势在所述图像数据中的图像区域。
步骤502:判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果,在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,执行步骤503。
也就是说,本实施例中通过判断所述操作区域是否存在部分或全部区域在所述第二图像及所述第一图像之外的区域中,如图6a所示,用户操作体的操作手势为:操作体由位置m1滑动至m2的位置上,其对应操作区域为m1至m2之间的线区域,而该区域中只有部分区域处于所述第二图像中所述虚拟显示界面的界面图像区域内,还存在部分区域处于所述第二图像之外的区域中,或者,如图6b中所示,用户操作体的操作手势为:操作体由位置n1滑动至n2的位置上,其对应操作区域为n1至n2之间的线区域,而该区域的全部区域处于所述第二图像中所述虚拟显示界面的界面图像区域内,不存在部分区域处于所述第二图像之外的区域中。
步骤503:确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
也就是说,本实施例只有在所述操作体对应的操作区域均处于所述第二图像内所述虚拟显示界面的界面图像区域内时,才会确定所述操作体对应的第一位置信息,进而执行后续的将所述第一位置信息发送至移动终端,由所述移动终端基于该第一位置信息控制所述虚拟显示界面;而在所述操作区域并非完全处于所述第二图像内所述虚拟显示界面的界面图像区域内时,本实施例不会进行后续操作,识别该操作手势为非虚拟显示界面控制手势,不进行第一位置信息的确定及发送操作。
参考图7,为本发明提供的一种相对位置确定方法实施例三的流程图,其中,所述方法适用于终端设备上,所述终端设备上具有能够输出显示虚拟显示界面的装置,由此,处于位置A的终端设备将所述虚拟显示界面显示在位置B上,如图2a中所示,所述终端设备与所述虚拟显示界面之间形成光线输出区域X,用户佩戴穿戴式电子设备之后,可以在所述输出区域X之外的其他的位置Y上进行其操作,此时用户携带所述穿戴式电子设备与所述虚拟显示界面之间连线与所述终端设备和所述虚拟显示界面之间连线具有夹角q。
具体的,所述穿戴式电子设备上具有采集单元,所述穿戴式电子设备上的采集单元能够采集图像数据,所述图像数据中包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及所述虚拟显示界面的第二图像,如图2b中所示,所述穿戴式电子设备所采集到的第一图像为s用户操作体进行操作时的实时图像,所述第二图像t为处于用户所在角度所获取到的虚拟显示界面图像,区别于处于终端设备所处位置所能够采集到的虚拟显示界面r,如图2c中所示,由此,所述穿戴式电子设备对其通过采集单元获得到的图像数据进行解析,以确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息,而第一位置信息是指,用户所在位置(位置Y)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面的界面图像上的位置信息,区别于处于所述终端设备所在位置(位置A)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面上的位置信息,因此,本实施例中需要将所述第一位置信息根据两个界面图像之间的关系转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,进而基于该转换后的位置信息执行相应的控制指令,实现对所述虚拟显示界面的控制。
具体的,本实施例中,所述方法可以包括以下步骤实现,
步骤701:接收穿戴式电子设备发送的第一位置信息。
其中,所述第一位置信息为所述操作体对应的操作点在所述虚拟显示界面的位置信息,而所述虚拟显示界面为终端设备输出显示的显示界面。
步骤702:通过所述终端设备的采集单元,获得所述虚拟显示界面的第三图像。
如图2c中所示,所述终端设备上的采集单元能够采集到当前位置上的所述虚拟显示界面的第三图像r,此时,由于所述终端设备与所述虚拟显示界面是中心对应的,使得所述终端设备上的采集单元正对所述虚拟显示界面的中心区域,因此,在如图2c中的图像中,所述虚拟显示界面的界面图像区域即r的区域为规则的矩形形状,区别于如图2b中所述穿戴式电子设备上的采集单元所采集的图像数据中第二图像t的图像区域的不规则形状。
需要说明的是,所述终端设备上的采集单元可以为摄像头等图像数据采集装置,用以采集其周边环境的图像数据。
步骤703:确定在所述三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对所述虚拟显示界面的控制指令。
在本实施例中,由于所述第一位置信息对应的虚拟显示界面的界面图像区别于所述终端设备所在位置对应的虚拟显示界面的界面图像,如图2b及图2c中所示,需要将所述操作体对应的操作点在所述第二图像内所述虚拟显示界面上的第一位置信息转换为所述操作体对应的操作点在所述第三图像内所述虚拟显示界面上的第二位置信息,也就是说,需要对所述穿戴式电子设备所确定的第一位置信息进行校正之后,得到第二位置信息,进而再由所述终端设备基于该第二位置信息执行相应的控制指令,以控制所述虚拟显示界面。
其中,所述第一位置信息可以为单个位置点,也可以为多个位置点组成的轨迹,由此,在所述第一位置信息为单个位置点时,本实施例在所述第三图像中确定与所述第一位置信息的位置点相对应的位置点,以确定第二位置信息,进而基于该第二位置信息执行点击或选中命令,例如点击“登录”按钮区域;在所述第一位置信息为多个位置点组成的轨迹时,本实施例在所述第三图像中确定与所述第一位置信息的轨迹相对应的轨迹,以确定第二位置信息,进而基于该第二位置信息执行翻页或者书写指令,如显示下一张照片。
由上述方案可知,本发明提供的一种相对位置确定方法实施例三中,通过在接收穿戴式电子设备所发送的操作体对应的操作点在所述第二图像内所述虚拟显示界面上的第一位置信息之后,对该第一位置信息进行信息转换,此时操作体是不遮挡终端设备输出虚拟显示界面的,由此在确定终端设备上的采集单元所获得到的第三图像上与所述第一位置信息相对应的操作点的第二位置信息之后,由终端设备基于该第二位置信息执行相应的对虚拟显示界面的控制指令,进而在不遮挡终端设备输出虚拟显示界面的同时,实现对虚拟显示界面的控制,实现本实施例目的。
参考图8,为本发明提供的一种相对位置确定方法实施例四中所述步骤703的实现流程图,其中,所述步骤703可以包括以下步骤:
步骤731:基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置对应关系。
其中,由于所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度的差异性,如图2a中所示,使得用户佩戴所述穿戴式电子设备或能够观看的虚拟显示界面上各个位置点,与终端设备所能采集到的虚拟显示界面上各个位置点是不同的,因此,本实施例中在确定与所述第一位置信息相对应的第二位置信息时,可以首先基于所述第三图像与所述第二图像确定两个图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系。
具体的,由于所述第三图像及所述第二图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系,是与所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度的差异性相关的,因此,本实施例中可以根据所述第三图像与所述第二图像上各自所述虚拟显示界面的界面图像区域的大小及形状的比例关系以及所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度,确定两个图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系。
步骤732:依据所述位置对应关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
例如,所述第一位置信息为单个位置点的位置信息时,本实施例需要对该第一位置信息在所述第三图像上对应的位置信息进行确定,再进行相应指令的执行,如选中该第二位置信息对应的显示内容或者触发所述第二位置信息对应的功能区域,以提高操作响应的准确性。
参考图9,为本发明提供的一种穿戴式电子设备实施例五的结构示意图,其中,所述穿戴式电子设备用于佩戴在用户身上,如智能眼镜佩戴在用户头部眼睛上。用户携带该穿戴式电子设备可以在终端设备与其输出显示的虚拟显示界面之间的区域之外的任意位置对所述虚拟显示界面进行操作,实现不遮挡所述虚拟显示界面显示内容的同时对所述虚拟显示界面进行控制的目的。具体的,所述虚拟显示界面可以理解为所述终端设备如投影设备所输出的投影内容,落在帷幕或者墙壁上,形成虚拟显示界面。
在本实施例中,所述穿戴式电子设备可以包括有以下结构:
采集单元901,用于获得图像数据。
其中,所述图像数据包括佩戴有所述穿戴式电子设备的用户操作的第一图像及所述虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面。
如图2a中所示,处于位置A的所述终端设备在位置B上输出显示所述虚拟显示界面,所述终端设备与所述虚拟显示界面之间形成光线输出区域X,而本实施例中用户佩戴所述穿戴式电子设备之后,可以在所述输出区域X之外的其他的位置Y上进行其操作,此时用户携带所述穿戴式电子设备与所述虚拟显示界面之间连线与所述终端设备和所述虚拟显示界面之间连线具有夹角q。
需要说明的是,所述图像数据可以划分为两个图像,即:佩戴所穿戴式电子设备的用户操作体的第一图像、及所述虚拟显示界面的第二图像,如图2b中所示,本实施例中所采集到的第一图像为s用户操作体进行操作时的实时图像,所述第二图像t为处于用户所在角度所获取到的虚拟显示界面图像,区别于处于终端设备所处位置所能够采集到的虚拟显示界面r,如图2c中所示。
具体的,所述穿戴式电子设备上的采集单元901可以为摄像头等图像数据采集装置,用以采集其周边环境的图像数据。
图像解析单元902,用于解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息。
具体的,在本实施例中,可以基于所述穿戴式电子设备上的采集单元901与用户操作体的空间距离、操作体的操作手势及所述第二图像中虚拟显示界面的图像区域,来确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息,这里的第一位置信息是指,用户所在位置(位置Y)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面的界面图像上的位置信息,区别于处于终端设备所在位置能够观看到的虚拟显示界面的界面图像上的位置信息。
信息发送单元903,用于通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备基于所述第一位置信息执行针对所述虚拟显示界面的控制指令。
其中,所述数据通道可以理解为:所述穿戴式电子设备与所述终端设备之间的数据传输通道,也就是说,所述穿戴式电子设备与所述终端设备通过其各自的通信模块建立数据通道,这里的数据通道可以为WiFi数据通道、蓝牙数据通道或互联网数据通道等。
在本实施例中,将所述第一位置信息传输到所述终端设备中,由所述终端设备基于该第一位置信息执行针对上述虚拟显示界面的控制指令,具体的,由于所述第一位置信息对应的虚拟显示界面的界面图像区别于所述终端设备所在位置对应的虚拟显示界面的界面图像,因此,在本实施例中,所述终端设备在接收到所述第一位置信息之后,需要将所述第一位置信息根据两个界面图像之间的关系转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,进而基于该转换后的位置信息执行相应的控制指令,实现对所述虚拟显示界面的控制。
另外,所述穿戴式电子设备为了能够固定在用户身上,还可以包括有固定装置,所述固定装置用以将所述穿戴式电子设备稳定的固定在用户身上,例如,智能眼镜的眼镜腿或绑绳。
由上述方案可知,本发明提供的一种穿戴式电子设备实施例五中,用户可以佩戴穿戴式电子设备处于非终端设备及虚拟显示界面所在位置之间,而是可以处于其他位置不遮挡所述虚拟显示界面的显示内容,并通过其佩戴的穿戴式电子设备上的采集单元采集到用户操作体的第一图像及虚拟显示界面的第二图像之后,对该图像进数据进行解析,以确定操作体对应的操作点在虚拟显示界面上的第一位置信息,实现在不遮挡虚拟显示界面的前提下完成位置确定,改善用户的观看体验,达到本实施例目的。
参考图10,为本发明提供的一种穿戴式电子设备实施例六中所述图像解析单元902的结构示意图,其中,所述图像解析单元902可以包括以下结构:
手势识别子单元921,用于识别所述图像数据中第一图像内所述操作体的操作手势。
具体的,本实施例中可以通过图像识别算法等来对所述图像数据解析,具体对所述图像数据中所述第一图像进行图像解析,以识别到所述第一图像内所述操作体的操作手势,如识别所述操作手势为滑动操作手势还是点击操作手势等。
位置确定子单元922,用于基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
具体的,本实施例中在识别出所述操作体的操作手势之后,基于该操作手势与所述第二图像内的虚拟显示界面的相对位置,在所述第二图像内的虚拟显示界面上得到该操作手势对应的手势延长线或区域,进而确定该延长线或区域在所述第二图像内的虚拟显示界面的界面图像上的交点或交点集合,即所述第一位置信息。
需要说明的是,由于所述穿戴式电子设备的采集单元与所述操作体之间具有一定的距离及偏差角度,使得本实施例中所获取到第一位置信息具有一定偏差。如图4中所示,所述穿戴式电子设备及其采集单元佩戴在用户的头部,如智能眼镜佩戴在用户的眼睛上。本实施例中通过操作手势延长的方案所确定的第一位置信息f可以理解为在所述第二图像内操作体遮挡所述虚拟显示界面的位置,但是在实际应用中,根据用户操作习惯,用户所看到的被操作体遮挡的位置会与其进行操作的位置有一定的偏差,如位置f1,因此,需要根据所述穿戴式电子设备的采集单元在用户身上的佩戴位置对所述第一位置信息进行校正,由此得到较为准确的第一位置信息。
在具体实现中,存在用户挥动其操作体但并非进行对所述虚拟显示界面进行控制的操作,如教室在利用虚拟显示界面为学生讲解时,会有手指挥动或点击操作,并不需要全部识别为对虚拟显示界面的控制操作,而本实施例中将穿戴式电子设备佩戴在用户身上,会对其采集单元获得到的所有图像数据均会进行采集识别,由此产生对所述虚拟显示界面的误操作,因此,为了避免这种误操作,影响用户体验的问题,在本实施例中,可以对用户操作体的操作手势进行判断,以达到避免操作的显现。
参考图11,为本发明实施例中所述位置确定子单元922的结构示意图,其中,所述位置确定子单元922可以包括以下结构:
区域确定模块1101,用于确定所述操作手势在所述图像数据中的操作区域。
也就是说,本实施例中首先基于该操作区域,在所述图像数据中确定一个与该操作手势对应的操作区域,如所述操作手势在所述图像数据中的图像区域。
区域判断模块1102,用于判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果,在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,触发位置确定模块1103。
也就是说,本实施例中通过判断所述操作区域是否存在部分或全部区域在所述第二图像及所述第一图像之外的区域中,如图6a所示,用户操作体的操作手势为:操作体由位置m1滑动至m2的位置上,其对应操作区域为m1至m2之间的线区域,而该区域中只有部分区域处于所述第二图像中所述虚拟显示界面的界面图像区域内,还存在部分区域处于所述第二图像之外的区域中,或者,如图6b中所示,用户操作体的操作手势为:操作体由位置n1滑动至n2的位置上,其对应操作区域为n1至n2之间的线区域,而该区域的全部区域处于所述第二图像中所述虚拟显示界面的界面图像区域内,不存在部分区域处于所述第二图像之外的区域中。
位置确定模块1103,用于确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
也就是说,本实施例只有在所述操作体对应的操作区域均处于所述第二图像内所述虚拟显示界面的界面图像区域内时,才会确定所述操作体对应的第一位置信息,进而执行后续的将所述第一位置信息发送至移动终端,由所述移动终端基于该第一位置信息控制所述虚拟显示界面;而在所述操作区域并非完全处于所述第二图像内所述虚拟显示界面的界面图像区域内时,本实施例不会进行后续操作,识别该操作手势为非虚拟显示界面控制手势,不进行第一位置信息的确定及发送操作。
参考图12,为本发明提供的一种终端设备实施例七的结构示意图,其中,所述终端设备上具有能够输出显示虚拟显示界面的装置,由此,处于位置A的终端设备将所述虚拟显示界面显示在位置B上,如图2a中所示,所述终端设备与所述虚拟显示界面之间形成光线输出区域X,用户佩戴穿戴式电子设备之后,可以在所述输出区域X之外的其他的位置Y上进行其操作,此时用户携带所述穿戴式电子设备与所述虚拟显示界面之间连线与所述终端设备和所述虚拟显示界面之间连线具有夹角q。
具体的,所述穿戴式电子设备上具有采集单元,所述穿戴式电子设备上的采集单元能够采集图像数据,所述图像数据中包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及所述虚拟显示界面的第二图像,如图2b中所示,所述穿戴式电子设备所采集到的第一图像为s用户操作体进行操作时的实时图像,所述第二图像t为处于用户所在角度所获取到的虚拟显示界面图像,区别于处于终端设备所处位置所能够采集到的虚拟显示界面r,如图2c中所示,由此,所述穿戴式电子设备对其通过采集单元获得到的图像数据进行解析,以确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息,而第一位置信息是指,用户所在位置(位置Y)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面的界面图像上的位置信息,区别于处于所述终端设备所在位置(位置A)上观看所述虚拟显示界面时所述操作点在所述虚拟显示界面上的位置信息,因此,本实施例中需要将所述第一位置信息根据两个界面图像之间的关系转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,进而基于该转换后的位置信息执行相应的控制指令,实现对所述虚拟显示界面的控制。
在本实施例中,所述终端设备可以包括以下结构:
信息接收单元1201,用于接收穿戴式电子设备发送的第一位置信息。
其中,所述第一位置信息为所述操作体对应的操作点在所述虚拟显示界面的位置信息;所述虚拟显示界面为所述终端设备输出显示的显示界面。
采集单元1202,用于获得所述虚拟界面的第三图像。
如图2c中所示,所述终端设备上的采集单元能够采集到当前位置上的所述虚拟显示界面的第三图像r,此时,由于所述终端设备与所述虚拟显示界面是中心对应的,使得所述终端设备上的采集单元正对所述虚拟显示界面的中心区域,因此,在如图2c中的图像中,所述虚拟显示界面的界面图像区域即r的区域为规则的矩形形状,区别于如图2b中所述穿戴式电子设备上的采集单元所采集的图像数据中第二图像t的图像区域的不规则形状。
需要说明的是,所述终端设备上的采集单元1202可以为摄像头等图像数据采集装置,用以采集其周边环境的图像数据。
位置确定单元1203,用于确定所述第三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对上述虚拟显示界面的控制指令。
在本实施例中,由于所述第一位置信息对应的虚拟显示界面的界面图像区别于所述终端设备所在位置对应的虚拟显示界面的界面图像,如图2b及图2c中所示,需要将所述操作体对应的操作点在所述第二图像内所述虚拟显示界面上的第一位置信息转换为所述操作体对应的操作点在所述第三图像内所述虚拟显示界面上的第二位置信息,也就是说,需要对所述穿戴式电子设备所确定的第一位置信息进行校正之后,得到第二位置信息,进而再由所述终端设备基于该第二位置信息执行相应的控制指令,以控制所述虚拟显示界面。
其中,所述第一位置信息可以为单个位置点,也可以为多个位置点组成的轨迹,由此,在所述第一位置信息为单个位置点时,本实施例在所述第三图像中确定与所述第一位置信息的位置点相对应的位置点,以确定第二位置信息,进而基于该第二位置信息执行点击或选中命令,例如点击“登录”按钮区域;在所述第一位置信息为多个位置点组成的轨迹时,本实施例在所述第三图像中确定与所述第一位置信息的轨迹相对应的轨迹,以确定第二位置信息,进而基于该第二位置信息执行翻页或者书写指令,如显示下一张照片。
由上述方案可知,本发明提供的一种终端设备实施例七中,通过在接收穿戴式电子设备所发送的操作体对应的操作点在所述第二图像内所述虚拟显示界面上的第一位置信息之后,对该第一位置信息进行信息转换,此时操作体是不遮挡终端设备输出虚拟显示界面的,由此在确定终端设备上的采集单元所获得到的第三图像上与所述第一位置信息相对应的操作点的第二位置信息之后,由终端设备基于该第二位置信息执行相应的对虚拟显示界面的控制指令,进而在不遮挡终端设备输出虚拟显示界面的同时,实现对虚拟显示界面的控制,实现本实施例目的。
参考图13,为本发明提供的一种终端设备实施例八中所述位置确定单元1203的结构示意图,其中,所述位置确定单元1203可以包括以下结构:
关系确定子单元1231,用于基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置相对关系。
其中,由于所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度的差异性,如图2a中所示,使得用户佩戴所述穿戴式电子设备或能够观看的虚拟显示界面上各个位置点,与终端设备所能采集到的虚拟显示界面上各个位置点是不同的,因此,本实施例中在确定与所述第一位置信息相对应的第二位置信息时,可以首先基于所述第三图像与所述第二图像确定两个图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系。
具体的,由于所述第三图像及所述第二图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系,是与所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度的差异性相关的,因此,本实施例中可以根据所述第三图像与所述第二图像上各自所述虚拟显示界面的界面图像区域的大小及形状的比例关系以及所述穿戴式电子设备与所述终端设备相对于所述虚拟显示界面的位置及角度,确定两个图像上虚拟显示界面的界面图像上各个位置点之间的位置对应关系。
信息确定子单元1232,用于依据所述位置对应关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
例如,所述第一位置信息为单个位置点的位置信息时,本实施例需要对该第一位置信息在所述第三图像上对应的位置信息进行确定,再进行相应指令的执行,如选中该第二位置信息对应的显示内容或者触发所述第二位置信息对应的功能区域,以提高操作响应的准确性。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本申请所提供的一种相对位置确定方法、穿戴式电子设备及终端设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种相对位置确定方法,所述方法包括:
通过穿戴式电子设备上的采集单元获得图像数据;所述图像数据包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面,所述穿戴式电子设备位于所述终端设备与所述虚拟显示界面之间的区域之外的任意位置;
解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息;
通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备将所述第一位置信息转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,并基于转换后的位置信息执行针对所述虚拟显示界面的控制指令。
2.根据权利要求1所述的方法,其特征在于,所述解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息,包括:
识别所述图像数据中第一图像内所述操作体的操作手势;
基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息,包括:
确定所述操作手势在所述图像数据中的操作区域;
判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果;
在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
4.一种相对位置确定方法,包括:
接收穿戴式电子设备发送的第一位置信息,所述第一位置信息为操作体对应的操作点在虚拟显示界面的位置信息;所述虚拟显示界面为终端设备输出显示的显示界面,所述穿戴式电子设备位于所述终端设备与所述虚拟显示界面之间的区域之外的任意位置;
通过所述终端设备的采集单元,获得所述虚拟显示界面的第三图像;
确定在所述第三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对所述虚拟显示界面的控制指令。
5.根据权利要求4所述的方法,其特征在于,所述确定在所述第三图像中与所述第一位置信息相对应的第二位置信息,包括:
基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置对应关系;
依据所述位置对应关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
6.一种穿戴式电子设备,包括:
采集单元,用于获得图像数据,所述图像数据包括佩戴有所述穿戴式电子设备的用户操作体的第一图像及虚拟显示界面的第二图像;所述虚拟显示界面为终端设备输出显示的显示界面,所述穿戴式电子设备位于所述终端设备与所述虚拟显示界面之间的区域之外的任意位置;
图像解析单元,用于解析所述图像数据,以确定所述操作体对应的操作点在所述虚拟显示界面的第一位置信息;
信息发送单元,用于通过所述穿戴式电子设备与所述终端设备两者之间的数据通道,将所述第一位置信息发送至所述终端设备,以使得所述终端设备将所述第一位置信息转换成所述终端设备所在位置对应的虚拟显示界面的界面图像上的位置信息,并基于转换后的位置信息执行针对所述虚拟显示界面的控制指令。
7.根据权利要求6所述的穿戴式电子设备,其特征在于,所述图像解析单元包括:
手势识别子单元,用于识别所述图像数据中第一图像内所述操作体的操作手势;
位置确定子单元,用于基于所述第二图像内所述虚拟显示界面的界面图像及所述操作手势,确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
8.根据权利要求7所述的穿戴式电子设备,其特征在于,所述位置确定子单元包括:
区域确定模块,用于确定所述操作手势在所述图像数据中的操作区域;
区域判断模块,用于判断所述操作区域是否处于所述第二图像内所述虚拟显示界面的界面图像区域内,得到判断结果,在所述判断结果表明所述操作手势处于所述第二图像内所述虚拟显示界面的界面图像区域内时,触发位置确定模块;
位置确定模块,用于确定所述操作体对应的操作点在所述虚拟显示界面上的第一位置信息。
9.一种终端设备,包括:
信息接收单元,用于接收穿戴式电子设备发送的第一位置信息,所述第一位置信息为操作体对应的操作点在虚拟显示界面的位置信息;所述虚拟显示界面为所述终端设备输出显示的显示界面,所述穿戴式电子设备位于所述终端设备与所述虚拟显示界面之间的区域之外的任意位置;
采集单元,用于获得所述虚拟显示界面的第三图像;
位置确定单元,用于确定所述第三图像中与所述第一位置信息相对应的第二位置信息,以使得所述终端设备基于所述第二位置信息执行针对上述虚拟显示界面的控制指令。
10.根据权利要求9所述的终端设备,其特征在于,所述位置确定单元包括:
关系确定子单元,用于基于所述第三图像与所述穿戴式电子设备的采集单元获取到的所述虚拟显示界面的第二图像,确定所述第三图像与所述第二图像上两个虚拟显示界面中各个位置点之间的位置相对关系;
信息确定子单元,用于依据所述位置相对关系,确定所述第三图像中与所述第一位置信息相对应的第二位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510292925.2A CN104866103B (zh) | 2015-06-01 | 2015-06-01 | 一种相对位置确定方法、穿戴式电子设备及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510292925.2A CN104866103B (zh) | 2015-06-01 | 2015-06-01 | 一种相对位置确定方法、穿戴式电子设备及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866103A CN104866103A (zh) | 2015-08-26 |
CN104866103B true CN104866103B (zh) | 2019-12-24 |
Family
ID=53911984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510292925.2A Active CN104866103B (zh) | 2015-06-01 | 2015-06-01 | 一种相对位置确定方法、穿戴式电子设备及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104866103B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106708255A (zh) * | 2016-10-31 | 2017-05-24 | 宇龙计算机通信科技(深圳)有限公司 | 虚拟界面交互控制方法及系统 |
WO2018120768A1 (zh) * | 2016-12-30 | 2018-07-05 | 华为技术有限公司 | 一种遥控方法和终端 |
CN109118538A (zh) * | 2018-09-07 | 2019-01-01 | 上海掌门科技有限公司 | 图像呈现方法、系统、电子设备和计算机可读存储介质 |
CN111223187A (zh) * | 2018-11-23 | 2020-06-02 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置及系统 |
CN111766937B (zh) * | 2019-04-02 | 2024-05-28 | 广东虚拟现实科技有限公司 | 虚拟内容的交互方法、装置、终端设备及存储介质 |
CN112596609A (zh) * | 2020-12-25 | 2021-04-02 | 维沃移动通信有限公司 | 显示处理方法、显示处理装置和可穿戴设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102193631A (zh) * | 2011-05-05 | 2011-09-21 | 上海大学 | 可穿戴式三维手势交互系统及其使用方法 |
CN101673161B (zh) * | 2009-10-15 | 2011-12-07 | 复旦大学 | 一种可视可操作无实体的触摸屏系统 |
CN103995592A (zh) * | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
CN104317398A (zh) * | 2014-10-15 | 2015-01-28 | 天津三星电子有限公司 | 一种手势控制方法、穿戴式设备及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102508548A (zh) * | 2011-11-08 | 2012-06-20 | 北京新岸线网络技术有限公司 | 一种电子信息设备的操作方法及系统 |
US9411160B2 (en) * | 2013-02-12 | 2016-08-09 | Seiko Epson Corporation | Head mounted display, control method for head mounted display, and image display system |
CN103530061B (zh) * | 2013-10-31 | 2017-01-18 | 京东方科技集团股份有限公司 | 显示装置及控制方法 |
JP6206099B2 (ja) * | 2013-11-05 | 2017-10-04 | セイコーエプソン株式会社 | 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置 |
CN104375646B (zh) * | 2014-11-24 | 2018-07-06 | 联想(北京)有限公司 | 一种信息处理方法、电子设备及穿戴式电子设备 |
CN104410883B (zh) * | 2014-11-29 | 2018-04-27 | 华南理工大学 | 一种移动可穿戴非接触式交互系统与方法 |
-
2015
- 2015-06-01 CN CN201510292925.2A patent/CN104866103B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673161B (zh) * | 2009-10-15 | 2011-12-07 | 复旦大学 | 一种可视可操作无实体的触摸屏系统 |
CN102193631A (zh) * | 2011-05-05 | 2011-09-21 | 上海大学 | 可穿戴式三维手势交互系统及其使用方法 |
CN103995592A (zh) * | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
CN104317398A (zh) * | 2014-10-15 | 2015-01-28 | 天津三星电子有限公司 | 一种手势控制方法、穿戴式设备及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN104866103A (zh) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104866103B (zh) | 一种相对位置确定方法、穿戴式电子设备及终端设备 | |
EP3258423B1 (en) | Handwriting recognition method and apparatus | |
EP3293620B1 (en) | Multi-screen control method and system for display screen based on eyeball tracing technology | |
EP3467707A1 (en) | System and method for deep learning based hand gesture recognition in first person view | |
KR101623007B1 (ko) | 디스플레이 장치 및 그 제어방법 | |
WO2017118075A1 (zh) | 人机交互系统、方法及装置 | |
KR101631011B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
US20120229509A1 (en) | System and method for user interaction | |
CN103577075B (zh) | 一种电子设备的参数调节方法和装置 | |
CN109194866B (zh) | 一种图像采集方法、装置、系统、终端设备和存储介质 | |
CN106020454B (zh) | 一种基于眼控技术的智能终端触摸屏操作方法及系统 | |
US20150334299A1 (en) | Monitoring system | |
CN103914679A (zh) | 一种图像识别方法、装置和电子设备 | |
CN105808129B (zh) | 一种利用手势快速开启软件功能的方法和装置 | |
CN106569716B (zh) | 单手操控方法及操控系统 | |
WO2021004413A1 (zh) | 一种手持输入设备及其指示图标的消隐控制方法和装置 | |
CN103823560B (zh) | 一种控制方法和装置 | |
US10459533B2 (en) | Information processing method and electronic device | |
CN111913574B (zh) | 用于控制设备的方法、装置、电子设备和计算机可读介质 | |
CN104469249A (zh) | 一种信息处理方法及第一电子设备 | |
CN104714790B (zh) | 一种数据处理方法及电子设备 | |
US10877641B2 (en) | Image adjustment method, apparatus, device and computer readable storage medium | |
CN106155284B (zh) | 电子设备及信息处理方法 | |
CN107526479B (zh) | 一种传感器采集的环境量的显示方法、装置及系统 | |
Huang et al. | Over-the-air manipulation: An intuitive control system for smart home |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |