CN111240471B - 信息交互方法及穿戴式设备 - Google Patents
信息交互方法及穿戴式设备 Download PDFInfo
- Publication number
- CN111240471B CN111240471B CN201911419768.1A CN201911419768A CN111240471B CN 111240471 B CN111240471 B CN 111240471B CN 201911419768 A CN201911419768 A CN 201911419768A CN 111240471 B CN111240471 B CN 111240471B
- Authority
- CN
- China
- Prior art keywords
- user
- social
- information
- wearable device
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000003993 interaction Effects 0.000 title claims abstract description 55
- 238000012790 confirmation Methods 0.000 claims abstract description 125
- 230000001815 facial effect Effects 0.000 claims description 7
- 239000011521 glass Substances 0.000 description 26
- 238000005516 engineering process Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 210000001508 eye Anatomy 0.000 description 17
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000004382 visual function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种信息交互方法及穿戴式设备。其中,信息交互方法包括:获取第一用户与第二用户的对视时长;在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;显示社交信息;其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户。利用本发明实施例能够解决现有技术中社交应用的交互可靠性较低的问题。
Description
技术领域
本发明实施例涉及信息交互技术领域,尤其涉及一种信息交互方法及穿戴式设备。
背景技术
目前,当两个用户想要在社交应用中添加彼此为好友时,首先需要知道彼此的社交账号,然后在社交应用中通过社交账号添加好友。
但是,当两个陌生人想要在社交应用中添加彼此为好友时,由于彼此并不认识,也无法得知彼此的社交账号,如果用户询问对方的社交账号,还有可能被拒绝,使得双方十分尴尬,降低了社交应用的交互可靠性。
发明内容
本发明实施例提供一种信息交互方法及穿戴式设备,能够解决现有技术中社交应用的交互可靠性较低的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例还提供了一种信息交互方法,应用于第一穿戴式设备,包括:
获取第一用户与第二用户的对视时长;
在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;
显示社交信息;
其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户。
第二方面,本发明实施例提供了一种信息交互方法,应用于第二穿戴式设备,包括:
获取第一用户与第二用户的对视时长;
在对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使第一穿戴式设备获取与第二用户相关联的社交应用中的社交信息。
第三方面,本发明实施例提供了一种穿戴式设备,包括:
第一时长获取模块,用于获取第一用户与第二用户的对视时长;
社交信息获取模块,用于在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;
社交信息显示模块,用于显示社交信息;
其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户。
第四方面,本发明实施例提供了一种穿戴式设备,包括:
第二时长获取模块,用于获取第一用户与第二用户的对视时长;
第一信息发送模块,用于在对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使第一穿戴式设备获取与第二用户相关联的社交应用中的社交信息。
第五方面,本发明实施例提供了一种穿戴式设备,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现如第一方面所述的信息交互方法的步骤。
第六方面,本发明实施例提供了一种穿戴式设备,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现如第二方面所述的信息交互方法的步骤。
第七方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如第一方面所述的信息交互方法的步骤。
第八方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如第二方面所述的信息交互方法的步骤。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
附图说明
图1是本发明一个实施例提供的信息交互方法的流程示意图;
图2是本发明一个实施例提供的第一手势的手势示意图;
图3是本发明一个实施例提供的第三手势的手势示意图;
图4是本发明另一个实施例提供的信息交互方法的流程示意图;
图5是本发明一个实施例提供的第五手势的手势示意图;
图6是本发明一个实施例提供的穿戴式设备的结构示意图;
图7是本发明另一个实施例提供的穿戴式设备的结构示意图;
图8是实现本发明各个实施例的一种穿戴式设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,当两个用户想要在社交应用中添加彼此为好友时,首先需要知道彼此的社交账号,然后在社交应用中通过社交账号添加好友。
但是,当两个陌生人想要在社交应用中添加彼此为好友时,由于彼此并不认识,也无法得知彼此的社交账号,如果用户询问对方的社交账号,还有可能被拒绝。
为了解决上述的技术问题,本发明提供了一种社交应用的交互方案,能够使佩戴有第一穿戴式设备的第一用户与佩戴有第二穿戴式设备的第二用户,无需询问彼此的社交账号,即可以实现社交应用的交互。
下面对本发明实施例提供的穿戴式设备的屏幕进行介绍:本发明实施例中的穿戴式设备的屏幕可以为虚拟屏幕,可以为采用AR技术显示内容时,能够用于显示投射设备投射的内容的任意载体。其中,该投射设备可以为采用AR技术的投射设备,例如本发明实施例中的穿戴式设备。
当采用AR技术在虚拟屏幕显示内容时,投射设备可以将投射设备获取(或内部集成的)的虚拟场景,或虚拟场景和现实场景投射至虚拟屏幕上,使得虚拟屏幕可以显示这些内容,从而向用户展示现实场景与虚拟场景叠加的效果。
结合AR技术应用的不同场景,虚拟屏幕通常可以为电子设备(例如手机)的显示屏、AR眼镜的镜片、汽车的挡风玻璃、房间的墙壁等任意可能的载体。
下面分别以虚拟屏幕为电子设备的显示屏、AR眼镜的镜片,以及汽车的挡风玻璃为例,对采用AR技术在虚拟屏幕上显示内容的过程进行示例性的说明。
一种示例中,当虚拟屏幕为电子设备的显示屏时,投射设备可以为该电子设备。电子设备可以通过其摄像头采集电子设备所处区域中的现实场景,并将该现实场景显示在电子设备的显示屏上,然后电子设备可以将其获取(或内部集成的)的虚拟场景投射到电子设备的显示屏上,从而使得该虚拟场景可以叠加显示在该现实场景中,进而使得用户可以通过电子设备的显示屏看到现实场景和虚拟场景叠加后的效果。
另一种示例中,当虚拟屏幕为AR眼镜的镜片时,投射设备可以为该AR眼镜。当用户佩戴眼镜时,用户可以通过AR眼镜的镜片看到其所处区域中的现实场景,并且AR眼镜可以将其获取(或内部集成的)的虚拟场景投射到AR眼镜的镜片上,从而使得用户可以通过AR眼镜的镜片看到现实场景和虚拟场景叠加后的显示效果。
又一种示例中,当虚拟屏幕为汽车的挡风玻璃时,投射设备可以为任意电子设备。当用户位于汽车内时,用户可以通过汽车的挡风玻璃看到其所处区域中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到汽车的挡风玻璃上,从而使得用户可以通过汽车的挡风玻璃看到现实场景和虚拟场景叠加后的显示效果。
当然,本发明实施例中,也可以不限定虚拟屏幕的具体形式,例如其可能为非载体的现实空间。这种情况下,当用户位于现实空间中时,用户可以直接看到该现实空间中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到现实空间中,从而使得用户在现实空间中可以看到现实场景和虚拟场景叠加后的显示效果。
下面,将分别对第一穿戴式设备和第二穿戴式设备的信息交互过程进行详细说明。
图1示出了本发明一个实施例提供的信息交互方法的流程示意图。图1所示的方法可以由上述的第一穿戴式设备执行。其中,第一穿戴式设备可以为AR眼镜或者AR头盔等头戴式AR设备。
如图1所示,该信息交互方法可以包括:
步骤110、获取第一用户与第二用户的对视时长;
步骤120、在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;
步骤130、显示社交信息;
其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
在本发明实施例中,第一穿戴式设备需要事先与第一用户对应的至少一个第一社交账号相关联,第二穿戴式设备需要事先与至少一个第二用户对应的第二社交账号相关联,其中,社交账号可以为例如微信、QQ、微博等社交应用的账号。
并且,在本发明实施例中,在第一穿戴式设备执行信息交互方法的过程中,应始终处于联网状态。
在本发明一些实施例中,步骤110的具体方法可以包括:
确定第一用户的视线焦点在第二用户上的第一停留时间段;
确定第二用户的视线焦点在第一用户上的第二停留时间段;
根据第一停留时间段和第二停留时间段,确定第一用户与第二用户的对视时长。
具体地,第一穿戴式设备可以设置有前置的第一摄像头和后置的第二摄像头,前置的第一摄像头的图像采集区域为第一用户的眼睛的视野区域,后置的第二摄像头的图像采集区域为第一用户的脸部区域。
在一些实施例中,第一穿戴式设备可以通过第二摄像头采集第一用户的第一眼球图像,并根据第一眼球图像确定第一眼球运动信息,以根据第一眼球运动信对第一用户进行眼球追踪,从而定位第一用户的视线焦点,并且确定第一用户的视线焦点在第二用户上的第一停留时间段。第一穿戴式设备还可以通过第一摄像头采集第二用户的第二眼球图像,并根据第二眼球图像确定第二眼球运动信息,以根据第二眼球运动信对第二用户进行眼球追踪,从而定位第二用户的视线焦点,并且确定第二用户的视线焦点在第一用户上的第二停留时间段。
即第一穿戴式设备同时对第一用户和第二用户进行眼球追踪,识别第一用户对应的第一停留时间段和第二用户对应的第二停留时间段。
在另一些实施例中,第一穿戴式设备可以通过第二摄像头采集第一用户的第一眼球图像,并根据第一眼球图像确定第一眼球运动信息,以根据第一眼球运动信对第一用户进行眼球追踪,从而定位第一用户的视线焦点,并且确定第一用户的视线焦点在第二用户上的第一停留时间段。而第一穿戴式设备确定第二用户的视线焦点在第一用户上的第二停留时间段的具体方法可以包括:在第一停留时间段的时长达到第二预定时长的情况下,接收第二穿戴式设备发送的停留时间通知消息,停留时间通知消息包括第二停留时间段。
其中,第二预定时长可以大于或等于第一预定时长,例如,第一预定时长为3秒,则第二预定时长可以为3秒或3秒以上。
具体地,仅在第一穿戴式设备确定第一用户的视线焦点在第二用户上的第一停留时间段达到第二预定时长之后,第一穿戴式设备才接收第二穿戴式设备通过近场通信方式所发送的包括第二停留时间段的停留时间通知消息,从而可以降低第一穿戴式设备的数据处理量。
需要说明的是,第二穿戴式设备确定第二停留时间段的方法与第一穿戴式设备确定第一停留时间段的方法相似,在此不做赘述。
在这些实施例中,可选地,根据第一停留时间段和第二停留时间段确定第一用户与第二用户的对视时长的具体方法可以为:将第一停留时间段和第二停留时间段中的重叠时间段的时长,确定为对视时长。
在这些实施例中,可选地,根据第一停留时间段和第二停留时间段确定第一用户与第二用户的对视时长的具体方法还可以为:将第一停留时间段和第二停留时间段中的最短时长,确定为对视时长。
在本发明另一些实施例中,步骤110的具体方法可以包括:
确定第一用户的视线焦点在第二用户上的第一停留时间段;
确定第二用户的脸部角度处于预设角度范围内的第二停留时间段;
根据第一停留时间段和第二停留时间段,确定第一用户与第二用户的对视时长。
在一些实施例中,第一穿戴式设备可以通过第二摄像头采集第一用户的第一眼球图像,并根据第一眼球图像确定第一眼球运动信息,以根据第一眼球运动信对第一用户进行眼球追踪,从而定位第一用户的视线焦点,并且确定第一用户的视线焦点在第二用户上的第一停留时间段。第一穿戴式设备还可以通过第一摄像头采集第二用户的人脸图像,并根据人脸图像确定第二用户的脸部角度,从而确定第二用户的脸部角度处于预设角度范围内的第二停留时间段。
即第一穿戴式设备对第一用户进行眼球追踪的同时,对第二用户的脸部角度进行识别,以同时识别第一用户对应的第一停留时间段和第二用户对应的第二停留时间段。
由此,可以在第一用户与第二用户距离较远时,通过第二用户的脸部角度确定其对应的第二停留时间段。
在本发明实施例的步骤120中,当第一用户和第二用户在日常生活环境中(如咖啡厅、图书馆等)遇见对方,且双方进行对视的对视时长达到第一预设时长,则可以确定彼此有好感,如果双方进行对视的对视时长未达到第一预设时长,则可以确定彼此无感。
并且,第一确认信息用于表征第二用户允许第一用户查看与第二用户相关联的社交应用中的社交信息。因此,第一穿戴式设备仅在在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,即在确定彼此有好感且第二用户允许第一用户查看其社交信息的情况下,第一穿戴式设备才会获取与第二用户相关联的社交应用中的社交信息。
在一些实施例中,在获取第一用户与第二用户的对视时长之后,在获取与第二用户相关联的社交应用中的社交信息之前,还包括:
在第一穿戴式设备的摄像头采集到第一用户的第一手势的情况下,接收第二穿戴式设备发送的第一确认信息。
具体地,在对视时长达到第一预设时长的情况下,第一穿戴式设备处于等待第一用户指示的状态,并且通过第一穿戴式设备的第一摄像头持续采集图像,直至第一摄像头采集到第一用户的第一手势时,才接收第二穿戴式设备发送的第一确认信息。并且,如果处于等待第一用户指示的状态的时长达到第三预设时长,则取消等待,并且确定不接收第二穿戴式设备发送的第一确认信息。
在一些实施例中,可选地,第一手势为与第三确认信息相关联的手势。第三确认信息为提示第一用户已经与第二用户配对成功并且请求确认是否允许第二用户查看第一用户的社交信息的信息。例如,第三确认信息可以为“配对成功,是否允许对方查看你的社交主页?”。
在这些实施例中,进一步地,在接收第二穿戴式设备发送的第一确认信息之前,该信息交互方法还可以包括:
在对视时长达到第一预设时长的情况下,显示第三确认信息。
即在双方进行对视的对视时长达到第一预设时长,并确定彼此有好感之后,第一穿戴式设备会在虚拟屏幕上显示第三确认信息,第一用户可以针对所看到的第三确认信息在第一穿戴式设备的第一摄像头的图像采集区域内比出用于指示允许第二用户查看其社交信息的第一手势。
图2示出了本发明一个实施例提供的第一手势的手势示意图。
如图2所示,第一手势可以为“OK”手势,第一穿戴式设备可以响应于“OK”手势,同意配对,并且接收第一确认信息以及向第二穿戴式设备发送用于指示允许第二用户查看其社交信息的确认信息。
在这些实施例中,进一步地,在获取第一用户与第二用户的对视时长之后,该信息交互方法还可以包括:
在对视时长达到第一预设时长的情况下,显示第三确认信息;
在第一穿戴式设备的摄像头未采集到第一用户的第二手势的情况下,接收第二穿戴式设备发送的第一确认信息,第二手势为与第三确认信息相关联的手势。
具体地,在双方进行对视的对视时长达到第一预设时长,并确定彼此有好感之后,第一穿戴式设备会在虚拟屏幕上显示第三确认信息,第一用户可以针对所看到的第三确认信息在第一穿戴式设备的第一摄像头的图像采集区域内比出用于指示不允许第二用户查看其社交信息的第二手势,例如,挥手手势,则第一穿戴式设备可以响应于第二手势,取消配对,并且不接收第一确认信息以及不向第二穿戴式设备发送用于指示允许第二用户查看其社交信息的确认信息。
在本发明一些实施例中,第三确认信息可以为第二穿戴式设备在确认对视时长达到第一预设时长的情况下,通过近场通信方式向第一穿戴式设备发送的信息。在本发明另一些实施例中,第三确认信息也可以为第一穿戴式设备在确认对视时长达到第一预设时长的情况下所生成的信息。
在本发明实施例中,在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,第一穿戴式设备可以获取与第二用户相关联的社交应用中的社交信息,然后自动登录其实现关联的该社交应用下的第一用户的第一社交账号,从而开始社交信息的交互。
在本发明一些实施例的步骤120中,获取与第二用户相关联的社交应用中的社交信息的具体方法可以包括:
获取第一穿戴式设备的摄像头采集的第二用户的人脸图像;
确定与第二用户的人脸图像相关联的第二社交账号;
获取第二社交账号在所属的社交应用中的社交信息。
具体地,可以利用第一穿戴式设备的第一摄像头,采集第二用户的人脸图像,然后根据人脸图像确定第二用户的人脸信息,并查询与该人脸信息绑定的第二社交账号,从而获取第二社交账号在所属的社交应用中的社交信息。
当与该人脸信息绑定的第二社交账号的数量为多个时,可以根据每个第二社交账号的历史登录信息,确定多个第二社交账号的优先级,并且获取优先级最高的第二社交账号在所属的社交应用中的社交信息;也可以将多个第二社交账号显示给第一用户,并且根据第一用户的选择,获取第一用户所选择的第二社交账号在所属的社交应用中的社交信息。
在本发明另一些实施例的步骤120中,获取与第二用户相关联的社交应用中的社交信息的具体方法可以包括:
确定第一确认信息中包括的第二社交账号。
具体地,在第二用户通过第二穿戴式设备确认允许第一用户查看其社交信息后,可以在第一确定信息中携带其允许第一用户查看的社交应用下的第二社交账号,从而可以保护第二用户的其他社交账号的隐私性。
在本发明一些实施例中,第一穿戴式设备接收到第二穿戴式设备所发送的第一确认信息,仅表示确认第二用户允许第一用户查看其社交信息,但是第一用户能够看到社交信息中的多少内容,还需要第二用户进一步确认。
在这些实施例中,可选地,在获取第二社交账号在所属的社交应用中的社交信息之前,该信息交互方法还可以包括:
接收第二穿戴式设备发送的第二确认信息,第二确认信息包括第一权限等级。
在这些实施例中,获取第二社交账号在所属的社交应用中的社交信息的具体方法可以包括:
获取第二社交账号在所属的社交应用中的第一社交信息,第一社交信息为在第一权限等级下的社交信息。
具体地,第二确认信息用于指示第一用户查看社交信息的第一权限等级,使第一穿戴式设备仅能够获取该第二确认信息所允许的第一权限等级下的社交信息。
以第一权限等级共分3级为例,若第一权限等级为1级,则仅可以查看第二用户的基本用户信息,例如头像、昵称、星座等;若第一权限等级为2级,还可以查看用户的用户动态信息,例如心情动态、照片等;若第一权限等级为3级,还可以查看兴趣爱好信息,例如最近看过的书、电影、音乐或最近参加过的运动等。
在本发明另一些实施例中,第一穿戴式设备接收到第二穿戴式设备所发送的第一确认信息,仅表示确认第二用户允许第一用户查看其社交信息,但是第一用户能够看到社交信息中的多少内容,还需要通过对视时长进一步确认。
在这些实施例中,可选地,获取第二社交账号在所属的社交应用中的社交信息的具体方法可以包括:
确定对视时长对应的第二权限等级;
获取第二社交账号在所属的社交应用中的第二社交信息,第二社交信息为在第二权限等级下的社交信息。
具体地,可以预先设置对视时长与不同的权限等级的对应关系,对视时长越长,权限等级越高,然后确定本次对视时长对应的第二权限等级,从而获取该第二权限等级下的社交信息。
在本发明一些实施例的步骤130中,可以在第一穿戴式设备的虚拟屏幕中显示社交信息界面,并且在社交信息界面内显示第二用户的社交信息。
在本发明一些实施例中,在步骤130之后,该信息交互方法还可以包括:
在第一穿戴式设备的摄像头采集到第一用户的第三手势的情况下,向第二穿戴式设备发送与第三手势相关联的第一互动信息。
以社交信息为第一权限等级下的社交信息且第一权限等级共分3级为例,若第一权限等级为1级,第一用户可以基于所显示的社交信息,进行点赞操作;若第一权限等级为2级,第一用户还可以基于所显示的社交信息,进行评论操作;若第一权限等级为3级,第一用户还可以基于所显示的社交信息,查看第二用户的兴趣爱好的相关介绍和推荐,为下一步的深入交流打下基础。
图3示出了本发明一个实施例提供的第三手势的手势示意图。如图3所示,第一用户在查看社交信息后,如果仍然对第二用户感兴趣,则可以在第一穿戴式设备的第一摄像头的图像采集区域内比出“比心”手势,此时,第一互动信息可以为“喜欢”的打招呼信息。
再例如,第一用户可以点击虚拟屏幕上的社交信息界面中的“添加好友”的按钮,向第二社交账号发起好友请求,等待对方回应。
图4示出了本发明另一个实施例提供的信息交互方法的流程示意图。图4所示的方法可以由上述的第二穿戴式设备执行。其中,第二穿戴式设备可以为AR眼镜或者AR头盔等头戴式AR设备。
如图4所示,该信息交互方法可以包括:
步骤210、获取第一用户与第二用户的对视时长;
步骤220、在对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使第一穿戴式设备获取与第二用户相关联的社交应用中的社交信息。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
在本发明实施例中,第一穿戴式设备需要事先与第一用户对应的至少一个第一社交账号相关联,第二穿戴式设备需要事先与至少一个第二用户对应的第二社交账号相关联,其中,社交账号可以为例如微信、QQ、微博等社交应用的账号。
并且,在本发明实施例中,在第二穿戴式设备执行信息交互方法的过程中,应始终处于联网状态。
在本发明实施例中,第二穿戴式设备可以设置有前置的第三摄像头和后置的第四摄像头,前置的第三摄像头的图像采集区域为第二用户的眼睛的视野区域,后置的第四摄像头的图像采集区域为第二用户的脸部区域。
在本发明实施例的步骤210中,获取对视时长的方法与图1所示方法实施例中获取对视时长的方法相似,在此不做赘述。
在本发明实施例的步骤220中,当第一用户和第二用户在日常生活环境中(如咖啡厅、图书馆等)遇见对方,且双方进行对视的对视时长达到第一预设时长,则可以确定彼此有好感,如果双方进行对视的对视时长未达到第一预设时长,则可以确定彼此无感。
并且,第二穿戴式设备还需要向第一穿戴式设备发送第一确认信息,第一确认信息用于表征第二用户允许第一用户查看与第二用户相关联的社交应用中的社交信息,使第一穿戴式设备可以获取与第二用户相关联的社交应用中的社交信息。
在本发明一些实施例的步骤220中,向第一穿戴式设备发送第一确认信息的具体方法可以包括:
在第二穿戴式设备的摄像头采集到第二用户的第四手势的情况下,向第一穿戴式设备发送第一确认信息。
具体地,在对视时长达到第一预设时长的情况下,第二穿戴式设备处于等待第二用户指示的状态,并且通过第二穿戴式设备的第三摄像头持续采集图像,直至第三摄像头采集到第二用户的第四手势时,才向第一穿戴式设备发送第一确认信息。并且,如果处于等待第二用户指示的状态的时长达到第三预设时长,则取消等待,并且确定不接收第一穿戴式设备发送的确认信息。
在一些实施例中,可选地,第四手势为与第四确认信息相关联的手势。第四确认信息为提示第一用户已经与第二用户配对成功并且请求确认是否允许第一用户查看第二用户的社交信息的信息。例如,第四确认信息可以为“配对成功,是否允许对方查看你的社交主页?”。
在这些实施例中,进一步地,在向第一穿戴式设备发送第一确认信息之前,该信息交互方法还可以包括:
在对视时长达到第一预设时长的情况下,显示第四确认信息。
即在双方进行对视的对视时长达到第一预设时长,并确定彼此有好感之后,第二穿戴式设备会在虚拟屏幕上显示第四确认信息,第二用户可以针对所看到的第四确认信息在第二穿戴式设备的第三摄像头的图像采集区域内比出用于指示允许第一用户查看其社交信息的第四手势,如图2所示的“OK”手势,在此不做赘述。
在这些实施例中,进一步地,向第一穿戴式设备发送第一确认信息的具体方法还可以包括:
在对视时长达到第一预设时长的情况下,显示第四确认信息;
在第二穿戴式设备的摄像头未采集到第二用户的第七手势的情况下,向第一穿戴式设备发送的第一确认信息,第七手势为与第四确认信息相关联的手势。
具体地,在双方进行对视的对视时长达到第一预设时长,并确定彼此有好感之后,第二穿戴式设备会在虚拟屏幕上显示第四确认信息,第二用户可以针对所看到的第四确认信息在第二穿戴式设备的第三摄像头的图像采集区域内比出用于指示不允许第一用户查看其社交信息的第七手势,例如,挥手手势,则第二穿戴式设备可以响应于第七手势,取消配对,在此不做赘述。
在本发明一些实施例中,第四确认信息可以为第一穿戴式设备在确认对视时长达到第一预设时长的情况下,通过近场通信方式向第二穿戴式设备发送的信息。在本发明另一些实施例中,第四确认信息也可以为第二穿戴式设备在确认对视时长达到第一预设时长的情况下所生成的信息。
在本发明一些实施例中,第二穿戴式设备向第一穿戴式设备发送第一确认信息,仅表示确认第二用户允许第一用户查看其社交信息,但是第一用户能够看到社交信息中的多少内容,还需要第二用户进一步确认。
在本发明一些实施例中,在步骤220之后,该信息交互方法还可以包括:
在第二穿戴式设备的摄像头采集到第二用户的第五手势的情况下,向第一穿戴式设备发送第二确认信息;其中,第二确认信息包括第五手势对应的第一权限等级。
具体地,在向第一穿戴式设备发送第一确认信息后,第二穿戴式设备的虚拟屏幕上还会显示用于提示第二用户确认第一用户的权限等级的信息,第二用户可以针对所看到的信息,在第二穿戴式设备的第三摄像头的图像采集区域内比出用于指示允许第一用户的权限等级的第五手势,以使第二穿戴式设备根据第五手势确认第一权限等级,并且向第一穿戴式设备发送包括第一权限等级的第二确认信息。
图5示出了本发明一个实施例提供的第五手势的手势示意图。如图5所示,第五手势可以为比出“1”、“2”或“3”的手势,第五手势比出“1”时,第一权限等级为1级,第五手势比出“2”时,第一权限等级为2级,第五手势比出“3”时,第一权限等级为3级。
在本发明一些实施例中,在步骤220之后,该信息交互方法还可以包括:
接收第一穿戴式设备发送的第一互动信息;
显示第一互动信息;
在第二穿戴式设备的摄像头采集到第二用户的第六手势的情况下,向第一穿戴式设备发送与第六手势相关联的第二互动信息,第六手势为与第一互动信息相关联的手势。
以第一互动信息为“喜欢”的打招呼信息为例,第二用户可以在第二穿戴式设备的第三摄像头的图像采集区域内比出用于指示通过好友请求的第六手势,使双方在社交应用上添加好友,并进一步交流。其中,第六手势也可以为图3所示的“比心”手势。第二用户还可以在第二穿戴式设备的第三摄像头的图像采集区域内比出用于指示不通过好友请求的第六手势,双方重归陌生人状态,不会使第一用户因为被当面拒绝而尴尬。其中,第六手势也可以为挥手手势。
本申请实施例的信息交互方法可以应用于陌生人之间快速进行社交交友的场景,在这个场景下,第一穿戴式设备和第二穿戴式设备进行信息交互的具体过程如下:
当第一穿戴式设备和第二穿戴式设备分别确定第一用户与第二用户的对视时长达到3秒的情况下,则第一穿戴式设备和第二穿戴式设备均确认第一用户与第二用户“合眼缘”。
然后,第一穿戴式设备和第二穿戴式设备可以执行相同的配对确认流程。例如,第一穿戴式设备通过近场通信方式,向第二穿戴式设备发送“配对成功,是否允许对方查看你的社交主页?”的确认信息,并且接受第二穿戴式设备发送的“配对成功,是否允许对方查看你的社交主页?”的确认信息,如果第一穿戴式设备在显示“配对成功,是否允许对方查看你的社交主页?”的确认信息之后,采集到第一用户的“OK”手势,则可以等待第二穿戴式设备发送的用于表征第二用户允许第一用户查看与第二用户相关联的社交应用中的社交信息。在第二穿戴式设备显示“配对成功,是否允许对方查看你的社交主页?”的确认信息之后,如果采集到第二用户的“OK”手势,则可以向第一穿戴式设备发送用于表征第二用户允许第一用户查看与第二用户相关联的社交应用中的社交信息。此时,两个穿戴式设备的用户完成配对。但是,如果在看到“配对成功,是否允许对方查看你的社交主页?”的确认信息之后,做出了挥手手势,则配对取消,双方都不能看到彼此的社交信息,并且不能再继续进行交流。
接着,第一穿戴式设备和第二穿戴式设备可以执行相同的权限确认流程。例如,在第一用户和第二用户完成配对之后,第二用户可以在第二穿戴式设备的图像采集区域内做出“3”的手势,使第二穿戴式设备向第一穿戴式设备发送包含3级权限等级的确认信息,使第一穿戴式设备可以在采集第二用户的人脸图像,并且确定与采集的人脸图像相关联的社交账号后,获取该社交账号在3级权限等级下的社交信息。
在第一用户和第二用户分别查看到对方的社交信息后,可以在各自的穿戴式设备前做出“比心”手势,以向对方发送“喜欢”的打招呼信息;或者,也可以点击虚拟屏幕上的社交信息界面中的“添加好友”的按钮,向对方发起好友请求;或者,还可以在社交信息界面内进行点赞操作或者评论操作。接收到好友请求的用户,还可以同意好友请求,使双方可以进一步交流,或者,不同意好友请求,使双方回归陌生人状态。
综上所述,本发明实施例提供了一种将AR技术和人脸识别技术相关联的信息交互方法,能够与佩戴穿戴式设备的用户的社交账号关联,帮助用户快速获取另一个佩戴穿戴式设备的用户公开的社交信息,并且可以通过手势操作与对方互动,如果获得对方回应,即可以快速进行社交交友或者进一步交流,打破了陌生人之间破冰交流的尴尬场面,提升了陌生人之间的社交效率,从而提供了一种时尚、有趣又高效的陌生人的社交方式。
图6示出了本发明一个实施例提供的穿戴式设备的结构示意图。图6所示的设备可以为上述的第一穿戴式设备。其中,第一穿戴式设备可以为AR眼镜或者AR头盔等头戴式AR设备。
如图6所示,该穿戴式设备可以包括:
第一时长获取模块310,用于获取第一用户与第二用户的对视时长;
社交信息获取模块320,用于在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;
社交信息显示模块330,用于显示社交信息;
其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
在本发明一些实施例中,第一时长获取模块310可以包括:
第一时间段确定单元,用于确定第一用户的视线焦点在第二用户上的第一停留时间段;
第二时间段确定单元,用于确定第二用户的视线焦点在第一用户上的第二停留时间段;
对视时长确定单元,用于根据第一停留时间段和第二停留时间段,确定第一用户与第二用户的对视时长。
在本发明一些实施例中,第二时间段确定单元具体用于:
在第一停留时间段的时长达到第二预定时长的情况下,接收第二穿戴式设备发送的停留时间通知消息,停留时间通知消息包括第二停留时间段。
在本发明一些实施例中,社交信息获取模块320可以包括:
人脸图像采集单元,用于获取第一穿戴式设备的摄像头采集的第二用户的人脸图像;
社交账号确定单元,用于确定与第二用户的人脸图像相关联的第二社交账号;
社交信息获取单元,用于获取第二社交账号在所属的社交应用中的社交信息。
在本发明一些实施例中,该穿戴式设备还可以包括:
第一权限获取模块,用于在获取第二社交账号在所属的社交应用中的社交信息之前,接收第二穿戴式设备发送的第二确认信息,第二确认信息包括第一权限等级;
在这些实施例中,社交信息获取模块320可以具体用于:
获取第二社交账号在所属的社交应用中的第一社交信息,第一社交信息为在第一权限等级下的社交信息。
在本发明另一些实施例中,社交信息获取模块320还可以具体用于:
确定对视时长对应的第二权限等级;
获取第二社交账号在所属的社交应用中的第二社交信息,第二社交信息为在第二权限等级下的社交信息。
在本发明一些实施例中,该穿戴式设备还可以包括:
第一信息接收模块,用于在获取第一用户与第二用户的对视时长之后,在第一穿戴式设备的摄像头采集到第一用户的第一手势的情况下,接收第二穿戴式设备发送的第一确认信息。
在本发明一些实施例中,第一手势为与第三确认信息相关联的手势。
在这些实施例中,该穿戴式设备还可以包括:
第一信息显示模块,用于在接收第二穿戴式设备发送的第一确认信息之前,在对视时长达到第一预设时长的情况下,显示第三确认信息。
在本发明一些实施例中,该穿戴式设备还可以包括:
第二信息接收模块,用于在获取第一用户与第二用户的对视时长之后,在第一穿戴式设备的摄像头未采集到第一用户的第二手势的情况下,接收第二穿戴式设备发送的第一确认信息,第二手势为与第三确认信息相关联的手势。
在本发明一些实施例中,该穿戴式设备还可以包括:
第二信息发送模块,用于在显示社交信息之后,在第一穿戴式设备的摄像头采集到第一用户的第三手势的情况下,向第二穿戴式设备发送与第三手势相关联的第一互动信息。
本发明实施例提供的穿戴式设备能够实现图1至图3的方法实施例中穿戴式设备实现的各个过程和效果,并且实现各个过程的原理相同,为避免重复,这里不再赘述。
图7示出了本发明另一个实施例提供的穿戴式设备的结构示意图。图7所示的设备可以为上述的第二穿戴式设备。其中,第二穿戴式设备可以为AR眼镜或者AR头盔等头戴式AR设备。
如图7所示,该穿戴式设备可以包括:
第二时长获取模块410,用于获取第一用户与第二用户的对视时长;
第一信息发送模块420,用于在对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使第一穿戴式设备获取与第二用户相关联的社交应用中的社交信息。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
在本发明一些实施例中,第一信息发送模块420可以具体用于:
在第二穿戴式设备的摄像头采集到第二用户的第四手势的情况下,向第一穿戴式设备发送第一确认信息。
在本发明一些实施例中,第四手势为与第四确认信息相关联的手势。
在这些实施例中,该穿戴式设备还可以包括:
第二信息显示模块,用于在向第一穿戴式设备发送第一确认信息之前,在对视时长达到第一预设时长的情况下,显示第四确认信息。
在本发明一些实施例中,该穿戴式设备还可以包括:
第一权限发送模块,用于在向第一穿戴式设备发送第一确认信息之后,在第二穿戴式设备的摄像头采集到第二用户的第五手势的情况下,向第一穿戴式设备发送第二确认信息;其中,第二确认信息包括第五手势对应的第一权限等级。
在本发明一些实施例中,该穿戴式设备还可以包括:
第三信息接收模块,用于在向第一穿戴式设备发送第一确认信息之后,接收第一穿戴式设备发送的第一互动信息;
第三信息显示模块,用于显示第一互动信息;
第三信息发送模块,用于在第二穿戴式设备的摄像头采集到第二用户的第六手势的情况下,向第一穿戴式设备发送与第六手势相关联的第二互动信息,第六手势为与第一互动信息相关联的手势。
本发明实施例提供的穿戴式设备能够实现图4至图5的方法实施例中穿戴式设备实现的各个过程和效果,并且实现各个过程的原理相同,为避免重复,这里不再赘述。
图8为实现本发明各个实施例的一种穿戴式设备的硬件结构示意图。如图8所示,该穿戴式设备500包括但不限于:射频单元501、网络模块502、音频输出单元503、输入单元504、传感器505、显示单元506、用户输入单元507、接口单元508、存储器509、处理器510、以及电源511等部件。本领域技术人员可以理解,图8中示出的穿戴式设备结构并不构成对穿戴式设备的限定,穿戴式设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,穿戴式设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器510,用于:
获取第一用户与第二用户的对视时长;在对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息;以及控制显示单元在其虚拟屏幕上显示社交信息;其中,第一用户为佩戴第一穿戴式设备的用户,第二用户为佩戴第二穿戴式设备的用户;
或者
获取第一用户与第二用户的对视时长;在对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使第一穿戴式设备获取与第二用户相关联的社交应用中的社交信息。
本发明实施例提供的穿戴式设备能够实现上述各个方法实施例中穿戴式设备实现的各个过程,为避免重复,这里不再赘述。
在本发明实施例中,第一穿戴式设备可以获取佩戴第一穿戴式设备的第一用户与佩戴第二穿戴式设备的第二用户的对视时长,并且在对视时长达到第一预设时长且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与第二用户相关联的社交应用中的社交信息,以显示社交信息,可见,第一穿戴式设备仅需通过第一用户与第二用户的对视时长和所接收的第一确认信息,便可以获取第二用户的社交信息,提高了社交应用的交互便捷性和交互可靠性。
应理解的是,本发明实施例中,射频单元501可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器510处理;另外,将上行的数据发送给基站。通常,射频单元501包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元501还可以通过无线通信系统与网络和其他设备通信,例如,可以通过近场通信方式与其他穿戴式设备通信。
本发明实施例提供的穿戴式设备能够实现上述方法实施例中穿戴式设备实现的各个过程,为避免重复,这里不再赘述。
穿戴式设备通过网络模块502为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元503可以将射频单元501或网络模块502接收的或者在存储器509中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元503还可以提供与穿戴式设备500执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元503包括扬声器、蜂鸣器以及受话器等。
输入单元504用于接收音频或视频信号。输入单元504可以包括图形处理器(Graphics Processing Unit,GPU)5041和麦克风5042,图形处理器5041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理,其中,摄像头可以包括前置摄像头,从而第一穿戴式设备可以在前置摄像头拍摄的画面的基础上结合虚拟屏幕进行展示和互动。处理后的图像帧可以显示在显示单元506上。经图形处理器5041处理后的图像帧可以存储在存储器509(或其它存储介质)中或者经由射频单元501或网络模块502进行发送。麦克风5042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元501发送到移动通信基站的格式输出。
穿戴式设备500还包括至少一种传感器505,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节投影仪5061投射的光线的亮度,接近传感器可在穿戴式设备500移动到耳边时,关闭投影仪5061。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别穿戴式设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器505还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元506用于显示由用户输入的信息或提供给用户的信息。显示单元506可包括投影仪5061和光学组件,投影仪用于投射出所要显示的信息对应的光线,光学组件对光线进行反射,使反射后的光线投射至用户的视网膜,以位于在用户的眼镜前方的光学组件的反射面上形成虚拟屏幕。
可以理解,本发明实施例中,当上述实施例中的穿戴式设备为AR设备时,该穿戴式设备可以为集成有AR技术的电子设备。其中,AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
下面以穿戴式设备为AR眼镜为例,当用户佩戴上AR眼镜后,用户观看到的场景是通过AR技术处理所产生的,即通过AR技术可以使得虚拟场景叠加显示在现实场景中。当用户对AR眼镜显示的内容操作时,用户可以看到AR眼镜将现实场景“剥开”,从而将更加真实的一面展示给用户。例如,用户肉眼观察一个纸箱时只能观察到纸箱外壳,但是当用户佩戴上AR眼镜后,用户便可以通过AR眼镜直接观察到纸箱的内部结构。
用户输入单元507可用于接收输入的数字或字符信息,以及产生与穿戴式设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元507包括触控面板5071以及其他输入设备5072。触控面板5071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板5071上或在触控面板5071附近的操作)。触控面板5071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器510,接收处理器510发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板5071。除了触控面板5071,用户输入单元507还可以包括其他输入设备5072。具体地,其他输入设备5072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,当触控面板5071检测到在其上或附近的触摸操作后,传送给处理器510以确定触摸事件的类型,随后处理器510根据触摸事件的类型通过投影仪5061上提供相应的视觉输出。
接口单元508为外部装置与穿戴式设备500连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元508可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到穿戴式设备500内的一个或多个元件或者可以用于在穿戴式设备500和外部装置之间传输数据。
存储器509可用于存储软件程序以及各种数据。存储器509可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器509可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器510是穿戴式设备的控制中心,利用各种接口和线路连接整个穿戴式设备的各个部分,通过运行或执行存储在存储器509内的软件程序和/或模块,以及调用存储在存储器509内的数据,执行穿戴式设备的各种功能和处理数据,从而对穿戴式设备进行整体监控。处理器510可包括一个或多个处理单元;优选的,处理器510可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器510中。
穿戴式设备500还可以包括给各个部件供电的电源511(比如电池),优选的,电源511可以通过电源管理系统与处理器510逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,穿戴式设备500包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种穿戴式设备,包括处理器510,存储器509,存储在存储器509上并可在所述处理器510上运行的计算机程序,该计算机程序被处理器510执行时实现上述信息交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
可以理解,本发明实施例中,当上述实施例中的第一穿戴式设备集成有AR技术。其中,AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
下面以第一穿戴式设备为AR眼镜为例,当用户佩戴上AR眼镜后,用户观看到的场景是通过AR技术处理所产生的,即通过AR技术可以使得虚拟场景叠加显示在现实场景中。当用户对AR眼镜显示的内容操作时,用户可以看到AR眼镜将现实场景“剥开”,从而将更加真实的一面展示给用户。例如,用户肉眼观察一个纸箱时只能观察到纸箱外壳,但是当用户佩戴上AR眼镜后,AR技术可以将虚拟场景“纸箱的内部结构”叠加显示在真实的纸箱外壳上,使用户可以通过AR眼镜直接观察到纸箱的内部结构。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述信息交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (15)
1.一种信息交互方法,应用于第一穿戴式设备,其特征在于,包括:
获取第一用户与第二用户的对视时长;
在所述对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与所述第二用户相关联的社交应用中的社交信息;
显示所述社交信息;
其中,所述第一用户为佩戴所述第一穿戴式设备的用户,所述第二用户为佩戴所述第二穿戴式设备的用户;
所述第一确认信息用于表征所述第二用户允许所述第一用户查看与所述第二用户相关联的社交应用中的社交信息;
所述获取与所述第二用户相关联的社交应用中的社交信息,包括:
获取所述第一穿戴式设备的摄像头采集的所述第二用户的人脸图像;
确定与所述第二用户的人脸图像相关联的第二社交账号;
获取所述第二社交账号在所属的社交应用中的社交信息;
所述获取所述第二社交账号在所属的社交应用中的社交信息,包括:
确定所述对视时长对应的第二权限等级;
获取所述第二社交账号在所属的社交应用中的第二社交信息,所述第二社交信息为在所述第二权限等级下的社交信息。
2.根据权利要求1所述的方法,其特征在于,所述获取第一用户与第二用户的对视时长,包括:
确定所述第一用户的视线焦点在所述第二用户上的第一停留时间段;
确定所述第二用户的视线焦点在所述第一用户上的第二停留时间段;
根据所述第一停留时间段和所述第二停留时间段,确定所述第一用户与所述第二用户的所述对视时长。
3.根据权利要求2所述的方法,其特征在于,所述确定所述第二用户的视线焦点在所述第一用户上的第二停留时间段,包括:
在所述第一停留时间段的时长达到第二预定时长的情况下,接收所述第二穿戴式设备发送的停留时间通知消息,所述停留时间通知消息包括所述第二停留时间段。
4.根据权利要求1所述的方法,其特征在于,所述获取所述第二社交账号在所属的社交应用中的社交信息之前,还包括:
接收所述第二穿戴式设备发送的第二确认信息,所述第二确认信息包括第一权限等级;
其中,所述获取所述第二社交账号在所属的社交应用中的社交信息,包括:
获取所述第二社交账号在所属的社交应用中的第一社交信息,所述第一社交信息为在所述第一权限等级下的社交信息。
5.根据权利要求1所述的方法,其特征在于,所述获取第一用户与第二用户的对视时长之后,还包括:
在所述第一穿戴式设备的摄像头采集到所述第一用户的第一手势的情况下,接收所述第二穿戴式设备发送的所述第一确认信息。
6.根据权利要求5所述的方法,其特征在于,所述第一手势为与第三确认信息相关联的手势;
其中,所述接收所述第二穿戴式设备发送的所述第一确认信息之前,还包括:
在所述对视时长达到所述第一预设时长的情况下,显示所述第三确认信息。
7.根据权利要求6所述的方法,其特征在于,所述获取第一用户与第二用户的对视时长之后,还包括:
在所述第一穿戴式设备的摄像头未采集到所述第一用户的第二手势的情况下,接收所述第二穿戴式设备发送的所述第一确认信息,所述第二手势为与所述第三确认信息相关联的手势。
8.根据权利要求1所述的方法,其特征在于,所述显示所述社交信息之后,还包括:
在所述第一穿戴式设备的摄像头采集到所述第一用户的第三手势的情况下,向所述第二穿戴式设备发送与所述第三手势相关联的第一互动信息。
9.一种信息交互方法,应用于第二穿戴式设备,其特征在于,包括:
获取第一用户与第二用户的对视时长;
在所述对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使所述第一穿戴式设备获取与所述第二用户相关联的社交应用中的社交信息;
所述第一确认信息用于表征所述第二用户允许所述第一用户查看与所述第二用户相关联的社交应用中的社交信息;
所述第一用户为佩戴所述第一穿戴式设备的用户,所述第二用户为佩戴所述第二穿戴式设备的用户;
所述获取与所述第二用户相关联的社交应用中的社交信息,包括:
获取所述第一穿戴式设备的摄像头采集的所述第二用户的人脸图像;
确定与所述第二用户的人脸图像相关联的第二社交账号;
获取所述第二社交账号在所属的社交应用中的社交信息;
所述获取所述第二社交账号在所属的社交应用中的社交信息,包括:
确定所述对视时长对应的第二权限等级;
获取所述第二社交账号在所属的社交应用中的第二社交信息,所述第二社交信息为在所述第二权限等级下的社交信息。
10.根据权利要求9所述的方法,其特征在于,所述向第一穿戴式设备发送第一确认信息,包括:
在所述第二穿戴式设备的摄像头采集到所述第二用户的第四手势的情况下,向所述第一穿戴式设备发送所述第一确认信息。
11.根据权利要求10所述的方法,其特征在于,所述第四手势为与第四确认信息相关联的手势;
其中,所述向第一穿戴式设备发送第一确认信息之前,还包括:
在所述对视时长达到所述第一预设时长的情况下,显示所述第四确认信息。
12.根据权利要求9所述的方法,其特征在于,所述向第一穿戴式设备发送第一确认信息之后,还包括:
在所述第二穿戴式设备的摄像头采集到所述第二用户的第五手势的情况下,向所述第一穿戴式设备发送第二确认信息;其中,所述第二确认信息包括所述第五手势对应的第一权限等级。
13.根据权利要求9所述的方法,其特征在于,所述向第一穿戴式设备发送第一确认信息之后,还包括:
接收所述第一穿戴式设备发送的第一互动信息;
显示所述第一互动信息;
在所述第二穿戴式设备的摄像头采集到所述第二用户的第六手势的情况下,向所述第一穿戴式设备发送与所述第六手势相关联的第二互动信息,所述第六手势为与所述第一互动信息相关联的手势。
14.一种穿戴式设备,其特征在于,包括:
第一时长获取模块,用于获取第一用户与第二用户的对视时长;
社交信息获取模块,用于在所述对视时长达到第一预设时长,且接收到第二穿戴式设备发送的第一确认信息的情况下,获取与所述第二用户相关联的社交应用中的社交信息;
社交信息显示模块,用于显示所述社交信息;
其中,所述第一用户为佩戴第一穿戴式设备的用户,所述第二用户为佩戴所述第二穿戴式设备的用户;
所述第一确认信息用于表征所述第二用户允许所述第一用户查看与所述第二用户相关联的社交应用中的社交信息;
所述社交信息获取模块,包括:
人脸图像采集单元,用于获取所述第一穿戴式设备的摄像头采集的所述第二用户的人脸图像;
社交账号确定单元,用于确定与所述第二用户的人脸图像相关联的第二社交账号;
社交信息获取单元,用于获取所述第二社交账号在所属的社交应用中的社交信息;
所述社交信息获取模块还用于:
确定所述对视时长对应的第二权限等级;
获取所述第二社交账号在所属的社交应用中的第二社交信息,所述第二社交信息为在所述第二权限等级下的社交信息。
15.一种穿戴式设备,其特征在于,包括:
第二时长获取模块,用于获取第一用户与第二用户的对视时长;
第一信息发送模块,用于在所述对视时长达到第一预设时长的情况下,向第一穿戴式设备发送第一确认信息,以使所述第一穿戴式设备获取与所述第二用户相关联的社交应用中的社交信息;
所述第一确认信息用于表征所述第二用户允许所述第一用户查看与所述第二用户相关联的社交应用中的社交信息;
所述第一用户为佩戴所述第一穿戴式设备的用户,所述第二用户为佩戴所述穿戴式设备的用户;
所述获取与所述第二用户相关联的社交应用中的社交信息,包括:
获取所述第一穿戴式设备的摄像头采集的所述第二用户的人脸图像;
确定与所述第二用户的人脸图像相关联的第二社交账号;
获取所述第二社交账号在所属的社交应用中的社交信息;
所述获取所述第二社交账号在所属的社交应用中的社交信息,包括:
确定所述对视时长对应的第二权限等级;
获取所述第二社交账号在所属的社交应用中的第二社交信息,所述第二社交信息为在所述第二权限等级下的社交信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419768.1A CN111240471B (zh) | 2019-12-31 | 2019-12-31 | 信息交互方法及穿戴式设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911419768.1A CN111240471B (zh) | 2019-12-31 | 2019-12-31 | 信息交互方法及穿戴式设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111240471A CN111240471A (zh) | 2020-06-05 |
CN111240471B true CN111240471B (zh) | 2023-02-03 |
Family
ID=70872784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911419768.1A Active CN111240471B (zh) | 2019-12-31 | 2019-12-31 | 信息交互方法及穿戴式设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111240471B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113014994B (zh) * | 2021-04-14 | 2023-04-28 | 杭州网易云音乐科技有限公司 | 多媒体播放控制方法及装置、存储介质、电子设备 |
CN113778230A (zh) * | 2021-09-14 | 2021-12-10 | Oppo广东移动通信有限公司 | 信息交互方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110045904A (zh) * | 2018-11-14 | 2019-07-23 | 蔚来汽车有限公司 | 人机交互系统、方法及包括该系统的车辆 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9182815B2 (en) * | 2011-12-07 | 2015-11-10 | Microsoft Technology Licensing, Llc | Making static printed content dynamic with virtual data |
US9085927B2 (en) * | 2012-12-27 | 2015-07-21 | Panasonic Intellectual Property Corporation Of America | Information communication method |
CN103984413B (zh) * | 2014-05-19 | 2017-12-08 | 北京智谷睿拓技术服务有限公司 | 信息交互方法及信息交互装置 |
US20160110083A1 (en) * | 2014-10-15 | 2016-04-21 | KBR IP Holdings, LLC | Limiting visibility into user social media data based on user attributes |
US20160269864A1 (en) * | 2015-03-12 | 2016-09-15 | WeLink, Inc. | Displaying social media contents and alerts from location-based social media monitoring on wearable devices |
US9818228B2 (en) * | 2015-08-07 | 2017-11-14 | Microsoft Technology Licensing, Llc | Mixed reality social interaction |
CN106874308B (zh) * | 2015-12-14 | 2021-03-26 | 北京搜狗科技发展有限公司 | 一种推荐方法和装置、一种用于推荐的装置 |
CN108108012B (zh) * | 2016-11-25 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 信息交互方法和装置 |
CN107404626B (zh) * | 2017-06-28 | 2020-05-22 | 重庆柚瓣科技有限公司 | 一种基于机器人的视频直播系统 |
CN108038393B (zh) * | 2017-12-29 | 2021-06-18 | 维沃移动通信有限公司 | 一种应用程序隐私保护方法、移动终端 |
US11351989B2 (en) * | 2018-04-11 | 2022-06-07 | Hyundai Motor Company | Vehicle driving controller, system including the same, and method thereof |
CN110061904B (zh) * | 2019-04-10 | 2022-03-01 | 北京小米智能科技有限公司 | 获取社交信息的方法、装置、系统、电子设备及存储介质 |
-
2019
- 2019-12-31 CN CN201911419768.1A patent/CN111240471B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110045904A (zh) * | 2018-11-14 | 2019-07-23 | 蔚来汽车有限公司 | 人机交互系统、方法及包括该系统的车辆 |
Also Published As
Publication number | Publication date |
---|---|
CN111240471A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180288391A1 (en) | Method for capturing virtual space and electronic device using the same | |
KR102056221B1 (ko) | 시선인식을 이용한 장치 연결 방법 및 장치 | |
CN107786827B (zh) | 视频拍摄方法、视频播放方法、装置及移动终端 | |
KR20140061620A (ko) | 증강 현실을 활용한 소셜 네트워크 서비스 제공 시스템 및 방법과, 디바이스 | |
CN110213485B (zh) | 一种图像处理方法及终端 | |
WO2020036821A1 (en) | Identification method and apparatus and computer-readable storage medium | |
CN108459788B (zh) | 一种图片显示方法及终端 | |
CN110138967B (zh) | 一种终端的操作控制方法及终端 | |
CN111240471B (zh) | 信息交互方法及穿戴式设备 | |
CN109782968B (zh) | 一种界面调整方法及终端设备 | |
CN111196281A (zh) | 一种车机显示界面的页面布局控制方法及装置 | |
CN112788359A (zh) | 直播处理方法、装置、电子设备及存储介质 | |
CN109164908B (zh) | 一种界面控制方法及移动终端 | |
CN108345780B (zh) | 一种解锁控制方法及移动终端 | |
CN107895108B (zh) | 一种操作管理方法和移动终端 | |
US11070636B1 (en) | Shared access to computing resources using wireless communications | |
CN111093033B (zh) | 一种信息处理方法及设备 | |
KR20180113115A (ko) | 전자장치 및 이의 동작방법 | |
US20230040115A1 (en) | Information processing method and electronic device | |
CN111178306A (zh) | 一种显示控制方法及电子设备 | |
CN111064658B (zh) | 显示控制方法及电子设备 | |
CN111431795B (zh) | 一种共享内容显示方法及电子设备 | |
CN111147745B (zh) | 拍摄方法、装置、电子设备及存储介质 | |
CN110121027B (zh) | 图像处理方法及终端 | |
CN110472520B (zh) | 一种身份识别方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |