CN111178305A - 信息显示方法及头戴式电子设备 - Google Patents
信息显示方法及头戴式电子设备 Download PDFInfo
- Publication number
- CN111178305A CN111178305A CN201911424035.7A CN201911424035A CN111178305A CN 111178305 A CN111178305 A CN 111178305A CN 201911424035 A CN201911424035 A CN 201911424035A CN 111178305 A CN111178305 A CN 111178305A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- head
- description information
- mounted electronic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本申请实施例提供一种信息显示方法及头戴式电子设备,应用于通信技术领域,能够解决现有技术中查找其他用户信息时所存在的操作繁琐的问题。该方法包括:获取摄像头采集的第一人脸信息;在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述第一人脸信息关联的目标描述信息;其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。本申请应用于快速获取用户信息的场景中。
Description
技术领域
本申请实施例涉及通信技术领域,尤其涉及一种信息显示方法及头戴式电子设备。
背景技术
目前,用户与其他用户的聊天内容,发送的图片都保存在电子设备中的“聊天”应用程序中的聊天记录中。当某一其他用户与用户见面后,谈起之前通过“聊天”应用程序聊过的事,而用户却忘记之前聊过的内容时,用户可以查找该“聊天”应用程序中存储的聊天记录中的信息。
然而,通过上述的查找方法,用户需要先点击电子设备屏幕中的“聊天”应用程序的图标,接着从“聊天”应用程序中的所有联系人中找出该某一其他用户,接着从与该某一其他用户的聊天记录中找出与该某一其他用户谈起的事相关的信息。如此,使得整个查找过程步骤繁琐,效率低。
发明内容
实施例提供一种信息显示方法及头戴式电子设备,能够解决现有技术中查找其他用户信息时所存在的操作繁琐的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,实施例提供一种信息显示方法,应用于头戴式电子设备,该方法包括:
获取摄像头采集的第一人脸信息;
在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述第一人脸信息关联的目标描述信息;
其中,上述目标区域为上述第一人脸信息对应的第一用户在虚拟屏幕中的区域。
第二方面,本申请实施例还提供了一种头戴式电子设备,该头戴式电子设备包括:
获取模块,用于获取摄像头采集的第一人脸信息;
显示模块,用于在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述获取模块获取的上述第一人脸信息关联的目标描述信息;
其中,上述目标区域为上述第一人脸信息对应的第一用户在虚拟屏幕中的区域。
第三方面,本申请实施例提供了一种头戴式电子设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面所述的信息显示方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面所述的信息显示方法的步骤。
在本申请实施例中,头戴式电子设备在获取到摄像头采集的第一人脸信息之后,可以在该头戴式电子设备的虚拟屏幕的目标区域,显示该第一人脸信息关联的目标描述信息。其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。用户可以通过头戴式电子设备的虚拟屏幕的目标区域显示的目标描述信息,快速查找到想要获知的第一用户的信息,从而使得整个信息查找过程步骤简便,效率高。
附图说明
图1为本申请实施例提供的一种可能的安卓操作系统的架构示意图;
图2为本申请实施例提供的一种信息显示方法流程示意图;
图3为本申请实施例提供的一种信息显示方法的示意图之一;
图4为本申请实施例提供的一种信息显示方法的示意图之二;
图5为本申请实施例提供的一种信息显示方法的示意图之三;
图6为本申请实施例提供的一种信息显示方法的示意图之四;
图7为本申请实施例提供的一种信息显示方法的示意图之五;
图8为本申请实施例提供的一种信息显示方法的示意图之六;
图9为本申请实施例提供的一种信息显示方法的示意图之七;
图10为本申请实施例提供的一种信息显示方法的示意图之八;
图11为本申请实施例提供的一种头戴式电子设备的结构示意图之一;
图12为本申请实施例提供的一种头戴式电子设备的结构示意图之二。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本文中的“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
需要说明的是,本文中的“多个”是指两个或多于两个。
需要说明的是,本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
需要说明的是,为了便于清楚描述本申请实施例的技术方案,在本申请实施例中,采用了“第一”、“第二”等字样对功能或作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。例如,第一语音信息和第二语音信息是用于区别不同的语音信息,而不是用于描述语音信息的特定顺序。
增强现实(Augmented Reality,AR):是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与交互的技术。
本申请实施例中的虚拟屏幕,可以为采用AR技术显示内容时,能够用于显示投射设备投射的内容的任意载体。其中,该投射设备可以为采用AR技术的投射设备,例如本申请实施例中的头戴式电子设备或AR设备。
当采用AR技术在虚拟屏幕显示内容时,投射设备可以将投射设备获取(或内部集成的)的虚拟场景,或虚拟场景和现实场景投射至虚拟屏幕上,使得虚拟屏幕可以显示这些内容,从而向用户展示现实场景与虚拟场景叠加的效果。
结合AR技术应用的不同场景,虚拟屏幕通常可以为电子设备(例如手机)的显示屏、AR眼镜的镜片、汽车的挡风玻璃、房间的墙壁等任意可能的载体。
下面分别以虚拟屏幕为电子设备的显示屏、AR眼镜的镜片,以及汽车的挡风玻璃为例,对采用AR技术在虚拟屏幕上显示内容的过程进行示例性的说明。
一种示例中,当虚拟屏幕为电子设备的显示屏时,投射设备可以为该电子设备。电子设备可以通过其摄像头采集电子设备所处区域中的现实场景,并将该现实场景显示在电子设备的显示屏上,然后电子设备可以将其获取(或内部集成的)的虚拟场景投射到电子设备的显示屏上,从而使得该虚拟场景可以叠加显示在该现实场景中,进而使得用户可以通过电子设备的显示屏看到现实场景和虚拟场景叠加后的效果。
另一种示例中,当虚拟屏幕为AR眼镜的镜片时,投射设备可以为该AR眼镜。当用户佩戴眼镜时,用户可以通过AR眼镜的镜片看到其所处区域中的现实场景,并且AR眼镜可以将其获取(或内部集成的)的虚拟场景投射到AR眼镜的镜片上,从而使得用户可以通过AR眼镜的镜片看到现实场景和虚拟场景叠加后的显示效果。
又一种示例中,当虚拟屏幕为汽车的挡风玻璃时,投射设备可以为任意电子设备。当用户位于汽车内时,用户可以通过汽车的挡风玻璃看到其所处区域中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到汽车的挡风玻璃上,从而使得用户可以通过汽车的挡风玻璃看到现实场景和虚拟场景叠加后的显示效果。
当然,本申请实施例中,也可以不限定虚拟屏幕的具体形式,例如其可能为非载体的现实空间。这种情况下,当用户位于现实空间中时,用户可以直接看到该现实空间中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到现实空间中,从而使得用户在现实空间中可以看到现实场景和虚拟场景叠加后的显示效果。
本申请实施例提供的信息显示方法的执行主体可以为上述的头戴式电子设备(包括移动头戴式电子设备和非移动头戴式电子设备),也可以为该头戴式电子设备中能够实现该信息显示方法的功能模块和/或功能实体,具体的可以根据实际使用需求确定,本申请实施例不作限定。下面以头戴式电子设备为例,对本申请实施例提供的信息显示方法进行示例性的说明。
本申请实施例中的头戴式电子设备可以为具有操作系统的头戴式电子设备。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
下面以安卓操作系统为例,介绍一下本申请实施例提供的信息显示方法所应用的软件环境。
如图1所示,为本申请实施例提供的一种可能的安卓操作系统的架构示意图。在图1中,安卓操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括安卓操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。
系统运行库层包括库(也称为系统库)和安卓操作系统运行环境。库主要为安卓操作系统提供其所需的各类资源。安卓操作系统运行环境用于为安卓操作系统提供软件环境。
内核层是安卓操作系统的操作系统层,属于安卓操作系统软件层次的最底层。内核层基于Linux内核为安卓操作系统提供核心系统服务和与硬件相关的驱动程序。
以安卓操作系统为例,本申请实施例中,开发人员可以基于上述如图1所示的安卓操作系统的系统架构,开发实现本申请实施例提供的信息显示方法的软件程序,从而使得该信息显示方法可以基于如图1所示的安卓操作系统运行。即处理器或者头戴式电子设备可以通过在安卓操作系统中运行该软件程序实现本申请实施例提供的信息显示方法。
下面结合图2所示的信息显示方法流程图对本申请实施例的信息显示方法进行说明,图2为本申请实施例提供的一种信息显示方法流程示意图,包括步骤201和步骤202:
步骤201:头戴式电子设备获取摄像头采集的第一人脸信息。
在本申请实施例中,上述的摄像头可以为头戴式电子设备本身具备的摄像头,也可以为该头戴式电子设备外接的摄像头,本申请实施例对此不作限定。
在本申请实施例中,上述的摄像头可以为头戴式电子设备的前置摄像头,也可以为该头戴式电子设备的后置摄像头,本申请实施例对此不作限定。
在本申请实施例中,上述的第一人脸信息可以包括以下至少一项:颜色,轮廓,纹理,结构或者直方图特征。上述的第一人脸信息还可以包括:人脸图像,其中,人脸图像可以为静态图像也可以为动态图像。
示例性的,上述的第一人脸信息可以为头戴式电子设备实时采集到的人脸信息。
示例性的,上述的第一人脸信息可以为一个,也可以为多个,本申请实施例对此不作限定。
步骤202:在上述头戴式电子设备的虚拟屏幕的目标区域,头戴式电子设备显示上述第一人脸信息关联的目标描述信息。
在本申请实施例中,上述的目标区域可以为上述第一人脸信息对应的第一用户在虚拟屏幕中的区域。
在本申请实施例中,上述的第一用户可以为一个,也可以为多个,本申请实施例对此不作限定。可以理解,一个第一用户对应一个第一人脸信息,当上述的第一用户为多个时,头戴式电子设备可以同时采集该多个第一人脸信息,也可以分别采集该多个第一人脸信息。
在本申请实施例中,上述的目标描述信息可以保存在服务器中,也可以保存在头戴式电子设备的本地缓存区中,本申请实施例对此不作限定。
在本申请实施例中,上述的目标描述信息可以为文字,也可以为图像,具体可以根据实际使用需求确定,本申请实施例对此不作限定。
示例性的,上述的目标描述信息可以包括以下至少一项:第一用户的语音信息转换的描述信息,其他用户的语音信息转换的描述信息,与第一用户的语音信息转换的描述信息关联的其他信息,与其他用户的语音信息转换的描述信息关联的其他信息。
例1,使用AR眼镜的用户与用户A首次对话时,用户A说:“这是我的作品《A》”。当使用AR眼镜的用户与用户A下一次见面时,当使用AR眼镜的用户采集到用户A的人脸信息时,可以显示与用户A关联的“作品《A》”(即目标描述信息)。
例2,使用AR眼镜的用户与用户A首次对话时,使用AR眼镜的用户说:“《A》是你的作品吗”,用户A回答:“是的”。当使用AR眼镜的用户与用户A下一次见面时,当使用AR眼镜的用户采集到用户A的人脸信息时,可以显示与用户A关联的“作品《A》”(即目标描述信息)。
示例性的,上述的与第一用户的语音信息转换的描述信息关联的其他信息可以为:头戴式电子设备根据描述信息搜索到的信息。
例3,使用AR眼镜的用户与用户A首次对话时,用户A说:“这是我的作品《A》”,此时,AR眼镜可以搜索到用户A的作品《B》。当使用AR眼镜的用户与用户A下一次见面时,当使用AR眼镜的用户采集到用户A的人脸信息时,可以显示与用户A关联的“作品《A》”以及与用户A关联“作品《B》”(即目标描述信息)。
示例性的,以上述的目标描述信息为文字为例,上述的目标描述信息可以为第一用户的语音转换成的文字,也可以为头戴式电子设备从头戴式电子设备的应用程序中获取的文字(例如,从“聊天”应用程序中获取的聊天记录)。
举例说明,以头戴式电子设备为AR眼镜为例,若AR眼镜获取到摄像头采集的用户A的人脸信息,则AR眼镜可以在AR眼镜的虚拟屏幕中用户A所在区域显示文字“姓名:用户A”、“性别:男”以及“公司:XX软件公司”等。
示例性的,上述的图像可以为图片(例如,GIF图),也可以为视频,本申请实施例对此不作限定。例如,当电子设备获取到摄像头采集的用户A的人脸信息,则AR眼镜可以在AR眼镜的虚拟屏幕中用户A所在区域显示用户A的照片。
在一种示例中,头戴式电子设备可以从目标描述信息中将常用信息或者最近状态信息提取出来。示例性的,上述的目标描述信息可以按照常用程度从高到低排列,也可以按照常用程度从低到高排列,本申请实施例对此不做限定。
举例说明,以头戴式电子设备为AR眼镜为例,若使用AR眼镜的用户与张三第一次见面时,张三做了自我介绍“我是张三,XX软件公司的商务经理”,在聊天过程中张三还说到“我明天要去希腊旅游”以及“我10月6号过生日”等。当使用AR眼镜的用户与张三再次见面时,如图3所示,当使用AR眼镜的用户通过AR眼镜采集到张三的人脸信息时,可以根据常用程度从高到低依次排列的顺序,在AR眼镜的虚拟屏幕中显示文字“联系人ID:1001”、“姓名:张三”、“性别:男”、“生日:10月6日”、“公司:XX软件公司”、“职位:商务经理”以及“最近旅游:希腊”(即图3中的31)。此时,使用AR眼镜的用户就可以在第一时间内获知张三的信息,并可以根据该信息进行话题引导,可以说“希腊玩的怎么样”或者“再过两天就是你的生日了,祝你生日快乐啊”。
在一种示例中,当第一人脸信息为多个时,电子设备可以同时显示该多个第一人脸信息分别关联的目标描述信息。
举例说明,以头戴式电子设备为AR眼镜为例,当使用AR眼镜的用户与张三、李四和王五进行会议时,张三、李四和王五依次做了自我介绍,其中,张三说:“我是张三,XX软件公司的商务经理”,李四说:“我是李四,XX软件公司的交互设计师”,王五说:“我是王五,别人也叫我小五,XX软件公司的设计师,平常比较喜欢开脑洞”,在聊天过程中张三还说到“我明天要去希腊旅游”以及“我10月6号过生日”等。当使用AR眼镜的用户与张三、李四和王五再次见面时,如图4所示,当使用AR眼镜的用户(即图4中的41)通过AR眼镜采集到张三、李四和王五这3个用户的人脸信息,可以在这3个用户的旁边分别显示有AR眼镜中已存储的与该三个用户分别关联的信息。其中,AR眼镜的虚拟屏幕中张三所在区域(即图4中的42)的右边显示有文字“联系人ID:1001”、“姓名:张三”、“性别:男”、“生日:10月6日”、“公司:XX软件公司”、“职位:商务经理”以及“最近旅游:希腊”(即图4中的43);李四所在区域(即图4中的44)的上方显示有文字“联系人ID:1002”、“姓名:李四”、“公司:XX软件公司”以及“职位:交互设计师”(即图4中的45);王五所在区域(即图4中的46)的左边显示有“联系人ID:1003”、“姓名:王五”、“昵称:小五”、“公司:XX软件公司”、“职位:设计师”以及“性格:开脑洞”(即图4中的47)。
在另一种示例中,当第一人脸信息头戴式为多个时,电子设备可以依次显示该多个第一人脸信息分别关联的目标描述信息。
可选的,在本申请实施例中,当头戴式电子设备获取到上述的第一人脸信息,可以与头戴式电子设备预设人脸信息进行匹配,若匹配成功,则头戴式电子设备可以显示与该第一人脸信息关联的目标描述信息。其中,该预设人脸信息可以为头戴式电子设备在第一次拍摄到第一用户时采集的。
可选的,在本申请实施例中,在上述摄像头采集到多个第一人脸信息的情况下,头戴式电子设备可以对该多个第一人脸信息关联的所有描述信息进行提取并显示。
示例性的,上述的步骤202具体可以包括如下步骤A1:
步骤A1:在上述摄像头采集到至少两个第一人脸信息的情况下,在上述虚拟屏幕的目标区域,头戴式电子设备可以显示上述至少两个第一人脸信息均关联的目标描述信息。
示例性的,上述的至少两个第一人脸信息均关联的目标描述信息可以为:该至少两个第一人脸信息中所有或部分第一人脸信息关联的描述信息中相同或者相似的描述信息。
本申请实施例提供的信息显示方法可以应用于显示多个第一用户共同点的场景下,头戴式电子设备通过简单的分析多个第一用户的相同点并展示出来,使得用户可以更好的管理和了解联系人,发现相同爱好,有利于用户维系自己的朋友圈。
进一步可选的,在本申请实施例中,上述的头戴式电子设备除了可以显示多个第一人脸信息均关联的目标描述信息,还可以对不同点也进行分析并显示。
示例性的,上述的步骤A1具体可以包括如下步骤A2:
步骤A2:在上述摄像头采集到至少两个第一人脸信息、上述目标区域包括:第一区域和第二区域、且上述目标描述信息包括:第三描述信息和第四描述信息的情况下,在上述虚拟屏幕的第一区域,头戴式电子设备显示上述第三描述信息,在上述虚拟屏幕的第二区域,头戴式电子设备显示上述第四描述信息。
示例性的,上述第三描述信息为:上述至少两个第一人脸信息均关联的信息,上述第四描述信息为:每个第一人脸信息关联的描述信息中除该第三描述信息以外的其他信息。
举例说明,以头戴式电子设备为AR眼镜为例,如图5所示,AR眼镜采集到3个用户的人脸信息,该3个用户分别为张三、李四和王五,AR眼镜的虚拟屏幕中张三和李四所在区域的上方显示有张三和李四的共同点为“喜欢明星:XXX”、“宠物:狗”以及“朋友:小花”(即上述的第三描述信息,如图5中的51),还显示有张三和李四的不同点“工作方式:大胆跳跃VS按部就班”(即上述的第四描述信息,如图5中的52);AR眼镜的虚拟屏幕张三、李四和王五所在区域的上方显示有张三、李四和王五的共同点为“公司:XX软件公司”,“项目:AR眼镜项目”以及“毕业学校:XX大学”(即上述的第三描述信息,如图5中的53)。
需要说明的是,AR眼镜的虚拟屏幕显示有箭头,用于指示AR眼镜的虚拟屏幕中张三和李四对应的共同点的区域(即上述的第一区域)和不同点的区域(即上述的第二区域),以及张三、李四和王五对应的共同点的区域(即上述的第一区域)。
本申请实施例提供的信息显示方法可以应用于显示多个第一用户相同点和不同点的场景下,头戴式电子设备通过简单的分析多个第一用户的相同点和不同点并展示出来,使得用户可以更好的管理和了解联系人,发现相同爱好,避免反差冲突,更有利于用户维系自己的朋友圈。
可选的,在本申请实施例中,上述的头戴式电子设备采集到至少两个第一人脸信息后,可以先显示与该至少两个第一人脸信息分别关联的目标描述信息,然后,头戴式电子设备可以对该至少两个第一人脸信息关联的目标描述信息进行分析,显示与该至少两个第一人脸信息均关联的目标描述信息。具体可以通过以下两种可能实现的方式来显示。
在一种示例中,头戴式电子设备可以在显示该至少两个第一人脸信息分别关联的目标描述信息后,在预定时长(例如,5秒)后,自动显示该至少两个第一人脸信息均关联的目标描述信息。
在另一种示例中,头戴式电子设备可以在显示该多个第一人脸信息分别关联的目标描述信息后,若接收用户的第三输入,则头戴式电子设备显示上述至少两个第一人脸信息均关联的目标描述信息。
示例性的,上述的第三输入具体可以包括:用户针对虚拟屏幕的点击输入,或者是用户输入的语音指令,或者是用户输入的特定手势,具体的可以根据实际使用需求确定,本申请实施例对此不作限定。
举例说明,以头戴式电子设备为AR眼镜为例,结合图4,当用户想要查看与该3个用户均关联的目标描述信息时,用户可以在AR眼镜的虚拟屏幕上向左滑动(即上述的第三输入),AR眼镜接收到用户向左滑动的手势后,显示该三个用户的相同点。此时,如图5所示,AR眼镜的虚拟屏幕显示有张三和李四的共同点为“喜欢明星:XXX”、“宠物:狗”以及“朋友:小花”;张三、李四和王五的共同点为“公司:XX软件公司”,“项目:AR眼镜项目”以及“毕业学校:XX大学”。
本申请实施例提供的信息显示方法可以应用于快速查看至少两个第一人脸信息均关联的信息场景下,当用户在查看了至少两个第一用户分别关联的目标描述信息后,可以通过头戴式电子设备查看该至少两个用户均关联的信息或者其他信息,使得用户可以更好的管理和了解联系人。
本申请实施例提供的信息显示方法,头戴式电子设备在获取到摄像头采集的第一人脸信息之后,可以在该头戴式电子设备的虚拟屏幕的目标区域,显示该第一人脸信息关联的目标描述信息。其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。用户可以通过头戴式电子设备的虚拟屏幕的目标区域显示的目标描述信息,快速查找到想要获知的第一用户的信息,从而使得整个信息查找过程步骤简便,效率高。
可选的,在本申请实施例中,头戴式电子设备除了可以根据上述的第一用户的人脸信息来显示描述信息,还可以根据第一用户的语音信息来辅助显示进一步筛选后的描述信息。
示例性的,在上述的步骤202之前,该方法还可以包括如下步骤202a:
步骤202a:头戴式电子设备获取麦克风采集的上述第一用户的第一语音信息。
基于上述的步骤202a,上述的步骤202具体可以包括如下步骤202b:
步骤202b:在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述第一人脸信息和上述第一语音信息关联的目标描述信息。
示例性的,上述的麦克风可以为头戴式电子设备本身具备的麦克风,也可以为该头戴式电子设备外接的麦克风,本申请实施例对此不作限定。
示例性的,上述的步骤201和上述的步骤202a在执行过程中没有明显的先后顺序。示例性的,头戴式电子设备可以在执行步骤201的同时执行步骤202a,也可以在执行步骤201之后,执行步骤202a,本申请实施例对此不作限定。
在一种示例中,头戴式电子设备可以先根据第一人脸信息确定出与该第一人脸信息关联的所有描述信息,然后根据上述的第一语音信息确定出上述的目标描述信息。
在另一种示例中,头戴式电子设备可以先根据上述的第一语音信息确定出与该语音内容信息关联的所有描述信息,然后根据第一人脸信息确定出上述的目标描述信息。
示例性的,上述目标描述信息可以是头戴式电子设备以上述的第一语音信息为索引,在头戴式电子设备已存储的信息中,查找到的与该第一语音信息关联的信息。
在一种示例中,当头戴式电子设备采集到第一用户的第一人脸信息后,便可以显示已存储的与第一人脸信息关联的基础信息(例如,姓名),这样可以让使用头戴式电子设备的用户在遇到只是短暂接触且并未记住该第一用户的名字的情况下,可以快速获知该第一用户的名字,并准确的叫出该第一用户的名字。然后,头戴式电子设备可以再根据第一用户的第一语音信息显示目标描述信息。
可选的,在本申请实施例中,头戴式电子设备获取第一用户的第一语音信息至少可以通过两种可能实现的方式来获取:
在第一种可能实现的方式中(主动获取):
示例性的,在头戴式电子设备获取到上述的第一人脸信息的情况下,头戴式电子设备自动获取上述的第一语音信息。
在第二种可能实现的方式中(被动获取):
示例性的,在步骤202a之前,该方法还可以包括如下步骤B1和步骤B2:
步骤B1:在头戴式电子设备获取到第一人脸信息的情况下,头戴式电子设备接收用户的第二输入。
示例性的,上述的第二输入具体可以包括:用户对第一按键的点击输入,或者是用户输入的语音指令,或者是用户输入的特定手势,具体的可以根据实际使用需求确定,本申请实施例对此不作限定。
示例性的,上述第一按键可以为物理按键,也可以为虚拟按键,本申请实施例对此不作限定。其中,上述的第一按键用于触发头戴式电子设备获取第一语音信息。
本申请实施例中的特定手势可以为单击手势、滑动手势、拖动手势、压力识别手势、长按手势、面积变化手势、双按手势、双击手势中的任意一种;本申请实施例中的点击输入可以为单击输入、双击输入或任意次数的点击输入等,还可以为长按输入或短按输入。
步骤B2:响应上述第二输入,头戴式电子设备获取上述的第一语音信息。
需要说明的是,当第一用户为多个时,头戴式电子设备可以通过拍摄预览画面以及声源共同确定第一语音信息对应的每个第一用户。
示例性的,上述的第一语音信息是头戴式电子设备将第一语音通过语音识别出的信息。例如,AR眼镜获取到语音为“你好,我是张三”为例,AR眼镜可以通过语音识别将该语音转化为文字“你好,我是张三”(即上述的第一语音信息)。
举例说明,以AR眼镜的使用者和新同事聊天为例,当使用AR眼镜的用户的摄像头采集到新同事王五的人脸图像时,AR眼镜确定该人脸图像在预设人脸图像匹配,则AR眼镜提取出与该人脸图像关联的信息,即AR眼镜在王五所在区域的左边显示文字“联系人ID:1003”、“姓名:王五”、“昵称:小五”、“公司:XX软件公司”、“职位:设计师”以及“性格:开脑洞”等信息,使用AR眼镜的用户可以直接叫出王五的名字。在使用AR眼镜的用户和王五的聊天过程中,当王五询问使用AR眼镜的用户“昨天会议上我的发言您觉得怎么样”,此时,AR眼镜根据该语音的语音信息显示王五的发言内容,使用AR眼镜的用户便可以获知王五的发言内容“……我相信未来AR眼镜可以应用在更多的场合中……”,进而可以对王五的发言内容做出评价“你昨天的发言很精彩,尤其是你说AR眼镜未来应用的那部分我觉得很有意义”。
本申请实施例提供的信息显示方法可以应用于筛选目标描述信息的场景中,用户可以通过第一用户的第一语音信息筛选描述信息,进而获取更准确的目标描述信息,能够避免沟通过程中的尴尬,能够自动显示聊天对象之前说过的信息,使得沟通过程更顺畅。
进一步可选的,在本申请实施例中,头戴式电子设备除了可以根据第一用户的语音信息来筛选描述信息,还可以根据其他用户的语音信息进一步筛选描述信息。
示例性的,在上述的步骤202b之前,上述的方法还可以包括如下步骤C1和步骤C2:
步骤C1:头戴式电子设备获取麦克风采集的与上述第一语音信息相关的至少一个第二用户的第二语音信息。
基于上述的步骤C1,上述的步骤202b具体可以包括如下步骤C2:
步骤C2:在上述头戴式电子设备的虚拟屏幕的目标区域,头戴式电子设备显示上述第一人脸信息、上述第一语音信息和上述第二语音信息关联的目标描述信息。
示例性的,上述的第二用户可以为使用头戴式电子设备的用户,也可以为头戴式电子设备的麦克风能够获取到语音信息的除第一用户以外的其他用户。例如,在多方会议的场景中,头戴式电子设备可以获取到所有发言者的声音。
示例性的,上述的头戴式电子设备可以对第一语音信息和上述第二语音信息进行语义理解以及上下文理解,然后可以根据第一语音信息和第二语音信息共同确定出与上述人脸信息关联的目标描述信息。
示例性的,头戴式电子设备可以根据第一语音信息确定出第一人脸信息关联的描述信息后,还可以根据第二语音信息从已经确定出的第一人脸信息关联的描述信息中更精准的提取出目标描述信息。
示例性的,当头戴式电子设备获取到语音信息即得到用户的声纹特征。若上述的第二用户的声纹特征与预存声纹特征相匹配,此时,头戴式电子设备可以根据第一语音信息和第二语音信息共同确定出与上述人脸信息关联的目标描述信息。需要说明的是,对于其他与预存声纹特征不匹配的声音,AR眼镜可以判定为无效语音或干扰语音,AR眼镜将不做任何处理(例如,不采集或者采集但不影响目标描述信息的确定)。
示例性的,上述的预存声纹特征可以包括使用头戴式电子设备的用户的声纹特征。需要说明的是,若上述的预存声纹特征不包括使用头戴式电子设备的用户的声纹特征,头戴式电子设备可以通过用户的声音传播速度判断出使用头戴式电子设备的用户。
举例说明,以使用AR眼镜的用户和新同事聊天为例,当使用AR眼镜的用户的AR眼镜的摄像头采集到新同事王五时,AR眼镜在王五所在区域的左边显示联系人ID:1003”、“姓名:王五”、“昵称:小五”、“公司:XX软件公司”、“职位:设计师”以及“性格:开脑洞”等信息。当王五询问使用AR眼镜的用户:“您觉得我的作品如何”。此时,AR眼镜根据该语音信息中的“作品”,从AR眼镜以存储的信息中提取出王五的所有作品,并在王五所在区域显示王五的所有作品:作品《A》、作品《B》和作品《C》,进而使用AR眼镜的用户可以对王五的进行询问:“你是说你的作品《A》吗”。此时,AR眼镜可以根据使用AR眼镜的用户的语音,从王五的描述信息中提取出与作品《A》关联的发表时间,作品简介等(即上述的目标描述信息),进而使用AR眼镜的用户可以根据显示的目标描述信息与王五继续交谈。
本申请实施例提供的信息显示方法可以应用于精准提取目标描述信息的场景中,头戴式电子设备可以利用周边用户的第二语音信息进一步确定第一人脸信息关联的目标描述信息,避免聊天过程中的尴尬,也可以帮助用户提供话题。
可选的,在本申请实施例中,上述的目标描述信息可以是头戴式电子设备提前获取的。
示例性的,在上述的步骤201之前,该方法还可以包括如下步骤203和步骤204:
步骤203:头戴式电子设备获取上述第一用户的第二人脸信息和该第一用户的第三语音信息。
示例性的,头戴式电子设备可以将上述第二人脸信息作为上述的预设人脸信息。
示例性的,上述的第三语音信息可以包括:头戴式电子设备在获取到上述的第一语音信息之前获取到的第一用户的语音信息。例如,头戴式电子设备首次获取到的第一用户的语音信息。
需要说明的是,上述的头戴式电子设备获取第三语音信息的获取过程可以参考本申请实施例中对第一语音信息的获取过程的描述,此处不再赘述。
步骤204:根据上述第三语音信息,头戴式电子设备生成与上述第二人脸信息关联的第一描述信息。
示例性的,上述的第一描述信息包括上述目标描述信息,该第一描述信息包括至少一条描述子信息。
示例性的,头戴式电子设备获取第三语音信息后,可以通过语音识别和语义理解后生成第一描述信息。
示例性的,上述的头戴式电子设备获取到第二人脸信息可以通过至少两种可能实现的方式来获取。
示例1,头戴式电子设备在已存储的所有预设人脸信息中未匹配出第二人脸信息的情况下,头戴式电子设备可以自动获取第二人脸信息。
示例2,头戴式电子设备在接收到用户的第四输入后,获取第二人脸信息。
示例性的,上述的第四输入具体可以包括:用户针对第二按键的点击输入,或者是用户输入的语音指令,或者是用户输入的特定手势,具体的可以根据实际使用需求确定,本申请实施例对此不作限定。
示例性的,上述第二按键可以为物理按键,也可以为虚拟按键,本申请实施例对此不作限定。其中,上述的第二按键用于触发头戴式电子设备获取第二人脸信息。
举例说明,当使用AR眼镜的用户想要通过AR眼镜的摄像头采集张三的人脸信息时,可以按压AR上的“拍摄”按键(即上述的第二按键),则头戴式电子设备采集第一用户张三的人脸图像并采集张三的语音。AR眼镜采集到张三的语音之后,可以对张三的语音信息进行语音识别,转换成文字“Hi,大家好,深圳的天气可真热呀,终于可以和大家面对面交流了,我先自我介绍以下,我是XX软件公司的商务经理张三,在公司负责AR眼镜项目,后续大家多多的交流哈”。然后,如图6所示,AR眼镜可以实时显示描述信息“深圳天气:热”、“职位:商务经理”、“姓名:张三”以及“项目:AR眼镜项目”(即图6中的61)。
本申请实施例提供的信息显示方法可以应用于生成描述信息的场景中,头戴式电子设备可以采集第一用户的第二人脸信息,并将采集到第一用户的第三语音信息生成第一描述信息与第二人脸信息关联,使得当头戴式电子设备之后再采集到第一用户的人脸信息时可以直接显示该第一描述信息,方便用户查找信息。
需要说明的是,头戴式电子设备可以将上述的第一描述信息保存在头戴式电子设备中的第一用户的账号(例如:联系人ID:1001)下。其中,该第一用户的账号可以是头戴式电子设备在首次获取到第二人脸信息的同时自动创建的。然后,在创建第一用户的账号的情况下,头戴式电子设备可以将采集到的第二人脸信息以及采集到的第三语音信息转换成的第一描述信息,对应存储在该第一用户的账号下。
进一步可选的,在本申请实施例中,头戴式电子设备可以通过语音识别和语义分析将用户的语音生成描述信息,同时还可以获取根据用户的语音信息获取其他描述信息。
示例性的,上述步骤204具体可以包括如下步骤204a至步骤204d:
步骤204a:头戴式电子设备对上述第三语音信息进行语义分析,得到语义分析结果。
步骤204b:从上述语义分析结果中,头戴式电子设备提取与上述第二人脸信息关联的语义描述信息。
步骤204c:头戴式电子设备获取与上述语义描述信息关联的第二描述信息。
步骤204d:基于上述语义描述信息和上述第二描述信息,头戴式电子设备生成与上述第二人脸信息关联的第一描述信息。
示例性的,上述的第一描述信息包括上述语义描述信息和上述第二描述信息。
举例说明,AR眼镜采集到张三的语音之后,可以对张三的语音进行语音识别,转换成文字“Hi,大家好,深圳的天气可真热呀,终于可以和大家面对面交流了,我先自我介绍以下,我是XX软件公司的商务经理张三,在公司负责AR眼镜项目,后续大家多多的交流哈”。然后,AR眼镜可以对该文字进行语义分析,得到语义分析结果为:打招呼、天气、寒暄以及自我介绍。接着,用户可以从语音分析结果中提取出语义描述信息“深圳天气:热”、“职位:商务经理”、“姓名:张三”以及“项目:AR眼镜项目”。再者,AR眼镜可以根据AR眼镜为关键词从网络上下载的相关资料(即上述的第二描述信息)。最后,AR眼镜可以根据语义描述信息“深圳天气:热”、“职位:商务经理”、“姓名:张三”以及“项目:AR眼镜项目”以及从网络上下载的AR眼镜的相关资料生成第一描述信息。
本申请实施例提供的信息显示方法可以应用于利用第一用户的第三语音信息获取的其他信息来补充第一描述信息的场景中,头戴式电子设备不仅可以根据用户的语音信息生成描述信息,还可以根据用户的语音信息获取其他描述信息,进而可以补充第一描述信息,丰富第一用户的描述信息。
进一步可选的,在本申请实施例中,上述的步骤203具体可以包括如下步骤203a:
步骤203a:头戴式电子设备获取上述第一用户的第三语音信息和与该第三语音信息相关的至少一个第三用户的第四语音信息。
基于上述的步骤203a,上述的步骤204具体可以包括如下步骤D1:
步骤D1:根据上述第三语音信息和上述第四语音信息,头戴式电子设备生成与上述第二人脸信息关联的第一描述信息。
示例性的,上述的第三用户可以为使用头戴式电子设备的用户,也可以为头戴式电子设备的麦克风能够获取到语音信息的除第一用户以外的其他用户。例如,在商务会议中的除第一用户的其他发言人。
示例性的,上述的第三用户和上述的第二用户可以相同,也可以不同。
示例性的,上述的第三用户的第四语音为与预存声纹特征相匹配的语音。需要说明的是,对于其他用户的语音中与预存声纹特征不匹配的语音,AR眼镜可以判定为无效语音或干扰语音,AR眼镜将不做任何处理(例如,不采集或者采集但不影响目标描述信息的确定)。
示例性的,上述的预存声纹特征可以包括使用头戴式电子设备的用户的声纹特征。需要说明的是,若上述的预存声纹特征不包括使用头戴式电子设备的用户的声纹特征,头戴式电子设备可以通过用户的声音传播速度判断出使用头戴式电子设备的用户。
举例说明,结合图4,王五所在区域的左边显示有“联系人ID:1003”、“姓名:王五”、“昵称:小五”、“公司:XX软件公司”、“职位:设计师”以及“性格:开脑洞”等信息,若当王五自我介绍结束后,使用AR眼镜的用户对王五进行了询问,如图7所示,使用AR眼镜的用户(即图7中的41)说“A是你的作品吗”,王五(即图7中的46)回答“是的,此外还有B和C”,由于AR眼镜的用户的声纹与预设声纹特征匹配,此时,AR眼镜可以将该询问内容补充到王五的第一描述信息中,并在AR眼镜的虚拟屏幕中王五的左边实时显示增加的文字“作品集:《A》、《B》和《C》”(即图7中的71)。
本申请实施例提供的信息显示方法可以应用于利用第三用户的第四语音信息补充第一描述信息的场景下,头戴式电子设备通过拍摄预览画面、语音的处理,可以灵活地将多样的信息整合为该第一用户的描述信息,丰富第一用户对应的第一描述信息。
可选的,在本申请实施例中,用户可以触发头戴式电子设备将上述的目标描述信息共享给其他设备。
示例性的,在上述的步骤201之后,该方法还可以包括如下步骤205和步骤206:
步骤205:头戴式电子设备接收用户对虚拟屏幕中的目标区域的第一输入。
示例性的,上述的第一输入具体可以包括:用户针对目标区域的点击输入,或者是用户输入的语音指令,或者是用户输入的特定手势,具体的可以根据实际使用需求确定,本申请实施例对此不作限定。
步骤206:响应上述第一输入,头戴式电子设备将上述目标描述信息共享至目标设备。
示例性的,头戴式电子设备将上述目标描述信息共享至目标设备,以使上述目标设备在采集到上述第一人脸信息的情况下显示上述目标描述信息。
在一种示例中,上述目标设备可以为与上述目标区域关联的用户。
示例性的,当头戴式电子设备接收到用户对第一用户的第一输入之后,头戴式电子设备可以显示目标控件,其中,该目标控件用于触发头戴式电子设备显示联系人列表,该联系人列表中包括至少一个标识,每个标识对应一个第四用户,每个第四用户对应一个目标设备。当头戴式电子设备接收到用户对至少一个标识中的目标标识的第五输入,则头戴式电子设备将上述的目标描述信息共享至目标设备。其中,上述的第四用户可以包含第一用户、第二用户和第三用户。
示例性的,上述的第五输入具体可以包括:用户针对目标标识的点击输入,或者是用户输入的语音指令,或者是用户输入的特定手势,具体的可以根据实际使用需求确定,本申请实施例对此不作限定。
本申请实施例提供的信息显示方法可以应用于将目标描述信息共享给其他设备的场景中,用户可以扩大社交朋友圈,并快速实现线上社交关系的连通。
进一步可选的,在本申请实施例中,上述的步骤206具体可以包括如下步骤206a:
步骤206a:在上述第一输入为滑动输入、且上述目标区域为该滑动输入的滑动轨迹所圈选的区域的情况下,响应上述第一输入,头戴式电子设备将上述目标区域中显示的用户作为上述第一用户,将上述目标描述信息共享至目标设备。
举例说明,如图8所示,AR眼镜的虚拟屏幕上的拍摄预览画面中包含3个用户,该3个用户分别为用户A(即图8中的81),用户B(即图8中的82)和张三(即上述的第一用户,如图8中的83)。此时,若用户想要将AR眼镜中已存储的张三对应的信息发送给徐六时,可以用手指在虚拟屏幕上画一个圈,圈住虚拟屏幕上的拍摄预览画面中张三所在的区域。此时,AR眼镜的虚拟屏幕上显示有一个“分享”控件(即图8中的84),若用户确定分享张三的信息时,可以点击该“分享”控件84(即上述的目标控件),则AR眼镜的虚拟屏幕上显示联系人列表(即图8中的85)。其中,该联系人列表85中显示有5个联系人(即上述的第四用户)的联系人名称,该5个联系人名称分别为“张三”、“李四”、“王五”、“徐六”和“孙七”。接着,若用户想要将张三(即上述的第一用户)的目标描述信息分享给徐六,可以点击联系人名称“徐六”。此时,AR眼镜便可以将张三的目标描述信息共享到徐六的AR眼镜。
需要说明的是,当徐六的AR眼镜接收到张三的目标描述信息后,可以直接显示该目标描述信息,这样,张三的样貌、姿态、基本信息都会被展示出来,用户也可以一键添加,使得社交体验更加鲜活。
本申请实施例提供的信息显示方法可以应用于头戴式电子设备将信息分享给其他设备的场景下,基于相关手势可以便捷的将联系人信息分享到其他联系人的目标设备,从而扩大社交朋友圈,并通过真实生活中的交互方式,快速实现线上社交关系链的连通。
可选的,在本申请实施例中,头戴式电子设备可以通过联系人列表将其中的任一第四用户对应的描述信息分享给其他第四用户。
举例说明,用户可以点击AR眼镜中的目标控件触发AR眼镜显示联系人列表,从联系人列表中查找到想要分享的张三的联系人名称,然后点击该联系人名称“张三”,则AR眼镜的虚拟屏幕上可以投影出张三的人脸图像。接着,用户可以用手指在虚拟屏幕上画一个圈,圈住虚拟屏幕中张三的人脸图像所在的区域,此时,AR眼镜的虚拟屏幕上显示有一个“分享”控件,若用户确定分享张三的信息时,可以点击该“分享”控件(即上述的目标控件),则AR眼镜的虚拟屏幕上显示联系人列表。其中,该联系人列表中显示有5个联系人(即上述的第四用户)的联系人名称,该5个联系人名称分别为“张三”、“李四”、“王五”、“徐六”和“孙七”。接着,若用户想要将张三(即上述的第一用户)的描述信息分享给徐六,可以点击联系人名称“徐六”,此时,AR眼镜便可以将张三的描述信息共享到徐六的AR眼镜。
本申请实施例提供的信息显示方法可以应用于头戴式电子设备将信息分享给目标设备的场景下,基于相关手势可以便捷的将联系人信息分享到其他联系人的目标设备,从而扩大社交朋友圈,并通过真实生活中的交互方式,快速实现线上社交关系链的连通。
可选的,在本申请实施例中,用户除了可以在采集到多个第一人脸信息的情况下查看与该多个第一人脸信息均关联的目标描述信息,用户还可以调取多个第一用户在头戴式电子设备已存储的信息进行查看,且可以触发头戴式电子设备显示该多个联系人的相同点。
示例性的,用户可以触发头戴式电子设备显示联系人列表,该联系人列表中包括至少一个标识,每个标识对应一个第四用户,每个第四用户对应一个目标设备。
示例性的,当用户想要查看多个第四用户的相同点时,用户可以触发头戴式电子设备进入联系人多选模式,后续可采用单击的方式,依次选中该多个第四用户。例如,用户可以长按联系人列表则头戴式电子设备进入联系人多选模式,或者,用户可以双击至少一个标识中的任一标识则头戴式电子设备进入联系人多选模式,或者,用户可以按压至少一个标识中的任一标识达到预设时长则头戴式电子设备进入联系人多选模式,具体的可以根据实际使用需求设定,本申请实施例对此不作限定。
示例性的,头戴式电子设备可以在接收到用户点击头戴式电子设备中的目标控件显示上述的联系人列表,也可以在接收到用户输入的语音指令显示上述的联系人列表,也可以在接收到用户输入的特定手势显示上述的联系人列表,本申请实施例对此不作限定。其中,该目标控件用于触发头戴式电子设备显示联系人列表。
举例说明,当用户想要查看多个第四用户的信息从而总结和发现一些特征时,可以说出“打开联系人列表”,当AR眼镜识别出该语音后,如图9所示,AR眼镜可以在AR眼镜的虚拟屏幕上显示一个联系人列表(即图9中的85),该联系人列表85中显示有5个联系人(即上述的第四用户)的联系人名称(上述的至少一个标识)。其中,该5个联系人名称分别为“张三”、“李四”、“王五”、“徐六”和“孙七”。若用户想要查看张三、李四和王五的信息有什么相同点和不同点,用户可以双击联系人名称“张三”,则AR眼镜进入联系人多选模式。然后,用户可以分别点击联系人名称“张三”、联系人名称“李四”和联系人名称“王五”。接着,如图10所示,AR眼镜的虚拟屏幕上可以显示张三、李四和王五的人脸图像,还显示有张三和李四的共同点为“喜欢明星:XXX”、“宠物:狗”以及“朋友:小花”(即图10中的91),还显示有张三和李四的不同点“工作方式:大胆跳跃VS按部就班”(即如图10中的92),AR眼镜的虚拟屏幕张三、李四和王五所在区域的上方显示有张三、李四和王五的共同点为“公司:XX软件公司”,“项目:AR眼镜项目”以及“毕业学校:XX大学”(即图10中的93)。
本申请实施例的信息显示方法可以应用于快速显示多个第四用户共同点的场景下,头戴式电子设备通过简单的分析多个第一用户的相同点和不同点并展示出来,使得用户可以更好的管理和了解联系人,发现相同爱好,避免反差冲突,更有利于用户维系自己的朋友圈。
图11为实现本申请实施例提供的一种头戴式电子设备的可能的结构示意图,如图11所示,头戴式电子设备600包括:获取模块601和显示模块602,其中:获取模块601,用于获取摄像头采集的第一人脸信息;显示模块602,用于在头戴式电子设备的虚拟屏幕的目标区域,显示上述获取模块601获取的上述第一人脸信息关联的目标描述信息;其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。
可选的,上述获取模块601,还用于获取麦克风采集的上述第一用户的第一语音信息;上述显示模块602,具体用于在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述获取模块601获取的上述第一人脸信息和上述第一语音信息关联的目标描述信息。
可选的,上述获取模块601,还用于获取麦克风采集的与上述第一语音信息相关的至少一个第二用户的第二语音信息;上述显示模块602,具体用于在上述头戴式电子设备的虚拟屏幕的目标区域,显示上述获取模块601获取的上述第一人脸信息、上述第一语音信息和上述第二语音信息关联的目标描述信息。
可选的,如图11所示,该头戴式电子设备600还包括:执行模块603,其中:上述获取模块601,具体用于获取上述第一用户的第二人脸信息和上述第一用户的第三语音信息;上述执行模块603,用于根据上述获取模块601获取到的上述第三语音信息,生成与上述第二人脸信息关联的第一描述信息,该第一描述信息包括上述目标描述信息,该第一描述信息包括至少一条描述子信息。
可选的,上述获取模块601,具体用于获取上述第一用户的第三语音信息和与上述第三语音信息相关的至少一个第三用户的第四语音信息;上述执行模块603,具体用于根据上述获取模块601获取到的上述第三语音信息和上述第四语音信息,生成与上述第二人脸信息关联的第一描述信息。
可选的,上述执行模块603,具体用于对上述第三语音信息进行语义分析,得到语义分析结果;从上述语义分析结果中,提取与上述第二人脸信息关联的语义描述信息;获取与上述语义描述信息关联的第二描述信息;以及基于上述语义描述信息和上述第二描述信息,生成与上述第二人脸信息关联的第一描述信息;其中,该第一描述信息包括该语义描述信息和该第二描述信息。
可选的,如图11所示,该头戴式电子设备600还包括:接收模块604和发送模块605,其中:上述接收模块604,用于接收用户对虚拟屏幕中的目标区域的第一输入;上述发送模块605,用于响应上述接收模块604接收到的上述第一输入,将上述目标描述信息共享至目标设备,以使该目标设备在采集到上述第一人脸信息的情况下显示上述目标描述信息。
可选的,上述发送模块605,具体用于在上述第一输入为滑动输入、且上述目标区域为上述滑动输入的滑动轨迹所圈选的区域的情况下,将上述目标区域中显示的用户作为上述第一用户,将上述目标描述信息共享至上述目标设备。
可选的,上述显示模块602,具体用于在上述摄像头采集到至少两个第一人脸信息的情况下,在上述虚拟屏幕的目标区域,显示该至少两个第一人脸信息均关联的目标描述信息。
可选的,上述显示模块602,具体用于在上述摄像头采集到至少两个第一人脸信息、上述目标区域包括:第一区域和第二区域、且上述目标描述信息包括:第三描述信息和第四描述信息的情况下,在上述虚拟屏幕的第一区域,显示该第三描述信息;在上述虚拟屏幕的第二区域,显示该第四描述信息;其中,该第三描述信息为:上述至少两个第一人脸信息均关联的信息,该第四描述信息为:每个第一人脸信息关联的描述信息中除该第三描述信息以外的其他信息。
需要说明的是,如图11所示,电子设备600中一定包括的模块用实线框示意,如获取模块601;电子设备600中可以包括也可以不包括的模块用虚线框示意,如接收模块604。
本申请实施例提供的头戴式电子设备,头戴式电子设备在获取到摄像头采集的第一人脸信息之后,可以在该头戴式电子设备的虚拟屏幕的目标区域,显示该第一人脸信息关联的目标描述信息。其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。用户可以通过头戴式电子设备的虚拟屏幕的目标区域显示的目标描述信息,快速查找到想要获知的第一用户的信息,从而使得整个信息查找过程步骤简便,效率高。
本申请实施例提供的头戴式电子设备能够实现上述方法实施例中头戴式电子设备实现的各个过程,为避免重复,这里不再赘述。
图12为实现本申请各个实施例的一种头戴式电子设备的硬件结构示意图,该头戴式电子设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图12中示出的头戴式电子设备100的结构并不构成对头戴式电子设备的限定,头戴式电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
其中,输入单元104,用于采集上述头戴式电子设备的摄像头采集到的人脸特征信息对应的第一用户的第一语音;显示单元106,用于根据上述输入单元104采集到的上述第一语音的语音内容信息,显示已存储的与上述人脸特征信息关联的相关信息。
本申请实施例提供的头戴式电子设备,头戴式电子设备在获取到摄像头采集的第一人脸信息之后,可以在该头戴式电子设备的虚拟屏幕的目标区域,显示该第一人脸信息关联的目标描述信息。其中,该目标区域为该第一人脸信息对应的第一用户在虚拟屏幕中的区域。用户可以通过头戴式电子设备的虚拟屏幕的目标区域显示的目标描述信息,快速查找到想要获知的第一用户的信息,从而使得整个信息查找过程步骤简便,效率高。
本申请实施例提供的头戴式电子设备能够实现上述方法实施例中头戴式电子设备实现的各个过程,为避免重复,这里不再赘述。
应理解的是,本申请实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
头戴式电子设备100通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与头戴式电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
头戴式电子设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在头戴式电子设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别头戴式电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与头戴式电子设备100的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图12中,触控面板1071与显示面板1061是作为两个独立的部件来实现头戴式电子设备100的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现头戴式电子设备100的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与头戴式电子设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到头戴式电子设备100内的一个或多个元件或者可以用于在头戴式电子设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据头戴式电子设备的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是头戴式电子设备100的控制中心,利用各种接口和线路连接整个头戴式电子设备100的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行头戴式电子设备100的各种功能和处理数据,从而对头戴式电子设备100进行整体监控。处理器110可包括一个或多个处理单元;可选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
头戴式电子设备100还可以包括给各个部件供电的电源111(比如电池),可选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,头戴式电子设备100包括一些未示出的功能模块,在此不再赘述。
可选的,本申请实施例还提供一种头戴式电子设备,包括处理器,存储器,存储在存储器上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器执行时实现上述信息显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
可选的,本申请实施例还提供一种头戴式AR设备,包括处理器,存储器,存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
具体的,当上述实施例中的头戴式电子设备(例如上述如图12所示的头戴式电子设备)为头戴式AR设备时,该头戴式AR设备可以包括上述头戴式电子设备中的全部或部分功能模块。当然,该头戴式AR设备还可以包括上述头戴式电子设备中未包括的功能模块。
可以理解,本申请实施例中,当上述实施例中的头戴式电子设备为头戴式AR设备时,该头戴式电子设备可以为集成有AR技术的头戴式电子设备。其中,AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
下面以头戴式AR设备为AR眼镜为例,当用户佩戴上AR眼镜后,用户观看到的场景是通过AR技术处理所产生的,即通过AR技术可以使得虚拟场景叠加显示在现实场景中。当用户对AR眼镜显示的内容操作时,用户可以看到AR眼镜将现实场景“剥开”,从而将更加真实的一面展示给用户。例如,用户肉眼观察一个纸箱时只能观察到纸箱外壳,但是当用户佩戴上AR眼镜后,用户便可以通过AR眼镜直接观察到纸箱的内部结构。
上述头戴式AR设备中可以包括摄像头,从而头戴式AR设备可以在摄像头拍摄的画面的基础上结合虚拟画面进行展示和互动。例如,本申请实施例中,头戴式AR设备在获取到摄像头采集的张三的人脸信息之后,可以在该头戴式AR设备的虚拟屏幕张三所在的区域,显示与张三的人脸信息关联的目标描述信息(例如,张三的名字)。使得用户可以通过头戴式AR设备快速获知张三的名字,可以直接喊出“张三”,从而使得整个信息查找过程步骤简便,效率高。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述信息显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台头戴式电子设备(可以是AR眼镜,或者AR头盔等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (13)
1.一种信息显示方法,应用于头戴式电子设备,其特征在于,所述方法包括:
获取摄像头采集的第一人脸信息;
在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息关联的目标描述信息;
其中,所述目标区域为所述第一人脸信息对应的第一用户在虚拟屏幕中的区域。
2.根据权利要求1所述的方法,其特征在于,在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息关联的目标描述信息之前,所述方法还包括:
获取麦克风采集的所述第一用户的第一语音信息;
所述在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息关联的目标描述信息,包括:
在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息和所述第一语音信息关联的目标描述信息。
3.根据权利要求2所述的方法,其特征在于,在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息和所述第一语音信息关联的目标描述信息之前,所述方法还包括:
获取麦克风采集的与所述第一语音信息相关的至少一个第二用户的第二语音信息;
所述根据所述第一语音信息,在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息关联的目标描述信息,包括:
在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息、所述第一语音信息和所述第二语音信息关联的目标描述信息。
4.根据权利要求1至3任一项所述的方法,其特征在于,在获取摄像头采集的第一人脸信息之前,所述方法还包括:
获取所述第一用户的第二人脸信息和所述第一用户的第三语音信息;
根据所述第三语音信息,生成与所述第二人脸信息关联的第一描述信息,所述第一描述信息包括所述目标描述信息,所述第一描述信息包括至少一条描述子信息。
5.根据权利要求4所述的方法,其特征在于,所述获取所述第一用户的第二人脸信息的和所述第一用户的第三语音信息,包括:
获取所述第一用户的第三语音信息和与所述第三语音信息相关的至少一个第三用户的第四语音信息;
所述根据所述第三语音信息,生成与所述第二人脸信息关联的第一描述信息,包括:
根据所述第三语音信息和所述第四语音信息,生成与所述第二人脸信息关联的第一描述信息。
6.根据权利要求4所述的方法,其特征在于,所述根据所述第三语音信息,生成与所述第二人脸信息关联的第一描述信息,包括:
对所述第三语音信息进行语义分析,得到语义分析结果;
从所述语义分析结果中,提取与所述第二人脸信息关联的语义描述信息;
获取与所述语义描述信息关联的第二描述信息;
基于所述语义描述信息和所述第二描述信息,生成与所述第二人脸信息关联的第一描述信息;
其中,所述第一描述信息包括所述语义描述信息和所述第二描述信息。
7.根据权利要求1所述的方法,其特征在于,在获取摄像头采集的第一人脸信息之后,所述方法还包括:
接收用户对虚拟屏幕中的目标区域的第一输入;
响应所述第一输入,将所述目标描述信息共享至目标设备,以使所述目标设备在获取到所述第一人脸信息的情况下显示所述目标描述信息。
8.根据权利要求7所述的方法,其特征在于,所述第一输入为滑动输入,所述目标区域为所述滑动输入的滑动轨迹所圈选的区域;
所述将所述目标描述信息共享至目标设备,包括:
将所述目标区域中显示的用户作为所述第一用户,将所述目标描述信息共享至所述目标设备。
9.根据权利要求1所述的方法,其特征在于,所述摄像头采集到至少两个第一人脸信息;
所述在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述第一人脸信息关联的目标描述信息,包括:
在所述虚拟屏幕的目标区域,显示所述至少两个第一人脸信息均关联的目标描述信息。
10.根据权利要求9所述的方法,其特征在于,所述摄像头采集到至少两个第一人脸信息;
所述目标区域包括:第一区域和第二区域;所述目标描述信息包括:第三描述信息和第四描述信息;
所述在所述虚拟屏幕的目标区域,显示所述至少两个第一人脸信息均关联的目标描述信息,包括:
在所述虚拟屏幕的第一区域,显示所述第三描述信息;
在所述虚拟屏幕的第二区域,显示所述第四描述信息;
其中,所述第三描述信息为:所述至少两个第一人脸信息均关联的信息,所述第四描述信息为:每个第一人脸信息关联的描述信息中除所述第三描述信息以外的其他信息。
11.一种头戴式电子设备,其特征在于,所述头戴式电子设备包括:
获取模块,用于获取摄像头采集的第一人脸信息;
显示模块,用于在所述头戴式电子设备的虚拟屏幕的目标区域,显示所述获取模块获取的所述第一人脸信息关联的目标描述信息;
其中,所述目标区域为所述第一人脸信息对应的第一用户在虚拟屏幕中的区域。
12.一种头戴式电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至10中任一项所述的信息显示方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至10中任一项所述的信息显示方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424035.7A CN111178305A (zh) | 2019-12-31 | 2019-12-31 | 信息显示方法及头戴式电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424035.7A CN111178305A (zh) | 2019-12-31 | 2019-12-31 | 信息显示方法及头戴式电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111178305A true CN111178305A (zh) | 2020-05-19 |
Family
ID=70652577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911424035.7A Pending CN111178305A (zh) | 2019-12-31 | 2019-12-31 | 信息显示方法及头戴式电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178305A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680191A (zh) * | 2020-05-22 | 2020-09-18 | 深圳市商汤科技有限公司 | 信息显示方法、装置、设备以及存储装置 |
CN112291630A (zh) * | 2020-10-28 | 2021-01-29 | 维沃移动通信(杭州)有限公司 | 电子设备屏幕共享方法、装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120242865A1 (en) * | 2011-03-21 | 2012-09-27 | Harry Vartanian | Apparatus and method for providing augmented reality based on other user or third party profile information |
US20140081634A1 (en) * | 2012-09-18 | 2014-03-20 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
CN107239725A (zh) * | 2016-03-29 | 2017-10-10 | 阿里巴巴集团控股有限公司 | 一种信息展示方法、装置及系统 |
CN109343706A (zh) * | 2018-09-18 | 2019-02-15 | 周文 | 一种交互系统及其实现方法 |
CN109814719A (zh) * | 2018-07-26 | 2019-05-28 | 亮风台(上海)信息科技有限公司 | 一种基于穿戴眼镜的显示信息的方法与设备 |
CN109857876A (zh) * | 2018-12-24 | 2019-06-07 | 维沃移动通信有限公司 | 一种信息显示方法及终端设备 |
CN110569006A (zh) * | 2018-06-05 | 2019-12-13 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
-
2019
- 2019-12-31 CN CN201911424035.7A patent/CN111178305A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120242865A1 (en) * | 2011-03-21 | 2012-09-27 | Harry Vartanian | Apparatus and method for providing augmented reality based on other user or third party profile information |
US20140081634A1 (en) * | 2012-09-18 | 2014-03-20 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
CN107239725A (zh) * | 2016-03-29 | 2017-10-10 | 阿里巴巴集团控股有限公司 | 一种信息展示方法、装置及系统 |
CN110569006A (zh) * | 2018-06-05 | 2019-12-13 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
CN109814719A (zh) * | 2018-07-26 | 2019-05-28 | 亮风台(上海)信息科技有限公司 | 一种基于穿戴眼镜的显示信息的方法与设备 |
CN109343706A (zh) * | 2018-09-18 | 2019-02-15 | 周文 | 一种交互系统及其实现方法 |
CN109857876A (zh) * | 2018-12-24 | 2019-06-07 | 维沃移动通信有限公司 | 一种信息显示方法及终端设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680191A (zh) * | 2020-05-22 | 2020-09-18 | 深圳市商汤科技有限公司 | 信息显示方法、装置、设备以及存储装置 |
CN112291630A (zh) * | 2020-10-28 | 2021-01-29 | 维沃移动通信(杭州)有限公司 | 电子设备屏幕共享方法、装置 |
CN112291630B (zh) * | 2020-10-28 | 2022-09-30 | 维沃移动通信(杭州)有限公司 | 电子设备屏幕共享方法、装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10366691B2 (en) | System and method for voice command context | |
CN109215007B (zh) | 一种图像生成方法及终端设备 | |
CN110913066A (zh) | 一种显示方法及电子设备 | |
CN107948429B (zh) | 一种内容演示方法、终端设备及计算机可读存储介质 | |
CN109213407B (zh) | 一种截图方法及终端设备 | |
CN111079030B (zh) | 一种群组搜索方法及电子设备 | |
CN111050077B (zh) | 拍摄方法及电子设备 | |
CN109815462B (zh) | 一种文本生成方法及终端设备 | |
CN108874352A (zh) | 一种信息显示方法及移动终端 | |
EP3905037B1 (en) | Session creation method and terminal device | |
CN111090529B (zh) | 共享信息的方法及电子设备 | |
CN111178305A (zh) | 信息显示方法及头戴式电子设备 | |
CN109166164B (zh) | 一种表情图片的生成方法及终端 | |
CN111190515A (zh) | 快捷面板操作方法、设备及可读存储介质 | |
CN110750198A (zh) | 一种表情发送方法及移动终端 | |
CN109117037B (zh) | 一种图像处理的方法及终端设备 | |
CN111093033B (zh) | 一种信息处理方法及设备 | |
CN112764600B (zh) | 资源处理方法、装置、存储介质及计算机设备 | |
CN111178306B (zh) | 一种显示控制方法及电子设备 | |
CN109547696B (zh) | 一种拍摄方法及终端设备 | |
CN111142772A (zh) | 一种内容显示方法及可穿戴设备 | |
CN110798727A (zh) | 一种视频处理方法及电子设备 | |
CN111597435B (zh) | 一种语音搜索方法、装置及电子设备 | |
CN111064658B (zh) | 显示控制方法及电子设备 | |
CN111176777B (zh) | 通话信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |