CN108108012A - 信息交互方法和装置 - Google Patents

信息交互方法和装置 Download PDF

Info

Publication number
CN108108012A
CN108108012A CN201611064419.9A CN201611064419A CN108108012A CN 108108012 A CN108108012 A CN 108108012A CN 201611064419 A CN201611064419 A CN 201611064419A CN 108108012 A CN108108012 A CN 108108012A
Authority
CN
China
Prior art keywords
information
target
facial
face
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611064419.9A
Other languages
English (en)
Other versions
CN108108012B (zh
Inventor
陈阳
王宇
麥偉強
陈志南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201611064419.9A priority Critical patent/CN108108012B/zh
Priority to PCT/CN2017/115058 priority patent/WO2018095439A1/zh
Publication of CN108108012A publication Critical patent/CN108108012A/zh
Application granted granted Critical
Publication of CN108108012B publication Critical patent/CN108108012B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种信息交互方法和装置。其中,该方法包括:在增强现实应用中,获取第一目标对象的面部信息;根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布交互信息。本发明解决了相关技术信息交互的过程复杂的技术问题。

Description

信息交互方法和装置
技术领域
本发明涉及计算机领域,具体而言,涉及一种信息交互方法和装置。
背景技术
目前,现有社交平台是基于账号的社交系统。真实用户通常创建一个或多个该社交平台的虚拟账号,通过虚拟账号社交平台进行社交行为。主要的社交行为包括分享个人动态、基于时间轴的信息流互动、选择用户账号登录即时通讯应用、留言等社交行为。对用户的识别依靠平台的虚拟账号,是一种基于账号的传统社交系统。
在现有的社交系统中,信息交互通常以不在一起的情形为主,用户与用户之间的信息交互以点对点形式进行,另外还有不定时地查看时间轴信息流来发现用户感兴趣的信息,从而根据感兴趣的信息进行信息交互。在熟人之间的社交圈中,比如,想要了解同学、朋友、同事、甚至家人的动态时,通常手动打开社交软件搜索对方的动态、搜索上次的交流内容,导致信息交互的过程复杂。
另外,信息交互还体现在Snapchat发布的Spectacles太阳镜上。图1是根据相关技术中的一种Spectacles太阳镜的示意图。如图1所示,该Spectacles太阳镜是在镜腿与框架相交的角嵌入了一个摄像头,按下靠近左边摄像头的按钮之后,Spectacles将会记录一段10秒的视频,再次按下按钮,它将会再录制10秒视频,如果想要提前结束拍摄视频,长按该按钮。当与手机连接的时候,可以在手机的Snapchat平台上进行社交分享。所拍视频只能通过Wi-Fi或者蓝牙传送到安卓(Android)或苹果(iPhone)手机上,否则只能存储在眼镜里。导出到手机的短视频将会储存在SnapChat应用的存储(Memories)功能中。该眼镜设备主要提供录制功能,后续的社交分享还需要连接手机的Snapchat应用来完成。
因而,现有方案的信息交互仍然是基于社交平台的虚拟账号的应用,眼镜设备只是提供了一种新的信息录入的交互方式,现阶段还未做到信息在眼镜内输出的程度,不利于实现信息交互。
针对上述信息交互的过程复杂的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种信息交互方法和装置,以至少解决相关技术信息交互的过程复杂的技术问题。
根据本发明实施例的一个方面,提供了一种信息交互方法。该信息交互方法包括:在增强现实应用中,获取第一目标对象的面部信息;根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布交互信息。
根据本发明实施例的另一方面,还提供了一种信息交互装置。该信息交互装置包括:第一获取单元,用于在增强现实应用中,获取第一目标对象的面部信息;第二获取单元,用于根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收单元,用于接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布单元,用于发布交互信息。
在本发明实施例中,通过在增强现实应用中,获取第一目标对象的面部信息;根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布交互信息,达到了信息交互的目的,从而实现了简化信息的交互过程的技术效果,进而解决了相关技术信息交互的过程复杂的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据相关技术中的一种Spectacles太阳镜的示意图;
图2是根据本发明实施例的一种信息交互方法的硬件环境的示意图;
图3是根据本发明实施例的一种信息交互方法的流程图;
图4是根据本发明实施例的一种根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法的流程图;
图5是根据本发明实施例的另一种根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法的流程图;
图6是根据本发明实施例的一种在预设空间位置显示第一目标对象在权限范围内的可见信息的方法的流程图;
图7是根据本发明实施例的另一种在预设空间位置显示第一目标对象在权限范围内的可见信息的方法的流程图;
图8是根据本发明实施例的一种向服务器发送第一请求的方法的流程图;
图9是根据本发明实施例的另一种信息交互方法的流程图;
图10是根据本发明实施例的另一种信息交互方法的流程图;
图11是根据本发明实施例的一种信息注册的方法的流程图;
图12是根据本发明实施例的一种信息展示与交互的方法的流程图;
图13是根据本发明实施例的一种基本信息展示的示意图;
图14是根据本发明实施例的另一种基本信息展示的示意图;
图15是根据本发明实施例的一种AR信息展示的示意图;
图16是根据本发明实施例的另一种AR信息展示的示意图;
图17是根据本发明实施例的一种信息交互装置的示意图;
图18是根据本发明实施例的另一种信息交互装置的示意图;以及
图19是根据本发明实施例的一种终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种信息交互方法的实施例。
可选地,在本实施例中,上述信息交互方法可以应用于如图2所示的由服务器202和终端204所构成的硬件环境中。图2是根据本发明实施例的一种信息交互方法的硬件环境的示意图。如图2所示,服务器202通过网络与终端204进行连接,上述网络包括但不限于:广域网、城域网或局域网,终端204并不限定于PC、手机、平板电脑等。本发明实施例的信息交互方法可以由服务器202来执行,也可以由终端204来执行,还可以是由服务器202和终端204共同执行。其中,终端204执行本发明实施例的信息交互方法也可以是由安装在其上的客户端来执行。
图3是根据本发明实施例的一种信息交互方法的流程图。如图3所示,该信息交互方法可以包括以下步骤:
步骤S302,在增强现实应用中,获取第一目标对象的面部信息。
在本发明上述步骤S302提供的技术方案中,在增强现实应用中,获取第一目标对象的面部信息。
增强现实(Augmented Reality,简称为AR)技术是一种实时地计算摄影机影像的位置以及角度,并加上相应的图像、视频、3D模型的技术,从而实现虚拟场景和现实场景的实时互动。增强现实应用采用AR技术,可以在AR眼镜、移动通讯终端、PC电脑上安装使用。在增强现实应用中,获取第一目标对象的面部信息,该第一目标对象为待进行信息交互的对象,比如,在见面场景、偶遇场景、擦肩而过场景下的同学、朋友、同事、家人等对象。面部信息可以为通过摄像头采集的人脸信息,比如,面部信息通过前置摄像头自动进行人脸识别得到的人脸信息,可以代替传统的虚拟账号以进行社交行为,使信息交互的入口为基于面部信息的识别。
可选地,在人脸可见的场景下,当第一目标对象进入预设范围时,自动触发识别第一目标对象的面部信息。
可选地,在登录增强现实应用时,可以通过用户的掌纹信息、用户名、面部信息等方式进行登录,此处不做限定。第一目标对象通过面部信息在服务器上注册过。
步骤S304,根据第一目标对象的面部信息获取第一目标对象的目标信息。
在本发明上述步骤S304提供的技术方案中,根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为。
第一目标对象的面部信息与第一目标对象的目标信息一一对应,该目标信息用于指示第一目标对象的社交行为,可以作为第二目标对象进一步了解第一目标对象的提示信息,其中,第二目标对象为根据目标信息与第一目标对象进行交互的对象。在获取第一目标对象的面部信息之后,根据第一目标对象的面部信息从服务器获取第一目标对象的目标信息,可选地,该目标信息包括第一目标对象的用户基本信息和社交信息。用户基本信息可以包括第一目标对象的昵称、姓名、地址、联系方式、个性签名等基本信息,社交信息包括第一目标对象的动态信息、第一目标对象在第三方平台上的扩展信息、第一目标对象参与的历史交流信息等。其中,第一目标对象的动态信息可以为动态时间轴信息,包括但不限于表情和评论,表情指单个的不含文字的静态或动态或三维预置图片,评论为富媒体,可以包括文字、语音、图片等用户自由组织的信息;扩展信息包括第三方社交账号信息,可以根据第三方社交平台的网络地址特点,通过根据第三方社交账号信息拉取第一目标对象在第三方社交平台发布的信息,第三方社交平台可以为推特(twitter)、微博等社交平台;历史交流信息为与第一目标对象在过去时间交流的信息,可以用于唤起第二目标对象对第一目标对象的交流记忆,从而比较自然地使第二目标对象和第一目标对象开始开场交流话题。
在根据第一目标对象的面部信息获取第一目标对象的目标信息时,可以在现实场景的预设空间位置显示目标信息,也即,将目标信息叠加至现实场景的预设空间位置,比如,叠加至第一目标对象的一侧,从而实现了将虚拟的目标信息和真实的现实场景相结合的目的,通过获取的目标信息避免了手动打开社交软件去搜索第一目标对象的动态信息、搜索历史交流信息,从而简化了信息交互的过程。
可选地,在自动触发识别第一目标对象的面部信息之后,自动展现第一目标对象的目标信息。
在不易获取第一目标对象的面部信息的情况下,比如,在光线较弱或者尘粒较多的环境下,摄像头不易获取第一目标对象的面部信息,此时可以通过语音搜索的方式获取目标信息,比如,通过语音搜索昵称、姓名等基本信息来获取目标信息。可选地,如果第二目标对象和第一目标对象没有在现实场景中碰面,但又想要查看第一目标对象的社交信息,比如,想要查看与第一目标对象的历史交流信息,此时并不能获取第一目标对象的面部信息,可以通过上述语音搜索的方式进行。
步骤S306,接收第二目标对象根据目标信息发送的交互信息。
在本发明上述步骤S306提供的技术方案中,接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互。
在根据第一目标对象的面部信息获取第一目标对象的目标信息之后,第二目标对象通过第一目标对象的目标信息对第一目标对象有了进一步了解。第二目标对象根据自己实际意愿与第一目标对象进行信息交互,接收第二目标对象根据目标信息发送的交互信息,该交互信息用于指示第一目标对象与第二目标对象进行信息交互。
可选地,该交互信息可以为与目标信息的内容相关的信息,也可以为与目标信息的内容不相关的信息,比如,第二目标对象通过第一目标对象的目标信息了解到第一目标对象喜欢足球,第二目标对象可以发送邀请第一目标对象观看足球比赛的交互信息,也可以为了让第一目标对象感受到新的球赛体验,发送邀请对方观看篮球比赛的交互信息。
可选地,交互信息可以为语音信息、图像信息、视频信息等,可以为虚拟场景下的虚拟交互信息,包括但不限于表情和评论。比如,第二目标对象手动输入的文字消息,图像信息、语音信息等。该交互信息也可以为现实场景下录入的语音信息、图像信息、视频消息等,此处不作限定,从而实现虚拟世界和现实世界的互动全部录入,达到了信息交互的虚拟并存的目的,进而丰富了信息交互的种类。
步骤S308,发布交互信息。
在本发明上述步骤S308提供的技术方案中,发布交互信息。
在接收第二目标对象根据目标信息发送的交互信息之后,发布交互信息,第二目标对象可以通过客户端查看到交互信息,从而使得第二目标对象与第一目标对象进行信息互动。
可选地,发布入口主要包括个人动态信息,以及与他人的会话信息。前者可以对发布做出权限控制,后者则包括双方的虚拟场景下的交互信息和记录的现实场景的交互信息。其中,权限控制部分至少分为四类,所有人可见、朋友可见、特定朋友可见、仅自己可见。人们对信息公开的程度设置不同的需求,愿意被人看到的可使用最宽泛的可见控制权限,对隐私极其关注的可以设置仅朋友可见,从而杜绝不熟悉的人对自己信息的窥视,提高用户信息的安全性。
可选地,在第一目标对象的第一目标信息中,无论是基本用户信息、动态信息,或者第一目标对象和第二目标对象之间的交互信息的展示方式,包括但不限于三维螺旋、球面、圆柱等展现方式,从而提高了交互信息展现的趣味性。
通过上述步骤S302至步骤S308,在增强现实应用中,获取第一目标对象的面部信息;根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布交互信息,可以解决了相关技术信息交互的过程复杂的技术问题,进而达到简化信息的交互过程的技术效果。
作为一种可选的实施方式,步骤S302,第一客户端获取第一目标对象的面部信息包括:第一客户端扫描第一目标对象的面部,得到第一目标对象的面部信息;步骤S304,第一客户端根据第一目标对象的面部信息获取第一目标对象的目标信息包括:第一客户端根据第一目标对象的面部信息在第一客户端的预设空间位置显示目标信息。
作为一种可选的实施方式,步骤S306,接收第二目标对象根据目标信息发送的交互信息包括:接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息;和/或接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息。
在现实场景下,对第二目标对象与第一目标对象的真实交互信息进行记录,从而实现了对现实世界的记录。可选地,通过AR眼镜录入现实场景中的图像内容、视频内容等用户所见所得的内容,而不必像移动手机平台一样在记录现实场景中的图像内容、视频内容时来回在屏幕与现实之间切换注意力。
在虚拟场景下,接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息,该虚拟交互信息为虚拟世界的交流,可以为单个的不含文字的静态或动态或三维预置图片,也可以为文字、语音、图片等用户自由组织的信息。
作为一种可选的实施方式,在接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息之后,存储真实交互信息至预设存储位置;和/或在接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息之后,存储虚拟交互信息至预设存储位置。
在接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息之后,将真实交互信息存储至预设存储位置,比如,存储至服务器中,从而使得在下一次获取到的目标信息中包括此次真实交互信息,可选地,在通过AR眼镜录入真实交互信息后,不需要利用其它平台,就可以回放录入的图像内容、视频内容等,用户体验的是当初录入的视角,从而带给用户更加真实的体验效果,和/或在接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息之后,将虚拟交互信息存储至预设存储位置,比如,存储至服务器中,从而使得在下一次获取到的目标信息中包括此次虚拟交互信息。
作为一种可选的实施方式,真实交互信息至少包括以下一种或多种:在现实场景下的语音信息;在现实场景下的图像信息;在现实场景下的视频信息。
第二目标对象根据目标信息发送的在现实场景下的真实交互信息包括在现实场景下的语音信息,比如,第二目标对象和第一目标对象的谈话,还包括在现实场景下的图像信息,比如,第一目标对象的面部图像,还包括在现实场景下的视频信息,比如,在会议室中开会的视频记录,从而丰富了交互信息的种类。
作为一种可选的实施方式,步骤S302,获取第一目标对象的面部信息包括:扫描第一目标对象的面部,得到第一目标对象的面部信息;步骤S304,根据第一目标对象的面部信息获取第一目标对象的目标信息包括:根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息。
在获取第一目标对象的面部信息时,可以通过扫描第一目标对象的面部,得到第一目标对象的面部信息,比如,在AR眼镜中,通过AR眼镜安装的前置摄像头对第一目标对象进行的人脸进行自动识别,得到第一目标对象的人脸信息,该AR眼镜可以为微软HoloLens,从而实现获取第一目标对象的面部信息的目的。在扫描第一目标对象的面部,得到第一目标对象的面部信息之后,根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息,比如,在第一目标对象的一侧显示目标信息,用户通过借助AR设备可以看到在预设空间位置显示的目标信息、第一目标对象以及现实场景中的其它景象。
需要说明的是,理论上拥有摄像头的设备都可以适用于该实施例的获取第一目标对象的面部信息,包括但不限于AR眼镜设备,还可以为移动通讯终端、PC端等设备,所不同的是易用性以及交互的操作方式。
作为一种可选的实施方式,在步骤S304中,根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息包括:根据第一目标对象在现实场景中的当前空间位置确定目标信息在现实场景中的显示空间位置;在显示空间位置显示目标信息。
图4是根据本发明实施例的一种根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法的流程图。如图4所示,该根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法包括以下步骤:
步骤S401,确定第一目标对象在现实场景中的当前空间位置。
在本发明上述步骤S401提供的技术方案中,确定第一目标对象在现实场景中的当前空间位置。
在获取第一目标对象的第一目标信息之后,确定第一目标对象在现实场景中的当前空间位置,该当前空间位置可以为第一目标对象的面部在现实场景中的位置。可选地,通过与第二目标对象之间的距离、相对第二目标对象的方向等信息确定第一目标对象在现实场景中的当前位置。
步骤S402,根据当前空间位置确定目标信息在现实场景中的显示空间位置。
在本发明上述步骤S402提供的技术方案中,根据当前空间位置确定目标信息在现实场景中的显示空间位置。
在确定第一目标对象在现实场景中的当前空间位置之后,根据当前空间位置确定目标信息在现实场景中的显示空间位置,可以确定显示空间位置位于当前空间位置的左侧、右侧、上方、下方等,也可以根据当前空间位置进行手动设置,从而达到目标信息的显示位置和现实场景进行很好叠加的效果。
步骤S403,在显示空间位置显示目标信息。
在本发明上述步骤S403提供的技术方案中,在显示空间位置显示目标信息。
在根据当前空间位置确定目标信息在现实场景中的显示空间位置之后,在显示空间位置显示目标信息,可以以自动浮现形式在第一目标对象的一侧浮现出目标信息,也可以以弹跳形式、渐入形式等在第一目标对象的一侧显示目标信息,此处不做限定,从而提高了信息交互的趣味性。
该实施例通过确定第一目标对象在现实场景中的当前空间位置;根据当前空间位置确定目标信息在现实场景中的显示空间位置;在显示空间位置显示目标信息,实现了根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的目的,进而简化了信息交互的过程。
作为一种可选的实施方式,步骤S403,在显示空间位置显示目标信息至少包括以下一种或多种:在目标信息包括用户资料信息时,在第一显示空间位置显示第一目标对象的用户资料信息;在目标信息包括个人动态信息时,在第二显示空间位置显示第一目标对象的个人动态信息;在目标信息包括扩展信息时,在第三显示空间位置显示第一目标对象的扩展信息;在目标信息包括历史交互信息时,在第四显示空间显示位置显示第二目标对象与第一目标对象在历史交互过程中产生的历史交互信息。
目标信息包括用户资料信息,该用户资料信息为第一目标对象的基本信息,比如,第一目标对象的昵称、姓名、地址、联系方式、个性签名等基本信息。在目标信息包括用户资料信息时,在第一显示空间位置显示第一目标对象的用户资料信息。可选地,在第一目标对象的面部一侧叠加第一目标对象的用户资料信息,用户通过AR眼镜不仅可以看到第一显示空间位置的目标信息,也可以看到现实场景中的其它景象,从而实现了将虚拟世界和现实世界的结合。
目标信息还可以包括个人动态信息,在第二显示空间位置显示第一目标对象的个人动态信息。可选地,在第一目标对象的面部一侧叠加第一目标对象的用户资料信息的基础上,通过接收展示指令执行向下翻动或点击个人动态信息的图标的操作,其中,该展示指令包括语音指令、用户通过手势点击而产生的指示指令,用户通过凝视停留而产生的指示指令。在执行向下翻动或点击个人动态信息的图标的操作之后,在第二显示空间位置上显示第一目标对象的个人动态信息,该个人动态以时间轴为序依次浮现,或者以弹跳形式、渐进形式展示,此处不做限定。个人动态信息为信息交互的入口之一。
目标信息还可以包括扩展信息,在第三显示空间位置显示第一目标对象的扩展信息。该扩展信息包括第一目标对象的第三方社交账号信息,可以根据第三方社交平台的网络地址特点,根据第三方社交账号信息拉取第一目标对象发表的信息。
目标信息还可以包括历史交互信息,在第四显示空间显示位置显示第二目标对象与第一目标对象在历史交互过程中产生的历史交互信息,该历史交互信息可以为图片信息、语音信息、文字信息、视频信息等,历史交互信息为消息会话,为信息交互入口之一,记录了虚拟场景与现实场景中的交流信息。
该实施例的目标信息是叠加在现实世界中的虚拟内容,实现了交互信息的虚实结合,从而带给用户更加真实的交互体验。
作为一种可选的实施方式,步骤S304,根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息包括:在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据;在判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据的情况下,判断第一目标对象的面部扫描权限是否为允许扫描,也即,判断面部特征数据所对应的账户的扫描权限是否为允许扫描;如果判断出第一目标对象的面部扫描权限为允许扫描,在预设空间位置显示可见信息,其中,可见信息至少包括第一目标对象的用户资料信息。
图5是根据本发明实施例的另一种根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法的流程图。如图5所示,该根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的方法包括以下步骤:
步骤S501,扫描面部。
在本发明上述步骤S501提供的技术方案中,扫描面部。
在面部可见的场景下,信息展示以扫描面部为主入口场景。在主入口场景下,进行面部扫描,判断是否有面部。可选地,在预设范围内有多个目标对象的面部,该多个目标对象的面部包括第一目标对象的面部。如果没有扫描到面部,则继续执行扫描面部,确定是否扫描到其它对象的面部。如果扫描到对象的面部,判断服务器中是否存储有与扫描到的对象的面部信息相匹配的面部数据,如果判断出服务器中没有存储与扫描到的对象的面部信息相匹配的面部数据,则继续执行扫描,确定是否扫描到其它对象的面部。如果判断出服务器中存储与扫描到的对象的面部信息相匹配的面部数据,进一步判断该对象的面部扫描权限是否为允许在扫描该对象的面部之后显示该对象在权限范围内的可见信息,如果判断出该对象的面部扫描权限为不允许在扫描该对象的面部之后显示该对象在权限范围内的可见信息,则继续执行扫描,确定是否扫描到其它对象的面部,以此类推。
步骤S502,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据。
在本发明上述步骤S502提供的技术方案中,在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据。
第一目标对象如果在增强现实应用中注册信息过,则服务器上存储第一目标对象的面部特征数据。在扫描到第一目标对象的面部的情况下,获取第一目标对象的面部信息,该第一目标对象的面部信息可以由具有预设特征的面部数据组成。判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据。可选地,面部信息与面部特征数据的匹配为面部信息中的数据与面部特征数据的重合度或者相似度在预设阈值内的匹配,比如,如果面部信息中的数据与面部特征数据的重合度或者相似度达到80%以上,则确定面部信息与面部特征数据相匹配,也即,服务器中存储了与第一目标对象的面部信息相匹配的上述面部特征数据。
可选地,如果判断出服务器中没有存储与第一目标对象的面部信息相匹配的面部特征数据,则执行步骤S501,继续扫描除第一目标对象之外的其它对象的面部。
步骤S503,判断第一目标对象的面部扫描权限是否为允许扫描。
在本发明上述步骤S503提供的技术方案中,如果判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据,判断第一目标对象的面部扫描权限是否为允许扫描。
第一目标对象的面部扫描权限用于表示第一目标对象的面部对外公开扫描的程度,包括允许所有对象通过增强现实应用对第一目标对象的面部进行扫描,也即,所有对象可扫描。允许预设对象通过增强现实应用对第一目标对象的面部进行扫描,也即,仅预设对象扫描。禁止任何对象通过增强现实应用对第一目标对象的面部进行扫描,也即,禁止扫描,其中,预设对象可以为好友。该第一目标对象的面部扫描权限在第一目标对象请求服务器对面部特征数据进行存储时确定。判断第一目标对象的面部扫描权限是否为允许扫描,如果判断出第一目标对象的面部扫描权限为允许扫描,执行步骤S504。
可选地,如果判断出第一目标对象的面部扫描权限为不允许第二目标对象通过增强现实应用对第一目标对象的面部进行扫描,执行步骤S501,继续扫描除第一目标对象之外的其它对象的面部。
步骤S504,在预设空间位置显示第一目标对象在权限范围内的可见信息。
在本发明上述步骤S504提供的技术方案中,如果判断出第一目标对象的面部扫描权限为允许扫描,在预设空间位置显示第一目标对象在权限范围内的可见信息,其中,可见信息至少包括第一目标对象的用户资料信息。
第一目标对象在权限范围内的可见信息可以包括第一目标对象在权限范围内的用户资料信息、扩展信息和动态信息。在权限范围内的用户资料信息和扩展信息在第一目标对象向服务器注册信息时确定,其中,用户资料信息和扩展信息中的每一项信息的权限控制至少可以分为三类,分别为允许所有对象通过增强现实应用可见,仅允许预设对象通过增强现实应用可见,仅自己通过增强现实应用可见。动态信息的控制权限在动态信息发布时确定,控制权限可以包括四类,分别为允许所有对象通过增强现实应用可见,允许朋友通过增强现实应用可见,允许特定朋友通过增强现实应用可见,仅自己通过增强现实应用可见。在判断第一目标对象的面部扫描权限是否为允许扫描之后,如果判断第一目标对象的面部扫描权限为允许扫描,则可以在预设空间位置显示在权限范围内的用户资料信息、扩展信息、动态信息。其中,动态信息为信息交互的入口之一,包括但不限于表情与评论。另一主要的信息交互入口为消息会话,记录了虚拟场景与现实场景中的交流信息。
该实施例通过扫描面部;在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据;如果判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据,判断第一目标对象的面部扫描权限是否为允许扫描;如果判断出第一目标对象的面部扫描权限为允许扫描,在预设空间位置显示可见信息,,其中,可见信息至少包括第一目标对象的用户资料信息,实现了根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息的目的,进而简化了信息交互的过程。
作为一种可选的实施方式,可见信息包括第一目标对象的扩展信息,步骤S504,在预设空间位置显示在权限范围内的可见信息包括:第一目标对象具有第三方平台的账户信息的情况下,接收用于指示展示与账户信息对应的扩展内容的第一展示指令,在预设空间位置展示在权限范围内的扩展内容。
图6是根据本发明实施例的一种在预设空间位置显示第一目标对象在权限范围内的可见信息的方法的流程图。如图6所示,该在预设空间位置显示第一目标对象在权限范围内的可见信息的方法包括以下步骤:
步骤S601,判断第一目标对象是否具有第三方平台的账户信息。
在本发明上述步骤S601提供的技术方案中,判断第一目标对象是否具有第三方平台的账户信息,其中,扩展信息包括账户信息。
在展示权限可见信息时,在判断出第一目标对象的面部扫描权限为允许扫描时,允许在扫描第一目标对象的面部之后显示第一目标对象在权限范围内的扩展信息,该扩展信息包括第一目标对象的第三方平台的账户信息。第二目标对象可以通过第三平台的账户信息获取第一目标对象在第三方平台已经发布的内容,该第三方平台可以为twitter平台、微博等。在展示权限范围内的可见信息中,判断第一目标对象是否有第三方平台的账户信息。
步骤S602,接收用于指示展示与账户信息对应的扩展内容的第一展示指令。
在本发明上述步骤S602提供的技术方案中,如果判断出第一目标对象具有第三方平台的账户信息,接收用于指示展示与账户信息对应的扩展内容的第一展示指令。
在预设空间位置还可以标注可拉取内容的第三方平台的图标,可以在用户资料信息的显示位置的置底处显示。在判断第一目标对象是否具有第三方平台的账户信息之后,通过第三方平台的图标接收用于指示展示与账户信息对应的扩展内容的第一展示指令,该第一展示指令可以为语音指令、用户通过手势点击产生的指示指令、用户通过凝视停留产生的指示指令等。
步骤S603,在预设空间位置展示在权限范围内的扩展内容。
在本发明上述步骤S603提供的技术方案中,在接收第一展示指令之后,在预设空间位置展示在权限范围内的扩展内容。
在接收用于指示展示与账户信息对应的扩展内容的第一展示指令之后,预设空间位置展示在权限范围内的扩展内容,可以切换为第三方平台上的时间轴信息流,从而获取丰富的信息。
该实施例通过判断第一目标对象是否具有第三方平台的账户信息,其中,扩展信息包括账户信息;如果判断出第一目标对象具有第三方平台的账户信息,接收用于指示展示与账户信息对应的扩展内容的第一展示指令;在接收第一展示指令之后,在预设空间位置展示在权限范围内的扩展内容,达到了在预设空间位置显示可见信息的目的。
可见信息包括第一目标对象的个人动态信息,步骤S504,在预设空间位置显示在权限范围内的可见信息包括:接收用于指示展示个人动态信息的第二展示指令;在接收第二展示指令之后,在预设空间位置展示在权限范围内的个人动态信息。
图7是根据本发明实施例的另一种在预设空间位置显示第一目标对象在权限范围内的可见信息的方法的流程图。如图7所示,该在预设空间位置显示第一目标对象在权限范围内的可见信息的方法包括以下步骤:
步骤S701,接收用于指示展示个人动态信息的第二展示指令。
在本发明上述步骤S701提供的技术方案中,接收用于指示展示个人动态信息的第二展示指令。
在展示权限可见信息中,在判断出第一目标对象的面部扫描权限为允许扫描时,允许在扫描第一目标对象的面部之后显示第一目标对象在权限范围内的个人动态信息,可以接收用于指示展示个人动态信息的第二展示指令,该第二展示指令包括语音指令、用户通过手势点击产生的指示指令、用户通过凝视停留产生的指示指令等,从而根据第二展示指令进行向下翻动或点击个人动态信息图标的操作。
步骤S702,在预设空间位置展示在权限范围内的个人动态信息。
在本发明上述步骤S702提供的技术方案中,在接收第二展示指令之后,在预设空间位置展示在权限范围内的个人动态信息。
在接收用于指示展示个人动态信息的第二展示指令之后,可以在用户资料信息的显示位置的基础上,展示在权限范围内的个人动态信息。
该实施例通过接收用于指示展示个人动态信息的第二展示指令;在接收第二展示指令之后,在预设空间位置展示个人动态信息,实现了在预设空间位置显示在权限范围内的可见信息的目的,进而简化了信息交互的过程。
作为一种可选的实施方式,在获取第一目标对象的面部信息之前,对第一目标对象的信息进行注册,包括:向服务器发送第一请求,其中,第一请求携带与第一目标对象的面部信息相匹配的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据,还可以向服务器发送第二请求,其中,第二请求携带第一目标对象的用户资料信息,服务器响应第二请求,并存储第一目标对象的用户资料信息;和/或向服务器发送第三请求,其中,第三请求携带第一目标对象的扩展信息,服务器响应第三请求,并存储第一目标对象的扩展信息。
在获取第一目标对象的面部信息之前,第一目标对象通过服务器注册信息,注册的信息包括第一目标对象的面部信息。在注册第一目标对象的面部信息时,需要实时获取第一目标对象的面部图像信息,对该面部图像信息做真实性验证,包括但不限于验证有无人脸、利用人脸信息提示第一目标对象实时做指定面部动作,判断第一目标对象做出的实际面部动作是否匹配用于验证真实性的面部动作,在第一目标对象做出的实际面部动作匹配用于验证真实性的面部动作时,通过检测人脸信息是否为三维形态进一步杜绝假冒注册行为,在检测到人脸信息为三维形态的情况下,获取第一目标对象的面部特征数据,向服务器发送第一请求,其中,第一请求携带与第一目标对象的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据。在注册第一目标对象的面部信息时,权限控制可以设置为允许所有人扫描、允许朋友扫描、禁止扫描。
注册的信息还可以包括第一目标对象的用户资料信息,包括但不限于第一目标对象的昵称、姓名、地址、联系方式、签名等信息。向服务器发送第二请求,其中,第二请求携带第一目标对象的用户资料信息,服务器响应第二请求,并存储第一目标对象的用户资料信息,从而实现对第一目标对象的基本信息的注册。
注册的信息还可以包括第一目标对象的扩展信息。扩展信息包括用户提供的本人第三方社交账号信息。鉴于当前流行社交平台如twitter、微博的网络地址特点,知晓用户账号即可拉取其发布的信息。提供聚合第三方社交平台信息拉取能力,供扫描方获得更丰富的存量信息。
该实施例的用户资料信息、扩展信息可以根据用户自己的意愿,在注册时选择信息公开的程度。在用户资料信息和扩展信息的权限控制方面,每一项信息的控制粒度至少可分为三大类,允许所有人可见、仅允许朋友可见、仅自己可见,比如,年龄的权限控制、电话号码的权限控制、地址信息的权限控制等用户都可以根据自己的需求按照上述方式一一设置。
需要说明的是,该实施例在信息注册的过程中,不限定客户端的类型,可以通过AR眼镜实现注册,也可以通过移动通讯终端实现注册,也可以通过PC段实现注册,此处不做限定。
作为一种可选的实施方式,向服务器发送第一请求包括:在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令,在第一目标对象根据指示指令执行的实际面部动作预设面部动作相匹配时,检测第一目标对象的面部是否为三维形态;在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据;根据面部特征数据向服务器发送第一请求。
图8是根据本发明实施例的一种向服务器发送第一请求的方法的流程图。如图8所示,该向服务器发送第一请求的方法包括以下步骤:
步骤S801,检测面部。
在本发明上述步骤S801提供的技术方案中,检测面部。
实时录入人脸信息。可选地,存在多个对象,多个对象包括第一目标对象。在获取第一目标对象的面部信息之前,检测第一目标对象的面部图像数据,可以通过前置摄像头检测第二目标对象的面部图像数据。可选地,用户实时自拍人脸照,系统将对接收到的面部图像数据做真实性验证。需要说明的是,该实施例的人脸检测算法并未指定特定方法,包括但不限于特征识别、模版识别、神经网络识别等传统算法以及超越人类对人脸识别率的GaussianFace算法。
可选地,如果没有检测到面部,继续检测面部。
步骤S802,发出用于指示第一目标对象执行预设面部动作的指示指令。
在本发明上述步骤S802提供的技术方案中,在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令,其中,第一目标对象根据指示指令执行面部动作,得到实际面部动作。
在检测到第一目标对象的面部的情况下,提示第一目标对象实时做指定面部动作,可以发出用于指示第一目标对象执行预设面部动作的语音指示指令,可以根据语音指令实时做抬头、低头、微微左转、微微右转、皱眉、张口、眨眼等预设面部动作。
步骤S803,判断实际面部动作是否与预设面部动作相匹配。
在本发明上述步骤S803提供的技术方案中,判断实际面部动作是否与预设面部动作相匹配。
在发出用于指示第一目标对象执行预设面部动作的指示指令之后,判断实际面部动作是否与预设面部动作相匹配。如果判断出实际面部动作与预设面部动作不匹配,则重新执行步骤S801。如果判断出实际面部动作与预设面部动作相匹配,执行步骤S804。从而通过实际面部动作和预设面部动作是否相匹配来确定接收到的图像信息的真实性。
步骤S804,检测第一目标对象的面部是否为三维形态。
在本发明上述步骤S804提供的技术方案中,如果判断出实际面部动作与预设面部动作相匹配,检测第一目标对象的面部是否为三维形态。
在判断实际面部动作是否与预设面部动作相匹配之后,如果判断出实际面部动作与预设面部动作相匹配,检测第一目标对象的面部是否为三维形态,也即,对第一目标对象的面部进行面部深度信息检测。可选地,当利用AR眼镜的深度摄像头信息检测人脸为三维形态时,确定接收到的面部图像信息的真实性,从而拒绝当前已知的伪装方法,比如,在手机等屏幕播放事先准备好的人脸图像以视频欺骗注册系统,提高了信息注册的安全性。
步骤S805,在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据。
在本发明上述步骤S805提供的技术方案中,在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据。
在检测到第一目标对象的面部为三维形态的情况下,获取与第一目标对象的面部信息匹配的面部特征数据,第一目标对象的面部信息允许与面部特征数据有预设阈值的误差。
步骤S806,根据面部特征数据向服务器发送第一请求。
在本发明上述步骤S806提供的技术方案中,根据面部特征数据向服务器发送第一请求,第一请求携带与第一目标对象的面部信息相匹配的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据。
可选地,在步骤S304,根据第一目标对象的面部信息获取第一目标对象的目标信息包括:根据第一目标对象的面部信息请求服务器根据面部特征数据下发目标信息;接收目标信息。
在获取第一目标对象的面部信息之后,根据该面部信息向服务器发送用于对面部信息进行匹配的请求,服务器对该请求进行响应,在面部特征数据库中查找第一目标对象的面部特征数据,在服务器查找到第一目标对象的面部数据之后,下发目标信息。
该实施例通过检测面部;在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令;判断实际面部动作是否与预设面部动作相匹配;如果判断出实际面部动作与预设面部动作相匹配,检测第一目标对象的面部是否为三维形态;在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据;根据面部特征数据向服务器发送第一请求,实现了服务器存储用于与第一目标对象的面部信息相匹配的面部特征数据的目的。
作为一种可选的实施方式,接收第二目标对象根据目标信息发送的交互信息之前,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,其中,用户资料信息包括搜索信息;根据搜索信息获取目标信息。
图9是根据本发明实施例的另一种信息交互方法的流程图。如图9所示,该信息交互方法还包括以下步骤:
步骤S901,接收用于指示搜索目标信息的搜索信息。
在本发明上述步骤S901提供的技术方案中,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,其中,用户资料信息包括搜索信息。
信息展示以获取第一目对象的面部信息为主入口场景,以接收用于指示搜索目标信息的搜索信息为辅,该搜索信息可以为语音搜索昵称、姓名等用户资料信息。获取第一目标对象的面部信息应用在人脸可见场景下,接收用于指示搜索目标信息的搜索信息可以用在无法获取或者准确获取面部信息的场景下。
步骤S902,根据搜索信息获取目标信息。
在本发明上述步骤S902提供的技术方案中,根据搜索信息获取目标信息。
在接收用于指示搜索目标信息的搜索信息之后,根据搜索信息获取目标信息,可以根据语音搜索第一目标对象的昵称、姓名等获取第一目标对象的目标信息。
该实施例通过在接收第二目标对象根据目标信息发送的交互信息之前,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,用户资料信息包括搜索信息;根据搜索信息获取目标信息,实现了对目标信息的获取,简化了信息交互的过程。
图10是根据本发明实施例的另一种信息交互方法的流程图。如图10所示,该信息交互方法还包括以下步骤:
步骤S1001,根据第一目标对象的面部信息识别第一目标对象的面部轮廓。
在本发明上述步骤S1001提供的技术方案中,根据第一目标对象的面部信息识别第一目标对象的面部轮廓。
在增强现实应用中,根据第一目标对象的面部信息识别第一目标对象的面部轮廓,可以通过AR眼镜根据第一目标对象的面部信息识别第一目标对象的面部轮廓。
步骤S1002,在面部轮廓的预设位置添加静态和/或动态的三维图像信息。
在本发明上述步骤S1002提供的技术方案中,在面部轮廓的预设位置添加静态和/或动态的三维图像信息。
该三维图像信息可以为三维装饰,通过AR眼镜在识别出的人脸轮廓中添加静态或动态的三维装饰。典型的移动端类似应用有faceu和snapchat的AR滤镜。
该实施例通过在获取第一目标对象的面部信息之后,根据第一目标对象的面部信息识别第一目标对象的面部轮廓;在面部轮廓的预设位置添加静态和/或动态的三维图像信息,增强了信息交互的趣味性。
作为一种可选的实施方式,发布交互信息至少包括以下一种或多种:发布语音形式的交互信息;发布图片形式的交互信息,其中,图片形式的交互信息包括全景图片形式的交互信息;发布视频形式的交互信息;发布三维模型的交互信息。
产生的交互信息依赖于所使用的硬件,以AR眼镜为例,比较直观快捷的内容主要包括语音形式的交互信息、普通图片形式的交互信息,视频形式的交互信息。另外还包括AR设备能力所涉及的全景图片形式的交互信息和三维模型的交互信息。
实施例2
下面结合优选的实施例对本发明的技术方案进行说明。
本发明实施例优选适用于拥有前置摄像头的AR眼镜设备,比如,微软HoloLens。但本发明实施例并不限于AR眼镜设备,还可以为移动通讯终端、PC端,理论上在拥有摄像头的设备上都适用,所不同的是易用性和交互的操作方式。
本发明实施例还提供了一种增强现实社交系统,该增强现实社交系统主要包括注册模块、信息展示与交互模块、信息产生与发布模块。
本发明实施例所包括的注册模块提供包括真实人脸的用户信息,信息展示与交互模块在识别人脸后提供AR信息的展示和交互入口,信息产生与发布模块则聚焦在用户本身的动态生成。
下面对注册模块的实现方法进行介绍。
图11是根据本发明实施例的一种信息注册的方法的流程图。如图11所示,该信息注册的方法包括以下步骤:
步骤S1101,录入基本信息。
用户在系统中注册的信息包括基本信息、人脸信息和扩展信息。其中基本信息与现有各平台的做法类似,包括但不限于昵称、姓名、性别、地址、联系方式、签名等。
步骤S1102,检测人脸。
人脸信息为本系统的关键信息,用户需要实时地自拍人脸照,系统将对接收到的面部图像信息做真实性验证。验证过程包括但不限于利用人脸检测算法验证有无人脸。如果检测到人脸,执行步骤S1103,如果没有检测到人脸,继续执行本步骤,检测人脸。该实施例的人脸检测算法本系统未指定特定方法,包括但不限于特征识别、模版识别、神经网络识别等传统算法以及超越人类对人脸识别率的GaussianFace算法。
步骤S1103,指示用户实时做出指定面部动作。
在检测到有人脸的情况下,系统提示用户实时做指定面部动作,用户根据系统提示做出实际面部动作。
步骤S1104,判断用户做的实际面部动作与指定面部动作是否相匹配。
在指示用户实时做出指定面部动作之后,判断用户做出的实际面部动作是否与指定面部动作相匹配,以验证面部图像信息的真实性。如果判断出用户做的实际面部动作与指定面部动作相匹配,执行步骤S1105,如果判断用户做出的实际面部动作与指定面部动作不匹配,执行步骤S1102,检测其他用户的人脸。
步骤S1105,进行面部深度信息检测。
在判断用户做的实际面部动作与指定面部动作是否相匹配之后,进行面部深度信息检测。
步骤S1106,判断检测到的面部图像信息是否为三维形态。
可以利用AR眼镜的深度摄像头信息检测人脸是否为三维形态,从而杜绝当前已知的伪装面部图像信息的方法,比如,在移动通讯终端等屏幕播放预先准备好的人脸信息,通过人脸信息的可动视频以欺骗注册系统。
步骤S1107,请求服务器对面部图像信息进行存储,并将面部图像信息作为面部特征数据。
在判断检测到的面部图像信息是否为三维形态之后,如果判断出检测到的面部图像信息为三维形态,请求服务器对面部图像信息进行存储,作为面部特征数据存储到面部特征数据库中,从而完成在录入基本信息之后的人脸信息的注册过程。
扩展信息包括用户提供的本人第三方社交账号信息。鉴于当前流行社交平台,比如,twitter社交平台、微博等的网络地址特点,通过第三方社交账号信息即可拉取用户在第三方社交平台发布的信息。本系统提供聚合第三方社交平台信息的拉取能力,从而供扫描方获得更丰富的存量信息。
该实施例注册的信息内容,可以根据自己的意愿,选择信息公开的程度,该信息公开的程度可以通过权限控制实现。在基本信息和扩展信息的权限控制方面,基本信息和扩展信息中的每一项信息的控制粒度至少可分为三大类,包括允许所有人可见、仅朋友可见、仅自己可见。在人脸信息本身的权限控制方面,至少也可以分为三大类,所有人可扫描、仅朋友可扫描、禁止扫描。
下面对信息展示与交互模块的实现方法进行介绍。
图12是根据本发明实施例的一种信息展示与交互的方法的流程图。如图12所示,该信息展示与交互的方法包括以下步骤:
步骤S1201,人脸扫描。
可以通过摄像头检测人脸,比如,通过AR眼镜的前置摄像头检测人脸。
步骤S1202,是否检测到人脸。
如果检测到人脸,执行步骤S1203,如果没有检测到人脸,执行步骤S1201,继续进行人脸扫描。
步骤S1203,判断系统中是否有面部特征数据。
判断系统中是否有与检测到的人脸图像信息对应的面部特征数据。如果判断出系统中没有与检测到的人脸图像信息对应的面部特征数据,执行步骤S1201,检测其他用户的人脸。如果判断出系统中有与检测到的人脸图像信息对应的面部特征数据,执行步骤S1204。
步骤S1204,判断是否有扫脸权限。
在判断系统中是否有面部特征数据之后,如果判断出系统中有与检测到的人脸图像信息对应的面部特征数据,判断是否有扫脸权限。在人脸信息扫描的权限控制方面,至少可以分为三大类,包括所有对象扫描,仅朋友扫描,禁止扫描。如果判断出具有扫脸权限,执行步骤S1205。如果判断出没有扫脸权限,执行步骤S1201,继续扫描其他用户的人脸。
步骤S1205,展示权限可见信息。
在判断是否有扫脸权限之后,如果判断出具有扫脸权限,展示权限可见信息,其中,权限可见信息包括基本信息和动态时间轴信息,其中后者即为交互入口之一,包括但不限于表情与评论。另一的主要交互入口为消息会话,记录虚拟与现实中的交流信息。
步骤S1206,判断是否有第三方平台账户信息。
步骤S1207,展示平台图标。
如果判断出有第三方平台账户信息,展示平台图标。
步骤S1208,是否接收用于指示展开平台图标的指示信息。
该指示信息包括语音指令、用户通过手势点击产生的指示指令、用户通过凝视停留产生的指示指令等。
步骤S1209,浮现所点平台的用户信息流。
在接收到用于指示展开平台图标的指示信息之后,浮现所点平台的用户信息流,从而实现了信息展示与交互。
该实施例的信息展示以扫描人脸为主入口,以语音搜索昵称、姓名等为辅,分别应用于人脸可见与不可见场景。在主入口场景下,基本流程为扫描人脸识别,浮现识别到的用户的基本信息和动态,并标注可拉取内容的其它社交平台图标,用以点击图标浮现扩展内容。
下面对信息产生与发布模块进行介绍。
产生的信息依赖于所使用的硬件,以AR眼镜为例,比较直观快捷的内容主要包括语音、普通的图片和视频。另外还包括AR设备能力所及的信息如全景图片和三维模型。
互动的信息可以为预置表情,评论等。特别的一个互动信息,利用人脸识别能力,系统可以在识别出的人脸轮廓处加静态或动态的三维装饰。典型的移动端类似应用有faceu和snapchat的AR滤镜。
发布入口主要包括个人动态信息,以及与他人的会话信息。其中,个人动态信息可以对发布做出权限控制,与他人的会话信息则包括双方的虚拟世界信息往来和记录的现实世界信息。其中权限控制部分至少分为四类,所有人可见、朋友可见、特定朋友可见、仅自己可见。人们对隐私设置有不同的需求,愿意被人看到的可使用最宽泛的可见控制权限,对隐私极其关注的可设置账户仅朋友可见杜绝不熟悉的人对自己信息的窥视。
该实施例的AR眼镜安装有脱离其它平台独立的AR应用,信息的输入和输出都在眼镜平台上完成,不同于现有社交系统的虚拟账号,交互入口主要是基于人脸的识别,简化了信息交互的过程。
实施例3
本发明实施例的应用环境可以但不限于参照上述实施例中的应用环境,本实施例中对此不再赘述。本发明实施例提供了用于实施上述信息交互方法的一种可选的具体应用。
随着AR眼镜产品的陆续落地,在AR眼镜平台上的社交形式和交互方式有了新的可能。利用眼镜的前置摄像头可以进行自动的人脸识别代替虚拟账号查找,利用眼镜的虚实叠加能力以AR的形式在真人旁边叠加展示识别到的用户的资料和社交信息,进而在现实中以及社交系统内进行互动。这就提供了一种基于人脸而非虚拟账号的新式AR社交系统。
现有的社交系统,交互以现实中不在一起的情形为主,人与人之间社交诸如熟人间遇事会点对点发送消息,另外还有不定时地查看时间轴信息流来发现兴趣信息和互动。AR社交系统自动识别人脸,更多的使用场景是在现实相遇时触发,自动展现对方信息来了解其动态。好友场景还可进一步展示双方的历史会话来唤起双方交流记忆。而非好友场景,则因了解了对方的动态及信息,更容易找到比较自然地开始交流的开场话题。
对于好友会话记录,AR社交系统不只有虚拟世界的交流,还可以包含现实世界的记忆。相比现有设备如手机、DC、DV等,AR眼镜能方便地记录现实中的语音、图像和视频。这样就把虚拟世界与现实世界的互动全部录入了AR社交系统,做到了虚实并存、丰富了系统的信息种类。并且对于AR眼镜录入的图像、视频内容,用户所见即所得,不必像移动手机平台一样在记录时来回在屏幕与现实之间切换注意力。而在回顾时,体验到的正是当初记录时的视角,带来更真实的感觉。
图13是根据本发明实施例的一种基本信息展示的示意图。如图13所示,AR眼镜扫描到现实世界的人脸,识别后自动在人脸一侧浮现出用户基本信息,比如,用户的姓名“Melissa Banks”,用户的国家“Hometown:Chicaga”,用户的生日“Birthday:May,23,1987”等信息叠加在现实场景中,还可以显示添加朋友“Add friend”和消息“Message”。其中,只有用户基本信息为虚拟,其它景象为现实场景中真实存在的景象,从而达到了虚实结合的目的。
图14是根据本发明实施例的另一种基本信息展示的示意图。如图14所示,向下翻动或点击出个人动态,二维布局示例如下:以上信息是叠加在现实世界中的虚拟内容,系统的个人动态以时间轴为序依次浮现,有第三方可用平台聚合信息则在置底处图标展示。点击平台图标后则在上图中切换为该平台时间轴信息流。
在系统的个人动态中,允许有权限的用户进行互动,包括但不限于表情与评论。表情指单个的不含文字的静态或动态或三维预置图片。评论则为富媒体,包括文字、语音、图片等用户自由组织的信息。
图15是根据本发明实施例的一种AR信息展示的示意图。如图15所示,AR的信息展现方式为球面,从而提高了信息展示的趣味性。
图16是根据本发明实施例的另一种AR信息展示的示意图。如图16所示,AR的展现方式可以为三维螺旋、圆柱,从而提高可信息展示的趣味性。
需要说明的是,无论是个人动态,或者用户的互动信息,在AR的世界里,除了上述普通二维布局外,充分利用AR的三维展现能力,给用户提供更有趣的展现方式。包括但不限于三维螺旋、球面、圆柱。
该实施例抛开了虚拟账号,提供了一种基于现实中人脸的增强现实社交新玩法。
在熟人圈子中,常见的如同学、朋友、同事甚至家人,在见面、偶遇、擦肩而过等现实中碰面时刻,通常不会去打开社交软件去搜索和了解对方的动态,以及上次交流过的内容。本方案则提供了一种自然便捷的方式,相遇时眼镜内自动显示对方信息、动态和彼此的交流会话。一方面,作为“提词器”,这些信息本身有着唤起此前交流记忆、了解对方最新动态的作用,也给现实中的交流提供了更多的话题和背景信息。另一方面,作为“录音笔”,现实中的重要交流,也能够被回馈到系统中,作为记忆保存。
在陌生人情况下,本系统可能会对生人变熟带来有益的促进效果。而系统再提供了对被扫描者的通知,让被扫者了解谁在扫描自己,预计会促进产生更多社交行为。
需要说明的是,该实施例最适用于拥有前置摄像头的AR眼镜设备,用户携带、操作方便,提升用户的体验性能,但本发明实施例并不限于AR眼镜设备,拥有摄像头的设备都可以适用,但在易用性和交互操作方式有区别。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例4
根据本发明实施例,还提供了一种用于实施上述信息交互方法的信息交互装置。图17是根据本发明实施例的一种信息交互装置的示意图。如图17所示,该信息交互装置可以包括:第一获取单元10、第二获取单元20、接收单元30和发布单元40。
第一获取单元10,用于在增强现实应用中,获取第一目标对象的面部信息。
第二获取单元20,用于根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为。
接收单元30,用于接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互。
发布单元40,用于发布交互信息。
可选地,接收单元30包括:第一接收模块,用于接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息;和/或第二接收模块,用于接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息。
可选地,该信息交互装置还包括:第一存储单元,用于在接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息之后,存储真实交互信息至预设存储位置;和/或第二存储单元,用于在接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息之后,存储虚拟交互信息至预设存储位置。
可选地,上述真实交互信息至少包括以下一种或多种:在现实场景下的语音信息;在现实场景下的图像信息;在现实场景下的视频信息。
可选地,第一获取单元10用于扫描第一目标对象的面部,得到第一目标对象的面部信息;第二获取单元20用于根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息。
可选地,第二获取单元20包括:第一确定模块、第二确定模块和显示模块。其中,第一确定模块,用于确定第一目标对象在现实场景中的当前空间位置;第二确定模块,用于根据当前空间位置确定目标信息在现实场景中的显示空间位置;显示模块,用于在显示空间位置显示目标信息。
可选地,显示模块用于执行以下至少之一:在目标信息包括用户资料信息时,在第一显示空间位置显示第一目标对象的用户资料信息;在目标信息包括个人动态信息时,在第二显示空间位置显示第一目标对象的个人动态信息;在目标信息包括扩展信息时,在第三显示空间位置显示第一目标对象的扩展信息;在目标信息包括历史交互信息时,在第四显示空间显示位置显示第二目标对象与第一目标对象在历史交互过程中产生的历史交互信息。
图18是根据本发明实施例的另一种信息交互装置的示意图。如图18所示,该信息交互装置可以包括:第一获取单元10、第二获取单元20、接收单元30和发布单元40。其中,第二获取单元20包括:扫描模块21、第一判断模块22、第二判断模块23和显示模块24。
需要说明的是,该实施例的第一获取单元10、第二获取单元20、接收单元30和发布单元40与图17所示实施例的信息交互装置中的作用相同,此处不再赘述。
扫描模块21,用于扫描面部。
第一判断模块22,用于在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据。
第二判断模块23,用于在判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据时,判断第一目标对象的面部扫描权限是否为允许扫描。
显示模块24,用于在判断出第一目标对象的面部扫描权限为允许时,在预设空间位置显示可见信息,其中,可见信息至少包括第一目标对象的用户资料信息。
可选地,可见信息包括第一目标对象的扩展信息,显示模块24包括:判断子模块、第一接收子模块和第一展示子模块。其中,判断子模块,用于判断第一目标对象是否具有第三方平台的账户信息,其中,扩展信息包括账户信息;第一接收子模块,用于在判断出第一目标对象具有第三方平台的账户信息,接收用于指示展示与账户信息对应的扩展内容的第一展示指令;第一展示子模块,用于在接收第一展示指令之后,在预设空间位置展示扩展内容。
可选地,可见信息包括第一目标对象的个人动态信息,显示模块24包括:第二接收子模块和第二展示子模块。其中,第二接收子模块用于接收用于指示展示个人动态信息的第二展示指令;第二展示子模块用于在接收第二展示指令之后,在预设空间位置展示个人动态信息。
可选地,该信息交互装置还包括:第一请求单元,用于在获取第一目标对象的面部信息之前,向服务器发送第一请求,其中,第一请求携带与第一目标对象的面部信息相匹配的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据,该装置还至少包括:第二请求单元,用于向服务器发送第二请求,其中,第二请求携带第一目标对象的用户资料信息,服务器响应第二请求,并存储第一目标对象的用户资料信息;和/或第三请求单元,用于向服务器发送第三请求,其中,第三请求携带第一目标对象的扩展信息,服务器响应第三请求,并存储第一目标对象的扩展信息。
可选地,第一请求单元包括:第一检测模块、第一发送模块、第三判断模块、第二检测模块、获取模块和第二发送模块。其中,第一检测模块,用于检测面部;第一发送模块,用于在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令,其中,第一目标对象根据指示指令执行面部动作,得到实际面部动作;第三判断模块,用于判断实际面部动作是否与预设面部动作相匹配;第二检测模块,用于在判断出实际面部动作与预设面部动作相匹配时,检测第一目标对象的面部是否为三维形态;获取模块,用于在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据;第二发送模块,用于根据面部特征数据向服务器发送所述第一请求;第二获取单元20用于根据第一目标对象的面部信息请求服务器根据面部特征数据下发目标信息,接收目标信息。
可选地,该信息交互装置还用于在接收第二目标对象根据目标信息发送的交互信息之前,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,其中,用户资料信息包括搜索信息;根据搜索信息获取目标信息。
可选地,该信息获取装置还包括:识别单元和添加单元。其中,识别单元,用于在获取第一目标对象的面部信息之后,根据第一目标对象的面部信息识别第一目标对象的面部轮廓;添加单元,用于在面部轮廓的预设位置添加静态和/或动态的三维图像信息。
可选地,发布单元40用于执行以下至少之一:发布语音形式的交互信息;发布图片形式的交互信息,其中,图片形式的交互信息包括全景图片形式的交互信息;发布视频形式的交互信息;发布三维模型的交互信息。
需要说明的是,该实施例中的第一获取单元10可以用于执行本申请实施例1中的步骤S302,该实施例中的第二获取单元20可以用于执行本申请实施例1中的步骤S304,该实施例中的接收单元30可以用于执行本申请实施例1中的步骤S306,该实施例中的发布单元40可以用于执行本申请实施例1中的步骤S308。
该实施例通过第一获取单元10在增强现实应用中,获取第一目标对象的面部信息,通过第二获取单元20根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为,通过接收单元30接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互,通过发布单元40发布交互信息,达到了信息交互的目的,从而实现了简化信息的交互过程的技术效果,进而解决了相关技术信息交互的过程复杂的技术问题。
此处需要说明的是,上述单元和模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图2所示的硬件环境中,可以通过软件实现,也可以通过硬件实现,其中,硬件环境包括网络环境。
实施例5
根据本发明实施例,还提供了一种用于实施上述信息交互方法的服务器或终端。
图19是根据本发明实施例的一种终端的结构框图。如图19所示,该终端可以包括:一个或多个(图中仅示出一个)处理器191、存储器193、以及传输装置195,如图19所示,该终端还可以包括输入输出设备197。
其中,存储器193可用于存储软件程序以及模块,如本发明实施例中的信息交互方法和装置对应的程序指令/模块,处理器191通过运行存储在存储器193内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的信息交互方法。存储器193可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器193可进一步包括相对于处理器191远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置195用于经由一个网络接收或者发送数据,还可以用于处理器与存储器之间的数据传输。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置195包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置195为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器193用于存储应用程序。
处理器191可以通过传输装置195调用存储器193存储的应用程序,以执行下述步骤:
在增强现实应用中,获取第一目标对象的面部信息;
根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;
接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;
发布交互信息。
处理器191还用于执行下述步骤:接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息;和/或接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息。
处理器191还用于执行下述步骤:在接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息之后,存储真实交互信息至预设存储位置;和/或在接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息之后,存储虚拟交互信息至预设存储位置。
处理器191还用于执行下述步骤:扫描第一目标对象的面部,得到第一目标对象的面部信息;根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息。
处理器191还用于执行下述步骤:确定第一目标对象在现实场景中的当前空间位置;根据当前空间位置确定目标信息在现实场景中的显示空间位置;在显示空间位置显示目标信息。
处理器191还用于执行下述步骤之一:在目标信息包括用户资料信息时,在第一显示空间位置显示第一目标对象的用户资料信息;在目标信息包括个人动态信息时,在第二显示空间位置显示第一目标对象的个人动态信息;在目标信息包括扩展信息时,在第三显示空间位置显示第一目标对象的扩展信息;在目标信息包括历史交互信息时,在第四显示空间显示位置显示第二目标对象与第一目标对象在历史交互过程中产生的历史交互信息。
处理器191还用于执行下述步骤:扫描面部;在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据;如果判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据,判断第一目标对象的面部扫描权限是否为允许扫描;如果判断出第一目标对象的面部扫描权限为允许扫描,在预设空间位置显示可见信息。
处理器191还用于执行下述步骤:判断第一目标对象是否具有第三方平台的账户信息,其中,扩展信息包括账户信息;如果判断出第一目标对象具有第三方平台的账户信息,接收用于指示展示与账户信息对应的扩展内容的第一展示指令;在接收第一展示指令之后,在预设空间位置展示扩展内容。
处理器191还用于执行下述步骤:接收用于指示展示个人动态信息的第二展示指令;在接收第二展示指令之后,在预设空间位置展示个人动态信息。处理器191还用于执行下述步骤:在获取第一目标对象的面部信息之前,向服务器发送第一请求,其中,第一请求携带与第一目标对象的面部信息相匹配的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据,处理器191还用于至少执行下述步骤:向服务器发送第二请求,其中,第二请求携带第一目标对象的用户资料信息,服务器响应第二请求,并存储第一目标对象的用户资料信息;和/或向服务器发送第三请求,其中,第三请求携带第一目标对象的扩展信息,服务器响应第三请求,并存储第一目标对象的扩展信息。
处理器191还用于执行下述步骤:检测面部;在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令,其中,第一目标对象根据指示指令执行面部动作,得到实际面部动作;判断实际面部动作是否与预设面部动作相匹配;如果判断出实际面部动作与预设面部动作相匹配,检测第一目标对象的面部是否为三维形态;在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据;根据面部特征数据向服务器发送第一请求,服务器响应第一请求,并存储第一目标对象的面部特征数据;其中,根据第一目标对象的面部信息获取第一目标对象的目标信息包括:根据第一目标对象的面部信息请求服务器根据面部特征数据下发目标信息;接收目标信息。
处理器191还用于执行下述步骤:在接收第二目标对象根据目标信息发送的交互信息之前,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,其中,用户资料信息包括搜索信息;根据搜索信息获取目标信息。
处理器191还用于执行下述步骤:在获取第一目标对象的面部信息之后,根据第一目标对象的面部信息识别第一目标对象的面部轮廓;在面部轮廓的预设位置添加静态和/或动态的三维图像信息。
处理器191还用于执行下述步骤至少之一:发布语音形式的交互信息;发布图片形式的交互信息,其中,图片形式的交互信息包括全景图片形式的交互信息;发布视频形式的交互信息;发布三维模型的交互信息。
采用本发明实施例,提供了一种信息交互方法。通过在增强现实应用中,获取第一目标对象的面部信息;根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;发布交互信息,达到了信息交互的目的,从而实现了简化信息的交互过程的技术效果,进而解决了相关技术信息交互的过程复杂的技术问题。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图19所示的结构仅为示意,终端可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile InternetDevices,MID)、PAD等终端设备。图19其并不对上述电子装置的结构造成限定。例如,终端还可包括比图19中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图17所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
实施例6
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于执行信息交互方法的程序代码。
可选地,在本实施例中,上述存储介质可以位于上述实施例所示的网络中的多个网络设备中的至少一个网络设备上。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
在增强现实应用中,获取第一目标对象的面部信息;
根据第一目标对象的面部信息获取第一目标对象的目标信息,其中,目标信息用于指示第一目标对象的社交行为;
接收第二目标对象根据目标信息发送的交互信息,其中,交互信息用于指示第二目标对象与第一目标对象进行交互;
发布交互信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息;和/或接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在接收第二目标对象根据目标信息发送的在现实场景下的真实交互信息之后,存储真实交互信息至预设存储位置;和/或在接收第二目标对象根据目标信息发送的在虚拟场景下的虚拟交互信息之后,存储虚拟交互信息至预设存储位置。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:扫描第一目标对象的面部,得到第一目标对象的面部信息;根据第一目标对象的面部信息在现实场景的预设空间位置显示目标信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:确定第一目标对象在现实场景中的当前空间位置;根据当前空间位置确定目标信息在现实场景中的显示空间位置;在显示空间位置显示目标信息。
可选地,存储介质还被设置为存储用于执行以下步骤之一的程序代码:在目标信息包括用户资料信息时,在第一显示空间位置显示第一目标对象的用户资料信息;在目标信息包括个人动态信息时,在第二显示空间位置显示第一目标对象的个人动态信息;在目标信息包括扩展信息时,在第三显示空间位置显示第一目标对象的扩展信息;在目标信息包括历史交互信息时,在第四显示空间显示位置显示第二目标对象与第一目标对象在历史交互过程中产生的历史交互信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:扫描面部;在扫描到第一目标对象的面部的情况下,判断服务器中是否存储与第一目标对象的面部信息相匹配的面部特征数据;如果判断出服务器中存储与第一目标对象的面部信息相匹配的面部特征数据,判断第一目标对象的面部扫描权限是否为允许扫描;如果判断出第一目标对象的面部扫描权限为允许扫描,在预设空间位置显示可见信息,其中,可见信息至少包括第一目标对象的用户资料信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:判断第一目标对象是否具有第三方平台的账户信息,其中,扩展信息包括账户信息;如果判断出第一目标对象具有第三方平台的账户信息,接收用于指示展示与账户信息对应的扩展内容的第一展示指令;在接收第一展示指令之后,在预设空间位置展示扩展内容。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:接收用于指示展示个人动态信息的第二展示指令;在接收第二展示指令之后,在预设空间位置展示个人动态信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在获取第一目标对象的面部信息之前,向服务器发送第一请求,其中,第一请求携带与第一目标对象的面部信息相匹配的面部特征数据,服务器响应第一请求,并存储第一目标对象的面部特征数据,存储介质还被设置为存储用于至少执行以下步骤:向服务器发送第二请求,其中,第二请求携带第一目标对象的用户资料信息,服务器响应第二请求,并存储第一目标对象的用户资料信息;和/或向服务器发送第三请求,其中,第三请求携带第一目标对象的扩展信息,服务器响应第三请求,并存储第一目标对象的扩展信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:检测面部;在检测到第一目标对象的面部的情况下,发出用于指示第一目标对象执行预设面部动作的指示指令,其中,第一目标对象根据指示指令执行面部动作,得到实际面部动作;判断实际面部动作是否与预设面部动作相匹配;如果判断出实际面部动作与预设面部动作相匹配,检测第一目标对象的面部是否为三维形态;在检测到第一目标对象的面部为三维形态的情况下,获取第一目标对象的面部特征数据;根据面部特征数据向服务器发送第一请求,服务器响应第一请求,并存储第一目标对象的面部特征数据;其中,根据第一目标对象的面部信息获取第一目标对象的目标信息包括:根据第一目标对象的面部信息请求服务器根据面部特征数据下发目标信息;接收目标信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在接收第二目标对象根据目标信息发送的交互信息之前,在第一目标对象的面部不可见的情况下,接收用于指示搜索目标信息的搜索信息,其中,用户资料信息包括搜索信息;根据搜索信息获取目标信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:在获取第一目标对象的面部信息之后,根据第一目标对象的面部信息识别第一目标对象的面部轮廓;在面部轮廓的预设位置添加静态和/或动态的三维图像信息。
可选地,存储介质还被设置为存储用于执行以下步骤的程序代码:发布语音形式的交互信息;发布图片形式的交互信息,其中,图片形式的交互信息包括全景图片形式的交互信息;发布视频形式的交互信息;发布三维模型的交互信息。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (20)

1.一种信息交互方法,其特征在于,包括:
在增强现实应用中,获取第一目标对象的面部信息;
根据所述第一目标对象的面部信息获取所述第一目标对象的目标信息,其中,所述目标信息用于指示所述第一目标对象的社交行为;
接收第二目标对象根据所述目标信息发送的交互信息,其中,所述交互信息用于指示所述第二目标对象与所述第一目标对象进行交互;
发布所述交互信息。
2.根据权利要求1所述的方法,其特征在于,接收所述第二目标对象根据所述目标信息发送的所述交互信息包括:
接收所述第二目标对象根据所述目标信息发送的在现实场景下的真实交互信息;和/或
接收所述第二目标对象根据所述目标信息发送的在虚拟场景下的虚拟交互信息。
3.根据权利要求2所述的方法,其特征在于,
在接收所述第二目标对象根据所述目标信息发送的在所述现实场景下的所述真实交互信息之后,所述方法还包括:存储所述真实交互信息至预设存储位置;和/或
在接收所述第二目标对象根据所述目标信息发送的在所述虚拟场景下的所述虚拟交互信息之后,所述方法还包括:存储所述虚拟交互信息至所述预设存储位置。
4.根据权利要求2所述的方法,其特征在于,所述真实交互信息至少包括以下一种或多种:
在所述现实场景下的语音信息;
在所述现实场景下的图像信息;
在所述现实场景下的视频信息。
5.根据权利要求1所述的方法,其特征在于,
获取所述第一目标对象的面部信息包括:扫描所述第一目标对象的面部,得到所述第一目标对象的面部信息;
根据所述第一目标对象的面部信息获取所述第一目标对象的目标信息包括:根据所述第一目标对象的面部信息在现实场景的预设空间位置显示所述目标信息。
6.根据权利要求5所述的方法,其特征在于,根据所述第一目标对象的面部信息在所述现实场景的所述预设空间位置显示所述目标信息包括:
确定所述第一目标对象在所述现实场景中的当前空间位置;
根据所述当前空间位置确定所述目标信息在所述现实场景中的显示空间位置;
在所述显示空间位置显示所述目标信息。
7.根据权利要求6所述的方法,其特征在于,在所述显示空间位置显示所述目标信息至少包括以下一种或多种:
在所述目标信息包括用户资料信息时,在第一显示空间位置显示所述第一目标对象的所述用户资料信息;
在所述目标信息包括个人动态信息时,在第二显示空间位置显示所述第一目标对象的所述个人动态信息;
在所述目标信息包括扩展信息时,在第三显示空间位置显示所述第一目标对象的所述扩展信息;
在所述目标信息包括历史交互信息时,在第四显示空间显示位置显示所述第二目标对象与所述第一目标对象在历史交互过程中产生的所述历史交互信息。
8.根据权利要求5所述的方法,其特征在于,根据所述第一目标对象的面部信息在所述现实场景的所述预设空间位置显示所述目标信息包括:
扫描面部;
在扫描到所述第一目标对象的面部的情况下,判断服务器中是否存储与所述第一目标对象的面部信息相匹配的面部特征数据;
如果判断出所述服务器中存储与所述第一目标对象的面部信息相匹配的所述面部特征数据,判断所述第一目标对象的面部扫描权限是否为允许扫描;
如果判断出所述第一目标对象的面部扫描权限为允许扫描,在所述预设空间位置显示所述第一目标对象在权限范围内的可见信息,其中,所述可见信息至少包括所述第一目标对象的用户资料信息。
9.根据权利要求8所述的方法,其特征在于,所述可见信息包括所述第一目标对象的扩展信息,在所述预设空间位置显示所述第一目标对象在所述权限范围内的可见信息包括:
判断所述第一目标对象是否具有第三方平台的账户信息,其中,所述扩展信息包括所述账户信息;
如果判断出所述第一目标对象具有所述第三方平台的所述账户信息,接收用于指示展示与所述账户信息对应的扩展内容的第一展示指令;
在接收所述第一展示指令之后,在所述预设空间位置展示在所述权限范围内的所述扩展内容。
10.根据权利要求8所述的方法,其特征在于,所述可见信息包括所述第一目标对象的个人动态信息,在所述预设空间位置显示所述第一目标对象在所述权限范围内的可见信息包括:
接收用于指示展示所述个人动态信息的第二展示指令;
在接收所述第二展示指令之后,在所述预设空间位置展示在所述权限范围内的所述个人动态信息。
11.根据权利要求1所述的方法,其特征在于,在获取所述第一目标对象的面部信息之前,向服务器发送第一请求,其中,所述第一请求携带与所述第一目标对象的面部信息相匹配的面部特征数据,所述服务器响应所述第一请求,并存储所述第一目标对象的面部特征数据,所述方法还包括:
向所述服务器发送第二请求,其中,所述第二请求携带所述第一目标对象的用户资料信息,所述服务器响应所述第二请求,并存储所述第一目标对象的用户资料信息;和/或
向所述服务器发送第三请求,其中,所述第三请求携带所述第一目标对象的扩展信息,所述服务器响应所述第三请求,并存储所述第一目标对象的扩展信息。
12.根据权利要求11所述的方法,其特征在于,向所述服务器发送所述第一请求包括:
检测面部;
在检测到所述第一目标对象的面部的情况下,发出用于指示所述第一目标对象执行预设面部动作的指示指令,其中,所述第一目标对象根据所述指示指令执行面部动作,得到实际面部动作;
判断所述实际面部动作是否与所述预设面部动作相匹配;
如果判断出所述实际面部动作与所述预设面部动作相匹配,检测所述第一目标对象的面部是否为三维形态;
在检测到所述第一目标对象的面部为所述三维形态的情况下,获取所述第一目标对象的所述面部特征数据;
根据所述面部特征数据向所述服务器发送所述第一请求;
其中,根据所述第一目标对象的面部信息获取所述第一目标对象的目标信息包括:根据所述第一目标对象的面部信息请求所述服务器根据所述面部特征数据下发所述目标信息;接收所述目标信息。
13.根据权利要求11所述的方法,其特征在于,在接收所述第二目标对象根据所述目标信息发送的所述交互信息之前,所述方法还包括:
在所述第一目标对象的面部不可见的情况下,接收用于指示搜索所述目标信息的搜索信息,其中,所述用户资料信息包括所述搜索信息;
根据所述搜索信息获取所述目标信息。
14.根据权利要求1至13中任意一项所述的方法,其特征在于,在获取所述第一目标对象的面部信息之后,所述方法还包括:
根据所述第一目标对象的面部信息识别所述第一目标对象的面部轮廓;
在所述面部轮廓的预设位置添加静态和/或动态的三维图像信息。
15.根据权利要求1至13中任意一项所述的方法,其特征在于,发布所述交互信息至少包括以下一种或多种:
发布语音形式的交互信息;
发布图片形式的交互信息,其中,所述图片形式的交互信息包括全景图片形式的交互信息;
发布视频形式的交互信息;
发布三维模型的交互信息。
16.一种信息交互装置,其特征在于,包括:
第一获取单元,用于在增强现实应用中,获取第一目标对象的面部信息;
第二获取单元,用于根据所述第一目标对象的面部信息获取所述第一目标对象的目标信息,其中,所述目标信息用于指示所述第一目标对象的社交行为;
接收单元,用于接收第二目标对象根据所述目标信息发送的交互信息,其中,所述交互信息用于指示所述第二目标对象与所述第一目标对象进行交互;
发布单元,用于发布所述交互信息。
17.根据权利要求16所述的装置,其特征在于,所述接收单元包括:
第一接收模块,用于接收所述第二目标对象根据所述目标信息发送的在现实场景下的真实交互信息;和/或
第二接收模块,用于接收所述第二目标对象根据所述目标信息发送的在虚拟场景下的虚拟交互信息。
18.根据权利要求17所述的装置,其特征在于,所述装置还包括:
第一存储单元,用于在接收所述第二目标对象根据所述目标信息发送的在所述现实场景下的所述真实交互信息之后,存储所述真实交互信息至预设存储位置;和/或
第二存储单元,用于在接收所述第二目标对象根据所述目标信息发送的在所述虚拟场景下的所述虚拟交互信息之后,存储所述虚拟交互信息至所述预设存储位置。
19.根据权利要求16所述的装置,其特征在于,
所述第一获取单元用于扫描所述第一目标对象的面部,得到所述第一目标对象的面部信息;
所述第二获取单元用于根据所述第一目标对象的面部信息在现实场景的预设空间位置显示所述目标信息。
20.根据权利要求19所述的装置,其特征在于,所述第二获取单元包括:
扫描模块,用于扫描所述面部;
第一判断模块,用于在扫描到所述第一目标对象的面部的情况下,判断服务器中是否存储与所述第一目标对象的面部信息相匹配的面部特征数据;
第二判断模块,用于在判断出所述服务器中存储与所述第一目标对象的面部信息相匹配的所述面部特征数据时,判断所述第一目标对象的面部扫描权限是否为允许扫描;
显示模块,用于在判断出所述第一目标对象的面部扫描权限为允许扫描,在所述预设空间位置显示可见信息,其中,所述可见信息至少包括所述第一目标对象的用户资料信息。
CN201611064419.9A 2016-11-25 2016-11-25 信息交互方法和装置 Active CN108108012B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201611064419.9A CN108108012B (zh) 2016-11-25 2016-11-25 信息交互方法和装置
PCT/CN2017/115058 WO2018095439A1 (zh) 2016-11-25 2017-12-07 信息交互方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611064419.9A CN108108012B (zh) 2016-11-25 2016-11-25 信息交互方法和装置

Publications (2)

Publication Number Publication Date
CN108108012A true CN108108012A (zh) 2018-06-01
CN108108012B CN108108012B (zh) 2019-12-06

Family

ID=62194802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611064419.9A Active CN108108012B (zh) 2016-11-25 2016-11-25 信息交互方法和装置

Country Status (2)

Country Link
CN (1) CN108108012B (zh)
WO (1) WO2018095439A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109274575A (zh) * 2018-08-08 2019-01-25 阿里巴巴集团控股有限公司 消息发送方法及装置和电子设备
CN109276887A (zh) * 2018-09-21 2019-01-29 腾讯科技(深圳)有限公司 虚拟对象的信息显示方法、装置、设备及存储介质
CN110650081A (zh) * 2019-08-22 2020-01-03 南京洁源电力科技发展有限公司 一种虚拟现实即时通讯方法
CN111093033A (zh) * 2019-12-31 2020-05-01 维沃移动通信有限公司 一种信息处理方法及设备
CN111240471A (zh) * 2019-12-31 2020-06-05 维沃移动通信有限公司 信息交互方法及穿戴式设备
CN111355644A (zh) * 2020-02-19 2020-06-30 珠海格力电器股份有限公司 一种在不同空间之间进行信息交互的方法及系统
WO2022041173A1 (zh) * 2020-08-29 2022-03-03 上海量明科技发展有限公司 弱社交方法、客户端及系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367402B (zh) * 2018-12-26 2023-04-18 阿里巴巴集团控股有限公司 任务触发方法、交互设备及计算机设备
CN111385337B (zh) * 2018-12-29 2023-04-07 阿里巴巴集团控股有限公司 跨空间互动方法、装置、设备、服务端及系统
US10841127B1 (en) 2019-05-17 2020-11-17 Sensata Technologies, Inc. Tractor trailer vehicle area network with trailer sub-network
CN114697686B (zh) * 2020-12-25 2023-11-21 北京达佳互联信息技术有限公司 一种线上互动方法、装置、服务器及存储介质
CN112817830B (zh) * 2021-03-01 2024-05-07 北京车和家信息技术有限公司 设置项的展示方法、装置、介质、设备、显示系统及车辆

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102867008A (zh) * 2011-07-06 2013-01-09 宏碁股份有限公司 基于增强现实和远端计算的识别系统和方法
CN103049520A (zh) * 2011-12-19 2013-04-17 微软公司 利用照片来发起及施行动作
CN103412953A (zh) * 2013-08-30 2013-11-27 苏州跨界软件科技有限公司 基于增强现实的社交方法
KR20140015946A (ko) * 2012-07-27 2014-02-07 김소영 증강 현실을 이용한 정치인 홍보 시스템 및 방법
CN103870485A (zh) * 2012-12-13 2014-06-18 华为终端有限公司 实现增强现实应用的方法及设备
CN103942049A (zh) * 2014-04-14 2014-07-23 百度在线网络技术(北京)有限公司 增强现实的实现方法、客户端装置和服务器
CN104426933A (zh) * 2013-08-23 2015-03-18 华为终端有限公司 一种筛选增强现实内容的方法、装置及系统
CN105320282A (zh) * 2015-12-02 2016-02-10 广州经信纬通信息科技有限公司 一种基于增强现实的图像识别解决方法
CN105323252A (zh) * 2015-11-16 2016-02-10 上海璟世数字科技有限公司 基于增强现实技术实现互动的方法、系统和终端
CN105684045A (zh) * 2013-11-13 2016-06-15 索尼公司 显示控制装置、显示控制方法和程序
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106100983A (zh) * 2016-08-30 2016-11-09 黄在鑫 一种基于增强现实与gps定位技术的移动社交网络系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7684651B2 (en) * 2006-08-23 2010-03-23 Microsoft Corporation Image-based face search
US8392957B2 (en) * 2009-05-01 2013-03-05 T-Mobile Usa, Inc. Automatic content tagging, such as tagging digital images via a wireless cellular network using metadata and facial recognition
CN103970804B (zh) * 2013-02-06 2018-10-30 腾讯科技(深圳)有限公司 一种信息查询方法及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102867008A (zh) * 2011-07-06 2013-01-09 宏碁股份有限公司 基于增强现实和远端计算的识别系统和方法
CN103049520A (zh) * 2011-12-19 2013-04-17 微软公司 利用照片来发起及施行动作
KR20140015946A (ko) * 2012-07-27 2014-02-07 김소영 증강 현실을 이용한 정치인 홍보 시스템 및 방법
CN103870485A (zh) * 2012-12-13 2014-06-18 华为终端有限公司 实现增强现实应用的方法及设备
CN104426933A (zh) * 2013-08-23 2015-03-18 华为终端有限公司 一种筛选增强现实内容的方法、装置及系统
CN103412953A (zh) * 2013-08-30 2013-11-27 苏州跨界软件科技有限公司 基于增强现实的社交方法
CN105684045A (zh) * 2013-11-13 2016-06-15 索尼公司 显示控制装置、显示控制方法和程序
CN103942049A (zh) * 2014-04-14 2014-07-23 百度在线网络技术(北京)有限公司 增强现实的实现方法、客户端装置和服务器
CN105323252A (zh) * 2015-11-16 2016-02-10 上海璟世数字科技有限公司 基于增强现实技术实现互动的方法、系统和终端
CN105320282A (zh) * 2015-12-02 2016-02-10 广州经信纬通信息科技有限公司 一种基于增强现实的图像识别解决方法
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106100983A (zh) * 2016-08-30 2016-11-09 黄在鑫 一种基于增强现实与gps定位技术的移动社交网络系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109274575A (zh) * 2018-08-08 2019-01-25 阿里巴巴集团控股有限公司 消息发送方法及装置和电子设备
CN109276887A (zh) * 2018-09-21 2019-01-29 腾讯科技(深圳)有限公司 虚拟对象的信息显示方法、装置、设备及存储介质
US11498000B2 (en) 2018-09-21 2022-11-15 Tencent Technology (Shenzhen) Company Limited Information display method and apparatus for virtual object, device, and storage medium
CN110650081A (zh) * 2019-08-22 2020-01-03 南京洁源电力科技发展有限公司 一种虚拟现实即时通讯方法
CN111093033A (zh) * 2019-12-31 2020-05-01 维沃移动通信有限公司 一种信息处理方法及设备
CN111240471A (zh) * 2019-12-31 2020-06-05 维沃移动通信有限公司 信息交互方法及穿戴式设备
CN111355644A (zh) * 2020-02-19 2020-06-30 珠海格力电器股份有限公司 一种在不同空间之间进行信息交互的方法及系统
WO2022041173A1 (zh) * 2020-08-29 2022-03-03 上海量明科技发展有限公司 弱社交方法、客户端及系统

Also Published As

Publication number Publication date
CN108108012B (zh) 2019-12-06
WO2018095439A1 (zh) 2018-05-31

Similar Documents

Publication Publication Date Title
CN108108012A (zh) 信息交互方法和装置
KR102292537B1 (ko) 이미지 처리 방법 및 장치, 및 저장 매체
CN110134484B (zh) 消息图标的显示方法、装置、终端及存储介质
CN105095873B (zh) 照片共享方法、装置
CN101874404B (zh) 用于语音和视频通信的增强接口
CN109691054A (zh) 动画用户标识符
CN111527525A (zh) 混合现实服务提供方法及系统
EP2448200A1 (en) Method, device and system for enabling interaction between video and virtual network scene
CN110460799A (zh) 创意相机
EP3746924A1 (en) Method and system for 3d graphical authentication on electronic devices
CN107111889A (zh) 使用交互式滤波器的图像的方法和系统
CN107911736A (zh) 直播互动方法及系统
CN109416591A (zh) 用于增强型用户交互的图像数据
US20210089639A1 (en) Method and system for 3d graphical authentication on electronic devices
CN106156237B (zh) 信息处理方法、信息处理装置及用户设备
CN106339947A (zh) 基于聊天群进行业务操作、获取群成员信息的方法及装置
CN109254650A (zh) 一种人机交互方法和装置
CN106162303B (zh) 信息处理方法、信息处理装置及用户设备
CN106331355A (zh) 一种信息处理的方法及装置
KR20200097637A (ko) 시뮬레이션 모래상자 시스템
CN113518264A (zh) 互动方法、装置、终端及存储介质
EP3272127B1 (en) Video-based social interaction system
CN106445324A (zh) 一种照片发送方法及装置
CN110198477A (zh) 一种线下弹幕的交互方法、弹幕服务端及交互系统
CN112272328B (zh) 弹幕推荐方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant