CN111339938A - 信息交互方法、装置、设备及存储介质 - Google Patents
信息交互方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111339938A CN111339938A CN202010118423.9A CN202010118423A CN111339938A CN 111339938 A CN111339938 A CN 111339938A CN 202010118423 A CN202010118423 A CN 202010118423A CN 111339938 A CN111339938 A CN 111339938A
- Authority
- CN
- China
- Prior art keywords
- target object
- information
- target
- feature
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
- A63F2300/1075—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了信息交互方法、装置、设备及存储介质,属于计算机技术领域。方法包括:获取目标对象的形象信息;基于目标对象的形象信息,确定目标对象的第一特征;基于第一特征,获取与目标对象对应的目标虚拟形象;在交互界面利用目标虚拟形象与目标对象进行信息交互。在此种交互过程中,第一特征是根据目标对象的形象信息确定的,不同的对象可能具有不同的第一特征,也就可能对应不同的虚拟形象。虚拟形象较丰富,利用不同的虚拟形象与不同的对象进行信息交互,有利于吸引更多的对象利用虚拟形象进行信息交互,使得利用虚拟形象进行信息交互的交互方式的使用率较高,有利于提高用户转换率,信息交互的效果较好。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种信息交互方法、装置、设备及存储介质。
背景技术
随着智能技术的发展,越来越多的终端可以利用虚拟形象与用户进行信息交互,为用户提供便利服务。例如,终端可以利用虚拟形象与用户进行语音信息交互,为用户提供导航服务等。
在相关技术中,虚拟形象是固定的,终端利用固定的虚拟形象与不同的用户进行交互。也就是说,与每个用户进行交互的虚拟形象是相同的,虚拟形象单一,难以吸引更多用户利用虚拟形象进行信息交互,利用虚拟形象进行信息交互的信息交互方式的使用率较低,用户转化率较低,信息交互的效果较差。
发明内容
本申请实施例提供了一种信息交互方法、装置、设备及存储介质,可用于提高信息交互的效果。所述技术方案如下:
一方面,本申请实施例提供了一种信息交互方法,所述方法包括:
获取目标对象的形象信息,所述目标对象的形象信息用于指示所述目标对象的当前形象;
基于所述目标对象的形象信息,确定所述目标对象的第一特征;
基于所述第一特征,获取与所述目标对象对应的目标虚拟形象;
在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互。
另一方面,提供了一种信息交互装置,所述装置包括:
获取模块,用于获取目标对象的形象信息,所述目标对象的形象信息用于指示所述目标对象的当前形象;
确定模块,用于基于所述目标对象的形象信息,确定所述目标对象的第一特征;
所述获取模块,还用于基于所述第一特征,获取与所述目标对象对应的目标虚拟形象;
交互模块,用于在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互。
在一种可能实现方式中,所述目标对象的形象信息包括所述目标对象的人脸信息,所述获取模块,还用于基于所述目标对象的人脸信息,获取所述目标对象的身份标识;
所述确定模块,还用于基于与所述身份标识对应的历史信息,确定所述目标对象的第二特征;
所述获取模块,还用于基于所述第一特征和所述第二特征,获取与所述目标对象对应的目标虚拟形象。
在一种可能实现方式中,所述获取模块,还用于获取所述第一特征与至少两个候选虚拟形象之间的匹配度;基于所述第一特征与至少两个候选虚拟形象之间的匹配度,在所述至少两个候选虚拟形象中确定与所述目标对象对应的目标虚拟形象。
在一种可能实现方式中,所述确定模块,还用于确定至少两个交互特征,任一交互特征包括外形特征和属性特征;
所述装置还包括:
构建模块,用于根据任一交互特征中的外形特征和属性特征,构建与所述任一交互特征对应的任一候选虚拟形象。
在一种可能实现方式中,所述获取模块,还用于基于所述第一特征,渲染生成与所述目标对象对应的目标虚拟形象。
在一种可能实现方式中,所述交互模块,用于获取与所述目标虚拟形象存在对应关系的目标交互信息;在交互界面利用所述目标虚拟形象向所述目标对象展示所述目标交互信息。
在一种可能实现方式中,所述交互模块,用于基于所述第一特征,生成推荐交互信息;在交互界面利用所述目标虚拟形象向所述目标对象展示所述推荐交互信息。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现上述任一所述的信息交互方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现上述任一所述的信息交互方法。
本申请实施例提供的技术方案至少带来如下有益效果:
根据目标对象的第一特征,获取与目标对象对应的目标虚拟形象,进而在交互界面利用目标虚拟形象与目标对象进行信息交互。在此种信息交互过程中,第一特征是根据目标对象的形象信息确定的,由于不同的对象可能具有不同的形象信息,所以不同的对象可能具有不同的第一特征,也就可能对应不同的虚拟形象。虚拟形象较丰富,利用不同的虚拟形象与不同的对象进行信息交互,有利于吸引更多的对象利用虚拟形象进行信息交互,使得利用虚拟形象进行信息交互的交互方式的使用率较高,有利于提高用户转换率,信息交互的效果较好。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种信息交互方法的实施环境的示意图;
图2是本申请实施例提供的一种信息交互方法的流程图;
图3是本申请实施例提供的一种在虚拟形象库中新增候选虚拟形象的过程示意图;
图4是本申请实施例提供的一种获取与目标对象对应的目标虚拟形象的过程示意图;
图5是本申请实施例提供的一种交互界面的示意图;
图6是本申请实施例提供的一种在交互界面利用目标虚拟形象与目标对象进行信息交互的过程示意图;
图7是本申请实施例提供的一种信息交互装置的示意图;
图8是本申请实施例提供的一种信息交互装置的示意图;
图9是本申请实施例提供的一种信息交互设备的结构示意图;
图10是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
随着智能技术的发展,越来越多的终端可以利用虚拟形象与用户进行信息交互,为用户提供便利服务。例如,终端可以利用虚拟形象与用户进行语音信息交互,为用户提供导航服务等。
对此,本申请实施例提供了一种信息交互方法,请参考图1,其示出了本申请实施例提供的信息交互方法的实施环境的示意图。该实施环境可以包括:终端11和服务器12。
其中,终端11可以根据目标对象的形象信息确定目标对象的第一特征,然后根据第一特征,获取与目标对象对应的目标虚拟形象,进而在交互界面利用目标虚拟形象与目标对象进行信息交互。服务器12用于为终端11提供数据支持,终端11可以从服务器12中获取需要的数据。例如,终端11可以从服务器12中获取目标对象的历史信息。
在一种可能实现方式中,终端11可以是诸如自助终端、手机、平板电脑、个人计算机等的智能设备。服务器12可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。终端11与服务器12通过有线或无线网络建立通信连接。
本领域技术人员应能理解上述终端11和服务器12仅为举例,其他现有的或今后可能出现的终端或服务器如可适用于本申请,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
基于上述图1所示的实施环境,本申请实施例提供一种信息交互方法,以该方法应用于终端为例。如图2所示,本申请实施例提供的方法可以包括如下步骤:
在步骤201中,获取目标对象的形象信息。
随着智能技术的发展,越来越多的终端可以利用虚拟形象与用户进行信息交互,为用户提供便利服务。本申请实施例的执行主体为能够利用虚拟形象与用户进行信息交互的终端。目标对象是指想要享受该终端提供的某种或者某些服务的任一用户。需要说明的是,本申请实施例对终端利用虚拟形象能够提供的服务类型不加以限定,示例性地,终端利用虚拟形象能够提供的服务类型可以包括导航服务、购物服务、支付服务等。
目标对象的形象信息用于指示目标对象的当前形象。目标对象的形象信息可以包括目标对象的人脸信息、目标对象的服饰信息、目标对象的发型信息、目标对象的表情信息、目标对象的肢体动作信息和目标对象的肤色信息中的一种或多种信息。其中,目标对象的人脸信息用于描述目标对象的面部器官的信息,包括但不限于面部器官的比例、面部器官的相对位置等信息;目标对象的服饰信息用于描述目标对象当前所穿的服饰,包括但不限于服饰风格、服饰颜色、服饰图案等信息;目标对象的发型信息用于描述目标对象当前的发型,包括但不限于发型颜色、发型类型等信息;目标对象的表情信息用于描述目标对象当前的面部表情,例如,微笑表情、皱眉表情等;目标对象的肢体动作信息用于描述目标对象当前的肢体动作;目标对象的肤色信息用于描述目标对象的肤色。
在一种可能实现方式中,终端获取目标对象的形象信息的过程为:响应于目标对象的人脸置于目标区域,终端采集目标对象的图像;基于目标对象的图像获取目标对象的形象信息。目标区域是指终端能够采集图像的区域,当检测到目标对象的人脸置于目标区域时,终端可以调用图像采集装置采集目标对象的图像。目标对象的图像中除包括目标对象的人脸外,还可以包括目标对象的发型、服饰、肢体动作等。
在一种可能实现方式中,终端基于目标对象的图像获取目标对象的形象信息的过程为:终端对目标对象的图像进行识别分析,得到图像中包括的形象信息,将图像中包括的形象信息作为目标对象的形象信息。需要说明的是,终端可以采集目标对象的一张图像,然后基于该张图像获取目标对象的形象信息;终端也可以采集目标对象的多张图像,然后基于多张图像获取目标对象的形象信息,本申请实施例对此不加以限定。
在一种可能实现方式中,终端在采集目标对象的图像之前,可以先判断置于目标区域的人脸是否为真实的人脸,若置于目标区域的人脸是真实的人脸,则可以通过图像采集装置采集目标对象的图像;若置于目标区域的人脸不是真实的人脸,则可以在界面上显示报错信息。
示例性地,终端判断置于目标区域的人脸是否为真实的人脸的方式可以为:终端的图像采集装置通过距离传感器扫描置于目标区域的人脸的面部凹凸曲面,若存在相应的面部凹凸曲面,则可以认为置于目标区域的人脸是真实的人脸,若不存在面部凹凸曲面,则可以认为置于目标区域的人脸不是真实的人脸,可能是照片中的人脸等。此外,为了进一步确保采集到的图像为真实对象的图像,在采集之前,终端可以检测目标对象是否具有眨眼、张嘴等动作,若检测到相应的动作,则可以认为置于目标区域的人脸是真实的人脸,若在参考时长内未检测到相应的动作,则可以认为置于目标区域的人脸不是真实的人脸。参考时长可以根据经验设置,本申请实施例对此不加以限定,例如,参考时长可以设置为20秒。
当判断置于目标区域的人脸是真实的人脸时,终端通过图像采集装置采集目标对象的图像。在一种可能实现方式中,终端在获取到目标对象的图像后,可以对目标对象的图像进行验证,以判断目标对象的图像是否合格。在一种可能实现方式中,终端对目标对象的图像进行验证的过程可以为:验证目标对象的图像的形式是否满足形式要求以及验证目标对象的图像的内容是否满足内容要求。
示例性地,形式可以是指图像的分辨率、亮度等;内容可以是指图像中人脸的比例、人脸的完整度等。形式要求可以为图像的分辨率不低于最低分辨率阈值、图像的亮度不低于最低亮度阈值且不高于最高亮度阈值等;内容要求可以为图像中人脸的比例不低于最低比例阈值、人脸的完整度不低于最低完整度阈值等。其中,最低分辨率阈值、最低亮度阈值、最高亮度阈值、最低比例阈值以及最低完整度阈值均可以根据经验设置,也可以根据应用场景自由调整,本申请实施例对此不加以限定。例如,最低分辨率阈值可以设置为72DPI(Dots Per Inch,每英寸点数),最低完整度阈值可以设置为95%等。
当目标对象的图像的验证通过时,基于目标对象的图像获取目标对象的形象信息;当目标对象的图像的验证不通过时,可以重新采集目标对象的图像,直至采集的目标对象的图像验证通过,再基于验证通过的图像获取目标对象的形象信息。
在步骤202中,基于目标对象的形象信息,确定目标对象的第一特征。
第一特征是指根据目标对象的形象信息能够得到的特征。第一特征中可以包括至少一个特征,每个特征用于指示目标对象的一个维度的特征,第一特征中的各个特征之间相互联系,共同构成对目标对象的当前形象的一个整体描述。
在一种可能实现方式中,第一特征包括自然维度特征和形象维度特征。其中,自然维度特征用于指示目标对象的自然维度的特征,例如,年龄特征、性别特征等;形象维度特征用于指示目标对象的形象维度的特征,例如,服饰图案特征、发型类型特征等。需要说明的是,自然维度特征和形象维度特征中均可以包括至少一个特征,本申请实施例对此不加以限定。例如,自然维度特征可以为15-20岁的女孩,其中包括两个特征,分别为15-20岁和女孩。
在一种可能实现方式中,对于第一特征包括自然维度特征和形象维度特征的情况,基于目标对象的形象信息,确定目标对象的第一特征的过程包括以下两个步骤:
步骤1:对目标对象的形象信息进行分析处理,预测目标对象的自然维度特征。
在一种可能实现方式中,该步骤1的实现过程为:基于目标算法或者目标模型对目标对象的形象信息进行分析处理,预测目标对象的自然维度特征。其中,目标算法和目标模型为利用已知的形象信息和自然维度特征训练得到的算法或模型,本申请实施例对训练过程不加以限定。
自然维度特征是指目标对象固有的特征,例如,年龄特征、性别特征等。目标对象的形象信息中的人脸信息、服饰信息、发型信息等信息均可以一定程度上反应出目标对象的自然维度特征。因此,利用训练好的目标算法或目标模型可以根据目标对象的形象信息预测出目标对象的自然维度特征。需要说明的是,此处的自然维度特征为预测出来的特征,与目标对象的真实自然维度特征之间可能会有偏差,但很大程度上接近目标对象的真实自然维度特征。
步骤2:在目标对象的形象信息中直接提取目标对象的形象维度特征。
形象维度特征是指目标对象的形象信息中包括的特征。目标对象的形象信息中包括的特征可以认为是目标对象感兴趣的虚拟形象中可能具有的特征。
目标对象的形象信息中详细描述目标对象的当前形象,包括但不限于服饰信息、发型信息等。从目标对象的形象信息中可以提取关键要素作为形象维度特征。例如,假设目标对象的形象信息中的服饰信息为“带有变形金刚图案的衬衫”,则可以从该形象信息中提取“变形金刚图案”这一关键要素作为形象维度特征中的一个特征。此种情况下,可以认为目标对象对“变形金刚”感兴趣。
在一种可能实现方式中,对于目标对象已在终端或服务器中上传过包括人脸图像的实名信息的情况,终端在确定目标对象的第一特征后,还可以进一步确定目标对象的第二特征。第二特征用于描述目标对象的历史维度的特征。当目标对象的形象信息包括目标对象的人脸信息时,确定目标对象的第二特征的过程包括以下步骤a和步骤b:
步骤a:基于目标对象的人脸信息,获取目标对象的身份标识。
目标对象的身份标识用于唯一标识该目标对象,例如,目标对象的身份证件号码、目标对象的通信号码、目标对象的姓名等。在一种可能实现方式中,终端基于目标对象的人脸信息,获取目标对象的身份标识的方式包括但不限于以下两种:
方式1:终端将目标对象的人脸信息发送至服务器;服务器将目标对象的人脸信息和已存储的实名信息中的人脸图像进行匹配,当匹配成功时,从匹配成功的人脸图像对应的实名信息中提取目标对象的身份标识,将目标对象的身份标识发送至终端;终端获取服务器发送的目标对象的身份标识。
此种方式1发生在实名信息存储在服务器中的情况下。本申请实施例对服务器将人脸信息与已存储的实名信息中的人脸图像进行匹配的过程不加以限定,可以利用任意一种人脸识别方式实现。
方式2:终端将目标对象的人脸信息和已存储的实名信息中的人脸图像进行匹配,当匹配成功时,从匹配成功的人脸图像对应的实名信息中提取目标对象的身份标识。
此种方式2发生在实名信息存储在终端中的情况下。本申请实施例对终端将人脸信息与已存储的实名信息中的人脸图像进行匹配的过程不加以限定,可以利用任意一种人脸识别方式实现。
在一种可能实现方式中,在获取目标对象的身份标识后,可以得到目标对象的真实自然维度特征。然后可以对第一特征中的自然维度特征进行更新。例如,假设第一特征中的自然维度特征为15-20岁的女孩,目标对象的身份标识指示目标对象为18岁的女孩,则可以将第一特征中的自然维度特征更新为18岁的女孩。
在获取目标对象的身份标识后,终端可以基于目标对象的身份标识,获取目标对象的历史信息。目标对象的历史信息是指目标对象的历史行为产生的信息,包括但不限于历史购物信息、历史喜好商品、历史浏览记录等。需要说明的是,目标对象的历史信息是与目标对象的身份标识对应存储的,所以根据目标对象的身份标识,可以获取目标对象的历史信息。
在一种可能实现方式中,终端基于目标对象的身份标识,获取目标对象的历史信息的方式包括以下至少一种方式:
方式一:终端基于目标对象的身份标识,从本地获取目标对象的历史信息。
此种方式一发生在目标对象的历史信息部分或全部存储在终端本地的情况下。
方式二:终端基于目标对象的身份标识,从服务器获取目标对象的历史信息。
此种方式二发生在目标对象的历史信息部分或全部存储在服务器中的情况下。
需要说明的是,终端可以基于方式一获取目标对象的部分历史信息,同时基于方式二获取目标对象的部分历史信息,将获取的历史信息综合起来作为与目标对象的身份标识对应的历史信息,然后执行步骤b。
步骤b:基于与身份标识信息对应的历史信息,确定目标对象的第二特征。
通过对历史信息进行分析,可以概括出用于描述历史信息的一个或多个特征,将这一个或多个特征作为目标对象的第二特征。第二特征可以表征目标对象的喜好。示例性地,假设目标对象的历史信息中的历史购物信息表示目标对象购买过变形金刚玩具,则可以将“喜欢变形金刚玩具”作为第二特征中的一个特征,可以认为目标对象对变形金刚感兴趣;示例性地,假设目标对象的历史信息中的历史浏览信息表示目标对象经常浏览宠物猫的图片和宠物猫的视频,则可以将“喜欢宠物猫”作为第二特征中的一个特征,可以认为目标对象对宠物猫感兴趣。
需要说明的是,第二特征中的特征可以与第一特征中的特征完全不同,也可以与第一特征中的特征部分或全部相同,本申请实施例对此不加以限定。
在一种可能实现方式中,目标对象的特征(第一特征、第二特征)可以用标签表示,示例性地,假设目标对象的特征为18岁的女孩,则该特征可以用标签“18岁,女”表示。对于第一次确定目标对象的特征的情况,在确定目标对象的特征后,可以生成与目标对象的特征对应的标签,得到目标对象的标签,然后将目标对象的特征与目标对象的标签对应存储,以便后续直接提取目标对象的标签。对于非第一次确定目标对象的特征的情况,在确定目标对象的特征后,可以直接在存储中提取与目标对象的特征对应的目标对象的标签。
在一种可能实现方式中,根据目标对象的特征可以构建目标对象的用户画像。当仅能确定目标对象的第一特征时,根据目标对象的第一特征构建目标对象的用户画像;当既能确定目标对象的第一特征,又能确定目标对象的第二特征时,根据目标对象的第一特征和第二特征构建目标对象的用户画像。
用户画像是根据目标对象的特征抽象出的标签化的用户模型,用户画像可以用来表征目标对象的喜好或者目标对象的特征。用户画像是大数据技术的重要应用,其目标是在很多的维度上建立针对用户的描述性标签,从而利用这些标签对用户多方面的真实个人特征进行勾勒,进而,可以利用用户画像挖掘用户需求,分析用户偏好,并通过匹配用户画像提供给用户更高效和更有针对性的信息输送以及更贴近个人习惯的用户体验。作为一种勾画用户形象、联系用户诉求与设计方向的有效工具,用户画像在各领域得到了广泛的应用。在本申请实施例中,可以利用目标对象的用户画像获取与目标对象对应的目标虚拟形象。
在步骤203中,基于第一特征,获取与目标对象对应的目标虚拟形象。
虚拟形象是指在终端的交互界面中显示的非真人形象。目标虚拟形象是指与目标对象对应的虚拟形象。由于第一特征是根据目标对象的形象信息确定的,所以,目标虚拟形象较大程度上符合目标对象的喜好,目标虚拟形象具有较强的针对性和精准性。
在一种可能实现方式中,基于第一特征,获取与目标对象对应的目标虚拟形象的方式包括但不限于以下两种:
方式一:获取第一特征与至少两个候选虚拟形象之间的匹配度;基于第一特征与至少两个候选虚拟形象之间的匹配度,在至少两个候选虚拟形象中确定与目标对象对应的目标虚拟形象。
候选虚拟形象是指预先构建的可供选择的虚拟形象。候选虚拟形象的数量为至少两个,终端可以在这至少两个候选虚拟形象中选择与目标对象对应的目标虚拟形象。
在一种可能实现方式中,每个候选虚拟形象可以具有一个或多个特征,获取第一特征与至少两个候选虚拟形象之间的匹配度的方式可以为:获取第一特征与每个候选虚拟形象的特征之间的匹配度。
在一种可能实现方式中,第一特征可以用一个或多个标签表示,每个虚拟形象的特征也可以用标签表示。获取第一特征与每个候选虚拟形象的特征之间的匹配度可以是指:获取第一特征对应的标签与每个候选虚拟形象的特征对应的标签之间的匹配度。需要说明的是,第一特征对应的标签可以是在确定第一特征后,根据第一特征生成的标签;也可以是指在确定第一特征后,在存储中直接提取的第一特征对应的标签,本申请实施例对此不加以限定。候选虚拟形象的特征对应的标签可以是指预先存储的标签。
第一特征对应的标签与每个候选虚拟形象的特征对应的标签之间的匹配度可以是指:该候选虚拟形象的特征对应的标签中目标标签的数量与该候选虚拟形象的特征对应的标签的总数量的比值。其中,目标标签是指该候选虚拟形象的特征对应的标签中与第一特征对应的标签中的标签匹配的标签。
需要说明的是,两个标签匹配可以是指两个标签相同,也可以是指一个标签指示的范围涵盖另外一个标签指示的范围。示例性地,假设一个标签为“15-20岁”,另外一个标签为“18岁”,则可以认为这两个标签匹配。
在另一种可能实现方式中,获取第一特征与至少两个候选虚拟形象之间的匹配度的方式可以为:根据第一特征构建目标形象,获取目标形象与每个候选形象之间的相似度,将目标形象与每个候选形象之间的相似度作为第一特征与每个虚拟形象之间的匹配度。在一种可能实现方式中,获取目标形象与每个候选形象之间的相似度的方式可以为:将目标形象和任一候选虚拟形象输入相似度计算模型,根据输出的结果,得到目标形象和该任一候选虚拟形象之间的相似度。相似度计算模型可以由开发人员预先训练得到,本申请实施例对此不加以限定。
第一特征与任一候选虚拟形象之间的匹配度越大,说明该任一候选虚拟形象越适合目标对象。在获取第一特征与至少两个候选虚拟形象之间的匹配度后,可以基于第一特征与至少两个候选虚拟形象之间的匹配度,在至少两个候选虚拟形象中确定与目标对象对应的目标虚拟形象。此时,目标虚拟形象即为多个候选虚拟形象中最适合目标对象的候选虚拟形象。
在一种可能实现方式中,基于第一特征与至少两个候选虚拟形象之间的匹配度,在至少两个候选虚拟形象中确定与目标对象对应的目标虚拟形象的方式为:将至少两个候选虚拟形象中与第一特征的匹配度超过匹配度阈值的候选虚拟形象作为目标候选虚拟形象,基于目标候选虚拟形象确定与目标对象对应的目标虚拟形象。
需要说明的是,目标候选虚拟形象的数量可能为一个或多个。当目标候选虚拟形象的数量为一个时,直接将该目标候选虚拟形象作为与目标对象对应的目标虚拟形象。当目标候选虚拟形象的数量为多个时,基于目标候选虚拟形象确定与目标对象对应的目标虚拟形象的方式包括但不限于以下三种:
1、将目标候选虚拟形象中与第一特征的匹配度最大的候选虚拟形象作为与目标对象对应的目标虚拟形象。
2、从多个目标候选虚拟形象中任选一个候选虚拟形象作为与目标对象对应的目标虚拟形象。
3、在交互界面展示多个目标候选虚拟形象;响应于目标对象对任一目标候选虚拟形象的触发指令,将该任一目标候选虚拟形象作为与目标对象对应的目标虚拟形象。
在一种可能实现方式中,若候选虚拟形象中不存在与第一特征的匹配度超过匹配度阈值的目标候选虚拟形象,则无法在至少两个候选虚拟形象中选择目标虚拟形象。此时,可以根据方式二获取与目标对象对应的目标虚拟形象。
需要说明的是,在利用方式一获取与目标对象对应的目标虚拟形象之前,需要先构建至少两个候选虚拟形象。在一种可能实现方式中,构建至少两个候选虚拟形象的过程可以为:确定至少两个交互特征,任一交互特征包括外形特征和属性特征;根据任一交互特征中的外形特征和属性特征,构建与任一交互特征对应的任一候选虚拟形象。
外形特征用于指示候选虚拟形象应该具有的外形形象。外形特征可以包括基础形象特征、年龄特征、性别特征;其中,基础形象特征用于指示基础形象的类型和该类型中的具体形象,基础形象的类型可以包括人物形象、动物形象、卡通形象、流行形象等,每个类型的形象中均可以包括多个具体形象。例如,动物形象中可以包括猫形象、熊猫形象等;人物形象中可以包括A影视演员形象、B话剧演员形象、C歌手形象等。需要说明的是,有些具体形象(如,A影视演员形象)具有固有的年龄特征和性别特征,此时,外形特征中的年龄特征和性别特征是固定的;有些具体形象(如,熊猫形象)不具有固有的年龄特征和性别特征,此时,外形标签中的年龄特征和性别特征可以自由设置。
属性特征用于指示候选虚拟形象应该具有的交互风格。属性特征可以包括语音风格特征、动作风格特征和表情风格特征等。语音风格特征用于指示候选虚拟形象的语音风格;动作风格特征用于指示候选虚拟形象的动作风格;表情风格特征用于指示候选虚拟形象的表情风格。
需要说明的是,外形特征和属性特征均可以根据具体场景要求进行确定,本申请实施例对此不加以限定。任一交互特征均由一种外形特征和一种属性特征构成,也就是说,每个交互特征均规定了一个候选虚拟形象应该具有的外形形象和交互风格。
在确定至少两个交互特征后,根据任一交互特征中的外形特征和属性特征,构建与该任一交互特征对应的任一候选虚拟形象。构建方式可以为:对于任一交互特征,将该任一交互特征中的属性特征指示的交互风格渲染添加至该任一交互特征中的外形特征指示的外形形象中,得到与该任一交互特征对应的候选虚拟形象。根据上述过程,可以分别构建与每个交互特征对应候选虚拟形象,得到多个候选虚拟形象。
在一种可能实现方式中,交互特征可以用交互标签的形式表示,也就是说,交互特征中的外形特征和属性特征均可以用标签的形式表示。在确定交互特征后,可以生成与交互特征对应的交互标签,在构建候选虚拟形象后,可以将交互特征、交互标签、候选虚拟形象进行对应存储。
需要说明的是,在构建多个候选虚拟形象之后,可以将至少两个候选虚拟形象置于虚拟形象库中。此外,还可以根据应用场景的需求在虚拟形象库中添加更多的候选虚拟形象,以在更多数量的候选虚拟形象中确定适合目标对象的目标虚拟形象。在一种可能实现方式中,除根据交互特征构建候选虚拟形象外,还可以直接收集已有的虚拟形象,通过算法分析对收集的虚拟形象打标签,然后将带有标签的虚拟形象作为候选虚拟形象,将该候选虚拟形象添加至虚拟形象库中。此种在虚拟形象库中新增候选虚拟形象的过程可以如图3所示。
基于上述方式一获取与目标对象对应的目标虚拟形象的过程可以如图4所示,首先获取目标对象的形象信息;然后根据形象信息分析目标对象的当前形象,确定目标对象的第一特征;利用第一特征,在虚拟形象库中与至少两个候选虚拟形象进行匹配;在虚拟形象匹配完成后,将匹配成功的候选虚拟形象作为目标虚拟形象。
方式二:基于第一特征,渲染生成与目标对象对应的目标虚拟形象。
此种方式二发生在未构建候选虚拟形象,或者构建的候选虚拟形象中不存在目标虚拟形象的情况下。
在一种可能实现方式中,基于第一特征,渲染生成与目标对象对应的目标虚拟形象的过程为:基于第一特征,确定与目标对象对应的基础形象和该基础形象的交互风格;在与目标对象对应的基础形象上虚拟化渲染添加交互风格,得到与目标对象对应的目标虚拟形象。
由于第一特征是根据目标对象的形象信息确定的,所以根据第一特征可以确定与目标对象对应的基础形象,该基础形象可以是指与目标对象形似的形象,也可以是指目标对象可能感兴趣的形象,本申请实施例对此不加以限定。此外,由于目标对象的形象信息中包括目标对象的表情信息、服饰信息、发型信息等信息,所以根据第一特征,还可以确定目标对象可能感兴趣的交互风格,将该交互风格作为基础形象的交互风格。
根据第一特征渲染生成的目标虚拟形象,较大程度上是目标对象喜欢或感兴趣的形象,有利于提高交互体验感。
需要说明的是,对于除确定第一特征外,还确定了第二特征的情况,此步骤203中,基于第一特征和第二特征,获取与目标对象对应的目标虚拟形象。在此种情况下,通过综合考虑根据形象信息确定的第一特征和根据历史信息确定的第二特征,来确定目标虚拟形象,有利于进一步提高目标虚拟形象的针对性和准确性。
需要说明的是,在获取与目标对象对应的目标虚拟形象的过程中,除考虑目标对象的特征(第一特征、第二特征)外,还可以考虑当前使用场景。通过综合考虑目标对象的特征和当前使用场景,获取既适合目标对象、又适合当前使用场景的目标虚拟形象,进一步提高目标虚拟形象的针对性和准确性。
在步骤204中,在交互界面利用目标虚拟形象与目标对象进行信息交互。
交互界面是指终端中用于与目标对象进行信息交互的界面。在确定目标虚拟形象后,可以在交互界面利用目标虚拟形象与目标对象进行信息交互。由于目标虚拟形象是根据目标对象的特征获取的,所以目标虚拟形象是目标对象可能感兴趣的虚拟形象,利用目标虚拟形象与目标对象进行信息交互,有利于提升信息交互的效果,给目标对象更友好、更智能、更亲切的信息交互体验感。
在交互界面利用目标虚拟形象与目标对象进行信息交互可以是指:在交互界面利用目标虚拟形象向目标对象展示交互信息。交互信息是指用于与目标对象进行交互的信息,可以包括图片信息、文字信息、语音信息中的一种或多种。当交互信息包括语音信息时,利用目标虚拟形象向目标对象展示交互信息包括利用目标虚拟形象播报语音信息;当交互信息包括图片信息或文字信息时,利用目标虚拟形象向目标对象展示交互信息包括利用目标虚拟形象展示图片信息或文字信息。
例如,交互界面可以如图5所示。在图5中,目标虚拟形象为变形金刚形象501,在交互界面500中,利用变形金刚形象501展示图片信息和文字信息502,利用变形金刚形象501播报语音信息(欢迎光临)503。
在一种可能实现方式中,在交互界面利用目标虚拟形象与目标对象进行信息交互,包括但不限于以下两种方式:
方式一:获取与目标虚拟形象存在对应关系的目标交互信息;在交互界面利用目标虚拟形象向目标对象展示目标交互信息。
此种方式一发生在预先构建了虚拟形象与交互信息的对应关系的情况下。虚拟形象与交互信息的对应关系可以根据经验设置,也可以根据应用场景灵活调整。不同的虚拟形象对应的交互信息可以相同,也可以不同,本申请实施例对此不加以限定。
根据虚拟形象与交互信息的对应关系,可以直接获取与目标虚拟形象存在对应关系的目标交互信息。在一种可能实现方式中,在虚拟形象与交互信息的对应关系中,可以用序号标识虚拟形象。此种情况下,先确定与目标虚拟形象对应的目标序号,然后根据序号与交互信息的对应关系,获取与目标序号存在对应关系的目标交互信息。
在确定目标交互信息后,在交互界面利用目标虚拟形象向目标对象展示目标交互信息。需要说明的是,由于目标虚拟形象本身具有目标交互风格,所以目标虚拟形象可以在交互界面,以目标交互风格展示目标交互信息。
方式二:基于第一特征,生成推荐交互信息;在交互界面利用目标虚拟形象向目标对象展示推荐交互信息。
此种方式二发生在未构建虚拟形象与交互信息的对应关系,或者构建的虚拟形象与交互信息的对应关系中不包括目标虚拟形象与目标交互信息的对应关系的情况下。
在一种可能实现方式中,基于第一特征,生成推荐交互信息的过程可以为:根据推荐算法对第一特征进行分析,生成推荐交互信息,该推荐交互信息是指目标对象可能感兴趣的交互信息。推荐算法可以是指预先训练好的用于推荐与特征对应的交互信息的算法,本申请实施例对推荐算法的训练过程不加以限定。示例性地,假设第一特征中包括“喜欢变形金刚”的特征,则推荐交互信息可以为变形金刚相关商品图片和商品文字,每个商品图片在被触发后,可以跳转至购买界面。在一种可能实现方式中,生成推荐交互信息的过程可以是指:在交互信息库中的交互信息的基础上生成推荐交互信息。
在生成推荐交互信息后,在交互界面利用目标虚拟形象向目标对象展示推荐交互信息。需要说明的是,由于目标虚拟形象本身具有目标交互风格,所以目标虚拟形象可以在交互界面,以目标交互风格展示推荐交互信息。
示例性地,在此种方式二下,在交互界面利用目标虚拟形象与目标对象进行信息交互的过程可以如图6所示。根据目标对象的形象信息,确定目标对象的第一特征;根据推荐算法对第一特征进行分析,在交互信息库中的交互信息的基础上生成推荐交互信息;在交互界面利用目标虚拟形象向目标对象展示推荐交互信息。
需要说明的是,对于除确定目标对象的第一特征外,还确定了目标对象的第二特征的情况,此种方式二中,基于第一特征和第二特征,生成推荐交互信息。此时确定的推荐交互信息更加适合目标对象。
在交互界面利用目标虚拟形象与目标对象进行信息交互之后,可以根据目标对象的交互触发指令,展示其他交互信息。示例性地,假设检测到目标对象对目标商品的交互触发指令,则可以展示该目标商品的详情信息、购买入口等。在一种可能实现方式中,若在参考时间范围内未检测到目标对象的交互触发指令,则说明目标对象可能对目标虚拟形象或者展示的交互信息不感兴趣,此时可以更新目标对象的特征以及特征对应的标签,以在下一次与目标对象进行信息交互时,利用根据更新后的特征或者标签确定的虚拟形象和交互信息与目标对象进行信息交互。
基于本申请实施例提供的方法,在同一个终端的交互界面,可以利用不同的虚拟形象与不同的对象进行交互,为交互的对象带来友好、有亲和力、个性化的体验。例如,可以利用卡通形象与儿童进行交互,利用偶像形象与青年进行交互等。
在本申请实施例中,根据目标对象的第一特征,获取与目标对象对应的目标虚拟形象,进而在交互界面利用目标虚拟形象与目标对象进行信息交互。在此种信息交互过程中,第一特征是根据目标对象的形象信息确定的,由于不同的对象可能具有不同的形象信息,所以不同的对象可能具有不同的第一特征,也就可能对应不同的虚拟形象。虚拟形象较丰富,利用不同的虚拟形象与不同的对象进行信息交互,有利于吸引更多的对象利用虚拟形象进行信息交互,使得利用虚拟形象进行信息交互的交互方式的使用率较高,有利于提高用户转换率,信息交互的效果较好。
参见图7,本申请实施例提供了一种信息交互装置,该装置包括:
获取模块701,用于获取目标对象的形象信息,目标对象的形象信息用于指示目标对象的当前形象;
确定模块702,用于基于目标对象的形象信息,确定目标对象的第一特征;
获取模块701,还用于基于第一特征,获取与目标对象对应的目标虚拟形象;
交互模块703,用于在交互界面利用目标虚拟形象与目标对象进行信息交互。
在一种可能实现方式中,目标对象的形象信息包括目标对象的人脸信息,获取模块701,还用于基于目标对象的人脸信息,获取目标对象的身份标识;
确定模块702,还用于基于与身份标识对应的历史信息,确定目标对象的第二特征;
获取模块701,还用于基于第一特征和第二特征,获取与目标对象对应的目标虚拟形象。
在一种可能实现方式中,获取模块701,还用于获取第一特征与至少两个候选虚拟形象之间的匹配度;基于第一特征与至少两个候选虚拟形象之间的匹配度,在至少两个候选虚拟形象中确定与目标对象对应的目标虚拟形象。
在一种可能实现方式中,确定模块702,还用于确定至少两个交互特征,任一交互特征包括外形特征和属性特征;
参见图8,该装置还包括:
构建模块704,用于根据任一交互特征中的外形特征和属性特征,构建与任一交互特征对应的任一候选虚拟形象。
在一种可能实现方式中,获取模块701,还用于基于第一特征,渲染生成与目标对象对应的目标虚拟形象。
在一种可能实现方式中,交互模块703,用于获取与目标虚拟形象存在对应关系的目标交互信息;在交互界面利用目标虚拟形象向目标对象展示目标交互信息。
在一种可能实现方式中,交互模块703,用于基于第一特征,生成推荐交互信息;在交互界面利用目标虚拟形象向目标对象展示推荐交互信息。
在本申请实施例中,根据目标对象的第一特征,获取与目标对象对应的目标虚拟形象,进而在交互界面利用目标虚拟形象与目标对象进行信息交互。在此种信息交互过程中,第一特征是根据目标对象的形象信息确定的,由于不同的对象可能具有不同的形象信息,所以不同的对象可能具有不同的第一特征,也就可能对应不同的虚拟形象。虚拟形象较丰富,利用不同的虚拟形象与不同的对象进行信息交互,有利于吸引更多的对象利用虚拟形象进行信息交互,使得利用虚拟形象进行信息交互的交互方式的使用率较高,有利于提高用户转换率,信息交互的效果较好。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图9是本申请实施例提供的一种信息交互设备的结构示意图。该设备可以为终端,例如可以是:自助终端、智能手机、平板电脑、笔记本电脑或台式电脑。终端还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器901所执行以实现本申请中方法实施例提供的信息交互方法。
在一些实施例中,终端还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、触摸显示屏905、摄像头组件906、音频电路907、定位组件908和电源909中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏905可以为一个,设置在终端的前面板;在另一些实施例中,显示屏905可以为至少两个,分别设置在终端的不同表面或呈折叠设计;在再一些实施例中,显示屏905可以是柔性显示屏,设置在终端的弯曲表面上或折叠面上。甚至,显示屏905还可以设置成非矩形的不规则图形,也即异形屏。显示屏905可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件906用于采集图像或视频。可选地,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器901或射频电路904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路907还可以包括耳机插孔。
定位组件908用于定位终端的当前地理位置,以实现导航或LBS(Location BasedService,基于位置的服务)。定位组件908可以是基于美国的GPS(Global PositioningSystem,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源909用于为终端中的各个组件进行供电。电源909可以是交流电、直流电、一次性电池或可充电电池。当电源909包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器910。该一个或多个传感器910包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、指纹传感器914、光学传感器915以及接近传感器916。
加速度传感器911可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器911可以用于检测重力加速度在三个坐标轴上的分量。处理器901可以根据加速度传感器911采集的重力加速度信号,控制触摸显示屏905以横向视图或纵向视图进行用户界面的显示。加速度传感器911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器912可以检测终端的机体方向及转动角度,陀螺仪传感器912可以与加速度传感器911协同采集用户对终端的3D动作。处理器901根据陀螺仪传感器912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器913可以设置在终端的侧边框和/或触摸显示屏905的下层。当压力传感器913设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器901根据压力传感器913采集的握持信号进行左右手识别或快捷操作。当压力传感器913设置在触摸显示屏905的下层时,由处理器901根据用户对触摸显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器914用于采集用户的指纹,由处理器901根据指纹传感器914采集到的指纹识别用户的身份,或者,由指纹传感器914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器914可以被设置在终端的正面、背面或侧面。当终端上设置有物理按键或厂商Logo时,指纹传感器914可以与物理按键或厂商Logo集成在一起。
光学传感器915用于采集环境光强度。在一个实施例中,处理器901可以根据光学传感器915采集的环境光强度,控制触摸显示屏905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏905的显示亮度;当环境光强度较低时,调低触摸显示屏905的显示亮度。在另一个实施例中,处理器901还可以根据光学传感器915采集的环境光强度,动态调整摄像头组件906的拍摄参数。
接近传感器916,也称距离传感器,通常设置在终端的前面板。接近传感器916用于采集用户与终端的正面之间的距离。在一个实施例中,当接近传感器916检测到用户与终端的正面之间的距离逐渐变小时,由处理器901控制触摸显示屏905从亮屏状态切换为息屏状态;当接近传感器916检测到用户与终端的正面之间的距离逐渐变大时,由处理器901控制触摸显示屏905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机设备,参见图10,该计算机设备包括处理器1001和存储器1002,该存储器1002中存储有至少一条程序代码。该至少一条程序代码由一个或者一个以上处理器1001加载并执行,以实现上述任一种信息交互方法。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由计算机设备的处理器加载并执行,以实现上述任一种信息交互方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种信息交互方法,其特征在于,所述方法包括:
获取目标对象的形象信息,所述目标对象的形象信息用于指示所述目标对象的当前形象;
基于所述目标对象的形象信息,确定所述目标对象的第一特征;
基于所述第一特征,获取与所述目标对象对应的目标虚拟形象;
在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互。
2.根据权利要求1所述的方法,其特征在于,所述目标对象的形象信息包括所述目标对象的人脸信息,所述基于所述第一特征,获取与所述目标对象对应的目标虚拟形象,包括:
基于所述目标对象的人脸信息,获取所述目标对象的身份标识;
基于与所述身份标识对应的历史信息,确定所述目标对象的第二特征;
基于所述第一特征和所述第二特征,获取与所述目标对象对应的目标虚拟形象。
3.根据权利要求1所述的方法,其特征在于,所述基于所述第一特征,获取与所述目标对象对应的目标虚拟形象,包括:
获取所述第一特征与至少两个候选虚拟形象之间的匹配度;
基于所述第一特征与至少两个候选虚拟形象之间的匹配度,在所述至少两个候选虚拟形象中确定与所述目标对象对应的目标虚拟形象。
4.根据权利要求3所述的方法,其特征在于,所述获取所述第一特征与至少两个候选虚拟形象之间的匹配度之前,所述方法还包括:
确定至少两个交互特征,任一交互特征包括外形特征和属性特征;
根据任一交互特征中的外形特征和属性特征,构建与所述任一交互特征对应的任一候选虚拟形象。
5.根据权利要求1所述的方法,其特征在于,所述基于所述第一特征,获取与所述目标对象对应的目标虚拟形象,包括:
基于所述第一特征,渲染生成与所述目标对象对应的目标虚拟形象。
6.根据权利要求1-5任一所述的方法,其特征在于,所述在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互,包括:
获取与所述目标虚拟形象存在对应关系的目标交互信息;
在交互界面利用所述目标虚拟形象向所述目标对象展示所述目标交互信息。
7.根据权利要求1-5任一所述的方法,其特征在于,所述在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互,包括:
基于所述第一特征,生成推荐交互信息;
在交互界面利用所述目标虚拟形象向所述目标对象展示所述推荐交互信息。
8.一种信息交互装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象的形象信息,所述目标对象的形象信息用于指示所述目标对象的当前形象;
确定模块,用于基于所述目标对象的形象信息,确定所述目标对象的第一特征;
所述获取模块,还用于基于所述第一特征,获取与所述目标对象对应的目标虚拟形象;
交互模块,用于在交互界面利用所述目标虚拟形象与所述目标对象进行信息交互。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至7任一所述的信息交互方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至7任一所述的信息交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010118423.9A CN111339938A (zh) | 2020-02-26 | 2020-02-26 | 信息交互方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010118423.9A CN111339938A (zh) | 2020-02-26 | 2020-02-26 | 信息交互方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111339938A true CN111339938A (zh) | 2020-06-26 |
Family
ID=71183760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010118423.9A Pending CN111339938A (zh) | 2020-02-26 | 2020-02-26 | 信息交互方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339938A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880664A (zh) * | 2020-08-03 | 2020-11-03 | 深圳传音控股股份有限公司 | Ar互动方法、电子设备及可读存储介质 |
CN112860068A (zh) * | 2021-02-10 | 2021-05-28 | 北京百度网讯科技有限公司 | 人机交互方法、装置、电子设备、介质和计算机程序产品 |
CN114844922A (zh) * | 2022-04-25 | 2022-08-02 | 海南水文地质工程地质勘察院 | 基于物联网的基坑安全监测系统 |
CN115314728A (zh) * | 2022-07-29 | 2022-11-08 | 北京达佳互联信息技术有限公司 | 信息展示方法、系统、装置、电子设备及存储介质 |
CN116843805A (zh) * | 2023-06-19 | 2023-10-03 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
-
2020
- 2020-02-26 CN CN202010118423.9A patent/CN111339938A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880664A (zh) * | 2020-08-03 | 2020-11-03 | 深圳传音控股股份有限公司 | Ar互动方法、电子设备及可读存储介质 |
CN111880664B (zh) * | 2020-08-03 | 2024-06-14 | 深圳传音控股股份有限公司 | Ar互动方法、电子设备及可读存储介质 |
CN112860068A (zh) * | 2021-02-10 | 2021-05-28 | 北京百度网讯科技有限公司 | 人机交互方法、装置、电子设备、介质和计算机程序产品 |
CN114844922A (zh) * | 2022-04-25 | 2022-08-02 | 海南水文地质工程地质勘察院 | 基于物联网的基坑安全监测系统 |
CN114844922B (zh) * | 2022-04-25 | 2024-03-19 | 海南水文地质工程地质勘察院 | 基于物联网的基坑安全监测系统 |
CN115314728A (zh) * | 2022-07-29 | 2022-11-08 | 北京达佳互联信息技术有限公司 | 信息展示方法、系统、装置、电子设备及存储介质 |
CN116843805A (zh) * | 2023-06-19 | 2023-10-03 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
CN116843805B (zh) * | 2023-06-19 | 2024-03-19 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652678B (zh) | 物品信息显示方法、装置、终端、服务器及可读存储介质 | |
CN110572711B (zh) | 视频封面生成方法、装置、计算机设备及存储介质 | |
CN111339938A (zh) | 信息交互方法、装置、设备及存储介质 | |
CN110163066B (zh) | 多媒体数据推荐方法、装置及存储介质 | |
CN110865754A (zh) | 信息展示方法、装置及终端 | |
CN112181573A (zh) | 媒体资源展示方法、装置、终端、服务器以及存储介质 | |
CN111432245B (zh) | 多媒体信息的播放控制方法、装置、设备及存储介质 | |
CN111506758A (zh) | 物品名称确定方法、装置、计算机设备及存储介质 | |
CN111836069A (zh) | 虚拟礼物赠送方法、装置、终端、服务器及存储介质 | |
CN111368127A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN110209316B (zh) | 类别标签显示方法、装置、终端及存储介质 | |
CN113987326B (zh) | 资源推荐方法、装置、计算机设备及介质 | |
CN111437600A (zh) | 剧情展示方法、装置、设备及存储介质 | |
CN113609358B (zh) | 内容分享方法、装置、电子设备以及存储介质 | |
WO2022083257A1 (zh) | 多媒体资源的生成方法及终端 | |
CN113032587A (zh) | 多媒体信息推荐方法、系统、装置、终端和服务器 | |
CN114302160A (zh) | 信息显示方法、装置、计算机设备及介质 | |
CN110891181B (zh) | 直播画面显示方法、装置、存储介质及终端 | |
CN110493635B (zh) | 视频播放方法、装置及终端 | |
CN112004134B (zh) | 多媒体数据的展示方法、装置、设备及存储介质 | |
CN111986700A (zh) | 无接触式操作触发的方法、装置、设备及存储介质 | |
CN112860046A (zh) | 选择运行模式的方法、装置、电子设备及介质 | |
CN110213307B (zh) | 多媒体数据推送方法、装置、存储介质及设备 | |
CN113377976B (zh) | 资源搜索方法、装置、计算机设备及存储介质 | |
CN112766389B (zh) | 图像分类方法、图像分类模型的训练方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40023562 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |