CN108681390B - 信息交互方法和装置、存储介质及电子装置 - Google Patents

信息交互方法和装置、存储介质及电子装置 Download PDF

Info

Publication number
CN108681390B
CN108681390B CN201810142618.XA CN201810142618A CN108681390B CN 108681390 B CN108681390 B CN 108681390B CN 201810142618 A CN201810142618 A CN 201810142618A CN 108681390 B CN108681390 B CN 108681390B
Authority
CN
China
Prior art keywords
emotion
virtual object
virtual
client
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810142618.XA
Other languages
English (en)
Other versions
CN108681390A (zh
Inventor
仇蒙
潘佳绮
张雅
张书婷
肖庆华
汪俊明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810142618.XA priority Critical patent/CN108681390B/zh
Publication of CN108681390A publication Critical patent/CN108681390A/zh
Priority to EP18905825.8A priority patent/EP3751395A4/en
Priority to PCT/CN2018/119356 priority patent/WO2019153860A1/zh
Priority to US16/884,877 priority patent/US11353950B2/en
Application granted granted Critical
Publication of CN108681390B publication Critical patent/CN108681390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种信息交互方法和装置、存储介质及电子装置。其中,该方法包括:提取目标对象的生物特征,其中,所述目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;根据提取出的所述生物特征识别出所述目标对象当前的第一情绪;确定与所述第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送所述第一交互信息,其中,所述第二虚拟对象与所述第一虚拟对象共同执行所述虚拟任务。本发明解决了相关信息交互方法所存在的交互操作复杂度较高的技术问题。

Description

信息交互方法和装置、存储介质及电子装置
技术领域
本发明涉及计算机领域,具体而言,涉及一种信息交互方法和装置、存储介质及电子装置。
背景技术
为了在终端所运行的应用客户端中实现实时地信息交互,通常会在应用客户端所显示的操作界面中设置输入插件,通过该输入插件获取用户输入的信息,然后将上述信息发送给所要交互的目标对象,以完成信息交互。
然而,如今有很多终端应用都需要用户双手操作,来完成预先设置的应用任务。也就是说,在采用上述相关技术提供的信息交互方法时,往往需要先中断被应用客户端控制的控制对象所执行的应用任务,在利用被激活的输入插件完成与目标对象之间的信息交互之后,再恢复该控制对象所执行的应用任务。换言之,与目标对象之间的信息交互过程,存在着交互操作复杂度较高的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供一种信息交互方法和装置、存储介质及电子装置,以至少解决相关信息交互方法所存在的交互操作复杂度较高的技术问题。
根据本发明实施例的一个方面,提供了一种信息交互方法,包括:提取目标对象的生物特征,其中,上述目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;根据提取出的上述生物特征识别出上述目标对象当前的第一情绪;确定与上述第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送上述第一交互信息,其中,上述第二虚拟对象与上述第一虚拟对象共同执行上述虚拟任务。
根据本发明实施例的另一方面,还提供了一种信息交互装置,包括:提取单元,用于提取目标对象的生物特征,其中,上述目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;识别单元,用于根据提取出的上述生物特征识别出上述目标对象当前的第一情绪;确定单元,用于确定与上述第一情绪相匹配的待交互的第一交互信息;发送单元,用于向第二虚拟对象所在第二客户端发送上述第一交互信息,其中,上述第二虚拟对象与上述第一虚拟对象共同执行上述虚拟任务。
根据本发明实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述信息交互方法。
在本发明实施例中,通过提取目标对象的生物特征;根据提取出的所述生物特征识别出所述目标对象当前的第一情绪;确定与所述第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送所述第一交互信息的方法,从而可以根据目标对象的生物特征获取到待交互的第一交互消息,并将第一交互消息发送给第二客户端,避免了必须中断被应用客户端控制的控制对象所执行的应用任务才能完成与目标对象之间的信息交互的问题,从而可以在控制对象执行应用人物的过程中完成信息的交互,实现了降低交互操作复杂度的技术效果,进而解决了相关信息交互方法所存在的交互操作复杂度较高的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的信息交互方法的应用环境的示意图;
图2是根据本发明实施例的一种可选的信息交互方法的流程示意图;
图3是根据本发明实施例的一种可选的信息交互方法的示意图;
图4是根据本发明实施例的另一种可选的信息交互方法的示意图;
图5是根据本发明实施例的又一种可选的信息交互方法的示意图;
图6是根据本发明实施例的又一种可选的信息交互方法的示意图;
图7是根据本发明实施例的又一种可选的信息交互方法的示意图;
图8是根据本发明实施例的又一种可选的信息交互方法的示意图;
图9是根据本发明实施例的又一种可选的信息交互方法的示意图;
图10是根据本发明实施例的又一种可选的信息交互方法的示意图;
图11是根据本发明实施例的又一种可选的信息交互方法的示意图;
图12是根据本发明实施例的又一种可选的信息交互方法的示意图;
图13是根据本发明实施例的又一种可选的信息交互方法的示意图;
图14是根据本发明实施例的一种可选的信息交互装置的结构示意图;
图15是根据本发明实施例的一种可选的电子装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种信息交互方法,可选地,上述信息交互方法可以但不限于应用于如图1所示的环境中。
如图1所示,终端102通过终端上携带的用于识别用户生物特征的识别装置识别人的面部特征,或者通过声音采集装置采集用户的声音特征。根据采集到的生物特征,识别出目标对象的第一情绪,确定与第一情绪相匹配的带交互的第一交互信息,并将第一交互信息通过网络104发送给第二虚拟对象所在的第二终端106,第二终端106接收到第一交互信息后,在第二客户端上显示第一交互信息。其中,第一客户端位于第一终端102,第二客户端位于第二终端106。
可选地,在本实施例中,上述第一客户端与第二客户端可以包括但不限于以下至少之一:手机、平板电脑、笔记本电脑及其他可以提取目标对象的生物特征的移动硬件设备。上述网络可以包括但不限于无线网络,其中,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述只是一种示例,本实施例对此不做任何限定。
可选地,在本实施例中,作为一种可选的实施方式,如图2所示,上述信息交互方法可以包括:
S202,提取目标对象的生物特征,其中,目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;
S204,根据提取出的生物特征识别出目标对象当前的第一情绪;
S206,确定与第一情绪相匹配的待交互的第一交互信息;
S208,向第二虚拟对象所在第二客户端发送第一交互信息,其中,第二虚拟对象与第一虚拟对象共同执行虚拟任务。
可选地,上述信息交互方法可以但不限于应用于游戏领域或者仿真训练领域。以游戏领域为例,上述第一客户端可以为一位用户使用的游戏设备,第二客户端可以为另一位用户使用的游戏设备。第一虚拟对象可以为第一客户端控制的虚拟对象,第二虚拟对象可以为第二客户端控制的虚拟对象。当用户使用的游戏设备提取到用户的生物特征后,根据提取出的生物特征识别出用户的当前第一情绪,例如愤怒、紧张、激动等等。在识别出当前第一情绪后,确定与当前第一情绪匹配的第一交互信息,并将第一交互信息发送至另一用户所使用的第二客户端。
通过上述方法,通过提取目标对象的生物特征;根据提取出的生物特征识别出目标对象当前的第一情绪;确定与第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送第一交互信息的方法,从而可以根据目标对象的生物特征获取到待交互的第一交互消息,并将第一交互消息发送给第二客户端,避免了必须中断被应用客户端控制的控制对象所执行的应用任务才能完成与目标对象之间的信息交互的问题,从而可以在控制对象执行应用人物的过程中完成信息的交互,实现实现了降低交互操作复杂度的技术效果,解决了相关技术中存在的交互操作复杂度高的问题。
可选地,上述第一交互信息可以但不限于为文本信息、图像信息、音频信息中的一个或多个。
可选地,可以通过第一客户端所在终端的图像采集设备采集目标对象的面部画面,从面部画面中提取出目标对象的面部特征;根据提取的面部特征查找与面部特征对应的情绪标识,将情绪标识所表示的情绪作为第一情绪。
例如,结合图3进行说明。上述生物特征可以为用户的面部表情或者为声音信息。如图3所示,通过采集装置采集用户的面部画面,对采集到的面部画面进行分析,提取用户的面部特征,例如眉毛,眼睛,嘴巴,根据各个面部特征的特点,对应得到用户的第一情绪。
可选地,可以通过第一客户端所在的终端的声音采集设备采集目标对象的声音信号,并从声音信号中提取出目标对象的声音特征。根据提取出的声音特征与预先配置的目标音频特征做对比,在声音特征与目标音频特征相似度高于预定阈值的情况下,获取目标音频特征对应的情绪标识,将情绪标识所表示的情绪作为第一情绪。
例如,结合表1与图4进行说明。上述声音信号可以为用户发出的声音。如图4所示,当用户发出声音后,声音采集装置将用户的声音采集,并对采集到的声音与目标音频特征做对比,得到与目标音频特征对应的情绪标识,并得到第一情绪。如表1所示,接收到声音采集设备采集到的目标对象的声音信号如“兄弟们冲啊!”等信息后,将接收到的声音信号中的声音特征“冲”与目标音频特征做比较,得到声音特征与目标音频特征的相似度为80%。相似度超过预定阈值60%,则根据目标音频特征获取对应的情绪标识,情绪标识为激动,表示用户当前十分激动。
表1
Figure BDA0001578023090000061
需要说明的是,表1中的内容仅为了解释说明,并不构成对本申请的限定。上述目标音频特征可以为声音采集设备采集到的任何声音信号,上述声音特征可以采用任何算法采集,上述目标音频特征可以通过提前设置的方法获取,上述情绪标识可以为其他词汇。
需要说明的是,上述目标音频特征也可以为声音的音色、音调、声音强度等特征。当获取到用户的声音信息后,将获取到的声音信息于目标音频特征的音色、音调、声音强度作对比,从而得到对应的情绪标识。
以下以游戏为例,结合图5、6进行说明。在一局游戏中,第一客户端所在终端通过终端上携带的采集装置采集用户的面部画面与声音信息。将采集到的面部画面进行分析,得到面部特征,对声音信息进行分析,得到声音特征。根据面部特征与声音特征得到对应的情绪标识,从而得到用户的第一情绪。之后根据得到的第一情绪,对应得到第一交互信息,并在第二客户端上显示第一交互信息。显示结果如图5所示。
需要说明的是,当在第二客户端显示第一交互信息时,可以在第一客户端显示第一交互信息也可以不显示。图6为第一客户端显示第一交互信息的示例。
可选地,可以但不限于将与第一虚拟对象为相同阵营的虚拟对象确定为第二虚拟对象,将与第一虚拟对象为不同阵营的虚拟对象确定为第三虚拟对象。
可选地,第二虚拟对象可以为一个或多个与第一虚拟对象属于同一阵营的虚拟对象,第三虚拟对象可以为一个或多个与第一虚拟对象属于不同阵营的虚拟对象。第二虚拟对象与第一虚拟对象可以为队友关系,第三虚拟对象与第一虚拟对象可以为不同小队等。
可选地,可以使用以下方法确定第二虚拟对象或者第三虚拟对象:
1)根据虚拟对象的身份信息将虚拟对象划分为第二虚拟对象或者第三虚拟对象;
2)根据虚拟对象的任务目标将虚拟对象划分为第二虚拟对象或者第三虚拟对象;
3)根据虚拟对象的位置将虚拟对象划分为第二虚拟对象或者第三虚拟对象。
例如,继续以游戏领域为例进行说明,上述身份信息可以为虚拟对象的性别、国籍等。例如,将与第一虚拟对象的国籍相同的虚拟对象设置为第二虚拟对象,将与第一虚拟对象国籍不同的虚拟对象设置为第三虚拟对象等。上述位置可以为虚拟对象的出生位置。例如,以出生位置为例,提前设置不同的虚拟对象的出生区域,将与第一虚拟对象出生区域相同的虚拟对象设置为第二虚拟对象,将与第一虚拟对象出生区域不同的虚拟对象设置为第三虚拟对象。上述虚拟对象的任务目标可以为虚拟对象的获胜条件。将与第一虚拟对象的获胜条件相同的虚拟对象划分为第二虚拟对象,将与第一虚拟对象获胜条件不同的虚拟对象划分为第三虚拟对象。
可选地,可以将与第一虚拟对象同属于相同阵营的所有虚拟对象作为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第一交互信息,或者将与第一虚拟对象属于相同阵营的部分虚拟对象作为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第二虚拟对象;以及向与第一虚拟对象属于不同阵营的第三虚拟对象所在的第三客户端发送第二交互信息。其中,第一交互信息与第一情绪匹配,第二交互信息与第二情绪匹配,第一情绪与第二情绪不同。
例如,继续以上述游戏为例,结合图7进行说明。如图7所示,可以在第一客户端上配置第一交互消息的发送范围,上述第一交互消息可以为全员消息或者好友消息。第一客户端可以发送全员消息,也可以像配置的固定好友发送好友消息。发送全员消息可以为向所有其他用户发送消息,发送好友消息可以为多个好友组成一个小组,当发送好友消息时,一次性向一个小组内的好友发送好友消息,或者向固定的一个好友发送好友消息。
例如如图8-10所示,图8中为第一客户端配置发送全员消息时,第二客户端上显示有第一客户端发送的全员消息,该全员消息为所有用户都可以看到的消息。图9为当用户发送好友消息时,第二客户端能够看到用户发送的好友消息,但是该好友消息并不是所有用户都能看到,只有第一客户端配置的好友才能看到。可以通过设置全员消息与好友消息为不同的颜色或者带有不同的标志从而区分全员消息与好友消息。如图10所示,图10中的好友消息带有下划线,因此与全员消息分开。
可选地,当第一客户端发送消息后,第三虚拟对象所在的第三客户端接收到与第二客户端不同的消息。例如如图5与图11所示,图5为第二客户端接收到的第一交互信息,图11位第三客户端接收到的第一交互信息,可见,由于第三客户端的第三虚拟对象与第一客户端的第一虚拟对象为不同阵营,因此第三客户端显示的消息与第二客户端显示的消息不同。
可选地,在查找与第一情绪的情绪标识匹配的第一交互信息包括:在情绪标识指示为第一情绪类型的情况下,获取与第一情绪类型相匹配的第一交互信息,其中,与第一情绪类型相匹配的第一交互信息用于请求对第一虚拟对象进行帮助;在情绪标识指示为第二情绪类型的情况下,获取与第二情绪类型相匹配的第一交互信息,其中,与第二情绪类型相匹配的第一交互信息用于对第二虚拟对象进行鼓励提示;在情绪标识指示为第三情绪类型的情况下,获取与第三情绪类型相匹配的第一交互信息,其中,与第三情绪类型相匹配的第一交互信息用于向第二虚拟对象发出询问请求。
通过本实施例,通过通过提取目标对象的生物特征;根据提取出的生物特征识别出目标对象当前的第一情绪;确定与第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送第一交互信息的方法,从而可以根据目标对象的生物特征获取到待交互的第一交互消息,并将第一交互消息发送给第二客户端,避免了必须中断被应用客户端控制的控制对象所执行的应用任务才能完成与目标对象之间的信息交互的问题,从而实现了降低交互操作复杂度的技术效果,解决了相关技术中交互操作复杂度高的技术问题。
作为一种可选的实施方案,向第二虚拟对象所在第二客户端发送第一交互信息包括:
S1,从虚拟任务中确定出第二虚拟对象,其中,第二虚拟对象与第一虚拟对象为相同阵营的虚拟对象;
S2,向第二虚拟对象所在的第二客户端发送第一交互信息。
可选地,上述第一交互信息可以为文本信息、图像信息或音频信息。以第一交互信息为文本信息,结合图5进行说明。图5中显示的客户端为第二客户端,第二客户端中的虚拟对象为第二虚拟对象。第一客户端上的第一虚拟对象与第二虚拟对象为队友关系,第二客户端左上角显示有第一客户端发送的消息。第二客户端可以知道第一客户端的第一虚拟对象的状态。
通过本实施例,通过将与第一虚拟对象为相同阵营的虚拟对象确定为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第一交互消息,从而只向同阵营的第二虚拟对象发送第一交互消息,进而提高了第一交互消息的发送灵活性。
作为一种可选的实施方案,从虚拟任务中确定出第二虚拟对象包括:
(1)从相同阵营的虚拟对象中获取全部虚拟对象作为第二虚拟对象;或者
(2)从相同阵营的虚拟对象中获取部分虚拟对象作为第二虚拟对象,其中,部分虚拟对象与第一虚拟对象具有关联关系。
例如,继续以上述游戏领域进行解释说明。如图7所示,图7中为第一客户端的配置界面,第一客户端可以发送全员消息,也可以像配置的固定好友发送好友消息。发送全员消息可以为向所有其他用户发送消息,发送好友消息可以为多个好友组成一个小组,当发送好友消息时,一次性向一个小组内的好友发送好友消息,或者向固定的一个好友发送好友消息。
通过本实施例,通过将与第一虚拟角色属于同一阵营的全部虚拟角色作为第二虚拟角色,或者将与第一虚拟角色属于同一阵营的部分虚拟角色作为第二虚拟角色,从而可以灵活决定第二虚拟角色,使信息交互更灵活。
作为一种可选的实施方案,在向第二虚拟对象所在第二客户端发送第一交互信息时,还包括:
S1,从虚拟任务中确定出第三虚拟对象,其中,第三虚拟对象与第一虚拟对象为不同阵营的虚拟对象;
S2,向第三虚拟对象所在的第三客户端发送第二交互信息,其中,第二交互信息与第二情绪相匹配,第二情绪与第一情绪为不同情绪。
例如如图5与图11所示,图5为第二客户端接收到的第一交互信息,图11位第三客户端接收到的第一交互信息,可见,由于第三客户端的第三虚拟对象与第一客户端的第一虚拟对象为不同阵营,因此第三客户端显示的消息与第二客户端显示的消息不同。
通过本实施例,通过确定第三虚拟对象,并向第三虚拟对象发送第二交互消息,从而提高了信息交互的灵活性,进一步降低了信息交互的复杂度。
作为一种可选的实施方案,
S1,提取目标对象的生物特征包括:通过第一客户端所在终端中的图像采集设备采集目标对象的面部画面;从面部画面中提取出目标对象的面部特征;
S2,根据提取出的生物特征识别出目标对象当前的第一情绪包括:根据提取出的面部特征识别出目标对象的第一情绪。
其中,根据提取出的面部特征识别出目标对象的第一情绪包括:
S1,查找与提取出的面部特征匹配的情绪标识;
S2,将查找到的情绪标识所表示的情绪作为第一情绪。
可选地,上述图像采集设备可以为移动终端上的摄像头。上述面部特征可以为眉毛、额头、眼睛、脸部等面部器官的特征。
例如,结合图3与表2进行说明。上述生物特征可以为用户的面部表情或者为声音信息。如图3所示,通过采集装置采集用户的面部画面,对采集到的面部画面进行分析,提取用户的面部特征,例如眉毛,眼睛,嘴巴,根据各个面部特征的特点,对应得到用户的第一情绪。
表2中示出了一种可选的面部特征与第一情绪的对应关系。
表2
Figure BDA0001578023090000121
需要说明的是,上述画面采集装置为摄像头仅为一种可选的示例,并不构成对本申请的限定。
可选地,在通过摄像头获取到面部画面后,根据人脸检测算法将人脸图像从面部画面上剪切下来,根据面部特征提取与表情分类方法的不同,剪切的人脸图形比例也不相同。若面部画面为动态图,则需要对面部特征进行追踪。对剪切的面部画面进行集合处理或者灰度处理,然后提取面部特征,识别表情。
通过本实施例,通过根据目标对象的面部画面,提取面部特征,根据面部特征获取第一情绪,从而可以直接根据面部特征获取目标对象的第一情绪,从而降低了信息交互的复杂度。
作为一种可选的实施方案,
S1,提取目标对象的生物特征包括:通过第一客户端所在终端中的声音采集设备采集目标对象的声音信号;从声音信号中提取出目标对象的声音特征;
S2,根据提取出的生物特征识别出目标对象当前的第一情绪包括:根据提取出的声音特征识别出目标对象的第一情绪。
其中,根据提取出的声音特征识别出目标对象的第一情绪包括:
S1,获取预先配置的目标音频特征,其中,目标音频特征用于触发第一交互信息;
S2,在声音特征与目标音频特征之间的相似度高于预定阈值的情况下,获取与目标音频特征对应的情绪标识;
S3,将情绪标识所表示的情绪作为第一情绪。
例如,结合表1与图4进行说明。上述声音信号可以为用户发出的声音。如图4所示,当用户发出声音后,声音采集装置将用户的声音采集,并对采集到的声音与目标音频特征做对比,得到与目标音频特征对应的情绪标识,并得到第一情绪。如表1所示,接收到声音采集设备采集到的目标对象的声音信号如“兄弟们冲啊!”等信息后,将接收到的声音信号中的声音特征“冲”与目标音频特征做比较,得到声音特征与目标音频特征的相似度为80%。相似度超过预定阈值60%,则根据目标音频特征获取对应的情绪标识,情绪标识为激动,表示用户当前十分激动。
表1
Figure BDA0001578023090000131
需要说明的是,表1中的内容仅为了解释说明,并不构成对本申请的限定。上述目标音频特征可以为声音采集设备采集到的任何声音信号,上述声音特征可以采用任何算法采集,上述目标音频特征可以通过提前设置的方法获取,上述情绪标识可以为其他词汇。
需要说明的是,上述目标音频特征也可以为声音的音色、音调、声音强度等特征。当获取到用户的声音信息后,将获取到的声音信息于目标音频特征的音色、音调、声音强度作对比,从而得到对应的情绪标识。可选地,在对接收到的声音信号进行分析时,通过至少两条语音识别支路识别输入语音。在两条语音识别支路识别到的两种语音识别结果一致时,才能够输出识别出的结果。在两条语音识别支路识别到的两种语音识别结果不一致时,则提示用户重新输入语音信号。
可选地,当至少两条语音识别支路识别的语音识别结果不一致时,还可以根据少数服从多数原则或者加权算法或者两者的结合对至少两种语音识别结果进行处理,得到一个语音识别结果,并输出语音识别结果。
可选地,上述语音识别支路可以采用基于统计的隐含马尔可夫模型识别或训练算法或者两者的结合来实现。
通过本实施例,通过预先配置目标音频特征,在目标音频特征与声音特征的相似度高于预定阈值的情况下,获取与目标音频特征对应的情绪标识,将情绪标识标识的情绪作为第一情绪,从而可以根据语音信息得到对应的第一情绪,从而降低了信息交互的复杂度。
作为一种可选的实施方案,确定与目标对象当前的第一情绪相匹配的待交互的第一交互信息包括:
S1,获取第一情绪的情绪标识;
S2,查找与第一情绪的情绪标识相匹配的第一交互信息。
可选地,可以预先设定第一情绪的情绪标识与第一交互信息的对应关系,根据获取的情绪标识从预先设定的情绪标识与第一交互信息的对应关系中查找对应的第一交互信息,从而获取到第一交互信息,并发送第一交互信息。
通过本实施例,通过获取到情绪标识后,根据情绪标识与第一交互信息的对应关系,查找第一交互信息,从而可以发送第一交互信息,提高了信息交互的效率。
作为一种可选的实施方案,查找与第一情绪的情绪标识相匹配的第一交互信息包括:
(1)在情绪标识指示为第一情绪类型的情况下,获取与第一情绪类型相匹配的第一交互信息,其中,与第一情绪类型相匹配的第一交互信息用于请求对第一虚拟对象进行帮助;
(2)在情绪标识指示为第二情绪类型的情况下,获取与第二情绪类型相匹配的第一交互信息,其中,与第二情绪类型相匹配的第一交互信息用于对第二虚拟对象进行鼓励提示;
(3)在情绪标识指示为第三情绪类型的情况下,获取与第三情绪类型相匹配的第一交互信息,其中,与第三情绪类型相匹配的第一交互信息用于向第二虚拟对象发出询问请求。
例如,继续结合上述游戏进行说明。当获取到的情绪标识的类型不同时,第一交互信息所携带的内容不同。上述第一情绪类型可以为紧张、激动、疑问等。上述第一交互信息可以为文本信息,例如“救我”、“加油,我们能行!”、“你确定?”。当情绪标识指示为第一情绪类型如紧张时,与之匹配的第一交互信息可以为“救我”;当情绪标识指示为第一情绪类型如紧张时,与之匹配的第一交互信息可以为“救我”;当情绪标识指示为第一情绪类型如激动时,与之匹配的第一交互信息可以为“加油,我们能行!”;当情绪标识指示为第一情绪类型如疑问时,与之匹配的第一交互信息可以为“你确定?”用于表示疑问。
通过本实施例,通过根据情绪标识的类型决定第一交互信息的内容,从而进一步降低了信息交互的复杂度,提高了信息交互的灵活性。
作为一种可选的实施方案,确定与目标对象当前的第一情绪相匹配的待交互的第一交互信息包括以下至少之一:
(1)确定与第一情绪相匹配的文本信息;
(2)确定与第一情绪相匹配的图像信息;
(3)确定与第一情绪相匹配的音频信息。
例如,继续以上述游戏为例,结合图12-13进行说明,图12与图13为第二客户端。在第一客户端向第二客户端发送的消息可以为语音消息或者图像消息。如图12所示为语音消息,如图13所示为图像消息。
需要说明的是,图12与图13仅为示例,并不构成对本申请的限定。
通过本实施例,通过为第一交互信息设置不同的类型,从而提升了信息交互的灵活性,进一步降低了信息交互的复杂度。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
根据本发明实施例的另一个方面,还提供了一种用于实施上述信息交互方法的信息交互装置。在本实施例中,作为一种可选的实施方式,如图14所示,上述信息交互装置可以包括:
(1)提取单元1402,用于提取目标对象的生物特征,其中,目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;
(2)识别单元1404,用于根据提取出的生物特征识别出目标对象当前的第一情绪;
(3)确定单元1406,用于确定与第一情绪相匹配的待交互的第一交互信息;
(4)发送单元1408,用于向第二虚拟对象所在第二客户端发送第一交互信息,其中,第二虚拟对象与第一虚拟对象共同执行虚拟任务。
可选地,上述信息交互装置可以但不限于应用于游戏领域或者仿真训练领域。以游戏领域为例,上述第一客户端可以为一位用户使用的游戏设备,第二客户端可以为另一位用户使用的游戏设备。第一虚拟对象可以为第一客户端控制的虚拟对象,第二虚拟对象可以为第二客户端控制的虚拟对象。当用户使用的游戏设备提取到用户的生物特征后,根据提取出的生物特征识别出用户的当前第一情绪,例如愤怒、紧张、激动等等。在识别出当前第一情绪后,确定与当前第一情绪匹配的第一交互信息,并将第一交互信息发送至另一用户所使用的第二客户端。
通过上述方法,通过提取目标对象的生物特征;根据提取出的生物特征识别出目标对象当前的第一情绪;确定与第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送第一交互信息的方法,从而可以根据目标对象的生物特征获取到待交互的第一交互消息,并将第一交互消息发送给第二客户端,避免了必须中断被应用客户端控制的控制对象所执行的应用任务才能完成与目标对象之间的信息交互的问题,从而可以在控制对象执行应用人物的过程中完成信息的交互,实现实现了降低交互操作复杂度的技术效果,解决了相关技术中存在的交互操作复杂度高的问题。
可选地,上述第一交互信息可以但不限于为文本信息、图像信息、音频信息中的一个或多个。
可选地,可以通过第一客户端所在终端的图像采集设备采集目标对象的面部画面,从面部画面中提取出目标对象的面部特征;根据提取的面部特征查找与面部特征对应的情绪标识,将情绪标识所表示的情绪作为第一情绪。
例如,结合图3进行说明。上述生物特征可以为用户的面部表情或者为声音信息。如图3所示,通过采集装置采集用户的面部画面,对采集到的面部画面进行分析,提取用户的面部特征,例如眉毛,眼睛,嘴巴,根据各个面部特征的特点,对应得到用户的第一情绪。
可选地,可以通过第一客户端所在的终端的声音采集设备采集目标对象的声音信号,并从声音信号中提取出目标对象的声音特征。根据提取出的声音特征与预先配置的目标音频特征做对比,在声音特征与目标音频特征相似度高于预定阈值的情况下,获取目标音频特征对应的情绪标识,将情绪标识所表示的情绪作为第一情绪。
例如,结合表1与图4进行说明。上述声音信号可以为用户发出的声音。如图4所示,当用户发出声音后,声音采集装置将用户的声音采集,并对采集到的声音与目标音频特征做对比,得到与目标音频特征对应的情绪标识,并得到第一情绪。如表1所示,接收到声音采集设备采集到的目标对象的声音信号如“兄弟们冲啊!”等信息后,将接收到的声音信号中的声音特征“冲”与目标音频特征做比较,得到声音特征与目标音频特征的相似度为80%。相似度超过预定阈值60%,则根据目标音频特征获取对应的情绪标识,情绪标识为激动,表示用户当前十分激动。
表1
Figure BDA0001578023090000191
需要说明的是,表1中的内容仅为了解释说明,并不构成对本申请的限定。上述目标音频特征可以为声音采集设备采集到的任何声音信号,上述声音特征可以采用任何算法采集,上述目标音频特征可以通过提前设置的方法获取,上述情绪标识可以为其他词汇。
需要说明的是,上述目标音频特征也可以为声音的音色、音调、声音强度等特征。当获取到用户的声音信息后,将获取到的声音信息于目标音频特征的音色、音调、声音强度作对比,从而得到对应的情绪标识。
以下以游戏为例,结合图5、6进行说明。在一局游戏中,第一客户端所在终端通过终端上携带的采集装置采集用户的面部画面与声音信息。将采集到的面部画面进行分析,得到面部特征,对声音信息进行分析,得到声音特征。根据面部特征与声音特征得到对应的情绪标识,从而得到用户的第一情绪。之后根据得到的第一情绪,对应得到第一交互信息,并在第二客户端上显示第一交互信息。显示结果如图5所示。
需要说明的是,当在第二客户端显示第一交互信息时,可以在第一客户端显示第一交互信息也可以不显示。图6为第一客户端显示第一交互信息的示例。
可选地,可以但不限于将与第一虚拟对象为相同阵营的虚拟对象确定为第二虚拟对象,将与第一虚拟对象为不同阵营的虚拟对象确定为第三虚拟对象。
可选地,第二虚拟对象可以为一个或多个与第一虚拟对象属于同一阵营的虚拟对象,第三虚拟对象可以为一个或多个与第一虚拟对象属于不同阵营的虚拟对象。第二虚拟对象与第一虚拟对象可以为队友关系,第三虚拟对象与第一虚拟对象可以为不同小队等。
可选地,可以使用以下方法确定第二虚拟对象或者第三虚拟对象:
1)根据虚拟对象的身份信息将虚拟对象划分为第二虚拟对象或者第三虚拟对象;
2)根据虚拟对象的任务目标将虚拟对象划分为第二虚拟对象或者第三虚拟对象;
3)根据虚拟对象的位置将虚拟对象划分为第二虚拟对象或者第三虚拟对象。
例如,继续以游戏领域为例进行说明,上述身份信息可以为虚拟对象的性别、国籍等。例如,将与第一虚拟对象的国籍相同的虚拟对象设置为第二虚拟对象,将与第一虚拟对象国籍不同的虚拟对象设置为第三虚拟对象等。上述位置可以为虚拟对象的出生位置。例如,以出生位置为例,提前设置不同的虚拟对象的出生区域,将与第一虚拟对象出生区域相同的虚拟对象设置为第二虚拟对象,将与第一虚拟对象出生区域不同的虚拟对象设置为第三虚拟对象。上述虚拟对象的任务目标可以为虚拟对象的获胜条件。将与第一虚拟对象的获胜条件相同的虚拟对象划分为第二虚拟对象,将与第一虚拟对象获胜条件不同的虚拟对象划分为第三虚拟对象。
可选地,可以将与第一虚拟对象同属于相同阵营的所有虚拟对象作为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第一交互信息,或者将与第一虚拟对象属于相同阵营的部分虚拟对象作为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第二虚拟对象;以及向与第一虚拟对象属于不同阵营的第三虚拟对象所在的第三客户端发送第二交互信息。其中,第一交互信息与第一情绪匹配,第二交互信息与第二情绪匹配,第一情绪与第二情绪不同。
例如,继续以上述游戏为例,结合图7进行说明。如图7所示,可以在第一客户端上配置第一交互消息的发送范围,上述第一交互消息可以为全员消息或者好友消息。第一客户端可以发送全员消息,也可以像配置的固定好友发送好友消息。发送全员消息可以为向所有其他用户发送消息,发送好友消息可以为多个好友组成一个小组,当发送好友消息时,一次性向一个小组内的好友发送好友消息,或者向固定的一个好友发送好友消息。
例如如图8-10所示,图8中为第一客户端配置发送全员消息时,第二客户端上显示有第一客户端发送的全员消息,该全员消息为所有用户都可以看到的消息。图9为当用户发送好友消息时,第二客户端能够看到用户发送的好友消息,但是该好友消息并不是所有用户都能看到,只有第一客户端配置的好友才能看到。可以通过设置全员消息与好友消息为不同的颜色或者带有不同的标志从而区分全员消息与好友消息。如图10所示,图10中的好友消息带有下划线,因此与全员消息分开。
可选地,当第一客户端发送消息后,第三虚拟对象所在的第三客户端接收到与第二客户端不同的消息。例如如图5与图11所示,图5为第二客户端接收到的第一交互信息,图11位第三客户端接收到的第一交互信息,可见,由于第三客户端的第三虚拟对象与第一客户端的第一虚拟对象为不同阵营,因此第三客户端显示的消息与第二客户端显示的消息不同。
可选地,在查找与第一情绪的情绪标识匹配的第一交互信息包括:在情绪标识指示为第一情绪类型的情况下,获取与第一情绪类型相匹配的第一交互信息,其中,与第一情绪类型相匹配的第一交互信息用于请求对第一虚拟对象进行帮助;在情绪标识指示为第二情绪类型的情况下,获取与第二情绪类型相匹配的第一交互信息,其中,与第二情绪类型相匹配的第一交互信息用于对第二虚拟对象进行鼓励提示;在情绪标识指示为第三情绪类型的情况下,获取与第三情绪类型相匹配的第一交互信息,其中,与第三情绪类型相匹配的第一交互信息用于向第二虚拟对象发出询问请求。
通过本实施例,通过通过提取目标对象的生物特征;根据提取出的生物特征识别出目标对象当前的第一情绪;确定与第一情绪相匹配的待交互的第一交互信息;向第二虚拟对象所在第二客户端发送第一交互信息的方法,从而可以根据目标对象的生物特征获取到待交互的第一交互消息,并将第一交互消息发送给第二客户端,避免了必须中断被应用客户端控制的控制对象所执行的应用任务才能完成与目标对象之间的信息交互的问题,从而实现了降低交互操作复杂度的技术效果,解决了相关技术中交互操作复杂度高的技术问题。
作为一种可选的实施方式,发送单元包括:
(1)第一确定模块,用于从虚拟任务中确定出第二虚拟对象,其中,第二虚拟对象与第一虚拟对象为相同阵营的虚拟对象;
(2)第一发送模块,用于向第二虚拟对象所在的第二客户端发送第一交互信息。
可选地,上述第一交互信息可以为文本信息、图像信息或音频信息。以第一交互信息为文本信息,结合图5进行说明。图5中显示的客户端为第二客户端,第二客户端中的虚拟对象为第二虚拟对象。第一客户端上的第一虚拟对象与第二虚拟对象为队友关系,第二客户端左上角显示有第一客户端发送的消息。第二客户端可以知道第一客户端的第一虚拟对象的状态。
通过本实施例,通过将与第一虚拟对象为相同阵营的虚拟对象确定为第二虚拟对象,并向第二虚拟对象所在的第二客户端发送第一交互消息,从而只向同阵营的第二虚拟对象发送第一交互消息,进而提高了第一交互消息的发送灵活性。
作为一种可选的实施方式,第一确定模块包括:
(1)第一获取子模块,用于从相同阵营的虚拟对象中获取全部虚拟对象作为第二虚拟对象;或者
(2)第二获取子模块,用于从相同阵营的虚拟对象中获取部分虚拟对象作为第二虚拟对象,其中,部分虚拟对象与第一虚拟对象具有关联关系。
例如,继续以上述游戏领域进行解释说明。如图7所示,图7中为第一客户端的配置界面,第一客户端可以发送全员消息,也可以像配置的固定好友发送好友消息。发送全员消息可以为向所有其他用户发送消息,发送好友消息可以为多个好友组成一个小组,当发送好友消息时,一次性向一个小组内的好友发送好友消息,或者向固定的一个好友发送好友消息。
通过本实施例,通过将与第一虚拟角色属于同一阵营的全部虚拟角色作为第二虚拟角色,或者将与第一虚拟角色属于同一阵营的部分虚拟角色作为第二虚拟角色,从而可以灵活决定第二虚拟角色,使信息交互更灵活。
作为一种可选的实施方式,发送单元还包括:
(1)第二确定模块,用于从虚拟任务中确定出第三虚拟对象,其中,第三虚拟对象与第一虚拟对象为不同阵营的虚拟对象;
(2)第二发送模块,用于向第三虚拟对象所在的第三客户端发送第二交互信息,其中,第二交互信息与第二情绪相匹配,第二情绪与第一情绪为不同情绪。
例如如图5与图11所示,图5为第二客户端接收到的第一交互信息,图11位第三客户端接收到的第一交互信息,可见,由于第三客户端的第三虚拟对象与第一客户端的第一虚拟对象为不同阵营,因此第三客户端显示的消息与第二客户端显示的消息不同。
通过本实施例,通过确定第三虚拟对象,并向第三虚拟对象发送第二交互消息,从而提高了信息交互的灵活性,进一步降低了信息交互的复杂度。例如如图5与图11所示,图5为第二客户端接收到的第一交互信息,图11位第三客户端接收到的第一交互信息,可见,由于第三客户端的第三虚拟对象与第一客户端的第一虚拟对象为不同阵营,因此第三客户端显示的消息与第二客户端显示的消息不同。
通过本实施例,通过确定第三虚拟对象,并向第三虚拟对象发送第二交互消息,从而提高了信息交互的灵活性,进一步降低了信息交互的复杂度。
作为一种可选的实施方式,
(1)提取单元包括:第一采集模块,用于通过第一客户端所在终端中的图像采集设备采集目标对象的面部画面;第一提取模块,用于从面部画面中提取出目标对象的面部特征;
(2)识别单元包括:识别模块,用于根据提取出的面部特征识别出目标对象的第一情绪。
其中,识别模块包括:
(1)第一查找子模块,用于查找与提取出的面部特征匹配的情绪标识;
(2)第一确定子模块,用于将查找到的情绪标识所表示的情绪作为第一情绪。
可选地,上述图像采集设备可以为移动终端上的摄像头。上述面部特征可以为眉毛、额头、眼睛、脸部等面部器官的特征。
例如,结合图3与表2进行说明。上述生物特征可以为用户的面部表情或者为声音信息。如图3所示,通过采集装置采集用户的面部画面,对采集到的面部画面进行分析,提取用户的面部特征,例如眉毛,眼睛,嘴巴,根据各个面部特征的特点,对应得到用户的第一情绪。
表2中示出了一种可选的面部特征与第一情绪的对应关系。
表2
Figure BDA0001578023090000251
需要说明的是,上述画面采集装置为摄像头仅为一种可选的示例,并不构成对本申请的限定。
可选地,在通过摄像头获取到面部画面后,根据人脸检测算法将人脸图像从面部画面上剪切下来,根据面部特征提取与表情分类方法的不同,剪切的人脸图形比例也不相同。若面部画面为动态图,则需要对面部特征进行追踪。对剪切的面部画面进行集合处理或者灰度处理,然后提取面部特征,识别表情。
通过本实施例,通过根据目标对象的面部画面,提取面部特征,根据面部特征获取第一情绪,从而可以直接根据面部特征获取目标对象的第一情绪,从而降低了信息交互的复杂度。可选地,上述图像采集设备可以为移动终端上的摄像头。上述面部特征可以为眉毛、额头、眼睛、脸部等面部器官的特征。
作为一种可选的实施方式,
(1)提取单元包括:第二采集模块,用于通过第一客户端所在终端中的声音采集设备采集目标对象的声音信号;第二采集模块,用于从声音信号中提取出目标对象的声音特征;
(2)识别单元包括:第二识别模块,用于根据提取出的声音特征识别出目标对象的第一情绪。
其中,第二识别模块包括:
(1)第三获取子模块,用于获取预先配置的目标音频特征,其中,目标音频特征用于触发第一交互信息;
(2)第四获取子模块,用于在声音特征与目标音频特征之间的相似度高于预定阈值的情况下,获取与目标音频特征对应的情绪标识;
(3)第二确定子模块,用于将情绪标识所表示的情绪作为第一情绪。
例如,结合表1与图4进行说明。上述声音信号可以为用户发出的声音。如图4所示,当用户发出声音后,声音采集装置将用户的声音采集,并对采集到的声音与目标音频特征做对比,得到与目标音频特征对应的情绪标识,并得到第一情绪。如表1所示,接收到声音采集设备采集到的目标对象的声音信号如“兄弟们冲啊!”等信息后,将接收到的声音信号中的声音特征“冲”与目标音频特征做比较,得到声音特征与目标音频特征的相似度为80%。相似度超过预定阈值60%,则根据目标音频特征获取对应的情绪标识,情绪标识为激动,表示用户当前十分激动。
表1
Figure BDA0001578023090000261
需要说明的是,表1中的内容仅为了解释说明,并不构成对本申请的限定。上述目标音频特征可以为声音采集设备采集到的任何声音信号,上述声音特征可以采用任何算法采集,上述目标音频特征可以通过提前设置的方法获取,上述情绪标识可以为其他词汇。
需要说明的是,上述目标音频特征也可以为声音的音色、音调、声音强度等特征。当获取到用户的声音信息后,将获取到的声音信息于目标音频特征的音色、音调、声音强度作对比,从而得到对应的情绪标识。可选地,在对接收到的声音信号进行分析时,通过至少两条语音识别支路识别输入语音。在两条语音识别支路识别到的两种语音识别结果一致时,才能够输出识别出的结果。在两条语音识别支路识别到的两种语音识别结果不一致时,则提示用户重新输入语音信号。
可选地,当至少两条语音识别支路识别的语音识别结果不一致时,还可以根据少数服从多数原则或者加权算法或者两者的结合对至少两种语音识别结果进行处理,得到一个语音识别结果,并输出语音识别结果。
可选地,上述语音识别支路可以采用基于统计的隐含马尔可夫模型识别或训练算法或者两者的结合来实现。
通过本实施例,通过预先配置目标音频特征,在目标音频特征与声音特征的相似度高于预定阈值的情况下,获取与目标音频特征对应的情绪标识,将情绪标识标识的情绪作为第一情绪,从而可以根据语音信息得到对应的第一情绪,从而降低了信息交互的复杂度。
作为一种可选的实施方式,确定单元包括:
(1)获取模块,用于获取第一情绪的情绪标识;
(2)查找模块,用于查找与第一情绪的情绪标识相匹配的第一交互信息。
可选地,可以预先设定第一情绪的情绪标识与第一交互信息的对应关系,根据获取的情绪标识从预先设定的情绪标识与第一交互信息的对应关系中查找对应的第一交互信息,从而获取到第一交互信息,并发送第一交互信息。
通过本实施例,通过获取到情绪标识后,根据情绪标识与第一交互信息的对应关系,查找第一交互信息,从而可以发送第一交互信息,提高了信息交互的效率。
作为一种可选的实施方式,查找模块包括:
(1)第五获取子模块,用于在情绪标识指示为第一情绪类型的情况下,获取与第一情绪类型相匹配的第一交互信息,其中,与第一情绪类型相匹配的第一交互信息用于请求对第一虚拟对象进行帮助;
(2)第六获取子模块,用于在情绪标识指示为第二情绪类型的情况下,获取与第二情绪类型相匹配的第一交互信息,其中,与第二情绪类型相匹配的第一交互信息用于对第二虚拟对象进行鼓励提示;
(3)第七获取子模块,用于在情绪标识指示为第三情绪类型的情况下,获取与第三情绪类型相匹配的第一交互信息,其中,与第三情绪类型相匹配的第一交互信息用于向第二虚拟对象发出询问请求。
例如,继续结合上述游戏进行说明。当获取到的情绪标识的类型不同时,第一交互信息所携带的内容不同。上述第一情绪类型可以为紧张、激动、疑问等。上述第一交互信息可以为文本信息,例如“救我”、“加油,我们能行!”、“你确定?”。当情绪标识指示为第一情绪类型如紧张时,与之匹配的第一交互信息可以为“救我”;当情绪标识指示为第一情绪类型如紧张时,与之匹配的第一交互信息可以为“救我”;当情绪标识指示为第一情绪类型如激动时,与之匹配的第一交互信息可以为“加油,我们能行!”;当情绪标识指示为第一情绪类型如疑问时,与之匹配的第一交互信息可以为“你确定?”用于表示疑问。
通过本实施例,通过根据情绪标识的类型决定第一交互信息的内容,从而进一步降低了信息交互的复杂度,提高了信息交互的灵活性。
作为一种可选的实施方式,确定单元包括以下至少之一:
(1)第三确定模块,用于确定与第一情绪相匹配的文本信息;
(2)第四确定模块,用于确定与第一情绪相匹配的图像信息;
(3)第五确定模块,用于确定与第一情绪相匹配的音频信息。
例如,继续以上述游戏为例,结合图12-13进行说明,图12与图13为第二客户端。在第一客户端向第二客户端发送的消息可以为语音消息或者图像消息。如图12所示为语音消息,如图13所示为图像消息。
需要说明的是,图12与图13仅为示例,并不构成对本申请的限定。
通过本实施例,通过为第一交互信息设置不同的类型,从而提升了信息交互的灵活性,进一步降低了信息交互的复杂度。
本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,提取目标对象的生物特征,其中,目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;
S2,根据提取出的生物特征识别出目标对象当前的第一情绪;
S3,确定与第一情绪相匹配的待交互的第一交互信息;
S4,向第二虚拟对象所在第二客户端发送第一交互信息,其中,第二虚拟对象与第一虚拟对象共同执行虚拟任务。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,从虚拟任务中确定出第二虚拟对象,其中,第二虚拟对象与第一虚拟对象为相同阵营的虚拟对象;
S2,向第二虚拟对象所在的第二客户端发送第一交互信息。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,从相同阵营的虚拟对象中获取全部虚拟对象作为第二虚拟对象;
S2,从相同阵营的虚拟对象中获取部分虚拟对象作为第二虚拟对象,其中,部分虚拟对象与第一虚拟对象具有关联关系。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,从虚拟任务中确定出第三虚拟对象,其中,第三虚拟对象与第一虚拟对象为不同阵营的虚拟对象;
S2,向第三虚拟对象所在的第三客户端发送第二交互信息,其中,第二交互信息与第二情绪相匹配,第二情绪与第一情绪为不同情绪。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,提取目标对象的生物特征包括:通过第一客户端所在终端中的图像采集设备采集目标对象的面部画面;从面部画面中提取出目标对象的面部特征;
S2,根据提取出的面部特征识别出目标对象的第一情绪。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,查找与提取出的面部特征匹配的情绪标识;
S2,将查找到的情绪标识所表示的情绪作为第一情绪。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,通过第一客户端所在终端中的声音采集设备采集目标对象的声音信号;从声音信号中提取出目标对象的声音特征;
S2,根据提取出的声音特征识别出目标对象的第一情绪。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取预先配置的目标音频特征,其中,目标音频特征用于触发第一交互信息;
S2,在声音特征与目标音频特征之间的相似度高于预定阈值的情况下,获取与目标音频特征对应的情绪标识;
S3,将情绪标识所表示的情绪作为第一情绪。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取第一情绪的情绪标识;
S2,查找与第一情绪的情绪标识相匹配的第一交互信息。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,在情绪标识指示为第一情绪类型的情况下,获取与第一情绪类型相匹配的第一交互信息,其中,与第一情绪类型相匹配的第一交互信息用于请求对第一虚拟对象进行帮助;
S2,在情绪标识指示为第二情绪类型的情况下,获取与第二情绪类型相匹配的第一交互信息,其中,与第二情绪类型相匹配的第一交互信息用于对第二虚拟对象进行鼓励提示;
S3,在情绪标识指示为第三情绪类型的情况下,获取与第三情绪类型相匹配的第一交互信息,其中,与第三情绪类型相匹配的第一交互信息用于向第二虚拟对象发出询问请求。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,确定与第一情绪相匹配的文本信息;
S2,确定与第一情绪相匹配的图像信息;
S3,确定与第一情绪相匹配的音频信息。
可选地,存储介质还被设置为存储用于执行上述实施例中的方法中所包括的步骤的计算机程序,本实施例中对此不再赘述。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
根据本发明实施例的又一个方面,还提供了一种用于实施上述信息交互方法的电子装置,如图15所示,该电子装置包括处理器1502、存储器1504、传输装置1506与显示器1508,该存储器1504中存储有计算机程序,该处理器被设置为通过计算机程序执行上述任一项方法实施例中的步骤。传输装置1506用于传输采集到的面部画面与语音信息等,显示器1508用于显示第一交互信息等。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器1502可以被设置为通过计算机程序执行以下步骤:
S1,提取目标对象的生物特征,其中,目标对象通过第一客户端控制第一虚拟对象执行虚拟任务;
S2,根据提取出的生物特征识别出目标对象当前的第一情绪;
S3,确定与第一情绪相匹配的待交互的第一交互信息;
S4,向第二虚拟对象所在第二客户端发送第一交互信息,其中,第二虚拟对象与第一虚拟对象共同执行虚拟任务。
可选地,本领域普通技术人员可以理解,图15所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobi le Internet Devices,简称为MID)、PAD等终端设备。图15其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图15中所示更多或者更少的组件(如网络接口等),或者具有与图15所示不同的配置。
其中,存储器1504可用于存储软件程序以及模块,如本发明实施例中的信息交互方法对应的程序指令/模块,处理器1502通过运行存储在存储器1504内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述信息交互方法。存储器1504可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1504可进一步包括相对于处理器1502远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置1506用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1506包括一个网络适配器(NetworkInterface Control ler,简称为NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1506为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器1504用于存储第一交互信息与提取到的生物特征等信息。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (20)

1.一种信息交互方法,其特征在于,包括:
提取目标对象的生物特征,其中,所述目标对象通过第一客户端控制第一虚拟对象执行虚拟游戏任务;
根据提取出的所述生物特征识别出所述目标对象当前在执行所述虚拟游戏任务时的第一情绪;
确定与所述第一情绪相匹配的待交互的第一文本信息;
根据预先配置的发送范围,从所述虚拟游戏任务中确定出属于所述发送范围的第二虚拟对象,向所第二虚拟对象所在第二客户端发送所述第一文本信息,其中,属于所述发送范围的所述第二虚拟对象与所述第一虚拟对象共同执行所述虚拟游戏任务,所述第二虚拟对象与所述第一虚拟对象为相同阵营的虚拟对象;
从所述虚拟游戏任务中确定出第三虚拟对象,其中,所述第三虚拟对象与所述第一虚拟对象为不同阵营的虚拟对象;向所述第三虚拟对象所在的第三客户端发送第二文本信息,其中,所述第二文本信息与第二情绪相匹配,所述第二情绪与所述第一情绪为不同情绪。
2.根据权利要求1所述的方法,其特征在于,所述从所述虚拟游戏任务中确定出所述第二虚拟对象包括:
从所述相同阵营的虚拟对象中获取全部虚拟对象作为所述第二虚拟对象;或者
从所述相同阵营的虚拟对象中获取部分虚拟对象作为所述第二虚拟对象,其中,所述部分虚拟对象与所述第一虚拟对象具有关联关系。
3.根据权利要求1所述的方法,其特征在于,
所述提取目标对象的生物特征包括:通过所述第一客户端所在终端中的图像采集设备采集所述目标对象的面部画面;从所述面部画面中提取出所述目标对象的面部特征;
所述根据提取出的所述生物特征识别出所述目标对象当前的第一情绪包括:根据提取出的所述面部特征识别出所述目标对象的所述第一情绪。
4.根据权利要求3所述的方法,其特征在于,所述根据提取出的所述面部特征识别出所述目标对象的所述第一情绪包括:
查找与提取出的所述面部特征匹配的情绪标识;
将查找到的所述情绪标识所表示的情绪作为所述第一情绪。
5.根据权利要求1所述的方法,其特征在于,
所述提取目标对象的生物特征包括:通过所述第一客户端所在终端中的声音采集设备采集所述目标对象的声音信号;从所述声音信号中提取出所述目标对象的声音特征;
所述根据提取出的所述生物特征识别出所述目标对象当前的第一情绪包括:根据提取出的所述声音特征识别出所述目标对象的所述第一情绪。
6.根据权利要求5所述的方法,其特征在于,所述根据提取出的所述声音特征识别出所述目标对象的所述第一情绪包括:
获取预先配置的目标音频特征,其中,所述目标音频特征用于触发所述第一文本信息;
在所述声音特征与所述目标音频特征之间的相似度高于预定阈值的情况下,获取与所述目标音频特征对应的情绪标识;
将所述情绪标识所表示的情绪作为所述第一情绪。
7.根据权利要求1所述的方法,其特征在于,所述确定与所述目标对象当前的第一情绪相匹配的待交互的第一文本信息包括:
获取所述第一情绪的情绪标识;
查找与所述第一情绪的情绪标识相匹配的所述第一文本信息。
8.根据权利要求7所述的方法,其特征在于,所述查找与所述第一情绪的情绪标识相匹配的所述第一文本信息包括:
在所述情绪标识指示为第一情绪类型的情况下,获取与所述第一情绪类型相匹配的所述第一文本信息,其中,与所述第一情绪类型相匹配的所述第一文本信息用于请求对所述第一虚拟对象进行帮助;
在所述情绪标识指示为第二情绪类型的情况下,获取与所述第二情绪类型相匹配的所述第一文本信息,其中,与所述第二情绪类型相匹配的所述第一文本信息用于对所述第二虚拟对象进行鼓励提示;
在所述情绪标识指示为第三情绪类型的情况下,获取与所述第三情绪类型相匹配的所述第一文本信息,其中,与所述第三情绪类型相匹配的所述第一文本信息用于向所述第二虚拟对象发出询问请求。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述确定与所述目标对象当前的第一情绪相匹配的待交互的第一文本信息包括以下至少之一:
确定与所述第一情绪相匹配的文本信息;
确定与所述第一情绪相匹配的图像信息;
确定与所述第一情绪相匹配的音频信息。
10.一种信息交互装置,其特征在于,包括:
提取单元,用于提取目标对象的生物特征,其中,所述目标对象通过第一客户端控制第一虚拟对象执行虚拟游戏任务;
识别单元,用于根据提取出的所述生物特征识别出所述目标对象当前在执行所述虚拟游戏任务时的第一情绪;
确定单元,用于确定与所述第一情绪相匹配的待交互的第一文本信息;
发送单元,用于根据预先配置的发送范围,向属于所述发送范围的第二虚拟对象所在第二客户端发送所述第一文本信息,其中,属于所述发送范围的所述第二虚拟对象与所述第一虚拟对象共同执行所述虚拟游戏任务,所述发送单元包括:
第一确定模块,用于从所述虚拟游戏任务中确定出所述第二虚拟对象,其中,所述第二虚拟对象与所述第一虚拟对象为相同阵营的虚拟对象;
第一发送模块,用于向所述第二虚拟对象所在的所述第二客户端发送所述第一文本信息;
第二确定模块,用于从所述虚拟游戏任务中确定出第三虚拟对象,其中,所述第三虚拟对象与所述第一虚拟对象为不同阵营的虚拟对象;
第二发送模块,用于向所述第三虚拟对象所在的第三客户端发送第二文本信息,其中,所述第二文本信息与第二情绪相匹配,所述第二情绪与所述第一情绪为不同情绪。
11.根据权利要求10所述的装置,其特征在于,所述第一确定模块包括:
第一获取子模块,用于从所述相同阵营的虚拟对象中获取全部虚拟对象作为所述第二虚拟对象;或者
第二获取子模块,用于从所述相同阵营的虚拟对象中获取部分虚拟对象作为所述第二虚拟对象,其中,所述部分虚拟对象与所述第一虚拟对象具有关联关系。
12.根据权利要求10所述的装置,其特征在于,
所述提取单元包括:第一采集模块,用于通过所述第一客户端所在终端中的图像采集设备采集所述目标对象的面部画面;第一提取模块,用于从所述面部画面中提取出所述目标对象的面部特征;
所述识别单元包括:识别模块,用于根据提取出的所述面部特征识别出所述目标对象的所述第一情绪。
13.根据权利要求12所述的装置,其特征在于,所述识别模块包括:
第一查找子模块,用于查找与提取出的所述面部特征匹配的情绪标识;
第一确定子模块,用于将查找到的所述情绪标识所表示的情绪作为所述第一情绪。
14.根据权利要求10所述的装置,其特征在于,
所述提取单元包括:第二采集模块,用于通过所述第一客户端所在终端中的声音采集设备采集所述目标对象的声音信号;第二提取模块,用于从所述声音信号中提取出所述目标对象的声音特征;
所述识别单元包括:第二识别模块,用于根据提取出的所述声音特征识别出所述目标对象的所述第一情绪。
15.根据权利要求14所述的装置,其特征在于,所述第二识别模块包括:
第三获取子模块,用于获取预先配置的目标音频特征,其中,所述目标音频特征用于触发所述第一文本信息;
第四获取子模块,用于在所述声音特征与所述目标音频特征之间的相似度高于预定阈值的情况下,获取与所述目标音频特征对应的情绪标识;
第二确定子模块,用于将所述情绪标识所表示的情绪作为所述第一情绪。
16.根据权利要求10所述的装置,其特征在于,所述确定单元包括:
获取模块,用于获取所述第一情绪的情绪标识;
查找模块,用于查找与所述第一情绪的情绪标识相匹配的所述第一文本信息。
17.根据权利要求16所述的装置,其特征在于,所述查找模块包括:
第五获取子模块,用于在所述情绪标识指示为第一情绪类型的情况下,获取与所述第一情绪类型相匹配的所述第一文本信息,其中,与所述第一情绪类型相匹配的所述第一文本信息用于请求对所述第一虚拟对象进行帮助;
第六获取子模块,用于在所述情绪标识指示为第二情绪类型的情况下,获取与所述第二情绪类型相匹配的所述第一文本信息,其中,与所述第二情绪类型相匹配的所述第一文本信息用于对所述第二虚拟对象进行鼓励提示;
第七获取子模块,用于在所述情绪标识指示为第三情绪类型的情况下,获取与所述第三情绪类型相匹配的所述第一文本信息,其中,与所述第三情绪类型相匹配的所述第一文本信息用于向所述第二虚拟对象发出询问请求。
18.根据权利要求10至17中任一项所述的装置,其特征在于,所述确定单元包括以下至少之一:
第三确定模块,用于确定与所述第一情绪相匹配的文本信息;
第四确定模块,用于确定与所述第一情绪相匹配的图像信息;
第五确定模块,用于确定与所述第一情绪相匹配的音频信息。
19.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至9任一项中所述的方法。
20.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至9任一项中所述的方法。
CN201810142618.XA 2018-02-11 2018-02-11 信息交互方法和装置、存储介质及电子装置 Active CN108681390B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810142618.XA CN108681390B (zh) 2018-02-11 2018-02-11 信息交互方法和装置、存储介质及电子装置
EP18905825.8A EP3751395A4 (en) 2018-02-11 2018-12-05 INFORMATION EXCHANGE PROCEDURE, DEVICE, STORAGE MEDIUM AND ELECTRONIC DEVICE
PCT/CN2018/119356 WO2019153860A1 (zh) 2018-02-11 2018-12-05 信息交互方法和装置、存储介质及电子装置
US16/884,877 US11353950B2 (en) 2018-02-11 2020-05-27 Information interaction method and device, storage medium and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810142618.XA CN108681390B (zh) 2018-02-11 2018-02-11 信息交互方法和装置、存储介质及电子装置

Publications (2)

Publication Number Publication Date
CN108681390A CN108681390A (zh) 2018-10-19
CN108681390B true CN108681390B (zh) 2021-03-26

Family

ID=63800237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810142618.XA Active CN108681390B (zh) 2018-02-11 2018-02-11 信息交互方法和装置、存储介质及电子装置

Country Status (4)

Country Link
US (1) US11353950B2 (zh)
EP (1) EP3751395A4 (zh)
CN (1) CN108681390B (zh)
WO (1) WO2019153860A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681390B (zh) * 2018-02-11 2021-03-26 腾讯科技(深圳)有限公司 信息交互方法和装置、存储介质及电子装置
CN111176430B (zh) * 2018-11-13 2023-10-13 奇酷互联网络科技(深圳)有限公司 一种智能终端的交互方法、智能终端及存储介质
CN111355644B (zh) * 2020-02-19 2021-08-20 珠海格力电器股份有限公司 一种在不同空间之间进行信息交互的方法及系统
CN111401198B (zh) * 2020-03-10 2024-04-23 广东九联科技股份有限公司 观众情绪识别方法、装置及系统
CN111783728A (zh) * 2020-07-15 2020-10-16 网易(杭州)网络有限公司 信息交互方法、装置和终端设备
CN112085420A (zh) * 2020-09-29 2020-12-15 中国银行股份有限公司 一种情绪级别确定方法、装置和设备
CN113050859B (zh) * 2021-04-19 2023-10-24 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7521623B2 (en) * 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
JP5349860B2 (ja) * 2008-08-07 2013-11-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
CN103207662A (zh) * 2012-01-11 2013-07-17 联想(北京)有限公司 一种获得生理特征信息的方法及装置
CN103258556B (zh) * 2012-02-20 2016-10-05 联想(北京)有限公司 一种信息处理方法及装置
CN104035558A (zh) * 2014-05-30 2014-09-10 小米科技有限责任公司 终端设备控制方法及装置
CN104866101B (zh) * 2015-05-27 2018-04-27 世优(北京)科技有限公司 虚拟对象的实时互动控制方法及装置
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CN108681390B (zh) * 2018-02-11 2021-03-26 腾讯科技(深圳)有限公司 信息交互方法和装置、存储介质及电子装置

Also Published As

Publication number Publication date
EP3751395A4 (en) 2021-11-17
WO2019153860A1 (zh) 2019-08-15
US11353950B2 (en) 2022-06-07
CN108681390A (zh) 2018-10-19
EP3751395A1 (en) 2020-12-16
US20200285306A1 (en) 2020-09-10

Similar Documents

Publication Publication Date Title
CN108681390B (zh) 信息交互方法和装置、存储介质及电子装置
CN108234591B (zh) 基于身份验证装置的内容数据推荐方法、装置和存储介质
US9779527B2 (en) Method, terminal device and storage medium for processing image
CN109447895B (zh) 图片生成方法和装置、存储介质及电子装置
CN107977928B (zh) 表情生成方法、装置、终端及存储介质
CN108108649B (zh) 身份验证方法及装置
CN111556278A (zh) 一种视频处理的方法、视频展示的方法、装置及存储介质
CN109428859B (zh) 一种同步通信方法、终端及服务器
WO2022116604A1 (zh) 拍摄图像处理方法及电子设备
CN104021398A (zh) 一种可穿戴智能设备及辅助身份识别的方法
CN111672109B (zh) 一种游戏地图生成的方法、游戏测试的方法以及相关装置
CN115357748A (zh) 头戴式装置
CN111643900A (zh) 一种展示画面控制方法、装置、电子设备和存储介质
CN116095266A (zh) 同声传译方法和系统、存储介质及电子装置
CN111491123A (zh) 视频背景处理方法、装置及电子设备
WO2014121696A1 (en) Method and apparatus for inquiring information
CN112152901A (zh) 一种虚拟形象控制方法、装置及电子设备
CN112492383A (zh) 视频帧的生成方法及装置、存储介质、电子设备
CN210490904U (zh) 基于人脸识别的智能耳机系统
CN111666498B (zh) 一种基于互动信息的好友推荐方法、相关装置及存储介质
CN108024148B (zh) 基于行为特征的多媒体文件识别方法、处理方法及装置
CN109376581B (zh) 对象关系识别方法和装置、存储介质及电子装置
CN110895555B (zh) 数据检索方法和装置、存储介质及电子装置
KR101986153B1 (ko) 웹툰 식별 기술을 이용한 커뮤니케이션 서비스 시스템 및 방법
CN105323143A (zh) 基于即时通讯的网络信息推送方法、装置和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant