CN114500429A - 语音房内虚拟形象的控制方法、装置及电子设备 - Google Patents
语音房内虚拟形象的控制方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114500429A CN114500429A CN202210083765.0A CN202210083765A CN114500429A CN 114500429 A CN114500429 A CN 114500429A CN 202210083765 A CN202210083765 A CN 202210083765A CN 114500429 A CN114500429 A CN 114500429A
- Authority
- CN
- China
- Prior art keywords
- user
- determining
- behavior
- target
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000006399 behavior Effects 0.000 claims abstract description 200
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 15
- 230000008569 process Effects 0.000 abstract description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000004397 blinking Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种语音房内虚拟形象的控制方法、装置及电子设备,涉及计算机技术领域,尤其涉及计算机视觉、深度学习等人工智能技术领域。具体实现方案为:确定语音房内各用户当前的行为;根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。由此,可以根据每个用户当前的行为,调节每个用户对应的虚拟形象的行为模式,使其可以形象地反映每个用户当前的行为,从而增加了语音房内语音互动过程中的趣味性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及语音技术、增强/虚拟现实等人工智能技术领域,具体涉及一种语音房内虚拟形象的控制方法、装置及电子设备。
背景技术
随着智能设备和移动网络技术的不断发展,越来越多的用户可以通过语音直播来丰富自己的生活。而语音房这种新型的直播方式也越来越受人们的喜欢,用户不需要露脸就可以在语音房内畅所欲言。目前,如何提高语音互动过程中的趣味性成为重点的研究方向。
发明内容
本公开提供了一种语音房内虚拟形象的控制方法、装置及电子设备。
根据本公开的第一方面,提供了一种语音房内虚拟形象的控制方法,包括:
确定语音房内各用户当前的行为;
根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;
根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。
根据本公开的第二方面,提供了一种语音房内虚拟形象的控制装置,包括:
第一确定模块,用于确定语音房内各用户当前的行为;
第二确定模块,用于根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;
调整模块,用于根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的语音房内虚拟形象的控制方法。
根据本公开第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如第一方面所述的语音房内虚拟形象的控制方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机指令,所述计算机指令在被处理器执行时实现如第一方面所述的语音房内虚拟形象的控制方法的步骤。
本公开提供的语音房内虚拟形象的控制方法、装置及电子设备,存在如下有益效果:
本公开实施例中,先确定语音房内各用户当前的行为,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据每个用户当前的行为,调节每个用户对应的虚拟形象的行为模式,使其可以形象地反映每个用户当前的行为,从而增加了语音房内语音互动过程中的趣味性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图;
图2是根据本公开又一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图;
图3是根据本公开又一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图;
图4是根据本公开一实施例提供的一种语音房显示界面的示意图;
图5是根据本公开一实施例提供的一种语音房内虚拟形象的控制装置的结构示意图;
图6是用来实现本公开实施例的语音房内虚拟形象的控制方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例涉及计算机视觉、深度学习等人工智能技术领域。
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
语音技术在计算机领域中的关键技术有自动语音识别技术(Automatic SpeechRecognition,ASR)和语音合成技术(Text To Speech,TTS)。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式,语音比其他的交互方式有更多的优势。
增强现实(Augmented Reality,AR),是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
虚拟现实(Virtual Reality,VR)技术,是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,使用户沉浸到该环境中。虚拟现实技术就是利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象,这些现象可以是现实中真真切切的物体,也可以是我们肉眼所看不到的物质,通过三维模型表现出来。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
下面参考附图描述本公开实施例的语音房内虚拟形象的控制方法、装置及电子设备。
其中,需要说明的是,本实施例的语音房内虚拟形象的控制方法的执行主体为语音房内虚拟形象的控制装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
图1是根据本公开一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图。
如图1所示,该语音房内虚拟形象的控制方法包括:
S101:确定语音房内各用户当前的行为。
其中,用户当前的行为可以包括:说话、倾听、点赞等等,本公开对此不做限定。
可选的,可以对语音房显示界面内的即时通信(InstantMessaging,IM)消息进行实时监测,以确定语音房内每个用户当前的行为。比如,IM消息显示“用户A给用户B点赞”,则用户A当前的行为为点赞,或者IM消息显示“用户C关闭麦克风”,则用户C当前的行为为倾听。
或者,还可以根据每个用户对应的语音房的显示界面内的控件是否备触控,确定每个用户当前的行为。比如,用户A对应的语音房的显示界面内的点赞控件被触控,用户A当前的行为为点赞。
S102:根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式。
其中,虚拟形象可以为每个用户在进入语音房之前选择的可以代表自己的虚拟人物。
需要说明的是,语音房内的每个用户对应的虚拟形象可以相同,也可以不同。本公开对此不做限定。
可以理解的是,用户在语音房内展示的是对应的虚拟头像,从而可以隐藏用户的真实信息,用户可以在语音房内毫无顾忌的畅所欲言,因此,用户更愿意表达自己的看法。
其中,虚拟形象的目标行为模式可以包括:眨眼,张嘴,闭嘴等。本公开对此不做限定。
本公开实施例中,可以根据用户当前的行为,调节虚拟形象的行为模式,使其可以反映用户当前的行为。
举例来说,若用户当前的行为为说话,则对应的虚拟形象的目标行为模式可以为眨眼且张嘴;若用户当前的行为为倾听,则对应的虚拟形象的目标行为模式可以为眨眼,以表示自己正在倾听。
需要说明的是,上述示例只是简单的举例说明,不能作为本公开实施例中用户当前的行为及虚拟形象的目标行为模式进行限定。
S103:根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。
可以理解的是,在确定了每个虚拟形象的目标行为模式之后,可以对语音房内每个虚拟形象的行为模式进行调整,从而使语音房内每个虚拟形象可以形象地反映出对应的用户当前的行为,进而增加了语音房内语音互动过程中的趣味性。
可选的,可以根据每个虚拟形象的目标行为模式,从预设的动画库中,调用与每个虚拟形象的目标行为模式对应的动画效果,从而实现对语音房内每个虚拟形象的行为模式的调整。
举例来说,预设的动画库可以为Lottie。Lottie是一款开源动画库,其中包括预先设计好的动画效果,从而可以通过调用Lottie中与目标行为模式对应的json文件,就可以实现对语音房内每个虚拟形象的行为模式的调整。由此,不仅提高对语音房内每个虚拟形象的行为模式进行调整的效率,而且降低了开发成本。
或者,还可以根据每个虚拟形象的目标行为模式,采用三维(three dimensional,3D)建模的方式,对语音房内每个虚拟形象的行为模式进行调整。
本公开实施例中,先确定语音房内各用户当前的行为,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据每个用户当前的行为,调节每个用户对应的虚拟形象的行为模式,使其可以形象地反映每个用户当前的行为,从而增加了语音房内语音互动过程中的趣味性。
图2是根据本公开又一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图。
如图2所示,该语音房内虚拟形象的控制方法包括:
S201:确定语音房内各用户当前的行为。
可选的,可以根据语音房内每个用户的麦克风是否处于开启的状态,确定用户当前的行为是在说话,还是在倾听。
可选的,在任一用户的麦克风处于开启状态,确定任一用户当前的行为为发言。或者,在任一用户的麦克风处于关闭状态,确定任一用户当前的行为为倾听。
可以理解的是,在用户的麦克风处于开启状态的情况下,用户当前的行为并不一定为说话,也有可能是在倾听。因此,在麦克风处于开启状态的情况下,可以进一步地根据麦克风采集的音频数据的幅值,确定用户当前的行为是说话,还是倾听,从而可以使确定的用户当前的行为更加准确。
可选的,在麦克风处于开启状态的情况下,可以先获取任一用户的音频数据,之后对音频数据进行特征提取,以确定音频数据对应的幅值,在幅值大于阈值的情况下,确定任一用户当前的行为为发言;在幅值小于等于阈值的情况下,确定任一用户当前的行为为倾听。
其中,音频数据可以为麦克风在开启状态下采集的用户的音频。
可选的,可以采用短时傅里叶变换,或者离散余弦变换对音频数据进行特征提取,以确定音频数据对应的幅值。
其中,阈值可以为提前设定好的阈值,比如,可以为20分贝(dB),15dB等等,本公开对此不做限定。比如说,阈值为20dB。则音频数据的幅值大于20dB,用户当前的行为为发言,音频数据的幅值小于等于20dB的情况下,用户当前的行为为倾听。
S202:根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式。
可选的,若用户当前的行为为说话,则对应的虚拟形象的目标行为模式可以为眨眼且张嘴;若用户当前的行为为倾听,则对应的虚拟形象的目标行为模式可以为眨眼,或微笑等,以表示自己正在倾听。
需要说明的是,上述示例只是简单的举例说明,不能作为本公开实施例中用户当前的行为及虚拟形象的目标行为模式进行限定。
S203:根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。
其中,步骤S203的具体实现形式,可参照本公开中其他各实施例中的详细描述,此处不在详细描述。
本公开实施例中,可以根据每个用户的麦克风是否处于开启状态,确定用户当前的行为为说话或者倾听,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据用户的麦克风的状态,确定用户当前的行为,进而调节对应的虚拟形象的行为模式,从而不仅可以准确地确定用户当前的行为,进而使对应的虚拟形象可以准确地反映每个用户当前的行为,还增加了语音房内语音互动过程中的趣味性,吸引更多的用户踊跃发言。
图3是根据本公开又一实施例提供的一种语音房内虚拟形象的控制方法的流程示意图。
如图3所示,该语音房内虚拟形象的控制方法包括:
S301:确定语音房内各用户当前的行为。
可以理解的是,本公开实施例中,还可以确定用户是否给其他用户点赞,或者其他用户给该用户点赞,进而在用户点赞或被点赞的情况下,在点赞用户或被点赞用户对应的虚拟头像附近显示点赞标识,以表示用户的态度。
可选的,在检测到任一用户对应的语音房显示界面中的点赞控件被触控的情况下,确定任一用户的行为为点赞。
其中,点赞控件可以在语音房显示界面中的任意位置,本公开对此不做限定。
可选的,任一用户可以在其他用户说话时,点击语音房显示界面中的点赞控件,或者,拖动点赞控件至被点赞用户的虚拟形象所在的位置,以对其他用户进行点赞。
或者,还可以对获取的任一用户的语音数据进行识别,在语音数据中包含预设字符的情况下,确定任一用户的行为为点赞。
其中,用户的语音数据可以为在用户当前的行为为说话的情况下,麦克风采集的用户说话时的语音。
其中,预设的字符可以为预先设置好的,可以表征用户认为讲话者讲的内容非常好的字符。比如“为XXX点赞”,“讲的非常好”,“点赞”等等。本公开对此不做限定。
可选的,可以采用预设的语音识别模型,对用户的语音数据进行识别;或者,也可以采用随机模型法,对用户的语音数据进行识别。本公开对此不做限定。
S302:根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式。
可选的,在任一用户当前的行为为点赞行为的情况下,确定任一用户对应的虚拟形象的目标行为模式为与点赞控件绑定。
或者,在任一用户当前的行为为点赞行为的情况下,确定任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定。
可以理解的是,本公开实施例中,在确定任一用户当前的行为为点赞行为的情况下,可以在任一用户对应的虚拟形象附近显示点赞,也可以在被点赞的用户对应的虚拟形象的附近显示点赞。本公开对此不做限定。
需要说明的是,本公开实施例中,对点赞控件与虚拟形象间的绑定位置不做限定。比如,点赞控件可以在虚拟形象的左上方,也可以在虚拟形象的右下方。
可以理解的是,在确定任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定之前,还需要确定任一用户对应的目标被点赞虚拟形象,从而可以准确地确定目标目标被点赞虚拟形象的目标行为模式。
可选的,可以根据点赞控件被拖动的终止位置及语音房内各虚拟形象的显示位置,确定目标被点赞虚拟形象。
或者,还可以根据语音数据中包含的与预设字符关联的用户标识或者虚拟形象标识,确定目标被点赞虚拟形象。
其中,用户标识为可以唯一标识用户身份的身份标识号、昵称等,本公开对此不做限定。
其中,虚拟形象标识可以为唯一标识用户身份的虚拟形象。比如,若同一个语音房内的不同用户使用不同的虚拟形象,则每个虚拟形象只能代表一个用户,因此,可以根据语音数据中包含的与预设字符关联的虚拟形象标识确定目标被点赞虚拟形象。
本公开实施例中,可以在目标被点赞虚拟形象的目标行为模式为与点赞控件绑定的情况下,可以将点赞用户对应的虚拟头像在点赞控件附近以气泡的形式进行显示,从而可以显示为其点赞的用户。
S303:根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。
其中,步骤S303的具体实现形式,可参照本公开中其他各实施例中的详细描述,此处不在详细描述。
本公开实施例中,可以根据语音房显示界面的点赞控件是否被触控,或者用户的语音数据中是否包含预设字符,确定用户当前的行为是否为点赞,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据用户当前的行为,调节对应的虚拟形象的行为模式,从而使对应的虚拟形象可以形象地反映每个用户当前的行为,增加了语音房内语音互动过程中的趣味性,从而可以吸引更多的用户踊跃发言。
图4是根据本公开一实施例提供的一种语音房显示界面的示意图。如图4所示,语音房显示界面内可以显示每个用户对应的虚拟形象,虚拟形象可以反映用户当前的行为。比如,用户“大妞子”的虚拟形象的行为模式为张嘴,表示用户“大妞子”当前的行为为说话。用户“大王来巡山”、“铁蛋儿子”、“初颜”对应的虚拟形象的行为模式均为闭嘴,表示用户“大王来巡山”、“铁蛋儿子”、“初颜”当前的行为为倾听。用户“雪雪雪”的行为模式为与点赞控件绑定,表示用户“雪雪雪”当前的行为可以为给用户“大妞子”点赞。
图5是根据本公开一实施例提供的一种语音房内虚拟形象的控制装置的结构示意图。如图5所示,该语音房内虚拟形象的控制装置500,包括:第一确定模块510、第二确定模块520及调整模块530。
其中,第一确定模块510,用于确定语音房内各用户当前的行为;
第二确定模块520,用于根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;
调整模块530,用于根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。
可选的,所述第一确定模块510,具体用于:
响应于任一用户的麦克风处于开启状态,确定所述任一用户当前的行为为发言;
响应于任一用户的麦克风处于关闭状态,确定所述任一用户当前的行为为倾听。
可选的,所述第一确定模块510,还用于:
获取所述任一用户的音频数据;
对所述音频数据进行特征提取,以确定所述音频数据对应的幅值;
在所述幅值大于阈值的情况下,确定所述任一用户当前的行为为发言。
可选的,所述第一确定模块510,还用于,还用于:
在所述幅值小于等于所述阈值的情况下,确定所述任一用户当前的行为为倾听。
可选的,所述第一确定模块510,具体用于:
响应于检测到任一用户对应的语音房显示界面中的点赞控件被触控,确定所述任一用户的行为为点赞;
或者,对获取的任一用户的语音数据进行识别,在所述语音数据中包含预设字符的情况下,确定所述任一用户的行为为点赞。
可选的,所述第二确定模块520,具体用于:
在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的虚拟形象的目标行为模式为与点赞控件绑定;
或者,在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定。
可选的,所述第二确定模块520,还包括:
根据所述点赞控件被拖动的终止位置及所述语音房内各虚拟形象的显示位置,确定所述目标被点赞虚拟形象;
或者,根据所述语音数据中包含的与所述预设字符关联的用户标识或者虚拟形象标识,确定所述目标被点赞虚拟形象。
需要说明的是,前述对语音房内虚拟形象的控制方法的解释说明也适用于本实施例的语音房内虚拟形象的控制装置,此处不再赘述。
本公开实施例中,先确定语音房内各用户当前的行为,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据每个用户当前的行为,调节每个用户对应的虚拟形象的行为模式,使其可以形象地反映每个用户当前的行为,从而增加了语音房内语音互动过程中的趣味性。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如语音房内虚拟形象的控制方法。例如,在一些实施例中,语音房内虚拟形象的控制方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的语音房内虚拟形象的控制方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音房内虚拟形象的控制方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
本实施例中,先确定语音房内各用户当前的行为,之后根据每个用户当前的行为,确定每个用户对应的虚拟形象的目标行为模式,最后根据每个虚拟形象的目标行为模式,对语音房内每个虚拟形象的行为模式进行调整。由此,可以根据每个用户当前的行为,调节每个用户对应的虚拟形象的行为模式,使其可以形象地反映每个用户当前的行为,从而增加了语音房内语音互动过程中的趣味性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。在本公开的描述中,所使用的词语“如果”及“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“在……情况下”。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种语音房内虚拟形象的控制方法,包括:
确定语音房内各用户当前的行为;
根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;
根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。
2.根据权利要求1所述的方法,其中,所述确定语音房内各用户当前的行为,包括:
响应于任一用户的麦克风处于开启状态,确定所述任一用户当前的行为为发言;
响应于任一用户的麦克风处于关闭状态,确定所述任一用户当前的行为为倾听。
3.根据权利要求2所述的方法,其中,所述确定所述任一用户当前的行为为发言,包括:
获取所述任一用户的音频数据;
对所述音频数据进行特征提取,以确定所述音频数据对应的幅值;
在所述幅值大于阈值的情况下,确定所述任一用户当前的行为为发言。
4.根据权利要求3所述的方法,其中,在所述确定所述音频数据对应的幅值之后,还包括:
在所述幅值小于等于所述阈值的情况下,确定所述任一用户当前的行为为倾听。
5.根据权利要求1所述的方法,其中,所述确定语音房内各用户当前的行为,包括:
响应于检测到任一用户对应的语音房显示界面中的点赞控件被触控,确定所述任一用户的行为为点赞;
或者,对获取的任一用户的语音数据进行识别,在所述语音数据中包含预设字符的情况下,确定所述任一用户的行为为点赞。
6.根据权利要求5所述的方法,其中,所述根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式,包括:
在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的虚拟形象的目标行为模式为与点赞控件绑定;
或者,在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定。
7.根据权利要求6所述的方法,其中,在所述确定所述任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定之前,还包括:
根据所述点赞控件被拖动的终止位置及所述语音房内各虚拟形象的显示位置,确定所述目标被点赞虚拟形象;
或者,根据所述语音数据中包含的与所述预设字符关联的用户标识或者虚拟形象标识,确定所述目标被点赞虚拟形象。
8.一种语音房内虚拟形象的控制装置,包括:
第一确定模块,用于确定语音房内各用户当前的行为;
第二确定模块,用于根据每个所述用户当前的行为,确定每个所述用户对应的虚拟形象的目标行为模式;
调整模块,用于根据每个所述虚拟形象的目标行为模式,对所述语音房内每个虚拟形象的行为模式进行调整。
9.根据权利要求8所述的装置,其中,所述第一确定模块,具体用于:
响应于任一用户的麦克风处于开启状态,确定所述任一用户当前的行为为发言;
响应于任一用户的麦克风处于关闭状态,确定所述任一用户当前的行为为倾听。
10.根据权利要求9所述的装置,其中,所述第一确定模块,还用于:
获取所述任一用户的音频数据;
对所述音频数据进行特征提取,以确定所述音频数据对应的幅值;
在所述幅值大于阈值的情况下,确定所述任一用户当前的行为为发言。
11.根据权利要求10所述的装置,其中,所述第一确定模块,还用于,还用于:
在所述幅值小于等于所述阈值的情况下,确定所述任一用户当前的行为为倾听。
12.根据权利要求6所述的装置,其中,所述第一确定模块,具体用于:
响应于检测到任一用户对应的语音房显示界面中的点赞控件被触控,确定所述任一用户的行为为点赞;
或者,对获取的任一用户的语音数据进行识别,在所述语音数据中包含预设字符的情况下,确定所述任一用户的行为为点赞。
13.根据权利要求12所述的装置,其中,所述第二确定模块,具体用于:
在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的虚拟形象的目标行为模式为与点赞控件绑定;
或者,在任一用户当前的行为为点赞行为的情况下,确定所述任一用户对应的目标被点赞虚拟形象的目标行为模式为与点赞控件绑定。
14.根据权利要求13所述的装置,其中,所述第二确定模块,还包括:
根据所述点赞控件被拖动的终止位置及所述语音房内各虚拟形象的显示位置,确定所述目标被点赞虚拟形象;
或者,根据所述语音数据中包含的与所述预设字符关联的用户标识或者虚拟形象标识,确定所述目标被点赞虚拟形象。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机指令,所述计算机指令被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210083765.0A CN114500429A (zh) | 2022-01-24 | 2022-01-24 | 语音房内虚拟形象的控制方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210083765.0A CN114500429A (zh) | 2022-01-24 | 2022-01-24 | 语音房内虚拟形象的控制方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114500429A true CN114500429A (zh) | 2022-05-13 |
Family
ID=81473914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210083765.0A Pending CN114500429A (zh) | 2022-01-24 | 2022-01-24 | 语音房内虚拟形象的控制方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114500429A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019008320A1 (en) * | 2017-07-05 | 2019-01-10 | Maria Francisca Jones | METHOD AND SYSTEM FOR INDICATING RESPONSE FROM A PARTICIPANT AT A VIRTUAL MEETING |
CN111145777A (zh) * | 2019-12-31 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 一种虚拟形象展示方法、装置、电子设备及存储介质 |
US20210026441A1 (en) * | 2019-03-04 | 2021-01-28 | Magical Technologies, Llc | Virtual Object Control Of A Physical Device and/or Physical Device Control of A Virtual Object |
CN113325952A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 用于展示虚拟对象的方法、装置、设备、介质和产品 |
CN113382274A (zh) * | 2021-05-31 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN113648650A (zh) * | 2021-09-02 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 一种互动方法及相关装置 |
-
2022
- 2022-01-24 CN CN202210083765.0A patent/CN114500429A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019008320A1 (en) * | 2017-07-05 | 2019-01-10 | Maria Francisca Jones | METHOD AND SYSTEM FOR INDICATING RESPONSE FROM A PARTICIPANT AT A VIRTUAL MEETING |
US20210026441A1 (en) * | 2019-03-04 | 2021-01-28 | Magical Technologies, Llc | Virtual Object Control Of A Physical Device and/or Physical Device Control of A Virtual Object |
CN111145777A (zh) * | 2019-12-31 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 一种虚拟形象展示方法、装置、电子设备及存储介质 |
CN113325952A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 用于展示虚拟对象的方法、装置、设备、介质和产品 |
CN113382274A (zh) * | 2021-05-31 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN113648650A (zh) * | 2021-09-02 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 一种互动方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10733384B2 (en) | Emotion detection and expression integration in dialog systems | |
CN112100352A (zh) | 与虚拟对象的对话方法、装置、客户端及存储介质 | |
WO2019165877A1 (zh) | 消息推送方法、装置、设备及存储介质 | |
US11157701B2 (en) | Regulating velocity of chat discourse | |
CN111192591A (zh) | 智能设备的唤醒方法、装置、智能音箱及存储介质 | |
CN104995662A (zh) | 基于化身的传输协议、图标生成和玩偶动画 | |
US10795554B2 (en) | Method of operating terminal for instant messaging service | |
CN110311858B (zh) | 一种发送会话消息的方法与设备 | |
US10930265B2 (en) | Cognitive enhancement of communication with tactile stimulation | |
CN112364144B (zh) | 交互方法、装置、设备和计算机可读介质 | |
KR20180012561A (ko) | 사용자의 감정 정보를 이용한 오프라인 캐릭터 인형 제어 장치 및 방법 | |
CN108874363A (zh) | 用于ar场景的对象控制方法、装置、设备及存储介质 | |
CN114663556A (zh) | 数据交互方法、装置、设备、存储介质以及程序产品 | |
CN113658586B (zh) | 语音识别模型的训练方法、语音交互方法及装置 | |
CN113055751B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN114760425A (zh) | 数字人生成方法、装置、计算机设备和存储介质 | |
CN114500429A (zh) | 语音房内虚拟形象的控制方法、装置及电子设备 | |
US20200183762A1 (en) | Simulation distraction suppression | |
CN114238594A (zh) | 服务的处理方法、装置、电子设备及存储介质 | |
CN114115533A (zh) | 智能交互方法和装置 | |
CN113327311A (zh) | 基于虚拟角色的显示方法、装置、设备、存储介质 | |
CN113923477A (zh) | 视频处理方法、装置、电子设备以及存储介质 | |
CN113658585B (zh) | 语音交互模型的训练方法、语音交互方法及装置 | |
CN114339446B (zh) | 音视频编辑方法、装置、设备、存储介质及程序产品 | |
CN115145672A (zh) | 信息提示方法、装置、设备、存储介质以及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |