CN114816051A - 虚拟空间互动方法、装置、终端以及计算机可读存储介质 - Google Patents

虚拟空间互动方法、装置、终端以及计算机可读存储介质 Download PDF

Info

Publication number
CN114816051A
CN114816051A CN202210344804.8A CN202210344804A CN114816051A CN 114816051 A CN114816051 A CN 114816051A CN 202210344804 A CN202210344804 A CN 202210344804A CN 114816051 A CN114816051 A CN 114816051A
Authority
CN
China
Prior art keywords
target
terminal
virtual space
adjustment
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210344804.8A
Other languages
English (en)
Inventor
熊丙洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202210344804.8A priority Critical patent/CN114816051A/zh
Publication of CN114816051A publication Critical patent/CN114816051A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本公开关于一种虚拟空间互动方法、装置、终端以及计算机可读存储介质,属于网络技术领域。本公开通过第一终端显示联合画面,响应于对联合互动画面中第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。

Description

虚拟空间互动方法、装置、终端以及计算机可读存储介质
技术领域
本公开涉及网络技术领域,特别涉及一种虚拟空间互动方法、装置、终端以及计算机可读存储介质。
背景技术
随着网络技术的飞速发展,通过虚拟空间进行互动的方式作为一种娱乐方式逐渐进入到人们的日常生活中,虚拟空间为能够观看直播且支持互动的网络空间,例如,网络直播间。
主用户可以在网络虚拟空间平台上开设虚拟空间,并且还能够与其他主用户的虚拟空间进行联合,形成联合虚拟空间,通过联合虚拟空间与其他主用户进行联合互动(俗称为“连麦互动”)。
但是当两个主用户的虚拟空间进行联合时,仅能通过连麦的方式,进行互动,导致联合虚拟空间的互动方式单一,影响人机交互的效率。
发明内容
本公开提供一种虚拟空间互动方法、装置、终端以及计算机可读存储介质,以至少解决相关技术中联合虚拟空间的互动方式单一,影响人机交互的效率的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种虚拟空间互动方法,所述方法由第一终端执行,所述方法包括:
在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整;
基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息包括:
响应于接收到目标语音信号的输入操作,向第一服务器发送语音转换请求,所述语音转换请求用于指示将所述目标语音指令转换为文本信息;
接收所述目标文本信息。
在一种可能的实施方式中,所述基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式包括:
将所述目标文本信息输入信息分析模型,由所述信息分析模型对所述目标文本信息所指示的待调整部位以及调整方式进行分析,输出所述目标部位的标识以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式包括:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位;
基于滑动方向与调整方式之间的对应关系,获取所述对象调整操作的滑动方向所对应的调整方式,将获取的调整方式作为所述目标调整方式。
在一种可能的实施方式中,所述基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互包括:
基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标调整方式;
接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求包括:
基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求包括:
在所述第一虚拟空间子画面的关联位置,显示所述目标调整方式对应的至少一个幅度值,每个幅度值用于指示对所述目标部位的一个调整幅度;
响应于对所述至少一个幅度值中任一幅度值的选择操作,将选择的所述任一幅度值获取为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
基于所述目标文本信息,获取对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标部位的目标调整方式;
向所述第二终端发送所述对象调整请求;
接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述基于所述目标文本信息,获取对象调整请求包括:
基于所述目标文本信息,向第二服务器发送获取请求,所述获取请求用于指示基于所述目标文本信息获取对象调整请求;
接收所述第二服务器返回的所述对象调整请求。
在一种可能的实施方式中,若所述第一终端互动胜利且所述第二终端互动失败,则所述第一终端具有对所述第二虚拟空间子画面中的所述目标对象进行调整的权限。
在一种可能的实施方式中,所述方法还包括:
在所述联合画面中,显示提示信息,所述提示信息用于指示互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限。
根据本公开实施例的第二方面,提供一种虚拟空间互动方法,所述方法由第二终端执行,所述方法包括:
在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整;
基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述对象调整请求包括所述目标部位的标识以及对所述目标部位的目标调整方式,所述基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象包括:
采用所述目标调整方式,对所述目标部位进行调整;
在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述采用所述目标调整方式,对所述目标部位进行调整包括:
获取所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;
采用所述目标调整方式以及所述目标幅度值,对所述目标部位进行调整。
在一种可能的实施方式中,所述获取所述目标调整方式对应的目标幅度值包括:
若所述对象调整请求还包括所述目标调整方式对应的目标幅度值,则从所述对象调整请求中,获取所述目标幅度值;
或者,基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值。
在一种可能的实施方式中,所述接收所述第一终端的对象调整请求之后,所述方法还包括:
响应于对所述对象调整请求的确认操作,执行所述基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象的步骤。
在一种可能的实施方式中,所述对象调整请求包括对所述目标部位的目标调整方式以及所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;所述接收所述第一终端的对象调整请求之后,所述方法还包括:
若所述目标幅度值属于目标调整幅度范围,则执行所述基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象的步骤。
根据本公开实施例的第三方面,提供一种虚拟空间互动装置,所述装置被配置为第一终端,所述装置包括:
第一显示单元,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
交互单元,被配置为执行响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整;
第二显示单元,被配置为执行基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述交互单元包括:
第一确定子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式;
第一交互子单元,被配置为执行基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述第一确定子单元包括:
获取子子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
确定子子单元,被配置为执行基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述获取子子单元被配置为执行:
响应于接收到目标语音信号的输入操作,向第一服务器发送语音转换请求,所述语音转换请求用于指示将所述目标语音指令转换为文本信息;
接收所述目标文本信息。
在一种可能的实施方式中,所述确定子子单元被配置为执行:
将所述目标文本信息输入信息分析模型,由所述信息分析模型对所述目标文本信息所指示的待调整部位以及调整方式进行分析,输出所述目标部位的标识以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述交互单元包括:
第二确定子单元,被配置为执行响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式;
第二交互子单元,被配置为执行基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述第二确定子单元被配置为执行:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位;
基于滑动方向与调整方式之间的对应关系,获取所述对象调整操作的滑动方向所对应的调整方式,将获取的调整方式作为所述目标调整方式。
在一种可能的实施方式中,所述第二交互子单元包括:
发送子子单元,被配置为执行基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标调整方式;
接收子子单元,被配置为执行接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述发送子子单元被配置为执行:
基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述发送子子单元被配置为执行:
在所述第一虚拟空间子画面的关联位置,显示所述目标调整方式对应的至少一个幅度值,每个幅度值用于指示对所述目标部位的一个调整幅度;
响应于对所述至少一个幅度值中任一幅度值的选择操作,将选择的所述任一幅度值获取为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述交互单元包括:
第一获取子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
第二获取子单元,被配置为执行基于所述目标文本信息,获取对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标部位的目标调整方式;
发送子单元,被配置为执行向所述第二终端发送所述对象调整请求;
接收子单元,被配置为执行接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述第二获取子单元被配置为执行:
基于所述目标文本信息,向第二服务器发送获取请求,所述获取请求用于指示基于所述目标文本信息获取对象调整请求;
接收所述第二服务器返回的所述对象调整请求。
在一种可能的实施方式中,若所述第一终端互动胜利且所述第二终端互动失败,则所述第一终端具有对所述第二虚拟空间子画面中的所述目标对象进行调整的权限。
在一种可能的实施方式中,所述装置还包括:
第三显示单元,被配置为执行在所述联合画面中,显示提示信息,所述提示信息用于指示互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限。
根据本公开实施例的第四方面,提供一种虚拟空间互动装置,所述装置被配置为第二终端,所述装置包括:
第一显示单元,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
接收单元,被配置为执行接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整;
第二显示单元,被配置为执行基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述对象调整请求包括所述目标部位的标识以及对所述目标部位的目标调整方式,所述第二显示单元包括:
调整子单元,被配置为执行采用所述目标调整方式,对所述目标部位进行调整;
显示子单元,被配置为执行在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述调整子单元包括:
获取子子单元,被配置为执行获取所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;
调整子子单元,被配置为执行采用所述目标调整方式以及所述目标幅度值,对所述目标部位进行调整。
在一种可能的实施方式中,所述获取子子单元被配置为执行:
若所述对象调整请求还包括所述目标调整方式对应的目标幅度值,则从所述对象调整请求中,获取所述目标幅度值;
或者,基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值。
在一种可能的实施方式中,所述第二显示单元还被配置为执行:
响应于对所述对象调整请求的确认操作,基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述对象调整请求包括对所述目标部位的目标调整方式以及所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;所述第二显示单元还被配置为执行:
若所述目标幅度值属于目标调整幅度范围,则基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
根据本公开实施例的第五方面,提供一种终端,包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行指令的一个或多个存储器;
其中,所述一个或多个处理器被配置为执行上述第一方面的任一种可能实施方式中的虚拟空间互动方法。
根据本公开实施例的第六方面,提供一种终端,包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行指令的一个或多个存储器;
其中,所述一个或多个处理器被配置为执行上述第二方面的任一种可能实施方式中的虚拟空间互动方法。
根据本公开实施例的第七方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的至少一条指令由终端的一个或多个处理器执行时,使得所述终端能够执行上述第一方面的任一种可能实施方式中的虚拟空间互动方法。
根据本公开实施例的第八方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的至少一条指令由终端的一个或多个处理器执行时,使得所述终端能够执行上述第二方面的任一种可能实施方式中的虚拟空间互动方法。
根据本公开实施例的第九方面,提供一种计算机程序产品,包括一条或多条指令,所述一条或多条指令可以由终端的一个或多个处理器执行,使得所述终端能够执行上述第一方面的任一种可能实施方式中的虚拟空间互动方法,或者使得所述终端能够执行上述第二方面的任一种可能实施方式中的虚拟空间互动方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过第一终端显示联合画面,联合画面中显示有第二终端的第二虚拟空间子画面,响应于对第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种虚拟空间互动系统的示意图。
图2是根据一示例性实施例示出的一种虚拟空间互动方法的流程图。
图3是根据一示例性实施例示出的一种虚拟空间互动方法的流程图。
图4是根据一示例性实施例示出的一种虚拟空间互动方法的交互流程图。
图5是根据一示例性实施例示出的另一种虚拟空间互动方法的交互流程图。
图6是根据一示例性实施例示出的一种第一终端侧虚拟空间互动的示意图。
图7是根据一示例性实施例示出的一种第二终端侧虚拟空间互动的示意图。
图8是根据一示例性实施例示出的一种调整多个目标部位的流程图。
图9是根据一示例性实施例示出的另一种虚拟空间互动方法的交互流程图。
图10是根据一示例性实施例示出的一种虚拟空间互动装置的逻辑结构框图。
图11是根据一示例性实施例示出的一种虚拟空间互动装置的逻辑结构框图。
图12是根据一示例性实施例示出的一种终端的逻辑结构框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开所涉及的用户信息可以为经用户授权或者经过各方充分授权的信息。
本公开所涉及的终端采集语音信号以及拍摄视频流可以经用户授权或者经过各方充分授权。
图1是根据一示例性实施例示出的一种虚拟空间互动系统的示意图,参见图1,该虚拟空间互动系统100包括终端101以及服务器102。其中,该虚拟空间互动系统100中的终端101有至少一个,每个终端101与服务器102均通过有线或无线通信方式进行直接或间接地通信连接。
该虚拟空间互动系统100中的终端101包括智能手机、平板电脑、智能音箱、智能手表、笔记本电脑、智能掌机、便携式游戏设备或者台式计算机中的至少一种,终端101的类型,但并不局限于此。
服务器102包括一台服务器、多台服务器、云计算平台或者虚拟化中心中的至少一种。可选地,服务器102是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)以及大数据和人工智能平台等基础云计算服务的云服务器。服务器102用于为支持开设虚拟空间或观看虚拟空间功能的应用程序提供后台服务。可选地,服务器102承担主要计算工作,该虚拟空间互动系统100中的第一终端101承担次要计算工作;或者,服务器102承担次要计算工作,该虚拟空间互动系统100中的终端101承担主要计算工作;或者,该虚拟空间互动系统100中终端101以及服务器102之间采用分布式计算架构进行协同计算。
虚拟空间互动系统100中的每个终端101内均运行有支持开设虚拟空间功能的应用程序,该应用程序包括直播应用、短视频应用、社交应用或者游戏应用中的任一种。在此,对本申请涉及的虚拟空间场景进行如下介绍:
为了便于描述,将开设虚拟空间的用户称为虚拟空间的主用户,以虚拟空间为网络直播间为例,主用户为网络直播间的主播。虚拟空间互动系统100中主用户所使用的终端101称为主终端,而观看虚拟空间的观众所使用的终端101称为观众终端。虚拟空间互动系统100中主终端有一个或者多个,虚拟空间互动系统100中观众终端有一个或者多个。将虚拟空间互动系统100中的任一主终端称为第一终端,使用第一终端的主用户称为第一主用户。将虚拟空间互动系统100中除第一终端以外的任一主终端称为第二终端,使用第二终端的主用户称为第二主用户。将虚拟空间互动系统100中的观众终端统称为第三终端。
第一主用户使用第一终端在虚拟空间中直播时,第一终端向服务器102发送该第一终端的视频流(俗称“推流”),观众能够使用第三终端访问服务器102,以获取第一终端的视频流(俗称“拉流”)。例如,观众使用的第三终端向服务器102请求访问该第一主用户所对应终端的视频流,服务器102向该观众使用的第三终端发送第一终端的视频流。
在一个示例性的联合虚拟空间场景中,假设第一主用户和第二主用户的虚拟空间进行联合,形成联合虚拟空间。第一主用户和第二主用户通过联合虚拟空间进行联合互动(俗称为“连麦互动”、“连麦对战”),在进行联合互动时,第一主用户通过第一终端拍摄第一视频流(即第一终端的虚拟空间的视频流),第一终端101将第一视频流推送到服务器102中进行缓存,第二主用户通过第二终端拍摄第二视频流(即第二终端的虚拟空间的视频流),第二终端将第二视频流推流到服务器102中进行缓存,服务器102将第一视频流和第二视频流进行拼接,合成一个联合虚拟空间视频流,将联合虚拟空间视频流推送到访问第一主用户或者第二主用户中任一主用户的虚拟空间的第三终端,使得观众不管是访问第一主用户的虚拟空间,还是访问第二主用户的虚拟空间,均能够看到第一主用户与第二主用户的联合画面,在联合画面中包括第一虚拟空间子画面以及第二虚拟空间子画面,其中,第一虚拟空间子画面用于显示第一主用户的第一视频流,第二虚拟空间子画面用于显示第二主用户的第二视频流。
需要说明的是,上述示例中仅以两个主用户的虚拟空间进行联合互动为例进行说明,可选地,进行联合互动的主用户个数可以是两个或两个以上,本公开实施例对进行联合互动的主用户个数不作具体限定。
图2是根据一示例性实施例示出的一种虚拟空间互动方法的流程图,参见图2,该虚拟空间互动方法由第一终端执行,该方法包括以下步骤。
在步骤201中,第一终端在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象。
在步骤202中,第一终端响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整。
在步骤203中,第一终端基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
本公开实施例提供的方法,通过第一终端显示联合画面,联合画面中显示有第二终端的第二虚拟空间子画面,响应于对第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息包括:
响应于接收到目标语音信号的输入操作,向第一服务器发送语音转换请求,所述语音转换请求用于指示将所述目标语音指令转换为文本信息;
接收所述目标文本信息。
在一种可能的实施方式中,所述基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式包括:
将所述目标文本信息输入信息分析模型,由所述信息分析模型对所述目标文本信息所指示的待调整部位以及调整方式进行分析,输出所述目标部位的标识以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式包括:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位;
基于滑动方向与调整方式之间的对应关系,获取所述对象调整操作的滑动方向所对应的调整方式,将获取的调整方式作为所述目标调整方式。
在一种可能的实施方式中,所述基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互包括:
基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标调整方式;
接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求包括:
基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求包括:
在所述第一虚拟空间子画面的关联位置,显示所述目标调整方式对应的至少一个幅度值,每个幅度值用于指示对所述目标部位的一个调整幅度;
响应于对所述至少一个幅度值中任一幅度值的选择操作,将选择的所述任一幅度值获取为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
基于所述目标文本信息,获取对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标部位的目标调整方式;
向所述第二终端发送所述对象调整请求;
接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述基于所述目标文本信息,获取对象调整请求包括:
基于所述目标文本信息,向第二服务器发送获取请求,所述获取请求用于指示基于所述目标文本信息获取对象调整请求;
接收所述第二服务器返回的所述对象调整请求。
在一种可能的实施方式中,若所述第一终端互动胜利且所述第二终端互动失败,则所述第一终端具有对所述第二虚拟空间子画面中的所述目标对象进行调整的权限。
在一种可能的实施方式中,所述方法还包括:
在所述联合画面中,显示提示信息,所述提示信息用于指示互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
图3是根据一示例性实施例示出的一种虚拟空间互动方法的流程图,参见图3,该虚拟空间互动方法由第二终端执行,该方法包括以下步骤。
在步骤301中,第二终端在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象。
在步骤302中,第二终端接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整。
在步骤303中,第二终端基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
本公开实施例提供的方法,通过第二终端显示第一终端与第二终端的联合画面,联合画面显示有第二终端的第二虚拟空间子画面,在接收到第一终端针对第二虚拟空间子画面内目标对象的目标部位的对象调整请求后,基于第一终端的对象调整请求,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,使得第二终端能够在联合虚拟空间过程中,通过联合画面展示出主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
在一种可能的实施方式中,所述对象调整请求包括所述目标部位的标识以及对所述目标部位的目标调整方式,所述基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象包括:
采用所述目标调整方式,对所述目标部位进行调整;
在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述采用所述目标调整方式,对所述目标部位进行调整包括:
获取所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;
采用所述目标调整方式以及所述目标幅度值,对所述目标部位进行调整。
在一种可能的实施方式中,所述获取所述目标调整方式对应的目标幅度值包括:
若所述对象调整请求还包括所述目标调整方式对应的目标幅度值,则从所述对象调整请求中,获取所述目标幅度值;
或者,基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
在第一终端与第二终端联合互动时,第一终端响应于第一终端的对象调整操作,请求第二终端对联合画面中第二虚拟空间子画面内的目标对象进行调整。在一种可能的实施方式中,第一终端的调整操作为第一主用户向第一终端输入目标语音信号的操作,第一主用户通过目标语音信号指示对联合画面中目标对象的目标部位进行调整,或者,第一终端的调整操作为第一主用户对联合画面中该目标对象的对象调整操作,第一主用户通过对象调整操作指示对联合画面中的目标对象的目标部位进行调整。
下面通过图4和图9分别针对这两种情况的调整操作,对虚拟空间互动过程中,第一终端与第二终端之间的交互流程进行如下介绍:
图4是根据一示例性实施例示出的一种虚拟空间互动方法的交互流程图,如图4所示,该方法用于第一终端与第二终端的交互过程中,该实施例包括以下步骤。
在步骤401中,第一终端和第二终端分别在各自的虚拟空间界面中,显示联合画面,该联合画面包括该第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,该第二虚拟空间子画面中显示有目标对象。
其中,第一终端为虚拟空间互动系统中第一主用户所使用的终端,第二终端为虚拟空间互动系统中第二主用户所使用的终端。第一终端的虚拟空间界面为第一终端与第二终端联合互动时,第一终端所显示的联合虚拟空间的人机交互界面。第二终端的虚拟空间界面为第一终端与第二终端联合互动时,第二终端所显示联合虚拟空间的人机交互界面。
在多个主终端进行联合互动时,联合画面包括参与联合互动的各个终端对应的虚拟空间子画面,每个终端对应的虚拟空间子画面用于显示对应终端所拍摄的视频流。参与联合互动的终端有两个或者两个以上,本公开实施例以参与联合互动的终端包括第一终端和第二终端为例,对本步骤401作如下介绍:
该第一终端对应的第一虚拟空间子画面即第一终端的虚拟空间子画面,用于显示第一终端与第二终端联合互动时,第一终端所拍摄的第一主用户的虚拟空间的视频流(即第一视频流)。该第二终端对应的第二虚拟空间子画面即第二终端的虚拟空间子画面,用于显示第一终端与第二终端联合互动时,第二终端所拍摄的第二主用户的虚拟空间的视频流(即第二视频流)。
在第一终端与第二终端联合互动时,第一终端实时拍摄第一主用户的视频,得到第一视频流,将拍摄得到的第一视频流实时推流至第三服务器。第二终端实时拍摄第二主用户的视频,得到第二视频流,将拍摄得到的第二视频流实时推流至第三服务器。相应地,第三服务器能够实时获取到第一视频流以及第二视频流。第三服务器向第一终端实时推送第二视频流,向第二终端实时推送第一视频流。第一终端从第三服务器获取第二视频流,在联合画面中的第一虚拟空间子画面中,显示第一视频流,在联合画面中的第二虚拟空间子画面中,显示获取到的第二视频流。第二终端从第三服务器获取到第一视频流,在联合画面中的第一虚拟空间子画面中,显示获取到的第一视频流,在联合画面中的第二虚拟空间子画面中,显示第二视频流。
由于第一视频流是第一终端持续拍摄第一主用户所得到视频,因此,第一虚拟空间子画面中显示有第一终端所拍摄到的各个对象,其中,第一终端所拍摄到的各个对象,例如第一主用户、第一主用户所在环境中的各个物品。在一种可能的实施方式中,第一虚拟空间子画面中还能够显示有至少一个动画形象,该至少一个动画特效也是第一虚拟空间子画面中的对象。
由于第二视频流是第二终端持续拍摄第二主用户所得到视频,因此,第二虚拟空间子画面中显示第二终端所拍摄到的各个对象。其中,第二终端所拍摄到的各个对象,例如第二主用户、第二主用户所在环境中的各个物品。在一种可能的实施方式中,第二虚拟空间子画面中还能够显示有至少一个动画形象,该至少一个动画特效也是第二虚拟空间子画面中的对象。
第二子虚拟空间画面中的目标对象为第二虚拟空间子画面中的任一对象,例如目标对象为第二虚拟空间子画面中显示的第二主用户。
需要说明的是,本公开实施例涉及的第三服务器是用于存储、转发终端的视频流的服务器,例如图1中虚拟空间互动系统100中的服务器102。
在步骤402中,第一终端响应于接收到目标语音信号的输入操作,基于该目标语音信号,确定该目标部位以及该目标部位的目标调整方式。
其中,该目标语音信号为第一终端在拍摄第一视频流的过程中,第一主用户向第一终端输入的语音信号,且该目标语音信号用于指示采用目标调整方式,对联合画面中目标对象的目标部位进行调整。
该目标部位为目标对象中待调整的任一部位。以目标对象为第二虚拟空间子界面中显示的第二主用户为例,该目标部位为第二主用户脸部的任一部位,例如第二主用户的鼻子、嘴巴、眉毛、眼睛等。或者,该目标部位为第二主用户除脸部以外的任一部位、例如脖子、手、腿、腰等。在此,本公开实施例对该目标对象的目标部位不做限定。
该目标部位的目标调整方式为:对该目标对象的目标部位进行调整的调整方式,例如,增大目标部位、减少目标部位或将目标部位向任一方向变形等,在此,本公开实施例对该目标对象的目标调整方式不做限定。
该目标部位有至少一个,每个目标部位分别对应一个目标调整方式。每个目标部位以及每个目标部位对应的目标调整方式,均由第一主用户来指定。为了便于描述,本公开实施例,以第一主用户指定一个目标部位以及一个目标调整方式为例,对本步骤402进行如下介绍:
在第一终端与第二终端联合互动时,第一终端会持续拍摄第一视频流,在拍摄的过程中,会采集第一主用户的语音信号。当第一终端采集到第一主用户的语音信号时也即是接收到语音信号的输入操作。当第一主用户希望对显示的目标对象的目标部位进行调整时,第一主用户向第一终端输入目标语音信号,以指示第一主用户要求采用目标调整方式,对联合画面中目标对象的目标部位进行调整。相应地,第一终端响应于接收到目标语音信号的输入操作,基于该目标语音信号,确定该目标部位以及该目标部位的目标调整方式。
在一种可能的实施方式中,第一终端通过目标语音信号所转换得到的文本信息,来确定该目标部位以及该目标部位的目标调整方式。例如下述步骤4021-4022。
在步骤4021中,第一终端响应于接收到目标语音信号的输入操作,基于该目标语音信号,获取目标文本信息,该目标文本信息是该目标语音指令转换得到的文本信息。
其中,目标语音信号和目标文本信息的语义一致,目标文本信息也用于指示采用目标调整方式,对目标对象的目标部位进行调整。
第一终端响应于接收到目标语音信号的输入操作,请求第一服务器将目标语音信号转换为目标文本信息,例如下述步骤A1-A5。
在步骤A1中,第一终端响应于接收到目标语音信号的输入操作,向第一服务器发送语音转换请求,该语音转换请求用于指示将该目标语音指令转换为文本信息。
其中,第一服务器为虚拟空间互动系统中用于将语音信号转换为文本信息的服务器。该语音转换请求包括该目标语音信号。
第一终端响应于接收到目标语音信号的输入操作,对接收到的目标语音信号进行封装,得到该语音转换请求,向第一服务器发送该语音转换请求,以请求第一服务器将该目标语音信号转换为文本信息。
在步骤A2中,第一服务器接收第一终端的语音转换请求,从该语音转换请求中获取该目标语音信号。
在步骤A3中,第一服务器将该目标语音信号转换为文本信息,将转换得到的文本信息作为目标文本信息。
第一服务器在从语音转换请求中,获取到目标语音信号后,将该目标语音信号转换为目标文本信息。在此,本公开实施例对第一服务器将目标语音信号转换为文本信息的方式,不做限定。
在步骤A4中,第一服务器向第一终端发送目标文本信息。
在步骤A5中,第一终端接收第一服务器发送的目标文本信息。
由第一服务器负责将语音信号转换文本信息,便于虚拟空间互动系统中的业务处理,节约了第一终端的处理资源。
其中,第一服务器为虚拟空间互动系统中的可选服务器。在一些实施例中,虚拟空间互动系统内无须设置第一服务器,例如图1中的虚拟空间互动系统100不包括第一服务器。而在另外一些实施例中,虚拟空间互动系统包括第一服务器。
当虚拟空间互动系统不包括第一服务器时,由第一终端将目标语音信号转换为目标文本信息,在此,本公开实施例对第一终端将目标语音信号转换为目标文本信息的方式,不做限定。
在步骤4022中,第一终端基于该目标文本信息,确定该目标部位以及该目标部位的目标调整方式。
在一种可能的实施方式中,该第一终端内存储有信息分析模型,该信息分析模型用于对文本信息进行语义分析,以分析出文本信息所指示的待调整部位以及调整方式。可选地,该信息分析模型为神经网络模型。
例如,第一终端将该目标文本信息输入信息分析模型,由该信息分析模型对该目标文本信息所指示的待调整部位以及调整方式进行分析,输出该目标部位的标识以及该目标部位的目标调整方式。
其中,目标部位也即是该目标文本信息所指示的待调整部位,该目标部位的目标调整方式,也即是该目标文本信息所指示的待调整部位的调整方式。
第一终端通过信息分析模型,分析出第一主用户指定调整的目标部位以及目标部分的目标调整方式,无须请求其他设备分析,减少了确定该目标部位以及目标调整方式的时长,提高了确定该目标部位以及目标调整方式的效率。
在步骤403中,第一终端基于该目标部位以及该目标部位的目标调整方式,与该第二终端进行交互。
其中,第一终端基于该目标部位以及该目标部位的目标调整方式,与该第二终端进行交互,使得第二终端对采用该目标调整方式,对该目标部位进行调整。
在一种可能的实施方式中,本步骤403包括下述步骤4031-4035。
在步骤4031中,第一终端基于该目标部位以及该目标调整方式,向该第二终端发送对象调整请求,该对象调整请求包括该目标部位的标识以及该目标调整方式。
其中,该对象调整请求用于指示第二终端采用该目标调整方式,对该目标部位进行调整。其中,该对象调整请求包括至少一组调整字段,每组调整字段包括第一调整字段和第二调整字段,其中,第一调整字段用于存储一个目标部位的标识,第二调整字段用于存储对应目标部位的目标调整方式。
在一种可能的实施方式中,本步骤4031包括下述步骤B1-B2。
在步骤B1中,该第一终端基于该目标部位以及该目标调整方式,生成该对象调整请求。
该第一终端按照对象调整请求的消息格式,对目标部位的标识以及该目标调整方式进行封装,得到该对象生成请求。例如,第一终端将该目标部位的标识添加在一组调整字段中的第一调整字段,将该目标部位的目标调整方式添加在该组调整字段中的第二调整字段。
在一种可能的实施方式中,该对象调整请求还包括目标幅度值,该目标幅度值用于指示对该目标部位的调整幅度。相应地,对象调整请求中的每组调整字段还包括第三调整字段,第三调整字段用于存储对应目标部位的幅度值。待调整部位的幅度值用于指示对待调整部位的调整幅度。
其中,目标部位的目标幅度值是在目标部位当前大小的基础上本次需要调整的幅度,以目标调整方式为增大目标部位为例,若目标幅度值为5%,则对象调整请求指示在原有目标部位基础上,将目标部位增大5%。
或者,目标部位的目标幅度值为本次最终需要调整到的幅度值,例如,目标部位对应的幅度范围为0%-100%,当目标幅度值为0%时,则需要将目标部位调整到最小,当目标幅度为500%,则需要将目标部位调整到中间大小,当目标幅度为100%,则需要将目标部位调整到中最大。
在对象调整请求包括目标部位的目标幅度值的情况下,本步骤B1包括下述步骤B11-B12。
在步骤B11中,第一终端获取该目标对象的目标幅度值。
其中,该目标幅度值可能为预设幅度值,也可能为第一主用户指定的幅度值。
以目标幅度值为预设幅度值为例,对本步骤B11进行如下介绍:
在一种可能的实施方式中,该第一终端中存储有至少一种调整方式与至少一个幅度值之间的对应关系,其中,每种调整方式分别对应该至少一个调整中的一个幅度值。
第一终端基于存储的调整方式与幅度值之间的对应关系,获取该目标调整方式对应的幅度值,将该目标调整方式对应的幅度值作为该目标幅度值。可以理解的是,该目标调整方式为至少一种调整方式的一种。
以目标幅度值为第一主用户指定的幅度值为例,对本步骤B11进行如下介绍:
第一终端在该第一虚拟空间子画面的关联位置,显示该目标调整方式对应的至少一个幅度值,每个幅度值用于指示对该目标部位的一个调整幅度。第一主用户对至少一个幅度值中的任一幅度值进行选择操作,第一终端响应于对该至少一个幅度值中任一幅度值的选择操作,将选择的该任一幅度值获取为该目标幅度值。
第一主用户通过点击任一幅度值或者语音选择任意幅度值的方式,来对至少一个幅度值中任一幅度值的进行选择操作,在此,本公开实施例对该选择操作的形式不做限定。
在步骤B12中,第一终端基于该目标部位、该目标调整方式以及该目标幅度值,生成该对象调整请求。
该第一终端按照对象调整请求的消息格式,对目标部位的标识、该目标调整方式以及目标幅度值进行封装,得到该对象生成请求。例如,第一终端将该目标部位的标识添加在一组调整字段中的第一调整字段,将该目标部位的目标调整方式添加在该组调整字段中的第二调整字段,将该目标幅度值添加在该组调整字段中的第三调整字段。
需要说明的是,目标幅度值为对象调整请求中的可选参数,在一些实施例中,对象调整请求包括目标调整参数,而在另外一些实施例中,对象调整请求不包括目标幅度值。
需要说明的是,步骤4022和步骤B1所示的过程为第一终端基于目标文本信息,获取对象调整请求的过程。
在步骤B2中,该第一终端向第二终端发送该对象调整请求。
当获取到该对象调整请求后,第一终端向第三服务器发送该对象调整请求,由第三服务器向第二终端转发第一终端的对象调整请求。
需要说明的是,步骤B12以及B2所示的过程为第一终端基于该目标部位、该目标调整方式以及该目标幅度值,向该第二终端发送对象调整请求的过程。
在步骤4032中,第二终端接收该第一终端的对象调整请求。
第三服务器在接收到第一终端的对象调整请求后,向第二终端发送第一终端的对象调整请求,相应地,第二终端能够从第三服务器获取到该第一终端的对象调整请求。
在步骤4033中、第二终端基于该对象调整请求,在第二虚拟空间子画面中,显示该目标部位发生调整后的目标对象。
在一种可能的实施方式中,第二终端基于对象调整请求,对第二虚拟空间子画面的目标对象的目标部位进行调整,然后,在第二虚拟空间子画面中,显示调整后的目标对象。如下述步骤C1-C2所示。
在步骤C1中,第二终端采用该对象调整请求包括的目标调整方式,对该目标部位进行调整。
当第二终端获取到该对象调整请求后,对该对象调整请求进行解析。第二终端从该对象调整请求的第一调整字段,解析出该目标部位的标识,基于该目标部位的标识。第二终端从该对象调整请求的第二调整字段,解析出该目标调整方式,将目标调整方式作为待该目标部位的调整方式。之后,第二终端采用该目标调整方式,对该目标部位进行调整。
第二终端在对目标部位进行调整时,有调整幅度的限制,在一种可能的实施方式中,本步骤C1包括下述步骤C11-C12。
在步骤C11中,第二终端获取该目标调整方式对应的目标幅度值,该目标幅度值用于指示对该目标部位的调整幅度。
若该对象调整请求还包括目标调整方式对应的目标幅度值,则第二终端从该对象获取请求中,获取该目标幅度值,例如,第二终端从该对象调整请求的第三调整字段,解析出该目标幅度值,将该目标幅度值作为本次调整目标部位的调整幅度。
或者,第二终端基于存储的调整方式与幅度值之间的对应关系,获取该目标调整方式对应的幅度值,将该目标调整方式对应的幅度值作为该目标幅度值。该过程与第一终端基于存储的调整方式与幅度值之间的对应关系,获取该目标调整方式对应的幅度值同理,在此,本公开实施例对该过程不再赘述。
在步骤C12中,第二终端采用该目标调整方式以及该目标幅度值,对该目标部位进行调整。
若目标部位的目标幅度值是在目标部位当前大小的基础上本次需要调整的幅度,则第二终端采用目标调整方式,在目标部位当前大小的基础上,将目标部位的大小在调整目标幅度值。以目标部位为目标对象的鼻子,目标调整方式为增大、目标幅度值为5%为例,第二终端将第二虚拟空间子画面中的目标对象的鼻子增大5%。
若目标部位的目标幅度值为本次最终需要调整到的幅度值,则第二终端采用目标调整方式,将该目标部位调整到目标幅度值所对应的大小。以目标调整方式为变小,目标幅度值为0%,则第二终端将目标部位的大小调整到最小。再以目标调整方式为变大,目标幅度值为100%,则第二终端将目标部位的大小调整到最大。
在一种可能的实施方式中,当第二终端接收到该对象调整请求后,在第二虚拟空间子画面的关联位置显示该对象调整请求,若该第二主用户同意该对象调整请求,则第二主用户对该对象调整请求进行确认操作,以指示第二主用户同意该第一终端的对象调整请求,则第二终端响应于对该对象调整请求的确认操作,执行本步骤4033。若该第二主用户不同意该对象调整请求,则第二主用户不对该对象调整请求进行确认操作,或者是对该对象调整请求进行拒绝操作,则第二终端若没有检测到对该对象调整请求的确认操作,或者检测到对该对象调整请求的拒绝操作,则第二终端不执行本步骤4033。在另一种可能的实施方式中,无须第二主用户对该对象调整进行确认操作,第二终端也能够执行本步骤4033。
在一种可能的实施方式中,为目标调整方式设置目标调整幅度范围,该目标调整幅度范围包括至少一个调整幅度值,该目标调整幅度范围为采用目标调整方式调整该目标部位时能够接受的调整幅度范围。若该目标幅度值属于目标调整幅度范围,则执行本步骤4033,否则,不执行本步骤4033。在另一种可能的实施方式中,不为目标调整方式设置目标调整幅度范围,则第二终端在接收到对象调整请求后,无须根据目标调整幅度范围,来确定是否执行本步骤4033,而是直接执行本步骤4033。
在步骤C2中,第二终端在该第二虚拟空间子画面中,显示该目标部位发生调整后的该目标对象。
在步骤4034中,第二终端向第一终端发送基于该对象调整请求的视频流。
由于第二终端实时向第三服务器发送第二视频流,当目标对象的目标部位调整完成后,第二终端向第三服务器发送的第二视频流为第二终端基于该对象调整请求的视频流。具体地,当目标对象的目标部位调整完成后,第二终端实时向第三服务器发送第二视频流,由第三服务器将第二终端发送的第二视频流转发至第一终端。
在步骤4035中,第一终端接收该第二终端基于该对象调整请求返回的视频流。
例如,第一终端从第三服务器,接收该第二终端基于该对象调整请求返回的视频流。
在步骤404中,第一终端基于第二终端的视频流,在该第二虚拟空间子画面中,显示该目标部位发生调整后的该目标对象。
第一终端在接收到该第二终端基于该对象调整请求返回的视频流后,在第二虚拟空间子画面中,显示该第二终端基于该对象调整请求返回的视频流,从而能够在第二虚拟空间子画面中,显示出该目标部位发生调整后的该目标对象。
本公开实施例提供的方法,通过第一终端和第二终端分别显示联合画面,联合画面显示有第二终端的第二虚拟空间子画面,第一终端响应于对第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而第一主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出第一主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
上述步骤402和步骤403所示的过程也即是第一终端响应于该第一终端的调整操作,与该第二终端进行交互的过程。在步骤402和步骤403中,第一终端先基于目标语音信号,确定目标部位以及目标调整方式,再基于确定的目标部位以及目标调整方式与第二终端进行交互。
而在另一种可能的实施方式中,第一终端无须确定目标部位以及目标方式,而是通过目标语音信号的文本信息,与第二终端进行交互。参见图5根据一示例性实施例示出的另一种虚拟空间互动方法的交互流程图,该方法用于第一终端与第二终端的交互过程中,该实施例包括以下步骤。
在步骤501中,第一终端和第二终端分别在各自的虚拟空间界面中,显示联合画面,该联合画面包括该第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,该第二虚拟空间子画面中显示有目标对象。
其中,本步骤501与上述步骤401同理,在此,本公开实施例对本步骤501不再赘述。
在步骤502中,第一终端响应于接收到目标语音信号的输入操作,基于所该目标语音信号,获取目标文本信息,该目标文本信息是该目标语音指令转换得到的文本信息。
其中,本步骤502与上述步骤4021同理,在此,本申请实施例对步骤502不再赘述。
在步骤503中,第一终端基于该目标文本信息,向第二服务器发送获取请求,该获取请求用于指示基于该目标文本信息获取对象调整请求。
其中,该获取请求包括该目标文本信息。
当第一终端获取到该目标文本信息后,对该目标文本信息封装,得到该获取请求,向第二服务器发送获取请求。
由第二服务器负责生成对象调整请求,便于虚拟空间互动系统中的业务处理,节约了第一终端的处理资源。
其中,第二服务器为虚拟空间互动系统中的可选服务器。在一些实施例中,虚拟空间互动系统内无须设置第二服务器,例如图1中的虚拟空间互动系统100不包括第一服务器。而在另外一些实施例中,虚拟空间互动系统包括第二服务器。
在步骤504中,第二服务器接收第一终端的获取请求,基于该获取请求中的目标文本信息,向第一终端发送对象调整请求。
当第二服务器接收到该获取请求后,从该获取请求中获取目标文本信息,基于该文本信息,生成对象调整请求,向第一终端发送对象调整请求。
其中,第二服务器基于文本信息生成对象调整请求的过程与第一终端基于文本信息生成对象调整请求的过程同理,在此,本公开实施例对第二服务器基于文本信息生成对象调整请求的过程不再赘述。
在步骤505中,第一终端接收该第二服务器返回的对象调整请求,该对象调整请求包括所述目标部位的标识以及所述目标调整方式。
需要说明的是,上述步骤502-505所示的过程也即是第一终端基于目标文本信息,获取对象调整请求的过程。
在步骤506中,第一终端向该第二终端发送该对象调整请求。
其中,本步骤506与上述步骤B2同理,在此,本公开实施例对本步骤506不再赘述。
在步骤507中,第二终端接收该第一终端的对象调整请求。
其中,本步骤507与上述步骤4032同理,在此,本公开实施例对本步骤507不再赘述。
在步骤508中、第二终端基于该对象调整请求,在第二虚拟空间子画面中,显示该目标部位发生调整后的目标对象。
其中,本步骤508与上述步骤4033同理,在此,本公开实施例对本步骤508不再赘述。
在步骤509中,第二终端向第一终端发送基于该对象调整请求的视频流。
其中,本步骤509与上述步骤4034同理,在此,本公开实施例对本步骤509不再赘述。
在步骤510中,第一终端接收该第二终端基于该对象调整请求返回的视频流。
其中,本步骤510与上述步骤4035同理,在此,本公开实施例对本步骤510不再赘述。
需要说明的是,上述步骤502-510所示的过程也即是第一终端响应于该第一终端的调整操作,与该第二终端进行交互的过程。
在步骤511中,第一终端基于第二终端的视频流,在该第二虚拟空间子画面中,显示该目标部位发生调整后的该目标对象。
其中,本步骤511与上述步骤404同理,在此,本公开实施例对本步骤511不再赘述。
本公开实施例提供的方法,通过第一终端和第二终端分别显示联合画面,联合画面显示有第二终端的第二虚拟空间子画面,第一终端响应于对第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而第一主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出第一主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
下面以虚拟空间互动系统中配置有第一服务器和第二服务器为例,通过图6和图7,对图5所示的过程作进一步地说明。
图6是根据一示例性实施例示出的一种第一终端侧虚拟空间互动的示意图。如图6所示,第一终端601包括处理器611、语音识别(Automatic Speech Recognition,ASR)模块612以及第一信息传输模块613(Information Transmission Module)。
在第一终端601和第二终端602联合互动时,假设第一主用户说:“鼻子变大一点”,语音识模块612能够采集到第一虚拟空间的语音信号,向第一服务器602发送采集到的语音信号,由第一服务器602将语音信号转换为目标文本信息“鼻子变大一点”,并向语音识模块612返回目标文本信息。语音识模块612在接收到第一服务器602返回的目标文本信息后,将目标文本信息返回给处理器611。由处理器611向第二服务器603发送包括目标文本信息的获取请求,以请求第二服务器603基于目标文本信息获取对象调整请求。当第二服务器603接收到获取请求后,基于获取请求包括的目标文本信息,生成对象调整请求,并向处理器611返回对象调整请求。处理器611在接收到对象调整请求后,向第一信息传输模块613发送对象调整请求,第一信息传输模块613将对象调整请求发送至第三服务器604。第三服务器604向第二终端605发送接收到的第一信息传输模块613。
继续参考图7根据一示例性实施例示出的一种第二终端侧虚拟空间互动的示意图,如图7所示,第二终端602包括第二信息传输模块621和显示模块622。第三服务器604将对象调整请求发送至第二信息传输模块621。当第二信息传输模块621接收到对象调整请求后,解析对象调整请求中的调整参数,调整参数包括鼻子的标识以及目标调整方式:增大。第二信息传输模块621将解析出的目标部位的标识以及目标调整方式发送给显示模块622,由显示模块622基于目标部位的标识以及目标调整方式,调整目标部位的显示效果。另外,由于第二终端602实时同步第一终端601的视频流,第一主用户的语音信号为第一终端601的视频流的一部分,因此,第二终端602的显示模块622在第二虚拟空间子画面中,显示第一终端601的视频流时,也会同步播放第一主用户的语音信号:鼻子变大一点。
图6和图7是以一个目标部位作为调整对象为例进行说明的,而在另外一些实施例中,目标部位也可以由多个,例如图8根据一示例性实施例示出的一种调整多个目标部位的流程图,如图8所示,第二终端中的第二信息传输模块在接收到对象调整请求后,解析对象调整请求,从对象调整请求中获取调整参数,其中,调整参数包括两组,第一组调整参数用于包括眼睛的标识以及第一调整方式,以指示采用第一调整方式调整目标对象的眼睛。第二组调整参数包括鼻子的标识以及第二调整方式,以指示采用第二调整方式调整目标对象的鼻子。信息传输模块将这两组调整参数均发送至显示模块。显示模块在接收到这两组调整参数后,基于这两组调整参数,采用第一调整方式,调整目标对象的眼睛,采用第二调整方式,调整目标对象的鼻子,并在第二虚拟空间子画面中显示眼睛和鼻子的调整效果。
在一种可能的实施方式中,虚拟空间互动系统不包括第一服务器和第二服务器,而是包括第四服务器,第四服务器是集成有第一服务器和第二服务器的功能。第一终端响应于接收到目标语音信号的输入操作,基于该目标语音信号,向第四服务器发送目标获取请求,该目标获取请求用于指示基于该目标语音信号获取对象获取请求。其中,该目标获取请求包括该目标语音信号。
当第四服务器接收到该目标获取请求后,将该目标获取请求中的目标语音信号转换为目标文本信息,并基于目标文本信息,生成确定该目标部位以及该目标部位的目标调整方式,再基于该目标部位以及该目标调整方式,生成该对象调整请求,最后,向第一终端返回该对象调整请求。
需要说明的是,第四服务器为虚拟空间互动系统中的可选服务器,在一些实施例中,虚拟空间互动系统包括第四服务器,而在另一些实施例中虚拟空间互动系统不包括第四服务器,如图1所示的虚拟空间互动系统。
图9是根据一示例性实施例示出的另一种虚拟空间互动方法的交互流程图,如图9所示,该方法用于第一终端与第二终端的交互过程中,该实施例包括以下步骤。
在步骤901中,第一终端和第二终端分别在各自的虚拟空间界面中,显示联合画面,该联合画面包括该第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,该第二虚拟空间子画面中显示有目标对象。
其中,本步骤901与上述步骤401同理,在此,本公开实施例对本步骤901不再赘述。
在步骤902中,第一终端响应于检测到对联合画面中该目标对象的对象调整操作,确定该目标部位以及该目标部位的目标调整方式。
其中,对目标对象的目标部位的对象调整操作包括以目标部位的任一位置为起点,对目标部位进行滑动操作。例如,以目标部位的任一位置为起点,向上滑动、向下滑动或向目标部位的中心位置滑动等。
在一种可能的实施方式中,第一主用户对联合画面中目标对象的目标部位进行调整操作,第一终端应于检测到对该目标对象的目标部位的对象调整操作,确定目标部位。
其中,对目标对象的目标部位的对象调整操作包括以目标部位的任一位置为起点,向任一方向的滑动操作。例如向目标部位之外的方向滑动、或者向目标部位的中心的方向滑动等。
第一终端中存储有至少一个滑动方向与调整方式之间的对象关系,其中,每个滑动方向分别对应一种调整方式。例如若滑动方向为上,对应的滑动方式为向上方增大待调整对象。若滑动方向为下,对应的滑动方式为向下方增大待调整对象。若滑动方向为左上,对应的滑动方式为向左上方增大调整对象。若滑动方向为水平向右,对应的滑动方式为整体增大目标部位。若滑动方向为指向目标部位的中心,对应的滑动方式为整体减小目标部位。
第一终端基于滑动方向与调整方式之间的对应关系,获取所述对象调整操作的滑动方向所对应的调整方式,将获取的调整方式作为目标调整方式,从而第一终端基于存储的滑动方向与调整方式之间的对应关系,能够获取到该对象调整操作的滑动方向所对应的调整方式。
在步骤903中,第一终端基于目标部位以及该目标部位的目标调整方式,与第二终端进行交互。
其中,本步骤903与上述步骤403所示的过程同理,在此,本公开实施例对本步骤903不再赘述。
需要说明的是,步骤902和903所示的过程也即是第一终端应于对象调整指令,与第二终端基于对象调整指令进行交互的一种可能的实现方式。
在步骤904中,第一终端基于第二终端的视频流,在该第二虚拟空间子画面中,显示该目标部位发生调整后的该目标对象。
其中,本步骤904与上述步骤404同理,在此,本公开实施例对本步骤904不再赘述。
本公开实施例提供的方法,通过第一终端和第二终端分别显示联合画面,联合画面显示有第二终端的第二虚拟空间子画面,第一终端响应于对第二虚拟空间子画面内目标对象的目标部位的调整操作,与第二终端进行交互,以使第二终端对目标对象的目标部位进行调整,相应地,第一终端基于第二终端的视频流,在第二虚拟空间子画面中,显示目标部位发生调整后的目标对象,从而第一主用户能够通过第一终端,对联合画面中第二虚拟空间子画面内所显示的目标对象的目标部位进行调整,通过联合画面展示出第一主用户所希望的目标对象的目标部位的调整效果,增加了联合虚拟空间的互动方式,提高了人机交互效率。
在一种可能的实施方式中,在联合互动过程中,参与联合互动的各个终端均具有对其他终端所对应的对象进行调整的权限,以调整其他终端对应的对象的部位。例如,在第一终端与第二终端联合互动过程中,第一终端响应于该第一终端的调整操作,与该第二终端进行交互的权限,说明第一终端具有对第二终端所对应的目标对象进行调整的权限。
而在另一种可能的实施方式中,在联合互动过程中,参与联合互动的各个终端进行互动,互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限。例如,在第一终端与第二终端进行联合互动过程中,第一主用户通过第一终端与第二主用户进行互动,若第一主用户互动胜利且第二主用户互动失败,则第一终端为互动胜利方,第二终端为互动失败方。虚拟空间互动系统中的第五服务器为第一终端开启对第二虚拟空间子画面中的目标对象进行调整的权限,当该权限开启后,第一终端具有对第二虚拟空间子画面中的目标对象进行调整的权限,之后,当终端检测到对该第一终端的调整操作,与该第二终端进行交互。
对于有权限限定的情况,在一种可能的实施方式中,第一终端和第二终端均还能够在各自的联合画面中,显示提示信息,该提示信息用于提示互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限,以达到提示的目的。
其中,第一终端和第二终端在互动开始前,在各自的联合画面中,显示提示信息,或者,在互动结束后,在各自的联合画面中,显示提示信息。在此,本公开实施例对该提示信息的显示时机不做限定。
图10是根据一示例性实施例示出的一种虚拟空间互动装置的逻辑结构框图。参照图10,所述装置1000被配置为第一终端,所述装置1000包括:
第一显示单元1001,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
交互单元1002,被配置为执行响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整;
第二显示单元1003,被配置为执行基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述交互单元1002包括:
第一确定子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式;
第一交互子单元,被配置为执行基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述第一确定子单元包括:
获取子子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
确定子子单元,被配置为执行基于所述目标文本信息,确定所述目标部位以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述获取子子单元被配置为执行:
响应于接收到目标语音信号的输入操作,向第一服务器发送语音转换请求,所述语音转换请求用于指示将所述目标语音指令转换为文本信息;
接收所述目标文本信息。
在一种可能的实施方式中,所述确定子子单元被配置为执行:
将所述目标文本信息输入信息分析模型,由所述信息分析模型对所述目标文本信息所指示的待调整部位以及调整方式进行分析,输出所述目标部位的标识以及所述目标部位的目标调整方式。
在一种可能的实施方式中,所述交互单元1002包括:
第二确定子单元,被配置为执行响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式;
第二交互子单元,被配置为执行基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
在一种可能的实施方式中,所述第二确定子单元被配置为执行:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位;
基于滑动方向与调整方式之间的对应关系,获取所述对象调整操作的滑动方向所对应的调整方式,将获取的调整方式作为所述目标调整方式。
在一种可能的实施方式中,所述第二交互子单元包括:
发送子子单元,被配置为执行基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标调整方式;
接收子子单元,被配置为执行接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述发送子子单元被配置为执行:
基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述对象调整请求还包括目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度,所述发送子子单元被配置为执行:
在所述第一虚拟空间子画面的关联位置,显示所述目标调整方式对应的至少一个幅度值,每个幅度值用于指示对所述目标部位的一个调整幅度;
响应于对所述至少一个幅度值中任一幅度值的选择操作,将选择的所述任一幅度值获取为所述目标幅度值;
基于所述目标部位、所述目标调整方式以及所述目标幅度值,向所述第二终端发送所述对象调整请求。
在一种可能的实施方式中,所述交互单元1002包括:
第一获取子单元,被配置为执行响应于接收到目标语音信号的输入操作,基于所述目标语音信号,获取目标文本信息,所述目标文本信息是所述目标语音指令转换得到的文本信息;
第二获取子单元,被配置为执行基于所述目标文本信息,获取对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标部位的目标调整方式;
发送子单元,被配置为执行向所述第二终端发送所述对象调整请求;
接收子单元,被配置为执行接收所述第二终端基于所述对象调整请求返回的视频流。
在一种可能的实施方式中,所述第二获取子单元被配置为执行:
基于所述目标文本信息,向第二服务器发送获取请求,所述获取请求用于指示基于所述目标文本信息获取对象调整请求;
接收所述第二服务器返回的所述对象调整请求。
在一种可能的实施方式中,若所述第一终端互动胜利且所述第二终端互动失败,则所述第一终端具有对所述第二虚拟空间子画面中的所述目标对象进行调整的权限。
在一种可能的实施方式中,所述装置1000还包括:
第三显示单元,被配置为执行在所述联合画面中,显示提示信息,所述提示信息用于指示互动胜利方具有对互动失败方的虚拟空间子画面内的对象进行调整的权限。
关于上述实施例中的装置,其中各个单元执行操作的具体方式已经在有关该虚拟空间互动方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种虚拟空间互动装置的逻辑结构框图。参照图11,所述装置1100被配置为第二终端,所述装置1100包括:
第一显示单元1101,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
接收单元1102,被配置为执行接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整;
第二显示单元1103,被配置为执行基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述对象调整请求包括所述目标部位的标识以及对所述目标部位的目标调整方式,所述第二显示单元1103包括:
调整子单元,被配置为执行采用所述目标调整方式,对所述目标部位进行调整;
显示子单元,被配置为执行在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述调整子单元包括:
获取子子单元,被配置为执行获取所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;
调整子子单元,被配置为执行采用所述目标调整方式以及所述目标幅度值,对所述目标部位进行调整。
在一种可能的实施方式中,所述获取子子单元被配置为执行:
若所述对象调整请求还包括与所述目标调整方式对应的目标幅度值,则从所述对象调整请求中,获取所述目标幅度值;
或者,基于存储的调整方式与幅度值之间的对应关系,获取所述目标调整方式对应的幅度值,将所述目标调整方式对应的幅度值作为所述目标幅度值。
在一种可能的实施方式中,所述第二显示单元1103还被配置为执行:
响应于对所述对象调整请求的确认操作,基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
在一种可能的实施方式中,所述对象调整请求包括对所述目标部位的目标调整方式以及所述目标调整方式对应的目标幅度值,所述目标幅度值用于指示对所述目标部位的调整幅度;所述第二显示单元1103还被配置为执行:
若所述目标幅度值属于目标调整幅度范围,则基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
关于上述实施例中的装置,其中各个单元执行操作的具体方式已经在有关该虚拟空间互动方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图12是根据一示例性实施例示出的一种终端的逻辑结构框图。图12所示的终端1200可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group AudioLayer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts GroupAudio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1200还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1200包括有:处理器1201和存储器1202。
处理器1201可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1201可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1201也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1201可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1201还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1202可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1202还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1202中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1201所执行以实现本公开中各个实施例提供的虚拟空间互动方法。
在一些实施例中,终端1200还可选包括有:外围设备接口1203和至少一个外围设备。处理器1201、存储器1202和外围设备接口1203之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1203相连。具体地,外围设备包括:射频电路1204、触摸显示屏1205、摄像头组件1206、音频电路1207和电源1208中的至少一种。
外围设备接口1203可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1201和存储器1202。在一些实施例中,处理器1201、存储器1202和外围设备接口1203被集成在同一芯片或电路板上;在一些其他实施例中,处理器1201、存储器1202和外围设备接口1203中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1204用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1204通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1204将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1204包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1204可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1204还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本公开对此不加以限定。
显示屏1205用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1205是触摸显示屏时,显示屏1205还具有采集在显示屏1205的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1201进行处理。此时,显示屏1205还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1205可以为一个,设置终端1200的前面板;在另一些实施例中,显示屏1205可以为至少两个,分别设置在终端1200的不同表面或呈折叠设计;在再一些实施例中,显示屏1205可以是柔性显示屏,设置在终端1200的弯曲表面上或折叠面上。甚至,显示屏1205还可以设置成非矩形的不规则图形,也即异形屏。显示屏1205可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1206用于采集图像或视频。可选地,摄像头组件1206包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1206还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1207可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1201进行处理,或者输入至射频电路1204以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1200的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1201或射频电路1204的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1207还可以包括耳机插孔。
电源1208用于为终端1200中的各个组件进行供电。电源1208可以是交流电、直流电、一次性电池或可充电电池。当电源1208包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1200还包括有一个或多个传感器1210。该一个或多个传感器1210包括但不限于:加速度传感器1211、陀螺仪传感器1212、压力传感器1213、光学传感器1214以及接近传感器1215。
加速度传感器1211可以检测以终端1200建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1211可以用于检测重力加速度在三个坐标轴上的分量。处理器1201可以根据加速度传感器1211采集的重力加速度信号,控制触摸显示屏1205以横向视图或纵向视图进行用户界面的显示。加速度传感器1211还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1212可以检测终端1200的机体方向及转动角度,陀螺仪传感器1212可以与加速度传感器1211协同采集用户对终端1200的3D动作。处理器1201根据陀螺仪传感器1212采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1213可以设置在终端1200的侧边框和/或触摸显示屏1205的下层。当压力传感器1213设置在终端1200的侧边框时,可以检测用户对终端1200的握持信号,由处理器1201根据压力传感器1213采集的握持信号进行左右手识别或快捷操作。当压力传感器1213设置在触摸显示屏1205的下层时,由处理器1201根据用户对触摸显示屏1205的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
光学传感器1214用于采集环境光强度。在一个实施例中,处理器1201可以根据光学传感器1214采集的环境光强度,控制触摸显示屏1205的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1205的显示亮度;当环境光强度较低时,调低触摸显示屏1205的显示亮度。在另一个实施例中,处理器1201还可以根据光学传感器1214采集的环境光强度,动态调整摄像头组件1206的拍摄参数。
接近传感器1215,也称距离传感器,通常设置在终端1200的前面板。接近传感器1215用于采集用户与终端1200的正面之间的距离。在一个实施例中,当接近传感器1215检测到用户与终端1200的正面之间的距离逐渐变小时,由处理器1201控制触摸显示屏1205从亮屏状态切换为息屏状态;当接近传感器1215检测到用户与终端1200的正面之间的距离逐渐变大时,由处理器1201控制触摸显示屏1205从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图12中示出的结构并不构成对终端1200的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括至少一条指令的计算机可读存储介质,例如包括至少一条指令的存储器,上述至少一条指令可由终端中的处理器执行以完成上述实施例中的虚拟空间互动方法。可选地,上述计算机可读存储介质可以是非临时性计算机可读存储介质,例如,该非临时性计算机可读存储介质可以包括ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存取存储器)、CD-ROM(Compact Disc Read-Only Memory,只读光盘)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,包括一条或多条指令,该一条或多条指令可以由终端的处理器执行,以完成上述各个实施例提供的虚拟空间互动方法。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本申请中涉及到的视频流都是在充分授权的情况下获取的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种虚拟空间互动方法,其特征在于,所述方法由第一终端执行,所述方法包括:
在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整;
基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
2.根据权利要求1所述的虚拟空间互动方法,其特征在于,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于接收到目标语音信号的输入操作,基于所述目标语音信号,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
3.根据权利要求1所述的虚拟空间互动方法,其特征在于,所述响应于所述第一终端的调整操作,与所述第二终端进行交互包括:
响应于检测到对联合画面中所述目标对象的对象调整操作,确定所述目标部位以及所述目标部位的目标调整方式;
基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互。
4.根据权利要求2或3所述的虚拟空间互动方法,其特征在于,所述基于所述目标部位以及所述目标部位的目标调整方式,与所述第二终端进行交互包括:
基于所述目标部位以及所述目标调整方式,向所述第二终端发送对象调整请求,所述对象调整请求包括所述目标部位的标识以及所述目标调整方式;
接收所述第二终端基于所述对象调整请求返回的视频流。
5.一种虚拟空间互动方法,其特征在于,所述方法由第二终端执行,所述方法包括:
在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整;
基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
6.一种虚拟空间互动装置,其特征在于,所述装置被配置为第一终端,所述装置包括:
第一显示单元,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括所述第一终端对应的第一虚拟空间子画面以及第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
交互单元,被配置为执行响应于所述第一终端的调整操作,与所述第二终端进行交互,所述调整操作用于对所述目标对象的目标部位进行调整;
第二显示单元,被配置为执行基于所述第二终端的视频流,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
7.一种虚拟空间互动装置,其特征在于,所述装置被配置为第二终端,所述装置包括:
第一显示单元,被配置为执行在虚拟空间界面中,显示联合画面,所述联合画面包括第一终端对应的第一虚拟空间子画面以及所述第二终端对应的第二虚拟空间子画面,所述第二虚拟空间子画面中显示有目标对象;
接收单元,被配置为执行接收所述第一终端的对象调整请求,所述对象调整请求用于指示对所述目标对象的目标部位进行调整;
第二显示单元,被配置为执行基于所述对象调整请求,在所述第二虚拟空间子画面中,显示所述目标部位发生调整后的所述目标对象。
8.一种终端,其特征在于,包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行指令的一个或多个存储器;
其中,所述一个或多个处理器被配置为执行所述指令,以实现如权利要求1-4中任一项所述的虚拟空间互动方法,或者以实现如权利要求5所述的虚拟空间互动方法。
9.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的至少一条指令由终端的一个或多个处理器执行时,使得所述终端能够执行如权利要求1-4中任一项所述的虚拟空间互动方法,或者能够执行如权利要求5所述的虚拟空间互动方法。
10.一种计算机程序产品,其特征在于,包括一条或多条指令,所述一条或多条指令由终端的一个或多个处理器执行,使得所述终端能够执行如权利要求1-4中任一项所述的虚拟空间互动方法,或者能够执行如权利要求5所述的虚拟空间互动方法。
CN202210344804.8A 2022-03-31 2022-03-31 虚拟空间互动方法、装置、终端以及计算机可读存储介质 Pending CN114816051A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210344804.8A CN114816051A (zh) 2022-03-31 2022-03-31 虚拟空间互动方法、装置、终端以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210344804.8A CN114816051A (zh) 2022-03-31 2022-03-31 虚拟空间互动方法、装置、终端以及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN114816051A true CN114816051A (zh) 2022-07-29

Family

ID=82533391

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210344804.8A Pending CN114816051A (zh) 2022-03-31 2022-03-31 虚拟空间互动方法、装置、终端以及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN114816051A (zh)

Similar Documents

Publication Publication Date Title
CN112291583B (zh) 直播连麦方法、装置、服务器、终端及存储介质
CN110830811B (zh) 直播互动方法及装置、系统、终端、存储介质
US11790612B2 (en) Information display method and device, terminal, and storage medium
CN110149332B (zh) 直播方法、装置、设备及存储介质
CN112118477B (zh) 虚拟礼物展示方法、装置、设备以及存储介质
CN109151044B (zh) 信息推送方法、装置、电子设备及存储介质
CN112312226B (zh) 连麦方法、系统、装置、电子设备及存储介质
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
CN112533017B (zh) 直播方法、装置、终端及存储介质
CN110139143B (zh) 虚拟物品显示方法、装置、计算机设备以及存储介质
CN111246095A (zh) 控制镜头运动的方法、装置、设备及存储介质
CN108579075B (zh) 操作请求响应方法、装置、存储介质及系统
CN114845129B (zh) 虚拟空间中的互动方法、装置、终端以及存储介质
CN110958464A (zh) 直播数据处理方法、装置、服务器、终端及存储介质
CN111294607B (zh) 直播互动方法、装置、服务器及终端
CN111045945B (zh) 模拟直播的方法、装置、终端、存储介质及程序产品
CN110837300B (zh) 虚拟交互的方法、装置、电子设备及存储介质
CN111954018B (zh) 直播间管理方法、系统、装置、设备及存储介质
CN112492331B (zh) 直播方法、装置、系统及存储介质
CN112423008B (zh) 直播方法、装置、终端、服务器以及存储介质
CN111245629B (zh) 会议控制方法、装置、设备及存储介质
CN110312144B (zh) 进行直播的方法、装置、终端和存储介质
CN113141538A (zh) 媒体资源播放方法、装置、终端、服务器及存储介质
CN114698409A (zh) 视频会议实现方法、装置、系统以及存储介质
CN114546188A (zh) 基于互动界面的互动方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination