WO2015117383A1 - 通话的方法、终端和计算机存储介质 - Google Patents

通话的方法、终端和计算机存储介质 Download PDF

Info

Publication number
WO2015117383A1
WO2015117383A1 PCT/CN2014/089073 CN2014089073W WO2015117383A1 WO 2015117383 A1 WO2015117383 A1 WO 2015117383A1 CN 2014089073 W CN2014089073 W CN 2014089073W WO 2015117383 A1 WO2015117383 A1 WO 2015117383A1
Authority
WO
WIPO (PCT)
Prior art keywords
behavior
terminal
avatar
call
encoded data
Prior art date
Application number
PCT/CN2014/089073
Other languages
English (en)
French (fr)
Inventor
尚国强
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2015117383A1 publication Critical patent/WO2015117383A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/25Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
    • H04M2203/251Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably
    • H04M2203/252Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a voice mode is enhanced with visual information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent

Definitions

  • the traditional voice call mode is to transmit voice data after establishing a voice channel between the two terminals.
  • This type of call mode is relatively simple, and the interaction between the user and the user is small, which is not intuitive enough, and in the present situation where social applications are increasingly diverse.
  • the quality of the video call is generally satisfactory. In the 3G period, if the quality of the video call is high, the radio resource is occupied. Since the maximum bandwidth of the 3G is 64K, the quality of the video call is obviously Nor can it meet the requirements of users, the user experience is poor, and the cost is also high.
  • Embodiments of the present invention are directed to providing a method, terminal, and computer storage medium for a call to increase user interaction in a voice call while reducing the cost of the call.
  • a first aspect of the embodiments of the present invention provides a method for calling, which is applied to a terminal having a network call function, and the method for the call includes the following steps:
  • the avatar is caused to present a dynamic behavior corresponding to the first behavior encoded data.
  • the step of causing the avatar to present a dynamic behavior corresponding to the first behavior coded data comprises:
  • the method for calling includes:
  • the step of receiving the first behavior coded data sent by the opposite end comprises:
  • the second aspect of the embodiment of the present invention further provides a terminal, where the terminal includes:
  • the display module is configured to acquire an avatar preset on the interactive interface of the terminal and display the terminal during the call between the terminal and the peer;
  • a matching unit configured to match the behavior information with behavior information pre-stored by the terminal
  • the interactive interface of the terminal displays the preset avatar, and when receiving the first behavior coded data sent by the opposite end, The avatar performs dynamic behavior corresponding to the first behavior coded data, including dynamic expression behavior and dynamic behavior of the limb.
  • the manner of the call increases the interaction between the users compared to the traditional voice call, and can be intuitively performed. Express, increase the fun of the call; save bandwidth compared to video calls but has similar effects to video calls, reducing the cost of calls.
  • Both the terminal and the peer end in this embodiment have a network call function, and may be a computer or a smart phone.
  • Step S104 Acquire behavior information of the terminal, encode the behavior information to obtain second behavior encoded data, and send the second behavior encoded data to the opposite end.
  • the peer end may send the behavior coded data to the terminal, and the terminal may also send the action coded data to the peer end to interact.
  • Both the terminal and the peer end in this embodiment have a network call function, and may be a computer or a smart phone.
  • the display module 101 specifically includes a display screen; the display screen may have a display structure such as a liquid crystal display, a plasma display screen, a projection screen, or an electronic ink display screen.
  • the interface displays an avatar that can have facial expression changes, motion changes, and voice lip synchronization.
  • the dynamic behavior corresponding to the first behavior coded data includes an expression dynamic behavior and a limb dynamic behavior.
  • the avatar on the terminal performs the action of the fangs, that is, the dynamic behavior of the expression; the opposite end sends the behavior coded data of the swaying head to the terminal, and the avatar on the terminal executes.
  • the action of shaking the head is the dynamic behavior of the limb.
  • the structure of the execution module 103 may be a processor, such as an image processor that controls the display module 101; the processor may be an application processor AP (AP) in the terminal, and a central processing unit ( CPU, Central Processing Unit), digital signal processor (DSP, Digital Signal Processor), or Field Programmable Gate Array (FPGA), and other electronic components with display control functions.
  • AP application processor
  • CPU Central Processing Unit
  • DSP Digital Signal Processor
  • FPGA Field Programmable Gate Array
  • the execution module 103 includes:
  • the decoding unit 1031 is configured to decode the first behavior encoded data, and obtain behavior information corresponding to the first behavior encoded data;
  • the matching unit 1032 is configured to match the behavior information with the behavior information pre-stored by the terminal;
  • the user may select an option of a sendable expression or a limb motion on the interactive interface of the opposite end, select an expression or a limb motion, and encode the expression or the limb motion to obtain the first behavior coded data. , sent to the terminal. Then, the terminal decodes the first behavior encoded data to obtain behavior information corresponding to the first behavior encoded data: for example, laughing at the
  • the expressions such as fangs and smiles are 0001, 0010, and 0011, and so on.
  • the body movements such as shaking their heads, nodding their heads, and hugging are coded as 1000, 1001, 1010, and so on.
  • the behavior information may be classified into categories, and the behavior information of the same category may be stored in the same database, for example, the database includes an expression template library, a limb motion template library, and the like.
  • the behavior information is matched with the behavior information pre-stored in the terminal database. If the matching is successful, the corresponding behavior information in the database is invoked, and the avatar on the interaction interface is driven to execute the behavior information.
  • the terminal further includes:
  • the sending module 104 of the terminal can send the behavior coded data to the opposite end.
  • the terminal encodes the behavior information to obtain the second behavior encoded data and the foregoing
  • the peer end encodes the behavior information to obtain the first behavior coded data.
  • the avatar on the interactive interface can perform lip movement synchronization in addition to the dynamic behavior of the expression and the dynamic behavior of the limb.
  • the terminal acquires voice information through the voice channel, and controls the lip of the avatar according to the acquired voice information.
  • the department performs the corresponding action to make the vocal type of the avatar and the voice information substantially the same, and further close to the video call. If the user selects the other person's real person avatar to be displayed on the interactive interface, there is a call effect that is almost identical to the video call.
  • the embodiment of the present invention further describes a computer storage medium, wherein the computer storage medium stores computer executable instructions, and the computer executable instructions are used to execute at least one of the methods of the embodiments of the present invention, as shown in the figure. 1 and / or the method described in Figure 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种通话的方法,应用于具有网络通话功能的终端中,所述通话的方法包括以下步骤:在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;接收所述对端发送的第一行为编码数据;使所述头像呈现与所述第一行为编码数据对应的动态行为。本发明还公开了一种终端及计算机存储介质。

Description

通话的方法、终端和计算机存储介质 技术领域
本发明涉及通信技术领域,尤其涉及一种通话的方法、终端和计算机存储介质
背景技术
随着网络通信技术的发展和通讯终端硬件性能的提升,互联网应用越来越广泛,涉及的业务越来越多。传统的语音通话方式为两终端之间建立语音通道后传输语音数据,这种通话方式较单一,用户与用户之间的交互也少,不够直观,在现今社交应用越来越多样化的情形下,无法满足当下用户的要求;而视频通话的质量一般,在3G时期,如果视频通话的质量要求高,则对无线资源占用较大,由于3G中最大就是64K的带宽,因此视频通话的质量显然也不能达到用户的要求,用户体验较差,另外,成本也较高。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明实施例期望提供一种通话的方法、终端和计算机存储介质,以增加用户在语音通话中的互动的同时降低通话的成本。
本发明实施例第一方面提供一种通话的方法,应用于具有网络通话功能的终端中,所述通话的方法包括以下步骤:
在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
接收所述对端发送的第一行为编码数据;
使所述头像呈现与所述第一行为编码数据对应的动态行为。
优选地,所述使头像呈现与所述第一行为编码数据对应的动态行为的步骤包括:
对所述第一行为编码数据进行解码,获取所述第一行为编码数据对应的行为信息;
将所述行为信息与所述终端预存的行为信息进行匹配;
当匹配成功时,使所述头像呈现与所述行为信息对应的动态行为。
优选地,所述通话的方法还包括:
获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
优选地,所述通话的方法还包括:
获取所述对端的语音信息,控制所述头像的唇部执行与所述语音信息相应的动作,以同步唇音。
优选地,所述接收对端发送的第一行为编码数据的步骤包括:
通过预先建立的至少一条数据通道接收所述对端发送的所述第一行为编码数据。
本发明实施例第二方面还提供一种终端,所述终端包括:
显示模块,配置为在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
接收模块,配置为接收所述对端发送的第一行为编码数据;
执行模块,配置为将所述头像执行与所述第一行为编码数据对应的动态行为。
优选地,所述执行模块包括:
解码单元,配置为对所述第一行为编码数据进行解码,获取所述第一 行为编码数据对应的行为信息;
匹配单元,配置为将所述行为信息与所述终端预存的行为信息进行匹配;
执行单元,配置为当匹配成功时,使所述头像呈现与所述行为信息对应的动态行为。
优选地,所述终端还包括:
发送模块,配置为获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
优选地,所述终端还包括:
同步模块,配置为获取所述对端的语音信息,控制所述头像的唇部执行与所述语音信息相应的动作,以同步唇音。
优选地,所述接收模块具体用于
通过预先建立的至少一条数据通道接收所述对端发送的所述第一行为编码数据。
本发明实施例第三方面提供一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行本发明实施例第一方面所述方法的至少其中之一。
本发明实施例提供的通话的方法、终端和计算机存储介质,在终端与对端进行语音通话时,终端的交互界面显示预置的头像,在接收到对端发送的第一行为编码数据时,该头像执行与第一行为编码数据对应的动态行为,包括表情动态行为及肢体动态行为,这种通话的方式相比于传统的语音通话而言,增加了用户之间的交互,能够直观地进行表达,增加通话的趣味性;相比于视频通话而言,节省了带宽但与视频通话具有相似的效果,降低了通话的成本。
附图说明
图1为本发明实施例所述通话的方法提供的流程示意图;
图2为图1中将所述头像执行与所述第一行为编码数据对应的动态行为的步骤的细化流程示意图;
图3为本发明实施例所述通话的方法第提供的流程示意图;
图4为本发明实施例所述通话的方法提供的流程示意图;
图5为本发明实施例所述终端第提供的结构示意图;
图6为图5中执行模块的结构示意图;
图7为本发明实施例所述终端提供的结构示意图;
图8为本发明终端第三实施例所述终端的结构示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行详细说明,应当理解,以下所说明的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明提供一种通话的方法,应用于具有网络通话功能的终端中,参照图1,在一实施例中,该通话的方法包括:
步骤S101,在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
本实施例中的终端与对端均具有网络通话功能,可以是计算机或智能手机等。
本实施例中,终端与对端进行呼叫,呼叫成功后,建立语音通道以供语音通话,建立语音通道的方式可以与现有技术相同。
在终端与对端进行语音通话的过程中,终端与对端当前的通话的交互界面上显示一个可以具有表情变化、动作变化以及可以音唇同步的头像,在该交互界面上还可以有可发送的表情或肢体动作的选项,还可以有发送其他消息如文字信息等的选项。
本实施例中,在终端或对端上均有头像模版库,包括卡通头像或者真人头像模版库,在进行语音通话时,用户可调取其中的一个头像,该头像可以根据对端发送的表情或者肢体动作做出相应的动作。
步骤S102,接收所述对端发送的第一行为编码数据;
本实施例中,对端可以通过交互界面上提供的表情或动作的选项向终端发送第一行为编码数据。
本实施例中,对端的用户在交互界面上提供的表情或动作选项进行选择,当用户选中某一表情或动作后,对端将选中的表情或动作进行编码,得到上述的第一行为编码数据,然后对端将第一行为编码数据发送给本端。
本实施例中,在终端与对端建立语音通话时,建立语音通道的同时建立数据通道,该数据通道用以传输对端发送给终端的第一行为编码数据或者传输终端发送给对端的行为编码数据。
本实施例中,根据数据实际传输的情况或用户的配置来实现数据通道的建立,可以建立一条数据通道,也可以建立多条数据通道。如在语音通话时发送消息或者其他数据时,则可能需要建立多条数据通道。
本实施例中,第一行为编码数据包括表情数据、肢体动作数据。第一行为编码数据为经特定编码后得到的数据,本实施例在终端与对端之间传输行为编码数据而不是直接传输图片,通过这种方式,可以减小数据的传输量,节省带宽。
步骤S103,将所述头像执行与所述第一行为编码数据对应的动态行为。所述步骤S103即使所述头像呈现与所述第一行为编码数据对应的动态行为。
本实施例中,第一行为编码数据对应的动态行为包括表情动态行为、肢体动态行为。例如,对端向终端发送一呲牙的行为编码数据,则终端上的头像执行呲牙的动作,即为表情动态行为;对端向终端发送一摇头的行 为编码数据,则终端上的头像执行摇头的动作,即为肢体动态行为。
具体如何使所述头像呈现与所述第一行为编码数据对应的桶盖行为,具体可以为依据所述第一行为编码数据及所述头像,制作视频和/或动漫,使静态的头像动起来,具体如终端接收到一个指示所述头像摇头的第一行为编码,所述终端可以通过提取所述头像的图像数据,改变所述头像的头部展现的不同侧面,形成多帧连续播放的画面,在播放显示达到使所述头像动态的呈现所述摇头动作。在具体的实现过程中,所述第一行为编码数据也可以是检索索引,通过所述检索索引找到预先存储的所述头像摇头的视频进而播放,从而达到时所述头像呈现与所述第一行为编码数据对应的动态行为的效果。
与现有技术相比,本实施例中在终端与对端进行语音通话时,终端的交互界面显示预置的头像,在接收到对端发送的第一行为编码数据时,该头像执行与第一行为编码数据对应的动态行为,包括表情动态行为及肢体动态行为,这种通话的方式相比于传统的语音通话而言,增加了用户之间的交互,能够直观地进行表达,增加通话的趣味性;相比于视频通话而言,节省了带宽但与视频通话具有相似的效果,降低了通话的成本。
在其中一个实施例中,如图2所示,在上述图1的实施例的基础上,上述步骤S103包括:
步骤S1031,对所述第一行为编码数据进行解码,获取所述第一行为编码数据对应的行为信息;
步骤S1032,将所述行为信息与所述终端预存的行为信息进行匹配;
步骤S1033,当匹配成功时,将所述头像执行与所述行为信息对应的动态行为。所述步骤S1033即所述的当匹配成功时,使所述头像呈现与所述行为信息对应的动态行为。
本实施例中,用户可以在对端的交互界面上的可发送的表情或肢体动 作的选项中进行选择,选取某一表情或肢体动作,将该表情或肢体动作进行编码,得到第一行为编码数据,发送给终端。然后终端对该第一行为编码数据进行解码,得到第一行为编码数据对应的行为信息:例如对大笑、呲牙、微笑等表情编码为0001、0010、0011,依次类推;对摇头、点头、拥抱等肢体动作编码为1000、1001、1010,以此类推,等等。终端获取第一行为编码数据后,按照编码相反的方式进行解码,得到第一行为编码数据对应的行为信息,如解码0010,得到对应的行为信息为呲牙,解码1000,得到对应的行为信息为摇头。
本实施例在终端与对端之间传输行为编码数据而不是直接传输图片,通过这种方式,可以减小数据的传输量,节省带宽。
本实施例中,可对行为信息分类别,将同一类别的行为信息存储在同一数据库中,如数据库包括表情模板库、肢体动作模板库等。本实施例将行为信息与终端数据库中预存的行为信息进行匹配,如果匹配成功,则调用该数据库中相应的行为信息,并驱动交互界面上的头像执行该行为信息。
在其中一个实施例中,如图3所示,在上述图1的实施例的基础上,该通话的方法还包括:
步骤S104,获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
本实施例中,对端可以向终端发送行为编码数据,而终端也可以向对端发送行为编码数据,以此来互动。
本实施例中,本端的用户在交互界面上提供的表情或动作选项进行选择,当用户选中某一表情或动作后,本端将选中的表情或动作进行编码,得到第二行为编码数据。与上述第一行为编码数据所不同的是,第二行为编码数据为本端向对端发送的编码数据,而第一行为数据是对端向本端发送的编码数据。
本实施例终端向对端发送行为编码数据可以在步骤S103之后,也可以在其他步骤之后,只要终端与对端建立语音通话,则终端即可以向对端发送行为编码数据。
本实施例中,终端对行为信息进行编码得到第二行为编码数据与上述对端对行为信息进行编码得到第一行为编码数据类似,可参考上述实施例,此处不再赘述。
在其中一个实施例中,如图4所示,在上述图1的实施例的基础上,该通话的方法还包括:
步骤S105,获取所述对端的语音信息,控制所述头像的唇部执行与所述语音信息相应的动作,以同步唇音。
本实施例中,交互界面上的头像除了可以执行表情动态行为及肢体动态行为外,还可以实现唇音同步,具体为:终端通过语音通道获取语音信息,根据所获取的语音信息,控制头像的唇部执行相应的动作,使头像的口型与语音信息基本一致,进一步接近视频通话。而如果用户选择对方的真人头像显示在交互界面上时,则具有与视频通话几乎一致的通话效果。
本发明还提供一种终端,如图5所示,在一个设备实施例中,该终端包括:
显示模块101,配置为在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
本实施例中的终端与对端均具有网络通话功能,可以是计算机或智能手机等。所述显示模块101具体包括显示屏;所述显示屏可以液晶显示屏、等离子显示屏、投影屏或电子墨水显示屏等显示结构。
本实施例中,终端与对端进行呼叫,呼叫成功后,建立语音通道以供语音通话,建立语音通道的方式可以与现有技术相同。
在终端与对端进行语音通话的过程中,终端与对端当前的通话的交互 界面上显示一个可以具有表情变化、动作变化以及可以音唇同步的头像,在该交互界面上还可以有可发送的表情或肢体动作的选项,还可以有发送其他消息如文字信息等的选项。
本实施例中,在终端或对端上均有头像模版库,包括卡通头像或者真人头像模版库,在进行语音通话时,用户可调取其中的一个头像,该头像可以根据对端发送的表情或者肢体动作做出相应的动作。
接收模块102,配置为接收所述对端发送的第一行为编码数据;
本实施例中,对端可以通过交互界面上提供的表情或动作的选项向终端发送第一行为编码数据。所述接收模块的具体结构可包括外部通信接口,所述外部通信即可为无线通信接口,具体如接收天线,所述接收天线可以WIFI天线、移动互连网技术中的2G、3G和/或4G的接收天线。所述外部通信接口还可以有线通信接口,具体如网络连接接口,如RJ45接口,光纤接口等。
本实施例中,对端的用户在交互界面上提供的表情或动作选项进行选择,当用户选中某一表情或动作后,对端将选中的表情或动作进行编码,得到上述的第一行为编码数据。
本实施例中,在终端与对端建立语音通话时,建立语音通道的同时建立数据通道,该数据通道用以传输对端发送给终端的第一行为编码数据或者传输终端发送给对端的行为编码数据。
本实施例中,根据数据实际传输的情况或用户的配置来实现数据通道的建立,可以建立一条数据通道,也可以建立多条数据通道。如在语音通话时发送消息或者其他数据时,则可能需要建立多条数据通道。
本实施例中,第一行为编码数据包括表情数据、肢体动作数据。第一行为编码数据为经特定编码后得到的数据,本实施例在终端与对端之间传输行为编码数据而不是直接传输图片,通过这种方式,可以减小数据的传 输量,节省带宽。
执行模块103,配置为将所述头像执行与所述第一行为编码数据对应的动态行为;所述执行模块103即为配置为使所述头像执行与所述第一行为编码数据对应的动态行为的模块
本实施例中,第一行为编码数据对应的动态行为包括表情动态行为、肢体动态行为。例如,对端向终端发送一呲牙的行为编码数据,则终端上的头像执行呲牙的动作,即为表情动态行为;对端向终端发送一摇头的行为编码数据,则终端上的头像执行摇头的动作,即为肢体动态行为。
所述执行模块103的结构可为处理器,具体如控制所述显示模块101显示的图像处理器;所述处理器可以为终端中的应用处理器AP(AP,Application Processor)、中央处理器(CPU,Central Processing Unit)、数字信号处理器(DSP,Digital Signal Processor)或可编程门阵列(FPGA,Field Programmable Gate Array)等具有显示控制功能的电子元器件。
在其中一个实施例中,如图6所示,在上述图5的实施例的基础上,执行模块103包括:
解码单元1031,配置为对所述第一行为编码数据进行解码,获取所述第一行为编码数据对应的行为信息;
匹配单元1032,配置为将所述行为信息与所述终端预存的行为信息进行匹配;
执行单元1033,配置为当匹配成功时,将所述头像执行与所述行为信息对应的动态行为。
本实施例中,用户可以在对端的交互界面上的可发送的表情或肢体动作的选项中进行选择,选取某一表情或肢体动作,将该表情或肢体动作进行编码,得到第一行为编码数据,发送给终端。然后终端对该第一行为编码数据进行解码,得到第一行为编码数据对应的行为信息:例如对大笑、 呲牙、微笑等表情编码为0001、0010、0011,依次类推;对摇头、点头、拥抱等肢体动作编码为1000、1001、1010,以此类推,等等。终端获取第一行为编码数据后,按照编码相反的方式进行解码,得到第一行为编码数据对应的行为信息,如解码0010,得到对应的行为信息为呲牙,解码1000,得到对应的行为信息为摇头。
本实施例在终端与对端之间传输行为编码数据而不是直接传输图片,通过这种方式,可以减小数据的传输量,节省带宽。
本实施例中,可对行为信息分类别,将同一类别的行为信息存储在同一数据库中,如数据库包括表情模板库、肢体动作模板库等。本实施例将行为信息与终端数据库中预存的行为信息进行匹配,如果匹配成功,则调用该数据库中相应的行为信息,并驱动交互界面上的头像执行该行为信息。
在其中一个实施例中,如图7所示,在上述图5的实施例的基础上,终端还包括:
发送模块104,配置为获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
本实施例中,对端可以向终端发送行为编码数据,而终端也可以向对端发送行为编码数据,以此来互动。
本实施例中,本端的用户在交互界面上提供的表情或动作选项进行选择,当用户选中某一表情或动作后,本端将选中的表情或动作进行编码,得到第二行为编码数据。与上述第一行为编码数据所不同的是,第二行为编码数据为本端向对端发送的编码数据,而第一行为数据是对端向本端发送的编码数据。
本实施例只要终端与对端建立语音通话,则终端的发送模块104即可以向对端发送行为编码数据。
本实施例中,终端对行为信息进行编码得到第二行为编码数据与上述 图6实施例中对端对行为信息进行编码得到第一行为编码数据类似,可参考上述实施例,此处不再赘述。
在其中一个实施例中,如图8所示,在上述图5的实施例的基础上,终端还包括:
同步模块105,配置为获取所述对端的语音信息,控制所述头像的唇部执行与所述语音信息相应的动作,以同步唇音。
本实施例中,交互界面上的头像除了可以执行表情动态行为及肢体动态行为外,还可以实现唇音同步,具体为:终端通过语音通道获取语音信息,根据所获取的语音信息,控制头像的唇部执行相应的动作,使头像的口型与语音信息基本一致,进一步接近视频通话。而如果用户选择对方的真人头像显示在交互界面上时,则具有与视频通话几乎一致的通话效果。
本发明实施例还记载了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行本发明实施例所述方法的至少其中之一,如图1和/或图4所述的方法。
所述计算机存储介质可为移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。在一些实施例中所述计算机存储介质为非瞬间存储介质,如ROM。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围。凡按照本发明原理所作的修改,都应当理解为落入本发明的保护范围。

Claims (11)

  1. 一种通话的方法,应用于具有网络通话功能的终端中,所述通话的方法包括以下步骤:
    在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
    接收所述对端发送的第一行为编码数据;
    使所述头像呈现与所述第一行为编码数据对应的动态行为。
  2. 如权利要求1所述的通话的方法,其中,所述使头像呈现与所述第一行为编码数据对应的动态行为的步骤包括:
    对所述第一行为编码数据进行解码,获取所述第一行为编码数据对应的行为信息;
    将所述行为信息与所述终端预存的行为信息进行匹配;
    当匹配成功时,使所述头像呈现与所述行为信息对应的动态行为。
  3. 如权利要求1所述的通话的方法,其中,所述通话的方法还包括:
    获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
  4. 如权利要求1或3所述的通话的方法,其中,所述通话的方法还包括:
    获取所述对端的语音信息,控制所述头像的唇部呈现与所述语音信息相应的动作,以同步唇音。
  5. 如权利要求1所述的通话的方法,其中,所述接收对端发送的第一行为编码数据的步骤包括:
    通过预先建立的至少一条数据通道接收所述对端发送的所述第一行为编码数据。
  6. 一种终端,其中,所述终端包括:
    显示模块,配置为在终端与对端进行通话的过程中,获取所述终端通话的交互界面上预置的头像并显示;
    接收模块,配置为接收所述对端发送的第一行为编码数据;
    执行模块,配置为使所述头像呈现行与所述第一行为编码数据对应的动态行为。
  7. 如权利要求6所述的终端,其中,所述执行模块包括:
    解码单元,配置为对所述第一行为编码数据进行解码,获取所述第一行为编码数据对应的行为信息;
    匹配单元,配置为将所述行为信息与所述终端预存的行为信息进行匹配;
    执行单元,配置为当匹配成功时,使所述头像呈现与所述行为信息对应的动态行为。
  8. 如权利要求6所述的终端,其中,所述终端还包括:
    发送模块,配置为获取所述终端的行为信息,对所述行为信息进行编码得到第二行为编码数据,向所述对端发送所述第二行为编码数据。
  9. 如权利要求6或8所述的终端,其中,所述终端还包括:
    同步模块,配置为获取所述对端的语音信息,控制所述头像的唇部执行与所述语音信息相应的动作,以同步唇音。
  10. 如权利要求6所述的终端,其中,所述接收模块配置为通过预先建立的至少一条数据通道接收所述对端发送的所述第一行为编码数据。
  11. 一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令用于执行权利要求1至5所述方法的至少其中之一。
PCT/CN2014/089073 2014-08-21 2014-10-21 通话的方法、终端和计算机存储介质 WO2015117383A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410416385.XA CN105357171A (zh) 2014-08-21 2014-08-21 通话的方法及终端
CN201410416385.X 2014-08-21

Publications (1)

Publication Number Publication Date
WO2015117383A1 true WO2015117383A1 (zh) 2015-08-13

Family

ID=53777201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/089073 WO2015117383A1 (zh) 2014-08-21 2014-10-21 通话的方法、终端和计算机存储介质

Country Status (2)

Country Link
CN (1) CN105357171A (zh)
WO (1) WO2015117383A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012034A (zh) * 2021-03-05 2021-06-22 西安万像电子科技有限公司 图像显示处理的方法、装置和系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106534203A (zh) * 2016-12-27 2017-03-22 努比亚技术有限公司 一种移动终端及通讯方法
CN110062116A (zh) * 2019-04-29 2019-07-26 上海掌门科技有限公司 用于处理信息的方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1427626A (zh) * 2001-12-20 2003-07-02 松下电器产业株式会社 虚拟电视通话装置
CN1735240A (zh) * 2004-10-29 2006-02-15 康佳集团股份有限公司 一种手机短消息中表情符号及语音的实现方法
CN102404435A (zh) * 2011-11-15 2012-04-04 宇龙计算机通信科技(深圳)有限公司 一种通信终端通话界面的显示方法和通信终端
CN103886632A (zh) * 2014-01-06 2014-06-25 宇龙计算机通信科技(深圳)有限公司 用户表情头像的生成方法及通信终端

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1328908C (zh) * 2004-11-15 2007-07-25 北京中星微电子有限公司 一种视频通信的方法
CN101419499B (zh) * 2008-11-14 2010-06-02 东南大学 基于摄像头和话筒的多媒体人机交互方法
CN101692681A (zh) * 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 一种在话机终端上实现虚拟形象互动界面的方法和系统
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
CN103856390B (zh) * 2012-12-04 2017-05-17 腾讯科技(深圳)有限公司 即时通讯方法及系统、通讯信息处理方法、终端
CN103218844B (zh) * 2013-04-03 2016-04-20 腾讯科技(深圳)有限公司 虚拟形象的配置方法、实现方法、客户端、服务器及系统
KR101771071B1 (ko) * 2013-08-22 2017-08-24 후아웨이 테크놀러지 컴퍼니 리미티드 통신 방법, 클라이언트, 및 단말
CN103442137B (zh) * 2013-08-26 2016-04-13 苏州跨界软件科技有限公司 一种在手机通话中查看对方虚拟人脸的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1427626A (zh) * 2001-12-20 2003-07-02 松下电器产业株式会社 虚拟电视通话装置
CN1735240A (zh) * 2004-10-29 2006-02-15 康佳集团股份有限公司 一种手机短消息中表情符号及语音的实现方法
CN102404435A (zh) * 2011-11-15 2012-04-04 宇龙计算机通信科技(深圳)有限公司 一种通信终端通话界面的显示方法和通信终端
CN103886632A (zh) * 2014-01-06 2014-06-25 宇龙计算机通信科技(深圳)有限公司 用户表情头像的生成方法及通信终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012034A (zh) * 2021-03-05 2021-06-22 西安万像电子科技有限公司 图像显示处理的方法、装置和系统

Also Published As

Publication number Publication date
CN105357171A (zh) 2016-02-24

Similar Documents

Publication Publication Date Title
US9210372B2 (en) Communication method and device for video simulation image
US9402057B2 (en) Interactive avatars for telecommunication systems
US20180063556A1 (en) Systems and methods for providing guest broadcasting on a live stream video platform
JP2016173830A (ja) メディア出力の選択的ミラーリング
CN110213504B (zh) 一种视频处理方法、信息发送方法及相关设备
US11741616B2 (en) Expression transfer across telecommunications networks
CN108932948B (zh) 音频数据处理方法、装置、计算机设备和计算机可读存储介质
US11138715B2 (en) Method and apparatus for determining experience quality of VR multimedia
JP2016511837A (ja) 分散型ストーリーリーディングのための音声変更
WO2012105318A1 (ja) 入力支援装置、入力支援方法及び記録媒体
KR20100136801A (ko) 멀티미디어 시스템의 사용자 인터페이스 장치 및 방법
WO2012021174A2 (en) EXPERIENCE OR "SENTIO" CODECS, AND METHODS AND SYSTEMS FOR IMPROVING QoE AND ENCODING BASED ON QoE EXPERIENCES
CN113301355B (zh) 视频传输、直播与播放方法、设备及存储介质
CN111464828A (zh) 虚拟特效显示方法、装置、终端及存储介质
WO2015117383A1 (zh) 通话的方法、终端和计算机存储介质
CN111773660A (zh) 一种云游戏处理系统、方法及装置
CN112929704A (zh) 数据传输方法、装置、电子设备以及存储介质
CN112261421A (zh) 虚拟现实的显示方法、装置、电子设备及存储介质
CN104391628A (zh) 进程切换方法及装置
CN102364965A (zh) 手机通信信息精化显示方法
CN111787111B (zh) 一种基于云游戏的数据传输方法及装置
CN107493478B (zh) 编码帧率设置方法及设备
CN114268626A (zh) 窗口处理系统、方法以及装置
CN113965779A (zh) 云游戏数据的传输方法、装置、系统及电子设备
CN113596583A (zh) 视频流子弹时间数据处理方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14882093

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14882093

Country of ref document: EP

Kind code of ref document: A1