CN103297742A - 数据处理方法、微处理器、通信终端及服务器 - Google Patents
数据处理方法、微处理器、通信终端及服务器 Download PDFInfo
- Publication number
- CN103297742A CN103297742A CN2012100485840A CN201210048584A CN103297742A CN 103297742 A CN103297742 A CN 103297742A CN 2012100485840 A CN2012100485840 A CN 2012100485840A CN 201210048584 A CN201210048584 A CN 201210048584A CN 103297742 A CN103297742 A CN 103297742A
- Authority
- CN
- China
- Prior art keywords
- information
- default
- behavior state
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种数据处理方法,包括:获取用户的视频信息,该视频信息为图像信息或者为图像信息和语音信息的结合;判断视频信息是否包含用户的行为状态信息,若包含,则提取该行为状态信息;获取与该行为状态信息对应的辅助信息;发送信息。基于本发明公开的数据处理方法,用户在进行视频通信过程中,不仅可以实现面对面的交流,并且还可以在用户做出预设的行为状态信息时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。本发明还公开了应用该数据处理方法的微处理器、通信终端和服务器。
Description
技术领域
本发明属于移动通信设备技术领域,尤其涉及一种视频聊天的通信方法、微处理器、通信终端和服务器。
背景技术
随着科技的发展,人们的通信方式日新月异,传统的基于语音或者基于文本交互的通信方式已经不能满足人们的通信需求。
目前,基于视频的通信方式成为主流,在通信过程中通信的双方可以看到对方的影像。但是,目前这种基于视频实现的通信方式,仅仅能看到对方的影像,其功能仍然较为单一,如何丰富基于视频的通信过程的功能,进而提高用户的用户体验,是需要本领域技术人员关注的问题。
发明内容
有鉴于此,本发明的目的在于提供一种数据处理方法,在视频通信过程中依据用户的行为状态信息增加辅助信息,从而丰富视频通信过程的功能,进而提高用户的用户体验。同时本发明还提供了应用该数据处理方法的微处理器、通信终端和服务器。
为实现上述目的,本发明提供如下技术方案:
一种数据处理方法,包括:获取用户的视频信息,所述视频信息为图像信息或者为图像信息和语音信息的结合;判断所述视频信息是否包含所述用户的行为状态信息,若包含,则提取所述行为状态信息;获取与所述行为状态信息对应的辅助信息;发送信息,所述信息包括所述辅助信息和所述视频信息。
优选的,在上述方法中,当所述视频信息为图像信息时,所述行为状态信息包括预设的表情信息和预设的动作信息中的一种或多种。
优选的,在上述方法中,当所述视频信息为图像信息和语音信息的结合时,所述行为状态信息包括预设的表情信息、预设的动作信息、以及预设的语音信息中的一种或多种。
优选的,在上述方法中,当所述行为状态信息为预设的表情信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:在所述图像信息中提取所述用户的人脸图像;利用表情识别算法分析所述人脸图像,确定用户的表情信息;判断所述表情信息是否包含于预存的表情信息集合,若是,则确定所述图像信息中包含预设的表情信息。
优选的,在上述方法中,当所述行为状态信息为预设的动作信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:在所述图像信息中提取所述用户的肢体图像;利用动作识别算法分析所述肢体图像,确定用户的动作信息;判断所述动作信息是否包含于预存的动作信息集合,若是,则确定所述图像信息中包含预设的动作信息。
优选的,在上述方法中,当所述行为状态信息为预设的语音信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:在所述语音信息中提取语音段;利用语音识别算法分析所述语音段,提取所述语音段中的有效语音信息;判断所述有效语音信息是否包含于预设的语音信息集合,若是,则确定所述语音信息中包含预设的语音信息。
优选的,在上述方法中,所述辅助信息包括动画、图片和特效语音中的一种或多种。
优选的,在上述方法中,还包括生成控制信息的步骤,所述控制信息用于控制所述辅助信息的输出方式;相应的,发送的信息包括所控制信息、辅助信息和视频信息。
优选的,在上述方法中,当所述辅助信息为动画或图片时,所述控制信息包括所述动画或图片与所述视频信息中图像信息的位置关系。
本发明还公开了一种微处理器,包括:视频信息获取单元,用于获取用户的视频信息,所述视频信息为图像信息或者为图像信息和语音信息的结合;行为状态信息提取单元,用于判断所述视频信息是否包含所述用户的行为状态信息,并在确定所述视频信息包含行为状态信息时,提取所述行为状态信息;辅助信息获取单元,用于获取与所述行为状态信息对应的辅助信息;发送单元,用于发送信息,所述信息包括所述辅助信息和所述视频信息。
优选的,在上述微处理器中,当所述视频信息为图像信息时,所述行为状态信息提取单元至少包括以下一个子单元:预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息。
优选的,在上述微处理器中,当所述视频信息为图像信息和语音信息的结合时,所述行为状态信息提取单元至少包括以下一个子单元:预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息;预设语音信息提取子单元,用于判断所述语音信息中是否包含预设的语音信息,若包含,则提取所述预设的语音信息。
优选的,在上述微处理器中,所述预设表情信息提取子单元包括:人脸图像提取模块,用于在所述图像信息中提取所述用户的人脸图像;表情信息确定模块,用于利用表情识别算法分析所述人脸图像,确定用户的表情信息;预设表情信息提取模块,用于在所述用户的表情信息包含于预设的表情信息集合时,提取所述表情信息。
优选的,在上述微处理器中,所述预设动作信息提取子单元包括:肢体图像提取模块,用于在所述图像信息中提取所述用户的肢体图像;动作信息确定模块,用于利用动作识别算法分析所述肢体图像,确定用户的动作信息;预设动作信息提取模块,用于在所述动作信息包含于预存的动作信息集合时,提取所述动作信息。
优选的,在上述微处理器中,所述预设语音信息提取子单元包括:语音段提取模块,用于在所述语音信息中提取语音段;有效语音信息提取模块,用于利用语音识别算法分析所述语音段,提取所述语音段中的有效语音信息;预设语音信息提取模块,用于在所述有效语音信息包含于预设的语音信息集合时,提取所述有效语音信息。
优选的,在上述微处理器中,所述辅助信息获取单元获取的辅助信息包括动画、图片和特效语音中的一种或多种。
优选的,在上述微处理器中,进一步包括控制信息确定单元,用于生成控制信息,所述控制信息用于控制所述辅助信息的输出方式;相应的,发送单元发送的信息包括所述控制信息、辅助信息和视频信息。
本发明还公开了一种通信终端,包括图像采集装置、语音采集装置、通信单元和微处理器,其中,该微处理器为前述的任一种微处理器。
本发明还公开了一种服务器,包括通信单元、存储器和微处理器,该微处理器为前述的任一种微处理器。
由此可见,本发明的有益效果为:基于本发明公开的数据处理方法,用户在进行视频通信过程中,不仅可以实现面对面的交流,并且还可以在用户做出预设的行为状态信息时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明公开的数据处理方法的实施例一的流程图;
图2为本发明公开的数据处理方法的实施例二的流程图;
图3为本发明公开的数据处理方法的实施例三的流程图;
图4为本发明公开的数据处理单元的实施例四的流程图;
图5为本发明公开的一种微处理器的结构示意图;
图6为本发明公开的另一种微处理器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了一种数据处理方法,在视频通信过程中可以依据用户的行为状态信息增加辅助信息,从而丰富视频通信过程的功能,进而提高用户的用户体验。
该数据处理方法可以应用于通信终端或者提供视频聊天业务的服务器。该通信终端具有视频通信功能,就设备硬件结构而言,该通信终端需具有图像采集单元,或者同时具有图像采集单元和语音采集单元,具体的,通信终端可以是手机、PDA、IPAD、笔记本、台式计算机等等。
参见图1,图1为本发明公开的数据处理方法的实施例一的流程图。包括:
步骤S11:获取用户的视频信息。
视频信息可以为图像信息,也可以为图像信息和语音信息的结合。当用户使用的通信终端只具有图像采集单元时,视频信息仅包括图像信息。当用户使用的通信终端同时具有图像采集装置和语音采集装置时,视频信息可以为图像信息和语音信息的集合,当然,如果此时仅将通信终端采集到的图像信息作为视频信息也是可以的。
实施中,步骤S11可以实时执行,也可以按照预设周期执行。
步骤S12:判断视频信息是否包含用户的行为状态信息,若包含,则提取所述行为状态信息。
对于不同类型的视频信息,用户的行为状态信息也是不同的。具体的,当视频信息为图像信息时,用户的行为状态信息包括预设的表情信息和预设的动作信息中的一种或多种;当视频信息为图像信息和语音信息的结合时,用户的行为状态信息包括预设的表情信息、预设的动作信息、以及预设的语音信息中的一种或多种。
步骤S13:获取与该行为状态信息对应的辅助信息。
对于用户的每种行为状态信息,都预先设置有对应的辅助信息,当从视频信息中提取出用户的行为状态信息后,即可获取与该行为状态信息对应的辅助信息。该辅助信息可以为动画、图片和特效语音中的一种或多种。特效语音指的是除视频信息中语音信息之外的其他语音信息。
例如,当从图像信息中提取到用户的表情信息为微笑信息,且微笑信息属于预设的表情信息时,就可以获取与微笑信息对应的辅助信息,实施中该辅助信息可以是动画形式的笑脸,或者是笑脸图片,或者是预先采集的一段笑声数据,当然也可以是任意两个或三个的结合。
步骤S14:发送信息,该信息包括辅助信息和视频信息。
视频通信的第一通信终端将辅助信息和视频信息合并后通过服务器发送至第二通信终端,或者服务器对参与视频通信的第一通信终端发送的视频信息进行处理获得合并后的辅助信息和视频信息,之后将其发送至参与视频通信的第二通信终端。参与视频通信的第二通信终端接收经过合并处理后的辅助信息和视频信息,若该辅助信息包含特效语音,则通过第二通信终端的语音输出设备播放该特效语音,若该辅助信息包括动画和/或图片,则第二通信终端的视频对话窗口在显示视频信息中图像信息的同时,显示该动画和/或图片。
基于本发明上述公开的数据处理方法,用户在进行视频通信过程中,不仅可以实现面对面的交流,并且还可以在用户做出预设的行为状态时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。
在具体实施过程中,可以按照预设周期执行步骤S12,该预设周期可以是系统初始设定的时间长度,也可以是由用户设定的时间长度。
需要说明的是,当该预设周期较短时,可以保证用户做出的每个行为状态均可以获得相应的辅助信息,在与视频信息进行合并后发送出去,但可能导致用户做出的一个行为状态触发两次获取辅助信息的问题;当该预设周期较长时,可以保证用户做出的一个行为状态只触发一次获取辅助信息的操作,但可能导致用户在较短时间间隔做出的行为状态不会获取辅助信息。考虑到用户的一个行为状态通常会持续2~3秒,可以根据行为状态持续的时间和用户需求来确定执行步骤S12的周期。
具体应用中,为了避免前述问题的发生,可以采用如下方案:在执行步骤S12提取出行为状态信息后,与前次提取的行为状态信息进行比对,若两次提取的行为状态信息不一致,则执行步骤S13,否则,继续执行步骤S12;或者,在执行步骤S13获取辅助信息后,与前次获取的辅助信息进行比对,若两次获取的辅助信息不一致,则执行步骤S14,否则,继续执行步骤S12。
参见图2,图2为本发明公开的数据处理方法的实施例二的流程图。包括:
步骤S21:获取用户的视频信息。
该视频信息可以为图像信息,也可以为图像信息和语音信息的结合。
步骤S22:在视频信息的图像信息中提取用户的人脸图像。
在视频通信过程中,用户会对通信终端中图像采集装置的拍摄角度进行调整,通常控制图像采集装置对用户的头部和上半身进行拍摄。因此,通信终端的图像采集装置输出的图像信息、或者通过通信终端向服务器传输的图像信息是包含了用户的人脸图像和肢体图像的。在步骤S22中,可以通过现有的人脸分析算法在图像信息中提取出用户的人脸图像,以备后续操作使用。
步骤S23:利用表情识别算法分析所述人脸图像,确定用户的表情信息。
在提取到用户的人脸图像之后,可以利用现有的表情识别算法来对人脸图像进行分析,以此来确定用户的表情信息。用户的表情信息至少包括微笑、大笑、悲伤和愤怒等。
步骤S24:判断该表情信息是否包含于预存的表情信息集合,若是,则确定该表情信息为预设表情信息。
通信终端或服务器中预先存储有表情信息集合,该表情信息集合可以是系统的初始设定,也可以在使用过程中由用户来设定。
步骤S25:获取与该预设表情信息对应的辅助信息。
步骤S26:发送信息。
当确定从图像信息中提取出的用户表情信息包含于该表情信息集合时,将该用户表情信息确定为预设表情信息,执行后续的步骤S25和S26,具体过程参见实施例一中的相关描述。
参见图3,图3为本发明公开的数据处理方法的实施例三的流程图。包括:
步骤S31:获取用户的视频信息。
该视频信息可以为图像信息,也可以为图像信息和语音信息的结合。
步骤S32:在视频信息的图像信息中提取用户的肢体图像。
在视频通信过程中,用户会对通信终端中图像采集装置的拍摄角度进行调整,通常控制图像采集装置对用户的头部和上半身进行拍摄。因此,通信终端的图像采集装置输出的图像信息、或者通过通信终端向服务器传输的图像信息是包含了用户的人脸图像和肢体图像的。在步骤S32中,可以通过现有人脸分析算法在图像信息中识别出用户的人脸图像,再将该人脸图像删除以获得用户的肢体图像。
步骤S33:利用动作识别算法分析该肢体图像,确定用户的动作信息。
通过分析用户的肢体图像,可以从中提取到用户的动作信息,该动作信息可以包括挥手、鼓掌、做出“OK”手势、耸肩等。
步骤S34:判断该动作信息是否包含于预存的动作信息集合,若是,则确定该动作信息为预设动作信息。
在通信终端或者服务器中预存有动作信息集合,该动作信息集合可以是系统的初始设定,也可以在使用过程中由用户来设定。
步骤S35:获取与该预设动作信息对应的辅助信息。
步骤S36:发送信息。
当确定从图像信息中提取出的用户动作信息包含于该动作信息集合时,将该用户动作信息确定为预设动作信息,执行后续的步骤S35和S36,具体过程参见实施例一中的相关描述。
参见图4,图4为本发明公开的数据处理方法的实施例四的流程图。包括:
步骤S41:获取用户的视频信息。
该视频信息为图像信息和语音信息的结合。
步骤S42:在视频信息的语音信息中提取语音段。
步骤S43:利用语音识别算法分析该语音段,提取语音段中的有效语音信息;
步骤S44:判断该有效语音信息是否包含于预设的语音信息集合,若是,则确定该有效语音信息为预设语音信息。
步骤S45:获取与该预设动作信息对应的辅助信息。
步骤S46:发送信息。
基于现有的语音识别算法可以对语音段进行智能识别,以获取语音段中的有效语音信息,通过比对该有效语音信息与通信终端或服务器预设的语音信息集合,判断获取到的有效语音信息是否为预设语音信息,若是,则提取该有效语音信息。
在上述实施例二至实施四中,分别以用户的行为状态信息设定为预设表情信息、预设动作信息和预设语音信息为例,对视频通信中数据处理的过程进行了说明。实施中,用户的行为状态信息可以为预设表情信息、预设动作信息和预设语音信息中任意两者或三者的结合。此时,执行判断视频信息是否包含所述用户的行为状态信息的步骤时,要分别判断视频信息中是否包含相应类型的预设信息。
例如:当行为状态信息包括预设表情信息和预设动作信息时,要分别判断图像信息中是否包含预设表情信息、以及判断图像信息中是否包含预设动作信息,两者执行的顺序可以预先设定。
需要说明的是,当执行顺序在前的判断操作、且该判断结果表明未提取到相应的行为状态信息时,必然要继续执行顺序在后的判断操作。但是,当执行顺序在前的判断操作、且该判断结果表明已提取到相应的行为状态信息时,可以不再执行顺序在后的判断操作,相应的后续步骤中仅获取与该行为状态信息对应的辅助信息;当然,也可以继续执行顺序在后的判断操作,如果该顺序在后的判断操作产生的判断结果表明同样提取到相应的行为状态信息时,后续要获取与多个行为状态信息对应的辅助信息。
当行为状态信息为预设表情信息和预设语音信息的结合,或者为预设动作信息和预设语音信息的结合,或者为预设表情信息、预设动作信息和预设语音信息的结合时,执行判断视频信息是否包含所述用户的行为状态信息的步骤类似,在此不再赘述。
在上述各实施例公开的数据处理方法中,辅助信息包括动画、图片和特效语音中的一种或多种。
当参与视频通信的一个通信终端接收到视频信息和辅助信息时,可以按照本机的策略输出接收到的视频信息和辅助信息。例如:当辅助信息为特效语音信息时,按照本机预设的特效语音信息和视频信息中语音信息的音量比例,通过通信终端的耳机或扬声器输出该特效语音信息;当辅助信息为动画或图片时,可以按照本机预设的显示位置在视频对话窗口显示动画或图片。
当然,在视频通信过程中,也可以由发送数据的通信终端或服务器确定数据接收方输出辅助信息的方式。
在上述各实施例中,还包括生成控制信息的步骤,该步骤可以位于发送数据这一步骤之前的任意位置。该控制信息用于控制辅助信息在接收方的输出方式。相应的,发送的数据包括控制信息、辅助信息和视频信息。
当辅助信息为动画或图片时,控制信息可以包括动画或图片与视频信息中图像信息的位置关系、动画的播放次数、图片的显示时间长度等信息,本发明不对其进行限定。
另外,当辅助信息包括特效语音时,数据发送方发送的控制信息中可以进一步包括:特效语音的播放次数、相邻两次播放操作的时间间隔、特效语音与视频信息中语音信息的音量比例等。
在本方法的具体应用过程中,由发送数据的通信终端来控制接收数据的通信终端中输出辅助信息的方式,更加符合用户的灵活性要求,进一步提高视频通信的趣味性,从而提高用户体验。
对应于以上公开的数据处理方法,本发明还公开了一种微处理器,该微处理器可以应用于通信终端或者提供视频聊天业务的服务器。该通信终端具有视频通信功能,就硬件角度而言,通信终端需具有图像采集单元,或者同时具有图像采集单元和语音采集单元,具体的,通信终端可以是手机、PDA、IPAD、笔记本、台式计算机等等。
参见图5,图5为本发明公开的一种微处理器的结构示意图。包括:视频信息获取单元51、行为状态信息提取单元52、辅助信息获取单元53和发送单元54。
其中,视频信息获取单元51用于获取用户的视频信息。
视频信息可以为图像信息,也可以为图像信息和语音信息的结合。当用户使用的通信终端只具有图像采集单元时,视频信息仅包括图像信息。当用户使用的通信终端同时具有图像采集装置和语音采集装置时,视频信息可以为图像信息和语音信息的集合,当然,如果此时仅将通信终端采集到的图像信息作为视频信息也是可以的。
行为状态信息提取单元52用于判断所述视频信息是否包含所述用户的行为状态信息,并在确定所述视频信息包含行为状态信息时,提取所述行为状态信息。
对于不同类型的视频信息,用户的行为状态信息也是不同的。具体的,当视频信息为图像信息时,用户的行为状态信息包括预设的表情信息和预设的动作信息中的一种或多种;当视频信息为图像信息和语音信息的结合时,用户的行为状态信息包括预设的表情信息、预设的动作信息、以及预设的语音信息中的一种或多种。
辅助信息获取单元53,用于获取与所述行为状态信息对应的辅助信息。
对于用户的每种行为状态信息,都预先设置有对应的辅助信息,当从视频信息中提取出用户的行为状态信息后,即可获取与该行为状态信息对应的辅助信息。
发送单元54,用于发送信息,该信息包括辅助信息和视频信息。
视频通信的第一通信终端将辅助信息和视频信息合并后通过服务器发送至第二通信终端,或者服务器对参与视频通信的第一通信终端发送的视频信息进行处理获得合并后的辅助信息和视频信息,之后将其发送至参与视频通信的第二通信终端。
基于本发明上述公开的微处理器,用户在进行视频通信过程中,不仅可以实现面对面的交流,并且还可以在用户做出预设的行为状态信息时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。
当视频信息获取单元51获取的视频信息的组成不同时,行为状态信息提取单元52的结构也不同。具体的,
当视频信息获取单元51获取的视频信息为图像信息时,行为状态信息提取单元52至少包括以下一个子单元:
预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;
预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息。
当视频信息获取单元51获取的视频信息为图像信息和语音信息的结合时,行为状态信息提取单元52至少包括以下一个子单元:
预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;
预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息;
预设语音信息提取子单元,用于判断所述语音信息中是否包含预设的语音信息,若包含,则提取所述预设的语音信息。
其中,预设表情信息提取子单元包括:人脸图像提取模块,用于在所述图像信息中提取所述用户的人脸图像;表情信息确定模块,用于利用表情识别算法分析所述人脸图像,确定用户的表情信息;预设表情信息提取模块,用于在所述用户的表情信息包含于预设的表情信息集合时,提取所述表情信息。
预设动作信息提取子单元包括:肢体图像提取模块,用于在所述图像信息中提取所述用户的肢体图像;动作信息确定模块,用于利用动作识别算法分析所述肢体图像,确定用户的动作信息;预设动作信息提取模块,用于在所述动作信息包含于预存的动作信息集合时,提取所述动作信息。
预设语音信息提取子单元包括:语音段提取模块,用于在所述语音信息中提取语音段;有效语音信息提取模块,用于利用语音识别算法分析所述语音段,提取所述语音段中的有效语音信息;预设语音信息提取模块,用于在所述有效语音信息包含于预设的语音信息集合时,提取所述有效语音信息。
实施中,辅助信息获取单元53获取的辅助信息包括动画、图片和特效语音中的一种或多种。例如,当从图像信息中提取到用户的表情信息为微笑信息,且微笑信息属于预设的表情信息时,就可以获取与微笑信息对应的辅助信息,该辅助信息可以是动画形式的笑脸,或者是笑脸图片,或者是预先采集的一段笑声数据,当然也可以是任意两个或三个的结合。
当参与视频通信的一个通信终端接收到视频信息和辅助信息时,可以按照本机的策略输出接收到的视频信息和辅助信息。例如:当辅助信息为特效语音信息时,按照本机预设的特效语音信息和视频信息中语音信息的音量比例,通过通信终端的耳机或扬声器输出该特效语音信息;当辅助信息为动画或图片时,可以按照本机预设的显示位置在视频对话窗口显示动画或图片。
当然,在视频通信过程中,也可以由发送数据的通信终端或服务器确定数据接收方输出辅助信息的方式。
参见图6,图6为本发明公开的另一种微处理器的结构示意图。包括:视频信息获取单元61、行为状态信息提取单元62、辅助信息获取单元63、控制信息确定单元64和发送单元65。
其中,视频信息获取单元61用于获取用户的视频信息。
行为状态信息提取单元62用于判断所述视频信息是否包含所述用户的行为状态信息,并在确定所述视频信息包含行为状态信息时,提取所述行为状态信息。
辅助信息获取单元63,用于获取与所述行为状态信息对应的辅助信息。
控制信息确定单元64用于生成控制信息,所述控制信息用于控制所述辅助信息的输出方式。
当辅助信息为动画或图片时,控制信息可以包括动画或图片与视频信息中图像信息的位置关系、动画的播放次数、图片的显示时间长度等信息,本发明不对其进行限定。
另外,当辅助信息包括特效语音时,数据发送方发送的控制信息中可以进一步包括:特效语音的播放次数、相邻两次播放操作的时间间隔、特效语音与视频信息中语音信息的音量比例等。
发送单元65用于发送控制信息、辅助信息和视频信息。
基于图6所示的微处理器,由发送数据的通信终端来控制接收数据的终端中输出辅助信息的方式,更加符合用户的灵活性要求,进一步提高视频通信的趣味性,从而提高用户体验。
本发明还公开了一种通信终端,该通信终端包括图像采集装置、语音采集装置、通信单元和微处理器,其中该微处理器为本发明前述的任意一种微处理器,其结构参见前文的相关描述。
用户使用该通信终端进行视频通信时,不仅可以实现面对面的交流,并且还可以在用户做出预设的行为状态信息时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。
本发明还公开了一种服务器,该服务器包括通信单元、存储器和微处理器,其中该微处理器为本发明前述的任意一种微处理器,其结构参见前文的相关描述。
当用户通过该服务器进行视频通信时,不仅可以实现面对面的交流,并且服务器还可以在用户做出预设的行为状态信息时,获取与该行为状态信息对应的辅助信息,在将该辅助信息与视频信息合并后发送至视频通信的另一方,丰富了视频通信过程的功能、提高了视频通信过程的趣味性,从而提高了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (19)
1.一种数据处理方法,其特征在于,包括:
获取用户的视频信息,所述视频信息为图像信息或者为图像信息和语音信息的结合;
判断所述视频信息是否包含所述用户的行为状态信息,若包含,则提取所述行为状态信息;
获取与所述行为状态信息对应的辅助信息;
发送信息,所述信息包括所述辅助信息和视频信息。
2.根据权利要求1所述的方法,其特征在于,当所述视频信息为图像信息时,所述行为状态信息包括预设的表情信息和预设的动作信息中的一种或多种。
3.根据权利要求1所述的方法,其特征在于,当所述视频信息为图像信息和语音信息的结合时,所述行为状态信息包括预设的表情信息、预设的动作信息、以及预设的语音信息中的一种或多种。
4.根据权利要求2或3所述的方法,其特征在于,当所述行为状态信息为预设的表情信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:
在所述图像信息中提取所述用户的人脸图像;
利用表情识别算法分析所述人脸图像,确定用户的表情信息;
判断所述表情信息是否包含于预存的表情信息集合,若是,则确定所述图像信息中包含预设的表情信息。
5.根据权利要求2或3所述的方法,其特征在于,当所述行为状态信息为预设的动作信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:
在所述图像信息中提取所述用户的肢体图像;
利用动作识别算法分析所述肢体图像,确定用户的动作信息;
判断所述动作信息是否包含于预存的动作信息集合,若是,则确定所述图像信息中包含预设的动作信息。
6.根据权利要求3所述的方法,其特征在于,当所述行为状态信息为预设的语音信息时,所述判断所述视频信息是否包含所述用户的行为状态信息,具体包括:
在所述语音信息中提取语音段;
利用语音识别算法分析所述语音段,提取所述语音段中的有效语音信息;
判断所述有效语音信息是否包含于预设的语音信息集合,若是,则确定所述语音信息中包含预设的语音信息。
7.根据权利要求1所述的方法,其特征在于,所述辅助信息包括动画、图片和特效语音中的一种或多种。
8.根据权利要求7所述的方法,其特征在于,还包括生成控制信息的步骤,所述控制信息用于控制所述辅助信息的输出方式;
相应的,发送的信息包括所述控制信息、辅助信息和视频信息。
9.根据权利要求8所述的方法,其特征在于,当所述辅助信息为动画或图片时,所述控制信息包括所述动画或图片与所述视频信息中图像信息的位置关系。
10.一种微处理器,其特征在于,包括:
视频信息获取单元,用于获取用户的视频信息,所述视频信息为图像信息或者为图像信息和语音信息的结合;
行为状态信息提取单元,用于判断所述视频信息是否包含所述用户的行为状态信息,并在确定所述视频信息包含行为状态信息时,提取所述行为状态信息;
辅助信息获取单元,用于获取与所述行为状态信息对应的辅助信息;
发送单元,用于发送信息,所述信息包括所述辅助信息和所述视频信息。
11.根据权利要求10所述的微处理器,其特征在于,当所述视频信息为图像信息时,所述行为状态信息提取单元至少包括以下一个子单元:
预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;
预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息。
12.根据权利要求10所述的微处理器,其特征在于,当所述视频信息为图像信息和语音信息的结合时,所述行为状态信息提取单元至少包括以下一个子单元:
预设表情信息提取子单元,用于判断所述图片信息中是否包含预设的表情信息,若包含,则提取所述预设的表情信息;
预设动作信息提取子单元,用于判断所述图片信息中是否包含预设的动作信息,若包含,则提取所述预设的动作信息;
预设语音信息提取子单元,用于判断所述语音信息中是否包含预设的语音信息,若包含,则提取所述预设的语音信息。
13.根据权利要求11或12所述的微处理器,其特征在于,所述预设表情信息提取子单元包括:
人脸图像提取模块,用于在所述图像信息中提取所述用户的人脸图像;
表情信息确定模块,用于利用表情识别算法分析所述人脸图像,确定用户的表情信息;
预设表情信息提取模块,用于在所述用户的表情信息包含于预设的表情信息集合时,提取所述表情信息。
14.根据权利要求11或12所述的微处理器,其特征在于,所述预设动作信息提取子单元包括:
肢体图像提取模块,用于在所述图像信息中提取所述用户的肢体图像;
动作信息确定模块,用于利用动作识别算法分析所述肢体图像,确定用户的动作信息;
预设动作信息提取模块,用于在所述动作信息包含于预存的动作信息集合时,提取所述动作信息。
15.根据权利要求12所述的微处理器,其特征在于,所述预设语音信息提取子单元包括:
语音段提取模块,用于在所述语音信息中提取语音段;
有效语音信息提取模块,用于利用语音识别算法分析所述语音段,提取所述语音段中的有效语音信息;
预设语音信息提取模块,用于在所述有效语音信息包含于预设的语音信息集合时,提取所述有效语音信息。
16.根据权利要求10所述的微处理器,其特征在于,所述辅助信息获取单元获取的辅助信息包括动画、图片和特效语音中的一种或多种。
17.根据权利要求10所述的微处理器,其特征在于,进一步包括控制信息确定单元,用于生成控制信息,所述控制信息用于控制所述辅助信息的输出方式;
相应的,发送单元发送的信息包括所述控制信息、辅助信息和视频信息。
18.一种通信终端,包括图像采集装置、语音采集装置、通信单元和微处理器,其特征在于,所述微处理器为权利要求10~17中任一项所述的微处理器。
19.一种服务器,包括通信单元、存储器和微处理器,其特征在于,所述微处理器为权利要求10~17中任一项所述的微处理器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100485840A CN103297742A (zh) | 2012-02-27 | 2012-02-27 | 数据处理方法、微处理器、通信终端及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100485840A CN103297742A (zh) | 2012-02-27 | 2012-02-27 | 数据处理方法、微处理器、通信终端及服务器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103297742A true CN103297742A (zh) | 2013-09-11 |
Family
ID=49097980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100485840A Pending CN103297742A (zh) | 2012-02-27 | 2012-02-27 | 数据处理方法、微处理器、通信终端及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103297742A (zh) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103945161A (zh) * | 2014-04-14 | 2014-07-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104333730A (zh) * | 2014-11-26 | 2015-02-04 | 北京奇艺世纪科技有限公司 | 一种视频通信方法及装置 |
CN104780339A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的表情特效动画加载方法和电子设备 |
CN104780458A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的特效加载方法和电子设备 |
CN104836979A (zh) * | 2014-03-17 | 2015-08-12 | 腾讯科技(北京)有限公司 | 信息交互的方法和装置 |
CN104902212A (zh) * | 2015-04-30 | 2015-09-09 | 努比亚技术有限公司 | 一种视频通信方法及装置 |
CN105307132A (zh) * | 2014-06-23 | 2016-02-03 | 中兴通讯股份有限公司 | 一种消息处理方法、装置及终端 |
CN105407313A (zh) * | 2015-10-28 | 2016-03-16 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、设备和系统 |
CN105451029A (zh) * | 2015-12-02 | 2016-03-30 | 广州华多网络科技有限公司 | 一种视频图像的处理方法及装置 |
CN105578110A (zh) * | 2015-11-19 | 2016-05-11 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、装置和系统 |
CN105578113A (zh) * | 2016-02-02 | 2016-05-11 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN105657325A (zh) * | 2016-02-02 | 2016-06-08 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN105744206A (zh) * | 2016-02-02 | 2016-07-06 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN106127828A (zh) * | 2016-06-28 | 2016-11-16 | 广东欧珀移动通信有限公司 | 一种增强现实的处理方法、装置及移动终端 |
CN106157262A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 一种增强现实的处理方法、装置和移动终端 |
CN106162230A (zh) * | 2016-07-28 | 2016-11-23 | 北京小米移动软件有限公司 | 直播信息的处理方法、装置、主播端、服务器及系统 |
CN106200930A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种增强现实的控制方法、装置及移动终端 |
WO2017084483A1 (zh) * | 2015-11-17 | 2017-05-26 | 腾讯科技(深圳)有限公司 | 视频通话方法和装置 |
CN107071330A (zh) * | 2017-02-28 | 2017-08-18 | 维沃移动通信有限公司 | 一种视频通话互动的方法及移动终端 |
CN107333086A (zh) * | 2016-04-29 | 2017-11-07 | 掌赢信息科技(上海)有限公司 | 一种在虚拟场景中进行视频通信的方法及装置 |
CN107635110A (zh) * | 2017-09-30 | 2018-01-26 | 维沃移动通信有限公司 | 一种视频截图方法及终端 |
CN107707839A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN107770450A (zh) * | 2017-11-08 | 2018-03-06 | 光锐恒宇(北京)科技有限公司 | 图像处理方法、装置及终端设备 |
CN108762480A (zh) * | 2013-08-28 | 2018-11-06 | 联想(北京)有限公司 | 一种输入方法和电子设备 |
CN109218648A (zh) * | 2018-09-21 | 2019-01-15 | 维沃移动通信有限公司 | 一种显示控制方法及终端设备 |
CN110337007A (zh) * | 2019-07-09 | 2019-10-15 | 深圳品阔信息技术有限公司 | 任意窗口的白板操作方法、装置、可读存储介质及系统 |
CN111258415A (zh) * | 2018-11-30 | 2020-06-09 | 北京字节跳动网络技术有限公司 | 基于视频的肢体动作检测方法、装置、终端和介质 |
WO2020207041A1 (en) * | 2019-04-10 | 2020-10-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for dynamically recommending inputs based on identification of user emotions |
CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
WO2023040633A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京字跳网络技术有限公司 | 一种视频生成方法、装置、终端设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009042579A1 (en) * | 2007-09-24 | 2009-04-02 | Gesturetek, Inc. | Enhanced interface for voice and video communications |
CN101690071A (zh) * | 2007-06-29 | 2010-03-31 | 索尼爱立信移动通讯有限公司 | 在视频会议和其他通信期间控制化身的方法和终端 |
CN101710910A (zh) * | 2009-12-09 | 2010-05-19 | 深圳华为通信技术有限公司 | 终端用户情感信息的发送方法及移动终端 |
CN101789990A (zh) * | 2009-12-23 | 2010-07-28 | 宇龙计算机通信科技(深圳)有限公司 | 一种在通话过程中判断对方情绪的方法及移动终端 |
CN101917585A (zh) * | 2010-08-13 | 2010-12-15 | 宇龙计算机通信科技(深圳)有限公司 | 调节视频电话向对端发送的视频信息的方法、装置及终端 |
-
2012
- 2012-02-27 CN CN2012100485840A patent/CN103297742A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101690071A (zh) * | 2007-06-29 | 2010-03-31 | 索尼爱立信移动通讯有限公司 | 在视频会议和其他通信期间控制化身的方法和终端 |
WO2009042579A1 (en) * | 2007-09-24 | 2009-04-02 | Gesturetek, Inc. | Enhanced interface for voice and video communications |
CN101710910A (zh) * | 2009-12-09 | 2010-05-19 | 深圳华为通信技术有限公司 | 终端用户情感信息的发送方法及移动终端 |
CN101789990A (zh) * | 2009-12-23 | 2010-07-28 | 宇龙计算机通信科技(深圳)有限公司 | 一种在通话过程中判断对方情绪的方法及移动终端 |
CN101917585A (zh) * | 2010-08-13 | 2010-12-15 | 宇龙计算机通信科技(深圳)有限公司 | 调节视频电话向对端发送的视频信息的方法、装置及终端 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108762480A (zh) * | 2013-08-28 | 2018-11-06 | 联想(北京)有限公司 | 一种输入方法和电子设备 |
CN104836979A (zh) * | 2014-03-17 | 2015-08-12 | 腾讯科技(北京)有限公司 | 信息交互的方法和装置 |
CN103945161A (zh) * | 2014-04-14 | 2014-07-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105307132A (zh) * | 2014-06-23 | 2016-02-03 | 中兴通讯股份有限公司 | 一种消息处理方法、装置及终端 |
CN104333730A (zh) * | 2014-11-26 | 2015-02-04 | 北京奇艺世纪科技有限公司 | 一种视频通信方法及装置 |
CN104333730B (zh) * | 2014-11-26 | 2019-03-15 | 北京奇艺世纪科技有限公司 | 一种视频通信方法及装置 |
CN104780339A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的表情特效动画加载方法和电子设备 |
CN104780458A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的特效加载方法和电子设备 |
CN104902212A (zh) * | 2015-04-30 | 2015-09-09 | 努比亚技术有限公司 | 一种视频通信方法及装置 |
CN105407313A (zh) * | 2015-10-28 | 2016-03-16 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、设备和系统 |
WO2017084483A1 (zh) * | 2015-11-17 | 2017-05-26 | 腾讯科技(深圳)有限公司 | 视频通话方法和装置 |
US10218937B2 (en) | 2015-11-17 | 2019-02-26 | Tencent Technology (Shenzhen) Company Limited | Video calling method and apparatus |
CN105578110B (zh) * | 2015-11-19 | 2019-03-19 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法 |
CN105578110A (zh) * | 2015-11-19 | 2016-05-11 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法、装置和系统 |
CN105451029A (zh) * | 2015-12-02 | 2016-03-30 | 广州华多网络科技有限公司 | 一种视频图像的处理方法及装置 |
CN105657325A (zh) * | 2016-02-02 | 2016-06-08 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN105578113A (zh) * | 2016-02-02 | 2016-05-11 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN105744206A (zh) * | 2016-02-02 | 2016-07-06 | 北京小米移动软件有限公司 | 一种视频通信的方法、装置和系统 |
CN107333086A (zh) * | 2016-04-29 | 2017-11-07 | 掌赢信息科技(上海)有限公司 | 一种在虚拟场景中进行视频通信的方法及装置 |
CN106200930A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 一种增强现实的控制方法、装置及移动终端 |
CN106157262B (zh) * | 2016-06-28 | 2020-04-17 | Oppo广东移动通信有限公司 | 一种增强现实的处理方法、装置和移动终端 |
CN106200930B (zh) * | 2016-06-28 | 2019-09-27 | Oppo广东移动通信有限公司 | 一种增强现实的控制方法、装置及移动终端 |
CN106157262A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 一种增强现实的处理方法、装置和移动终端 |
CN106127828A (zh) * | 2016-06-28 | 2016-11-16 | 广东欧珀移动通信有限公司 | 一种增强现实的处理方法、装置及移动终端 |
CN106162230A (zh) * | 2016-07-28 | 2016-11-23 | 北京小米移动软件有限公司 | 直播信息的处理方法、装置、主播端、服务器及系统 |
CN107071330A (zh) * | 2017-02-28 | 2017-08-18 | 维沃移动通信有限公司 | 一种视频通话互动的方法及移动终端 |
CN107707839A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN107635110A (zh) * | 2017-09-30 | 2018-01-26 | 维沃移动通信有限公司 | 一种视频截图方法及终端 |
CN107770450A (zh) * | 2017-11-08 | 2018-03-06 | 光锐恒宇(北京)科技有限公司 | 图像处理方法、装置及终端设备 |
CN109218648A (zh) * | 2018-09-21 | 2019-01-15 | 维沃移动通信有限公司 | 一种显示控制方法及终端设备 |
CN111258415A (zh) * | 2018-11-30 | 2020-06-09 | 北京字节跳动网络技术有限公司 | 基于视频的肢体动作检测方法、装置、终端和介质 |
CN111258415B (zh) * | 2018-11-30 | 2021-05-07 | 北京字节跳动网络技术有限公司 | 基于视频的肢体动作检测方法、装置、终端和介质 |
WO2020207041A1 (en) * | 2019-04-10 | 2020-10-15 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | System and method for dynamically recommending inputs based on identification of user emotions |
CN113785539A (zh) * | 2019-04-10 | 2021-12-10 | Oppo广东移动通信有限公司 | 用于基于对用户情绪的识别来动态推荐输入的系统和方法 |
CN110337007A (zh) * | 2019-07-09 | 2019-10-15 | 深圳品阔信息技术有限公司 | 任意窗口的白板操作方法、装置、可读存储介质及系统 |
CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
WO2023040633A1 (zh) * | 2021-09-14 | 2023-03-23 | 北京字跳网络技术有限公司 | 一种视频生成方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103297742A (zh) | 数据处理方法、微处理器、通信终端及服务器 | |
US20200106708A1 (en) | Load Balancing Multimedia Conferencing System, Device, and Methods | |
US9100540B1 (en) | Multi-person video conference with focus detection | |
WO2016177262A1 (zh) | 智能会议的协作方法和会议终端 | |
CN109951743A (zh) | 弹幕信息处理方法、系统及计算机设备 | |
CN107360007A (zh) | 一种会议实现方法、装置及电子设备 | |
CN107733666A (zh) | 一种会议实现方法、装置及电子设备 | |
CN103858423A (zh) | 通信系统 | |
CN106937154A (zh) | 处理虚拟形象的方法及装置 | |
CN106789593B (zh) | 一种融合手语的即时消息处理方法、服务器及系统 | |
CN110677685B (zh) | 网络直播显示方法及装置 | |
CN104768235B (zh) | 一种设备间自动连接的方法和设备 | |
CN104394437A (zh) | 一种在线直播的开播方法及系统 | |
CN103747177A (zh) | 视频拍摄的处理方法及装置 | |
CN107623830B (zh) | 一种视频通话方法及电子设备 | |
CN112188267A (zh) | 视频播放方法、装置和设备及计算机存储介质 | |
CN108965101B (zh) | 会话消息处理方法、装置、存储介质和计算机设备 | |
CN106980482A (zh) | 一种信息展示方法及第一电子设备 | |
CN112669416B (zh) | 客服服务系统、方法、装置、电子设备及存储介质 | |
KR101337229B1 (ko) | 영상통화 시 사용자의 감정상태 제공 시스템, 햅틱서버 및 방법 | |
CN109039851B (zh) | 交互数据处理方法、装置、计算机设备和存储介质 | |
CN110415318B (zh) | 图像处理方法和装置 | |
CN111476903A (zh) | 虚拟交互实现控制方法、装置、计算机设备及存储介质 | |
CN110516043A (zh) | 用于问答系统的答案生成方法和装置 | |
CN107071335B (zh) | 一种数据处理方法及装置、设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130911 |
|
RJ01 | Rejection of invention patent application after publication |