CN109036432A - 一种连麦方法、装置、设备及存储介质 - Google Patents

一种连麦方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109036432A
CN109036432A CN201810841763.7A CN201810841763A CN109036432A CN 109036432 A CN109036432 A CN 109036432A CN 201810841763 A CN201810841763 A CN 201810841763A CN 109036432 A CN109036432 A CN 109036432A
Authority
CN
China
Prior art keywords
speaker
voice signal
head portrait
wheat
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810841763.7A
Other languages
English (en)
Inventor
艾牤宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Douyu Network Technology Co Ltd
Original Assignee
Wuhan Douyu Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Douyu Network Technology Co Ltd filed Critical Wuhan Douyu Network Technology Co Ltd
Priority to CN201810841763.7A priority Critical patent/CN109036432A/zh
Publication of CN109036432A publication Critical patent/CN109036432A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明实施例公开了一种连麦方法、装置、设备及存储介质,其中,该方法包括:获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;将所述语音信息转换成语音信号;将所述语音信号与所述说话人的头像进行对应显示。本发明实施例可以使连麦主播、连麦用户或观众可以分辨说话人的身份,从而提高连麦直播的质量。

Description

一种连麦方法、装置、设备及存储介质
技术领域
本发明实施例涉及直播技术,尤其涉及一种连麦方法、装置、设备及存储介质。
背景技术
随着直播软件的日益发展,直播渐渐成为一种深受用户喜好的直播方式。在直播中,主播的主播客户端(简称主播端)可以通过直播软件向观众进行直播。当前的直播类产品,大多数是一人主播,目前也出现有连麦模式的直播。
具体可以是:观众可以申请与主播进行连麦,连麦成功后,可以与主播或者其他连麦用户进行交流,观众也可以同时听到连麦主播和连麦用户之间的直播互动信息。所谓麦就是麦克风的简称,连麦是指在麦序模式下实现多人同时上麦说话的目的。
但是,在连麦直播过程中,连麦主播以及各个连麦用户之间进行语音交流时,在大多情况下,连麦主播、连麦用户或者观众并不能分辨哪个用户正在说话,以及听到的语音信息是来源于哪个说话人,从而影响连麦直播的质量。
发明内容
本发明实施例提供一种连麦方法、装置、设备及存储介质,可以使连麦主播、连麦用户或观众分辨说话人的身份,从而提高连麦直播的质量。
第一方面,本发明实施例提供了一种连麦方法,包括:
获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
将所述语音信息转换成语音信号;
将所述语音信号与所述说话人的头像进行对应显示。
第二方面,本发明实施例还提供了一种连麦装置,包括:
获取模块,用于获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
转换模块,用于将所述语音信息转换成语音信号;
显示模块,用于将所述语音信号与所述说话人的头像进行对应显示。
第三方面,本发明实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例提供的连麦方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明实施例提供的连麦方法。
本发明实施例提供的技术方案,通过将连麦过程中的语音信息转换成语音信号,并将语音信号与说话人的头像进行对应显示,可以使连麦主播、连麦用户或者观众分辨说话人的身份,从而提高连麦直播的质量,避免出现人与声音混乱的情形。
附图说明
图1a是本发明实施例提供的一种连麦方法流程图;
图1b是本发明实施例提供的一种连麦直播时的显示界面图;
图1c是本发明实施例提供的一种连麦直播时的显示界面图;
图2a是本发明实施例提供的一种连麦方法流程图;
图2b是本发明实施例提供的一种显示头像的示意图;
图2c是本发明实施例提供的一种显示头像序列的示意图;
图3是本发明实施例提供的一种连麦方法流程图;
图4a是本发明实施例提供的一种连麦方法流程图;
图4b是本发明实施例提供的一种连麦直播时的显示界面图;
图5是本发明实施例提供的一种连麦方法装置结构框图;
图6是本发明实施例提供的一种设备结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
图1a为本发明实施例提供的一种连麦方法流程图,所述连麦方法可以由连麦装置来执行,所述连麦装置可以由软件和/或硬件来实现,所述装置可以集成在连麦主播对应的设备中,或者可以集成在连麦用户对应的设备中,或者也可以集成在观众对应的设备中。其中,观众是指没有与连麦主播进行连麦的用户,连麦用户是指与连麦主播进行连麦的用户。所述方法可以应用在连麦直播的场景中,尤其可以应用在连麦直播时,存在至少三人说话的场景中。
本发明实施例提供的方法可以应用在连麦主播端、连麦用户端,或者观众端,其中,连麦主播端可以是指连麦主播客户端、连麦用户端可以是指连麦用户客户端,观众端可以是指观众客户端。其中,连麦主播客户端、连麦用户客户端、观众客户端可以配置在对应的设备中。本发明实施例以连麦主播端为例进行说明。如图1a所示,本发明实施例提供的技术方案包括:
S110:获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播。
在本发明实施例中,当连麦主播与连麦用户进行连麦直播时,各个连麦用户端可以将语音信息发送到服务器端,连麦主播端可以从服务器端获取各个连麦用户的语音信息,并且连麦主播端也可以获取连麦主播的语音信息。
S120:将所述语音信息转换成语音信号。
在本发明实施例中,语音信息可以包括不同时刻,音量的大小等信息,可以根据语音信息模拟语音信号。
S130:将所述语音信号与所述说话人的头像进行对应显示。
在本发明实施例中,将语音信号与说话人的头像进行对应显示,可以理解为将语音信号与对应的说话人的头像进行显示。其中,当连麦主播端获取语音信息时,语音信息携带说话人的标识信息,当语音信息转换成语音信号时,语音信息与语音信号对应。由此,说话人的标识信息与语音信号对应,并通过说话人的标识信息确定说话人,通过语音信号和说话人的头像进行对应显示可以使连麦主播了解说话人的身份。
其中,当将语音信号与说话人的头像进行对应显示时,语音信号可以在对应说话人头像的左侧、右侧、上侧或者下侧,或者语音信号还可以对应显示在说话人头像的其他位置。例如,当连麦主播端采用智能手机与其他连麦用户进行连麦时,连麦用户和连麦主播的头像可以按照顺序进行排列,语音信号可以显示在对应说话人的头像的右侧,其中,如图1b所示,语音信号10显示在连麦用户B的头像20的右侧。由此,可以表明连麦用户B正在说话,通过语音信号的幅度可以了解连麦用户B说话时音量的大小。
其中,当将语音信号与说话人的头像进行对应显示时,还可以将显示界面的设定区域作为语音信号的显示区域,并将语音信号采用与说话人的头像相同的标识,并将语音信号和标识进行显示。其中,可以将语音信号采用说话人的昵称进行标识,说话人的头像可以用说话人的昵称进行标识。举例说明,如图1c所示,当连麦主播端采用智能手机与其他连麦用户进行连麦时,显示界面可以划分成头像显示区域1、语音信号显示区域2和弹幕显示区域3。连麦主播A连麦用户B和连麦用户C正在连麦,其中,连麦主播和连麦用户的头像可以分别采用A、B和C进行标识。在语音信号显示区域2中显示一个语音信号,其中语音信号采用的是B标识,因此,可以确定连麦用户B正在说话。
需要说明的是,当至少存在两个人说话时,在语音信号显示区域可以显示对应的至少两个语音信号,并采用与说话人相同的标识。由此,通过将语音信号进行显示,可以使连麦主播分辨说话人的身份,避免造成人与声音混乱的情形,提高连麦直播的质量。
在本发明实施例中,可以根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并将渲染的所述头像进行显示。例如,可以根据语音信号音量的大小调整头像显示比例、头像的亮度、透明度或者大小等。或者也可以根据语音信号调整说话人头像的位置。例如,语音信号的音量越大,说话人头像越大。其中,具体的实施方式在下述实施例中进行具体介绍。
在连麦直播过程中,连麦主播以及各个连麦用户之间进行语音交流时,在大多情况下,连麦主播、连麦用户或者观众并不能分辨哪个用户正在说话,以及听到的语音信息是来源于哪个说话人,从而影响连麦直播的质量。尤其是当存在至少三个人连麦直播的场景下,当多个人同时说话时,尤不能很好的分辨说话人的身份。本发明实施例通过将语音信息转换成语音信号,并将语音信号与说话人的头像进行对应显示,可以使连麦主播、连麦用户或者观众可以分辨说话人的身份,避免人与声音混乱的情形,尤其是当多个人同时说话时,提高连麦主播、连麦用户或者观众分辨说话人身份的准确性。
本发明实施例提供的一种连麦方法,通过将连麦过程中的语音信息转换成语音信号,并将语音信号与说话人的头像进行对应显示,可以使连麦主播、连麦用户或者观众可以分辨说话人的身份,从而提高连麦直播的质量,避免出现人与声音混乱的情形。
图2a是本发明实施例提供的一种连麦方法流程图,在上述实施例的基础上,对“将所述语音信号与所述说话人的头像进行对应显示”的优化为“根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并将渲染的所述头像进行显示”。
如图2a所示,本发明实施例提供的技术方案包括:
S210:获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播。
S220:将所述语音信息转换成语音信号。
S230:根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并将所述语音信号与渲染的所述头像进行显示。
在本发明实施例的一个实施方式中,可选的,根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,可以包括:根据所述语音信号的音量大小,确定所述语音信号对应说话人的头像的显示比例,并按照所述显示比例确定所述说话人的显示头像;根据所述语音信号确定至少一个所述显示头像,并形成显示头像序列;按照设定顺序动画播放所述显示头像序列中的各个显示头像。
在本发明实施例中,可以设定音量大小与说话人头像的显示比例的对应关系。例如,当音量大小分别是1-100时,说话人头像的显示比例可以分别是1%-100%。如,当音量大小为100,说话人头像的显示比例可以是100%,当音量大小为50时,说话人头像的显示比例可以是50%。在本发明实施例中,当按照显示比例确定说话人的显示头像时,说话人显示头像的面积与头像框的面积的比值可以为显示比例。其中,头像框的面积等于显示头像的显示比例为100%时的面积。如图2b所示,当音量大小为50时,显示头像11的面积占头像框的面积的一半,其中,头像框的形状为圆形,头像框的面积为整个圆形的面积。
需要说明的是,本发明实施例中,头像框的形状采用圆形进行示例,但是头像框的形成并不局限于圆形,还可以是矩形、或者其他形状。
在本发明实施例中,针对每个语音信号,在不同的时刻,音量大小可能并不相同,显示头像也可以是不相同的。例如,一个语音信号在t1-t5时刻,音量大小分别是10,20,30,50和70,则显示头像占头像框面积的比例分别是10%,20%,30%,50%和70%。如图2c所示,对应的显示头像可以是A,B,C,D和E,并形成显示头像序列12。其中,在显示头像序列12中,显示头像可以按照对应语音信号的音量大小的时间顺序进行排序,形成设定顺序。连麦主播端可以按照该顺序动画播放各个显示头像。如图2c所示,显示头像A,B,C,D和E形成显示头像序列12,在连麦主播端,按照显示头像A,B,C,D和E的排列顺序播放各个显示头像,将显示头像进行动画显示。其中,可以通过flash动画播放各个显示头像。其中,图2c中阴影区域为没有显示头像的区域。
需要说明的是,本发明实施例通过图2c示例性的表述了显示头像的显示比例,图2c中显示头像的显示比例存在一定的误差性,但并不影响通过显示头像的播放动画体现语音信号音量大小的效果。
由此,通过语音信号的音量大小确定说话人的头像显示比例,并通过显示比例确定显示头像,通过动画播放显示头像,可以通过显示头像分辨说话人的身份,当动画的头像与语音信号对应显示时,可以提高分辨说话人身份的准确性,提高连麦直播的质量,避免人与声音混乱的情形,也可以通过头像体现说话人声音的大小。
在本发明实施例的一个实施方式中,可选的,所述根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,可以包括:根据所述语音信号的音量大小改变所述语音信号对应说话人的头像亮度或者大小。其中,可以理解为说话人头像亮度随音量大小的改变而改变,或者说话人头像的尺寸随音量大小的改变改变。当音量越大时,说话人头像的亮度可以越大。或者当音量越大时,说话人头像的尺寸越大。由此,通过语音信号的音量大小改变对应说话人头像亮度或者大小,可以提高连麦主播、连麦用户或者观众分辨说话人身份的准确性,从而提高连麦直播的质量。
需要说明的是,根据所述语音信号的音量大小改变所述语音信号对应说话人的头像亮度或者大小,并不局限于上述的方式,还可以是其他方式,例如,如下的方式:确定语音信号的音量平均值,根据语音信号的音量平均值改变语音信号对应说话人的头像亮度或者大小。例如,语音信号的音量平均值越大,说话人头像亮度越大,或者语音信号的音量平均值越大,说话人头像越大。由此,通过语音信号的音量平均值改变对应说话人头像的亮度或者大小,可以使连麦主播、连麦用户或者观众了解说话人音量的大小,并且提高分辨说话人身份的准确性。
需要说明的是,根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并不局限于上述的方式,还可以是其他方式,例如,根据语音信号的音量大小改变语音信号对应说话人的头像透明度。其中,可以理解为说话人的头像透明度随语音信号的音量大小的改变而改变。如,当音量越大时,头像透明度越高。
图3是本发明实施例提供的一种连麦方法流程图,在上述实施例的基础上,本发明实施例将“所述将所述语音信号与所述说话人的头像进行对应显示”优化为“根据语音信号的音量平均值,改变所述语音信号对应说话人头像的位置,并将所述语音信号与所述说话人的头像进行对应显示。
如图3所示,本发明实施例提供的技术方案包括:
S310:获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播。
S320:将所述语音信息转换成语音信号。
S330:根据语音信号调整对应说话人头像的位置,并将所述语音信号与所述说话人的头像进行对应显示。
在本发明实施例中,可选的,根据语音信号调整对应说话人头像的位置,可以具体是:将语音信号对应的说话人头像调整到设定显示区域,并根据语音信号中音量平均值调整说话人头像在设定显示区域的位置。例如,当语音信号的音量平均值越大时,语音信号对应说话人的头像越靠近设定显示区域中的设定位置。当存在多个人说话人,将对应说话人的头像均调整到设定显示区域,并按照音量平均值将对应说话人的头像进行排序。
由此,通过语音信号调整对应说话人头像的位置,并将语音信号与说话人头像进行对应显示,可以使连麦主播、连麦用户或者观众可以准确分辨说话人的身份。
图4a是本发明实施例提供的一种连麦方法流程图,如图4a所示,本发明实施例提供的技术方案包括:
S410:获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
S420:将所述语音信息转换成语音信号。
S430:将所述语音信号与所述说话人的头像进行对应显示。
在本发明实施例中,S430的具体实施方式与上述实施例中介绍的实施方式相同。
S440:将所述语音信息转换成文字信息,将所述文字信息与所述说话人的头像进行对应显示。
在本实施例的一个实施方式中,可选的,将所述文字信息与所述说话人的头像进行对应显示,可以包括:将所述文字信息通过创建的弹幕层,与所述说话人的头像进行对应显示。其中,连麦主播端的显示界面上,可以创建多个弹幕层。一个弹幕层用于显示观众、连麦主播或者连麦用户发表的文字信息,另外的弹幕层可以用于显示语音信号转换的文字信息。其中,当存在多个人同时说话时,可以创建多个弹幕层,通过创建的弹幕层分别显示与对应说话人语音信号转换成的文字信息。其中,弹幕层可以是透明图层。
例如,如图4b所示,存在连麦用户B和连麦用户C同时说话,与连麦用户B对应的语音信号100显示在连麦用户B头像的右侧,语音信号100转换成的文字信息300显示在语音信号100的右侧。连麦用户C对应的语音信号200显示在连麦用户C头像的右侧,语音信号200转换成的文字信息400显示在语音信号200右侧。其中,语音信号100转换成的文字信息通过一个弹幕层进行显示,语音信号200转换成的文字信息通过另外一个弹幕层进行显示。
需要说明的是,说话人的头像、语音信号以及文字信息在界面上的显示位置,还可以是其他方式。
在上述实施例的基础上,还可以将语音信号的信息显示界面上,例如,可以将语音信号音量的平均值,音色等信息显示在显示界面上。由此,可以使连麦主播、连麦用户或者观众对语音信号有更充分的了解。
由此,通过将语音信号转换成文字信息,并将文字信息与说话人的头像进行对应显示,可以避免多人说话时彼此干扰造成不清楚的情形,也可以避免说话人声音较小听不清楚的问题,可以使连麦主播、连麦用户或者观众准确了解说话人的真实想法。
图5是本发明实施例提供的一种连麦装置结构框图,如图5所示,所述装置包括获取模块510、转换模块520和显示模块530。
其中,获取模块510,用于获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
转换模块520,用于将所述语音信息转换成语音信号;
显示模块530,用于将所述语音信号与所述说话人的头像进行对应显示。
可选的,显示模块530,用于根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并将所述语音信号与渲染的所述头像进行显示。
可选的,所述根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,包括:
根据所述语音信号的音量大小,确定所述语音信号对应说话人的头像的显示比例,并按照所述显示比例确定所述说话人的显示头像;
根据所述语音信号确定至少一个所述显示头像,并形成显示头像序列;
按照设定顺序动画播放所述显示头像序列中的各个显示头像。
可选的,所述根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,包括:
根据所述语音信号的音量大小改变所述语音信号对应说话人的头像亮度、或者大小。
可选的,显示模块530,用于根据所述语音信号调整所述语音信号对应说话人头像的位置,并将所述语音信号与所述说话人的头像进行对应显示。
可选的,显示模块530,还用于将所述语音信息转换成文字信息,将所述文字信息与所述说话人的头像进行对应显示。
可选的,所述将所述文字信息与所述说话人的头像进行对应显示,包括:
将所述文字信息通过创建的弹幕层,与所述说话人的头像进行对应显示。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
图6是本发明实施例提供的一种设备结构示意图,如图6所示,该设备包括:
一个或多个处理器610,图6中以一个处理器610为例;
存储器620;
所述设备还可以包括:输入装置630和输出装置640。
所述设备中的处理器610、存储器620、输入装置630和输出装置640可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器620作为一种非暂态计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的一种连麦方法对应的程序指令/模块(例如,附图5所示的获取模块510、转换模块520和显示模块530)。处理器610通过运行存储在存储器620中的软件程序、指令以及模块,从而执行计算机设备的各种功能应用以及数据处理,即实现上述方法实施例的连麦方法,即:
获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
将所述语音信息转换成语音信号;
将所述语音信号与所述说话人的头像进行对应显示。
存储器620可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器620可以包括高速随机存取存储器,还可以包括非暂态性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态性固态存储器件。在一些实施例中,存储器620可选包括相对于处理器610远程设置的存储器,这些远程存储器可以通过网络连接至终端设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置630可用于接收输入的数字或字符信息,以及产生与计算机设备的用户设置以及功能控制有关的键信号输入。输出装置640可包括显示屏等显示设备。
本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例提供的一种连麦方法:
获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
将所述语音信息转换成语音信号;
将所述语音信号与所述说话人的头像进行对应显示。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种连麦方法,其特征在于,包括:
获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
将所述语音信息转换成语音信号;
将所述语音信号与所述说话人的头像进行对应显示。
2.根据权利要求1所述的方法,其特征在于,所述将所述语音信号与所述说话人的头像进行对应显示,包括:
根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,并将所述语音信号与渲染的所述头像进行对应显示。
3.根据权利要求2所述的方法,其特征在于,所述根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,包括:
根据所述语音信号的音量大小,确定所述语音信号对应说话人的头像的显示比例,并按照所述显示比例确定所述说话人的显示头像;
根据所述语音信号确定至少一个所述显示头像,并形成显示头像序列;
按照设定顺序动画播放所述显示头像序列中的各个显示头像。
4.根据权利要求2所述的方法,其特征在于,所述根据所述语音信号的音量大小,渲染所述语音信号对应说话人的头像,包括:
根据所述语音信号的音量大小,改变所述语音信号对应说话人的头像亮度或者大小。
5.根据权利要求1所述的方法,其特征在于,所述将所述语音信号与所述说话人的头像进行对应显示,包括:
根据所述语音信号调整所述语音信号对应说话人头像的位置,并将所述语音信号与所述说话人的头像进行对应显示。
6.根据权利要求1所述的方法,其特征在于,还包括:
将所述语音信息转换成文字信息,将所述文字信息与所述说话人的头像进行对应显示。
7.根据权利要求6所述的方法,其特征在于,所述将所述文字信息与所述说话人的头像进行对应显示,包括:
将所述文字信息通过创建的弹幕层,与所述说话人的头像进行对应显示。
8.一种连麦装置,其特征在于,包括:
获取模块,用于获取连麦过程中说话人的语音信息;其中,所述说话人包括连麦用户和/或连麦主播;
转换模块,用于将所述语音信息转换成语音信号;
显示模块,用于将所述语音信号与所述说话人的头像进行对应显示。
9.一种设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一所述的连麦方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一所述的连麦方法。
CN201810841763.7A 2018-07-27 2018-07-27 一种连麦方法、装置、设备及存储介质 Pending CN109036432A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810841763.7A CN109036432A (zh) 2018-07-27 2018-07-27 一种连麦方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810841763.7A CN109036432A (zh) 2018-07-27 2018-07-27 一种连麦方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN109036432A true CN109036432A (zh) 2018-12-18

Family

ID=64647054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810841763.7A Pending CN109036432A (zh) 2018-07-27 2018-07-27 一种连麦方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN109036432A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111131875A (zh) * 2019-12-06 2020-05-08 北京达佳互联信息技术有限公司 信息的展示方法、装置、系统、电子设备及存储介质
CN112492400A (zh) * 2019-09-12 2021-03-12 阿里巴巴集团控股有限公司 互动方法、装置、设备以及通信方法、拍摄方法
CN113301372A (zh) * 2021-05-20 2021-08-24 广州繁星互娱信息科技有限公司 直播方法、装置、终端及存储介质
CN114979699A (zh) * 2022-07-29 2022-08-30 广州市千钧网络科技有限公司 直播界面的布局方法、可读介质以及相关设备
WO2023284414A1 (zh) * 2021-07-14 2023-01-19 北京字节跳动网络技术有限公司 音频合流方法、音频上传方法、设备及程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101073247A (zh) * 2004-11-09 2007-11-14 索尼爱立信移动通讯股份有限公司 用于响应于所提供的情绪数据来提供与呼叫关联的容貌图像的方法和设备
US20120095768A1 (en) * 2010-10-14 2012-04-19 Mcclung Iii Guy L Lips blockers, headsets and systems
CN103634681A (zh) * 2013-11-29 2014-03-12 腾讯科技(成都)有限公司 直播互动方法、装置、客户端、服务器及系统
CN106231378A (zh) * 2016-07-28 2016-12-14 北京小米移动软件有限公司 直播间的显示方法、装置及系统
CN107743243A (zh) * 2017-10-26 2018-02-27 天脉聚源(北京)科技有限公司 在电视节目中显示用户评论信息的方法和装置
CN107959893A (zh) * 2017-12-05 2018-04-24 广州酷狗计算机科技有限公司 显示账户头像的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101073247A (zh) * 2004-11-09 2007-11-14 索尼爱立信移动通讯股份有限公司 用于响应于所提供的情绪数据来提供与呼叫关联的容貌图像的方法和设备
US20120095768A1 (en) * 2010-10-14 2012-04-19 Mcclung Iii Guy L Lips blockers, headsets and systems
CN103634681A (zh) * 2013-11-29 2014-03-12 腾讯科技(成都)有限公司 直播互动方法、装置、客户端、服务器及系统
CN106231378A (zh) * 2016-07-28 2016-12-14 北京小米移动软件有限公司 直播间的显示方法、装置及系统
CN107743243A (zh) * 2017-10-26 2018-02-27 天脉聚源(北京)科技有限公司 在电视节目中显示用户评论信息的方法和装置
CN107959893A (zh) * 2017-12-05 2018-04-24 广州酷狗计算机科技有限公司 显示账户头像的方法和装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112492400A (zh) * 2019-09-12 2021-03-12 阿里巴巴集团控股有限公司 互动方法、装置、设备以及通信方法、拍摄方法
CN111131875A (zh) * 2019-12-06 2020-05-08 北京达佳互联信息技术有限公司 信息的展示方法、装置、系统、电子设备及存储介质
CN113301372A (zh) * 2021-05-20 2021-08-24 广州繁星互娱信息科技有限公司 直播方法、装置、终端及存储介质
WO2023284414A1 (zh) * 2021-07-14 2023-01-19 北京字节跳动网络技术有限公司 音频合流方法、音频上传方法、设备及程序产品
CN114979699A (zh) * 2022-07-29 2022-08-30 广州市千钧网络科技有限公司 直播界面的布局方法、可读介质以及相关设备
CN114979699B (zh) * 2022-07-29 2022-12-27 广州市千钧网络科技有限公司 直播界面的布局方法、可读介质以及相关设备

Similar Documents

Publication Publication Date Title
CN109036432A (zh) 一种连麦方法、装置、设备及存储介质
US20090112589A1 (en) Electronic apparatus and system with multi-party communication enhancer and method
CN111739553A (zh) 会议声音采集、会议记录以及会议记录呈现方法和装置
CN113203988B (zh) 声源定位方法及装置
US9135928B2 (en) Audio transmission channel quality assessment
CN109524013B (zh) 一种语音处理方法、装置、介质和智能设备
CN107301028B (zh) 一种基于多人远程通话的音频数据处理方法及装置
CN110933485A (zh) 一种视频字幕生成方法、系统、装置和存储介质
WO2018045703A1 (zh) 语音处理方法、装置及终端设备
US12051429B2 (en) Transform ambisonic coefficients using an adaptive network for preserving spatial direction
US10789954B2 (en) Transcription presentation
US11741984B2 (en) Method and apparatus and telephonic system for acoustic scene conversion
CN111460094A (zh) 一种基于tts的音频拼接优化的方法及其装置
CN114531564A (zh) 处理方法及电子设备
US11683442B2 (en) Methods, systems and apparatus for providing video communications
US11580985B2 (en) Transcription of communications
US11600279B2 (en) Transcription of communications
US11783837B2 (en) Transcription generation technique selection
US20200184973A1 (en) Transcription of communications
CN115334349A (zh) 音频处理方法、装置、电子设备及存储介质
CN109064223A (zh) 一种虚拟礼物赠送方法、装置、服务器及存储介质
JP6064209B2 (ja) 通話システム及び通話中継方法
CN115705839A (zh) 语音播放方法、装置、计算机设备和存储介质
Gerken et al. Comparison of 2D and 3D multichannel audio rendering methods for hearing research applications using technical and perceptual measures
Evans et al. Perceived performance of loudspeaker-spatialized speech for teleconferencing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination