CN114530159A - 一种基于WebRTC技术的多媒体资源整合调度方法 - Google Patents
一种基于WebRTC技术的多媒体资源整合调度方法 Download PDFInfo
- Publication number
- CN114530159A CN114530159A CN202110278368.4A CN202110278368A CN114530159A CN 114530159 A CN114530159 A CN 114530159A CN 202110278368 A CN202110278368 A CN 202110278368A CN 114530159 A CN114530159 A CN 114530159A
- Authority
- CN
- China
- Prior art keywords
- multimedia data
- webrtc
- multimedia
- data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Abstract
本发明提供一种基于WebRTC技术的多媒体资源整合调度方法,属于通信技术领域。该基于WebRTC的多媒体数据传输方法包括:获取第一多媒体数据,第一多媒体数据为WebRTC系统中的任一用户产生的数据;对第一多媒体数据进行变声处理,生成第二多媒体数据;发送第二多媒体数据到WebRTC系统中的其他用户的终端设备。本发明提供的基于WebRTC的多媒体数据传输方法及装置,提高了用户个人信息的保密度。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种基于WebRTC技术的多媒体资源整合调度方法。
背景技术
WebRTC(WebRealTimeCommunication,网页实时通信)技术是一种支持网页浏览器进行实时音视频通信的技术,它可以实现不同浏览器与浏览器之间、浏览器与终端之间的音视频通信或多方会议等功能。
目前,在基于WebRTC的多方会议中,以三个用户为例进行说明,该三个用户分别为用户A,用户B及用户C。当用户A发言时,用户A所使用的终端会实时采集用户A的音视频数据,并将实时采集到的音视频数据发送给用户B及用户C各自的终端,这样用户B及用户C就可以通过各自的终端实时查看用户A的音视频数据。当然,用户B和用户C发言时,情况类似,不再赘述,从而保证该多方会议的顺利进行。
然而,现有技术中,用户个人信息的保密度较低。
发明内容
本发明提供一种基于WebRTC技术的多媒体资源整合调度方法,以提高用户个人信息的保密度。
本发明实施例提供一种基于WebRTC技术的多媒体资源整合调度方法,包括:
获取模块,用于获取第一多媒体数据,所述第一待传输的多媒体数据为所述WebRTC系统中的任一用户产生的数据;
处理模块,用于对所述第一多媒体数据进行变声处理,生成第二多媒体数据;
发送模块,用于发送所述第二多媒体数据到所述WebRTC系统中的其他用户的终端设备。
作为优选的,所述处理模块还用于对所述第一多媒体数据进行语音识别,生成所述第一多媒体数据对应的文本数据;
所述发送模块还用于发送所述文本数据到所述WebRTC系统中的其他用户的终端设备。
作为优选的,还包括:
存储模块,用于存储所述文本数据。
作为优选的,所述处理模块还用于对所述第一多媒体数据进行预处理,所述预处理为下述至少一种处理;包括但不限于回音消除、声音降噪以及声音增益自动控制。
作为优选的,所述处理模块还用于确定所述WebRTC系统开启匿名会议模式。
作为优选的,包括:
获取第一多媒体数据,所述第一多媒体数据为所述WebRTC系统中的任一用户产生的数据;
对所述第一多媒体数据进行变声处理,生成第二多媒体数据;
发送所述第二多媒体数据到所述WebRTC系统中的其他用户的终端设备。
作为优选的,还包括:
对所述第一多媒体数据进行语音识别,生成所述第一多媒体数据对应的文本数据;
发送所述文本数据到所述WebRTC系统中的其他用户的终端设备。
作为优选的,还包括:
存储所述文本数据。
作为优选的,所述对所述第一多媒体数据进行变声处理之前,还包括:
对所述第一多媒体数据进行预处理,所述预处理为下述至少一种处理:
声学回音消除;
噪声抑制;
自动增益控制。
作为优选的,所述获取第一多媒体数据之前,还包括:确定所述WebRTC系统开启匿名会议模式。
在本发明中,获取第一多媒体数据,第一多媒体数据为WebRTC系统中的任一用户产生的数据;对第一多媒体数据进行变声处理,生成第二多媒体数据;再发送第二多媒体数据到WebRTC系统中的其他用户的终端设备。由此可见,在WebRTC系统会议过程中,将WebRTC系统中的任一用户产生的第一多媒体数据发送给WebRTC系统中的其他用户的终端设备之前,对该第一多媒体数据进行变声处理,使得经过变声处理后的第二多媒体数据的音调和音色与第一多媒体数据的音调和音色不同,WebRTC系统中的其他用户的终端设备在接收到变声处理后的第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于WebRTC的多媒体数据传输方法实施例一的流程图;
图2为本发明基于WebRTC的多媒体数据传输方法实施例二的流程图;
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
目前,在WebRTC系统中,以该WebRTC系统中有三个用户为例进行进行说明。当用户A发言时,WebRTC系统中的其他用户,如用户B和用户C,可以通过各自的终端设备实时查看该用户A的音视频数据。为了提高该用户A个人信息的保密度,本发明提供的基于WebRTC的多媒体数据传输方法,在将该用户A的音频数据发送给其他用户之前,可以先对该用户A的音频数据进行变声处理,之后再将变声处理后的音频数据传输给其他用户的终端设备,以提高用户A个人信息的保密度。可选的,该变声处理可以由该用户A的终端设备执行,也可以通过设置服务器,使得该变声处理由该服务器执行,或者可以在WebRTC系统中选择一个用户作为主持人,使得该变声处理由该主持人执行。当然,也可以通过其他方式实现变声处理,本实施例只是以变声处理由用户A的终端设备执行为例进行说明,但并不代表本发明仅局限于此。下面,通过具体实施例,对本申请的技术方案进行详细说明。
需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本发明基于WebRTC的多媒体数据传输方法实施例一的流程图,该方法可以由基于WebRTC的多媒体数据传输装置执行,请参见图1所示,该基于WebRTC的多媒体数据传输方法可以包括:
S101、获取第一多媒体数据。
其中,第一多媒体数据为WebRTC系统中的任一用户产生的数据。可选的,该第一多媒体数据可以是音频数据,也可以是音视频数据,在此,对于第一多媒体数据的类型,本发明不做具体限制。本实施例中,以第一多媒体数据为音频数据为例进行说明。
S102、对第一多媒体数据进行变声处理,生成第二多媒体数据。
其中,对第一多媒体数据进行变声处理,该变声处理可以包括音调处理和音色处理,以使得经过变声处理后的第二多媒体数据的音调和音色与第一多媒体数据的音调和音色不同,即使WebRTC系统的其他用户接收到该第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
需要说明的是,当第一多媒体数据为音视频数据时,需要对该第一多媒体数据的音频数据部分同样进行变声处理,对于视频数据部分,可以预先存储一些图片,在对音频数据进行变声处理的同时,为了提高用户个人信息的保密度,可以将该预先存储的图片发送至WebRTC系统的其他用户的终端设备,这样其他用户的终端设备的屏幕上就会显示该预先存储的图片,而不会显示发言者的图像信息,或者可以直接关闭其他用户的显示屏幕,以提高用户个人信息的保密度。
示例的,若第一多媒体数据为WebRTC系统中的至少两个用户产生的数据时,可以先对该第一多媒体数据进行变声处理,再对变声处理后的多媒体数据进行混音处理,最后将混音处理之后的多媒体数据发送给WebRTC系统中其他用户。可选的,该混音处理可以由任一用户的终端设备执行,也可以通过设置服务器,使得该混音处理由该服务器执行,或者可以在WebRTC系统中选择一个用户作为主持人,使得该混音处理由该主持人执行。当然,也可以通过其他方式实现混音处理。
S103、发送第二多媒体数据到WebRTC系统中的其他用户的终端设备。
在生成第二多媒体数据之后,再将第二多媒体数据发送至WebRTC系统中的其他用户,WebRTC系统中的其他用户接收到的变声处理后的第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
在本发明中,获取第一多媒体数据,第一多媒体数据为WebRTC系统中的任一用户产生的数据;对第一多媒体数据进行变声处理,生成第二多媒体数据;再发送第二多媒体数据到WebRTC系统中的其他用户的终端设备。由此可见,在WebRTC系统会议过程中,将WebRTC系统中的任一用户产生的第一多媒体数据发送给WebRTC系统中的其他用户的终端设备之前,对该第一多媒体数据进行变声处理,使得经过变声处理后的第二多媒体数据的音调和音色与第一多媒体数据的音调和音色不同,WebRTC系统中的其他用户的终端设备在接收到变声处理后的第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
基于图1对应的实施例,在图1对应的实施例的基础上,进一步地,本发明实施例还提供了另一种基于WebRTC的多媒体数据传输方法,请参见图2所示,图2为本发明基于WebRTC的多媒体数据传输方法实施例二的示意图,该基于WebRTC的多媒体数据传输方法还包括:
可选的,在获取第一多媒体数据之前,还包括步骤:
S100、确定WebRTC系统开启匿名会议模式。
在WebRTC系统进行过程中,若需要保护发言者的个人信息时,可以开启匿名会议模式,示例的,当WebRTC系统中某用户需要匿名发言时,该用户可以开启匿名会议模式。在匿名会议模式开启之后,WebRTC系统中的所有用户只可以接收到其他用户产生的第二多媒体数据,而无法获得该第二多媒体数据对应的用户的个人信息。在本实施例中,假定需要开启匿名会议的某用户为用户A。
在匿名会议模式开启之后,用户A就可以通过自己的终端设备采集自己的第一多媒体数据,再将该第一多媒体数据进行变声处理。为了使得用户A产生的第一多媒体数据的语音信号质量较好,可选的,可以在对第一多媒体数据进行变声处理之前,还包括:对第一多媒体数据进行预处理,预处理为下述至少一种处理:声学回音消除;噪声抑制;自动增益控制。
示例的,为了得到语音信号质量更好的第一多媒体数据,可以对第一多媒体数据进行预处理,该预处理可以是依次对第一多媒体数据进行声学回音消除;噪声抑制;自动增益控制,也可以只选取一种或者两种处理方式对第一多媒体数据进行预处理,以通过该预处理提高第一多媒体数据的语音信号质量。在此,对于通过何种方式对第一多媒体数据进行预处理,本发明不做进一步地限制。
其中,声学回音消除处理是针对终端设备的扬声器所播放的语音和由该语音所产生的多路径的回声并在此基础上建立远端的信号语音的模型,基于该信号语音的模型进行回声消除,并在回声消除过程中不断修改滤波器的系数,使其更加逼近真实的回声。最后,将该回声从采集到语音信号中除去,从而达到回声消除的目的。
噪声抑制处理是对采集到的语音信号进行频谱分析,进而分析出相应的背景噪声的强度和频谱分布,然后在此基础上建立模型,设计合适的滤波器,同时,在用户发言时也进行频谱分析,从而得出发言者的频谱,最后,根据该背景噪声的频谱和发言者的频谱,通过滤波器进行实时动态调整,以阻止噪音信号的频谱通过或者降低其能量来达到降低噪声的目的。
自动增益补偿处理可以自动调节终端设备麦克风的音量,使得终端设备的声音输出处在一个比较稳定的水平线上,从而实现发言者的声音在发言者与麦克风距离变化的时候仍然趋于平稳状态。
在本发明中,通过对用户A的第一多媒体数据进行预处理,可以进一步提高第一多媒体数据的语音信号质量,以便生成语音质信号量较高的第一多媒体数据。
通过本实施例提供的基于WebRTC的多媒体数据传输方法,在WebRTC系统开启匿名会议之后,用户A通过自己的终端设备采集自己的第一多媒体数据;再对第一多媒体数据进行预处理,使得预处理后的第一多媒体数据的语音质量更好,再对预处理后的第一多媒体数据进行变声处理,使得变声处理后的第一多媒体数据的音调和音色与第一采集到的第一多媒体数据的音调和音色不同,WebRTC系统中的用户B和用户C的终端设备在接收到变声处理后的第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
进一步地,该基于WebRTC的多媒体数据传输方法还可以包括:
S104、对第一多媒体数据进行语音识别,生成第一多媒体数据对应的文本数据。
值得说明的是,在本发明中,步骤S104对第一多媒体数据进行语音识别和步骤S102对第一多媒体数据进行变声处理之间并无具体的先后顺序,可以先执行步骤S102,再执行步骤S104,也可以先执行步骤S104,再执行步骤S102,当然,也可以同时执行步骤S102和步骤S104。在此,对于步骤S102和步骤S104的执行顺序,本发明不做具体限制。示例的,本实施例中只是以先执行步骤S102,再执行步骤S104为例进行说明,但并不代表本发明仅局限于此。
示例的,将第一多媒体数据进行语音识别,其目的在于通过语音识别,可以生成第一多媒体数据对应的文本数据,以便将该文本数据发送至WebRTC系统的其他用户的终端设备,使得其他用户通过各自的终端设备的屏幕显示该第一多媒体数据对应的文本数据。可选的,此处的第一多媒体数据可以是终端设备直接采集到的第一多媒体数据,也可以是经过预处理后的第一多媒体数据,当然,也可以是经过变声处理后的第一多媒体数据,即第二多媒体数据,在此,对于第一多媒体数据具体是什么,对本发明不做具体限制。
S105、发送文本数据到WebRTC系统中的其他用户的终端设备。
在生成第一多媒体数据对应的文本数据之后,将该文本数据发送至WebRTC系统中的其他用户的终端设备,以便其他用户通过各自的终端设备查看该文本数据。示例的,在终端设备的屏幕显示第一多媒体数据对应的文本数据的过程中,可以预先为每一个用户分配一个代号,这样在用户的终端设备的屏幕显示时,就可以以该发言者的代号和发言内容进行显示。例如用户A对应的代号为“郭靖”,用户B对应的代号为“黄蓉”,用户C对应的代号“杨过”,当用户A在发言过程中,用户B和用户C不仅可以通过各自的终端设备听到用户A的第一多媒体数据,而且可以通过各自的终端设备的屏幕查看用户A的第一多媒体数据,值得说明的是,用户B和用户C各自的终端设备的屏幕上显示的是郭靖和第一多媒体数据,而不是用户A的真实信息和第一多媒体数据,当然,用户B和用户C发言时,情况类似,不再赘述。通过该方式,可以实现在提高用户个人信息保密度的同时,还可以方便用户实时查看WebRTC系统会议的内容。
需要说明的是,在本发明中,还可以将第一多媒体数据对应的文本数据存储起来,即存储文本数据。通过存储文本数据,可以使得用户在WebRTC系统会议结束之后,随时查看WebRTC系统会议的内容。当然,本实施例只是举例说明,但不代表本发明仅限于此。
在本发明中,在WebRTC系统中的任一用户确定WebRTC系统开启匿名会议模式之后,获取第一多媒体数据,并对第一多媒体数据进行预处理,再对预处理后的第一多媒体数据进行变声处理,并生成第二多媒体数据;再将第二多媒体数据发送到WebRTC系统中的其他用户的终端设备。由此可见,通过对第一多媒体数据进行预处理,可以提高第一多媒体数据的语音质量,从而得到语音质量较高的第一多媒体数据,再对预处理后的第一多媒体数据进行变声处理,使得经过变声处理后的第二多媒体数据的音调和音色与第一多媒体数据的音调和音色不同,WebRTC系统中的其他用户的终端设备在接收到变声处理后的第二多媒体数据进行播放时,因为第二多媒体数据是变声处理之后的数据,因此,无法辨识为哪个用户产生的数据,从而提高了用户个人信息的保密度。
WebRTC的多媒体数据传输可以包括:
获取模块,用于获取第一多媒体数据,第一待传输的多媒体数据为WebRTC系统中的任一用户产生的数据。
处理模块,用于对第一多媒体数据进行变声处理,生成第二多媒体数据。
发送模块,用于发送第二多媒体数据到WebRTC系统中的其他用户的终端设备。
本实施例的基于WebRTC的多媒体数据传输,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
可选的,处理模块还用于对第一多媒体数据进行语音识别,生成第一多媒体数据对应的文本数据。
发送模块还用于发送文本数据到WebRTC系统中的其他用户的终端设备。
可选的,该基于WebRTC的多媒体数据传输,还包括:
存储模块,用于存储文本数据。
可选的,处理模块还用于对第一多媒体数据进行预处理,预处理为下述至少一种处理:
声学回音消除;
噪声抑制;
自动增益控制。
可选的,处理模块还用于确定WebRTC系统开启匿名会议模式。
本实施例的基于WebRTC的多媒体数据传输装置,可以执行图1~图2中任一方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,包括:
获取模块,用于获取第一多媒体数据,所述第一待传输的多媒体数据为所述WebRTC系统中的任一用户产生的数据;
处理模块,用于对所述第一多媒体数据进行变声处理,生成第二多媒体数据;
发送模块,用于发送所述第二多媒体数据到所述WebRTC系统中的其他用户的终端设备。
2.根据权利要求1所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,所述处理模块还用于对所述第一多媒体数据进行语音识别,生成所述第一多媒体数据对应的文本数据;
所述发送模块还用于发送所述文本数据到所述WebRTC系统中的其他用户的终端设备。
3.根据权利要求2所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,还包括:
存储模块,用于存储所述文本数据。
4.根据权利要求1-3任一项所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,所述处理模块还用于对所述第一多媒体数据进行预处理,所述预处理为下述至少一种处理;包括但不限于回音消除、声音降噪以及声音增益自动控制。
5.根据权利要求4所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,所述处理模块还用于确定所述WebRTC系统开启匿名会议模式。
6.根据权利要求1所述的一种基于WebRTC技术的多媒体资源整合调度方法,包括:
获取第一多媒体数据,所述第一多媒体数据为所述WebRTC系统中的任一用户产生的数据;
对所述第一多媒体数据进行变声处理,生成第二多媒体数据;
发送所述第二多媒体数据到所述WebRTC系统中的其他用户的终端设备。
7.根据权利要求6所述一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,还包括:
对所述第一多媒体数据进行语音识别,生成所述第一多媒体数据对应的文本数据;
发送所述文本数据到所述WebRTC系统中的其他用户的终端设备。
8.根据权利要求7所述一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,还包括:
存储所述文本数据。
9.根据权利要求6-8任一项所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,所述对所述第一多媒体数据进行变声处理之前,还包括:
对所述第一多媒体数据进行预处理,所述预处理为下述至少一种处理:
声学回音消除;
噪声抑制;
自动增益控制。
10.根据权利要求9所述的一种基于WebRTC技术的多媒体资源整合调度方法,其特征在于,所述获取第一多媒体数据之前,还包括:确定所述WebRTC系统开启匿名会议模式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110278368.4A CN114530159A (zh) | 2021-03-15 | 2021-03-15 | 一种基于WebRTC技术的多媒体资源整合调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110278368.4A CN114530159A (zh) | 2021-03-15 | 2021-03-15 | 一种基于WebRTC技术的多媒体资源整合调度方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114530159A true CN114530159A (zh) | 2022-05-24 |
Family
ID=81618998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110278368.4A Pending CN114530159A (zh) | 2021-03-15 | 2021-03-15 | 一种基于WebRTC技术的多媒体资源整合调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114530159A (zh) |
-
2021
- 2021-03-15 CN CN202110278368.4A patent/CN114530159A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10586131B2 (en) | Multimedia conferencing system for determining participant engagement | |
US11710488B2 (en) | Transcription of communications using multiple speech recognition systems | |
US20150149169A1 (en) | Method and apparatus for providing mobile multimodal speech hearing aid | |
CN111489760A (zh) | 语音信号去混响处理方法、装置、计算机设备和存储介质 | |
JP5526134B2 (ja) | 周辺電話技術システムにおける会話検出 | |
CN111739549B (zh) | 声音优化方法及声音优化系统 | |
CN111199751B (zh) | 一种麦克风的屏蔽方法、装置和电子设备 | |
CN104851423B (zh) | 一种声音信息处理方法及装置 | |
CN103731541A (zh) | 对通话中的音频进行控制的方法及终端 | |
US11741984B2 (en) | Method and apparatus and telephonic system for acoustic scene conversion | |
CN112688965B (zh) | 一种会议音频共享方法、装置、电子设备及存储介质 | |
CN112565668B (zh) | 一种网络会议共享声音的方法 | |
CN114530159A (zh) | 一种基于WebRTC技术的多媒体资源整合调度方法 | |
US11783837B2 (en) | Transcription generation technique selection | |
US20200184973A1 (en) | Transcription of communications | |
CN114220435A (zh) | 音频文本提取方法、装置、终端和存储介质 | |
US11321047B2 (en) | Volume adjustments | |
CN117118956B (zh) | 音频处理方法、装置、电子设备及计算机可读存储介质 | |
CN113299310B (zh) | 声音信号处理方法、装置、电子设备及可读存储介质 | |
US20220415340A1 (en) | Selective fine-tuning of speech | |
US20230421702A1 (en) | Distributed teleconferencing using personalized enhancement models | |
CN114333867A (zh) | 音频数据处理方法和装置、通话方法、音频处理芯片、电子设备以及计算机可读存储介质 | |
CN117079661A (zh) | 一种声源处理方法及相关装置 | |
WO2008076511A2 (en) | Method and system for managing a communication session | |
CN115442485A (zh) | 音频信号处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |