CN111107380A - 一种用于管理音频数据的方法、设备和计算机存储介质 - Google Patents
一种用于管理音频数据的方法、设备和计算机存储介质 Download PDFInfo
- Publication number
- CN111107380A CN111107380A CN201811180036.7A CN201811180036A CN111107380A CN 111107380 A CN111107380 A CN 111107380A CN 201811180036 A CN201811180036 A CN 201811180036A CN 111107380 A CN111107380 A CN 111107380A
- Authority
- CN
- China
- Prior art keywords
- waveform
- speech
- sensitive word
- audio
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000035945 sensitivity Effects 0.000 claims abstract description 52
- 230000000873 masking effect Effects 0.000 claims abstract description 28
- 230000004044 response Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 12
- 230000008451 emotion Effects 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 19
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241001672694 Citrus reticulata Species 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000003892 spreading Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4882—Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本公开的实施例涉及用于管理音频数据的方法、设备和计算机存储介质。在一个实施例中,提出了一种用于管理音频数据的方法。该方法包括:获取文本敏感词的标准语音波形;基于与干扰因素相对应的语音数据,获得该标准语音波形的至少一个扩展语音波形,其中该至少一个扩展语音波形和该标准语音波形形成与该文本敏感词相对应的敏感词语音波形组;在直播间的直播期间,缓存该直播间的用户在最近的第一时间段期间的目标音频;获取该目标音频的音频波形;响应于确定该音频波形中存在与该敏感词语音波形组中的波形相匹配的部分,增加该直播间的敏感度值;以及响应于该直播间的该敏感度值达到敏感度阈值,针对该直播间执行屏蔽动作。
Description
技术领域
本公开的实施例涉及音频处理领域,并且更具体地涉及用于管理音频数据、尤其是用于管理网络直播间中的音频数据的方法、设备和计算机存储介质。
背景技术
随着即时网络通信技术和智能手机的持续迅猛发展,出现了众多拥有网络直播功能的PC端和手机端的应用。由于网络直播能够极大地促进用户之间的沟通和互动,因此已经在娱乐休闲、远程教学、商务推广等方面得到了广泛使用。为了防止不良言论在大量用户中的传播,需要针对直播中的各种内容执行监测。然而,通常需要大量的后台管理员或审核员对直播数据进行人工监测,以便及时屏蔽违规内容或进行封禁处理等,直播中的语音监测在拥有众多直播数据的应用平台上难以高效地进行。
此外,虽然目前已经提出了针对视频中的音频数据进行自动识别以检测是否包含敏感词汇的实现方案,但是这些方案往往无法对存在方言口音、语调、情感等干扰因素的音频数据进行准确的判断,因而降低了识别的命中率。
发明内容
本公开的实施例提供一种用于自动且准确地管理音频数据的方案。
根据本公开的第一方面,提供了一种用于管理音频数据的方法,包括:获取文本敏感词的标准语音波形;基于与干扰因素相对应的语音数据,获得该标准语音波形的至少一个扩展语音波形,其中该至少一个扩展语音波形和该标准语音波形形成与该文本敏感词相对应的敏感词语音波形组;在直播间的直播期间,缓存该直播间的用户在最近的第一时间段期间的目标音频;获取该目标音频的音频波形;响应于确定该音频波形中存在与该敏感词语音波形组中的波形相匹配的部分,增加该直播间的敏感度值;以及响应于该直播间的该敏感度值达到敏感度阈值,针对该直播间执行屏蔽动作;其中该干扰因素包括以下中的至少任一项:方言口音、语调、语速、性别、以及情感。
根据本公开的第二方面,提供了一种用于管理音频数据的设备,包括:至少一个处理单元;至少一个存储器,该至少一个存储器被耦合到该至少一个处理单元并且存储用于由该至少一个处理单元执行的指令,该指令当由该至少一个处理单元执行时,使得该设备执行动作。该动作包括:获取文本敏感词的标准语音波形;基于与干扰因素相对应的语音数据,获得该标准语音波形的至少一个扩展语音波形,其中该至少一个扩展语音波形和该标准语音波形形成与该文本敏感词相对应的敏感词语音波形组;在直播间的直播期间,缓存该直播间的用户在最近的第一时间段期间的目标音频;获取该目标音频的音频波形;响应于确定该音频波形中存在与该敏感词语音波形组中的波形相匹配的部分,增加该直播间的敏感度值;以及响应于该直播间的该敏感度值达到敏感度阈值,针对该直播间执行屏蔽动作;其中该干扰因素包括以下中的至少任一项:方言口音、语调、语速、性别、以及情感。
在本公开的第三方面,提供了一种计算机存储介质。该计算机存储介质具有存储在其上的计算机可读程序指令,计算机可读程序指令用于执行根据第一方面的方法。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的附图标记通常代表相同部件。
图1图示了能够在其中实施本公开的多个实现的计算环境的框图;
图2图示了根据本公开的实施例的用于管理音频数据的方法的流程图;
图3图示了根据本公开的实施例的获得标准语音波形的至少一个扩展语音波形的方法的流程图;
图4图示了根据本公开的实施例的确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分的方法的流程图;
图5图示了根据一个实施例的获得标准语音波形的至少一个扩展语音波形的操作的示意图;以及
图6图示了可以用来实施本公开内容的实施例的示例设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上讨论的,往往需要大量的后台管理员对诸如网络直播平台的网络应用中生成的音频数据进行人工审核,这经常是低效的,并且可能由于错误的人工判断结果而导致较差的直播体验。随着机器学习、模式学习等人工智能相关技术和云计算相关技术的不断进步,期望以自动的方式识别出直播音频数据中的特定词汇或语句。进一步,期望可以不受各类干扰因素的影响而提供较高的识别命中率。还期望在准确识别的同时不影响直播用户的使用体验。
根据本公开的实施例,提出了一种自动且准确地管理音频数据的方案。该方案包括:获取文本敏感词的标准语音波形;基于与干扰因素相对应的语音数据,获得该标准语音波形的至少一个扩展语音波形,其中该至少一个扩展语音波形和该标准语音波形形成与该文本敏感词相对应的敏感词语音波形组;在直播间的直播期间,缓存该直播间的用户在最近的第一时间段期间的目标音频;获取该目标音频的音频波形;响应于确定该音频波形中存在与该敏感词语音波形组中的波形相匹配的部分,增加该直播间的敏感度值;以及响应于该直播间的该敏感度值达到敏感度阈值,针对该直播间执行屏蔽动作;其中该干扰因素包括以下中的至少任一项:方言口音、语调、语速、性别、以及情感。
采用本公开的方案,能够针对不同的干扰因素而自动生成与文本敏感词相对应的敏感词语音波形组,从而在直播期间提升对文本敏感词识别的命中率。此外,在对标准语音波形进行训练的过程中,可以扩充针对某个特定干扰因素的语料库,从而提供了在语料库足够大时能够自动生成扩展语音波形的可能性。
以下参考附图来说明本公开的基本原理和若干示例实现。
图1图示了能够在其中实施本公开的多个实现的计算环境100的框图。应当理解,图1所示出的计算环境100仅仅是示例性的,而不应当构成对本公开所描述的实现的功能和范围的任何限制。如图1所示,计算环境100包括计算设备130以及服务器140。在一些实施例中,计算设备130与服务器140之间可以经由网络互相通信。
在一些实施例中,计算设备130诸如是任何类型的移动终端、固定终端或便携式终端,包括移动手机、多媒体计算机、多媒体平板、互联网节点、通信器、台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、个人通信系统(PCS)设备、个人导航设备、个人数字助理(PDA)、音频/视频播放器、数码相机/摄像机、定位设备、电视接收器、无线电广播接收器、电子书设备、游戏设备或者其任意组合,包括这些设备的配件和外设或者其任意组合。还可预见到的是,计算设备130能够支持任何类型的针对用户的接口(诸如“可佩戴”电路等)。
服务器140可以用于管理音频数据。为了执行音频数据的管理,服务器140接收文本敏感词词库110。将会理解,在此的文本敏感词词库110可以包括多方面的内容。例如,在一些实施例中,服务器可以通过有线连接和/或无线连接来接收文本敏感词词库110。例如,文本敏感词词库110可以包括多个文本敏感词及其相对应的预定步长,其中预定步长用于表征该文本敏感词的违规程度。例如,文本敏感词词库110中的多个文本敏感词可以按照不同的应用场景进行分类,诸如网络直播、安防监测、远程教育等,以使服务器140在不同的应用场景中仅接收文本敏感词词库110中的相关类别下的文本敏感词。例如,具有权限的用户120和/或其他人员可以按需对文本敏感词词库110进行动态修改或更新。在一些实施例中,文本敏感词词库110也可以被存储在服务器140上。
在一些实施例中,用户120可以对计算设备130进行操作、诸如在网络直播平台的直播期间与其他用户进行互动,而用户120在此期间生成的目标音频将经由网络被存储在服务器140上。将会理解,尽管在图1中仅示意性示出了一个用户120操作一个计算设备130的情况。在网络直播环境中,多个用户可以分别经由各自的计算设备来连接服务器140,以便参与直播。
在一些实施例中,服务器140可以根据文本敏感词词库110以及从用户120获得的目标音频,来确定用户120生成的目标音频中是否存在语音敏感词,并且根据确定结果执行屏蔽动作。
在一些实施例中,随着计算设备130上的客户端处理能力的增加,也可以由计算设备130来执行例如确定用户120生成的目标音频中是否存在敏感词以及根据确定结果执行屏蔽动作的操作。
图2图示了根据本公开的实施例的用于管理音频数据的方法200的流程图。方法200能够实现音频数据、尤其是直播中的音频数据的准确的自动管理。
方法200开始于框202,首先获取文本敏感词的标准语音波形。如上所述,文本敏感词可以被存储在文本敏感词词库110或其他结构化形式的文件中。在一些实施例中,方法200还可以包括从文本敏感词词库110中获取文本敏感词的可选操作。标准语音波形可以被认为是在没有干扰因素情况下的语音波形,以作为随后获得至少一个扩展语音波形的基础。在一些实施例中,标准语音波形是与文本敏感词相对应的标准普通话形式的语音波形。在一些实施例中,标准语音波形可以由离线和/或在线语音应用和/或软件生成,并且在一些其他实施例中,标准语音波形可以由人工录制。例如,可以将利用标准普通话朗读所获得的波形作为标准语音波形。
随后,在框204,基于与干扰因素相对应的语音数据,获得标准语音波形的至少一个扩展语音波形,其中至少一个扩展语音波形和标准语音波形形成与文本敏感词相对应的敏感词语音波形组。扩展语音波形可以被认为是与文本敏感词相对应、但相对于标准语音波形而言存在附加波形特征的波形。获得至少一个扩展语音波形的目的可以是针对不同的干扰因素来提高管理音频数据的准确性。
在一些实施例中,干扰因素包括以下中的至少一项:方言口音、语调、语速、性别、以及情感。现在结合图3来详细说明如何基于干扰因素来获得标准语音波形的至少一个扩展语音波形的操作。图3图示了根据本公开的实施例的获得标准语音波形的至少一个扩展语音波形的方法300的流程图。
在框302,提取语音数据的特征值。语音数据与如上所述的干扰因素相对应,并且对于同一项干扰因素而言可以具有不同的语音数据。例如,针对方言口音的干扰因素可以获得多个对应的语音数据,诸如获得针对东北口音、苏南口音、成都口音、重庆口音、陕北口音等的语音数据。在一些实施例中,例如针对东北口音的语音数据可能有多个以进一步提高训练的准确性。在一些实施例中,语音数据的特征值可以包括在语音识别领域中常用的特征的值,诸如响度、基音周期、基音频率、信噪比、短时能量、短时平均幅度、短时平均过零率、共振峰等。在一些实施例中,可以采用诸如短时能量分析、短时平均振幅分析、短时过零分析、倒谱分析、短时傅里叶变换等语音特征提取技术来提取语音数据的特征值。在一些实施例中,在提取语音数据的特征值时可以对语音数据进行预处理,诸如采样、量化、分帧、加窗、端点检测等,以例如去除语音数据中存在的固有环境特征的影响。
随后在框304,基于特征值对标准语音波形进行训练,以获取至少一个波形。在如上所述的对于同一个文本敏感词具有多个东北口音的语音数据的情况下,对标准语音波形进行训练的主要目的在于消除不同语音数据之间的随机性和不确定性。在一些实施例中,可以利用隐马尔科夫模型(HMM)和/或混合高斯模型(GMM)对标准语音波形进行训练。在一些实施例中,在增加/修改语音数据及其特征值的情况下,使用模型合并重估的方法来更新已经建立的HMM/GMM,由此减少了HMM/GMM更新时的运算量并增加了HMM/GMM的可扩充性和自学性。
在上述关于存在多个东北口音的语音数据的实施例中,作为示例,对于文本敏感词“TMD”可能存在五个不同的东北口音的语音数据A、B、C、D和E。方法300在框302分别提取这五个语音数据A-E的特征值,并且在框304基于该特征值对“TMD”的标准语音波形进行训练,以获得该标准波形的东北口音的扩展语音波形X。扩展语音波形X消除了语音数据A-E之间的随机性和不确定性。
除了可以作为语音数据A-E的训练的结果之外,扩展语音波形X还可以进一步用于扩充东北口音的语料库。随着对东北口音的语料库的不断扩充,在一些情况下,当该语料库被扩充到足够大时能够针对新增的文本敏感词而直接获得相对应的语音数据和扩展语音波形X,从而无需可能人工的语音数据的录入操作以及随后的训练操作。因此,方法300的优势在于,提供了对标准波形的训练以准确地获得扩展语音波形,并且提供了不断扩充针对某个特定干扰因素的语料库、从而在无需训练的情况下自动生成扩展语音波形的可能性。
现在回到图2,获得的至少一个扩展语音波形已经和标准波形形成与文本敏感词相对应的敏感词语音波形组。随后在框206,在直播间的直播期间,缓存直播间的用户在最近的第一时间段期间的目标音频。缓存的主要目的在于实现对最近的第一时间段期间的目标音频进行检测,并且在该缓存的目标音频向用户播放之前已经执行屏蔽动作,如下文将进一步描述的。在一些实施例中,可以仅缓存发起直播的用户(或者被称为“播主”)的目标音频。在一些实施例中,可以对于播主和每个参与直播间的用户分别缓存目标音频。在一些实施例中,第一时间段不应持续过长、诸如至多持续10秒,以提升参与直播间用户的使用体验。
在框208,获取目标音频的音频波形。在框210,响应于确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分,增加直播间的敏感度值。直播间的敏感度值是用来表征在该直播间的直播期间出现敏感词的次数和权重。在一些实施例中,该敏感度值可以是基于来自直播间的全部用户的音频数据来确定的。在一些实施例中,可以基于直播间的部分发言活跃的用户来确定敏感度值,或者还可以仅基于播主的音频数据来确定敏感度值。
由于在先前的操作中,已经获得了由文本敏感词的标准语音波形及其至少一个扩展语音波形形成的敏感词语音波形组,因此在确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分的情况下,可以认为最近的第一时间段期间的目标音频中存在敏感词。在一些实施例中,增加直播间的敏感度值可以包括:按照与文本敏感词相关联的预定步长,增加敏感度值。预定步长表征了敏感词的敏感程度。例如,一些敏感词可能具有很高的敏感程度,其在直播间中的一次出现就足以触发对整个直播间的屏蔽动作;而另一些敏感词可能具有较低的敏感程度,其在直播间中累计出现多次时才能触发对整个直播间的屏蔽动作。在一些实施例中,预定步长可以作为文本敏感词的属性而被存储在文本敏感词词库110或其他结构化形式的文件中。
现在结合图4来详细说明确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分的操作。图4图示了根据本公开的实施例的确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分的方法400的流程图。
在框402,从音频波形中提取特征值。该操作可以采用如框302所描述的语音特征提取技术以及预处理操作。在框404,确定所提取的特征值与敏感词语音波形组中的波形的特征值之间的相似度。确定相似度的操作可以采用语音识别领域中的各种技术。在一些实施例中,可以采用Viterbi算法,以在给定所提取的特征值和多个敏感词语音波形组的情况下,从多个敏感词语音波形组的各个波形中选取具有最大匹配概率的波形作为识别结果。随后在框406,响应于相似度高于相似度阈值,确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分。在关于Viterbi算法的实施例中,如果最大匹配概率高于相似度阈值,则可以确定音频波形中存在与敏感词语音波形组中的波形相匹配的部分。
现在再次回到图2,在框212,响应于直播间的敏感度值达到敏感度阈值,针对直播间执行屏蔽动作。屏蔽动作可以是处理用户的目标音频以屏蔽或消除目标音频中的敏感词,或者是针对用户或直播间的相应措施。
在一些实施例中,屏蔽动作包括替换目标音频中的与敏感词波形组中的波形相匹配的部分,诸如将敏感词替换为电视节目中通常使用的低频音(“哔哔”声)。在一些实施例中,屏蔽动作包括向用户发出警告,以例如提醒直播间的播主或参与直播间的用户来规范自己在直播间中的行为。在一些实施例中,屏蔽动作包括禁止用户在直播间内发言,这通常针对直播间内违规较严重的用户。在一些实施例中,屏蔽动作包括禁止直播间的所有音频、即采取静音处理,或者直接封禁该直播间。这通常针对直播间内出现严重违规的情况,例如在很短的时间段内出现大量敏感词的情况。在一些其他实施例中,屏蔽动作包括仅向直播间的管理员发送通知,而不对直播间作出任何处理。这一方面可以保证直播间的流畅用户体验,另一方面提醒管理员可以对该直播间进行人工监测。
敏感度阈值是表征是否应当针对监测结果来触发屏蔽动作的阈值。在一些实施例中,敏感度阈值可以与用户的信用等级相关联。在仅缓存播主的目标音频的实施例中,敏感度阈值可以与播主的信用等级相关联。在对于播主和每个参与直播间的用户分别缓存目标音频的实施例中,敏感度阈值可以分别与播主和每个参与直播间的用户相关联。在一些实施例中,信用等级可以取决于以下中的至少任一项:用户的历史直播记录、用户的先前信用等级、用户被其他用户有效举报的记录以及用户的受处罚记录。例如,在发起直播间的播主具有低的信用等级的情况下,该直播间的敏感度阈值较低,以至于较少的敏感词的出现就可能导致屏蔽动作的执行。
在一些实施例中,方法200还可以包括如下可选操作:响应于敏感度值未达到敏感度阈值,播放被缓存的目标音频。该操作对应于未触发屏蔽动作执行的情况。在一些实施例中,播放被缓存的目标音频包括:将目标音频延迟第二时间段后播放目标音频,第二时间段大于所述第一时间段。在一些实施例中,第二时间段不应持续过长、诸如至多持续12秒,以提升参与直播间用户的使用体验。
虽然上面描述了响应于直播间的敏感度值达到敏感度阈值而针对直播间执行屏蔽动作的实施例,但是本领域技术人员应当理解,此处描述的敏感度阈值和屏蔽动作均不限于一个。在一些实施例中,可以设置不同的敏感度阈值及其相应的屏蔽动作,并且响应于直播间的敏感度值满足不同的敏感度阈值而执行不同的屏蔽动作。
方法200的主要优势在于,能够针对不同的干扰因素而自动生成与文本敏感词相对应的敏感词语音波形组,从而在直播期间提升对文本敏感词识别的命中率。此外,在对标准语音波形进行训练的过程中,可以扩充针对某个特定干扰因素的语料库,从而提供了在语料库足够大时能够自动生成扩展语音波形的可能性。
为了进一步说明,图5图示了根据一个实施例的获得标准语音波形的至少一个扩展语音波形的操作500的示意图。
在图5中,首先获取与文本敏感词514相对应的标准语音波形512。如前所述,文本敏感词514可以从文本敏感词词库110中获取。随后,基于与干扰因素510相对应的语音数据502a、502b…502n,获得标准语音波形512的至少一个扩展波形516。在图5中,图示了一个干扰因素510(即“较慢语速”)和一个扩展波形516,但是可以存在多个干扰因素510以分别获得多个扩展波形516。
语音数据502a、502b…502n与干扰因素510相对应,在图5中为以文本敏感词514为内容的多个语音波形。语音数据502a、502b…502n可以由人工录入以用于训练标准语音波形512。语音数据502a、502b…502n分别在504a、504b…504n进行预处理,预处理诸如采样、量化、分帧、加窗、端点检测等,以去除语音数据中存在的固有环境特征的影响并且有利于随后的特征值提取506a、506b…506n。经预处理后的语音波形通过特征值提取506a、506b…506n而得到特征值508a、508b…508n。每个特征值508a、508b…508n都可以包括在语音识别领域中常用的特征的值,诸如响度、基音周期、基音频率、信噪比、短时能量、短时平均幅度、短时平均过零率、共振峰等。
随后,基于特征值508a、508b…508n对标准语音波形512进行训练,以获取扩展语音波形516。可以利用如前所述的HMM和/或GMM对标准语音波形进行训练,以消除不同语音数据502a、502b…502n之间的随机性和不确定性。获得的扩展语音波形516和其他扩展语音波形与标准语音波形512一起形成敏感词语音波形组518。敏感词语音波形组518与文本敏感词514相对应,并且被用于在直播期间确定用户的音频波形中是否存在文本敏感词514。将文本敏感词词库110中的每个文本敏感词514形成其对应的敏感词语音波形组518,即可在直播期间确定用户的音频波形中是否存在敏感词,并且进行相应的屏蔽操作。
在图5中未示出的一些其他实施例中,还可以在获得标准语音波形的至少一个扩展语音波形的同时,构建与干扰因素510相对应的语料库。在该较慢语速的语料库被扩充到足够大的情况下,针对添加的文本敏感词514,可以不经过基于语音数据502a、502b…502n及其特征值508a、508b…508n的训练而直接生成标准语音波形512的扩展语音波形516。由此省略了人工录入语音数据502a、502b…502n的操作。
基于本公开的方案,能够在诸如网络游戏直播等直播平台上实现自动的直播语音敏感词识别和屏蔽管理,并且能够提高针对方言口音、语调、语速、情感等干扰因素的识别准确率。本公开的方案不仅可以应用于网络直播平台,还可以广泛应用于其他直播场合,诸如在线教学、远程会议、远程诊断等。
图6图示了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1所示的示例环境100中的计算设备130可以由设备600来实施。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200、方法300和/或方法400,可由处理单元601执行。例如,在一些实施例中,方法200、方法300和/或方法400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法200、方法300和/或方法400的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。
Claims (21)
1.一种用于管理音频数据的方法,包括:
获取文本敏感词的标准语音波形;
基于与干扰因素相对应的语音数据,获得所述标准语音波形的至少一个扩展语音波形,其中所述至少一个扩展语音波形和所述标准语音波形形成与所述文本敏感词相对应的敏感词语音波形组;
在直播间的直播期间,缓存所述直播间的用户在最近的第一时间段期间的目标音频;
获取所述目标音频的音频波形;
响应于确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分,增加所述直播间的敏感度值;以及
响应于所述直播间的所述敏感度值达到敏感度阈值,针对所述直播间执行屏蔽动作;
其中所述干扰因素包括以下中的至少任一项:方言口音、语调、语速、性别、以及情感。
2.根据权利要求1所述的方法,其中获得所述标准语音波形的所述至少一个扩展语音波形包括:
提取所述语音数据的特征值;以及
基于所述特征值对所述标准语音波形进行训练,以获取所述至少一个扩展语音波形。
3.根据权利要求1所述的方法,其中确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分包括:
从所述音频波形中提取特征值;
确定所提取的特征值与所述敏感词语音波形组中的波形的所述特征值之间的相似度;以及
响应于所述相似度高于相似度阈值,确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分。
4.根据权利要求1所述的方法,进一步包括:从文本敏感词词库中获取所述文本敏感词。
5.根据权利要求1所述的方法,进一步包括:
响应于所述敏感度值未达到敏感度阈值,播放被缓存的所述目标音频。
6.根据权利要求5所述的方法,其中播放被缓存的所述目标音频包括:
将所述目标音频延迟第二时间段后播放所述目标音频,所述第二时间段大于所述第一时间段。
7.根据权利要求1所述的方法,其中增加所述敏感度值包括:
按照与所述文本敏感词相关联的预定步长,增加所述敏感度值。
8.根据权利要求1所述的方法,其中针对所述直播间执行屏蔽动作包括以下中的至少任一项:
替换所述目标音频中的与所述敏感词语音波形组中的波形相匹配的部分;
向所述用户发送警告;
禁止所述用户在所述直播间内发言;
禁止所述直播间的所有音频;以及
向所述直播间的管理员发送通知。
9.根据权利要求1所述的方法,其中所述敏感度阈值与所述用户的信用等级相关联。
10.根据权利要求9所述的方法,其中所述信用等级取决于以下中的至少任一项:
所述用户的历史直播记录、所述用户的先前信用等级、所述用户被其他用户有效举报的记录以及所述用户的受处罚记录。
11.一种用于管理音频数据的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
获取文本敏感词的标准语音波形;
基于与干扰因素相对应的语音数据,获得所述标准语音波形的至少一个扩展语音波形,其中所述至少一个扩展语音波形和所述标准语音波形形成与所述文本敏感词相对应的敏感词语音波形组;
在直播间的直播期间,缓存所述直播间的用户在最近的第一时间段期间的目标音频;
获取所述目标音频的音频波形;
响应于确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分,增加所述直播间的敏感度值;以及
响应于所述直播间的所述敏感度值达到敏感度阈值,针对所述直播间执行屏蔽动作;
其中所述干扰因素包括以下中的至少任一项:方言口音、语调、语速、性别、以及情感。
12.根据权利要求11所述的设备,其中获得所述标准语音波形的所述至少一个扩展语音波形包括:
提取所述语音数据的特征值;以及
基于所述特征值对所述标准语音波形进行训练,以获取所述至少一个扩展语音波形。
13.根据权利要求11所述的设备,其中确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分包括:
从所述音频波形中提取特征值;
确定所提取的特征与所述敏感词语音波形组中的波形的所述特征值之间的相似度;以及
响应于所述相似度高于相似度阈值,确定所述音频波形中存在与所述敏感词语音波形组中的波形相匹配的部分。
14.根据权利要求11所述的设备,所述动作进一步包括:从文本敏感词词库中获取所述文本敏感词。
15.根据权利要求11所述的设备,所述动作进一步包括:
响应于所述敏感度值未达到敏感度阈值,播放被缓存的所述目标音频。
16.根据权利要求15所述的设备,其中播放被缓存的所述目标音频包括:
将所述目标音频延迟第二时间段后播放所述目标音频,所述第二时间段大于所述第一时间段。
17.根据权利要求11所述的设备,其中增加所述敏感度值包括:
按照与所述文本敏感词相关联的预定步长,增加所述敏感度值。
18.根据权利要求11所述的设备,其中针对所述直播间执行屏蔽动作包括以下中的至少任一项:
替换所述目标音频中的与所述敏感词语音波形组中的波形相匹配的部分;
向所述用户发送警告;
禁止所述用户在所述直播间内发言;
禁止所述直播间的所有音频;以及
向所述直播间的管理员发送通知。
19.根据权利要求11所述的设备,其中所述敏感度阈值与所述用户的信用等级相关联。
20.根据权利要求19所述的设备,其中所述信用等级取决于以下中的至少任一项:
所述用户的历史直播记录、所述用户的先前信用等级、所述用户被其他用户有效举报的记录以及所述用户的受处罚记录。
21.一种计算机可读存储介质,具有存储在其上的计算机可读程序指令,所述计算机可读程序指令用于执行根据权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811180036.7A CN111107380B (zh) | 2018-10-10 | 2018-10-10 | 一种用于管理音频数据的方法、设备和计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811180036.7A CN111107380B (zh) | 2018-10-10 | 2018-10-10 | 一种用于管理音频数据的方法、设备和计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111107380A true CN111107380A (zh) | 2020-05-05 |
CN111107380B CN111107380B (zh) | 2023-08-15 |
Family
ID=70417496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811180036.7A Active CN111107380B (zh) | 2018-10-10 | 2018-10-10 | 一种用于管理音频数据的方法、设备和计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111107380B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833870A (zh) * | 2020-07-01 | 2020-10-27 | 中国第一汽车股份有限公司 | 车载语音系统的唤醒方法、装置、车辆和介质 |
CN111935541A (zh) * | 2020-08-12 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 视频修正方法、装置、可读介质及电子设备 |
CN112885371A (zh) * | 2021-01-13 | 2021-06-01 | 北京爱数智慧科技有限公司 | 音频脱敏的方法、装置、电子设备以及可读存储介质 |
CN113223558A (zh) * | 2021-04-30 | 2021-08-06 | 广州虎牙科技有限公司 | 音频数据消音方法、装置、电子设备和存储介质 |
CN114339292A (zh) * | 2021-12-31 | 2022-04-12 | 安徽听见科技有限公司 | 一种直播流的审查干预方法、装置、存储介质及设备 |
CN114945099A (zh) * | 2022-05-18 | 2022-08-26 | 广州博冠信息科技有限公司 | 语音监控方法、装置、电子设备及计算机可读介质 |
CN115512697A (zh) * | 2022-09-30 | 2022-12-23 | 贵州小爱机器人科技有限公司 | 语音敏感词的识别方法、装置、电子设备及存储介质 |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060095262A1 (en) * | 2004-10-28 | 2006-05-04 | Microsoft Corporation | Automatic censorship of audio data for broadcast |
US20080294439A1 (en) * | 2007-05-18 | 2008-11-27 | Aurix Limited | Speech screening |
CN103678602A (zh) * | 2013-12-16 | 2014-03-26 | 昆明理工大学 | 一种含敏感度计算的网页过滤方法 |
CN104143329A (zh) * | 2013-08-19 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 进行语音关键词检索的方法及装置 |
CN104505090A (zh) * | 2014-12-15 | 2015-04-08 | 北京国双科技有限公司 | 敏感词的语音识别方法和装置 |
CN105006230A (zh) * | 2015-06-10 | 2015-10-28 | 合肥工业大学 | 一种面向非特定人的语音敏感信息检测和过滤方法 |
CN105244026A (zh) * | 2015-08-24 | 2016-01-13 | 陈娟 | 一种语音处理方法及装置 |
CN105551480A (zh) * | 2015-12-18 | 2016-05-04 | 百度在线网络技术(北京)有限公司 | 方言转换方法及装置 |
CN105959715A (zh) * | 2016-04-28 | 2016-09-21 | 武汉斗鱼网络科技有限公司 | 一种直播网站的违规处理方法及装置 |
CN106101819A (zh) * | 2016-06-21 | 2016-11-09 | 武汉斗鱼网络科技有限公司 | 一种基于语音识别的直播视频敏感内容过滤方法及装置 |
CN106251859A (zh) * | 2016-07-22 | 2016-12-21 | 百度在线网络技术(北京)有限公司 | 语音识别处理方法和装置 |
US20170148432A1 (en) * | 2015-11-24 | 2017-05-25 | International Business Machines Corporation | System and method for supporting automatic speech recognition of regional accents based on statistical information and user corrections |
CN107181979A (zh) * | 2017-03-30 | 2017-09-19 | 武汉斗鱼网络科技有限公司 | 一种网络直播监控方法和装置 |
CN107222780A (zh) * | 2017-06-23 | 2017-09-29 | 中国地质大学(武汉) | 一种直播平台综合状态感知和内容实时监管方法及系统 |
WO2017192132A1 (en) * | 2016-05-04 | 2017-11-09 | Vidangel, Inc. | Seamless streaming and filtering |
CN107465657A (zh) * | 2017-06-22 | 2017-12-12 | 武汉斗鱼网络科技有限公司 | 直播视频监控方法、存储介质、电子设备及系统 |
CN107633380A (zh) * | 2017-08-30 | 2018-01-26 | 北京明朝万达科技股份有限公司 | 一种数据防泄漏系统的任务审批方法和系统 |
CN107807941A (zh) * | 2016-09-09 | 2018-03-16 | 腾讯科技(深圳)有限公司 | 信息处理方法和装置 |
CN107807966A (zh) * | 2017-10-13 | 2018-03-16 | 深圳市迅雷网络技术有限公司 | 一种敏感信息屏蔽方法和服务端 |
CN107870945A (zh) * | 2016-09-28 | 2018-04-03 | 腾讯科技(深圳)有限公司 | 内容分级方法和装置 |
CN108009707A (zh) * | 2017-11-15 | 2018-05-08 | 广州虎牙信息科技有限公司 | 主播信用评分方法、装置和终端 |
US20180197531A1 (en) * | 2017-01-06 | 2018-07-12 | International Business Machines Corporation | Domain terminology expansion by sensitivity |
CN108566565A (zh) * | 2018-03-30 | 2018-09-21 | 科大讯飞股份有限公司 | 弹幕展示方法及装置 |
CN108615527A (zh) * | 2018-05-10 | 2018-10-02 | 腾讯科技(深圳)有限公司 | 基于同声传译的数据处理方法、装置和存储介质 |
-
2018
- 2018-10-10 CN CN201811180036.7A patent/CN111107380B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060095262A1 (en) * | 2004-10-28 | 2006-05-04 | Microsoft Corporation | Automatic censorship of audio data for broadcast |
US20080294439A1 (en) * | 2007-05-18 | 2008-11-27 | Aurix Limited | Speech screening |
CN104143329A (zh) * | 2013-08-19 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 进行语音关键词检索的方法及装置 |
CN103678602A (zh) * | 2013-12-16 | 2014-03-26 | 昆明理工大学 | 一种含敏感度计算的网页过滤方法 |
CN104505090A (zh) * | 2014-12-15 | 2015-04-08 | 北京国双科技有限公司 | 敏感词的语音识别方法和装置 |
CN105006230A (zh) * | 2015-06-10 | 2015-10-28 | 合肥工业大学 | 一种面向非特定人的语音敏感信息检测和过滤方法 |
CN105244026A (zh) * | 2015-08-24 | 2016-01-13 | 陈娟 | 一种语音处理方法及装置 |
US20170148432A1 (en) * | 2015-11-24 | 2017-05-25 | International Business Machines Corporation | System and method for supporting automatic speech recognition of regional accents based on statistical information and user corrections |
CN105551480A (zh) * | 2015-12-18 | 2016-05-04 | 百度在线网络技术(北京)有限公司 | 方言转换方法及装置 |
CN105959715A (zh) * | 2016-04-28 | 2016-09-21 | 武汉斗鱼网络科技有限公司 | 一种直播网站的违规处理方法及装置 |
WO2017192132A1 (en) * | 2016-05-04 | 2017-11-09 | Vidangel, Inc. | Seamless streaming and filtering |
CN106101819A (zh) * | 2016-06-21 | 2016-11-09 | 武汉斗鱼网络科技有限公司 | 一种基于语音识别的直播视频敏感内容过滤方法及装置 |
CN106251859A (zh) * | 2016-07-22 | 2016-12-21 | 百度在线网络技术(北京)有限公司 | 语音识别处理方法和装置 |
CN107807941A (zh) * | 2016-09-09 | 2018-03-16 | 腾讯科技(深圳)有限公司 | 信息处理方法和装置 |
CN107870945A (zh) * | 2016-09-28 | 2018-04-03 | 腾讯科技(深圳)有限公司 | 内容分级方法和装置 |
US20180197531A1 (en) * | 2017-01-06 | 2018-07-12 | International Business Machines Corporation | Domain terminology expansion by sensitivity |
CN107181979A (zh) * | 2017-03-30 | 2017-09-19 | 武汉斗鱼网络科技有限公司 | 一种网络直播监控方法和装置 |
CN107465657A (zh) * | 2017-06-22 | 2017-12-12 | 武汉斗鱼网络科技有限公司 | 直播视频监控方法、存储介质、电子设备及系统 |
CN107222780A (zh) * | 2017-06-23 | 2017-09-29 | 中国地质大学(武汉) | 一种直播平台综合状态感知和内容实时监管方法及系统 |
CN107633380A (zh) * | 2017-08-30 | 2018-01-26 | 北京明朝万达科技股份有限公司 | 一种数据防泄漏系统的任务审批方法和系统 |
CN107807966A (zh) * | 2017-10-13 | 2018-03-16 | 深圳市迅雷网络技术有限公司 | 一种敏感信息屏蔽方法和服务端 |
CN108009707A (zh) * | 2017-11-15 | 2018-05-08 | 广州虎牙信息科技有限公司 | 主播信用评分方法、装置和终端 |
CN108566565A (zh) * | 2018-03-30 | 2018-09-21 | 科大讯飞股份有限公司 | 弹幕展示方法及装置 |
CN108615527A (zh) * | 2018-05-10 | 2018-10-02 | 腾讯科技(深圳)有限公司 | 基于同声传译的数据处理方法、装置和存储介质 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111833870A (zh) * | 2020-07-01 | 2020-10-27 | 中国第一汽车股份有限公司 | 车载语音系统的唤醒方法、装置、车辆和介质 |
CN111935541A (zh) * | 2020-08-12 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 视频修正方法、装置、可读介质及电子设备 |
CN111935541B (zh) * | 2020-08-12 | 2021-10-01 | 北京字节跳动网络技术有限公司 | 视频修正方法、装置、可读介质及电子设备 |
CN112885371A (zh) * | 2021-01-13 | 2021-06-01 | 北京爱数智慧科技有限公司 | 音频脱敏的方法、装置、电子设备以及可读存储介质 |
CN113223558A (zh) * | 2021-04-30 | 2021-08-06 | 广州虎牙科技有限公司 | 音频数据消音方法、装置、电子设备和存储介质 |
CN113223558B (zh) * | 2021-04-30 | 2024-03-15 | 广州虎牙科技有限公司 | 音频数据消音方法、装置、电子设备和存储介质 |
CN114339292A (zh) * | 2021-12-31 | 2022-04-12 | 安徽听见科技有限公司 | 一种直播流的审查干预方法、装置、存储介质及设备 |
CN114945099A (zh) * | 2022-05-18 | 2022-08-26 | 广州博冠信息科技有限公司 | 语音监控方法、装置、电子设备及计算机可读介质 |
CN114945099B (zh) * | 2022-05-18 | 2024-04-26 | 广州博冠信息科技有限公司 | 语音监控方法、装置、电子设备及计算机可读介质 |
CN115512697A (zh) * | 2022-09-30 | 2022-12-23 | 贵州小爱机器人科技有限公司 | 语音敏感词的识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111107380B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111107380B (zh) | 一种用于管理音频数据的方法、设备和计算机存储介质 | |
US10210861B1 (en) | Conversational agent pipeline trained on synthetic data | |
US8972260B2 (en) | Speech recognition using multiple language models | |
CN108417210B (zh) | 一种词嵌入语言模型训练方法、词语识别方法及系统 | |
CN111031329B (zh) | 一种用于管理音频数据的方法、设备和计算机存储介质 | |
CN109686383B (zh) | 一种语音分析方法、装置及存储介质 | |
US11024298B2 (en) | Methods and apparatus for speech recognition using a garbage model | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN112530408A (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
US9858923B2 (en) | Dynamic adaptation of language models and semantic tracking for automatic speech recognition | |
JP5496863B2 (ja) | 感情推定装置、その方法、プログラム及びその記録媒体 | |
CN110503944B (zh) | 语音唤醒模型的训练和使用方法及装置 | |
EP3989217B1 (en) | Method for detecting an audio adversarial attack with respect to a voice input processed by an automatic speech recognition system, corresponding device, computer program product and computer-readable carrier medium | |
CN111832308A (zh) | 语音识别文本连贯性处理方法和装置 | |
KR20040088368A (ko) | 스위칭 상태 공간 모델들을 갖는 변분 추론을 사용하는음성 인식 방법 | |
CN111862942A (zh) | 普通话和四川话的混合语音识别模型的训练方法及系统 | |
US20170322766A1 (en) | Method and electronic unit for adjusting playback speed of media files | |
JP2015099304A (ja) | 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム | |
CN111554270B (zh) | 训练样本筛选方法及电子设备 | |
CN115240696B (zh) | 一种语音识别方法及可读存储介质 | |
CN109273004B (zh) | 基于大数据的预测性语音识别方法及装置 | |
CN110781329A (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN111105803A (zh) | 快速识别性别的方法及装置、用于识别性别的算法模型的生成方法 | |
CN111061845A (zh) | 管理聊天室的聊天主题的方法、设备和计算机存储介质 | |
CN115116442B (zh) | 语音交互方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |