CN115002491A - 基于智能机器的网络直播方法、装置、设备及存储介质 - Google Patents
基于智能机器的网络直播方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115002491A CN115002491A CN202210446890.3A CN202210446890A CN115002491A CN 115002491 A CN115002491 A CN 115002491A CN 202210446890 A CN202210446890 A CN 202210446890A CN 115002491 A CN115002491 A CN 115002491A
- Authority
- CN
- China
- Prior art keywords
- live
- live broadcast
- text
- voice
- room
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 50
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 50
- 230000002452 interceptive effect Effects 0.000 claims abstract description 45
- 238000006243 chemical reaction Methods 0.000 claims abstract description 43
- 238000004458 analytical method Methods 0.000 claims abstract description 35
- 238000001228 spectrum Methods 0.000 claims description 44
- 230000003993 interaction Effects 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000005266 casting Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/173—Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及语音语义领域,揭露一种基于智能机器的网络直播方法、装置、设备以及存储介质,包括:接收直播指令及直播文本,并基于所述直播指令创建直播间,利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音,解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。本发明可以提高网络直播的效率。
Description
技术领域
本发明涉及语音语义领域,尤其涉及一种基于智能机器的网络直播方法、装置、设备及存储介质。
背景技术
随着科技的发展,一些企业都开始涉足直播行业,例如直播带货等。
目前常见的直播模式都是人为进行直播,缺少智能化,需要付出较高的人工成本,且在急需进行一场直播时,常常由于人手不够,导致直播无法正常进行,从而降低了直播的效率。
发明内容
本发明提供一种基于智能机器的网络直播方法、装置、设备及存储介质,其目的在于提高网络直播的效率。
为实现上述目的,本发明提供的一种基于智能机器的网络直播方法,包括:
接收直播指令及直播文本,并基于所述直播指令创建直播间;
利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节;
在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容;
利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
可选地,所述利用预设的语音合成模型将所述直播文本转换为直播语音,包括:
对所述直播文本进行音素转换,得到音素序列;
利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱;
利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音。
可选地,所述对所述直播文本进行音素转换,得到音素序列,包括:
对所述直播文本进行语句切分处理,得到切分语句文本;
根据预设的文本格式规则,将所述切分语句文本中的非文字转化为文字;
对所述切分语句文本进行分词处理,得到分词文本;
根据预设的文字音素映射词典,对所述分词文本进行映射,得到音素;
对所述音素进行向量转化,得到音素向量;
按照文本顺序对所述音素向量进行编码排序,得到音素序列。
可选地,所述利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱,包括:
利用所述编码器对所述音素序列进行上下文特征提取,得到隐藏特征矩阵;
根据所述隐藏特征矩阵,利用所述解码器对所述训练文本的梅尔频谱进行预测,得到预测梅尔频谱;
利用所述残差网络对所述预测梅尔频谱进行残差连接,得到目标梅尔频谱。
可选地,所述利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音,包括:
利用所述WaveGlow声码器对所述目标梅尔频谱进行并行语音波形转换,得到语音波形;
对所述语音波形进行音频转换,得到直播语音。
可选地,所述基于所述直播指令创建直播间,包括:
解析所述直播指令,得到直播间创建方法参数及直播间场景组件参数;
根据所述直播间场景组件参数,构建所述直播指令的编程模块,并获取所述编程模块下所述直播间创建方法参数对应的函数;
利用所述函数,生成所述直播指令对应的直播间。
可选地,所述利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,包括:
利用所述语义分析模型对所述弹幕信息进行关键词提取,得到弹幕关键词;
判断预构建的互动知识库中是否包含所述弹幕关键词;
若所述互动知识库中不包含所述弹幕关键词,则返回所述读取所述直播间中的弹幕信息步骤,直至所述互动知识库中包含所述弹幕关键词;
若所述互动知识库中包含所述弹幕关键词,则将所述弹幕关键词与所述互动知识库进行匹配,并将匹配结果作为回答内容输出。
为了解决上述问题,本发明还提供一种基于智能机器的网络直播装置,所述装置包括:
直播间创建模块,用于接收管理人员输入的直播指令及直播文本,并根据基于所述直播指令生成创建直播间;
直播内容输出模块,用于利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
直播互动模块,用于解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的基于智能机器的网络直播方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于智能机器的网络直播方法。
本发明实施例提出的基于智能机器的网络直播方法、装置、设备及存储介质基于所述直播指令创建直播间,利用预设的语音合成模型将用户输入的直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音,并通过解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音,实现了智能直播,降低了人工成本,提高了智能化程度,并且解决了突然需要进行直播的问题,除此之外,还有效地解决了直播间用户提出的问题,从而提高了网络直播的效率。因此,本发明实施例提出的基于智能机器的网络直播方法、装置、设备及存储介质提高了网络直播的效率。
附图说明
图1为本发明一实施例提供的基于智能机器的网络直播方法的流程示意图;
图2为本发明一实施例提供的基于所述直播指令创建直播间方法的流程示意图;
图3为本发明一实施例提供的基于智能机器的网络直播装置的模块示意图;
图4为本发明一实施例提供的实现基于智能机器的网络直播方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种基于智能机器的网络直播方法。所述基于智能机器的网络直播方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于智能机器的网络直播方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端可以包括独立的服务器,也可以包括提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示的本发明一实施例提供的基于智能机器的网络直播方法的流程示意图,在本发明实施例中,所述基于智能机器的网络直播方法包括以下步骤S1-S5:
S1、接收直播指令及直播文本,并基于所述直播指令创建直播间。
本发明实施例中,所述直播指令包含创建直播间及相应直播规则等。所述直播文本可以是贯穿整个直播过程的文本,例如,“欢迎新进直播间的用户”“接下来为大家带来的是***”等文本。所述直播规则可以是人为规定的直播时间与互动时间。
本发明可选实施例中,通过智能机器的外部输入接口接收直播指令及直播文本,确保了直播能够随时进行,大大地提高了直播时间的容错率。
进一步地,作为本发明一可选实施例,所述基于所述直播指令创建直播间,包括以下步骤S11-S13:
S11、解析所述直播指令,得到直播间创建方法参数及直播间场景组件参数;
S12、根据所述直播间场景组件参数,构建所述直播指令的编程模块,并获取所述编程模块下所述直播间创建方法参数对应的函数;
S13、利用所述函数,生成所述直播指令对应的直播间。
本发明实施例中,所述直播间场景组件参数可以是用于生成编程模块的参数代码。所述直播间创建方法参数可以是用于生成特定函数的参数代码。
本发明可选实施例中,可利用指令接口对所述直播指令进行解析,得到直播间创建方法参数及直播间场景组件参数,并根据所述直播间创建方法参数及直播间场景组件参数生成所述直播指令对应的直播间。
S2、利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音。
本发明实施例中,所述预设的语音合成模型可以是将任意输入的文本转换成相应语音的模型,包含编码器、解码器、残差网络和WaveGlow声码器等部件,是自然语音处理领域中的一个重要的研究分支。
本发明实施例利用预设的语音合成模型将所述直播文本转换为直播语音,实现了文本到语音的转换,从而使得直播间变成有声直播间,提高直播间的直播氛围,提高直播的效率。
进一步地,作为本发明一可选实施例,所述利用预设的语音合成模型将所述直播文本转换为直播语音,包括以下步骤S21-S23:
S21、对所述直播文本进行音素转换,得到音素序列;
S22、利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱;
S23、利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音。
本发明实施例中,所述音素序列可以是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素,如汉字的音素可以是汉语拼音及音调。所述编码器包含卷积层及双向长短时记忆网络。所述解码器可以是一个自回归循环神经网络,包含注意力网络及后处理网络。所述残差网络包含卷积层及一系列函数。
本发明实施例,通过对所述直播文本进行音素转换,得到音素序列,可降低发音错误问题的出现,从而使得直播文本转化的直播语音更为准确。
进一步地,作为本发明一可选实施例,所述对所述直播文本进行音素转换,得到音素序列,包括以下步骤S211-S216:
S211、对所述直播文本进行语句切分处理,得到切分语句文本;
S212、根据预设的文本格式规则,将所述切分语句文本中的非文字转化为文字;
S213、对所述切分语句文本进行分词处理,得到分词文本;
S214、根据预设的文字音素映射词典,对所述分词文本进行映射,得到音素;
S215、对所述音素进行向量转化,得到音素向量;
S216、按照文本顺序对所述音素向量进行编码排序,得到音素序列。
本发明可选实施例通过对所述直播文本进行分词处理,以便准确地对所述直播文本进行音素转换,得到音素,最后通过对所述音素进行编码排序,得到音素序列,通过排列确保了音素序列的准确性,避免直播文本发音混乱,提高了语音合成的精准性。
进一步地,所述利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱,包括以下步骤S221-S223:
S221、利用所述编码器对所述音素序列进行上下文特征提取,得到隐藏特征矩阵;
S222、根据所述隐藏特征矩阵,利用所述解码器对所述训练文本的梅尔频谱进行预测,得到预测梅尔频谱;
S223、利用所述残差网络对所述预测梅尔频谱进行残差连接,得到目标梅尔频谱。
本发明实施例中,所述隐藏特征矩阵包含了所述音素序列的上下文向量等信息。
本发明实施例中,由于所述直播文本中每个词的意义往往跟上下文有着密切相关的联系,例如,“你好”语句中,“好”字有两种读音,单独分析“好”字无法确定“好”字的发音,容易造成发音错误的问题,因此,还需对每个字的上下文特征信息进行提取。
本发明可选实施例中,所述利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音,包括以下步骤S231-S232:
S231、利用所述WaveGlow声码器对所述目标梅尔频谱进行并行语音波形转换,得到语音波形;
S232、对所述语音波形进行音频转换,得到直播语音。
本发明实施例中,对语音波形进行音频转换包括:对语音波形信号进行取样、量化及编码,进而得到直播语音。其中,对所述语音波形信号进行取样是把时间轴上连续的语音波形信号在时间轴上离散化的过程,对取样过后的语音波形信号进行量化是指将幅度上连续取值的每一个样本转化为离散值表示。
S3、解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节。
本发明实施例中,所述直播规则可以提高直播间用户的粘性,确保直播的正常运行。
本发明可选实施例中,通过指令接口解析所述直播指令,得到直播规则,确保所述直播间的正常运行,从而提高直播的效率。
进一步地,本发明可选实施例中,通过更换直播运作模式,对直播间的用户提出的问题进行解答,从而促进直播间用户与机器人的互动,提高直播的有效性。
S4、在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容。
本发明实施例中,所述弹幕信息可以是所述直播间的用户根据所述直播间的直播内容提出的问题或看法等。所述语义分析模型可以是一个基于深度学习的自然语言模型。所述互动知识库可以是弹幕与智能回答的映照表。
本发明可选实施例中,在互动环节时,通过智能机器人的弹幕接收接口读取直播间的弹幕信息,从而获取直播间用户的想法,实现跟所述用户的互动,提高直播效率。
本发明实施例利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,从而完成与用户的互动,解答用户的疑问,便于直播间后续内容的推进,从而提高直播效率。
进一步地,作为本发明一可选实施例,所述利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,包括以下步骤S41-S44:
S41、利用所述语义分析模型对所述弹幕信息进行关键词提取,得到弹幕关键词;
S42、判断预构建的互动知识库中是否包含所述弹幕关键词;
S43、若所述互动知识库中不包含所述弹幕关键词,则返回所述S4,直至所述互动知识库中包含所述弹幕关键词;
S44、若所述互动知识库中包含所述弹幕关键词,则将所述弹幕关键词与所述互动知识库进行匹配,并将匹配结果作为回答内容输出。
本发明可选实施例中,弹幕信息中包含有无用信息及有用信息,为了准确分别有用信息及无用信息,采用多分类语义分析模型对所述弹幕信息进行关键词提取,从而筛选出有用信息,提高直播效率。
S5、利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
本发明实施例中,由于回答内容为文本模式,不利于用户观看直播,所以将所述回答内容转换为回复语音进行输出,从而完成互动环节,提高直播效率。
进一步地,所述利用所述语音合成模型将所述回答内容转换为回复语音与所述利用预设的语音合成模型将所述直播文本转换为直播语音一致,故此不赘述。
本发明实施例提出的基于智能机器的网络直播方法基于所述直播指令创建直播间,利用预设的语音合成模型将用户输入的直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音,并通过解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音,实现了智能直播,降低了人工成本,提高了智能化程度,并且解决了突然需要进行直播的问题,除此之外,还有效地解决了直播间用户提出的问题,从而提高了网络直播的效率。因此,本发明实施例提出的基于智能机器的网络直播方法提高了网络直播的效率。
如图3所示,是本发明基于智能机器的网络直播装置的功能模块图。
本发明所述基于智能机器的网络直播装置100可以安装于电子设备中。根据实现的功能,所述基于智能机器的网络直播装置可以包括直播间创建模块101、直播内容输出模块102及直播互动模块103,本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述直播间创建模块101用于接收管理人员输入的直播指令及直播文本,并根据基于所述直播指令生成创建直播间。
本发明实施例中,所述直播指令包含创建直播间及相应直播规则等。所述直播文本可以是贯穿整个直播过程的文本,例如,“欢迎新进直播间的用户”“接下来为大家带来的是***”等文本。
本发明可选实施例中,通过智能机器的外部输入接口接收直播指令及直播文本,确保了直播能够随时进行,,大大地提高了直播时间的容错率。
进一步地,作为本发明一可选实施例,所述基于所述直播指令创建直播间,包括:
解析所述直播指令,得到直播间创建方法参数及直播间场景组件参数;
根据所述直播间场景组件参数,构建所述直播指令的编程模块,并获取所述编程模块下所述直播间创建方法参数对应的函数;
利用所述函数,生成所述直播指令对应的直播间。
本发明实施例中,所述直播间场景组件参数可以是用于生成编程模块的参数代码。所述直播间创建方法参数可以是用于生成特定函数的参数代码。
本发明可选实施例中,可利用指令接口对所述直播指令进行解析,得到直播间创建方法参数及直播间场景组件参数,并根据所述直播间创建方法参数及直播间场景组件参数生成所述直播指令对应的直播间。
所述直播内容输出模块102用于利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音。
本发明实施例中,所述预设的语音合成模型可以是将任意输入的文本转换成相应语音的模型,包含编码器、解码器、残差网络和WaveGlow声码器等部件,是自然语音处理领域中的一个重要的研究分支。
本发明实施例利用预设的语音合成模型将所述直播文本转换为直播语音,实现了文本到语音的转换,从而使得直播间变成有声直播间,提高直播间的直播氛围,提高直播的效率。
进一步地,作为本发明一可选实施例,所述利用预设的语音合成模型将所述直播文本转换为直播语音,包括:
对所述直播文本进行音素转换,得到音素序列;
利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱;
利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音。
本发明实施例中,所述音素序列可以是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素,如汉字的音素可以是汉语拼音及音调。所述编码器包含卷积层及双向长短时记忆网络。所述解码器可以是一个自回归循环神经网络,包含注意力网络及后处理网络。所述残差网络包含卷积层及一系列函数。
本发明实施例,通过对所述直播文本进行音素转换,得到音素序列,可降低发音错误问题的出现,从而使得直播文本转化的直播语音更为准确。
进一步地,作为本发明一可选实施例,所述对所述直播文本进行音素转换,得到音素序列,包括:
对所述直播文本进行语句切分处理,得到切分语句文本;
根据预设的文本格式规则,将所述切分语句文本中的非文字转化为文字;
对所述切分语句文本进行分词处理,得到分词文本;
根据预设的文字音素映射词典,对所述分词文本进行映射,得到音素;
对所述音素进行向量转化,得到音素向量;
按照文本顺序对所述音素向量进行编码排序,得到音素序列。
本发明可选实施例通过对所述直播文本进行分词处理,以便准确地对所述直播文本进行音素转换,得到音素,最后通过对所述音素进行编码排序,得到音素序列,通过排列确保了音素序列的准确性,避免直播文本发音混乱,提高了语音合成的精准性。
进一步地,所述利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱,包括:
利用所述编码器对所述音素序列进行上下文特征提取,得到隐藏特征矩阵;
根据所述隐藏特征矩阵,利用所述解码器对所述训练文本的梅尔频谱进行预测,得到预测梅尔频谱;
利用所述残差网络对所述预测梅尔频谱进行残差连接,得到目标梅尔频谱。
本发明实施例中,所述隐藏特征矩阵包含了所述音素序列的上下文向量等信息。
本发明实施例中,由于所述直播文本中每个词的意义往往跟上下文有着密切相关的联系,例如,“你好”语句中,“好”字有两种读音,单独分析“好”字无法确定“好”字的发音,容易造成发音错误的问题,因此,还需对每个字的上下文特征信息进行提取。
本发明可选实施例中,所述利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音,包括:
利用所述WaveGlow声码器对所述目标梅尔频谱进行并行语音波形转换,得到语音波形;
对所述语音波形进行音频转换,得到直播语音。
本发明实施例中,对语音波形进行音频转换包括:对语音波形信号进行取样、量化及编码,进而得到直播语音。其中,对所述语音波形信号进行取样是把时间轴上连续的语音波形信号在时间轴上离散化的过程,对取样过后的语音波形信号进行量化是指将幅度上连续取值的每一个样本转化为离散值表示。
所述直播互动模块103用于解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
本发明实施例中,所述直播规则可以是人为规定的直播时间与互动时间,从而提高直播间用户的粘性,确保直播的正常运行。
本发明可选实施例中,通过指令接口解析所述直播指令,得到直播规则,确保所述直播间的正常运行,从而提高直播的效率。
进一步地,本发明可选实施例中,通过更换直播运作模式,对直播间的用户提出的问题进行解答,从而促进直播间用户与机器人的互动,提高直播的有效性。
本发明实施例中,所述弹幕信息可以是所述直播间的用户根据所述直播间的直播内容提出的问题或看法等。所述语义分析模型可以是一个基于深度学习的自然语言模型。所述互动知识库可以是弹幕与智能回答的映照表。
本发明可选实施例中,在互动环节时,通过智能机器人的弹幕接收接口读取直播间的弹幕信息,从而获取直播间用户的想法,实现跟所述用户的互动,提高直播效率。
本发明实施例利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,从而完成与用户的互动,解答用户的疑问,便于直播间后续内容的推进,从而提高直播效率。
进一步地,作为本发明一可选实施例,所述利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,包括:
利用所述语义分析模型对所述弹幕信息进行关键词提取,得到弹幕关键词;
判断预构建的互动知识库中是否包含所述弹幕关键词;
若所述互动知识库中不包含所述弹幕关键词,则返回所述S4,直至所述互动知识库中包含所述弹幕关键词;
若所述互动知识库中包含所述弹幕关键词,则将所述弹幕关键词与所述互动知识库进行匹配,并将匹配结果作为回答内容输出。
本发明可选实施例中,弹幕信息中包含有无用信息及有用信息,为了准确分别有用信息及无用信息,采用多分类语义分析模型对所述弹幕信息进行关键词提取,从而筛选出有用信息,提高直播效率。
本发明实施例中,由于回答内容为文本模式,不利于用户观看直播,所以将所述回答内容转换为回复语音进行输出,从而完成互动环节,提高直播效率。
进一步地,所述利用所述语音合成模型将所述回答内容转换为回复语音与所述利用预设的语音合成模型将所述直播文本转换为直播语音一致,故此不赘述。
如图4所示,是本发明实现基于智能机器的网络直播方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于智能机器的网络直播程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于智能机器的网络直播程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于智能机器的网络直播程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信总线12可以是外设部件互连标准(PerIPheralComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述通信总线12总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的基于智能机器的网络直播程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
接收直播指令及直播文本,并基于所述直播指令创建直播间;
利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节;
在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容;
利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
接收直播指令及直播文本,并基于所述直播指令创建直播间;
利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节;
在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容;
利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
进一步地,所述计算机标准存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于智能机器的网络直播方法,其特征在于,所述方法包括:
接收直播指令及直播文本,并基于所述直播指令创建直播间;
利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节;
在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容;
利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
2.如权利要求1所述的基于智能机器的网络直播方法,其特征在于,所述利用预设的语音合成模型将所述直播文本转换为直播语音,包括:
对所述直播文本进行音素转换,得到音素序列;
利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱;
利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音。
3.如权利要求2所述的基于智能机器的网络直播方法,其特征在于,所述对所述直播文本进行音素转换,得到音素序列,包括:
对所述直播文本进行语句切分处理,得到切分语句文本;
根据预设的文本格式规则,将所述切分语句文本中的非文字转化为文字;
对所述切分语句文本进行分词处理,得到分词文本;
根据预设的文字音素映射词典,对所述分词文本进行映射,得到音素;
对所述音素进行向量转化,得到音素向量;
按照文本顺序对所述音素向量进行编码排序,得到音素序列。
4.如权利要求2所述的基于智能机器的网络直播方法,其特征在于,所述利用所述语音合成模型的编码器、解码器及残差网络依次对所述音素序列进行频谱处理,得到目标梅尔频谱,包括:
利用所述编码器对所述音素序列进行上下文特征提取,得到隐藏特征矩阵;
根据所述隐藏特征矩阵,利用所述解码器对所述训练文本的梅尔频谱进行预测,得到预测梅尔频谱;
利用所述残差网络对所述预测梅尔频谱进行残差连接,得到目标梅尔频谱。
5.如权利要求2所述的基于智能机器的网络直播方法,其特征在于,所述利用所述语音合成模型的WaveGlow声码器对所述目标梅尔频谱进行并行音频转换,得到直播语音,包括:
利用所述WaveGlow声码器对所述目标梅尔频谱进行并行语音波形转换,得到语音波形;
对所述语音波形进行音频转换,得到直播语音。
6.如权利要求1所述的基于智能机器的网络直播方法,其特征在于,所述基于所述直播指令创建直播间,包括:
解析所述直播指令,得到直播间创建方法参数及直播间场景组件参数;
根据所述直播间场景组件参数,构建所述直播指令的编程模块,并获取所述编程模块下所述直播间创建方法参数对应的函数;
利用所述函数,生成所述直播指令对应的直播间。
7.如权利要求1所述的基于智能机器的网络直播方法,其特征在于,所述利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,包括:
利用所述语义分析模型对所述弹幕信息进行关键词提取,得到弹幕关键词;
判断预构建的互动知识库中是否包含所述弹幕关键词;
若所述互动知识库中不包含所述弹幕关键词,则返回所述读取所述直播间中的弹幕信息步骤,直至所述互动知识库中包含所述弹幕关键词;
若所述互动知识库中包含所述弹幕关键词,则将所述弹幕关键词与所述互动知识库进行匹配,并将匹配结果作为回答内容输出。
8.一种基于智能机器的网络直播装置,其特征在于,所述装置包括:
直播间创建模块,用于接收管理人员输入的直播指令及直播文本,并根据基于所述直播指令生成创建直播间;
直播内容输出模块,用于利用预设的语音合成模型将所述直播文本转换为直播语音,并通过智能机器人在所述直播间输出所述直播语音;
直播互动模块,用于解析所述直播指令,得到直播规则,并根据所述直播规则,在预设时间之后切换直播运作模式,进入互动环节,在所述互动环节中,读取所述直播间中的弹幕信息,利用预设的语义分析模型及互动知识库对所述弹幕信息进行解析匹配,生成回答内容,利用所述语音合成模型将所述回答内容转换为回复语音,并通过所述智能机器人在所述直播间输出所述回复语音。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的基于智能机器的网络直播方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于智能机器的网络直播方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210446890.3A CN115002491A (zh) | 2022-04-26 | 2022-04-26 | 基于智能机器的网络直播方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210446890.3A CN115002491A (zh) | 2022-04-26 | 2022-04-26 | 基于智能机器的网络直播方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115002491A true CN115002491A (zh) | 2022-09-02 |
Family
ID=83026181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210446890.3A Pending CN115002491A (zh) | 2022-04-26 | 2022-04-26 | 基于智能机器的网络直播方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115002491A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115515016A (zh) * | 2022-11-04 | 2022-12-23 | 广东玄润数字信息科技股份有限公司 | 一种可实现自交互回复的虚拟直播方法、系统及存储介质 |
CN115630152A (zh) * | 2022-12-12 | 2023-01-20 | 北京红棉小冰科技有限公司 | 虚拟人物直播对话的方式、装置、电子设备及存储介质 |
CN116996703A (zh) * | 2023-08-23 | 2023-11-03 | 中科智宏(北京)科技有限公司 | 一种数字人直播互动方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010586A (zh) * | 2019-12-19 | 2020-04-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的直播方法、装置、设备及存储介质 |
CN112218127A (zh) * | 2020-10-16 | 2021-01-12 | 广州华多网络科技有限公司 | 虚拟直播方法、装置、设备及存储介质 |
CN113766253A (zh) * | 2021-01-04 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 基于虚拟主播的直播方法、装置、设备及存储介质 |
CN114038447A (zh) * | 2021-12-02 | 2022-02-11 | 深圳市北科瑞声科技股份有限公司 | 语音合成模型的训练方法、语音合成方法、装置及介质 |
-
2022
- 2022-04-26 CN CN202210446890.3A patent/CN115002491A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010586A (zh) * | 2019-12-19 | 2020-04-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的直播方法、装置、设备及存储介质 |
CN112995706A (zh) * | 2019-12-19 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 基于人工智能的直播方法、装置、设备及存储介质 |
CN112218127A (zh) * | 2020-10-16 | 2021-01-12 | 广州华多网络科技有限公司 | 虚拟直播方法、装置、设备及存储介质 |
CN113766253A (zh) * | 2021-01-04 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 基于虚拟主播的直播方法、装置、设备及存储介质 |
CN114038447A (zh) * | 2021-12-02 | 2022-02-11 | 深圳市北科瑞声科技股份有限公司 | 语音合成模型的训练方法、语音合成方法、装置及介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115515016A (zh) * | 2022-11-04 | 2022-12-23 | 广东玄润数字信息科技股份有限公司 | 一种可实现自交互回复的虚拟直播方法、系统及存储介质 |
CN115630152A (zh) * | 2022-12-12 | 2023-01-20 | 北京红棉小冰科技有限公司 | 虚拟人物直播对话的方式、装置、电子设备及存储介质 |
CN116996703A (zh) * | 2023-08-23 | 2023-11-03 | 中科智宏(北京)科技有限公司 | 一种数字人直播互动方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115002491A (zh) | 基于智能机器的网络直播方法、装置、设备及存储介质 | |
CN112185348B (zh) | 多语种语音识别方法、装置及电子设备 | |
CN112001175A (zh) | 流程自动化方法、装置、电子设备及存储介质 | |
CN112329451B (zh) | 手语动作视频生成方法、装置、设备及存储介质 | |
CN111862937A (zh) | 歌声合成方法、装置及计算机可读存储介质 | |
CN114866807A (zh) | 虚拟形象视频生成方法、装置、电子设备及可读存储介质 | |
CN113420556A (zh) | 基于多模态信号的情感识别方法、装置、设备及存储介质 | |
CN113205814A (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN114863945A (zh) | 基于文本的语音变声方法、装置、电子设备及存储介质 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN114610855A (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN113707124A (zh) | 话术语音的联动播报方法、装置、电子设备及存储介质 | |
CN112201253A (zh) | 文字标记方法、装置、电子设备及计算机可读存储介质 | |
CN116844522A (zh) | 音律边界标签标注方法和语音合成方法 | |
CN108920560B (zh) | 生成方法、训练方法、装置、计算机可读介质及电子设备 | |
CN113160793A (zh) | 基于低资源语言的语音合成方法、装置、设备及存储介质 | |
CN113990286A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN114420168A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN114401346A (zh) | 基于人工智能的应答方法、装置、设备及介质 | |
CN111310847B (zh) | 训练要素分类模型的方法和装置 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN114842880A (zh) | 智能客服语音节奏调节方法、装置、设备及存储介质 | |
CN114186028A (zh) | 咨诉工单处理方法、装置、设备及存储介质 | |
CN115050351A (zh) | 生成时间戳的方法、装置及计算机设备 | |
CN111985231A (zh) | 无监督角色识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |