CN105006179A - 语音输入的内容跟读方法和装置 - Google Patents
语音输入的内容跟读方法和装置 Download PDFInfo
- Publication number
- CN105006179A CN105006179A CN201510290145.4A CN201510290145A CN105006179A CN 105006179 A CN105006179 A CN 105006179A CN 201510290145 A CN201510290145 A CN 201510290145A CN 105006179 A CN105006179 A CN 105006179A
- Authority
- CN
- China
- Prior art keywords
- speech data
- target speech
- voice
- described target
- phonetic entry
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
Abstract
本发明提供了一种语音输入的内容跟读方法,所述方法包括:触发播放预设的目标语音数据;待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据;根据所述目标语音数据对所述语音数据进行重放处理。此外,还提供了一种与该方法匹配的终端中书写模拟的实现装置。上述一种语音输入的内容跟读方法和装置不需要不断打开和关闭麦克风,以避免误操作。
Description
技术领域
本发明涉及计算机应用技术领域,特别涉及一种语音输入的内容跟读方法和装置。
背景技术
现有的英语跟读产品的使用过程中,用户需要自己打开麦克风,并在朗读英语单词或句子之后自行关闭麦克风,通过这一麦克风的打开和关闭操作方可实现语音的记录并执行跟读的功能。
用户在如上所述的使用过程中需要不断地打开和关闭麦克风,操作十分别频繁,并且对于专注于朗读的用户而言,常常难以随着自己当前所进行的朗读而协同进行麦克风的打开和关闭,误操作的情况时有发生。
发明内容
基于此,有必要提供一种不需要不断打开和关闭麦克风,以避免误操作的语音输入的内容跟读方法。
此外,还有必要提供一种不需要不断打开和关闭麦克风,以避免误操作的语音输入的内容跟读装置。
为解决上述技术问题,本发明采用如下技术方案:
一种语音输入的内容跟读方法,包括:
触发播放预设的目标语音数据;
待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据;
根据所述目标语音数据对所述语音数据进行重放处理。
在其中一个实施例中,所述待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据的步骤包括:
侦听得到所述目标语音数据的播放停止消息;
根据所述播放停止消息触发进行语音识别,以开启所述语音识别对应的语音输入通道。
在其中一个实施例中,所述根据所述目标语音数据对所述语音数据进行重放处理的步骤之前,所述方法还包括:
通过开启的所述语音输入通道进行语音音频信号的输入,并转换为所述语音数据。
在其中一个实施例中,所述根据所述目标语音数据对所述语音数据进行重放处理的步骤包括:
根据所述语音数据在预设的语音数据样本中定位得到所述目标语音数据;
播放与所述目标语音数据匹配的语音数据,以对与所述目标语音数据相匹配的语音输入进行重放。
在其中一个实施例中,所述播放与所述目标语音数据匹配的语音数据的步骤具体为:
根据预设的声音效果对与所述目标语音数据匹配的语音数据进行变声后播放。
一种语音输入的内容跟读装置,包括:
目标语音播放模块,用于触发播放预设的目标语音数据;
识别触发模块,用于待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据;
重放处理模块,用于根据所述目标语音数据对所述语音数据进行重放处理。
在其中一个实施例中,所述识别触发模块包括:
侦听单元,用于侦听得到所述目标语音数据的播放停止消息;
语音识别开启单元,用于根据所述播放停止消息触发进行语音识别,以开启所述语音识别对应的语音输入通道。
在其中一个实施例中,所述装置还包括:
信号输入模块,用于通过开启的所述语音输入通道进行语音音频信号的输入,并转换为所述语音数据。
在其中一个实施例中,所述重放处理模块包括:
定位单元,用于根据所述语音数据在预设的语音数据样本中定位得到所述目标语音数据;
播放单元,用于播放与所述目标语音数据匹配的语音数据,以对所述目标语音数据相匹配的话音输入进行重放。
在其中一个实施例中,所述播放单元进一步用于根据预设的声音效果对与所述目标语音数据匹配的语音数据进行变声后播放。
由上述技术方案可知,本发明的优点和积极效果在于:
本发明中,在进行单词、词组或句子的跟读的场景下将触发播放预设的目标语音数据,待目标语音数据播放结束时触发开启语音识别,以等待语音数据的输入,并根据目标语音数据对语音数据进行重放处理,也就是说,语音数据即为用户所跟读的单词、词组或句子,等待输入的语音数据即为用户进行跟读所输入的声音,在完成目标语音数据的播放时通过触发开启语音识别便得以自动进行语音数据的输入,用户不需要进行打开和关闭麦克风的手动操作,完全避免了误操作的可能性。
附图说明
图1是一个实施例中语音输入的内容跟读方法的流程图;
图2是图1中待目标语音数据播放结束触发开启语音识别,以待输入语音数据的方法流程图;
图3是图1中根据目标语音数据对语音数据进行重放处理的方法流程图;
图4是一个实施例中语音输入的内容跟读装置的结构框图;
图5是图1中识别触发模块的结构框图;
图6是图1中重放处理模块的结构框图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以下的说明中详细叙述。应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
如前所述,各种跟读产品作为语言学习的重要工具,在用户的语言学习过程中扮演着越来越重要的角色,目前仍然处于不断发展改进阶段,因此,存在自动播放跟读的内容以及手动输入语音并存的情况,用户需要在每一次跟读时逐一进行语音输入的开启和关闭操作,进而出现用户与跟读产品之间协同性能不佳的问题。
为了避免用户通过不断的打开和关闭麦克风方可实现跟读,特提出了一种语音输入的内容跟读方法,该方法可以依赖于计算机程序,该计算机程序运行于计算机系统之上,该计算机系统则运行于智能手机、平板电脑、儿童平板、家教机等电子设备中。
在一个实施例中,具体的,该方法如图1所示,包括:
步骤110,触发播放预设的目标语音数据。
本实话例中,目标语音数据为用户当前所进行跟读的单词、词组或者句子。预先设置了大量的语音数据,以供用户针对任一内容进行跟读,而目标语音数据则是预先设置的大量语音数据中当前所选定的语音数据。
根据当前跟读的进度或者用户对跟读内容的选取,将得到目标语音数据,并直接对其进行播放,以供用户在收听后获知当前跟读内容的发音。
进一步的,目标语音数据的播放也是可通过电子宠物变声的形式实现,以表现形式的丰富性和趣味性。
步骤130,待目标语音数据播放结束触发开启语音识别,以待输入语音数据。
本实施例中,目标语音数据的播放结束将直接触发开启语音识别,该语音识别除了提供相应的识别算法之外,还提供了相应的输入通道和输出通道,其中,该输入通道用于实现语音数据的输入,而输出通道则相应的语音识别结果。
由此可知,语音识别的开启将意味着输入通道的开通。例如,该输入通道可由麦克风实现,以麦克风为输入组件来进行语音输入,因此,随着语音识别的触发开启,麦克风也是将相应开启,以等待用户输入语音,而不需要用户进行任何手动操作。
基于此,随着目标语音数据的播放完毕,语音识别的触发开启将触发开启麦克风,进而可直接进行语音输入。
步骤150,根据目标语音数据对语音数据进行重放处理。
本实话例中,播放的目标语音数据为依据来确定是否执行输入的语音数据的播放,以对用户当前所进行的语音输入进行重现,对于当前通过跟读时行语言学习的用户而言,可直观地了解当前的语言学习状况,有助于提高辅助学习效率。
进一步的,在本实施例中,如图2所示,该步骤130包括:
步骤131,侦听得到了目标语音数据的播放停止消息。
本实施例中,对目标语音数据的播放进行侦听,以实时获知该目标语音数据的播放情况,以快速响应。具体的,目标语音数据触发的播放停止之后生成播放停止消息,并输出,从而得以侦听得到目标语音数据的播放停止消息。
步骤133,根据播放停止消息触发进行语音识别,以开启语音识别对应的语音输入通道。
本实施例中,在获取得到了播放停止消息时立即触发语音识别过程,以开启对应的语音输入通道。
在一个实施例中,上述步骤150之前,该方法还包括:
通过开启的语音输入通道进行语音音频信号的输入,并转换为语音数据。
本实施例中,该语音输入通道可由麦克风提供,以麦克风作为输入组件对当前的语音进行采集,并以语音音频信号的形式输入,并相应转换为语音数据,例如,该语音数据可以是wav格式的文件。
在一个实施例中,如图3所示,上述步骤150包括:
步骤151,根据语音数据在预设的语音数据样本中定位得到了目标语音数据。
本实施例中,触发开启的语音识别除了为用户提供语音输入通道之外,还需要对输入的语音数据进行内容识别,以获知用户是否按照播放的目标语音数据输入相应的语音数据,若根据输入的语音数据在预设的语音样本中定位得到目标语音数据,则说明当前用户是按照播放的目标语音数据进行朗读的。
具体的,预设了大量语音数据样本,并存储于数据库中,通过对数据库中语音数据样本与输入的语音数据的逐一比对,以得到了与输入的语音数据最为相似的语音数据样本,判断该语音数据样本是否为目标语音数据,若为是,则定位到了目标语音数据。
例如,对数据库中存储的大量语音数据样本,逐一计算其与输入的语音数据之间的相似度,并将得到相似度按照大小顺序进行排序,以得到了最大相似度,进而得到了该最大相似度所对应的语音数据样本。
此时,将判断该最大相似度所对应的语音数据样本是否为目标语音数据,若为是,则在众多的语音数据样本中定位得到了目标语音数据,进而说明当前用户所进行的朗读是正确的,可对其输入的语音进行重放。
进一步的,在依据输入的语音数据在预设的语音数据样本中定位得到目标语音数据时,将以文件名字为索引进行输入的语音数据的存储,以供后续播放过程中再次读取并播放。
此外,预设的语音数据样本也可在用户的使用过程中不断积累语音数据样本,以不断增加语音识别的准确率。
步骤153,播放与目标语音数据匹配的语音数据,以对目标语音数据相匹配的语音输入进行重放。
进一步的,在本实施例中,该步骤153的具体过程为:根据预设的声音效果对与目标语音数据匹配的语音数据进行变声后播放。
预先设置了若干种声音效果,因此,可根据用户预先所选取的声音效果,对与目标语音数据匹配的语音数据进行变声处理,例如,可对与目标语音数据匹配的语音数据进行语调提高的变声处理,以使得语音数据在播放过程中提高语调而达到变声的效果。
具体的,通过预先设置的声音效果,将改变输入声音频率,进而改变音色和单调,使得输出声音在感官上有所不同。
通过如上所述的语音输入的内容跟读过程,避免了用户不断地打开、关闭麦克风的频繁操作,使得用户可专利到了语言学习的听和说两个部分,进而有助于提高其语言学习的辅助效果。
上述语音输入的内容跟读方法将运行于用户所使用的各种终端设备中,并在触发启动时,依照如上所述的过程进行跟读,并随着用户的意愿持续进行。
在一个实施例中,还相应地提供了一种语音输入的内容跟读装置,如图4所示,包括:目标语音播放模块410、识别触发模块430和重放处理模块450。
目标语音播放模块410,用于触发播放预设的目标语音数据。
本实话例中,目标语音数据为用户当前所进行跟读的单词、词组或者句子。预先设置了大量的语音数据,以供用户针对任一内容进行跟读,而目标语音数据则是预先设置的大量语音数据中当前所选定的语音数据。
目标语音播放模块410根据当前跟读的进度或者用户对跟读内容的选取,将得到目标语音数据,并直接对其进行播放,以供用户在收听后获知当前跟读内容的发音。
进一步的,目标语音数据的播放也是可通过电子宠物变声的形式实现,以表现形式的丰富性和趣味性。
识别触发模块430,用于待目标语音数据播放结束触发开启语音识别,以待输入语音数据。
本实施例中,目标语音数据的播放结束时识别触发模块430将直接触发开启语音识别,该语音识别除了提供相应的识别算法之外,还提供了相应的输入通道和输出通道,其中,该输入通道用于实现语音数据的输入,而输出通道则相应的语音识别结果。
由此可知,语音识别的开启将意味着输入通道的开通。例如,该输入通道可由麦克风实现,以麦克风为输入组件来进行语音输入,因此,随着语音识别的触发开启,麦克风也是将相应开启,以等待用户输入语音,而不需要用户进行任何手动操作。
基于此,随着目标语音数据的播放完毕,语音识别的触发开启将触发开启麦克风,进而可直接进行语音输入。
重放处理模块450,用于根据目标语音数据对语音数据进行重放处理。
本实话例中,重放处理模块450以播放的目标语音数据为依据来确定是否执行输入的语音数据的播放,对用户当前所进行的语音输入进行重现,对于当前通过跟读时行语言学习的用户而言,可直观地了解当前的语言学习状况,有助于提高辅助学习效率。
进一步的,在本实施例中,如图5所示,该识别触发模块430包括侦听单元431和语音识别开启单元433。
侦听单元431,用于侦听得到目标语音数据的播放停止消息。
本实施例中,侦听单元431对目标语音数据的播放进行侦听,以实时获知该目标语音数据的播放情况,以快速响应。具体的,目标语音数据触发的播放停止之后生成播放停止消息,并输出,从而侦听单元431得以侦听得到目标语音数据的播放停止消息。
语音识别开启单元433,用于根据播放停止消息触发进行语音识别,以开启语音识别对应的语音输入通道。
本实施例中,语音识别开启单元433在获取得到了播放停止消息时立即触发语音识别过程,以开启对应的语音输入通道。
在另一个实施例中,如上所述的装置还包括了信号输入模块。该信号输入模块用于通过开启的语音输入通道进行语音音频信号的输入,并转换为语音数据。
本实施例中,该语音输入通道可由麦克风提供,以麦克风作为输入组件对当前的语音进行采集,并以语音音频信号的形式输入,并相应转换为语音数据,例如,该语音数据可以是wav格式的文件。
在另一个实施例中,如图6所示,该重放处理模块450包括定位单元451和播放单元453。
定位单元451,用于根据语音数据在预设的语音数据样本中定位得到了目标语音数据。
本实施例中,触发开启的语音识别除了为用户提供语音输入通道之外,还需要对输入的语音数据进行内容识别,获知用户是否按照播放的目标语音数据输入相应的语音数据,若根据输入的语音数据在预设的语音样本中定位得到目标语音数据,则说明当前用户是按照播放的目标语音数据进行朗读的。
具体的,预设了大量语音数据样本,并存储于数据库中,定位单元451通过对数据库中语音数据样本与输入的语音数据的逐一比对,以得到了与输入的语音数据最为相似的语音数据样本,判断该语音数据样本是否为目标语音数据,若为是,则定位到了目标语音数据。
例如,对数据库中存储的大量语音数据样本,逐一计算其与输入的语音数据之间的相似度,并将得到相似度按照大小顺序进行排序,以得到了最大相似度,进而得到了该最大相似度所对应的语音数据样本。
此时,定位单元451将判断该最大相似度所对应的语音数据样本是否为目标语音数据,若为是,则在众多的语音数据样本中定位得到了目标语音数据,进而说明当前用户所进行的朗读是正确的,可对其输入的语音进行重放。
进一步的,在依据输入的语音数据在预设的语音数据样本中定位得到目标语音数据时,定位单元451将以文件名字为索引进行输入的语音数据的存储,以供后续播放过程中再次读取并播放。
此外,预设的语音数据样本也可在用户的使用过程中不断积累语音数据样本,以不断增加语音识别的准确率。
播放单元453,用于播放与目标语音数据匹配的语音数据,以对目标语音数据相匹配的语音输入进行重放。
本实施例中,播放单元453进一步用于根据预设的声音效果对与目标语音数据匹配的语音数据进行变声后播放。
预先设置了若干种声音效果,因此,播放单元453可根据用户预先所选取的声音效果,对与目标语音数据匹配的语音数据进行变声处理,例如,播放单元453可对与目标语音数据匹配的语音数据进行语调提高的变声处理,以使得语音数据在播放过程中提高语调而达到变声的效果。
具体的,播放单元453通过预先设置的声音效果,将改变输入声音频率,进而改变音色和单调,使得输出声音在感官上有所不同。
通过如上所述的语音输入的内容跟读过程,避免了用户不断地打开、关闭麦克风的频繁操作,使得用户可专利到了语言学习的听和说两个部分,进而有助于提高其语言学习的辅助效果。
上述语音输入的内容跟读装置将运行于用户所使用的各种终端设备中,并在触发启动时,依照如上所述的过程进行跟读,并随着用户的意愿持续进行。
虽然已参照几个典型实施方式描述了本发明,但应当理解,所用的术语是说明和示例性、而非限制性的术语。由于本发明能够以多种形式具体实施而不脱离发明的精神或实质,所以应当理解,上述实施方式不限于任何前述的细节,而应在随附权利要求所限定的精神和范围内广泛地解释,因此落入权利要求或其等效范围内的全部变化和改型都应为随附权利要求所涵盖。
Claims (10)
1.一种语音输入的内容跟读方法,其特征在于,包括:
触发播放预设的目标语音数据;
待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据;
根据所述目标语音数据对所述语音数据进行重放处理。
2.根据权利要求1所述的方法,其特征在于,所述待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据的步骤包括:
侦听得到所述目标语音数据的播放停止消息;
根据所述播放停止消息触发进行语音识别,以开启所述语音识别对应的语音输入通道。
3.根据权利要求2所述的方法,其特征在于,所述根据所述目标语音数据对所述语音数据进行重放处理的步骤之前,所述方法还包括:
通过开启的所述语音输入通道进行语音音频信号的输入,并转换为所述语音数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标语音数据对所述语音数据进行重放处理的步骤包括:
根据所述语音数据在预设的语音数据样本中定位得到所述目标语音数据;
播放与所述目标语音数据匹配的语音数据,以对与所述目标语音数据相匹配的语音输入进行重放。
5.根据权利要求4所述的方法,其特征在于,所述播放与所述目标语音数据匹配的语音数据的步骤具体为:
根据预设的声音效果对与所述目标语音数据匹配的语音数据进行变声后播放。
6.一种语音输入的内容跟读装置,其特征在于,包括:
目标语音播放模块,用于触发播放预设的目标语音数据;
识别触发模块,用于待所述目标语音数据播放结束触发开启语音识别,以待输入语音数据;
重放处理模块,用于根据所述目标语音数据对所述语音数据进行重放处理。
7.根据权利要求6所述的装置,其特征在于,所述识别触发模块包括:
侦听单元,用于侦听得到所述目标语音数据的播放停止消息;
语音识别开启单元,用于根据所述播放停止消息触发进行语音识别,以开启所述语音识别对应的语音输入通道。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
信号输入模块,用于通过开启的所述语音输入通道进行语音音频信号的输入,并转换为所述语音数据。
9.根据权利要求6所述的装置,其特征在于,所述重放处理模块包括:
定位单元,用于根据所述语音数据在预设的语音数据样本中定位得到所述目标语音数据;
播放单元,用于播放与所述目标语音数据匹配的语音数据,以对所述目标语音数据相匹配的话音输入进行重放。
10.根据权利要求9所述的装置,其特征在于,所述播放单元进一步用于根据预设的声音效果对与所述目标语音数据匹配的语音数据进行变声后播放。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510290145.4A CN105006179A (zh) | 2015-05-29 | 2015-05-29 | 语音输入的内容跟读方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510290145.4A CN105006179A (zh) | 2015-05-29 | 2015-05-29 | 语音输入的内容跟读方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105006179A true CN105006179A (zh) | 2015-10-28 |
Family
ID=54378829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510290145.4A Pending CN105006179A (zh) | 2015-05-29 | 2015-05-29 | 语音输入的内容跟读方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105006179A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469656A (zh) * | 2015-11-23 | 2016-04-06 | 东莞市凡豆信息科技有限公司 | 一种口语学习系统及该系统的运作方法 |
CN105527827A (zh) * | 2016-01-13 | 2016-04-27 | 广东小天才科技有限公司 | 闹钟响铃的方法、装置及智能设备 |
CN105551320A (zh) * | 2016-03-08 | 2016-05-04 | 北京盒子鱼教育科技有限公司 | 一种发音点评方法和系统 |
CN106205652A (zh) * | 2016-07-11 | 2016-12-07 | 广东小天才科技有限公司 | 一种音频跟读评测方法及装置 |
CN106530867A (zh) * | 2016-11-02 | 2017-03-22 | 天津福威科技发展有限公司 | 一种智能化线上教育培训系统 |
CN109712443A (zh) * | 2019-01-02 | 2019-05-03 | 北京儒博科技有限公司 | 一种内容跟读方法、装置、存储介质及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2341245Y (zh) * | 1998-05-22 | 1999-09-29 | 中山市通力电子厂 | 智能声控语言复读、跟读学习机 |
CN2449309Y (zh) * | 2000-09-27 | 2001-09-19 | 王诚 | 全自动电子录放机 |
JP2007180745A (ja) * | 2005-12-27 | 2007-07-12 | Funai Electric Co Ltd | リピータ装置 |
KR20080008027A (ko) * | 2006-07-19 | 2008-01-23 | 삼성전자주식회사 | 음성 신호와 오디오 신호의 동시 처리가 가능한 휴대 단말장치 및 그 방법 |
CN101206898A (zh) * | 2006-12-22 | 2008-06-25 | 微星科技股份有限公司 | 自动断句的复读装置与复读方法 |
CN202446825U (zh) * | 2011-12-20 | 2012-09-26 | 安徽科大讯飞信息科技股份有限公司 | 一种可以跟读的儿童智能语音互动手机玩具 |
-
2015
- 2015-05-29 CN CN201510290145.4A patent/CN105006179A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2341245Y (zh) * | 1998-05-22 | 1999-09-29 | 中山市通力电子厂 | 智能声控语言复读、跟读学习机 |
CN2449309Y (zh) * | 2000-09-27 | 2001-09-19 | 王诚 | 全自动电子录放机 |
JP2007180745A (ja) * | 2005-12-27 | 2007-07-12 | Funai Electric Co Ltd | リピータ装置 |
KR20080008027A (ko) * | 2006-07-19 | 2008-01-23 | 삼성전자주식회사 | 음성 신호와 오디오 신호의 동시 처리가 가능한 휴대 단말장치 및 그 방법 |
CN101206898A (zh) * | 2006-12-22 | 2008-06-25 | 微星科技股份有限公司 | 自动断句的复读装置与复读方法 |
CN202446825U (zh) * | 2011-12-20 | 2012-09-26 | 安徽科大讯飞信息科技股份有限公司 | 一种可以跟读的儿童智能语音互动手机玩具 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469656A (zh) * | 2015-11-23 | 2016-04-06 | 东莞市凡豆信息科技有限公司 | 一种口语学习系统及该系统的运作方法 |
CN105527827A (zh) * | 2016-01-13 | 2016-04-27 | 广东小天才科技有限公司 | 闹钟响铃的方法、装置及智能设备 |
CN105551320A (zh) * | 2016-03-08 | 2016-05-04 | 北京盒子鱼教育科技有限公司 | 一种发音点评方法和系统 |
CN106205652A (zh) * | 2016-07-11 | 2016-12-07 | 广东小天才科技有限公司 | 一种音频跟读评测方法及装置 |
CN106530867A (zh) * | 2016-11-02 | 2017-03-22 | 天津福威科技发展有限公司 | 一种智能化线上教育培训系统 |
CN109712443A (zh) * | 2019-01-02 | 2019-05-03 | 北京儒博科技有限公司 | 一种内容跟读方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200258506A1 (en) | Domain and intent name feature identification and processing | |
CN105006179A (zh) | 语音输入的内容跟读方法和装置 | |
WO2021128741A1 (zh) | 语音情绪波动分析方法、装置、计算机设备及存储介质 | |
CN102568478B (zh) | 一种基于语音识别的视频播放控制方法和系统 | |
US20170140750A1 (en) | Method and device for speech recognition | |
Schalkwyk et al. | “Your word is my command”: Google search by voice: A case study | |
US20210366488A1 (en) | Speaker Identification Method and Apparatus in Multi-person Speech | |
CN107623614A (zh) | 用于推送信息的方法和装置 | |
Sugiura et al. | Rospeex: A cloud robotics platform for human-robot spoken dialogues | |
CN110706707B (zh) | 用于语音交互的方法、装置、设备和计算机可读存储介质 | |
CN110691258A (zh) | 一种节目素材制作方法、装置及计算机存储介质、电子设备 | |
CN110970036A (zh) | 声纹识别方法及装置、计算机存储介质、电子设备 | |
US20220238118A1 (en) | Apparatus for processing an audio signal for the generation of a multimedia file with speech transcription | |
CN114330371A (zh) | 基于提示学习的会话意图识别方法、装置和电子设备 | |
Erro et al. | Personalized synthetic voices for speaking impaired: website and app. | |
Płaza et al. | Call transcription methodology for contact center systems | |
WO2021169825A1 (zh) | 语音合成方法、装置、设备和存储介质 | |
Hao et al. | Typing to Listen at the Cocktail Party: Text-Guided Target Speaker Extraction | |
CN112837688B (zh) | 语音转写方法、装置、相关系统及设备 | |
CN113658599A (zh) | 基于语音识别的会议记录生成方法、装置、设备及介质 | |
Koolagudi et al. | Real life emotion classification using spectral features and gaussian mixture models | |
CN112216270A (zh) | 语音音素的识别方法及系统、电子设备及存储介质 | |
Rohnke et al. | Parallel WaveNet conditioned on VAE latent vectors | |
Si et al. | CNN-BLSTM Based Question Detection from Dialogs Considering Phase and Context Information. | |
Chenchah et al. | Impact of emotion type on emotion recognition through vocal channel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151028 |