CN105702246A - 一种辅助用户进行听写的方法及装置 - Google Patents
一种辅助用户进行听写的方法及装置 Download PDFInfo
- Publication number
- CN105702246A CN105702246A CN201610153276.2A CN201610153276A CN105702246A CN 105702246 A CN105702246 A CN 105702246A CN 201610153276 A CN201610153276 A CN 201610153276A CN 105702246 A CN105702246 A CN 105702246A
- Authority
- CN
- China
- Prior art keywords
- dictation
- content
- declaimer
- user
- mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 18
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 18
- 238000000926 separation method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明适用计算机技术领域,提供了一种辅助用户进行听写的方法及装置,所述方法包括:接收第一用户发布的听写内容,选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性,根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件,根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件,从而实现朗读声音的多样性,提高听写的趣味性,进而提高学生的听写效率。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种辅助用户进行听写的方法及装置。
背景技术
随着计算机技术的发展、人们生活水平的提高,电脑、学习机等学习辅助设备越来越多地被使用、普及,通过这些设备学生用户可在家中自主完成功课复习、完成课后作业等。现有的辅助学生听写的设备只能以系统设定的声音输出,缺少变化和亲和感,且现有的设备无法对听写结果进行校核,学生无法获取听写结果,进而无法及时地复习,加强听写效果,从而导致听写效率和复习效率低下。
发明内容
本发明的目的在于提供一种辅助用户进行听写的方法及装置,旨在解决由于现有技术无法提供一种有效的辅助听写方法,导致听写效率、复习效率低下的问题。
一方面,本发明提供了一种辅助用户进行听写的方法,所述方法包括下述步骤:
接收第一用户发布的听写内容;
选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;
根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件。
另一方面,本发明提供了一种辅助用户进行听写的装置,所述装置包括:
听写内容接收单元,用于接收第一用户发布的听写内容;
朗读参数选择单元,用于选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
音频生成单元,用于根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;以及
音频播放单元,用于根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件。
在本发明实施例中,在接收来自老师或家长用户发布的听写内容后,选择用于朗读听写内容的朗读者的标识以及朗读者的声音特性,根据朗读者的标识、声音特性以及听写内容的分隔符,使用预设的语音合成算法生成听写内容对应的音频文件,根据音频文件中设置的、与分隔符对应的标识,按照预设的听写间隔播放音频文件,这样,老师或家长可通过终端发布听写内容,而学生则可选择朗读者和朗读者的声音特性,从而在听写过程中实现了朗读声音的多样性,提高了听写的趣味性,进而提高了听写效率。
附图说明
图1是本发明实施例一提供的辅助用户进行听写的方法的实现流程图;
图2是本发明实施例二提供的辅助用户进行听写的方法的实现流程图;
图3是本发明实施例三提供的辅助用户进行听写的装置的结构示意图;以及
图4是本发明实施例四提供的辅助用户进行听写的装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的辅助用户进行听写的方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,接收第一用户发布的听写内容。
在本发明实施例中,执行主体可以是学习设备,其中,学习设备可以为学习机、平板电脑或具有触摸输入或手写笔输入屏幕的便携式设备,第一用户可以为老师用户或家长用户,优选地,第一用户通过移动智能终端发布听写内容,从而可及时、方便地发布听写内容。
在步骤S102中,选择用于朗读听写内容的朗读者的标识以及选择朗读者的声音特性。
在本发明实施例中,朗读者的标识可以为朗读者的姓名,也可以为亲属称谓,例如,老师、父母、哥哥、姐姐的姓名,或者对这些亲属的称谓,例如,哥哥、姐姐、爸爸、妈妈,朗读者声音特性是指用于表示存储的朗读者的声音特征,例如,高兴、激动、生气等情绪下声音类型的特征标识,或者表示快速、平稳等语速方面的声音特征,从而可得到多种情绪下的声音,提高了朗读声音的多样性。
在步骤S103中,根据朗读者的标识、声音特性以及听写内容的分隔符,使用预设的语音合成算法生成听写内容对应的音频文件。
在本发明实施例中,预先要获取朗读者的声音信息,包括朗读者的音量、音调、音色等信息,以用于语音的合成。在具体实施过程中,可通过采集读者在各情绪下或语速下的声音样本,最终端提取朗读者的声音信息。在获取朗读者的声音信息后,建立朗读者的标识、声音特性以及声音信息三者之间的关联关系并存储。这样,可根据朗读者的标识和选择的声音特性获取朗读者的声音信息,进而使用预设的语音合成算法生成听写内容对应的音频文件。其中,预设的语音合成算法可以为线性预测编码方法(LPC)、基音同步叠加方法(PSOLA)等。
在本发明实施例中,在生成音频文件时,应将由分隔符分隔的听写内容各部分逐一转换为对应的音频数据部分,并在每个音频数据部分末尾插入与分隔符对应的分隔标识,以得到音频文件。也就是说,音频文件是由不同听写内容部分对应的音频数据构成,每个部分由预设的分隔标识分隔,这样在用户进行听写时,当检测或输出到分隔标识时,自动停止或暂停播放输出,以给用户预留书写时间,从而提高学习设备的智能化程度。
在步骤S104中,根据音频文件中设置的、与分隔符对应的标识,按照预设的听写间隔播放音频文件。
在本发明实施例中,与分隔符对应的标识即为前述的分隔标识,听写间隔可以在选择用于朗读听写内容的朗读者的标识以及选择朗读者的声音特性时进行设置,听写间隔可以根据听写内容各部分的内容长度进行设置,从而提高听写的效果。
在本发明实施例中,在接收到老师或家长用户通过终端发布的听写内容后,接收学生用户选择的朗读者和朗读者的声音特性,使用预设的语音合成算法生成所述听写内容对应的音频文件,并根据音频文件中设置的、与分隔符对应的标识按照预设的听写间隔播放音频文件,从而实现了朗读声音的多样性,提高了听写的趣味性,进而提高了学生用户的听写效率。
实施例二:
图2示出了本发明实施例二提供的辅助用户进行听写的方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S201中,接收第一用户发布的听写内容。
在步骤S202中,选择用于朗读听写内容的朗读者的标识以及选择朗读者的声音特性。
在步骤S203中,根据朗读者的标识、声音特性以及听写内容的分隔符,使用预设的语音合成算法生成听写内容对应的音频文件。
在步骤S204中,根据音频文件中设置的、与分隔符对应的标识,按照预设的听写间隔播放音频文件。
在本发明实施例中,步骤S201到S204的实施方式可参考前述实施例一中步骤S101到S104的描述,在此不再赘述。
在步骤S205中,接收第二用户的输入内容,将输入内容与听写内容进行对比,输出第二用户的听写结果。
在本发明实施例中,第二用户为听写用户(即学生用户),在接收到第二用户的输入内容后,将输入内容与听写内容进行对比,得到第二用户此次听写的正确率以输入内容中的听写错误内容部分,进而可将正确率和/或听写错误内容部分以及对应的正确内容输出,从而及时、自动地完成听写内容的校核,进而及时向用户反馈听写结果,便于用户及时复习,提高听写的效果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
实施例三:
图3示出了本发明实施例三提供的辅助用户进行听写的装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
听写内容接收单元31,用于接收第一用户发布的听写内容;
朗读参数选择单元32,用于选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
音频生成单元33,用于根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;以及
音频播放单元34,用于根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件。
在本发明实施例中,辅助用户进行听写的装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。该装置各单元的实施方式具体可参考前述实施例一的描述,在此不再赘述。
实施例四:
图4示出了本发明实施例四提供的辅助用户进行听写的装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
在本发明实施例中,辅助用户进行听写的装置包括关联关系建立单元41、听写内容接收单元42、朗读参数选择单元43、音频生成单元44、音频播放单元45以及听写结果输出单元46,其中:
关联关系建立单元41,用于获取所述朗读者的声音信息,建立所述朗读者的标识与所述声音信息的关联关系并存储;
听写内容接收单元42,用于接收第一用户发布的听写内容;
朗读参数选择单元43,用于选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
音频生成单元44,用于根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;
音频播放单元45,用于根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件;以及
听写结果输出单元46,用于接收第二用户的输入内容,将所述输入内容与所述听写内容进行对比,输出所述第二用户的听写结果。
在本发明实施例中,在生成音频文件时,应将由分隔符分隔的听写内容各部分逐一转换为对应的音频数据部分,并在每个音频数据部分末尾插入与分隔符对应的分隔标识,以得到音频文件。也就是说,音频文件是由不同听写内容部分对应的音频数据构成,每个部分由预设的分隔标识分隔,这样在用户进行听写时,当输出或检测到分隔标识时,自动停止或暂停播放输出,以给用户预留书写时间,从而提高学习设备的智能化程度。
因此,优选地,音频生成单元44可包括:
音频生成子单元441,用于根据所述朗读者的标识、所述声音特性,使用预设的语音合成算法将由所述分隔符分隔的听写内容各部分逐一转换为对应的音频数据部分,并在每个音频数据部分末尾插入与所述分隔符对应的分隔标识,以得到所述音频文件。
在本发明实施例中,第二用户为听写用户(即学生用户),在接收到第二用户的输入内容后,将输入内容与听写内容进行对比,得到第二用户此次听写的正确率以输入内容中的听写错误内容部分,进而可将正确率和/或听写错误内容部分以及对应的正确内容输出,从而及时、自动地完成听写内容的校核,进而及时向用户反馈听写结果,便于用户及时复习,提高听写的效果。
因此,优选地,如图所示,听写结果输出单元46可包括:
结果输出子单元461,用于根据所述对比的结果获取所述输入内容中的听写错误内容部分,输出所述听写错误内容部分以及对应的正确内容。
在本发明实施例中,辅助用户进行听写的装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。该装置各单元的实施方式具体可参考前述实施例一的描述,在此不再赘述。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种辅助用户进行听写的方法,其特征在于,所述方法包括下述步骤:
接收第一用户发布的听写内容;
选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;
根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
接收第二用户的输入内容,将所述输入内容与所述听写内容进行对比,输出所述第二用户的听写结果。
3.如权利要求2所述的方法,其特征在于,接收第二用户的输入内容,将所述输入内容与所述听写内容进行对比,输出所述第二用户的听写结果的步骤,包括:
根据所述对比的结果获取所述输入内容中的听写错误内容部分,输出所述听写错误内容部分以及对应的正确内容。
4.如权利要求1所述的方法,其特征在于,接收第一用户发布的听写内容的步骤之前,所述方法还包括:
获取所述朗读者的声音信息,建立所述朗读者的标识与所述声音信息的关联关系并存储。
5.如权利要求1所述的方法,其特征在于,根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件的步骤,包括:
根据所述朗读者的标识、所述声音特性,使用预设的语音合成算法将由所述分隔符分隔的听写内容各部分逐一转换为对应的音频数据部分,并在每个音频数据部分末尾插入与所述分隔符对应的分隔标识,以得到所述音频文件。
6.一种辅助用户进行听写的装置,其特征在于,所述装置包括:
听写内容接收单元,用于接收第一用户发布的听写内容;
朗读参数选择单元,用于选择用于朗读所述听写内容的朗读者的标识以及选择朗读者的声音特性;
音频生成单元,用于根据所述朗读者的标识、所述声音特性以及所述听写内容的分隔符,使用预设的语音合成算法生成所述听写内容对应的音频文件;以及
音频播放单元,用于根据所述音频文件中设置的、与所述分隔符对应的标识,按照预设的听写间隔播放所述音频文件。
7.如权利要求6所述的装置,其特征在于,所述装置还包括:
听写结果输出单元,用于接收第二用户的输入内容,将所述输入内容与所述听写内容进行对比,输出所述第二用户的听写结果。
8.如权利要求7所述的装置,其特征在于,所述听写结果输出单元包括:
结果输出子单元,用于根据所述对比的结果获取所述输入内容中的听写错误内容部分,输出所述听写错误内容部分以及对应的正确内容。
9.如权利要求6所述的装置,其特征在于,所述装置还包括:
关联关系建立单元,用于获取所述朗读者的声音信息,建立所述朗读者的标识与所述声音信息的关联关系并存储。
10.如权利要求6所述的装置,其特征在于,所述音频生成单元包括:
音频生成子单元,用于根据所述朗读者的标识、所述声音特性,使用预设的语音合成算法将由所述分隔符分隔的听写内容各部分逐一转换为对应的音频数据部分,并在每个音频数据部分末尾插入与所述分隔符对应的分隔标识,以得到所述音频文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610153276.2A CN105702246A (zh) | 2016-03-17 | 2016-03-17 | 一种辅助用户进行听写的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610153276.2A CN105702246A (zh) | 2016-03-17 | 2016-03-17 | 一种辅助用户进行听写的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105702246A true CN105702246A (zh) | 2016-06-22 |
Family
ID=56221912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610153276.2A Pending CN105702246A (zh) | 2016-03-17 | 2016-03-17 | 一种辅助用户进行听写的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105702246A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106873936A (zh) * | 2017-01-20 | 2017-06-20 | 努比亚技术有限公司 | 电子设备及信息处理方法 |
CN109635096A (zh) * | 2018-12-20 | 2019-04-16 | 广东小天才科技有限公司 | 一种听写提示方法及电子设备 |
CN109634552A (zh) * | 2018-12-17 | 2019-04-16 | 广东小天才科技有限公司 | 一种应用于听写的报读控制方法及终端设备 |
CN109993999A (zh) * | 2019-03-28 | 2019-07-09 | 广东小天才科技有限公司 | 一种基于书写进度的智能报读方法及电子设备 |
CN111028560A (zh) * | 2019-04-23 | 2020-04-17 | 广东小天才科技有限公司 | 一种学习应用中功能模块的开启方法及电子设备 |
CN111028590A (zh) * | 2019-03-29 | 2020-04-17 | 广东小天才科技有限公司 | 一种听写过程中引导用户书写的方法及学习设备 |
CN111861815A (zh) * | 2020-06-19 | 2020-10-30 | 北京国音红杉树教育科技有限公司 | 一种词听学习中评估用户记忆水平的方法及装置 |
CN111930453A (zh) * | 2020-07-21 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 听写交互方法、装置和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568472A (zh) * | 2010-12-15 | 2012-07-11 | 盛乐信息技术(上海)有限公司 | 说话人可选的语音合成系统及其实现方法 |
CN102723077A (zh) * | 2012-06-18 | 2012-10-10 | 北京语言大学 | 汉语教学语音合成方法及装置 |
CN103020105A (zh) * | 2011-09-27 | 2013-04-03 | 株式会社东芝 | 文档读出支持设备和方法 |
CN105005431A (zh) * | 2015-07-22 | 2015-10-28 | 王玉娇 | 听写设备及其数据处理方法和相关装置 |
CN105304080A (zh) * | 2015-09-22 | 2016-02-03 | 科大讯飞股份有限公司 | 语音合成装置及方法 |
-
2016
- 2016-03-17 CN CN201610153276.2A patent/CN105702246A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102568472A (zh) * | 2010-12-15 | 2012-07-11 | 盛乐信息技术(上海)有限公司 | 说话人可选的语音合成系统及其实现方法 |
CN103020105A (zh) * | 2011-09-27 | 2013-04-03 | 株式会社东芝 | 文档读出支持设备和方法 |
CN102723077A (zh) * | 2012-06-18 | 2012-10-10 | 北京语言大学 | 汉语教学语音合成方法及装置 |
CN105005431A (zh) * | 2015-07-22 | 2015-10-28 | 王玉娇 | 听写设备及其数据处理方法和相关装置 |
CN105304080A (zh) * | 2015-09-22 | 2016-02-03 | 科大讯飞股份有限公司 | 语音合成装置及方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106873936A (zh) * | 2017-01-20 | 2017-06-20 | 努比亚技术有限公司 | 电子设备及信息处理方法 |
CN109634552A (zh) * | 2018-12-17 | 2019-04-16 | 广东小天才科技有限公司 | 一种应用于听写的报读控制方法及终端设备 |
CN109635096A (zh) * | 2018-12-20 | 2019-04-16 | 广东小天才科技有限公司 | 一种听写提示方法及电子设备 |
CN109993999A (zh) * | 2019-03-28 | 2019-07-09 | 广东小天才科技有限公司 | 一种基于书写进度的智能报读方法及电子设备 |
CN111028590A (zh) * | 2019-03-29 | 2020-04-17 | 广东小天才科技有限公司 | 一种听写过程中引导用户书写的方法及学习设备 |
CN111028560A (zh) * | 2019-04-23 | 2020-04-17 | 广东小天才科技有限公司 | 一种学习应用中功能模块的开启方法及电子设备 |
CN111861815A (zh) * | 2020-06-19 | 2020-10-30 | 北京国音红杉树教育科技有限公司 | 一种词听学习中评估用户记忆水平的方法及装置 |
CN111861815B (zh) * | 2020-06-19 | 2024-02-02 | 北京国音红杉树教育科技有限公司 | 一种词听学习中评估用户记忆水平的方法及装置 |
CN111930453A (zh) * | 2020-07-21 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 听写交互方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105702246A (zh) | 一种辅助用户进行听写的方法及装置 | |
US20200294487A1 (en) | Hands-free annotations of audio text | |
CN107507615A (zh) | 界面智能交互控制方法、装置、系统及存储介质 | |
CN109616096A (zh) | 多语种语音解码图的构建方法、装置、服务器和介质 | |
Blanchard et al. | A study of automatic speech recognition in noisy classroom environments for automated dialog analysis | |
CN111785275A (zh) | 语音识别方法及装置 | |
CN109754783A (zh) | 用于确定音频语句的边界的方法和装置 | |
CN104123115A (zh) | 一种音频信息处理方法及电子设备 | |
JP2009506386A (ja) | 対話式ユーザチュートリアルへの、音声エンジン訓練の組込み | |
WO2019169794A1 (zh) | 教学系统中的注释内容显示方法以及装置 | |
CN109492126B (zh) | 一种智能交互方法及装置 | |
CN202871108U (zh) | 一种网络教育播放器 | |
CN108363765B (zh) | 音频段落识别方法以及装置 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN106528715B (zh) | 一种音频内容校核方法及装置 | |
KR101868795B1 (ko) | 음향 효과 제공시스템 | |
CN109213970B (zh) | 笔录生成方法及装置 | |
CN104700831A (zh) | 分析音频文件的语音特征的方法和装置 | |
Lin et al. | Selective HuBERT: Self-Supervised Pre-Training for Target Speaker in Clean and Mixture Speech | |
US20140156256A1 (en) | Interface device for processing voice of user and method thereof | |
WO2022039333A1 (ko) | 단말기의 음성인식 기능과 tts 기능을 이용한 한국어 학습방법 | |
KR200486582Y1 (ko) | 모바일 기기를 이용한 입체적인 독서 시스템 | |
CN113066473A (zh) | 一种语音合成方法、装置、存储介质及电子设备 | |
KR20170129979A (ko) | 음향 효과 제공시스템 | |
Gref | Robust Speech Recognition via Adaptation for German Oral History Interviews |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160622 |
|
RJ01 | Rejection of invention patent application after publication |