CN107767871B - 文本显示方法、终端及服务器 - Google Patents
文本显示方法、终端及服务器 Download PDFInfo
- Publication number
- CN107767871B CN107767871B CN201710947134.8A CN201710947134A CN107767871B CN 107767871 B CN107767871 B CN 107767871B CN 201710947134 A CN201710947134 A CN 201710947134A CN 107767871 B CN107767871 B CN 107767871B
- Authority
- CN
- China
- Prior art keywords
- text
- voice data
- subtitle
- file
- clause
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 109
- 230000001360 synchronised effect Effects 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 30
- 230000011218 segmentation Effects 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明实施例提供一种文本显示方法、终端及服务器,属于语音识别领域。该方法包括:获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址;基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
Description
技术领域
本发明实施例涉及语音识别领域,更具体地,涉及一种文本显示方法、终端及服务器。
背景技术
随着人工智能的浪潮席卷全球,越来越多的企业开始研究人工智能。在众多人工智能技术当中,语音交互技术作为最自然的人机交互技术得到了迅猛的发展,使用语音交互技术的产品层出不穷,如智能玩具、智能手表、语音助手、智能机器人等。另外,目前互联网上还存在一些提供语音转文本的服务。语音数据在转化为文本文件后,用户通常需要浏览文本文件以验证转化结果。因此,如何显示文本文件中的文本是人们关注的问题。
相关技术中通常是将语音数据对应的音频文件以及语音转文本后的文本文件发送给用户,也即将两个独立的文件发送给用户,用户直接打开文本文件以显示文本,并同时打开音频文件以播放语音数据,以验证转化结果。由于用户在关注语音播放进度的同时,还需要操作文本文件浏览语音播放进度所对应的文本内容,以实现音字对应,从而显示文本的过程不太方便,用户体验差。
发明内容
为了解决上述问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的文本显示方法、终端及服务器。
根据本发明实施例的第一方面,提供了一种文本显示方法,该方法包括:
获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
本发明实施例提供的方法,通过获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址。基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
另外,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。
结合第一方面的第一种可能的实现方式,在第三种可能的实现方式中,基于音频文件地址下载并播放语音数据,包括:
将本地语音播放器对应的音频标签的地址更新为音频文件地址,以使得本地语音播放器按照音频文件地址下载并播放语音数据。
结合第一方面的第一种可能的实现方式,基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕,包括:
基于文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中;其中,每条字幕对应一组字幕文本标签;
按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。
结合第一方面的第一种可能的实现方式,在第五种可能的实现方式中,该方法还包括:
若检测到对任一条字幕的点击操作,根据任一条字幕对应的播放时间段确定任一条字幕对应的起始播放时刻,并按照任一字幕对应的起始播放时刻重新定位语音数据的播放进度,以使得语音数据从定位后的播放进度开始播放。
结合第一方面的第一种可能的实现方式,在第六种可能的实现方式中,该方法还包括:
若检测到对任一条字幕的编辑指令且任一条字幕具有编辑权限,则根据编辑指令更改任一条字幕的文本内容。
结合第一方面的第一种可能的实现方式,在第七种可能的实现方式中,该方法还包括:
若检测到语音数据的播放进度发生改变,则根据语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。
根据本发明实施例的第二方面,提供了一种文本显示方法,该方法包括:
获取终端提交的用于获取资源文件的资源文件地址;
根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。
结合第二方面的第二种可能的实现方式,在第三种可能的实现方式中,该方法还包括:
基于语音数据对应的唯一标识及语音数据的存储目录,生成音频文件地址,基于文本文件的存储目录,生成文本文件地址。
结合第二方面的第一种可能的实现方式,在第四种可能的实现方式中,该方法还包括:
对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段,每一分句对应的播放时间段为每一分句在语音数据中对应的起始播放时刻与结束播放时刻;
基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。
结合第二方面的第四种可能的实现方式,在第五种可能的实现方式中,对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段,包括:
对文本数据进行分词处理,获取分词列表,并确定分词列表中的每一词语元素在语音数据中对应的起始播放时刻及结束播放时刻,每一词语元素为分词或标点符号;
依次遍历分词列表中的每一词语元素,按照遍历结果获取文本数据对应的分句;
按照每一分句中的词语元素在语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式中,依次遍历分词列表中的每一词语元素,按照遍历结果获取文本数据对应的分句,包括:
若当前遍历到的词语元素为第一个词语元素,或者当前遍历到的词语元素为分词且上一个遍历到的词语元素为标点符号,则创建新的空分句,并依次将当前遍历到的词语元素及后续遍历到的词语元素添加至空分句的句末,直至添加的词语元素为标点符号,以得到对应包含有词语元素的分句,重复上述遍历及得到分句的过程,直至遍历完分词列表中的每一词语元素。
结合第二方面的第五种可能的实现方式,在第七种可能的实现方式中,按照每一分句中的词语元素在语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段,包括:
对于任一分句,将任一分句位于句首的词语元素在语音数据中对应的起始播放时刻作为任一分句在语音数据中对应的起始播放时刻,将任一分句位于句末的词语元素在语音数据中对应的结束播放时刻作为任一分句在语音数据中对应的结束播放时刻。
根据本发明实施例的第三方面,提供了一种文本显示方法,包括:
终端获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器;
服务器根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
服务器向终端返回文本显示对象以及音频文件地址,终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
根据本发明实施例的第四方面,提供了一种终端,包括:
提交模块,用于获取资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
播放模块,用于基于音频文件地址下载并播放语音数据;
显示模块,用于基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
根据本发明实施例的第五方面,提供了一种服务器,包括:
第一获取模块,用于获取终端提交的用于获取资源文件的资源文件地址;
第二获取模块,用于根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
返回模块,用于向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
根据本发明实施例的第六方面,提供了一种终端,包括:
至少一个处理器;以及
与处理器通信连接的至少一个存储器,其中:
存储器存储有可被处理器执行的程序指令,处理器调用程序指令能够执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的文本显示方法。
根据本发明实施例的第七方面,提供了一种服务器,包括:
至少一个处理器;以及
与处理器通信连接的至少一个存储器,其中:
存储器存储有可被处理器执行的程序指令,处理器调用程序指令能够执行第二方面的各种可能的实现方式中任一种可能的实现方式所提供的文本显示方法。
根据本发明的第八方面,提供了一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行第一方面的各种可能的实现方式中任一种可能的实现方式所提供的文本显示方法。
根据本发明的第九方面,提供了一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行第二方面的各种可能的实现方式中任一种可能的实现方式所提供的文本显示方法。
应当理解的是,以上的一般描述和后文的细节描述是示例性和解释性的,并不能限制本发明实施例。
附图说明
图1为本发明实施例的一种文本显示方法的流程示意图;
图2为本发明实施例的一种文本显示方法的流程示意图;
图3为本发明实施例的一种文本显示方法的流程示意图;
图4为本发明实施例的一种终端的框图;
图5为本发明实施例的一种服务器的框图;
图6为本发明实施例的一种终端的框图。
具体实施方式
下面结合附图和实施例,对本发明实施例的具体实施方式作进一步详细描述。以下实施例用于说明本发明实施例,但不用来限制本发明实施例的范围。
在众多人工智能技术当中,语音交互技术作为最自然的人机交互技术得到了迅猛的发展,使用语音交互技术的产品层出不穷。另外,还出现了一些提供语音转文本的服务。其中,语音数据在转化为文本文件后,用户通常需要浏览文本文件以验证转化结果。因此,如何显示文本文件中的文本是人们关注的问题。
针对上述情形,本发明实施例提供了一种文本显示方法。该方法可应用于带有语音捕获功能的终端,本发明实施例对此不作具体限定。为了便于描述,本发明实施例以执行主体为终端为例。参见图1,该方法包括:101、获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址;102、基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
在执行上述步骤101之前,用户可先输入语音数据,由终端采集并生成相应的音频文件发送至服务器。或者,用户还可以直接通过终端向服务器上传音频文件。其中,音频文件的音频格式可以为目前的主流格式,如mp3、wav、m4a、pcm等,本发明实施例对此不作具体限定。由于用户可能会上传各种类型的音频格式,服务器为了实现对这些复杂多样的音频格式进行处理,可先通过转码服务对音频进行转码,即将输入的音频格式转码为采样率(每秒从连续声音模拟信号中提取并组成离散数字信号的采样个数)16000,比特率(指每秒传送的比特(bit)数)为256kbps的WAV文件输出。
服务器在转码得到音频文件后,由于存在说话风格、口音、录音质量及环境噪音等诸多影响因素,从而会导致语音转化为文本时面临诸多挑战。为了尽可能克服上述因素对转化准确率的影响,在对语音数据进行识别并转化为文本数据时,本发明实施例可采用深度全序列卷积神经网络(DFCNN,Deep Fully Convolutional Neural Network)进行建模。目前,多数语音识别系统采用的是双向长短时记忆(LSTM,Long Short Term Memory)网络进行建模。LSTM网络虽然能够对语音的长时相关性进行建模以提高识别正确率,但LSTM网络存在训练复杂度高、解码时延高的问题,尤其很难应用于工业界的实时识别系统。
而CNN使用固定长度的帧拼接作为输入,无法看到足够长的语音上下文信息。若将CNN视作一种特征提取器,所用的卷积层数很少,表达能力也很有限。与CNN不同,DFCNN是使用大量的卷积层直接对整句语音信号进行建模。首先,在输入端DFCNN直接将语谱图作为输入,相比其他以传统语音特征作为输入,其语音识别框架具有天然的优势。其次,在模型结构上借鉴了图像识别的网络配置,每个卷积层使用小卷积核,并在多个卷积层之后再加上池化层,通过累积非常多的卷积池化层对,从而可以看到非常长的历史和未来信息。这两点保证了DFCNN可以出色地表达语音的长时相关性,相比RNN结构在鲁棒性上更加出色,同时可以实现短延时的准在线解码,从而可用于工业系统中。
除了通过DFCNN消除各因素的影响之外,由于用户在讲话时存在口语化的问题,为了解决口语与书面语不匹配的问题,在对语音数据进行识别并转化为文本数据时,本发明实施例还集成了口语化和篇章级语言模型处理技术,即在书面语的基础上自动引入回读、倒装、语气词等口语“噪声”现象,从而可自动生成海量口语语料,以解决口语化的问题。首先,收集部分口语文本和书面语文本语料对。其次,使用基于Encoder-Decoder的神经网络框架,建立书面语文本与口语文本之间的对应关系,从而实现了口语文本的自动生成。篇章级语言模型处理技术主要是根据语音识别的解码结果自动进行关键信息抽取,实时进行语料搜索和后处理,用解码结果和搜索到的语料形成特定语音相关的语言模型,从而进一步提高语音转化为文本的准确率。
基于上述过程,服务器在将语音数据转化为文本数据之后,可再将文本数据转化为文本文件。服务器在得到文本文件后,可向终端返回资源文件地址,以供用户后续访问语音数据及文本文件。相应地,用户可以在Web页面中输入用于获取资源文件的资源文件地址,终端在获取到资源文件地址后,可将该资源文件地址提交至服务器。其中,资源文件中可携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,本发明实施例对此不作具体限定。
服务器在接收到资源文件地址后,可返回文本显示对象以及用于获取语音数据的音频文件地址。由于文本文件中包含用户说的每一句话所对应的分句,从而可将文本文件中每一分句作为一条字幕。相应地,文本显示对象中可存储每条字幕以及每条字幕对应的播放时间段。
终端在接收到服务器返回的文本显示对象以及音频文件地址后,可基于音频文件地址从服务器侧下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。其中,上述播放语音数据以及显示文本的过程可以在同一Web页面内实现,本发明实施例对此不作具体限定。另外,Web页面对应的前端可使用HTML5技术,也即可通过HTML5实现音频播放器和文本编辑器的功能,以分别播放语音数据及显示文本,本发明实施例对此不作具体限定。需要说明的是,显示字幕的显示进度与语音数据的播放进度两者同步。
本发明实施例提供的方法,通过获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址。基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
另外,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
由上述实施例的内容可知,资源文件中可携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,以使得服务器在根据资源文件地址获取资源文件后,可根据资源文件返回文本显示对象及音频文件地址。考虑到在第三方应用也可能需要解析资源文件以得到文本文件地址及音频文件地址,从而作为一种可选实施例,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。
例如,一组资源链接标签可以为<link></link>。以音频文件的格式为wav格式为例,携带有音频文件地址的一组资源链接标签可以为<link>http://www.xxx.com/xxx.wav</link>。以文本文件的格式为srt文件为例,携带有文本文件地址的一组资源链接标签可以为<link>http://www.xxx.com/xxx.srt</link>。需要说明的是,文本文件的格式除了为字幕文件srt格式之外,还可以为smi、ssa等格式,本发明实施例对此也不作具体限定。
另外,除了上述列举的资源链接标签之外,资源文件中还可以包括其它类型的标签,如音频用途标签、音频说明标签等,且标签之间可以互相嵌套,本发明实施例对此不作具体限定。例如,一组<title></title>标签可以作为音频说明标签,该组标签内携带的内容可以为音频文件的相关说明,如“2017年6月23日周五项目周会”。一组<description></description>标签还可以作为音频用途标签,该组标签内携带的内容可以用于介绍音频是做什么的,如“会议议题”。
以上述内容为基础,通过标签可以反映音频的各种信息,相关标签说明可参考如下表1:
表1
对于表1中音频的各种信息,资源文件中不同标签对应的具体数据可如下所示:
<item>
<title>2017年6月23日周五项目周会</title>
<link>http://www.xxx.com</link>
<description>会议议题</description>
</item>
其中,<item></item>可作为最外层的一组标签,用于将音频的各种信息与其它类型的信息隔离开。
以文本文件为srt文件,音频文件为audio文件为例,srt文件或者audio文件的各种信息,可通过表2中各个标签进行反映:
表2
对于表2中音频文件的各种信息,资源文件中不同标签对应的具体数据可如下所示:
<item>
<title>audio</title>
<link>http://www.xxx.com/xxx.wav</link>
<description>17年12月2日录制</description>
</item>
其中,<item></item>同样可作为最外层的一组标签,用于将音频的各种信息与其它信息隔离开。<link></link>即为音频文件的一组资源链接标签。
本发明实施例提供的方法,通过在资源文件中以标签的方式携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,第三方应用可直接通过解析标签获取用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址。与此同时,通过标签的形式存储信息还具有易拓展性,后续可拓展存储不同类型的信息。因此,在为第三方应用提供了一种通用接口以方便获取信息的同时,还提高了后续第三方应用的可拓展性。
基于上述实施例的内容,作为一种可选实施例,本发明实施例还提供了一种语音数据的播放方法。本发明实施例不对基于音频文件地址下载并播放语音数据的方式作具体限定,包括但不限于:将本地语音播放器对应的音频标签的地址更新为音频文件地址,以使得本地语音播放器按照音频文件地址下载并播放语音数据。
其中,本地语音播放器可以为Web页面中加载的播放器,本发明实施例对此不作具体限定。例如,若本地语音播放器对应的音频标签为一组<audio></audio>标签,则可将一组<audio></audio>标签中携带的地址更新为音频文件地址“http://www.xxx.com/xxx.wav”,即得到<audio>http://www.xxx.com/xxx.wav</audio>。相应地,本地语音播放器会按照该组标签内的音频文件地址边下载边播放语音数据。
本发明实施例提供的方法,通过将本地语音播放器对应的音频标签的地址更新为待播放的语音数据所对应的音频文件地址,以此实现语音数据的下载播放。由于自动更新音频标签中的音频文件地址即可实现语音数据的下载播放,而不用做其它操作,从而提高了语音数据的播放效率。
基于上述实施例的内容,作为一种可选实施例,本发明实施例还提供了一种字幕的显示方法。本发明实施例不对基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕的方式作具体限定,包括但不限于:基于文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中;其中,每条字幕对应一组字幕文本标签;按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。
例如,以每条字幕对应的字幕文本标签为<Text></Text>,播放时间段由起始播放时刻和结束播放时刻组成为例。对于文本内容为“大家好”的这条字幕,若该条字幕的起始播放时刻为210,结束播放时刻为840,则该字幕对应的字幕文本标签可以为<Text start_Time=210,end_Time=840>大家好</Text>。其中,210表示语音数据从0毫秒开始播放并计时,播放至该条字幕对应的语音数据时所对应的累积毫秒数。840表示语音数据从0毫秒开始播放并计时,播放完该条字幕对应的语音数据时所对应的累积毫秒数。
需要说明的是,字幕文本标签对的标签属性除了包含播放时间段之外,还可以包括字体大小、字体颜色等标签属性,以实现个性化定制显示字幕,本发明实施例对此不作具体限定。
本发明实施例提供的方法,通过基于文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中。按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。由于可通过字幕文本标签承载字幕,并可按照标签属性显示每条字幕,以实现个性化定制显示字幕,从而提升了用户视觉体验。
基于上述实施例的内容,考虑到用户需要对语音数据的播放过程进行操控。作为一种可选实施例,本发明实施例还提供了一种播放过程的操控方法,包括但不限于:若检测到对任一条字幕的点击操作,根据任一条字幕对应的播放时间段确定任一条字幕对应的起始播放时刻,并按照任一字幕对应的起始播放时刻重新定位语音数据的播放进度,以使得语音数据从定位后的播放进度开始播放。
其中,点击操作可以为单击操作,也可以为双击操作,本发明实施例对此不作具体限定。另外,为了能够让检测到点击操作,以点击操作为双击操作为例,可以为每条字幕对应的字幕文本标签中添加双击事件以监听双击操作,本发明实施例对此不作具体限定。
例如,基于上述示例中的内容,若检测到用户点击了文本内容为“大家好”这条字幕,而该字幕对应的播放时间段为210毫秒至840毫秒,从而可确定该字幕对应的起始播放时刻为210毫秒,并可将语音数据定位至210毫秒处开始播放。
本发明实施例提供的方法,通过在检测到对任一条字幕的点击操作后,根据该条字幕对应的播放时间段确定任一条字幕对应的起始播放时刻,并按照任一字幕对应的起始播放时刻重新定位语音数据的播放进度,以使得语音数据从定位后的播放进度开始播放。由于用户可根据需求随时对语音数据进行回放或者快进,从而提升了用户操作体验。
基于上述实施例的内容,考虑到用户可能需要对显示的字幕进行编辑,如对字幕进行纠错,从而作为一种可选实施例,本发明实施例还提供了一种字幕的编辑方法,包括但不限于:若检测到对任一条字幕的编辑指令且任一条字幕具有编辑权限,则根据编辑指令更改任一条字幕的文本内容。
其中,字幕是否具有编辑权限,可通过在字幕文本标签中添加“contenteditable”属性来实现,本发明实施例对此不作具体限定。当该属性的值为“true”时,则对应的字幕为可编辑。当该属性的值为“false”时,则对应的字幕为不可编辑。另外,编辑指令中可以包含字幕更改后的文本内容。需要说明的是,在对字幕进行编辑时,可以基于文本框的形式手动编辑,本发明实施例不对编辑字幕的方式作具体限定。
本发明实施例提供的方法,通过在检测到对任一条字幕的编辑指令且该条字幕具有编辑权限,则根据编辑指令更改该条字幕的文本内容。由于用户可实时对显示的字幕进行修改,以便于用户对字幕进行纠错或个性化编辑,从而提升了用户操作体验。
基于上述实施例的内容,考虑到用户除了通过点击显示字幕的方式来操控语音数据的播放进度之外,还可能会直接操控语音数据的播放进度,从而作为一种可选实施例,本发明实施例在用户直接操控语音数据的播放进度后,还提供了一种字幕显示方法,包括但不限于:若检测到语音数据的播放进度发生改变,则根据语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。
其中,语音数据的播放进度可通过播放的累积毫秒数来表示。若播放进度是通过进度条的方式来展示,则用户可通过拖动进度条以实现播放进度的操控。另外,在查找改变后的播放进度所对应的字幕时,可确定改变后的播放进度处于哪条字幕所对应的播放时间段内,从而确定对应的字幕。
例如,语音数据的播放过程以从0毫秒处开始计时,若持续播放了240毫秒,则当前的播放进度为240毫秒。若检测到语音数据的播放进度由240毫秒变为了220毫秒,而“大家好”这条字幕的播放时间段为210毫秒~840毫秒,从而可确定改变后的播放进度220毫秒处于播放时间段210毫秒~840毫秒内。因此,可确定查找到的字幕为“大家好”这条字幕,并可对该字幕进行高亮显示。
本发明实施例提供的方法,通过在检测到语音数据的播放进度发生改变时,则根据语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。由于用户在操控改变播放进度的同时,可自动定位至改变后的播放进度所对应的字幕,并对字幕进行高亮显示,从而在满足音字同步的同时,方便用户快速定位至当前播放进度所匹配的字幕。
需要说明的是,上述所有可选实施例,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
基于上述实施例的内容,本发明实施例提供了一种文本显示方法。该方法可应用于服务器或系统,本发明实施例对此不作具体限定。为了便于描述,本发明实施例以执行主体为服务器为例,具体可以为使用tomcat+spring技术所搭建的Web服务器,本发明实施例对此不作具体限定。参见图2,该方法包括:201、获取终端提交的用于获取资源文件的资源文件地址;202、根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址;203、向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
由上述实施例可知,由于文本文件中包含用户说的每一句话所对应的分句,从而可将文本文件中每一分句作为一条字幕。相应地,文本显示对象中可用于存储每条字幕以及每条字幕对应的播放时间段。另外,资源文件中可携带有用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址。
基于上述内容,本发明实施例不对服务器根据资源文件,获取文本显示对象的方式作具体限定,包括但不限于:基于资源文件中文本文件的链接地址,获取文本文件;基于文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,创建文本显示对象。其中,文本显示对象可以为List对象,本发明实施例对此不作具体限定。相应地,每条字幕以及每条字幕对应的播放时间段可对应存储至List对象中。基于List对象,可便于后续以列表的形式逐条显示字幕。
服务器在获取文本显示对象以及音频文件地址后,可向终端返回文本显示对象以及音频文件地址,从而终端可基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。其中,具体播放及显示的过程可参考上述实施例的内容,此处不再赘述。
本发明实施例提供的方法,通过获取终端提交的用于获取资源文件的资源文件地址。根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址。向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
另外,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
由上述实施例的内容可知,资源文件中可携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,以使得服务器在根据资源文件地址获取资源文件后,可根据资源文件返回文本显示对象及音频文件地址。考虑到在第三方应用也可能需要解析资源文件以得到文本文件地址及音频文件地址,从而作为一种可选实施例,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。其中,关于标签的具体说明可参考上述实施例中的内容,此处不再赘述。
基于上述实施例的内容,本发明实施例还提供了一种文本文件地址及音频文件地址的生成方法,包括但不限于:基于语音数据对应的唯一标识及语音数据的存储目录,生成音频文件地址,基于文本文件的存储目录,生成文本文件地址。
例如,语音数据对应的唯一标识可以作为服务器的存储目录节点,从而语音数据及文本文件可存储在该存储目录节点下。相应地,可根据语音数据对应的文件名以及语音数据在该存储目录节点下对应的完整存储目录,生成音频文件地址。同理,还可生成文本文件地址。
由上述实施例的内容可知,文本文件中每一分句可作为一条字幕,且所有字幕对应的显示进度与语音数据的播放进度同步。由此可见,文本文件为字幕文件,如srt文件、smi文件或ssa文件,本发明实施例对此不作具体限定。以文本文件为srt文件为例,目前通常需要人工设置播放时间段,并在播放时间段输入相应的文本以生成srt文件,生成srt文件的过程不够方便。针对上述情形,基于上述实施例的内容,本发明实施例提供了一种文本文件的生成方法,包括但不限于:对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段;基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。
其中,预设文件格式可以为srt文件,也可以为别的字幕文件格式,本发明实施例对此不作具体限定。由上述实施例的内容可知,每一分句对应的播放时间段即为每一分句在语音数据中对应的起始播放时刻与结束播放时刻,如210毫秒~840毫秒。
本发明实施例不对服务器对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段的方式作具体限定,包括但不限于:对文本数据进行分词处理,获取分词列表,并确定分词列表中的每一词语元素在语音数据中对应的起始播放时刻及结束播放时刻,每一词语元素为分词或标点符号;依次遍历分词列表中的每一词语元素,按照遍历结果获取文本数据对应的分句;按照每一分句中的词语元素在语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段。
例如,若文本数据为{大家好,我叫张三。},则对文本数据进行分词处理可得到分词列表。其中,分词列表由词语元素组成,每一词语元素为分词或标点符号。与此同时,还可确定每一词语元素在语音数据中对应的起始播放时刻及结束播放时刻。若将每一词语元素和每一词语元素对应的起始播放时刻及结束播放时刻通过json串表示,可如下所示:
[{text:“大家”,bg:“210”,ed:“600”},
{text:“好”,bg:“600”,ed:“840”},
{text:“,”,bg:“840”,ed:“840”},
{text:“我”,bg:“840”,ed:“970”},
{text:“叫”,bg:“970”,ed:“1340”},
{text:“张”,bg:“1340”,ed:“1610”},
{text:“三”,bg:“1610”,ed:“1840”},
{text:“。”,bg:“1840”,ed:“1840”}]
在上述json串中,每一text后面即为一个词语元素,如“大家”、“好”、“,”。bg表示词语元素在语音数据中对应的起始播放时刻,ed表示词语元素在语音数据中对应的结束播放时刻。其中,起始播放时刻及结束播放时刻的单位可以均为毫秒。需要说明的是,由于标点符号并非用户讲话的内容,作为词语元素只是为了断句,从而标点符号的起始播放时刻与前面为分词的词语元素所对应的结束播放时刻相同,标点符号的结束播放时刻与起始播放时刻相同。
在确定每一词语元素在语音数据中对应的起始播放时刻及结束播放时刻后,可获取文本数据对应的分句。本发明实施例不对服务器依次遍历分词列表中的每一词语元素,按照遍历结果获取文本数据对应的分句的方式作具体限定,包括但不限于:若当前遍历到的词语元素为第一个词语元素,或者当前遍历到的词语元素为分词且上一个遍历到的词语元素为标点符号,则创建新的空分句,并依次将当前遍历到的词语元素及后续遍历到的词语元素添加至空分句的句末,直至添加的词语元素为标点符号,以得到对应包含有词语元素的分句,重复上述遍历及得到分句的过程,直至遍历完分词列表中的每一词语元素。
例如,以上述示例中的文本数据为例,若当前遍历到的词语元素为“大家”,由于该词语元素为第一个词语元素,从而可创建新的空分句,并将第一个词语元素“大家”添加至该空分句的句末。从第一个词语元素“大家”开始继续进行遍历,可遍历到的词语元素为“好”,从而可将词语元素“好”添加在该分句的句末。此时,该分句为“大家好”。继续遍历过程,由于后面遍历的词语元素为标点符号“,”,从而将标点符号添加至该分句的句末后,可得到一个完整的分句,即为“大家好,”。重复上述遍历及得到分句的过程,在遍历完分词列表中的每一词语元素后,可得到两个分句,分别为“大家好,”以及“我叫张三。”。
通过上述遍历过程在得到每一分句后,可确定每一分句对应的播放时间段。本发明实施例不对服务器按照每一分句中的词语元素在语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段的方式作具体限定,包括但不限于:对于任一分句,将任一分句位于句首的词语元素在语音数据中对应的起始播放时刻作为任一分句在语音数据中对应的起始播放时刻,将任一分句位于句末的词语元素在语音数据中对应的结束播放时刻作为任一分句在语音数据中对应的结束播放时刻。
例如,以上述示例得到的分句为例。对于第一个分句“大家好,”,该分句中位于句首的词语元素为“大家”,其对应的起始播放时刻为210毫秒。该分句中位于句末的词语元素为“,”,其对应的结束播放时刻为840毫秒。基于上述两者,即可确定第一个分句“大家好,”对应的播放时间段即为210毫秒~840毫秒。
在得到每一分句及每一分句对应的播放时间段后,可基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。例如,以预设文件格式为srt文件为例,生成的文本文件中的内容可如下所示:
00:00:00,210-->00:00:00,840
大家好,
00:00:00,840-->00:00:01,840
我叫张三。
其中,第一行为第二行中分句对应播放时间段,第三行为第四行中分句对应播放时间段。
本发明实施例提供的方法,通过对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段,每一分句对应的播放时间段为每一分句在语音数据中对应的起始播放时刻与结束播放时刻;基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。由于可自动对文本数据进行分句,并确定每一分句对应的播放时间段,以形成字幕形式的文本文件,从而可快捷生成文本文件。
需要说明的是,上述所有可选实施例,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
基于上述实施例的内容,结合终端与服务器的交互过程,本发明实施例提供了一种文本显示方法。参见图3,该方法包括:301、终端获取用于获取资源文件的资源文件地址;302、终端将资源文件地址提交至服务器;303、服务器根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址;304、服务器向终端返回文本显示对象以及音频文件地址;305、终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
其中,终端与服务器各自的方法实现流程可参考上述以终端为执行主体的实施例以及服务器为执行主体的实施例中的内容,此处不再赘述。
本发明实施例提供的方法,终端获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器。服务器根据资源文件地址,向终端返回文本显示对象以及用于获取语音数据的音频文件地址。终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于终端在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
另外,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
基于上述实施例的内容,本发明实施例提供了一种终端,该终端用于执行上述实施例中以终端为执行主体的文本显示方法。参见图4,该终端包括:
提交模块401,用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
第一播放模块402,用于基于音频文件地址下载并播放语音数据;
第一显示模块403,用于基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
作为一种可选实施例,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。
作为一种可选实施例,第一播放模块402,用于将本地语音播放器对应的音频标签的地址更新为音频文件地址,以使得本地语音播放器按照音频文件地址下载并播放语音数据。
作为一种可选实施例,第一显示模块403,用于基于文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中;其中,每条字幕对应一组字幕文本标签;按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。
作为一种可选实施例,该终端还包括:
第二播放模块,用于当检测到对任一条字幕的点击操作时,根据任一条字幕对应的播放时间段确定任一条字幕对应的起始播放时刻,并按照任一字幕对应的起始播放时刻重新定位语音数据的播放进度,以使得语音数据从定位后的播放进度开始播放。
作为一种可选实施例,该终端还包括:
编辑模块,用于当检测到对任一条字幕的编辑指令且任一条字幕具有编辑权限时,则根据编辑指令更改任一条字幕的文本内容。
作为一种可选实施例,该终端还包括:
第二显示模块,用于当检测到语音数据的播放进度发生改变时,则根据语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。
本发明实施例提供的终端,通过获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址。基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
第二,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
第三,通过在资源文件中以标签的方式携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,第三方应用可直接通过解析标签获取用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址。与此同时,通过标签的形式存储信息还具有易拓展性,后续可拓展存储不同类型的信息。因此,在为第三方应用提供了一种通用接口以方便获取信息的同时,还提高了后续第三方应用的可拓展性。
第四,通过将本地语音播放器对应的音频标签的地址更新为待播放的语音数据所对应的音频文件地址,以此实现语音数据的下载播放。由于自动更新音频标签中的音频文件地址即可实现语音数据的下载播放,而不用做其它操作,从而提高了语音数据的播放效率。
第五,通过基于文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中。按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。由于可通过字幕文本标签承载字幕,并可按照标签属性显示每条字幕,以实现个性化定制显示字幕,从而提升了用户视觉体验。
第六,通过在检测到对任一条字幕的点击操作后,根据该条字幕对应的播放时间段确定任一条字幕对应的起始播放时刻,并按照任一字幕对应的起始播放时刻重新定位语音数据的播放进度,以使得语音数据从定位后的播放进度开始播放。由于用户可根据需求随时对语音数据进行回放或者快进,从而提升了用户操作体验。
第七,通过在检测到对任一条字幕的编辑指令且该条字幕具有编辑权限,则根据编辑指令更改该条字幕的文本内容。由于用户可实时对显示的字幕进行修改,以便于用户对字幕进行纠错或个性化编辑,从而提升了用户操作体验。
第八,通过在检测到语音数据的播放进度发生改变时,则根据语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。由于用户在操控改变播放进度的同时,可自动定位至改变后的播放进度所对应的字幕,并对字幕进行高亮显示,从而在满足音字同步的同时,方便用户快速定位至当前播放进度所匹配的字幕。
基于上述实施例的内容,本发明实施例提供了一种服务器,该服务器用于执行上述实施例中以服务器为执行主体的文本显示方法。参见图5,该服务器包括:
第一获取模块501,用于获取终端提交的用于获取资源文件的资源文件地址;
第二获取模块502,用于根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;
返回模块503,用于向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
作为一种可选实施例,资源文件中至少包括语音数据的一组资源链接标签和文本文件的一组资源链接标签;语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,文本文件的一组资源链接标签内携带有用于获取文本文件的文本文件地址。
作为一种可选实施例,该服务器还包括:
第一生成模块,用于基于语音数据对应的唯一标识及语音数据的存储目录,生成音频文件地址,基于文本文件的存储目录,生成文本文件地址。
作为一种可选实施例,该服务器还包括:
第三获取模块,用于对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段,每一分句对应的播放时间段为每一分句在语音数据中对应的起始播放时刻与结束播放时刻;
第二生成模块,用于基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。
作为一种可选实施例,第三获取模块,包括:
分词单元,用于对文本数据进行分词处理,获取分词列表,并确定分词列表中的每一词语元素在语音数据中对应的起始播放时刻及结束播放时刻,每一词语元素为分词或标点符号;
遍历单元,用于依次遍历分词列表中的每一词语元素,按照遍历结果获取文本数据对应的分句;
确定单元,用于按照每一分句中的词语元素在语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段。
作为一种可选实施例,遍历单元,用于在当前遍历到的词语元素为第一个词语元素,或者当前遍历到的词语元素为分词且上一个遍历到的词语元素为标点符号时,则创建新的空分句,并依次将当前遍历到的词语元素及后续遍历到的词语元素添加至空分句的句末,直至添加的词语元素为标点符号,以得到对应包含有词语元素的分句,重复上述遍历及得到分句的过程,直至遍历完分词列表中的每一词语元素。
作为一种可选实施例,确定单元,用于对于任一分句,将任一分句位于句首的词语元素在语音数据中对应的起始播放时刻作为任一分句在语音数据中对应的起始播放时刻,将任一分句位于句末的词语元素在语音数据中对应的结束播放时刻作为任一分句在语音数据中对应的结束播放时刻。
本发明实施例提供的服务器,通过获取终端提交的用于获取资源文件的资源文件地址。根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址。向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕。由于在显示语音数据转化后的文本时,是通过字幕的形式进行显示,且字幕的显示进度与语音数据的播放进度同步,从而不需要用户手动浏览文本以实现音字同步。因此,文本显示过程比较方便,提升了用户阅读体验。
第二,由于用户只需要在Web页面中输入资源文件地址,而不需要基于分别独立的文本文件及音频文件,即可实现与语音数据播放进度同步的文本显示过程,从而用户后续在互联网中传播语音及文本数据时,只需分享资源文件地址即可,而不需要分享两个独立的文件。因此,提高了语音及文本数据的传播效率,便捷了用户分享语音及文本数据,提升了用户分享体验。
第三,通过在资源文件中以标签的方式携带用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址,第三方应用可直接通过解析标签获取用于获取文本文件的文本文件地址及用于获取语音数据的音频文件地址。与此同时,通过标签的形式存储信息还具有易拓展性,后续可拓展存储不同类型的信息。因此,在为第三方应用提供了一种通用接口以方便获取信息的同时,还提高了后续第三方应用的可拓展性。
第四,通过对文本数据进行分句处理,获取分句结果,并确定分句结果中每一分句对应的播放时间段,每一分句对应的播放时间段为每一分句在语音数据中对应的起始播放时刻与结束播放时刻;基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。由于可自动对文本数据进行分句,并确定每一分句对应的播放时间段,以形成字幕形式的文本文件,从而可快捷生成文本文件。
本发明实施例提供了一种终端。参见图6,该终端包括:处理器(processor)601、存储器(memory)602和总线603;
其中,处理器601及存储器602分别通过总线603完成相互间的通信;
处理器601用于调用存储器602中的程序指令,以执行上述实施例所提供的文本显示方法,例如包括:获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
本发明实施例提供了一种服务器,该服务器包括:处理器(processor)、存储器(memory)和总线;
其中,处理器及存储器分别通过总线完成相互间的通信;
处理器用于调用存储器中的程序指令,以执行上述实施例所提供的文本显示方法,例如包括:获取终端提交的用于获取资源文件的资源文件地址;根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
本发明实施例提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令使计算机执行上述实施例所提供的文本显示方法,例如包括:获取用于获取资源文件的资源文件地址,并将资源文件地址提交至服务器,以使得服务器根据资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
本发明实施例提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令使计算机执行上述实施例所提供的文本显示方法,例如包括:获取终端提交的用于获取资源文件的资源文件地址;根据资源文件地址,获取资源文件,并根据资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,文本文件由文本数据转化后得到,文本数据由语音数据进行语音识别后得到;向终端返回文本显示对象以及音频文件地址,以使得终端基于音频文件地址下载并播放语音数据,并基于文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与语音数据的播放进度同步。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的信息交互设备等实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分方法。
最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明实施例的保护范围。凡在本发明实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (21)
1.一种文本显示方法,其特征在于,包括:
获取用于获取资源文件的资源文件地址,并将所述资源文件地址提交至服务器,以使得所述服务器根据所述资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,所述文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,所述文本文件由文本数据转化后得到,所述文本数据由所述语音数据进行语音识别后得到;
基于所述音频文件地址下载并播放所述语音数据,并基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与所述语音数据的播放进度同步;
其中,所述资源文件携带用于获取所述文本文件的文本文件地址及用于获取所述语音数据的音频文件地址。
2.根据权利要求1所述的方法,其特征在于,所述资源文件中至少包括所述语音数据的一组资源链接标签和所述文本文件的一组资源链接标签;所述语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,所述文本文件的一组资源链接标签内携带有用于获取所述文本文件的文本文件地址。
3.根据权利要求1所述的方法,其特征在于,所述基于所述音频文件地址下载并播放所述语音数据,包括:
将本地语音播放器对应的音频标签的地址更新为所述音频文件地址,以使得所述本地语音播放器按照所述音频文件地址下载并播放所述语音数据。
4.根据权利要求1所述的方法,其特征在于,所述基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕,包括:
基于所述文本显示对象,创建每条字幕对应的字幕文本标签,并将每条字幕对应的播放时间段存储至每条字幕对应的字幕文本标签的标签属性中;其中,每条字幕对应一组字幕文本标签;
按照每组字幕文本标签的标签属性,显示每组字幕文本标签对应的字幕。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若检测到对任一条字幕的点击操作,根据所述任一条字幕对应的播放时间段确定所述任一条字幕对应的起始播放时刻,并按照所述任一字幕对应的起始播放时刻重新定位所述语音数据的播放进度,以使得所述语音数据从定位后的播放进度开始播放。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若检测到对任一条字幕的编辑指令且所述任一条字幕具有编辑权限,则根据所述编辑指令更改所述任一条字幕的文本内容。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若检测到所述语音数据的播放进度发生改变,则根据所述语音数据改变后的播放进度及每条字幕对应的播放时间段,查找改变后的播放进度所对应的字幕,并对查找到的字幕进行高亮显示。
8.一种文本显示方法,其特征在于,包括:
获取终端提交的用于获取资源文件的资源文件地址;
根据所述资源文件地址,获取所述资源文件,并根据所述资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,所述文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,所述文本文件由文本数据转化后得到,所述文本数据由所述语音数据进行语音识别后得到;
向所述终端返回所述文本显示对象以及所述音频文件地址,以使得所述终端基于所述音频文件地址下载并播放所述语音数据,并基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与所述语音数据的播放进度同步;
其中,所述资源文件携带用于获取所述文本文件的文本文件地址及用于获取所述语音数据的音频文件地址。
9.根据权利要求8所述的方法,其特征在于,所述资源文件中至少包括所述语音数据的一组资源链接标签和所述文本文件的一组资源链接标签;所述语音数据的一组资源链接标签内携带有用于获取语音数据的音频文件地址,所述文本文件的一组资源链接标签内携带有用于获取所述文本文件的文本文件地址。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
基于所述语音数据对应的唯一标识及所述语音数据的存储目录,生成所述音频文件地址,基于所述文本文件的存储目录,生成所述文本文件地址。
11.根据权利要求8所述的方法,其特征在于,所述方法还包括:
对所述文本数据进行分句处理,获取分句结果,并确定所述分句结果中每一分句对应的播放时间段,所述每一分句对应的播放时间段为每一分句在语音数据中对应的起始播放时刻与结束播放时刻;
基于每一分句及每一分句对应的播放时间段,按照预设文件格式生成文本文件。
12.根据权利要求11所述的方法,其特征在于,所述对所述文本数据进行分句处理,获取分句结果,并确定所述分句结果中每一分句对应的播放时间段,包括:
对所述文本数据进行分词处理,获取分词列表,并确定所述分词列表中的每一词语元素在所述语音数据中对应的起始播放时刻及结束播放时刻,每一词语元素为分词或标点符号;
依次遍历所述分词列表中的每一词语元素,按照遍历结果获取所述文本数据对应的分句;
按照每一分句中的词语元素在所述语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段。
13.根据权利要求12所述的方法,其特征在于,所述依次遍历所述分词列表中的每一词语元素,按照遍历结果获取所述文本数据对应的分句,包括:
若当前遍历到的词语元素为第一个词语元素,或者当前遍历到的词语元素为分词且上一个遍历到的词语元素为标点符号,则创建新的空分句,并依次将当前遍历到的词语元素及后续遍历到的词语元素添加至所述空分句的句末,直至添加的词语元素为标点符号,以得到对应包含有词语元素的分句,重复上述遍历及得到分句的过程,直至遍历完所述分词列表中的每一词语元素。
14.根据权利要求12所述的方法,其特征在于,所述按照每一分句中的词语元素在所述语音数据中对应的起始播放时刻及结束播放时刻,确定每一分句对应的播放时间段,包括:
对于任一分句,将所述任一分句位于句首的词语元素在所述语音数据中对应的起始播放时刻作为所述任一分句在所述语音数据中对应的起始播放时刻,将所述任一分句位于句末的词语元素在所述语音数据中对应的结束播放时刻作为所述任一分句在所述语音数据中对应的结束播放时刻。
15.一种文本显示方法,其特征在于,包括:
终端获取用于获取资源文件的资源文件地址,并将所述资源文件地址提交至服务器;
所述服务器根据所述资源文件地址,获取所述资源文件,并根据所述资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,所述文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,所述文本文件由文本数据转化后得到,所述文本数据由所述语音数据进行语音识别后得到;
所述服务器向所述终端返回所述文本显示对象以及所述音频文件地址,所述终端基于所述音频文件地址下载并播放所述语音数据,并基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与所述语音数据的播放进度同步;
其中,所述资源文件携带用于获取所述文本文件的文本文件地址及用于获取所述语音数据的音频文件地址。
16.一种终端,其特征在于,包括:
提交模块,用于获取资源文件地址,并将所述资源文件地址提交至服务器,以使得所述服务器根据所述资源文件地址,返回文本显示对象以及用于获取语音数据的音频文件地址,所述文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,所述文本文件由文本数据转化后得到,所述文本数据由所述语音数据进行语音识别后得到;
第一播放模块,用于基于所述音频文件地址下载并播放所述语音数据;
显示模块,用于基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与所述语音数据的播放进度同步;
其中,所述资源文件携带用于获取所述文本文件的文本文件地址及用于获取所述语音数据的音频文件地址。
17.一种服务器,其特征在于,包括:
第一获取模块,用于获取终端提交的用于获取资源文件的资源文件地址;
第二获取模块,用于根据所述资源文件地址,获取所述资源文件,并根据所述资源文件,获取文本显示对象以及用于获取语音数据的音频文件地址,所述文本显示对象中包括文本文件中每一分句对应的每条字幕以及每条字幕对应的播放时间段,所述文本文件由文本数据转化后得到,所述文本数据由所述语音数据进行语音识别后得到;
返回模块,用于向所述终端返回所述文本显示对象以及所述音频文件地址,以使得所述终端基于所述音频文件地址下载并播放所述语音数据,并基于所述文本显示对象,按照每条字幕对应的播放时间段显示每条字幕;其中,所有字幕对应的显示进度与所述语音数据的播放进度同步;
其中,所述资源文件携带用于获取所述文本文件的文本文件地址及用于获取所述语音数据的音频文件地址。
18.一种终端,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至7任一所述的方法。
19.一种服务器,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求8至14任一所述的方法。
20.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至7任一所述的方法。
21.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求8至14任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710947134.8A CN107767871B (zh) | 2017-10-12 | 2017-10-12 | 文本显示方法、终端及服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710947134.8A CN107767871B (zh) | 2017-10-12 | 2017-10-12 | 文本显示方法、终端及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767871A CN107767871A (zh) | 2018-03-06 |
CN107767871B true CN107767871B (zh) | 2021-02-02 |
Family
ID=61267977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710947134.8A Active CN107767871B (zh) | 2017-10-12 | 2017-10-12 | 文本显示方法、终端及服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767871B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108965370B (zh) * | 2017-12-05 | 2020-05-08 | 视联动力信息技术股份有限公司 | 插播文本消息的方法、视联网服务器和系统 |
CN109166594A (zh) * | 2018-07-24 | 2019-01-08 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN109605373A (zh) * | 2018-12-21 | 2019-04-12 | 重庆大学 | 基于机器人的语音交互方法 |
CN109672919A (zh) * | 2018-12-26 | 2019-04-23 | 新华三技术有限公司合肥分公司 | 字幕显示方法、装置及用户终端 |
CN110297941A (zh) * | 2019-07-10 | 2019-10-01 | 北京中网易企秀科技有限公司 | 一种音频文件处理方法及装置 |
CN112487219A (zh) * | 2019-09-12 | 2021-03-12 | 西安诺瓦星云科技股份有限公司 | 节目编辑方法、装置及系统和计算机可读存储介质 |
CN110598012B (zh) * | 2019-09-23 | 2023-05-30 | 听典(上海)教育科技有限公司 | 一种音视频播放的方法及多媒体播放装置 |
CN114501106A (zh) * | 2020-08-04 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 一种文稿显示控制方法、装置、电子设备和存储介质 |
CN113886612A (zh) * | 2020-11-18 | 2022-01-04 | 北京字跳网络技术有限公司 | 一种多媒体浏览方法、装置、设备及介质 |
CN113010649B (zh) * | 2021-04-26 | 2022-07-29 | 读书郎教育科技有限公司 | 一种语文生词听写进度的控制系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104301771A (zh) * | 2013-07-15 | 2015-01-21 | 中兴通讯股份有限公司 | 视频文件播放进度的调整方法及装置 |
CN103561217A (zh) * | 2013-10-14 | 2014-02-05 | 深圳创维数字技术股份有限公司 | 一种生成字幕的方法及终端 |
CN104967910B (zh) * | 2014-10-29 | 2018-11-23 | 广州酷狗计算机科技有限公司 | 多媒体播放进度控制方法及装置 |
CN106340294A (zh) * | 2016-09-29 | 2017-01-18 | 安徽声讯信息技术有限公司 | 基于同步翻译的新闻直播字幕在线制作系统 |
CN106504754B (zh) * | 2016-09-29 | 2019-10-18 | 浙江大学 | 一种根据音频输出的实时字幕生成方法 |
CN107220228B (zh) * | 2017-06-13 | 2019-08-16 | 深圳市鹰硕技术有限公司 | 一种教学录播数据修正装置 |
-
2017
- 2017-10-12 CN CN201710947134.8A patent/CN107767871B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107767871A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107767871B (zh) | 文本显示方法、终端及服务器 | |
US10210769B2 (en) | Method and system for reading fluency training | |
CN104050160B (zh) | 一种机器与人工翻译相融合的口语翻译方法和装置 | |
US20180130496A1 (en) | Method and system for auto-generation of sketch notes-based visual summary of multimedia content | |
CN104485105B (zh) | 一种电子病历生成方法和电子病历系统 | |
Hanke et al. | iLex–A database tool for integrating sign language corpus linguistics and sign language lexicography | |
CN115082602B (zh) | 生成数字人的方法、模型的训练方法、装置、设备和介质 | |
US8972265B1 (en) | Multiple voices in audio content | |
US20120276504A1 (en) | Talking Teacher Visualization for Language Learning | |
JP2001014306A (ja) | 電子文書処理方法及び電子文書処理装置並びに電子文書処理プログラムが記録された記録媒体 | |
CN116012481B (zh) | 图像生成处理方法、装置、电子设备及存储介质 | |
CN114827752B (zh) | 视频生成方法、视频生成系统、电子设备及存储介质 | |
CN108563622A (zh) | 一种具有风格多样性的绝句生成方法及装置 | |
CN111444725B (zh) | 语句的生成方法、装置、存储介质和电子装置 | |
CN112231015B (zh) | 一种基于浏览器的操作指导方法、sdk插件及后台管理系统 | |
JP2023062173A (ja) | ビデオ生成方法及びその装置、ニューラルネットワークのトレーニング方法並びにその装置 | |
CN110059224A (zh) | 投影仪设备的视频检索方法、装置、设备及存储介质 | |
Gutkin et al. | FonBund: A library for combining cross-lingual phonological segment data | |
CN111523069B (zh) | 一种基于3d引擎实现电子书播放3d效果的方法及其系统 | |
CN117436414A (zh) | 演示文稿生成方法、装置、电子设备和存储介质 | |
CN113542797A (zh) | 视频播放中的互动方法、装置及计算机可读存储介质 | |
CN116962787A (zh) | 一种基于视频信息的交互方法、装置、设备及存储介质 | |
CN115994522A (zh) | 文本处理方法、文章生成方法以及文本处理模型训练方法 | |
JP2006236037A (ja) | 音声対話コンテンツ作成方法、装置、プログラム、記録媒体 | |
Beard et al. | MetaFace and VHML: a first implementation of the virtual human markup language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |