CN108289244B - 视频字幕处理方法、移动终端及计算机可读存储介质 - Google Patents
视频字幕处理方法、移动终端及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108289244B CN108289244B CN201711458449.2A CN201711458449A CN108289244B CN 108289244 B CN108289244 B CN 108289244B CN 201711458449 A CN201711458449 A CN 201711458449A CN 108289244 B CN108289244 B CN 108289244B
- Authority
- CN
- China
- Prior art keywords
- audio data
- video file
- video
- subtitle
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4856—End-user interface for client configuration for language selection, e.g. for the menu or subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Abstract
本发明公开了一种视频字幕处理方法,该方法包括:当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据;从所获取的音频数据中识别出对应文字;将识别出的所述文字制作为字幕;将所述字幕导入所述视频文件进行播放。本发明实施例还公开了一种移动终端和计算机可读存储介质。由此,能够根据所述视频文件的音频数据自动添加字幕并提供翻译功能,方便用户观看。
Description
技术领域
本发明涉及视频播放技术领域,尤其涉及一种视频字幕处理方法、移动终端及计算机可读存储介质。
背景技术
随着网络的发展,用户可以从网络获取到越来越多的资讯。例如,可以获取来自各个国家的视频文件。有些原始的视频文件可能没有配置相应字幕,用户观看时会感到不便。尤其是针对外语视频文件或者聋哑人用户,没有字幕更是增加了观看难度。另外,针对外语视频文件,例如美剧、韩剧,目前用户需要观看时一般是等待字幕组为该外语视频文件添加字幕,当用户自己不懂该外语且字幕组未添加字幕时,用户无法顺利观看该视频,造成用户体验不佳。
发明内容
本发明的主要目的在于提出一种视频字幕处理方法及对应的移动终端,旨在解决如何为视频自动添加字幕并提供翻译功能的问题。
为实现上述目的,本发明提供的一种视频字幕处理方法,该方法包括步骤:
当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据;
从所获取的音频数据中识别出对应文字;
将识别出的所述文字制作为字幕;及
将所述字幕导入所述视频文件进行播放。
可选地,该方法在所述将识别出的所述文字制作为字幕的步骤之后还包括步骤:
获取用户当前的语言环境;
判断所述字幕的语种与所述语言环境是否一致;
当不一致时,将所述字幕翻译为所述语言环境对应的语言文字;
将翻译后的字幕导入所述视频文件进行播放。
可选地,所述预设规则包括:每隔第一预设时间从所述视频文件中获取所述预设长度的音频数据,或者每当所述视频文件的播放进度与上一次获取的音频数据的结束时间点的距离等于第二预设时间时,从所述视频文件中获取所述预设长度的音频数据。
可选地,所述从所获取的音频数据中识别出对应文字的步骤具体包括:
从所述音频数据中提取语音数据;
对所述语音数据进行降噪处理;
通过语音识别技术对处理后的所述语音数据进行识别,得到对应的文字。
可选地,所述将识别出的所述文字制作为字幕的步骤具体包括:
根据所述语音数据将所述文字拆分为句子;
获取每个所述句子在所述音频数据中对应的时间节点;
根据所述语音数据的时间节点设置所述每个句子的时间节点;
根据将所述文字拆分得到的所有句子和每个句子设置的时间节点生成字幕文件。
可选地,在根据所述语音数据将所述文字拆分为句子的步骤中,根据所述语音数据的连续片段,将从所述语音数据中识别得到的所述文字拆分为与每个连续片段对应的各个句子。
可选地,所述获取每个所述句子在所述音频数据中对应的时间节点和根据所述语音数据的时间节点设置所述每个句子的时间节点的步骤具体包括:
获取每个句子对应的语音数据连续片段;
从所述音频数据的时间轴中获取每个语音数据连续片段对应的时间节点,所述时间节点包括开始时间点和结束时间点;
将每个句子对应的语音数据连续片段的开始时间点设置为所述句子的开始时间点,将每个句子对应的语音数据连续片段的结束时间点设置为所述句子的结束时间点。
可选地,所述获取用户当前的语言环境的步骤具体包括:
获取播放所述视频文件的移动终端的语言设置信息,根据所述语言设置信息得到所述语言环境。
此外,为实现上述目的,本发明还提出一种移动终端,所述移动终端包括:存储器、处理器、屏幕及存储在所述存储器上并可在所述处理器上运行的视频字幕处理程序,所述视频字幕处理程序被所述处理器执行时实现如上述的视频字幕处理方法的步骤。
进一步地,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有视频字幕处理程序,所述视频字幕处理程序被处理器执行时实现如上述的视频字幕处理方法的步骤。
本发明提出的视频字幕处理方法、移动终端及计算机可读存储介质,能够根据从视频文件中获取的音频数据进行语音识别,得到相应的文字,从而自动生成字幕,添加到所述视频文件中进行同步播放,以方便用户观看所述视频文件。并且,还可以自动获取用户当前的语言环境,从而判断是否需要对所述字幕提供翻译功能,以将所述字幕翻译为所述用户擅长的语种,更加方便用户理解,提升用户体验。
附图说明
图1为实现本发明各个实施例的移动终端的硬件结构示意图;
图2为如图1所示的移动终端的无线通信系统示意图;
图3为本发明第一实施例提出的一种视频字幕处理方法的流程图;
图4为本发明中开启自动字幕功能的操作示意图;
图5为图3中步骤S302的细化流程图;
图6为图3中步骤S304的细化流程图;
图7为本发明第二实施例提出的一种视频字幕处理方法的流程图;
图8为本发明中开启自动翻译功能的操作示意图;
图9为本发明第三实施例提出的一种移动终端的模块示意图;
图10为本发明第四实施例提出的一种视频字幕处理系统的模块示意图;
图11为本发明第五实施例提出的一种视频字幕处理系统的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
WiFi属于短距离无线传输技术,移动终端通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
为了便于理解本发明实施例,下面对本发明的移动终端所基于的通信网络系统进行描述。
请参阅图2,图2为本发明实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的LTE系统,该LTE系统包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
具体地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。其中,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户服务器)2032,其它MME2033,SGW(Serving Gate Way,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。其中,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子系统)或其它IP业务等。
虽然上述以LTE系统为例进行了介绍,但本领域技术人员应当知晓,本发明不仅仅适用于LTE系统,也可以适用于其他无线通信系统,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络系统等,此处不做限定。
基于上述移动终端硬件结构以及通信网络系统,提出本发明方法各个实施例。
本发明提出的一种视频字幕处理方法,用于根据从视频文件中获取的音频数据自动生成字幕,并根据用户当前语言环境提供所述字幕的翻译功能。
实施例一
如图3所示,本发明第一实施例提出一种视频字幕处理方法,该方法包括以下步骤:
S300,当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据。
具体地,所述预设规则可以包括两种方式:每隔第一预设时间(例如5秒钟)从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据,或者每当所述视频文件的播放进度与上一次获取的音频数据的结束时间点的距离等于第二预设时间(例如2秒钟)时,从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据。针对第一种方式,在开启所述视频文件后第一次获取所述音频数据时,所述视频文件暂不播放,待根据第一次获取的所述音频数据生成字幕完成后,再开始播放添加了字幕的视频。因此当第二次获取所述音频数据时,所述视频文件的播放进度还未到达第一次获取的音频数据的结束时间点。针对第二种方式,同样地在第一次获取所述音频数据时所述视频文件暂不播放,待生成字幕完成后再播放,假设所述预设长度为5秒钟,当所述视频文件的播放进度到达3秒钟,即与第一次获取的所述音频数据的结束时间点距离2秒钟时,第二次获取5秒钟的音频数据以生成字幕,以此类推。所述第一预设时间、第二预设时间和预设长度可以根据生成字幕所需要的处理时间进行设置和调整。
值得注意的是,在所述视频文件的播放界面可以设置一个自动生成字幕功能的开启机制,例如设置一个实体或虚拟按钮(参阅图4所示)。当用户通过所述开启机制开启所述自动生成字幕的功能后,执行所述步骤S300和后续的步骤,否则不用自动生成字幕。
S302,从所获取的音频数据中识别出对应文字。
具体地,当获取所述预设长度的音频数据后,需要通过语音识别技术对所述音频数据中包含的语音进行识别,得到所述语音对应的文字,以制作相应字幕。
参阅图5所示,所述步骤S302具体包括:
S3020,从所述音频数据中提取语音数据。
具体地,所述音频数据中除了语音数据(例如对白)外,可能还包括背景音乐等无关内容,因此需要先将语音数据从所述音频数据中提取出来。在本实施例中,可以根据所述音频数据中的频段采用人声声纹检索技术提取所述语音数据。
S3022,对所述语音数据进行降噪处理。
具体地,采用现有的滤波算法对所述语音数据进行降噪处理,例如回声消除、混响处理等,得到更加准确的语音数据。
S3024,通过语音识别技术对处理后的所述语音数据进行识别,得到对应的文字。
具体地,采用语音识别技术对处理后的所述语音数据进行语音识别,包括进行语种识别、特征提取、检索、匹配,并进行上下文语义分析等相关处理,最后得到所述语音数据对应的文字。
回到图3,S304,将识别出的所述文字制作为字幕。
具体地,当根据所述音频数据识别出对应文字后,需要根据所述文字制作相应字幕,其中的核心在于设置所述文字对应的时间节点。
参阅图6所示,所述步骤S304具体包括:
S3040,根据所述语音数据将所述文字拆分为句子。
具体地,可以根据所述语音数据的连续片段,将从所述语音数据中识别得到的文字拆分为与每个连续片段对应的各个句子。例如,假设所述语音数据包含三个连续片段,则相应地将所述文字拆分为分别根据这三个连续片段识别得到的三个句子。
S3042,获取每个所述句子在所述音频数据中对应的时间节点。
具体地,所述音频数据中包含有时间轴,当将所述文字拆分为句子后,首先获取每个句子对应的语音数据连续片段,然后从所述音频数据的时间轴中获取每个语音数据连续片段对应的时间节点。所述时间节点包括开始时间点和结束时间点。例如,针对句子“明天你有什么安排”,首先获取识别出该句子的语音数据连续片段,即“明天你有什么安排”这一句语音,然后从所述音频数据的时间轴中获取这一句语音的开始时间点和结束时间点。
S3044,根据所述语音数据的时间节点设置所述每个句子的时间节点。
具体地,将每个句子对应的语音数据连续片段的开始时间点设置为所述句子的开始时间点,将每个句子对应的语音数据连续片段的结束时间点设置为所述句子的结束时间点,以保证在添加字幕后所述音频数据和所述字幕的播放进度一致。
S3046,生成字幕文件。
具体地,新建一个文件,将所述文字拆分得到的所有句子和每个句子设置的时间节点均保存至所述文件中,即生成了所述音频数据对应的字幕文件。
回到图3,S306,将所述字幕导入所述视频文件进行播放。
具体地,当开始播放所述视频文件时,将所述字幕文件导入所述视频文件中,以使所生成的字幕与所述视频文件同步播放。
本实施例提出的视频字幕处理方法,可以根据从视频文件中获取的音频数据进行语音识别,得到相应的文字,从而自动生成字幕,添加到所述视频文件中进行同步播放,以方便用户观看所述视频文件,提升用户体验。
实施例二
如图7所示,本发明第二实施例提出一种视频字幕处理方法。在第二实施例中,所述视频字幕处理方法的步骤S700-S704与第一实施例的步骤S300-S304相类似,区别在于该方法还包括步骤S706-S712。
该方法包括以下步骤:
S700,当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据。
具体地,所述预设规则可以包括两种方式:每隔第一预设时间(例如5秒钟)从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据,或者每当所述视频文件的播放进度与上一次获取的音频数据的结束时间点的距离等于第二预设时间(例如2秒钟)时,从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据。针对第一种方式,在开启所述视频文件后第一次获取所述音频数据时,所述视频文件暂不播放,待根据第一次获取的所述音频数据生成字幕完成后,再开始播放添加了字幕的视频。因此当第二次获取所述音频数据时,所述视频文件的播放进度还未到达第一次获取的音频数据的结束时间点。针对第二种方式,同样地在第一次获取所述音频数据时所述视频文件暂不播放,待生成字幕完成后再播放,假设所述预设长度为5秒钟,当所述视频文件的播放进度到达3秒钟,即与第一次获取的所述音频数据的结束时间点距离2秒钟时,第二次获取5秒钟的音频数据以生成字幕,以此类推。所述第一预设时间、第二预设时间和预设长度可以根据生成字幕所需要的处理时间进行设置和调整。
值得注意的是,在所述视频文件的播放界面可以设置一个自动生成字幕功能的开启机制,例如设置一个实体或虚拟按钮(参阅图4所示)。当用户通过所述开启机制开启所述自动生成字幕的功能后,执行所述步骤S300和后续的步骤,否则不用自动生成字幕。
S702,从所获取的音频数据中识别出对应文字。
具体地,当获取所述预设长度的音频数据后,需要通过语音识别技术对所述音频数据中包含的语音进行识别,得到所述语音对应的文字,以制作相应字幕。该步骤的具体细化流程参阅图5和所述第一实施例,在此不再赘述。在本实施例中,所述文字与所述语音数据所使用的语种一致。例如,所述语音数据为中文,则所述文字为中文文字;所述语音数据为英文,则所述文字为英文文字。
S704,将识别出的所述文字制作为字幕。
具体地,当根据所述音频数据识别出对应文字后,需要根据所述文字制作相应字幕,其中的核心在于设置所述文字对应的时间节点。该步骤的具体细化流程参阅图6和所述第一实施例,在此不再赘述。
S706,获取用户当前的语言环境。
具体地,为了使用户更好地理解所述视频文件,可以为用户提供自动翻译的功能,以将所述字幕翻译为所述用户能够理解的语言。因此,首先需要获取所述用户当前的语言环境。在本实施例中,可以获取播放所述视频文件的移动终端的语言设置信息。由于每个用户都会将所述移动终端的语言设置为自己擅长的语种,因此根据所述移动终端的语言设置信息,即可得知所述用户当前的语言环境。另外,还可以直接由所述用户根据需要选择所述字幕想要看到的语种,作为所述用户当前的语言环境。
值得注意的是,在所述视频文件的播放界面可以设置一个自动翻译功能的开启机制,例如设置一个实体或虚拟按钮(参阅图8所示)。当用户通过所述开启机制开启所述自动翻译的功能后,执行所述步骤S706和后续的步骤,否则不用对所述字幕进行翻译,直接将通过语音识别得到的字幕导入所述视频文件中播放即可。
S708,判断所述字幕的语种与所述语言环境是否一致。
具体地,首先识别所述字幕对应的语种,然后与所获取的所述语言环境的语种进行对比,判断两者是否一致。若一致,则不需要对所述字幕进行翻译,直接可以将所述字幕添加到所述视频文件中进行播放。
S710,当不一致时,将所述字幕翻译为所述语言环境对应的语言文字。
具体地,当判断出所述字幕的语种与所述语言环境不一致时,表示所述字幕需要进行翻译。可以采用相应的翻译技术(例如翻译软件)所述字幕翻译为所述语言环境对应的语言文字,得到翻译后的字幕文件。其中,翻译后的语言文字对应的时间节点保持不变。
S712,将翻译后的字幕导入所述视频文件进行播放。
具体地,当开始播放所述视频文件时,将翻译为所述语言环境对应的语言文字后得到的所述字幕文件导入所述视频文件中,以使所生成的字幕与所述视频文件同步播放。
本实施例提出的视频字幕处理方法,可以自动获取用户当前的语言环境,从而判断是否需要对所述字幕提供翻译功能,以将所述字幕翻译为所述用户擅长的语种,更加方便用户理解,提升用户体验。
本发明进一步提供一种移动终端,所述移动终端包括存储器、处理器、屏幕和视频字幕处理系统。所述视频字幕处理系统用于根据从视频文件中获取的音频数据自动生成字幕,并根据用户当前语言环境提供所述字幕的翻译功能。
实施例三
如图9所示,本发明第三实施例提出一种移动终端2。所述移动终端2包括存储器20、处理器22、屏幕26和视频字幕处理系统28。
其中,所述存储器20至少包括一种类型的可读存储介质,用于存储安装于所述移动终端2的操作系统和各类应用软件,例如视频字幕处理系统28的程序代码等。此外,所述存储器20还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器22在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器22通常用于控制所述移动终端2的总体操作。本实施例中,所述处理器22用于运行所述存储器20中存储的程序代码或者处理数据,例如运行所述视频字幕处理系统28等。
所述屏幕26用于进行视频和字幕显示以及接收用户的触摸操作。
实施例四
如图10所示,本发明第四实施例提出一种视频字幕处理系统28。在本实施例中,所述视频字幕处理系统28包括:
获取模块800,用于当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据。
具体地,所述预设规则可以包括两种方式:每隔第一预设时间(例如5秒钟)从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据,或者每当所述视频文件的播放进度与上一次获取的音频数据的结束时间点的距离等于第二预设时间(例如2秒钟)时,从所述视频文件中获取所述预设长度(例如5秒钟)的音频数据。针对第一种方式,在开启所述视频文件后第一次获取所述音频数据时,所述视频文件暂不播放,待根据第一次获取的所述音频数据生成字幕完成后,再开始播放添加了字幕的视频。因此当第二次获取所述音频数据时,所述视频文件的播放进度还未到达第一次获取的音频数据的结束时间点。针对第二种方式,同样地在第一次获取所述音频数据时所述视频文件暂不播放,待生成字幕完成后再播放,假设所述预设长度为5秒钟,当所述视频文件的播放进度到达3秒钟,即与第一次获取的所述音频数据的结束时间点距离2秒钟时,第二次获取5秒钟的音频数据以生成字幕,以此类推。所述第一预设时间、第二预设时间和预设长度可以根据生成字幕所需要的处理时间进行设置和调整。
值得注意的是,在所述视频文件的播放界面可以设置一个自动生成字幕功能的开启机制,例如设置一个实体或虚拟按钮(参阅图4所示)。当用户通过所述开启机制开启所述自动生成字幕的功能后,触发所述获取模块800,否则不用自动生成字幕。
识别模块802,用于从所获取的音频数据中识别出对应文字。
具体地,当获取所述预设长度的音频数据后,需要通过语音识别技术对所述音频数据中包含的语音进行识别,得到所述语音对应的文字,以制作相应字幕。所述识别模块802识别所述文字的具体过程包括:
(1)从所述音频数据中提取语音数据。
具体地,所述音频数据中除了语音数据(例如对白)外,可能还包括背景音乐等无关内容,因此需要先将语音数据从所述音频数据中提取出来。在本实施例中,可以根据所述音频数据中的频段采用人声声纹检索技术提取所述语音数据。
(2)对所述语音数据进行降噪处理。
具体地,采用现有的滤波算法对所述语音数据进行降噪处理,例如回声消除、混响处理等,得到更加准确的语音数据。
(3)通过语音识别技术对处理后的所述语音数据进行识别,得到对应的文字。
具体地,采用语音识别技术对处理后的所述语音数据进行语音识别,包括进行语种识别、特征提取、检索、匹配,并进行上下文语义分析等相关处理,最后得到所述语音数据对应的文字。
生成模块804,用于将识别出的所述文字制作为字幕。
具体地,当根据所述音频数据识别出对应文字后,需要根据所述文字制作相应字幕,其中的核心在于设置所述文字对应的时间节点。所述生成模块804生成字幕的具体过程包括:
(1)根据所述语音数据将所述文字拆分为句子。
具体地,可以根据所述语音数据的连续片段,将从所述语音数据中识别得到的文字拆分为与每个连续片段对应的各个句子。例如,假设所述语音数据包含三个连续片段,则相应地将所述文字拆分为分别根据这三个连续片段识别得到的三个句子。
(2)获取每个所述句子在所述音频数据中对应的时间节点。
具体地,所述音频数据中包含有时间轴,当将所述文字拆分为句子后,首先获取每个句子对应的语音数据连续片段,然后从所述音频数据的时间轴中获取每个语音数据连续片段对应的时间节点。所述时间节点包括开始时间点和结束时间点。例如,针对句子“明天你有什么安排”,首先获取识别出该句子的语音数据连续片段,即“明天你有什么安排”这一句语音,然后从所述音频数据的时间轴中获取这一句语音的开始时间点和结束时间点。
(3)根据所述语音数据的时间节点设置所述每个句子的时间节点。
具体地,将每个句子对应的语音数据连续片段的开始时间点设置为所述句子的开始时间点,将每个句子对应的语音数据连续片段的结束时间点设置为所述句子的结束时间点,以保证在添加字幕后所述音频数据和所述字幕的播放进度一致。
(4)生成字幕文件。
具体地,新建一个文件,将所述文字拆分得到的所有句子和每个句子设置的时间节点均保存至所述文件中,即生成了所述音频数据对应的字幕文件。
导入模块806,用于将所述字幕导入所述视频文件进行播放。
具体地,当开始播放所述视频文件时,将所述字幕文件导入所述视频文件中,以使所生成的字幕与所述视频文件同步播放。
实施例五
如图11所示,本发明第五实施例提出一种视频字幕处理系统28。在本实施例中,所述视频字幕处理系统28除了包括第五实施例中的所述接收模块800、识别模块802、生成模块804、导入模块806之外,还包括判断模块808、翻译模块810。
所述获取模块800,还用于获取用户当前的语言环境。
具体地,为了使用户更好地理解所述视频文件,可以为用户提供自动翻译的功能,已将所述字幕翻译为所述用户能够理解的语言。因此,首先需要获取所述用户当前的语言环境。在本实施例中,可以获取播放所述视频文件的所述移动终端2的语言设置信息。由于每个用户都会将所述移动终端2的语言设置为自己擅长的语种,因此根据所述移动终端2的语言设置信息,即可得知所述用户当前的语言环境。另外,还可以直接由所述用户根据需要选择所述字幕想要看到的语种,作为所述用户当前的语言环境。
值得注意的是,在所述视频文件的播放界面可以设置一个自动翻译功能的开启机制,例如设置一个实体或虚拟按钮(参阅图8所示)。当用户通过所述开启机制开启所述自动翻译的功能后,触发所述获取模块800,否则不用对所述字幕进行翻译,直接将通过语音识别得到的字幕导入所述视频文件中播放即可。
所述判断模块808,用于判断所述字幕的语种与所述语言环境是否一致。
具体地,首先识别所述字幕对应的语种,然后与所获取的所述语言环境的语种进行对比,判断两者是否一致。若一致,则不需要对所述字幕进行翻译,直接可以将所述字幕添加到所述视频文件中进行播放。
所述翻译模块810,用于当不一致时,将所述字幕翻译为所述语言环境对应的语言文字。
具体地,当判断出所述字幕的语种与所述语言环境不一致时,表示所述字幕需要进行翻译。可以采用相应的翻译技术(例如翻译软件)所述字幕翻译为所述语言环境对应的语言文字,得到翻译后的字幕文件。其中,翻译后的语言文字对应的时间节点保持不变。
所述导入模块806,还用于将翻译后的字幕导入所述视频文件进行播放。
具体地,当开始播放所述视频文件时,将翻译为所述语言环境对应的语言文字后得到的所述字幕文件导入所述视频文件中,以使所生成的字幕与所述视频文件同步播放。
实施例六
本发明还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有视频字幕处理程序,所述视频字幕处理程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的视频字幕处理方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (6)
1.一种视频字幕处理方法,其特征在于,该方法包括步骤:
当开启视频文件时,按预设规则从所述视频文件中获取预设长度的音频数据;
从所获取的音频数据中识别出对应文字;
将识别出的所述文字制作为字幕;及
将所述字幕导入所述视频文件进行播放;
其中,所述预设规则包括:每隔第一预设时间从所述视频文件中获取所述预设长度的音频数据,或者每当所述视频文件的播放进度与上一次获取的音频数据的结束时间点的距离等于第二预设时间时,从所述视频文件中获取所述预设长度的音频数据;
其中,在所述将识别出的所述文字制作为字幕的步骤之后还包括步骤:
获取用户当前的语言环境;
判断所述字幕的语种与所述语言环境是否一致;
当不一致时,将所述字幕翻译为所述语言环境对应的语言文字;
将翻译后的字幕导入所述视频文件进行播放;
其中,所述获取用户当前的语言环境的步骤具体包括:
获取播放所述视频文件的移动终端的语言设置信息,根据所述语言设置信息得到所述语言环境;和/或
获取用户选择的字幕语种信息,根据所述字幕语种信息得到所述语言环境;
其中,所述将识别出的所述文字制作为字幕的步骤具体包括:
从所述音频数据中提取语音数据;
根据所述语音数据将所述文字拆分为句子;
获取每个所述句子在所述音频数据中对应的时间节点;
根据所述语音数据的时间节点设置所述每个句子的时间节点;
根据将所述文字拆分得到的所有句子和每个句子设置的时间节点生成字幕文件。
2.根据权利要求1所述的视频字幕处理方法,其特征在于,所述从所获取的音频数据中识别出对应文字的步骤具体包括:
从所述音频数据中提取语音数据;
对所述语音数据进行降噪处理;
通过语音识别技术对处理后的所述语音数据进行识别,得到对应的文字。
3.根据权利要求1所述的视频字幕处理方法,其特征在于,在根据所述语音数据将所述文字拆分为句子的步骤中,根据所述语音数据的连续片段,将从所述语音数据中识别得到的所述文字拆分为与每个连续片段对应的各个句子。
4.根据权利要求3所述的视频字幕处理方法,其特征在于,所述获取每个所述句子在所述音频数据中对应的时间节点和根据所述语音数据的时间节点设置所述每个句子的时间节点的步骤具体包括:
获取每个句子对应的语音数据连续片段;
从所述音频数据的时间轴中获取每个语音数据连续片段对应的时间节点,所述时间节点包括开始时间点和结束时间点;
将每个句子对应的语音数据连续片段的开始时间点设置为所述句子的开始时间点,将每个句子对应的语音数据连续片段的结束时间点设置为所述句子的结束时间点。
5.一种移动终端,其特征在于,所述移动终端包括:存储器、处理器、屏幕及存储在所述存储器上并可在所述处理器上运行的视频字幕处理程序,所述视频字幕处理程序被所述处理器执行时实现如权利要求1至4中任一项所述的视频字幕处理方法的步骤。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有视频字幕处理程序,所述视频字幕处理程序被处理器执行时实现如权利要求1至4中任一项所述的视频字幕处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711458449.2A CN108289244B (zh) | 2017-12-28 | 2017-12-28 | 视频字幕处理方法、移动终端及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711458449.2A CN108289244B (zh) | 2017-12-28 | 2017-12-28 | 视频字幕处理方法、移动终端及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108289244A CN108289244A (zh) | 2018-07-17 |
CN108289244B true CN108289244B (zh) | 2021-05-25 |
Family
ID=62832609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711458449.2A Active CN108289244B (zh) | 2017-12-28 | 2017-12-28 | 视频字幕处理方法、移动终端及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108289244B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109215655A (zh) * | 2018-10-30 | 2019-01-15 | 维沃移动通信有限公司 | 视频中添加文本的方法和移动终端 |
CN109348306A (zh) * | 2018-11-05 | 2019-02-15 | 努比亚技术有限公司 | 视频播放方法、终端及计算机可读存储介质 |
CN109257659A (zh) * | 2018-11-16 | 2019-01-22 | 北京微播视界科技有限公司 | 字幕添加方法、装置、电子设备及计算机可读存储介质 |
CN109495792A (zh) * | 2018-11-30 | 2019-03-19 | 北京字节跳动网络技术有限公司 | 一种视频的字幕添加方法、装置、电子设备及可读介质 |
CN109658919A (zh) * | 2018-12-17 | 2019-04-19 | 深圳市沃特沃德股份有限公司 | 多媒体文件的翻译方法、装置及翻译播放设备 |
CN109872714A (zh) * | 2019-01-25 | 2019-06-11 | 广州富港万嘉智能科技有限公司 | 一种提高语音识别准确性的方法、电子设备及存储介质 |
CN110062281B (zh) * | 2019-05-29 | 2021-08-24 | 维沃移动通信有限公司 | 一种播放进度调节方法及其终端设备 |
CN112182298A (zh) * | 2019-06-14 | 2021-01-05 | 珠海金山办公软件有限公司 | 一种信息处理的方法、装置、计算机存储介质及终端 |
CN110602566B (zh) * | 2019-09-06 | 2021-10-01 | Oppo广东移动通信有限公司 | 匹配方法、终端和可读存储介质 |
CN112684967A (zh) * | 2021-03-11 | 2021-04-20 | 荣耀终端有限公司 | 一种用于字幕显示的方法及电子设备 |
CN113207032A (zh) * | 2021-04-29 | 2021-08-03 | 读书郎教育科技有限公司 | 一种智慧课堂录制视频增加字幕的系统及方法 |
CN113781988A (zh) * | 2021-07-30 | 2021-12-10 | 北京达佳互联信息技术有限公司 | 字幕显示方法、装置、电子设备及计算机可读存储介质 |
CN114025236A (zh) * | 2021-11-16 | 2022-02-08 | 上海大晓智能科技有限公司 | 一种视频内容理解方法、装置、电子设备和存储介质 |
CN115278351A (zh) * | 2022-05-17 | 2022-11-01 | 深圳传音控股股份有限公司 | 数据处理方法、智能终端及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327397A (zh) * | 2012-03-22 | 2013-09-25 | 联想(北京)有限公司 | 一种媒体文件的字幕同步显示方法及系统 |
CN105828101A (zh) * | 2016-03-29 | 2016-08-03 | 北京小米移动软件有限公司 | 生成字幕文件的方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040152055A1 (en) * | 2003-01-30 | 2004-08-05 | Gliessner Michael J.G. | Video based language learning system |
CN104038804B (zh) * | 2013-03-05 | 2017-09-29 | 三星电子(中国)研发中心 | 基于语音识别的字幕同步装置和方法 |
GB2529564A (en) * | 2013-03-11 | 2016-02-24 | Video Dubber Ltd | Method, apparatus and system for regenerating voice intonation in automatically dubbed videos |
CN103561217A (zh) * | 2013-10-14 | 2014-02-05 | 深圳创维数字技术股份有限公司 | 一种生成字幕的方法及终端 |
US9436876B1 (en) * | 2014-12-19 | 2016-09-06 | Amazon Technologies, Inc. | Video segmentation techniques |
WO2016206019A1 (zh) * | 2015-06-24 | 2016-12-29 | 冯旋宇 | 机顶盒语言控制方法及系统 |
CN105704538A (zh) * | 2016-03-17 | 2016-06-22 | 广东小天才科技有限公司 | 一种音视频字幕生成方法及系统 |
CN106506335B (zh) * | 2016-11-10 | 2019-08-30 | 北京小米移动软件有限公司 | 分享视频文件的方法及装置 |
-
2017
- 2017-12-28 CN CN201711458449.2A patent/CN108289244B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327397A (zh) * | 2012-03-22 | 2013-09-25 | 联想(北京)有限公司 | 一种媒体文件的字幕同步显示方法及系统 |
CN105828101A (zh) * | 2016-03-29 | 2016-08-03 | 北京小米移动软件有限公司 | 生成字幕文件的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108289244A (zh) | 2018-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108289244B (zh) | 视频字幕处理方法、移动终端及计算机可读存储介质 | |
CN107247711B (zh) | 一种双向翻译方法、移动终端以及计算机可读存储介质 | |
CN108009136B (zh) | 一种消息修正的方法及移动终端、计算机可读存储介质 | |
CN109701266B (zh) | 游戏震动方法、装置、移动终端及计算机可读存储介质 | |
CN110033769B (zh) | 一种录入语音处理方法、终端及计算机可读存储介质 | |
CN107329682B (zh) | 边缘交互方法及移动终端 | |
CN110321474B (zh) | 基于搜索词的推荐方法、装置、终端设备及存储介质 | |
CN110180181B (zh) | 精彩时刻视频的截图方法、装置及计算机可读存储介质 | |
CN107547741B (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN109545221B (zh) | 参数调整方法、移动终端及计算机可读存储介质 | |
CN107168626B (zh) | 一种信息处理方法、设备及计算机可读存储介质 | |
CN109302528B (zh) | 一种拍照方法、移动终端及计算机可读存储介质 | |
CN109375846B (zh) | 呼吸图标的显示方法及装置、移动终端及可读存储介质 | |
CN107786427B (zh) | 一种信息交互方法、终端和计算机可读存储介质 | |
CN109831375B (zh) | 即时通信信息的收发方法、终端及计算机可读存储介质 | |
CN109151216B (zh) | 应用启动方法、移动终端、服务器及计算机可读存储介质 | |
CN109167880B (zh) | 双面屏终端控制方法、双面屏终端及计算机可读存储介质 | |
CN108153477B (zh) | 多点触摸操作方法、移动终端及计算机可读存储介质 | |
CN111931155A (zh) | 验证码的输入方法、设备及存储介质 | |
CN109543193B (zh) | 一种翻译方法、装置及终端设备 | |
CN107613109B (zh) | 移动终端的输入方法、移动终端和计算机存储介质 | |
CN110275667B (zh) | 内容显示方法、移动终端及计算机可读存储介质 | |
CN110278402B (zh) | 一种双声道音频处理方法、设备及计算机可读存储介质 | |
CN112672213A (zh) | 一种视频信息处理方法、设备及计算机可读存储介质 | |
CN114328451A (zh) | 一种基于机器学习的敏感信息库构建方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |