CN102833638B - 基于字幕信息的视频自动切分及标注方法及系统 - Google Patents
基于字幕信息的视频自动切分及标注方法及系统 Download PDFInfo
- Publication number
- CN102833638B CN102833638B CN201210262506.0A CN201210262506A CN102833638B CN 102833638 B CN102833638 B CN 102833638B CN 201210262506 A CN201210262506 A CN 201210262506A CN 102833638 B CN102833638 B CN 102833638B
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- rect
- cutting
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于字幕信息的视频自动切分及标注方法及系统,其特征在于对视频中的字幕信息进行提取,并基于字幕信息对视频进行碎片化处理,其包括以下步骤:(1)利用视频字幕信息提取技术,将视频中的字幕信息提取出来,具体包括字幕的时间信息及文字信息;(2)根据字幕的出现时间和下段字幕的出现时间确定待切分视频的所有切分时间区间,基于切分时间区间,利用视频转码技术对视频进行切分,并利用字幕中的文字信息对视频进行标注,本发明结合字幕提取技术与视频切分技术,提出了基于字幕信息的视频自动切分及标注方法,实现视频内容的自动化切分及标注,可以用于视频内容的碎片化处理、视频内容的编目、检索等技术领域。
Description
技术领域
本发明涉及可以用于视频内容的碎片化处理、视频内容的编目、检索等技术领域,尤其涉及基于字幕信息的视频自动切分及标注方法及系统。
背景技术
网络时代最明显的特征就是传播的碎片化。在社区化时代到来的如今,由微博引领的信息碎片化传播已经逐步深入人心,“短小精悍”日益成为内容传播和分享的精髓。
在视频行业,以分享、编目及检索为目的的技术创新正在以同样的方式,将视频传播带入碎片化时代。视频中的文字信息无疑是实现这些需求的重要线索。
传统的视频切分是由人工完成的,需要耗费大量的人力与时间。基于字幕信息的视频自动切分及标注技术可将视频内容快速、准确、自动地切分,实现视频内容的碎片化。
发明内容
针对上述技术缺陷,本发明提出一种于字幕信息的视频自动切分及标注方法及系统。
为了解决上述技术问题,本发明的技术方案如下:
基于字幕信息的视频自动切分及标注方法,包括如下步骤:
11)分析视频格式,获得视频的帧率n;
12)每隔n帧利用文字定位技术确定视频帧中的文字区域,并将首次出现文字的视频帧的时间,定为该字幕的起始时间;
13)对于步骤12)的文字区域定位结果,每隔n帧计算相同位置的文字区域之间的相似度Se,如相似度Se大于一定阈值,则认为文字没有消失,返回执行步骤12);否则,认为文字消失,记录文字消失所在视频帧的时间点为当前字幕的消失时间,继续执行步骤14);
14)对于步骤12)的文字区域定位结果,利用文字识别技术进行文字识别,若视频处理完毕,执行步骤15);否则,返回执行步骤12);
15)根据字幕的起始时间和当前字幕的结束时间确定待切分视频的所有切分时间区间,基于切分时间区间,利用视频转码技术对视频进行切分,并利用字幕中的文字信息对视频进行标注。
进一步的,所述文字定位技术包括如下步骤:
21)视频帧图像设为f(x,y),利用Sobel算子处理f(x,y),得到边缘图像g(x,y);
22)利用最大类间方差法对所述边缘图像g(x,y)二值化,得到二值图像b1(x,y);
23)如果文字属于暗底亮字情况,计算二值图像b1(x,y)中值为1的像素的笔画强度特征,所述像素的笔画强度特征的计算公式为
其中,h(x,y,i,d)=max(f(x-i×dxd,y-i×dyd),f(x+(W+1-i)×dxd,y+(W+1-i)×dyd)}式中d=0,1,2,3,dx0=-1,dy0=0,dx1=-1,dy1=-1,dx2=0,dy2=-1,dx3=1,dy3=-1,表示笔画最常见的0, 四个方向,W是笔画宽度的上限;
24)将字符的笔画特征图像SW(x,y)定义为
利用最大类间方差法对字符笔画特征图SW(x,y)二值化,得到二值图像b2(x,y);
25)如果文字属于亮底暗字情况,提取字符的笔画特征图并进行二值化得到二值图像b3(x,y);
26)定义二值图像b4(x,y)=b2(x,y)Ub3(x,y),其中b4(x,y)中值为1的像素区域就是文字区域,设b4(x,y)的第i个文字对象的位置为recti,所述recti为包含第i个文字对象的最小矩形框,Ei(x,y)为b4(x,y)中recti所包含的区域,于是完成字符对象的定位。
进一步的,相同位置的文字区域之间的相似度Se的计算方法包括如下步骤:
31)视频帧a 的第i 个文字对象在图像中的位置为与a相邻的视频帧b的第j个文字对象在图像中的位置为它们位置重合的比例So为:
如果这两个文字对象的位置重合比例So不小于一定阈值,则执行步骤32);否则,认为二者为不同字幕对象,结束比较;
32)计算得到上述文字对象的匹配特征分别为和 和的相似度Se为
其中表示视频帧a的第i个文字对象的二值图像上像素(x,y)的值,而表示视频帧b的第j个文字对象的二值图像上像素(x,y)的值;
33)如果匹配特征的相似度Se大于一定阈值,则认为匹配成功,则上述两个文字对象为在相邻视频帧的同一个文字对象。
进一步的,步骤15)的切分方法具体包括如下步骤:
41)利用步骤12)至步骤13)中记录的视频中每条字幕的出现时间、消失时间,计算出视频的一个切分区间,所述切分区间的起始时间点为一条字幕的出现时间,结束时间点为下一条字幕的出现时间;
42)根据所述切分区间的起始时间点,定位到切分时间区间之前的第一个关键帧;
43)逐帧进行解码,分析每个视频帧的时间信息;
44)将属于切分时间区间范围内的视频帧进行编码,写入新的视频片段中,生成切分后的视频;
45)利用步骤14)中记录的视频中每条字幕的文字信息,将对应的切分后的视频片段进行标注;重复步骤41),继续切分,直到视频中所有切分区间处理完毕。
基于字幕信息的视频自动切分及标注系统,包括两个部分,字幕信息提取系统和视频切分及标注系统;
所述字幕信息提取系统对视频中的字幕信息进行提取,获得字幕的出现时间及消失时间,并利用字符识别技术对字幕进行识别,获得文字信息;
所述在视频切分及标注系统,利用字幕信息的时间信息计算出视频切分时间区间,分别定位到每个视频切分时间区间内的第一个关键帧,将符合视频切分时间区间内的每个视频帧逐一解码、再重新编码为新的视频,最后利用字幕的文字信息对形成的新视频进行标注,完成视频的切分及标注工作。
本发明的有益效果在于:本发明的特征在于对视频中的字幕信息进行提取,并基于字幕信息对视频进行碎片化处理,其包括以下步骤:(1)利用视频字幕信息提取技术,将视频中的字幕信息提取出来,具体包括字幕的时间信息及文字信息;(2)根据字幕的出现时间和下段字幕的出现时间确定待切分视频的所有切分时间区间,基于切分时间区间,利用视频转码技术对视频进行切分,并利用字幕中的文字信息对视频进行标注。本发明结合字幕提取技术与视频切分技术,提出了基于字幕信息的视频自动切分及标注方法,实现视频内容的自动化切分及标注,可以用于视频内容的碎片化处理、视频内容的编目、检索等技术领域。
附图说明
图1为本发明的基于字幕信息的视频自动切分及标注方法流程图;
图2为本发明字幕定位方法流程图;
图3为本发明视频切分流程流程图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
如图1所示,本发明提出的基于字幕信息的视频自动切分及标注方法流程图。本发明的基于字幕信息的视频切分及标注系统可以分为两个部分:字幕信息提取系统和视频切分及标注系统。字幕信息提取系统对视频中的字幕信息进行提取,获得字幕的出现时间及消失时间,并利用字符识别技术对字幕进行识别,获得文字信息。在视频切分及标注系统中,利用字幕信息的时间信息计算出视频切分的时间点,由于视频切分时间区间内的首帧视频不是关键帧会造成视频切分失败,因此需要定位到视频切分时间区间内前置的第一个关键帧,并逐一解码,并将符合视频切分时间区间内的每个视频帧逐一解码、再重新编码为新的视频,最后利用字幕信息中的文字信息对形成的新视频进行标注,最终完成视频的切分及标注工作。
本发明主要包括二个关键部分:一是视频字幕时间信息提取技术;二是视频准确切分技术。
下面将对本发明的二个部分分别加以详细说明。
1.视频字幕时间信息提取技术
基于字幕信息的视频自动切分及标注系统的关键之一在于提取字幕时间信息,而提取字幕时间信息的实现需要考虑如下2个方面:字幕的定位;字幕相似度的计算。
1.1如图2示出的字幕定位方法流程。
21)设当前视频帧图像为f(x,y),利用Sobel算子处理f(x,y),得到边缘图像g(x,y);
22)利用最大类间方差法(Ostu方法)对g(x,y)二值化,得到二值图像b1(x,y);
23)假设文字属于暗底亮字情况,计算二值图像b1(x,y)中值为1的像素的笔画强度特征。像素(x,y)笔画强度特征的计算公式为
其中,
h(x,y,i,d)=max(f(x-i×dxd,y-i×dyd),f(x+(W+1-i)×dxd,y+(W+1-i)×dyd)}式中d=0,1,2,3,dx0=-1,dy0=0,dx1=-1,dy1=-1,dx2=0,dy2=-1,dx3=1,dy3=-1,表示笔画最常见的0, 四个方向,W是笔画宽度的上限。字符笔画特征图像SW(x,y)定义为
利用最大类间方差法(Ostu方法)对字符笔画特征图SW(x,y)二值化,得到二值图像b2(x,y);
24)同理,假设文字属于亮底暗字情况,提取其字符的笔画特征图并进行二值化得到二值图像b3(x,y);
25)定义二值图像b4(x,y)=b2(x,y)Ub3(x,y),其中b4(x,y)中值为1的像素区域就是文字区域,设b4(x,y)的第i个文字对象的位置为recti,recti为包含第i个文字对象的最小矩形框,Ei(x,y)为b4(x,y)中recti所包含的区域,于是完成字符对象的定位,该Ei(x,y)也即第i个文字跟踪的匹配特征。
1.2字幕相似度的计算
定位字幕之后,为提取字幕的时间信息,即获得字幕的出现及消失时间,需要对字幕对象进行跟踪,字幕相似度的计算是其中关键。
对于每个检测到的文字对象,利用基于字符的双边缘笔画模型提取笔画特征图,然后利用最大类间方差法(Ostu方法)对该笔画特征图二值化,用得到的二值图像E(x,y)作为文字跟踪的匹配特征。
31)设视频帧a的第i个文字对象在图像中的位置为与a相邻的视频帧b的第j个文字对象在图像中的位置为它们位置重合的比例So为:
如果这两个文字对象的位置重合比例So不小于0.8,则执行步骤32);否则,认为二者为不同字幕对象,结束比较;
32)令上述文字对象的匹配特征分别为和 和的相似度Se为
其中表示视频帧a的第i个文字对象的二值图像上像素(x,y)的值,而表示视频帧b的第j个文字对象的二值图像上像素(x,y)的值;
33)匹配特征的相似度Se≥0.5,则认为匹配成功,上述两个文字对象为在相邻视频帧的同一个文字对象。
2.视频准确切分技术
传统的视频切分技术无法准确切分视频。这是由于视频编解码技术的特点造成。一个待切分的视频,如果位于切分时间区间的起点时间的视频帧是非关键帧,就会造成切分后的视频中该帧以及该帧之后的第一个关键帧之间的视频帧全部丢失或者花屏,因此,无法按照时间点准确切分视频。
为解决这个问题,如图3示出的视频切分流程,采用如下步骤完成视频切分:
41)利用步骤12)至步骤13)中记录的视频中每条字幕的出现时间、消失时间,计算出视频的一个切分区间,切分区间的起始时间点为一条字幕的出现时间,结束时间点为下一条字幕的出现时间。
42)根据视频切分区间的起始时间点,定位到切分时间区间之前的第一个关键帧;
43)逐帧进行解码,分析每个视频帧的时间信息;
44)将属于切分时间区间范围内的视频帧进行编码,写入新的视频片段中,生成切分后的视频;
45)利用步骤14)中记录的视频中每条字幕的文字信息,将对应的切分后的视频片段进行标注;重复步骤41),继续切分,直到视频中所有切分区间处理完毕。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员,在不脱离本发明构思的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明保护范围内。
Claims (3)
1.基于字幕信息的视频自动切分及标注方法,其特征在于,包括如下步骤:
11)分析视频格式,获得视频的帧率n;
12)每隔n帧利用文字定位技术确定视频帧中的文字区域,并将首次出现文字的视频帧的时间,定为该字幕的起始时间;
13)对于步骤12)的文字区域定位结果,每隔n帧计算相同位置的文字区域之间的相似度Se,如相似度Se大于一定阈值,则认为文字没有消失,返回执行步骤12);否则,认为文字消失,记录文字消失所在视频帧的时间点为当前字幕的消失时间,继续执行步骤14);
14)对于步骤12)的文字区域定位结果,利用文字识别技术进行文字识别,若视频处理完毕,执行步骤15);否则,返回执行步骤12);
15)根据字幕的起始时间和当前字幕的结束时间确定待切分视频的所有切分时间区间,基于切分时间区间,利用视频转码技术对视频进行切分,并利用字幕中的文字信息对视频进行标注;
所述文字定位技术包括如下步骤:
21)视频帧图像设为f(x,y),利用Sobel算子处理f(x,y),得到边缘图像g(x,y);
22)利用最大类间方差法对所述边缘图像g(x,y)二值化,得到二值图像b1(x,y);
23)如果文字属于暗底亮字情况,计算二值图像b1(x,y)中值为1的像素的笔画强度特征,所述像素的笔画强度特征的计算公式为
其中,h(x,y,i,d)=max(f(x-i×dxd,y-i×dyd),f(x+(W+1-i)×dxd,y+(W+1-i)×dyd)}式中d=0,1,2,3,dx0=-1,dy0=0,dx1=-1,dy1=-1,dx2=0,dy2=-1,dx3=1,dy3=-1,表示笔画最常见的四个方向,W是笔画宽度的上限;
24)将字符的笔画特征图像SW(x,y)定义为
利用最大类间方差法对字符笔画特征图SW(x,y)二值化,得到二值图像b2(x,y);
25)如果文字属于亮底暗字情况,提取字符的笔画特征图并进行二值化得到二值图像b3(x,y);
26)定义二值图像b4(x,y)=b2(x,y)Ub3(x,y),其中b4(x,y)中值为1的像素区域就是文字区域,设b4(x,y)的第i个文字对象的位置为recti,所述recti为包含第i个文字对象的最小矩形框,Ei(x,y)为b4(x,y)中recti所包含的区域,于是完成字符对象的定位。
2.根据权利要求1所述的基于字幕信息的视频自动切分及标注方法,其特征在于,相同位置的文字区域之间的相似度Se的计算方法包括如下步骤:
31)视频帧a的第i个文字对象在图像中的位置为与a相邻的视频帧b的第j个文字对象在图像中的位置为它们位置重合的比例So为:
如果这两个文字对象的位置重合比例So不小于一定阈值,则执行步骤32);否则,认为二者为不同字幕对象,结束比较;
32)计算得到上述文字对象的匹配特征分别为和和的相似度Se为
其中表示视频帧a的第i个文字对象的二值图像上像素(x,y)的值,而表示视频帧b的第j个文字对象的二值图像上像素(x,y)的值;
33)如果匹配特征的相似度Se大于一定阈值,则认为匹配成功,则上述两个文字对象为在相邻视频帧的同一个文字对象。
3.根据权利要求1所述的基于字幕信息的视频自动切分及标注方法,其特征在于,步骤15)的切分方法具体包括如下步骤:
41)利用步骤12)至步骤13)中记录的视频中每条字幕的出现时间、消失时间,计算出视频的一个切分区间,所述切分区间的起始时间点为一条字幕的出现时间,结束时间点为下一条字幕的出现时间;
42)根据所述切分区间的起始时间点,定位到切分时间区间之前的第一个关键帧;
43)逐帧进行解码,分析每个视频帧的时间信息;
44)将属于切分时间区间范围内的视频帧进行编码,写入新的视频片段中,生成切分后的视频;
45)利用步骤14)中记录的视频中每条字幕的文字信息,将对应的切分后的视频片段进行标注;重复步骤41),继续切分,直到视频中所有切分区间处理完毕。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210262506.0A CN102833638B (zh) | 2012-07-26 | 2012-07-26 | 基于字幕信息的视频自动切分及标注方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210262506.0A CN102833638B (zh) | 2012-07-26 | 2012-07-26 | 基于字幕信息的视频自动切分及标注方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102833638A CN102833638A (zh) | 2012-12-19 |
CN102833638B true CN102833638B (zh) | 2015-03-18 |
Family
ID=47336559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210262506.0A Active CN102833638B (zh) | 2012-07-26 | 2012-07-26 | 基于字幕信息的视频自动切分及标注方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102833638B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103139663B (zh) * | 2013-01-25 | 2016-05-11 | 深圳先进技术研究院 | 视频自动拆分装置及其自动拆分的方法 |
CN103473220B (zh) * | 2013-09-13 | 2016-05-18 | 华中师范大学 | 基于字幕文件的纪录片内容自动分节及其小标题的自动生成方法 |
CN104967907A (zh) * | 2014-06-09 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 视频播放定位的方法和系统 |
CN104244107B (zh) * | 2014-08-26 | 2017-08-08 | 中译语通科技(北京)有限公司 | 一种基于字幕检测与识别的视频字幕还原方法 |
CN104540044B (zh) * | 2014-12-30 | 2017-10-24 | 北京奇艺世纪科技有限公司 | 一种视频分段方法及装置 |
CN105302906A (zh) * | 2015-10-29 | 2016-02-03 | 小米科技有限责任公司 | 信息标注方法及装置 |
CN105323636A (zh) * | 2015-10-29 | 2016-02-10 | 无锡天脉聚源传媒科技有限公司 | 一种视频处理方法及装置 |
CN105744356B (zh) * | 2016-01-29 | 2019-03-12 | 杭州观通科技有限公司 | 一种基于内容的视频分段方法 |
CN106454151A (zh) * | 2016-10-18 | 2017-02-22 | 珠海市魅族科技有限公司 | 视频画面拼接方法及装置 |
CN106570096B (zh) * | 2016-10-31 | 2019-02-22 | 腾讯科技(深圳)有限公司 | 图片排序方法和装置 |
CN108363981B (zh) * | 2018-02-28 | 2020-08-28 | 北京奇艺世纪科技有限公司 | 一种标题检测方法及装置 |
CN108347643B (zh) * | 2018-03-05 | 2020-09-15 | 成都索贝数码科技股份有限公司 | 一种基于深度学习的字幕叠加截图的实现方法 |
CN108549642B (zh) * | 2018-04-27 | 2021-08-27 | 广州酷狗计算机科技有限公司 | 评价音高信息的标注质量的方法、装置及存储介质 |
CN111314775B (zh) | 2018-12-12 | 2021-09-07 | 华为终端有限公司 | 一种视频拆分方法及电子设备 |
CN111988663B (zh) | 2020-08-28 | 2022-09-06 | 北京百度网讯科技有限公司 | 视频播放节点的定位方法、装置、设备以及存储介质 |
CN112601101B (zh) * | 2020-12-11 | 2023-02-24 | 北京有竹居网络技术有限公司 | 一种字幕显示方法、装置、电子设备及存储介质 |
CN112735476A (zh) * | 2020-12-29 | 2021-04-30 | 北京声智科技有限公司 | 一种音频数据标注方法及装置 |
CN114143613B (zh) * | 2021-12-03 | 2023-07-21 | 北京影谱科技股份有限公司 | 一种视频字幕时间对齐方法、系统及存储介质 |
CN114501159B (zh) * | 2022-01-24 | 2023-12-22 | 传神联合(北京)信息技术有限公司 | 一种字幕编辑方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101102419A (zh) * | 2007-07-10 | 2008-01-09 | 北京大学 | 一种定位视频字幕区域的方法 |
CN101510260A (zh) * | 2008-02-14 | 2009-08-19 | 富士通株式会社 | 字幕存在时间确定装置和方法 |
CN101650958A (zh) * | 2009-07-23 | 2010-02-17 | 中国科学院声学研究所 | 对电影类视频进行场景片段抽取方法及其建立索引的方法 |
CN101719144A (zh) * | 2009-11-04 | 2010-06-02 | 中国科学院声学研究所 | 一种联合字幕和视频图像信息进行场景分割和索引的方法 |
-
2012
- 2012-07-26 CN CN201210262506.0A patent/CN102833638B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101102419A (zh) * | 2007-07-10 | 2008-01-09 | 北京大学 | 一种定位视频字幕区域的方法 |
CN101510260A (zh) * | 2008-02-14 | 2009-08-19 | 富士通株式会社 | 字幕存在时间确定装置和方法 |
CN101650958A (zh) * | 2009-07-23 | 2010-02-17 | 中国科学院声学研究所 | 对电影类视频进行场景片段抽取方法及其建立索引的方法 |
CN101719144A (zh) * | 2009-11-04 | 2010-06-02 | 中国科学院声学研究所 | 一种联合字幕和视频图像信息进行场景分割和索引的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102833638A (zh) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102833638B (zh) | 基于字幕信息的视频自动切分及标注方法及系统 | |
CN110245259B (zh) | 基于知识图谱的视频打标签方法及装置、计算机可读介质 | |
CN111582241B (zh) | 视频字幕识别方法、装置、设备及存储介质 | |
CN107301414B (zh) | 一种自然场景图像中的中文定位、分割和识别方法 | |
CN103336954B (zh) | 一种视频中的台标识别方法和装置 | |
CN103761261B (zh) | 一种基于语音识别的媒体搜索方法及装置 | |
CN103761284A (zh) | 一种视频检索方法和系统 | |
CN104199933A (zh) | 一种多模态信息融合的足球视频事件检测与语义标注方法 | |
CN110647956B (zh) | 一种联合二维码识别的发票信息提取方法 | |
CN104182750A (zh) | 一种在自然场景图像中基于极值连通域的中文检测方法 | |
CN112818951A (zh) | 一种票证识别的方法 | |
CN112668559A (zh) | 一种多模态信息融合的短视频情感判定装置及方法 | |
CN102098449B (zh) | 一种利用标志检测进行电视节目内部自动分割的方法 | |
US20190197314A1 (en) | Method and apparatus for detecting significance of promotional information, device and computer storage medium | |
CN106055667A (zh) | 一种基于文本‑标签密度的网页核心内容提取方法 | |
CN113780276B (zh) | 一种结合文本分类的文本识别方法及系统 | |
CN104063701B (zh) | 基于surf词汇树和模板匹配的快速电视台台标识别系统及其实现方法 | |
Wang et al. | Structuring low-quality videotaped lectures for cross-reference browsing by video text analysis | |
CN112926379A (zh) | 一种构建人脸识别模型的方法及装置 | |
CN109168006A (zh) | 一种图形和图像共存的视频编解码方法 | |
CN113177409B (zh) | 一种智能敏感字词识别系统 | |
CN114064968A (zh) | 一种新闻字幕摘要生成方法和系统 | |
CN109472020A (zh) | 一种特征对齐中文分词方法 | |
CN111079749B (zh) | 一种带姿态校正的端到端商品价签文字识别方法和系统 | |
Mi et al. | A novel video text extraction approach based on multiple frames |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |