CN109640193B - 一种基于场景检测的新闻拆条方法 - Google Patents
一种基于场景检测的新闻拆条方法 Download PDFInfo
- Publication number
- CN109640193B CN109640193B CN201811498028.7A CN201811498028A CN109640193B CN 109640193 B CN109640193 B CN 109640193B CN 201811498028 A CN201811498028 A CN 201811498028A CN 109640193 B CN109640193 B CN 109640193B
- Authority
- CN
- China
- Prior art keywords
- news
- scene
- configuring
- presenter
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 239000012634 fragment Substances 0.000 claims abstract description 4
- 239000002699 waste material Substances 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出一种基于场景检测的新闻拆条方法,通过对新闻场景的区分实现高效、智能、准确的新闻拆条,所述的新闻拆条方法包括以下步骤:S1:配置新闻场景,设置各场景指标的权重值;S2:分析新闻画面,计算各个权重得分;S3:根据权重得分判断新闻场景,并计算开始、结束点;S4:根据开始、结束点进行拆分,生成多个片段文件。本发明解决了传统人工拆条技术效率低下、费时费力的问题。
Description
技术领域
本发明涉及新闻拆条领域,尤其涉及一种基于场景检测的新闻拆条方法。
背景技术
内容拆条是对传统媒体节目的二次加工过程,其内容来源主要有传统媒体媒资中心或影视公司成品素材,基于用户思维开展视音频内容研究和切分著录,立足广播电视特点,用广播电视语言和视角,揭示素材的内容要素和信息,深度挖掘有价值信息,在拆条和编目后用于IPTV、OTT、手机电视等全媒体应用,满足新媒体视听节目碎片化要求,是视音频编目行业一个新的尝试和探索。
当前新媒体对拆条业务拥有大量的需求,而传统的人工逐帧预览手动拆条,不仅耗时费力,也不能满足新媒体视听节目快速发布的高标准要求。需要一种高效、智能的拆条方法来满足日益增长的新媒体拆条效果。
发明内容
为了解决上述问题,本发明提出一种基于场景检测的新闻拆条方法,通过对新闻场景的区分实现高效、智能、准确的新闻拆条任务。
一种基于场景检测的新闻拆条方法,主要包括以下步骤:S1:配置新闻场景,设置各场景指标的权重值;S2:分析新闻画面,计算各个权重得分;S3:根据权重得分判断新闻场景,并计算开始、结束点;S4:根据开始、结束点进行拆分,生成多个片段文件。
进一步的,所述步骤S1包括以下步骤:S11配置演播间主持人场景;S12配置现场新闻场景,除演播间主持人场景,其余新闻场景即认为是现场新闻场景;S13配置新闻片段。
所述配置演播间主持人场景,包括以下子步骤:S111:配置主持人头像以及头像所占画面比例,并设置所占权重;S112:配置主持人声音,并设置所占权重;S113:配置演播间关键词,并设置所占权重。所述步骤配置新闻片段方法包括简单配置和智能配置。所述简单配置以演播间主持人场景数目和现场新闻场景数目来设置新闻片段。所述智能配置,包括以下步骤:S131:配置新闻片段开始关键词,并设置权重;S132:配置新闻片段结束关键词,并设置权重;S133:配置新闻片段长度区间,并设置权重;S134:配置新闻片段包含的场景信息,并设置权重。
进一步的,所述分析新闻画面,包括以下一个或多个子步骤:A.演播间主持人场景判断;B.开场/结束或关键词判断;C.新闻时间长度判定。所述演播间主持人场景判断,包括以下一个或多个子步骤:A1.主持人头像识别;A2.主持人头像区域识别;A3.主持人声音识别。所述开场/结束或关键词判断,包括以下一个或多个子步骤:B1.语音识别;B2.匹配关键词。
本发明的有益效果在于:提出一种基于场景检测的新闻拆条方法,通过对不同新闻场景设置权重值,系统根据计算所得权重区分场景类型,实现高效、智能、准确的新闻拆条效果,解决传统人工拆条技术效率低下、费时费力的问题。
附图说明
图1是基于场景检测的新闻拆条方法流程图;
图2是新闻内容分析流程图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
本发明提出一种基于场景检测的新闻拆条方法,通过对新闻场景的区分实现高效、智能、准确的新闻拆条任务。
如图1所示,本发明主要包括以下步骤:
S1:配置新闻场景,设置权重值;
S2:分析新闻内容,计算各个权重得分;
S3:根据权重得分判断新闻场景,并计算开始、结束点;
S4:根据开始、结束点进行拆分,生成多个片段文件。
进一步的,在所述配置新闻场景中根据新闻内容进行场景区分,设置不同权重值,便于系统后续区分新闻场景。主要配置内容包括:
S11配置演播间主持人场景,配置演播间主持人场景包括以下步骤:
S111:配置主持人头像以及头像所占画面比例,并设置所占权重;
S112:配置主持人声音,并设置所占权重;
S113:配置演播间关键词,并设置所占权重,系统根据权重分析新闻画面,计算各个权重得分超过阈值则认定为演播间主持人场景。
S12配置现场新闻场景,排除演播间主持人场景,其余新闻场景即认为是现场新闻场景。
S13配置新闻片段,配置新闻片段方法包括简单配置和智能配置。简单配置的方法为以演播间主持人场景数目和现场新闻场景数目来设置新闻片段;智能配置包括以下步骤:
S131:配置新闻片段开始关键词,并设置权重;
S132:配置新闻片段结束关键词,并设置权重;
S133:配置新闻片段长度区间,并设置权重;
S134:配置新闻片段包含的场景信息,并设置权重,对新闻画面进行分析,计算各个权重得分超过阈值则认为为一个完整的新闻片段。
进一步的,如图2所示,分析新闻内容包括:演播间主持人场景判断,通过识别主持人头像和声音,根据设定的权重值计算权重得分;开场、结束关键词判断,通过语音识别匹配关键字,根据设定的权重值计算权重得分; 新闻时间长度判定,记录新闻时间长度,根据设定的权重值计算权重得分。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (6)
1.一种基于场景检测的新闻拆条方法,其特征在于,包括以下步骤:
S1:配置新闻场景,设置各场景指标的权重值,所述配置新闻场景包括以下子步骤:
S11配置演播间主持人场景,所述配置演播间主持人场景还包括:S111配置主持人头像以及头像所占画面比例,并设置所占权重;S112配置主持人声音,并设置所占权重;S113配置演播间关键词,并设置所占权重;
S12配置现场新闻场景,除演播间主持人场景,其余新闻场景即认为是现场新闻场景;
S13配置新闻片段;
S2:分析新闻画面,计算各个权重得分,所述分析新闻画面包括以下子步骤:A.演播间主持人场景判断;B.开场/结束或关键词判断;C.新闻时间长度判定;
S3:根据权重得分判断新闻场景,并计算开始、结束点;
S4:根据开始、结束点进行拆分,生成多个片段文件。
2.根据权利要求1所述的一种基于场景检测的新闻拆条方法,其特征在于:所述步骤配置新闻片段方法包括简单配置和智能配置。
3.根据权利要求2所述的一种基于场景检测的新闻拆条方法,其特征在于:所述简单配置以演播间主持人场景数目和现场新闻场景数目来设置新闻片段。
4.根据权利要求2所述的一种基于场景检测的新闻拆条方法,其特征在于:所述智能配置,包括以下步骤:
S131:配置新闻片段开始关键词,并设置权重;
S132:配置新闻片段结束关键词,并设置权重;
S133:配置新闻片段长度区间,并设置权重;
S134:配置新闻片段包含的场景信息,并设置权重。
5.根据权利要求1所述的一种基于场景检测的新闻拆条方法,其特征在于:所述演播间主持人场景判断,包括以下一个或多个子步骤:
A1.主持人头像识别;
A2.主持人头像区域识别;
A3.主持人声音识别。
6.根据权利要求1所述的一种基于场景检测的新闻拆条方法,其特征在于:所述开场/结束或关键词判断,包括以下一个或多个子步骤:
B1.语音识别;
B2.匹配关键词。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811498028.7A CN109640193B (zh) | 2018-12-07 | 2018-12-07 | 一种基于场景检测的新闻拆条方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811498028.7A CN109640193B (zh) | 2018-12-07 | 2018-12-07 | 一种基于场景检测的新闻拆条方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109640193A CN109640193A (zh) | 2019-04-16 |
CN109640193B true CN109640193B (zh) | 2021-02-26 |
Family
ID=66072127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811498028.7A Active CN109640193B (zh) | 2018-12-07 | 2018-12-07 | 一种基于场景检测的新闻拆条方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109640193B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110610500A (zh) * | 2019-09-06 | 2019-12-24 | 北京信息科技大学 | 基于动态语义特征的新闻视频自适应拆条方法 |
CN111432140B (zh) * | 2020-06-15 | 2020-09-15 | 成都索贝数码科技股份有限公司 | 一种利用人工神经网络进行电视新闻拆条的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021857A (zh) * | 2006-10-20 | 2007-08-22 | 鲍东山 | 基于内容分析的视频搜索系统 |
CN101616264B (zh) * | 2008-06-27 | 2011-03-30 | 中国科学院自动化研究所 | 新闻视频编目方法及系统 |
TWI513286B (zh) * | 2012-08-28 | 2015-12-11 | Ind Tech Res Inst | 影片續播方法及系統 |
CN108537134B (zh) * | 2018-03-16 | 2020-06-30 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
-
2018
- 2018-12-07 CN CN201811498028.7A patent/CN109640193B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109640193A (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10349125B2 (en) | Method and apparatus for enabling a loudness controller to adjust a loudness level of a secondary media data portion in a media content to a different loudness level | |
US10304458B1 (en) | Systems and methods for transcribing videos using speaker identification | |
CA2951849C (en) | Selection of thumbnails for video segments | |
CN110881115B (zh) | 会议视频的拆条方法及系统 | |
US20030236663A1 (en) | Mega speaker identification (ID) system and corresponding methods therefor | |
US20090007202A1 (en) | Forming a Representation of a Video Item and Use Thereof | |
WO2020155750A1 (zh) | 基于人工智能的语料收集方法、装置、设备及存储介质 | |
CN1666520A (zh) | 标识和分割嵌入在流中重复媒体对象的系统和方法 | |
CN113613065B (zh) | 视频编辑方法、装置、电子设备以及存储介质 | |
CN102799605A (zh) | 一种广告监播方法和系统 | |
CN109640193B (zh) | 一种基于场景检测的新闻拆条方法 | |
CN106792005B (zh) | 一种基于音视频结合的内容检测方法 | |
CN108615532B (zh) | 一种应用于声场景的分类方法及装置 | |
WO2013097101A1 (zh) | 分析视频文件的方法和装置 | |
CN112153397B (zh) | 视频处理方法、装置、服务器及存储介质 | |
CN113115055B (zh) | 一种基于收视行为的用户画像和直播视频文件的剪辑方法 | |
CN103607635A (zh) | 一种字幕识别方法、装置和终端 | |
WO2022228235A1 (zh) | 生成视频语料的方法、装置及相关设备 | |
EP3022663A1 (en) | Identifying stories in media content | |
CN111432140A (zh) | 一种利用人工神经网络进行电视新闻拆条的方法 | |
CN112699787A (zh) | 一种广告插入时间点的检测方法及装置 | |
US20100114345A1 (en) | Method and system of classification of audiovisual information | |
JP5257356B2 (ja) | コンテンツ分割位置判定装置、コンテンツ視聴制御装置及びプログラム | |
US10805681B2 (en) | System and method for detecting unknown TV commercials from a live TV stream | |
CN116017088A (zh) | 视频字幕处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |