CN113014988A - 视频处理方法、装置、设备以及存储介质 - Google Patents
视频处理方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113014988A CN113014988A CN202110200351.7A CN202110200351A CN113014988A CN 113014988 A CN113014988 A CN 113014988A CN 202110200351 A CN202110200351 A CN 202110200351A CN 113014988 A CN113014988 A CN 113014988A
- Authority
- CN
- China
- Prior art keywords
- original
- comment
- video
- target
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000004458 analytical method Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000012015 optical character recognition Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 238000003780 insertion Methods 0.000 claims description 2
- 230000037431 insertion Effects 0.000 claims description 2
- 230000003993 interaction Effects 0.000 abstract description 9
- 238000003058 natural language processing Methods 0.000 abstract description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000008451 emotion Effects 0.000 description 17
- 238000012549 training Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012552 review Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 102100032202 Cornulin Human genes 0.000 description 1
- 241001522296 Erithacus rubecula Species 0.000 description 1
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4886—Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4882—Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请公开了一种视频处理方法、装置、设备以及存储介质,涉及自然语言处理、计算机视觉、深度学习等人工智能领域。该方法的一具体实施方式包括:获取目标视频和目标视频的目标评论;对目标视频中的图片进行识别,得到图片的文本信息;确定与文本信息的内容匹配的目标评论;在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。该实施方式根据视频中的图片的显示时刻插入内容匹配的评论,使得播放视频时,针对特定内容的评论可以对准特定内容的图片进行显示,从而便于用户理解评论,进一步有助于视频观看者基于评论进行互动。
Description
技术领域
本申请实施例涉及计算机领域,具体涉及自然语言处理、计算机视觉、深度学习等人工智能领域,尤其涉及视频处理方法、装置、设备以及存储介质。
背景技术
随着网络技术的发展,各种各样的视频应用层出不穷。为了增强视频观看者之间的互动,视频应用允许视频观看者添加评论,并在视频播放时从视频屏幕上飘过。由于大量评论从视频屏幕飘过时的效果看上去像是飞行设计游戏里的弹幕,因此这些评论又叫做弹幕。然而,视频观看者发表的弹幕通常是在其点击发表按钮之后,才会从视频屏幕上飘过。
发明内容
本申请实施例提出了一种视频处理方法、装置、设备以及存储介质。
第一方面,本申请实施例提出了一种视频处理方法,包括:获取目标视频和目标视频的目标评论;对目标视频中的图片进行识别,得到图片的文本信息;确定与文本信息的内容匹配的目标评论;在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
第二方面,本申请实施例提出了一种视频处理装置,包括:获取模块,被配置成获取目标视频和目标视频的目标评论;识别模块,被配置成对目标视频中的图片进行识别,得到图片的文本信息;确定模块,被配置成确定与文本信息的内容匹配的目标评论;插入模块,被配置成在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
第三方面,本申请实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。
第五方面,本申请实施例提出了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的视频处理方法、装置、设备以及存储介质,首先获取目标视频和目标视频的目标评论;之后对目标视频中的图片进行识别,得到图片的文本信息;然后确定与文本信息的内容匹配的目标评论;最后在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。根据视频中的图片的显示时刻插入内容匹配的评论,使得播放视频时,针对特定内容的评论可以对准特定内容的图片进行显示,从而便于用户理解评论,进一步有助于视频观看者基于评论进行互动。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的视频处理方法的一个实施例的流程图;
图3是根据本申请的视频获取方法的一个实施例的流程图;
图4是根据本申请的评论获取方法的一个实施例的流程图;
图5是根据本申请的视频处理方法的又一个实施例的流程图;
图6是根据本申请的视频处理装置的一个实施例的结构示意图;
图7是用来实现本申请实施例的视频处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的视频处理方法或视频处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送视频帧等。终端设备101、102、103上可以安装有各种客户端应用,例如新闻类应用、网页浏览器应用、搜索类应用等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以提供各种服务。例如,服务器105可以对终端设备101、102、103上显示的视频进行分析和处理,并生成处理结果(例如在适当时刻插入弹幕的视频)。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的视频处理方法一般由服务器105执行,相应地,视频处理装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的视频处理方法的一个实施例的流程200。该视频处理方法包括以下步骤:
步骤201,获取目标视频和目标视频的目标评论。
在本实施例中,视频处理方法的执行主体(例如图1所示的服务器105)可以获取目标视频和目标视频的目标评论。其中,目标视频可以是记录特定内容的视频。目标评论可以是用户对特定内容的评论。
在本实施例的一些可选的实现方式中,目标视频可以是视频应用提供的视频。目标评论可以是在视频应用上观看目标视频的用户发表的评论。通常,用户在视频应用上播放目标视频时,视频应用可以在特定位置提供评论输入框。用户可以在评论输入框输入评论进行发表。其中,为了避免评论输入框遮挡目标视频,评论输入框通常设置在目标视频的下方。在一些情况下,为了避免评论遮挡目标视频,用户发表的评论可以显示在目标视频的下方。在一些情况下,为了实现观看目标视频的用户之间的互动,用户发表的评论可以以弹幕的形式显示在目标视频上。
在本实施例的一些可选的实现方式中,目标视频可以是针对新闻事件的视频。目标评论可以是用户对新闻事件的评论。例如,目标视频可以是基于新闻事件的原始新闻合成的视频。目标评论可以是浏览原始新闻的用户发表的评论。通常,用户在新闻应用上浏览原始新闻时,新闻应用可以在特定位置提供评论输入框。用户可以在评论输入框输入评论进行发表。其中,为了避免评论输入框和评论遮挡原始新闻,评论输入框通常设置在原始新闻的下方。用户发表的评论通常显示在原始新闻的下方。其中,原始新闻可以是各种形式的针对新闻事件的电子数据。新闻事件可以是以文本、图像、音频和视频等任何形式记录的任何类型的原始事件素材,包括但不限于社会事件、财经事件、娱乐事件、科技事件、军事事件、虚构故事等等。原始新闻可以包括以下至少一项:文本、图像、音频和视频。例如,原始新闻可以是网页。网页中可以包括以下至少一项:文本、图像、音频和视频。此外,原始新闻还可以仅仅是文本、图像或者视频。
这里,目标评论可以是用户对特定内容的全部评论或部分评论。通常,为了使目标评论与目标视频的内容匹配,可以对用户对特定内容的评论进行过滤,仅保留与目标视频的内容匹配的评论,作为目标评论。例如,若目标视频是基于新闻事件的原始新闻合成的视频,可以获取原始新闻的原始评论,选取与目标视频的内容匹配的原始评论,作为目标评论。其中,原始评论可以是用户在新闻应用上浏览原始新闻时发表的评论。
在本实施例的一些可选的实现方式中,上述执行主体可以首先对原始评论进行词法分析,将原始评论分解成单词;然后以单词为锚点对原始评论进行分析,选取与目标视频的内容匹配的原始评论。其中,原始评论通常是中文评论。与英文评论不同,中文评论中的中文单词没有用空格分隔。为了提高分词准确度,可以使用LAC(Lexical Analysis ofChinese,中文词法分析)将原始评论分解成单词。其中,LAC是一个联合的词法分析模型,能够整体性地完成中文分词、词性标注、专名识别等NLP(Natural Language Processing,自然语言处理)任务。LAC基于一个堆叠的双向GRU(Gated Recurrent Unit,门控循环单元)结构,在长文本上准确复刻了AI(Artificial Intelligence,人工智能)开放平台上的词法分析算法。
步骤202,对目标视频中的图片进行识别,得到图片的文本信息。
在本实施例中,上述执行主体可以对目标视频中的每帧图片进行识别,得到图片的文本信息。其中,图片的文本信息可以用于描述图片中的内容。在一些情况下,图片上会存在文字,可以识别图片上的文字,作为图片的文本信息。在一些情况下,图片上会存在人脸,可以识别图片上的人脸,将人脸对应的人物的信息作为图片的文本信息。
步骤203,确定与文本信息的内容匹配的目标评论。
在本实施例中,上述执行主体可以确定与文本信息的内容匹配的目标评论。具体地,对于每条目标评论,可以将该条目标评论的内容与图片的文本信息的内容进行匹配,根据比对结果确定是否内容匹配。例如,将匹配度高于预设阈值的目标评论确定为与图片的文本信息的内容匹配的目标评论。又例如,将匹配度最高的目标评论确定为与文本信息的内容匹配的目标评论。
步骤204,在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
在本实施例中,上述执行主体可以在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
具体地,在播放目标视频时,若图片在某时刻显示,上述执行主体可以该时刻插入内容匹配的目标评论,使得内容匹配的评论可以对准内容匹配的图片进行显示。此外,内容匹配的目标评论可以以弹幕形式显示在目标视频上,可实现与观看目标视频的用户之间的互动。例如,对于电影和影评,在电影中的段落插入与其内容匹配的影评。这样,就可以根据影评在电影播放时在适当的段落播放与其内容匹配的影评对应的弹幕。
本申请实施例提供的视频处理方法,首先获取目标视频和目标视频的目标评论;之后对目标视频中的图片进行识别,得到图片的文本信息;然后确定与文本信息的内容匹配的目标评论;最后在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。根据视频中的图片的显示时刻插入内容匹配的评论,使得播放视频时,针对特定内容的评论可以对准特定内容的图片进行显示,从而便于用户理解评论,进一步有助于视频观看者基于评论进行互动。
进一步参考图3,图3示出了根据本申请的视频获取方法的一个实施例的流程300。该视频获取方法包括以下步骤:
步骤301,获取原始新闻。
在本实施例中,视频获取方法的执行主体(例如图1所示的服务器105)可以获取原始新闻。其中,原始新闻可以是新闻应用提供的新闻。原始新闻可以是各种形式的针对新闻事件的电子数据。新闻事件可以是以文本、图像、音频和视频等任何形式记录的任何类型的原始事件素材,包括但不限于社会事件、财经事件、娱乐事件、科技事件、军事事件、虚构故事等等。原始新闻可以包括以下至少一项:文本、图像、音频和视频。例如,原始新闻可以是网页。网页中可以包括以下至少一项:文本、图像、音频和视频。此外,原始新闻还可以仅仅是文本、图像或者视频。
步骤302,搜索与原始新闻相关的原始视频。
在本实施例中,上述执行主体可以搜索与原始新闻相关的原始视频。其中,原始视频与原始新闻直接或间接相关。
在本实施例的一些可选的实现方式中,上述执行主体可以首先获取原始新闻的原始评论;然后基于原始新闻和/或原始评论的内容,搜索原始视频。通常,基于原始新闻的内容搜索的原始视频与原始新闻直接相关。基于原始评论的内容搜索的原始视频与原始新闻直接或间接相关。例如,原始新闻是关于A人物的新闻。基于关于A人物的新闻搜索到的原始视频可以是关于A人物的视频。关于A人物的视频与关于A人物的新闻直接相关。原始评论可以是关于A人物的评论,基于关于A人物的评论搜索到的原始视频可以是关于A人物的视频。关于A人物的视频与关于A人物的新闻直接相关。原始评论也可以是关于与A人物存在关联的B人物的评论,基于关于与A人物存在关联的B人物的评论搜索到的原始视频可以是关于B人物的视频。关于B人物的视频与关于A人物的新闻间接相关。
步骤303,对原始新闻进行提取摘要,得到原始新闻的解说词。
在本实施例中,上述执行主体可以对原始新闻进行提取摘要,将摘要提取所得到的摘要文本确定为原始新闻的解说词。其中,解说词可以包括原始新闻的主要内容,且符合人类讲话习惯,适合解说。
在本实施例的一些可选的实现方式中,上述执行主体可以首先确定原始新闻中所包括的文本;之后删除文本中所包括的不适合解说文本;然后将文本中所包括的书面语替换为相同语义的口语;最后对文本进行提取摘要,得到原始新闻的解说词。删除不适合解说文本,可以减少文本中的无效信息,继而可以增加最后所生成的解说词的有效信息内容比例。将文本中的书面语替换为口语,可以使得文本更适合解说使用,继而更适合生成符合人类讲话习惯的解说词。
步骤304,基于解说词生成视频语音,以及基于原始新闻和原始视频,生成与视频语音对应的视频画面。
在本实施例中,上述执行主体可以基于解说词生成视频语音,以及基于原始新闻和原始视频,生成与视频语音对应的视频画面。具体地,上述执行主体首先可以利用语音合成技术,生成与解说词对应的视频语音;之后将视频语音划分成每句话对应的语音;然后基于原始新闻和原始视频,生成与每句话对应的语音匹配的视频画面片段;最后按顺序拼接与每句话对应的语音匹配的视频画面片段,生成与视频语音对应的视频画面。其中,与一句话对应的语音匹配的视频画面片段可以是呈现了该句话,或者呈现了该句话中所涉及的事物。
步骤305,合成视频画面和视频语音,得到目标视频。
在本实施例中,上述执行主体可以合成视频画面和视频语音,得到目标视频。其中,与一句话对应的语音作为目标视频中与该句话对应的音频部分,与该句话对应的语音匹配的视频画面片段作为目标视频中与该句话对应的视频画面部分。
本申请实施例提供的视频获取方法,首先获取原始新闻和与其相关的原始视频;之后对原始新闻进行提取摘要,得到原始新闻的解说词;然后基于解说词生成视频语音,以及基于原始新闻和原始视频,生成与视频语音对应的视频画面;最后合成视频画面和视频语音,得到目标视频。将原始新闻转换为目标视频进行呈现,目标视频记录原始新闻的主要内容,用户通过观看目标视频即可快速了解原始新闻所针对的新闻事件,无需用户全文阅读原始新闻,提高了用户获取新闻事件信息的效率。
进一步参考图4,图4示出了根据本申请的评论获取方法的一个实施例的流程400。该评论获取方法包括以下步骤:
步骤401,获取原始新闻的原始评论。
在本实施例中,评论获取方法的执行主体(例如图1所示的服务器105)可以获取原始新闻的原始评论。其中,原始评论可以是用户在新闻应用上浏览原始新闻时发表的评论。
步骤402,对原始评论进行词法分析,将原始评论分解成单词。
在本实施例中,上述执行主体可以对原始评论进行词法分析,将原始评论分解成单词。其中,原始评论通常是中文评论。与英文评论不同,中文评论中的中文单词没有用空格分隔。为了提高分词准确度,可以使用LAC将原始评论分解成单词。其中,LAC是一个联合的词法分析模型,能够整体性地完成中文分词、词性标注、专名识别等NLP任务。LAC基于一个堆叠的双向GRU结构,在长文本上准确复刻了AI开放平台上的词法分析算法。
步骤403,以单词为锚点对原始评论进行句法分析,得到原始评论的关键词和句子结构。
在本实施例中,上述执行主体可以以单词为锚点对原始评论进行句法分析,得到原始评论的关键词和句子结构。
通常,以单词为锚点对原始评论进行句法分析时,可以对原始评论中的单词进行词性标注,从而得到原始评论的关键词和句子结构。其中,原始评论的关键词可以是特定词性的单词。原始评论的句子结构可以包括但不限于主谓关系、动宾关系、介宾关系、方位关系等等,是通过分析原始评论中的单词之间的依存关系来确定的。依存句法分析是自然语言处理核心技术之一,旨在通过分析句子中的单词之间的依存关系来确定句子的句法结构。依存句法分析作为底层技术,可直接用于提升其他NLP任务的效果。这些效果可以包括但不限于语义角色标注、语义匹配、事件抽取等。基于深度学习和大规模标注数据研发的依存句法分析工具可以用于对原始评论进行句法分析,可以帮助用户直接获取原始评论中的关联词对、长距离依赖词对等。
步骤404,基于关键词和句子结构,选取与目标视频的内容匹配的原始评论。
在本实施例中,上述执行主体可以基于关键词和句子结构,选取与目标视频的内容匹配的原始评论。其中,特定句子结构,且关键词出现在目标视频中的原始评论是与目标视频的内容匹配的原始评论。
这里,基于关键词选取,可以过滤掉与目标视频的内容不匹配的原始评论,使选取出的原始评论与目标视频的内容更加匹配。基于句子结构选取,可以考虑掉不适合作为弹幕的原始评论,使选取出的原始评论更适合以弹幕的形式在播放目标视频时呈现。例如,对于主谓关系的原始评论,其关键词包括A人物。若目标视频中也出现A人物,那么该原始评论不仅与目标视频的内容匹配,还适合作为弹幕呈现。又例如,对于方位关系的原始评论,其不适合作为弹幕呈现。
步骤405,以单词为锚点对原始评论进行情感分析,得到原始评论的情感信息。
在本实施例中,上述执行主体可以以单词为锚点对原始评论进行情感分析,得到原始评论的情感信息。其中,原始评论可以是用户在新闻应用上浏览原始新闻时发表的评论。情感信息可以表达发表原始评论的用户的态度。
通常,用户在浏览原始新闻时发表的原始评论通常带有其针对原始新闻的主观描述。情感倾向分析针对带有主观描述的中文文本,可自动判断该文本的情感极性类别并给出相应的置信度。常用的情感分析模型可以包括但不限于情感分析-LSTM(Long Short-Term Memory,长短期记忆网络)、情感分析-GRU和对话情绪识别等。其中,情感分析-LSTM基于一个LSTM结构实现情感倾向分析,情感类型分为积极、消极。情感分析-GRU基于一个GRU结构实现情感倾向分析,情感类型分为积极、消极。对话情绪识别专注于识别智能对话场景中用户的情绪,针对智能对话场景中的用户文本,自动判断该文本的情绪类别并给出相应的置信度,情绪类型分为积极、消极、中性。该模型基于TextCNN(多卷积核CNN模型),能够更好地捕捉句子局部相关性。
步骤406,基于情感信息,选取与目标视频的内容匹配的原始评论。
在本实施例中,上述执行主体可以基于情感信息,选取与目标视频的内容匹配的原始评论。其中,与目标视频情感类型相同的原始评论是与目标视频的内容匹配的原始评论。
这里,基于情感信息选取,可以过滤掉与目标视频的情感不符的原始评论,使选取出的原始评论与目标视频的情感更加匹配。例如,对于悼念A人物去世的原始新闻,可以选取表达悲伤、惋惜等情感信息的原始评论。
本申请实施例提供的评论获取方法,首先对原始新闻的原始评论进行词法分析,将原始评论分解成单词;之后以单词为锚点对原始评论进行句法分析,得到原始评论的关键词和句子结构,并基于关键词和句子结构,选取与目标视频的内容匹配的原始评论;同时以单词为锚点对原始评论进行情感分析,得到原始评论的情感信息,并基于情感信息,选取与目标视频的内容匹配的原始评论。使得选取出的原始评论不仅与目标视频的内容匹配,还适合作为弹幕呈现。同时,选取出的原始评论还与目标视频的情感更加匹配。
进一步参考图5,图5示出了根据本申请的视频处理方法的又一个实施例的流程500。该视频处理方法包括以下步骤:
步骤501,获取目标视频和目标视频的目标评论。
在本实施例中,步骤501具体操作已在图2所示的实施例中步骤201进行了详细的介绍,在此不再赘述。
步骤502,对目标视频中的图片进行光学字符识别,得到图片中的文字信息。
在本实施例中,视频处理方法的执行主体(例如图1所示的服务器105)可以利用OCR(Optical Character Recognition,光学字符识别)技术对目标视频中的图片进行识别,得到图片中的文字信息。
通常,目标视频中的图片上会存在文字,利用OCR技术可以识别图片中的文字信息。OCR技术已广泛用于各种应用场景中。为了提升计算效率,可以使用PP-OCR。PP-OCR是一个实用的超轻型OCR,主要由DB文本检测、检测框矫正和CRNN文本识别三部分组成。PP-OCR从骨干网络选择和调整、预测头部的设计、数据增强、学习率变换策略、正则化参数选择、预训练模型使用以及模型自动裁剪量化8个方面,采用19个有效策略,对各个模块的模型进行效果调优和瘦身,最终得到整体大小为3.5M的超轻量中英文OCR和2.8M的英文数字OCR。
步骤503,对目标视频中的图片进行人脸检测,得到图片中的人物信息。
在本实施例中,上述执行主体可以对目标视频中的图片进行人脸检测,得到图片中的人物信息。
通常,目标视频中的图片上会存在人脸,可以识别图片上的人脸,将人脸对应的人物的信息作为图片的文本信息。尤其是对于存在名人的人脸的图片,可以引入更多的人物信息。
步骤504,将文本信息和目标评论输入至预先训练的得分计算模型,得到文本信息与目标评论的得分。
在本实施例中,上述执行主体可以将文本信息和目标评论输入至预先训练的得分计算模型,得到文本信息与目标评论的得分。其中,得分计算模型可以用于表征图片文本信息和评论,以及两者之间的得分的对应关系,能够快速地、准确地为目标视频中的图片选取匹配的目标评论。
在本实施例的一些可选的实现方式中,上述执行主体可以预先按照以下步骤训练得分计算模型:
首先,可以获取训练样本集。
这里,训练样本可以包括图片的文本信息和评论,以及图片的文本信息与评论的标注得分。例如,可以通过人工针对图片的文本信息与评论的匹配度标注得分。
之后,可以确定初始得分计算模型的模型结构以及初始化初始得分计算模型的模型参数。
可选地,初始得分计算模型可以包括卷积神经网络。由于卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成,则这里需要确定卷积神经网络类型的初始得分计算模型包括哪些层(例如,卷积层,池化层,激励函数层等等),层与层之间的连接顺序关系,以及每个层都包括哪些参数(例如,权重weight、偏置bias、卷积的步长)等等。其中,卷积层可以用于提取特征。针对每个卷积层可以确定有多少个卷积核,每个卷积核的大小,每个卷积核中的各个神经元的权重,每个卷积核对应的偏置项,相邻两次卷积之间的步长,是否需要填充,填充多少像素点和填充用的数值(一般是填充为0)等等。而池化层可以用于对输入的信息进行下采样(Down Sample),以压缩数据和参数的量,减少过拟合。针对每个池化层可以确定该池化层的池化方法(例如,取区域平均值或者取区域最大值)。激励函数层用于对输入的信息进行非线性计算。针对每个激励函数层可以确定具体的激励函数。例如,激活函数可以是ReLU以及ReLU各种变种激活函数、Sigmoid函数、Tanh(双曲正切)函数、Maxout函数等等。
然后,可以初始化初始得分计算模型的模型参数。实践中,可以将初始得分计算模型的各个模型参数用一些不同的小随机数进行初始化。“小随机数”用来保证模型不会因权重过大而进入饱和状态,从而导致训练失败,“不同”用来保证模型可以正常地学习。
接着,可以将训练样本集中的训练样本中的图片的文本信息和评论作为初始得分计算模型的输入,将训练样本中的标注得分作为初始得分计算模型的输出,利用机器学习方法训练初始得分计算模型。
具体地,可以首先将训练样本集中的训练样本中的图片的文本信息和评论输入初始得分计算模型,得到图片的文本信息与评论的得分。然后,可以计算所得到的得分与该训练样本中的标注得分之间的差异。最后,可以基于计算所得的差异,调整初始得分计算模型的模型参数,并在满足预设的训练结束条件的情况下,结束训练。例如,这里预设的训练结束条件可以包括以下至少一项:训练时间超过预设时长,训练次数超过预设次数,计算所得的差异小于预设差异阈值。
这里,可以采用各种实现方式基于所得到的得分与该训练样本中的标注得分之间的差异调整初始得分计算模型的模型参数。例如,可以采用随机梯度下降(SGD,StochasticGradient Descent)、牛顿法(Newton's Method)、拟牛顿法(Quasi-Newton Methods)、共轭梯度法(Conjugate Gradient)、启发式优化方法以及其他现在已知或者未来开发的各种优化算法。
最后,可以将训练得到的初始得分计算模型确定为预先训练的得分计算模型。
步骤505,基于文本信息与目标评论的得分,确定文本信息与目标评论是否内容匹配。
在本实施例中,上述执行主体可以基于文本信息与目标评论的得分,确定文本信息与目标评论是否内容匹配。例如,将得分高于预设阈值的目标评论确定为与图片的文本信息的内容匹配的目标评论。又例如,将得分最高的目标评论确定为与文本信息的内容匹配的目标评论。
步骤506,在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
在本实施例中,步骤506具体操作已在图2所示的实施例中步骤204进行了详细的介绍,在此不再赘述。
从图5中可以看出,与图2对应的实施例相比,本实施例中的视频处理方法突出了目标视频中的图片与目标评论匹配的步骤。由此,本实施例描述的方案从目标视频的图片和目标评论中获取足够的信息,利用得分计算模型确定目标评论应在目标视频中的显示时刻,并在该时刻以弹幕形式插入目标评论,使得播放视频时,针对特定内容的评论可以对准特定内容的图片进行显示,从而便于用户理解评论,进一步有助于视频观看者基于评论进行互动。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种视频处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的视频处理装置600可以包括:获取模块601、识别模块602、确定模块603和插入模块604。其中,获取模块601,被配置成获取目标视频和目标视频的目标评论;识别模块602,被配置成对目标视频中的图片进行识别,得到图片的文本信息;确定模块603,被配置成确定与文本信息的内容匹配的目标评论;插入模块604,被配置成在目标视频中的图片的显示时刻,以弹幕形式插入内容匹配的目标评论。
在本实施例中,视频处理装置600中:获取模块601、识别模块602、确定模块603和插入模块604的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,获取模块601包括:第一获取子模块,被配置成获取原始新闻;搜索子模块,被配置成搜索与原始新闻相关的原始视频;提取子模块,被配置成对原始新闻进行提取摘要,得到原始新闻的解说词;生成子模块,被配置成基于解说词生成视频语音,以及基于原始新闻和原始视频,生成与视频语音对应的视频画面;合成子模块,被配置成合成视频画面和视频语音,得到目标视频。
在本实施例的一些可选的实现方式中,搜索子模块进一步被配置成:获取原始新闻的原始评论;基于原始新闻和/或原始评论的内容,搜索原始视频。
在本实施例的一些可选的实现方式中,获取模块601包括:第二获取子模块,被配置成获取原始新闻的原始评论;选取子模块,被配置成选取与目标视频的内容匹配的原始评论,作为目标评论。
在本实施例的一些可选的实现方式中,选取子模块包括:分解单元,被配置成对原始评论进行词法分析,将原始评论分解成单词;选取单元,被配置成以单词为锚点对原始评论进行分析,选取与目标视频的内容匹配的原始评论。
在本实施例的一些可选的实现方式中,选取单元进一步被配置成:以单词为锚点对原始评论进行句法分析,得到原始评论的关键词和句子结构;基于关键词和句子结构,选取与目标视频的内容匹配的原始评论。
在本实施例的一些可选的实现方式中,选取单元进一步被配置成:以单词为锚点对原始评论进行情感分析,得到原始评论的情感信息;基于情感信息,选取与目标视频的内容匹配的原始评论。
在本实施例的一些可选的实现方式中,识别模块602进一步被配置成:对目标视频中的图片进行光学字符识别,得到图片中的文字信息。
在本实施例的一些可选的实现方式中,识别模块602进一步被配置成:对目标视频中的图片进行人脸检测,得到图片中的人物信息。
在本实施例的一些可选的实现方式中,确定模块603进一步被配置成:将文本信息和目标评论输入至预先训练的得分计算模型,得到文本信息与目标评论的得分;基于文本信息与目标评论的得分,确定文本信息与目标评论是否内容匹配。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如视频处理方法。例如,在一些实施例中,视频处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的视频处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行视频处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (23)
1.一种视频处理方法,包括:
获取目标视频和所述目标视频的目标评论;
对所述目标视频中的图片进行识别,得到所述图片的文本信息;
确定与所述文本信息的内容匹配的目标评论;
在所述目标视频中的所述图片的显示时刻,以弹幕形式插入所述内容匹配的目标评论。
2.根据权利要求1所述的方法,其中,所述获取目标视频,包括:
获取原始新闻;
搜索与所述原始新闻相关的原始视频;
对所述原始新闻进行提取摘要,得到所述原始新闻的解说词;
基于所述解说词生成视频语音,以及基于所述原始新闻和所述原始视频,生成与所述视频语音对应的视频画面;
合成所述视频画面和所述视频语音,得到所述目标视频。
3.根据权利要求2所述的方法,其中,所述搜索与所述原始新闻相关的原始视频,包括:
获取所述原始新闻的原始评论;
基于所述原始新闻和/或所述原始评论的内容,搜索所述原始视频。
4.根据权利要求2所述的方法,其中,所述获取所述目标视频的目标评论,包括:
获取所述原始新闻的原始评论;
选取与所述目标视频的内容匹配的原始评论,作为所述目标评论。
5.根据权利要求4所述的方法,其中,所述选取与所述目标视频的内容匹配的原始评论,包括:
对所述原始评论进行词法分析,将所述原始评论分解成单词;
以所述单词为锚点对所述原始评论进行分析,选取与所述目标视频的内容匹配的原始评论。
6.根据权利要求5所述的方法,其中,所述以所述单词为锚点对所述原始评论进行分析,选取与所述目标视频的内容匹配的原始评论,包括:
以所述单词为锚点对所述原始评论进行句法分析,得到所述原始评论的关键词和句子结构;
基于所述关键词和所述句子结构,选取与所述目标视频的内容匹配的原始评论。
7.根据权利要求5所述的方法,其中,所述以所述单词为锚点对所述原始评论进行分析,选取与所述目标视频的内容匹配的原始评论,包括:
以所述单词为锚点对所述原始评论进行情感分析,得到所述原始评论的情感信息;
基于所述情感信息,选取与所述目标视频的内容匹配的原始评论。
8.根据权利要求1所述的方法,其中,所述对所述目标视频中的图片进行识别,得到所述图片的文本信息,包括:
对所述目标视频中的图片进行光学字符识别,得到所述图片中的文字信息。
9.根据权利要求1所述的方法,其中,所述对所述目标视频中的图片进行识别,得到所述图片的文本信息,包括:
对所述目标视频中的图片进行人脸检测,得到所述图片中的人物信息。
10.根据权利要求1所述方法,其中,所述确定与所述文本信息的内容匹配的目标评论,包括:
将所述文本信息和所述目标评论输入至预先训练的得分计算模型,得到所述文本信息与所述目标评论的得分;
基于所述文本信息与所述目标评论的得分,确定所述文本信息与所述目标评论是否内容匹配。
11.一种视频处理装置,包括:
获取模块,被配置成获取目标视频和所述目标视频的目标评论;
识别模块,被配置成对所述目标视频中的图片进行识别,得到所述图片的文本信息;
确定模块,被配置成确定与所述文本信息的内容匹配的目标评论;
插入模块,被配置成在所述目标视频中的所述图片的显示时刻,以弹幕形式插入所述内容匹配的目标评论。
12.根据权利要求11所述的装置,其中,所述获取模块包括:
第一获取子模块,被配置成获取原始新闻;
搜索子模块,被配置成搜索与所述原始新闻相关的原始视频;
提取子模块,被配置成对所述原始新闻进行提取摘要,得到所述原始新闻的解说词;
生成子模块,被配置成基于所述解说词生成视频语音,以及基于所述原始新闻和所述原始视频,生成与所述视频语音对应的视频画面;
合成子模块,被配置成合成所述视频画面和所述视频语音,得到所述目标视频。
13.根据权利要求12所述的装置,其中,所述搜索子模块进一步被配置成:
获取所述原始新闻的原始评论;
基于所述原始新闻和/或所述原始评论的内容,搜索所述原始视频。
14.根据权利要求12所述的装置,其中,所述获取模块包括:
第二获取子模块,被配置成获取所述原始新闻的原始评论;
选取子模块,被配置成选取与所述目标视频的内容匹配的原始评论,作为所述目标评论。
15.根据权利要求14所述的装置,其中,所述选取子模块包括:
分解单元,被配置成对所述原始评论进行词法分析,将所述原始评论分解成单词;
选取单元,被配置成以所述单词为锚点对所述原始评论进行分析,选取与所述目标视频的内容匹配的原始评论。
16.根据权利要求15所述的装置,其中,所述选取单元进一步被配置成:
以所述单词为锚点对所述原始评论进行句法分析,得到所述原始评论的关键词和句子结构;
基于所述关键词和所述句子结构,选取与所述目标视频的内容匹配的原始评论。
17.根据权利要求15所述的装置,其中,所述选取单元进一步被配置成:
以所述单词为锚点对所述原始评论进行情感分析,得到所述原始评论的情感信息;
基于所述情感信息,选取与所述目标视频的内容匹配的原始评论。
18.根据权利要求11所述的装置,其中,所述识别模块进一步被配置成:
对所述目标视频中的图片进行光学字符识别,得到所述图片中的文字信息。
19.根据权利要求11所述的装置,其中,所述识别模块进一步被配置成:
对所述目标视频中的图片进行人脸检测,得到所述图片中的人物信息。
20.根据权利要求11所述装置,其中,所述确定模块进一步被配置成:
将所述文本信息和所述目标评论输入至预先训练的得分计算模型,得到所述文本信息与所述目标评论的得分;
基于所述文本信息与所述目标评论的得分,确定所述文本信息与所述目标评论是否内容匹配。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
23.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110200351.7A CN113014988B (zh) | 2021-02-23 | 2021-02-23 | 视频处理方法、装置、设备以及存储介质 |
EP22157251.4A EP3982276A3 (en) | 2021-02-23 | 2022-02-17 | Method and apparatus for processing video, storage medium amd program |
JP2022023611A JP7355865B2 (ja) | 2021-02-23 | 2022-02-18 | ビデオ処理方法、装置、デバイスおよび記憶媒体 |
US17/651,714 US12108120B2 (en) | 2021-02-23 | 2022-02-18 | Method for processing video, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110200351.7A CN113014988B (zh) | 2021-02-23 | 2021-02-23 | 视频处理方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113014988A true CN113014988A (zh) | 2021-06-22 |
CN113014988B CN113014988B (zh) | 2024-04-05 |
Family
ID=76407155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110200351.7A Active CN113014988B (zh) | 2021-02-23 | 2021-02-23 | 视频处理方法、装置、设备以及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12108120B2 (zh) |
EP (1) | EP3982276A3 (zh) |
JP (1) | JP7355865B2 (zh) |
CN (1) | CN113014988B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673414A (zh) * | 2021-08-18 | 2021-11-19 | 北京奇艺世纪科技有限公司 | 弹幕生成方法、装置、电子设备及存储介质 |
CN113742501A (zh) * | 2021-08-31 | 2021-12-03 | 北京百度网讯科技有限公司 | 一种信息提取方法、装置、设备、及介质 |
CN114584841A (zh) * | 2022-03-02 | 2022-06-03 | 湖南快乐阳光互动娱乐传媒有限公司 | 评论内容生成方法及装置、存储介质及电子设备 |
WO2023011094A1 (zh) * | 2021-08-02 | 2023-02-09 | 北京百度网讯科技有限公司 | 视频编辑方法、装置、电子设备以及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559214A (zh) * | 2013-10-11 | 2014-02-05 | 中国农业大学 | 视频自动生成方法及装置 |
CN104618806A (zh) * | 2014-03-17 | 2015-05-13 | 腾讯科技(北京)有限公司 | 获取视频的评论信息的方法、装置及系统 |
CN109618236A (zh) * | 2018-12-13 | 2019-04-12 | 连尚(新昌)网络科技有限公司 | 视频评论处理方法和装置 |
CN110267113A (zh) * | 2019-06-14 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 视频文件加工方法、系统、介质和电子设备 |
CN110366002A (zh) * | 2019-06-14 | 2019-10-22 | 北京字节跳动网络技术有限公司 | 视频文件合成方法、系统、介质和电子设备 |
CN110377842A (zh) * | 2019-06-14 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 语音评论显示方法、系统、介质和电子设备 |
CN110740387A (zh) * | 2019-10-30 | 2020-01-31 | 深圳Tcl数字技术有限公司 | 一种弹幕编辑方法、智能终端及存储介质 |
CN111711865A (zh) * | 2020-06-30 | 2020-09-25 | 浙江同花顺智能科技有限公司 | 输出数据的方法、设备及存储介质 |
CN111798879A (zh) * | 2019-04-08 | 2020-10-20 | 百度(美国)有限责任公司 | 用于生成视频的方法和装置 |
CN113905125A (zh) * | 2021-09-08 | 2022-01-07 | 维沃移动通信有限公司 | 视频显示方法、装置及电子设备 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006155384A (ja) | 2004-11-30 | 2006-06-15 | Nippon Telegr & Teleph Corp <Ntt> | 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体 |
JP4513667B2 (ja) | 2005-06-20 | 2010-07-28 | 日本電信電話株式会社 | 映像情報入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体 |
US8286218B2 (en) * | 2006-06-08 | 2012-10-09 | Ajp Enterprises, Llc | Systems and methods of customized television programming over the internet |
US8023800B2 (en) * | 2006-06-23 | 2011-09-20 | Steve Concotelli | Media playback system |
US8844051B2 (en) * | 2009-09-09 | 2014-09-23 | Nokia Corporation | Method and apparatus for media relaying and mixing in social networks |
JP5277184B2 (ja) | 2010-01-25 | 2013-08-28 | 日本放送協会 | 選択肢生成提示装置及び選択肢生成提示プログラム |
US20110202967A1 (en) * | 2010-02-12 | 2011-08-18 | Voice The Game, Llc | Apparatus and Method to Broadcast Layered Audio and Video Over Live Streaming Activities |
US9401947B1 (en) | 2013-02-08 | 2016-07-26 | Google Inc. | Methods, systems, and media for presenting comments based on correlation with content |
US20150382077A1 (en) * | 2014-06-26 | 2015-12-31 | Xiaomi Inc. | Method and terminal device for acquiring information |
CN104967896A (zh) | 2014-08-04 | 2015-10-07 | 腾讯科技(北京)有限公司 | 一种显示弹幕评论信息的方法和装置 |
CN107005724B (zh) | 2014-12-03 | 2020-09-18 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US20170034237A1 (en) * | 2015-07-28 | 2017-02-02 | Giga Entertainment Media Inc. | Interactive Content Streaming Over Live Media Content |
CN105554582A (zh) | 2015-12-14 | 2016-05-04 | 广州弹幕网络科技有限公司 | 一种评论展示方法及系统 |
CN105578222B (zh) | 2016-02-01 | 2019-04-12 | 百度在线网络技术(北京)有限公司 | 一种信息推送方法和装置 |
CN108124167A (zh) * | 2016-11-30 | 2018-06-05 | 阿里巴巴集团控股有限公司 | 一种播放处理方法、装置和设备 |
JP7013289B2 (ja) | 2018-03-13 | 2022-01-31 | 株式会社東芝 | 情報処理システム、情報処理方法およびプログラム |
US10678851B2 (en) * | 2018-04-25 | 2020-06-09 | International Business Machines Corporation | Cognitive content display device |
CN111859973B (zh) | 2019-04-08 | 2024-06-25 | 百度时代网络技术(北京)有限公司 | 用于生成解说词的方法和装置 |
CN111954052B (zh) * | 2019-05-17 | 2022-04-05 | 上海哔哩哔哩科技有限公司 | 显示弹幕信息的方法、计算机设备及可读存储介质 |
CN110650377B (zh) | 2019-10-29 | 2022-02-01 | 成都驰通数码系统有限公司 | 一种数字电视节目评论和弹幕系统及方法 |
US12120377B2 (en) * | 2019-12-17 | 2024-10-15 | Tencent Technology (Shenzhen) Company Limited | Video playing method and apparatus, electronic device, and storage medium |
CN111294663B (zh) * | 2020-02-10 | 2022-01-07 | 腾讯科技(深圳)有限公司 | 弹幕处理方法、装置、电子设备及计算机可读存储介质 |
CN111327960B (zh) | 2020-03-05 | 2022-07-29 | 北京字节跳动网络技术有限公司 | 文章处理方法、装置、电子设备及计算机存储介质 |
CN112637670B (zh) * | 2020-12-15 | 2022-07-29 | 上海哔哩哔哩科技有限公司 | 视频生成方法及装置 |
-
2021
- 2021-02-23 CN CN202110200351.7A patent/CN113014988B/zh active Active
-
2022
- 2022-02-17 EP EP22157251.4A patent/EP3982276A3/en active Pending
- 2022-02-18 JP JP2022023611A patent/JP7355865B2/ja active Active
- 2022-02-18 US US17/651,714 patent/US12108120B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103559214A (zh) * | 2013-10-11 | 2014-02-05 | 中国农业大学 | 视频自动生成方法及装置 |
CN104618806A (zh) * | 2014-03-17 | 2015-05-13 | 腾讯科技(北京)有限公司 | 获取视频的评论信息的方法、装置及系统 |
CN109618236A (zh) * | 2018-12-13 | 2019-04-12 | 连尚(新昌)网络科技有限公司 | 视频评论处理方法和装置 |
CN111798879A (zh) * | 2019-04-08 | 2020-10-20 | 百度(美国)有限责任公司 | 用于生成视频的方法和装置 |
CN110267113A (zh) * | 2019-06-14 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 视频文件加工方法、系统、介质和电子设备 |
CN110366002A (zh) * | 2019-06-14 | 2019-10-22 | 北京字节跳动网络技术有限公司 | 视频文件合成方法、系统、介质和电子设备 |
CN110377842A (zh) * | 2019-06-14 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 语音评论显示方法、系统、介质和电子设备 |
CN110740387A (zh) * | 2019-10-30 | 2020-01-31 | 深圳Tcl数字技术有限公司 | 一种弹幕编辑方法、智能终端及存储介质 |
CN111711865A (zh) * | 2020-06-30 | 2020-09-25 | 浙江同花顺智能科技有限公司 | 输出数据的方法、设备及存储介质 |
CN113905125A (zh) * | 2021-09-08 | 2022-01-07 | 维沃移动通信有限公司 | 视频显示方法、装置及电子设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023011094A1 (zh) * | 2021-08-02 | 2023-02-09 | 北京百度网讯科技有限公司 | 视频编辑方法、装置、电子设备以及存储介质 |
CN113673414A (zh) * | 2021-08-18 | 2021-11-19 | 北京奇艺世纪科技有限公司 | 弹幕生成方法、装置、电子设备及存储介质 |
CN113673414B (zh) * | 2021-08-18 | 2023-09-01 | 北京奇艺世纪科技有限公司 | 弹幕生成方法、装置、电子设备及存储介质 |
CN113742501A (zh) * | 2021-08-31 | 2021-12-03 | 北京百度网讯科技有限公司 | 一种信息提取方法、装置、设备、及介质 |
CN114584841A (zh) * | 2022-03-02 | 2022-06-03 | 湖南快乐阳光互动娱乐传媒有限公司 | 评论内容生成方法及装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2022075668A (ja) | 2022-05-18 |
EP3982276A3 (en) | 2022-07-06 |
EP3982276A2 (en) | 2022-04-13 |
JP7355865B2 (ja) | 2023-10-03 |
US12108120B2 (en) | 2024-10-01 |
US20220174369A1 (en) | 2022-06-02 |
CN113014988B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113014988B (zh) | 视频处理方法、装置、设备以及存储介质 | |
CN111798879B (zh) | 用于生成视频的方法和装置 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
KR20210104571A (ko) | 멀티 모달리티를 기반으로 하는 주제 분류 방법, 장치, 기기 및 저장 매체 | |
CN109697239B (zh) | 用于生成图文信息的方法 | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN109117777A (zh) | 生成信息的方法和装置 | |
CN111866610B (zh) | 用于生成信息的方法和装置 | |
CN115359383B (zh) | 跨模态特征提取、检索以及模型的训练方法、装置及介质 | |
CN111274372A (zh) | 用于人机交互的方法、电子设备和计算机可读存储介质 | |
CN111695349A (zh) | 文本匹配方法和文本匹配系统 | |
JP2023535108A (ja) | ビデオタグ推薦モデルのトレーニング方法及びビデオタグの決定方法、それらの装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111639228A (zh) | 视频检索方法、装置、设备及存储介质 | |
CN115982376A (zh) | 基于文本、多模数据和知识训练模型的方法和装置 | |
CN114782722A (zh) | 图文相似度的确定方法、装置及电子设备 | |
Dai et al. | Weakly-supervised multi-task learning for multimodal affect recognition | |
CN115098729A (zh) | 视频处理方法、样本生成方法、模型训练方法及装置 | |
CN113919360A (zh) | 语义理解方法、语音交互方法、装置、设备及存储介质 | |
Xia et al. | Boosting image caption generation with feature fusion module | |
CN113038175B (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN114120166A (zh) | 视频问答方法、装置、电子设备及存储介质 | |
CN111988668B (zh) | 一种视频推荐方法、装置、计算机设备及存储介质 | |
Attai et al. | A survey on arabic image captioning systems using deep learning models | |
CN114863450A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114693949A (zh) | 一种基于区域感知对齐网络的多模态评价对象抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |