CN111343391A - 影片撷取方法与使用此方法的电子装置 - Google Patents
影片撷取方法与使用此方法的电子装置 Download PDFInfo
- Publication number
- CN111343391A CN111343391A CN201811547723.8A CN201811547723A CN111343391A CN 111343391 A CN111343391 A CN 111343391A CN 201811547723 A CN201811547723 A CN 201811547723A CN 111343391 A CN111343391 A CN 111343391A
- Authority
- CN
- China
- Prior art keywords
- time point
- film
- movie
- clip
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4662—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
- H04N21/4666—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明提出一种影片撷取方法,用于以电子装置撷取影片的至少一剪辑,其中所述影片对应于观众聊天室,所述影片撷取方法包括:取得所述影片在多个时间点的特征信息,其中所述特征信息包括所述观众聊天室的刷新频率;以及根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑。此外,一种使用此方法的电子装置亦被提出。
Description
技术领域
本发明是有关于一种撷取技术,且特别是有关于一种影片撷取方法与使用此方法的电子装置。
背景技术
随着科技的进步、网络直播平台的普及与各式网络影音平台兴起,娱乐影音唾手可得,改变了人们的影音观看行为。从固定时间蹲坐在电视屏幕前,转而移向随选随看的网络影音,网络影音带来新的互动与观看体验。
然而,由于直播门槛的降低,只要下载直播应用程序(application,APP)或是登录直播平台,每个人随时随地都可以变成网络主播,直播俨然成为了一种新的娱乐模式。但,往往一个直播经常超过一小时且时间不定,观众也不会一直关注某个网络主播每天随时的完整内容。因此,为了吸引观众,网络主播通常都要花费额外的时间过滤冗长的直播内容并剪辑精华片段以吸引粉丝观看。此外,网络主播也能将精简版的精华影片分享至其他社群平台以提高知名度并增加订阅观众。据此,如何能够设计出一套自动的方法来剪辑精华片段,是本领域的技术人员研究的课题之一。
发明内容
本发明提供一种影片撷取方法与使用此方法的电子装置,能够自动分析影片以撷取影片中的精华片段,据此可节省使用者剪辑影片的时间。
本发明的影片撷取方法,用于以电子装置撷取影片的至少一剪辑,其中所述影片对应于观众聊天室,所述影片撷取方法包括:取得所述影片在多个时间点的特征信息,其中所述特征信息包括所述观众聊天室的刷新频率;以及根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑。
在本发明的一实施例中,上述根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑的步骤包括:根据各时间点的所述特征信息,利用神经网络模型将所述影片在各时间点的影像分类为精华类别或非精华类别,其中所述神经网络模型是基于多个历史精华影片来建构;以及根据分类为所述精华类别的所述影像产生所述至少一剪辑。
在本发明的一实施例中,上述取得所述影片在所述时间点的所述特征信息的步骤包括:记录第一时间点时,所述观众聊天室的最近更新留言;在第二时间点找出所述最近更新留言在所述观众聊天室中的所在位置;以及根据所述第一时间点、所述第二时间点以及所述所在位置,计算所述影片在所述第一时间点的所述刷新频率。
在本发明的一实施例中,上述的特征信息包括表情分数及音量,并且取得所述影片在所述时间点的所述特征信息的步骤包括:对所述影片在各时间点的影像进行人脸检测并且取得多种表情类别的其中之一;以及根据所述表情类别设定所述表情分数。
在本发明的一实施例中,上述根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑的步骤包括:根据各时间点的所述刷新频率、所述表情分数以及所述音量计算特征分数;以及根据所述特征分数,从所述影片撷取所述至少一剪辑,其中计算所述特征分数时,所述刷新频率的权重值高于所述表情分数的权重值以及所述音量的权重值。
本发明的电子装置,用以撷取影片的至少一剪辑,其中所述影片对应于观众聊天室,所述电子装置包括:存储装置,记录多个模块;以及处理器,连接于所述存储装置,以存取并执行所述存储装置中记录的所述模块,所述模块包括:数据收集模块,取得所述影片在多个时间点的特征信息,其中所述特征信息包括所述观众聊天室的刷新频率;以及影片撷取模块,根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑。
在本发明的一实施例中,上述的影片撷取模块包括:根据各时间点的所述特征信息,利用神经网络模型将所述影片在各时间点的影像分类为精华类别或非精华类别,其中所述神经网络模型是基于多个历史精华影片来建构;以及根据分类为所述精华类别的所述影像产生所述至少一剪辑。
在本发明的一实施例中,上述的数据收集模块包括:记录第一时间点时,所述观众聊天室的最近更新留言;在第二时间点找出所述最近更新留言在所述观众聊天室中的所在位置;以及根据所述第一时间点、所述第二时间点以及所述所在位置,计算所述影片在所述第一时间点的所述刷新频率。
在本发明的一实施例中,上述的特征信息包括表情分数及音量,并且所述数据收集模块包括:对所述影片在各时间点的影像进行人脸检测并且取得多种表情类别的其中之一;以及根据所述表情类别设定所述表情分数。
在本发明的一实施例中,上述的影片撷取模块包括:根据各时间点的所述刷新频率、所述表情分数以及所述音量计算特征分数;以及根据所述特征分数,从所述影片撷取所述至少一剪辑,其中计算所述特征分数时,所述刷新频率的权重值高于所述表情分数的权重值以及所述音量的权重值。
基于上述,本发明实施例所提供的影片撷取方法与使用此方法的电子装置,能够将影片在多个时间点的特征信息输入神经网络模型以将在各时间点的影像分类为精华类别或非精华类别,并且对分类为精华类别的影像进行撷取操作,借此能够自动分析影片以撷取影片中的精华片段。如此一来,可节省使用者剪辑影片的时间。
附图说明
图1绘制本发明一实施例中电子装置的方块图。
图2绘制本发明一实施例的影片撷取方法的流程图。
图3A及图3B绘制本发明一实施例的影片中影像的示意图。
附图标记说明:
100:电子装置;
110:存储装置;
112:数据收集模块;
114:影片撷取模块;
120:处理器;
S220、S240:影片撷取方法的步骤;
300a、300b:影像;
320:观众聊天室;
322:留言;
340:网络主播窗口。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图作详细说明如下。
图1绘制本发明一实施例中电子装置的方块图。
请参照图1,电子装置100包括存储装置110以及处理器120。电子装置100例如为台式电脑(Desktop)、笔记本电脑(Notebook)、平板电脑(Tablet PC)、智能移动电话(SmartPhone)或便携式游戏机(PSP)等具有运算能力以提供剪辑功能的装置,本发明并不加以限制。
存储装置110用以记录数据收集模块112以及影片撷取模块114,这些模块例如是储存在存储装置110中的程序。在一些实施例中,存储装置100例如是任何型态的固定式或可移动式随机存取存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、闪存(flash memory)或类似元件或上述元件的组合,本发明并不加以限制。
处理器120连接存储装置110,并且会从存储装置110载入数据收集模块112以及影片撷取模块114的程序代码,据以执行本发明实施例的影片撷取方法。在一些实施例中,处理器120例如是中央处理器(Central Processing Unit,CPU),或是其他可编程的一般用途或特殊用途的微处理器(Microprocessor)、数字信号处理器(Digital Signal Processor,DSP)、可编程控制器、专用集成电路(Application Specific Integrated Circuits,ASIC)、可编程逻辑器件(Programmable Logic Device,PLD)或其他类似装置或这些装置的组合,本发明并不加以限制。
为了能够自动撷取影片中的精华片段,本发明实施例的电子装置100分析影片在各时间点的特征信息以进行影片撷取操作,其中所分析的特征信息包括影片在各时间点时对应的观众聊天室的刷新频率。如此一来,电子装置100可立即提供影片的精华片段,以减少使用者剪辑影片的时间。
图2绘制本发明一实施例的影片撷取方法的流程图。
图2实施例的影片撷取方法适用于图1实施例的电子装置100。以下将参照图1实施例的各项元件来详细说明图2实施例的影片撷取方法。在此需特别说明的是,本实施例中的影片对应于一个观众聊天室。在影片播放的过程中,影片的观众可以在观众聊天室中留言。在一些实施例中,影片中的影像包括所述观众聊天室,本发明并不加以限制。
在步骤S220中,处理器120执行数据收集模块112,处理器120取得影片在多个时间点的特征信息,所述特征信息包括观众聊天室的刷新频率。具体而言,处理器120取得所述观众聊天室的刷新频率的方式如下:首先,处理器120记录第一时间点时,观众聊天室的最近更新留言。接着,处理器120在第二时间点找出所述最近更新留言在观众聊天室中的所在位置。最后,处理器120根据第一时间点、第二时间点以及所在位置,统计在第一时间点与第二时间点之间出现几次新的留言,随后处理器120将所述新的留言的数量除以第一时间点与第二时间点的差值,以计算影片在第一时间点的刷新频率。
以下举实施例说明处理器120取得观众聊天室的刷新频率的具体方式。
图3A及图3B绘制本发明一实施例的影片中影像的示意图。图3A示出在影片中时间点t秒的影像300a,在影像300a中显示观众聊天室320的最近更新留言为留言322。图3B示出在影片中时间点t+3秒的影像300b,在影像300b中显示在时间点t+3秒时,留言322在观众聊天室320中的位置。处理器120根据时间点t秒、时间点t+3秒以及留言322在时间点t+3秒时的所在位置,统计在时间点t秒与时间点t+3秒之间出现9次新的留言,因此影片在时间点t的刷新频率为3次/秒。
在一些实施例中,所述特征信息还包括表情分数及音量。处理器120取得所述音量的方式如下:处理器120依据影片的音轨统计在各时间点的分贝数,所述分贝数即为音量。处理器120取得所述表情分数的方式如下:首先,处理器120利用情绪检测模型(例如,Python的DLIB函数库等,但不限于此)对影片在各时间点的影像进行人脸检测并且取得多种表情类别的其中之一,所述表情类别包括平淡无奇的表情、害怕的表情或开心的表情,本发明并不加以限制。接着,处理器120根据所述表情类别设定表情分数。详细来说,处理器120取出人脸显示为害怕或开心的表情,并将所述害怕或开心的表情量化为数值1(最大值),也就是说,处理器120将表情量化为数值0至1,其中数值0为平淡无奇的表情,数值1为害怕或开心的表情(所述数值即为表情分数)。值得注意的是,在一些实施例中,所述影片中的影像还包括网络主播窗口,处理器120仅针对网络主播窗口进行人脸检测,以减轻系统的运算负担,但本发明并不加以限制。
举例来说,请参照图3A及图3B,图3A的影像300a及图3B的影像300b包括网络主播窗口340。在图3A的示例中,于影片中时间点t秒时,网络主播窗口340中的人脸显示为平淡无奇的表情,因此处理器120在取得人脸显示为平淡无奇的表情后,设定表情分数为0。在图3B的示例中,于影片中时间点t+1秒时,网络主播窗口340的人脸显示为害怕的表情,因此处理器120在取得人脸显示为害怕的表情后,设定表情分数为1。
回到图2的流程图,在步骤S240中,处理器120执行影片撷取模块,处理器120根据各时间点的特征信息,从影片撷取至少一剪辑。在一些实施例中,处理器120根据各时间点的特征信息,利用神经网络模型将影片在各时间点的影像分类为精华类别或非精华类别,接着根据分类为精华类别的影像产生至少一剪辑。
在一些实施例中,处理器120根据各时间点的刷新频率、表情分数以及音量计算特征分数,并且根据特征分数,从影片撷取至少一剪辑。特别是,处理器120计算所述特征分数时,刷新频率的权重值高于表情分数的权重值以及音量的权重值。举例来说,处理器120会将所述特征分数输入神经网络模型以输出机率值,且判断所述机率值是否大于一预设阈值,若所述机率值大于所述预设阈值,处理器120将所述时间点的影像分类为精华类别;若所述机率值不大于所述预设阈值,处理器120将所述时间点的影像分类为非精华类别。接着,处理器120对分类为精华类别的影像进行撷取以产生至少一剪辑。在一些实施例中,特征分数等于刷新频率加上表情分数与音量的乘积,本发明并不加以限制。
在其他实施例中,处理器120也可以直接将刷新频率、表情分数以及音量输入神经网络模型,以将各时间点的影像分类为精华类别或非精华类别。然而,本发明并不加以限制。
值得一提的是,在一些实施例中,神经网络模型是基于多个历史精华影片来建构。神经网络模型的建立方式请见下述说明。首先,处理器120取得至少一个历史精华影片,所述历史精华影片包括多个精华影像,且各精华影像包括特征信息。举例来说,历史精华影片例如是由网络主播剪辑完成的精华影片。详细来说,处理器120在取得到历史精华影片后,通过影片分析技术(video object detection)将历史精华影片中的精华影像分类为网络主播窗口以及观众聊天室,处理器120取得各精华影像中观众聊天室的刷新频率、网络主播窗口的表情分数以及声音。接着,处理器120利用精华影像以及各精华影像的特征信息(观众聊天室的刷新频率、网络主播窗口的表情分数以及声音)训练神经网络模型。
此外,在一些实施例中,处理器120可利用数据反馈的方式,通过使用者有无使用所述至少一剪辑当精华片段的行为进行重训练流程(Re-Training Process)。所述重训练流程针对新取得精华片段中影像的不同刷新频率、不同表情分数以及不同声音分别在神经网络模型中进行机器学习(machine learning),借此优化神经网络模型,而使得未来经神经网络模型所输出的结果更加准确,并且更符合个人化需求。
综上所述,本发明实施例所提供的影片撷取方法与使用此方法的电子装置,能够将影片在多个时间点的特征信息输入神经网络模型以将在各时间点的影像分类为精华类别或非精华类别,并且对分类为精华类别的影像进行撷取操作,借此能够自动分析影片以撷取影片中的精华片段。如此一来,可节省使用者剪辑影片的时间。
虽然本发明已以实施例公开如上,然其并非用以限定本发明,任何所属技术领域中普通技术人员,在不脱离本发明的精神和范围内,当可作些许的改动与修饰,故本发明的保护范围当视权利要求所界定者为准。
Claims (10)
1.一种影片撷取方法,用于以电子装置撷取影片的至少一剪辑,其中所述影片对应于观众聊天室,所述影片撷取方法包括:
取得所述影片在多个时间点的特征信息,其中所述特征信息包括所述观众聊天室的刷新频率;以及
根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑。
2.如权利要求1所述的影片撷取方法,其特征在于,根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑的步骤包括:
根据各时间点的所述特征信息,利用神经网络模型将所述影片在各时间点的影像分类为精华类别或非精华类别,其中所述神经网络模型是基于多个历史精华影片来建构;以及
根据分类为所述精华类别的所述影像产生所述至少一剪辑。
3.如权利要求1所述的影片撷取方法,其特征在于,取得所述影片在所述时间点的所述特征信息的步骤包括:
记录第一时间点时,所述观众聊天室的最近更新留言;
在第二时间点找出所述最近更新留言在所述观众聊天室中的所在位置;以及
根据所述第一时间点、所述第二时间点以及所述所在位置,计算所述影片在所述第一时间点的所述刷新频率。
4.如权利要求1至3中任一项所述的影片撷取方法,其特征在于,所述特征信息包括表情分数及音量,并且取得所述影片在所述时间点的所述特征信息的步骤包括:
对所述影片在各时间点的影像进行人脸检测并且取得多种表情类别的其中之一;以及
根据所述表情类别设定所述表情分数。
5.如权利要求4所述的影片撷取方法,其特征在于,根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑的步骤包括:
根据各时间点的所述刷新频率、所述表情分数以及所述音量计算特征分数;以及
根据所述特征分数,从所述影片撷取所述至少一剪辑,其中计算所述特征分数时,所述刷新频率的权重值高于所述表情分数的权重值以及所述音量的权重值。
6.一种电子装置,用以撷取影片的至少一剪辑,其中所述影片对应于观众聊天室,所述电子装置包括:
存储装置,记录多个模块;以及
处理器,连接于所述存储装置,以存取并执行所述存储装置中记录的所述模块,所述模块包括:
数据收集模块,取得所述影片在多个时间点的特征信息,其中所述特征信息包括所述观众聊天室的刷新频率;以及
影片撷取模块,根据各时间点的所述特征信息,从所述影片撷取所述至少一剪辑。
7.如权利要求6所述的电子装置,其特征在于,所述影片撷取模块包括:
根据各时间点的所述特征信息,利用神经网络模型将所述影片在各时间点的影像分类为精华类别或非精华类别,其中所述神经网络模型是基于多个历史精华影片来建构;以及
根据分类为所述精华类别的所述影像产生所述至少一剪辑。
8.如权利要求6所述的电子装置,其特征在于,所述数据收集模块包括:
记录第一时间点时,所述观众聊天室的最近更新留言;
在第二时间点找出所述最近更新留言在所述观众聊天室中的所在位置;以及
根据所述第一时间点、所述第二时间点以及所述所在位置,计算所述影片在所述第一时间点的所述刷新频率。
9.如权利要求6至8中任一项所述的电子装置,其特征在于,所述特征信息包括表情分数及音量,并且所述数据收集模块包括:
对所述影片在各时间点的影像进行人脸检测并且取得多种表情类别的其中之一;以及
根据所述表情类别设定所述表情分数。
10.如权利要求9所述的电子装置,其特征在于,所述影片撷取模块包括:
根据各时间点的所述刷新频率、所述表情分数以及所述音量计算特征分数;以及
根据所述特征分数,从所述影片撷取所述至少一剪辑,其中计算所述特征分数时,所述刷新频率的权重值高于所述表情分数的权重值以及所述音量的权重值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811547723.8A CN111343391A (zh) | 2018-12-18 | 2018-12-18 | 影片撷取方法与使用此方法的电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811547723.8A CN111343391A (zh) | 2018-12-18 | 2018-12-18 | 影片撷取方法与使用此方法的电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111343391A true CN111343391A (zh) | 2020-06-26 |
Family
ID=71183153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811547723.8A Pending CN111343391A (zh) | 2018-12-18 | 2018-12-18 | 影片撷取方法与使用此方法的电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111343391A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111789A (zh) * | 2021-04-15 | 2021-07-13 | 山东大学 | 一种基于视频流的面部表情识别方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070266001A1 (en) * | 2006-05-09 | 2007-11-15 | Microsoft Corporation | Presentation of duplicate and near duplicate search results |
CN104581193A (zh) * | 2015-01-20 | 2015-04-29 | 卡内基投资科技有限公司 | 一种精彩片段直播视频的生成方法 |
CN107426583A (zh) * | 2017-06-16 | 2017-12-01 | 广州视源电子科技股份有限公司 | 基于热点的视频编辑方法、服务器及视频播放系统 |
CN108062409A (zh) * | 2017-12-29 | 2018-05-22 | 北京奇艺世纪科技有限公司 | 直播视频摘要的生成方法、装置及电子设备 |
CN108540854A (zh) * | 2018-03-29 | 2018-09-14 | 努比亚技术有限公司 | 直播视频剪辑方法、终端及计算机可读存储介质 |
CN108848416A (zh) * | 2018-06-21 | 2018-11-20 | 北京密境和风科技有限公司 | 音视频内容的评价方法和装置 |
-
2018
- 2018-12-18 CN CN201811547723.8A patent/CN111343391A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070266001A1 (en) * | 2006-05-09 | 2007-11-15 | Microsoft Corporation | Presentation of duplicate and near duplicate search results |
CN104581193A (zh) * | 2015-01-20 | 2015-04-29 | 卡内基投资科技有限公司 | 一种精彩片段直播视频的生成方法 |
CN107426583A (zh) * | 2017-06-16 | 2017-12-01 | 广州视源电子科技股份有限公司 | 基于热点的视频编辑方法、服务器及视频播放系统 |
CN108062409A (zh) * | 2017-12-29 | 2018-05-22 | 北京奇艺世纪科技有限公司 | 直播视频摘要的生成方法、装置及电子设备 |
CN108540854A (zh) * | 2018-03-29 | 2018-09-14 | 努比亚技术有限公司 | 直播视频剪辑方法、终端及计算机可读存储介质 |
CN108848416A (zh) * | 2018-06-21 | 2018-11-20 | 北京密境和风科技有限公司 | 音视频内容的评价方法和装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111789A (zh) * | 2021-04-15 | 2021-07-13 | 山东大学 | 一种基于视频流的面部表情识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106911961B (zh) | 多媒体数据播放方法及装置 | |
CN108985176B (zh) | 图像生成方法及装置 | |
CN109257645B (zh) | 视频封面生成方法及装置 | |
CN108184169B (zh) | 视频播放方法、装置、存储介质及电子设备 | |
RU2640632C2 (ru) | Способ и устройство для доставки информации | |
CN107871001B (zh) | 音频播放方法、装置、存储介质及电子设备 | |
US20180068188A1 (en) | Video analyzing method and video processing apparatus thereof | |
CN106534951B (zh) | 视频分割方法和装置 | |
CN113055709B (zh) | 视频发布方法、装置、设备、存储介质及程序产品 | |
US10897658B1 (en) | Techniques for annotating media content | |
CN112150457A (zh) | 视频检测方法、装置及计算机可读存储介质 | |
WO2016200721A1 (en) | Contextual video content adaptation based on target device | |
CN110868632B (zh) | 视频处理方法、装置、存储介质及电子设备 | |
CN110727810A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN107105311B (zh) | 直播方法及装置 | |
US11889127B2 (en) | Live video interaction method and apparatus, and computer device | |
CN111343391A (zh) | 影片撷取方法与使用此方法的电子装置 | |
CN110830845A (zh) | 一种视频生成方法、装置及终端设备 | |
CN111832455A (zh) | 获取内容图像的方法、装置、存储介质和电子设备 | |
CN113542909A (zh) | 视频处理方法、装置、电子设备及计算机存储介质 | |
CN115278355B (zh) | 视频剪辑方法、装置、设备、计算机可读存储介质及产品 | |
CN115222969A (zh) | 标识信息识别方法、装置、设备、可读存储介质及产品 | |
CN111274449B (zh) | 视频播放方法、装置、电子设备和存储介质 | |
WO2021047181A1 (zh) | 基于视频类型的播放控制实现方法、装置及计算机设备 | |
TWI688269B (zh) | 影片擷取方法與使用此方法的電子裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200626 |