CN107959883B - 视频编辑推送方法、系统及智能移动终端 - Google Patents

视频编辑推送方法、系统及智能移动终端 Download PDF

Info

Publication number
CN107959883B
CN107959883B CN201711239996.1A CN201711239996A CN107959883B CN 107959883 B CN107959883 B CN 107959883B CN 201711239996 A CN201711239996 A CN 201711239996A CN 107959883 B CN107959883 B CN 107959883B
Authority
CN
China
Prior art keywords
video
environment
editing
classification
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711239996.1A
Other languages
English (en)
Other versions
CN107959883A (zh
Inventor
周宇涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bigo Technology Pte Ltd
Original Assignee
Guangzhou Baiguoyuan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baiguoyuan Information Technology Co Ltd filed Critical Guangzhou Baiguoyuan Information Technology Co Ltd
Priority to CN201711239996.1A priority Critical patent/CN107959883B/zh
Publication of CN107959883A publication Critical patent/CN107959883A/zh
Priority to PCT/CN2018/118373 priority patent/WO2019105440A1/zh
Priority to US16/767,677 priority patent/US11393205B2/en
Application granted granted Critical
Publication of CN107959883B publication Critical patent/CN107959883B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明实施例公开了一种视频编辑推送方法、系统及智能移动终端,包括下述步骤:在拍摄状态下获取用户待执行的编辑指令;根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。通过将编辑视频中抽取的帧画面图像,输入到已经训练完成的环境分类模型中,获取该帧画面的环境分类信息,并以该环境分类信息为条件,获取与该分类信息相配合或者相同类型的视频编辑素材,供用户选择使用。

Description

视频编辑推送方法、系统及智能移动终端
技术领域
本发明实施例涉及直播领域,尤其是一种视频编辑推送方法、系统及智能移动终端。
背景技术
视频编辑是指先用摄影机摄录下预期的影像,再在电脑上用视频编辑软件将影像制作成碟片的编辑过程。但是随着智能移动终端的处理能力越来越好,即时视频编辑成为发展的需求,通过智能移动终端对拍摄的短视频进行编辑成为新的需求。
现有技术中,用户使用移动终端进行视频编辑时,需要在本地存储空间或从网络服务器下载相关的视频编辑素材,用户通过素材的缩略图或者动态展示窗口浏览编辑素材,选定编辑素材后通过调取该编辑素材来完成视频素材的添加。
但是,本发明创造的发明人在研究中发现,由于编辑素材的多样性,用户能够获取和选择的视频编辑素材数据很多,用户需要从大量数据中确定当前视频编辑过程中所要使用的编辑素材,需要耗费较多的时间进行筛选,在网络环境下获取编辑素材,则更需要用户耗费较多的数据流量对编辑素材进行浏览筛选。因此,现有技术中,通过用户海量浏览的方式确定视频编辑素材的方法效率低下,急需改进。
发明内容
本发明实施例提供一种能够根据编辑视频所处环境的类别进行视频编辑素材获取的视频编辑推送方法、系统及智能移动终端。
为解决上述技术问题,本发明创造的实施例采用的一个技术方案是:提供一种视频编辑推送方法,包括下述步骤:
在拍摄状态下获取用户待执行的编辑指令;
根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;
根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。
可选地,所述根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息的步骤,具体包括下述步骤:
在视频拍摄状态下定时获取拍摄视频的多个帧画面;
将所述多个帧画面分别输入到所述环境分类模型中,获取所述多个帧画面对应的多个分类信息,并对所述多个分类信息进行统计;
根据统计结果将所述多个分类信息中分布率最高的分类信息标记为所述拍摄视频的分类信息。
可选地,所述根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息的步骤,具体包括下述步骤:
定时获取所述编辑视频的多个帧画面;
比对所述多个帧画面中图像表征的环境信息是否一致;
当所述多个帧画面中图像表征的环境信息不一致时,对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
可选地,所述根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境的步骤,具体包括下述步骤:
根据所述统计分类目录分别获取所述视频编辑素材;
获取所述统计分类目录表征的环境信息在所述编辑视频中的摄入时长,并根据所述时长对所述视频编辑素材进行降幂排布。
可选地,所述比对所述多个帧画面中图像表征的环境信息是否一致的步骤之后,还包括下述步骤:
当所述多个帧画面中图像表征的环境信息不一致时,获取相同环境信息的帧画面在所述编辑视频的片段时长;
对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
可选地,所述根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境的步骤,具体包括下述步骤:
获取所述编辑视频的编辑时段位置;
确定所述编辑时段位置位于所述编辑视频的某一所述片段时长内;
获取与所述片段时长环境信息相对应的视频编辑素材。
可选地,所述环境分类模型具体为训练至收敛状态的卷积神经网络模型,所述卷积神经网络模型被训练用于对图像环境进行分类。
为解决上述技术问题,本发明实施例还提供一种视频编辑推送系统,包括:
获取模块,用于在拍摄状态下获取用户待执行的编辑指令;
处理模块,用于根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;
执行模块,用于根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。
可选地,所述视频编辑系统还包括:
第一获取子模块,用于在视频拍摄状态下定时获取拍摄视频的多个帧画面;
第一统计子模块,用于将所述多个帧画面分别输入到所述环境分类模型中,获取所述多个帧画面对应的多个分类信息,并对所述多个分类信息进行统计;
第一处理子模块,用于根据统计结果将所述多个分类信息中分布率最高的分类信息标记为所述拍摄视频的分类信息。
可选地,所述视频编辑系统还包括:
第二获取子模块,用于定时获取所述编辑视频的多个帧画面;
第一比对子模块,用于比对所述多个帧画面中图像表征的环境信息是否一致;
第二处理子模块,用于当所述多个帧画面中图像表征的环境信息不一致时,对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
可选地,所述视频编辑系统还包括:
第三获取子模块,用于根据所述统计分类目录分别获取所述视频编辑素材;
第一排序子模块,用于获取所述统计分类目录表征的环境信息在所述编辑视频中的摄入时长,并根据所述时长对所述视频编辑素材进行降幂排布。
可选地,所述视频编辑系统还包括:
第三处理子模块,用于当所述多个帧画面中图像表征的环境信息不一致时,获取相同环境信息的帧画面在所述编辑视频的片段时长;
第二统计子模块,用于对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
可选地,所述视频编辑系统还包括:
第四获取子模块,用于获取所述编辑视频的编辑时段位置;
第一确定子模块,用于确定所述编辑时段位置位于所述编辑视频的某一所述片段时长内;
第五获取子模块,用于获取与所述片段时长环境信息相对应的视频编辑素材。
可选地,所述环境分类模型具体为训练至收敛状态的卷积神经网络模型,所述卷积神经网络模型被训练用于对图像环境进行分类。
为解决上述技术问题,本发明实施例还提供一种智能移动终端,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述所述的视频编辑推送方法。
本发明实施例的有益效果是:通过将编辑视频中抽取的帧画面图像,输入到已经训练完成的环境分类模型中,获取该帧画面的环境分类信息,并以该环境分类信息为条件,获取与该分类信息相配合或者相同类型的视频编辑素材,供用户选择使用,采用该方法能够通过分析帧画面中环境因素,并以该环境因素为过滤条件,对海量编辑素材进行初步筛选,提供给用户适合于在该环境的视频编辑素材,能够使用户方便快捷的获得适配度较高的编辑素材,提高了推送的效率。同时,也提高了编辑素材的投放精准度,减少用户数据流量的消耗。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例视频编辑推送方法的基本流程示意图;
图2为本发明实施例统一多个分类信息的一种流程示意图;
图3为本发明实施例多分类信息的一种处理流程示意图;
图4为本发明实施例对视频编辑素材进行排序的一种流程示意图;
图5为本发明实施例获取环境信息片段时长的流程示意图;
图6为本发明实施例根据编辑位置调整视频编辑素材推送结果的一种流程示意图;
图7为本发明实施例视频编辑推送系统基本结构框图;
图8为本发明实施例智能移动终端基本结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
需要指出的是本实施方式中的环境分类模型为深度学习技术中的卷积神经网络模型。
卷积神经网络主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于卷积神经网络的特征检测层通过训练数据进行学习,所以在使用卷积神经网络时,避免了显示的特征抽取,而隐式地从训练数据中进行学习。
卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。
本实施方式中,卷积神经网络模型被训练用于对图像环境进行分类,其训练过程为:收集图像作为训练样本,在训练之前通过人为标记,标记图像中的环境信息(如:雨、雾、晴朗、风沙或昏暗等),并将该信息作为该图像的期望输出。将标记完成的训练样本输入到卷积神经网络模型中,输入后卷积神经网络模型输出该训练样本数据的激励输出,比对期望输出与激励输出是否一致,不一致时,通过反向算法调整卷积神经网络模型的权值,以校正卷积神经网络模型的输出。然后将该训练忘本再输入到卷积神经网络模型中,获取新一轮的激励输出,然后再作比较,反复循环直至期望输出与激励输出一致时结束。训练时采用大量的训练样本如100万张图片,当卷积神经网络模型被训练至收敛时,识别成功率极高,能够快速识别待识别图片中的环境信息。
当卷积神经网络模型被训练至收敛后,作为环境分类模型对编辑视频中的环境信息进行识别,并根据识别结果获取相应的视频编辑素材,具体请参阅图1,图1为本实施例视频编辑推送方法的基本流程示意图。
如图1所示,视频编辑推送方法包括下述步骤:
S1000、在拍摄状态下获取用户待执行的编辑指令;
用户使用智能移动终端对拍摄或者本地存储的视频进行编辑,进入到编辑状态之前,接收用户通过手指或触控笔发送的点击或滑动指令。接收用户的点击或滑动指令后,进入视频编辑素材的获取阶段。
S2000、根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;
根据用户指令进入到视频编辑素材的获取阶段后,获取编辑视频的至少一个帧画面。
具体地,本实施方式中编辑视频是存储在用户智能移动终端本地存储空间内的待编辑视频,或者是通过智能移动终端的摄像头,正在进行拍摄录制的视频,即编辑视频能够是已经拍摄完成或者还处于拍摄状态中的视频资料。
编辑视频由若干帧画面图像组成,进入到视频编辑素材的获取阶段后通过随机抽取,或者通过定时抽取的方式(如每隔1s抽取一个帧画面)。
将获取的帧画面输入到环境分类模型中,获取表征帧画面所处环境的分类信息。
S3000、根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。
获取到能够表征编辑视频所处环境的分类信息后,根据该分类信息的视频编辑素材。视频编辑素材是专用于进行视频或图片编辑的素材,在制作时根据各视频素材内容会赋予该素材适用于何种环境的附属说明(如通过在素材上设置索引标签的方式)。进行获取时以分类信息为检索关键字,就能够将与其有关联关系能够配合于帧画面的图像环境的视频编辑素材进行召回。
智能移动终端获取视频编辑素材的方式有多种,其一,获取时通过在本地存储空间内直接筛选和提取;其二,获取时通过将分类信息发送至服务器端,服务器端通过在网络数据库中进行检索召回,然后将检索得到的数据发送至智能移动终端。
视频编辑素材配合于帧画面的图像环境。例如:检测到帧画面环境雷雨天气时,向用户推送雷电、大风和雨伞等与雨天环境配合的视频编辑素材;检测到帧画面环境为明亮晴朗的环境时,向用户推送太阳、笑脸或阳光开朗的语录等,但视频编辑素材不局限与此,根据应用场景的不同,能够开发出与任何环境信息相配合的编辑素材供用户进行选择使用。
视频年纪素材能够是(不限于):视频素材、文字素材、图像素材或者音乐素材。
上述实施方式通过将编辑视频中抽取的帧画面图像,输入到已经训练完成的环境分类模型中,获取该帧画面的环境分类信息,并以该环境分类信息为条件,获取与该分类信息相配合或者相同类型的视频编辑素材,供用户选择使用,采用该方法能够通过分析帧画面中环境因素,并以该环境因素为过滤条件,对海量编辑素材进行初步筛选,提供给用户适合于在该环境的视频编辑素材,能够使用户方便快捷的获得适配度较高的编辑素材,提高了推送的效率。同时,也提高了编辑素材的投放精准度,减少用户数据流量的消耗。
在一些实施方式中,进行帧画面提取时,获取编辑视频的多张帧画面视频,当编辑视频中进行环境场景的变化时,获取的多张帧画面的环境信息不同时,需要对编辑帧画面的分类结果进行统一。具体请参阅图2,图2为本实施例统一多分类信息的一种流程示意图。
如图2所示,步骤S2000具体包括下述步骤:
S2110、在视频拍摄状态下定时获取拍摄视频的多个帧画面;
本实施方式中,编辑视频为通过智能移动终端的摄像头,正在进行拍摄录制的视频,即编辑视频是处于拍摄状态中的视频资料。
通过在视频拍摄状态下访问缓存空间获取帧画面图像,通过定时抽取的方式(如每隔1s抽取一个帧画面)的方法获取拍摄视频的多个帧画面。
S2120、将所述多个帧画面分别输入到所述环境分类模型中,获取所述多个帧画面对应的多个分类信息,并对所述多个分类信息进行统计;
根据获取的时间先后关系,依次将多个帧画面图像分别输入到环境分类模型中,获取多个帧画面对应的多个分类信息。
获取多个分类信息后,根据分类信息的种类对多个帧画面进行统计。
S2130、根据统计结果将所述多个分类信息中分布率最高的分类信息标记为所述拍摄视频的分类信息。
统计完成后,获取统计结果中占比最高的分类信息种类,(如十个帧画面中,分类信息中属于下雪的环境分类占比为五,则下雪的环境分类信息为占比最高的分类信息种类),并将该分类信息标记为拍摄视频的分类信息,以方便对拍摄视频进行编辑时,获取视频编辑素材。
本实施方式中,通过在视频拍摄状态下,对该视频的环境信息进行分类,能够有效地节约用户的编辑时间。对于多个分类结果进行统计,方便确定编辑视频的主要环境信息。
在一些实施方式中,编辑视频的时间长度较长,在一个较大的时间跨度内,每一种环境的切换时间也相对较长,因此,在进行视频编辑时,需要分别对几个环境信息的片段进行编辑,具体请参阅图3,图3为本实施例多分类信息的一种处理流程示意图。
如图3所示,步骤S2000具体包括下述步骤:
S2210、定时获取所述编辑视频的多个帧画面;
通过定时抽取的方式(如每隔5s抽取一个帧画面)的方法获取编辑视频的多个帧画面。本实施方式中的编辑视频能够是已经拍摄完成或者还处于拍摄状态中的视频资料。
S2220、比对所述多个帧画面中图像表征的环境信息是否一致;
根据获取的时间先后关系,依次将多个帧画面图像分别输入到环境分类模型中,获取多个帧画面对应的多个分类信息。
分别获取多个分类信息后,比对分类信息是否一致,不一致时,根据分类信息的种类进行合并统计。
S2230、当所述多个帧画面中图像表征的环境信息不一致时,对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
根据比对结果当多个帧画面中图像表征的环境信息有多个时,根据分类信息的种类进行统计,统计分类目录即为编辑视频的分类种类,统计完成后将统计分类目录标记为编辑视频的分类信息。
在一些实施方式中,当编辑视频存在多个分类信息,并通过统计后得到分类目录作为编辑视频的分类信息后编辑视频存在多个分类信息,多个分类信息所对应的视频编辑素材召回后,需要对视频编辑素材进行排序,然后进行呈现。具体请参阅图4,图4为本实施例对视频编辑素材进行排序的一种流程示意图。
如图4所示,步骤S3000具体包括下述步骤:
S3110、根据所述统计分类目录分别获取所述视频编辑素材;
根据分类目录分别获取视频编辑素材,例如,编辑视频中环境切换共有四个场景,对应的编辑视频的环境分类信息也为四个分类目录,通过四个分类目录分别获取四组视频编辑素材,假设每一组素材中限定素材的数量为3件,则根据编辑视频的分类信息共获得十二件视频编辑素材。
S3120、获取所述统计分类目录表征的环境信息在所述编辑视频中的摄入时长,并根据所述时长对所述视频编辑素材进行降幂排布。
获取视频编辑素材后,获取分类目录表征的环境信息在编辑视频中的时长,由于帧画面的提取是按照定时提取的方式,故编辑视频中的环境信息发生变化时,通过统计前后两个不一致的分类信息间隔的时间,就能够获取到某一环境在编辑视频中的摄入时长。
统计出各分类目录表征的环境信息在编辑视频中的摄入时长,并根据时长对视频编辑素材进行降幂排布。
例如,编辑视频中环境切换共有四个场景,对应的编辑视频的环境分类信息也为四个分类目录,通过四个分类目录分别获取四组视频编辑素材,假设每一组素材中限定素材的数量为3件,则根据编辑视频的分类信息共获得十二件视频编辑素材。
通过时长统计,第一分类目录表征的环境在编辑视频中的摄入时长为20s,第二分类目录表征的环境在编辑视频中的摄入时长为50s,,第三分类目录表征的环境在编辑视频中的摄入时长为30s,第四分类目录表征的环境在编辑视频中的摄入时长为15s。则进行排序时将与第一分类目录配合的3件视频编辑素材排布在前三位进行展示,以此类推,与第四分类目录配合的3件视频编辑素材排布在最后。
通过采用不同环境信息在编辑视频中时长的长短,对视频编辑材料进行排序,由于时长较长的环境信息,能够被选为编辑区域及编辑动作实际发生的区域概率较大,故根据摄入时长对视频编辑材料进行降幂排列,实现精准推送,提高了编辑效率。
在一些实施方式中,当编辑视频时长较长时,需要在获知编辑实际发生的位置后,调整推送给用户的视频编辑素材。具体请参阅图5,图5为本实施例获取环境信息片段时长的流程示意图。
如图5所示,步骤S3000之后还包括下述步骤:
S3210、当所述多个帧画面中图像表征的环境信息不一致时,获取相同环境信息的帧画面在所述编辑视频的片段时长;
根据比对结果当多个帧画面中图像表征的环境信息有多个时,获取相同环境信息的帧画面在编辑视频的片段时长。具体地,获取视频编辑素材后,获取分类目录表征的环境信息在编辑视频中的时长,由于帧画面的提取是按照定时提取的方式,故编辑视频中的环境信息发生变化时,通过统计前后两个不一致的分类信息间隔的时间,就能够获取到某一环境在编辑视频中的片段时长。如,检测前后两个不一致的分类信息分别发生在1:20s和1:50s,则证明在前的分类信息表征的环境信息在编辑视频中发生的片段时长在1:20s-1:50s之间。
S3220、对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
根据比对结果当多个帧画面中图像表征的环境信息有多个时,根据分类信息的种类进行统计,统计分类目录即为编辑视频的分类种类,统计完成后将统计分类目录标记为编辑视频的分类信息。
请参阅图6,图6为本实施例根据编辑位置调整视频编辑素材推送结果的一种流程示意图。
如图6所示,步骤S3000具体包括下述步骤:
S3310、获取所述编辑视频的编辑时段位置;
使用智能移动终端进行视频编辑时,需要选定视频的编辑位置,及对那一时刻或那一长度的视频进行编辑,在用户选定确定的编辑位置后,读取用户确定的编辑位置所在的时刻。
S3320、确定所述编辑时段位置位于所述编辑视频的某一所述片段时长内;
将编辑位置发生的时刻与通过环境信息的持续时间得来的片段时长进行比较,确定该编辑时刻位于编辑视频的哪一个环境信息持续摄入的片段时长内。如编辑时刻发生在1:25s,而编辑视频中1:10s-1:40s的环境信息为“下雪时”则确定编辑时刻发生在“下雪”的环境中。
S3330、获取与所述片段时长环境信息相对应的视频编辑素材。确定编辑时刻位于编辑视频的哪一个环境信息持续摄入的片段时长内后,获取与该片段时长表征的环境信息配合的视频编辑素材,供用户选用。
通过先对编辑视频的分类信息进行获取,然后分类信息进行统计,并获取各分类信息表征的环境信息在编辑视频中的摄入时长,当获知编辑实际发生时刻后,通过比对时刻所在的片段时长,并调用配合于该片段时长内环境信息的视频编辑素材。实现了视频编辑素材的快速推送。
为解决上述技术问题,本发明实施例还提供一种视频编辑推送系统。具体请参阅图7,图7为本实施例视频编辑推送系统基本结构框图。
如图7所示,一种视频编辑推送系统,包括:获取模块2100、处理模块2200和执行模块2300。其中,获取模块2100用于在拍摄状态下获取用户待执行的编辑指令;处理模块2200用于根据编辑指令获取编辑视频的至少一个帧画面,将帧画面输入到预设的环境分类模型中,并获取环境分类模型输出的表征帧画面所处环境的分类信息;执行模块2300用于根据分类信息获取视频编辑素材,以使视频编辑素材配合于帧画面的图像环境。
本实施方式视频编辑推送系统通过将编辑视频中抽取的帧画面图像,输入到已经训练完成的环境分类模型中,获取该帧画面的环境分类信息,并以该环境分类信息为条件,获取与该分类信息相配合或者相同类型的视频编辑素材,供用户选择使用,采用该方法能够通过分析帧画面中环境因素,并以该环境因素为过滤条件,对海量编辑素材进行初步筛选,提供给用户适合于在该环境的视频编辑素材,能够使用户方便快捷的获得适配度较高的编辑素材,提高了推送的效率。同时,也提高了编辑素材的投放精准度,减少用户数据流量的消耗。
在一些实施方式中,视频编辑系统还包括:第一获取子模块、第一统计子模块和第一处理子模块。其中,第一获取子模块用于在视频拍摄状态下定时获取拍摄视频的多个帧画面;第一统计子模块用于将多个帧画面分别输入到环境分类模型中,获取多个帧画面对应的多个分类信息,并对多个分类信息进行统计;第一处理子模块用于根据统计结果将多个分类信息中分布率最高的分类信息标记为拍摄视频的分类信息。
在一些实施方式中,视频编辑系统还包括:第二获取子模块、第一比对子模块和第二处理子模块。其中,第二获取子模块用于定时获取编辑视频的多个帧画面;第一比对子模块用于比对多个帧画面中图像表征的环境信息是否一致;第二处理子模块用于当多个帧画面中图像表征的环境信息不一致时,对多个分类信息进行统计,根据统计结果将统计分类目录标记为编辑视频的分类信息。
在一些实施方式中,视频编辑系统还包括:第三获取子模块和第一排序子模块。其中,第三获取子模块用于根据统计分类目录分别获取视频编辑素材;第一排序子模块用于获取统计分类目录表征的环境信息在编辑视频中的摄入时长,并根据时长对视频编辑素材进行降幂排布。
在一些实施方式中,视频编辑系统还包括:第三处理子模块和第二统计子模块。其中,第三处理子模块用于当多个帧画面中图像表征的环境信息不一致时,获取相同环境信息的帧画面在编辑视频的片段时长;第二统计子模块用于对多个分类信息进行统计,根据统计结果将统计分类目录标记为编辑视频的分类信息。
在一些实施方式中,视频编辑系统还包括:第四获取子模块、第一确定子模块和第五获取子模块,其中,第四获取子模块用于获取编辑视频的编辑时段位置;第一确定子模块用于确定编辑时段位置位于编辑视频的某一片段时长内;第五获取子模块用于获取与片段时长环境信息相对应的视频编辑素材。
在一些实施方式中,环境分类模型具体为训练至收敛状态的卷积神经网络模型,卷积神经网络模型被训练用于对图像环境进行分类。
本实施例还提供一种智能移动终端。具体请参阅图8,图8为本实施例智能移动终端基本结构示意图。
需要指出的是本实施列中,智能移动终端的存储器1520内存储用于实现本实施例中视频编辑推送方法中的所有程序,处理器1580能够调用该存储器1520内的程序,执行上述视频编辑推送方法所列举的所有功能。由于智能移动终端实现的功能在本实施例中的视频编辑推送方法进行了详述,在此不再进行赘述。
智能移动终端在进行视频编辑时,将表征模板视频时长的时间轴覆盖在编辑视频的进度条上,通过观察时间轴与进度条之间的相对位置关系就能够直观的获得模板视频在编辑视频中的添加位置,精简了编辑区域,减小了编辑区域所占区域的面积。同时,用户通过调整时间轴在进度条上的相对位置,就能够模板视频在编辑视频中的添加位置,精简后的编辑区域为时间轴容器的设计提供了足够大的空间,因此,方便用户调节编辑,降低编辑控制难度,提高了编辑的准确性和操作成功率。
本发明实施例还提供了智能移动终端,如图8所示,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该终端可以为包括智能移动终端、平板电脑、PDA(Personal Digital Assistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑等任意终端设备,以终端为智能移动终端为例:
图8示出的是与本发明实施例提供的终端相关的智能移动终端的部分结构的框图。参考图8,智能移动终端包括:射频(Radio Frequency,RF)电路1510、存储器1520、输入单元1530、显示单元1540、传感器1550、音频电路1560、无线保真(wireless fidelity,Wi-Fi)模块1570、处理器1580、以及电源1590等部件。本领域技术人员可以理解,图7中示出的智能移动终端结构并不构成对智能移动终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图8对智能移动终端的各个构成部件进行具体的介绍:
RF电路1510可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1580处理;另外,将设计上行的数据发送给基站。通常,RF电路1510包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,LNA)、双工器等。此外,RF电路1510还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General Packet RadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器1520可用于存储软件程序以及模块,处理器1580通过运行存储在存储器1520的软件程序以及模块,从而执行智能移动终端的各种功能应用以及数据处理。存储器1520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声纹播放功能、图像播放功能等)等;存储数据区可存储根据智能移动终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1530可用于接收输入的数字或字符信息,以及产生与智能移动终端的用户设置以及功能控制有关的键信号输入。具体地,输入单元1530可包括触控面板1531以及其他输入设备1532。触控面板1531,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1531上或在触控面板1531附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1531可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1580,并能接收处理器1580发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1531。除了触控面板1531,输入单元1530还可以包括其他输入设备1532。具体地,其他输入设备1532可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1540可用于显示由用户输入的信息或提供给用户的信息以及智能移动终端的各种菜单。显示单元1540可包括显示面板1541,可选的,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1541。进一步的,触控面板1531可覆盖显示面板1541,当触控面板1531检测到在其上或附近的触摸操作后,传送给处理器1580以确定触摸事件的类型,随后处理器1580根据触摸事件的类型在显示面板1541上提供相应的视觉输出。虽然在图7中,触控面板1531与显示面板1541是作为两个独立的部件来实现智能移动终端的输入和输入功能,但是在某些实施例中,可以将触控面板1531与显示面板1541集成而实现智能移动终端的输入和输出功能。
智能移动终端还可包括至少一种传感器1550,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1541的亮度,接近传感器可在智能移动终端移动到耳边时,关闭显示面板1541和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别智能移动终端姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于智能移动终端还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1560、扬声器1561,传声器1562可提供用户与智能移动终端之间的音频接口。音频电路1560可将接收到的音频数据转换后的电信号,传输到扬声器1561,由扬声器1561转换为声纹信号输出;另一方面,传声器1562将收集的声纹信号转换为电信号,由音频电路1560接收后转换为音频数据,再将音频数据输出处理器1580处理后,经RF电路1510以发送给比如另一智能移动终端,或者将音频数据输出至存储器1520以便进一步处理。
Wi-Fi属于短距离无线传输技术,智能移动终端通过Wi-Fi模块1570可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图7示出了Wi-Fi模块1570,但是可以理解的是,其并不属于智能移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1580是智能移动终端的控制中心,利用各种接口和线路连接整个智能移动终端的各个部分,通过运行或执行存储在存储器1520内的软件程序和/或模块,以及调用存储在存储器1520内的数据,执行智能移动终端的各种功能和处理数据,从而对智能移动终端进行整体监控。可选的,处理器1580可包括一个或多个处理单元;优选的,处理器1580可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1580中。
智能移动终端还包括给各个部件供电的电源1590(比如电池),优选的,电源可以通过电源管理系统与处理器1580逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,智能移动终端还可以包括摄像头、蓝牙模块等,在此不再赘述。
需要说明的是,本发明的说明书及其附图中给出了本发明的较佳的实施例,但是,本发明可以通过许多不同的形式来实现,并不限于本说明书所描述的实施例,这些实施例不作为对本发明内容的额外限制,提供这些实施例的目的是使对本发明的公开内容的理解更加透彻全面。并且,上述各技术特征继续相互组合,形成未在上面列举的各种实施例,均视为本发明说明书记载的范围;进一步地,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种视频编辑推送方法,其特征在于,包括下述步骤:
在拍摄状态下获取用户待执行的编辑指令;
根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;
根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。
2.根据权利要求1所述的视频编辑推送方法,其特征在于,所述根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息的步骤,具体包括下述步骤:
在视频拍摄状态下定时获取拍摄视频的多个帧画面;
将所述多个帧画面分别输入到所述环境分类模型中,获取所述多个帧画面对应的多个分类信息,并对所述多个分类信息进行统计;
根据统计结果将所述多个分类信息中分布率最高的分类信息标记为所述拍摄视频的分类信息。
3.根据权利要求1所述的视频编辑推送方法,其特征在于,所述根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息的步骤,具体包括下述步骤:
定时获取所述编辑视频的多个帧画面;
比对所述多个帧画面中图像表征的环境信息是否一致;
当所述多个帧画面中图像表征的环境信息不一致时,对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
4.根据权利要求3所述的视频编辑推送方法,其特征在于,所述根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境的步骤,具体包括下述步骤:
根据所述统计分类目录分别获取所述视频编辑素材;
获取所述统计分类目录表征的环境信息在所述编辑视频中的摄入时长,并根据所述时长对所述视频编辑素材进行降幂排布。
5.根据权利要求3所述的视频编辑推送方法,其特征在于,所述比对所述多个帧画面中图像表征的环境信息是否一致的步骤之后,还包括下述步骤:
当所述多个帧画面中图像表征的环境信息不一致时,获取相同环境信息的帧画面在所述编辑视频的片段时长;
对所述多个分类信息进行统计,根据统计结果将统计分类目录标记为所述编辑视频的分类信息。
6.根据权利要求5所述的视频编辑推送方法,其特征在于,所述根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境的步骤,具体包括下述步骤:
获取所述编辑视频的编辑时段位置;
确定所述编辑时段位置位于所述编辑视频的某一所述片段时长内;
获取与所述片段时长环境信息相对应的视频编辑素材。
7.根据权利要求1-6任意一项所述的视频编辑推送方法,其特征在于,所述环境分类模型具体为训练至收敛状态的卷积神经网络模型,所述卷积神经网络模型被训练用于对图像环境进行分类。
8.一种视频编辑推送系统,其特征在于,包括:
获取模块,用于在拍摄状态下获取用户待执行的编辑指令;
处理模块,用于根据所述编辑指令获取编辑视频的至少一个帧画面,将所述帧画面输入到预设的环境分类模型中,并获取所述环境分类模型输出的表征所述帧画面所处环境的分类信息;
执行模块,用于根据所述分类信息获取视频编辑素材,以使所述视频编辑素材配合于所述帧画面的图像环境。
9.根据权利要求8所述的视频编辑推送系统,其特征在于,所述视频编辑系统还包括:
第一获取子模块,用于在视频拍摄状态下定时获取拍摄视频的多个帧画面;
第一统计子模块,用于将所述多个帧画面分别输入到所述环境分类模型中,获取所述多个帧画面对应的多个分类信息,并对所述多个分类信息进行统计;
第一处理子模块,用于根据统计结果将所述多个分类信息中分布率最高的分类信息标记为所述拍摄视频的分类信息。
10.一种智能移动终端,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行权利要求1-7任意一项所述的视频编辑推送方法。
CN201711239996.1A 2017-11-30 2017-11-30 视频编辑推送方法、系统及智能移动终端 Active CN107959883B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201711239996.1A CN107959883B (zh) 2017-11-30 2017-11-30 视频编辑推送方法、系统及智能移动终端
PCT/CN2018/118373 WO2019105440A1 (zh) 2017-11-30 2018-11-30 视频编辑推送方法、系统及智能移动终端
US16/767,677 US11393205B2 (en) 2017-11-30 2018-11-30 Method of pushing video editing materials and intelligent mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711239996.1A CN107959883B (zh) 2017-11-30 2017-11-30 视频编辑推送方法、系统及智能移动终端

Publications (2)

Publication Number Publication Date
CN107959883A CN107959883A (zh) 2018-04-24
CN107959883B true CN107959883B (zh) 2020-06-09

Family

ID=61961986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711239996.1A Active CN107959883B (zh) 2017-11-30 2017-11-30 视频编辑推送方法、系统及智能移动终端

Country Status (3)

Country Link
US (1) US11393205B2 (zh)
CN (1) CN107959883B (zh)
WO (1) WO2019105440A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107959883B (zh) * 2017-11-30 2020-06-09 广州市百果园信息技术有限公司 视频编辑推送方法、系统及智能移动终端
CN109002857B (zh) * 2018-07-23 2020-12-29 厦门大学 一种基于深度学习的视频风格变换与自动生成方法及系统
CN109102543B (zh) * 2018-08-17 2021-04-02 深圳蓝胖子机器智能有限公司 基于图像分割的物体定位方法、设备和存储介质
CN110891191B (zh) * 2018-09-07 2022-06-07 阿里巴巴(中国)有限公司 素材选择方法、装置及存储介质
JPWO2020195557A1 (ja) * 2019-03-22 2021-12-23 富士フイルム株式会社 画像処理装置、画像処理方法、撮影装置及びプログラム
CN111866404B (zh) * 2019-04-25 2022-04-29 华为技术有限公司 一种视频编辑方法及电子设备
WO2020216096A1 (zh) * 2019-04-25 2020-10-29 华为技术有限公司 一种视频编辑方法及电子设备
CN110475157A (zh) * 2019-07-19 2019-11-19 平安科技(深圳)有限公司 多媒体信息展示方法、装置、计算机设备及存储介质
CN111491213B (zh) * 2020-04-17 2022-03-08 维沃移动通信有限公司 视频处理方法、视频处理装置及电子设备
CN111667310B (zh) * 2020-06-04 2024-02-20 上海燕汐软件信息科技有限公司 一种用于销售人员学习的数据处理方法、装置及设备
CN112118397B (zh) * 2020-09-23 2021-06-22 腾讯科技(深圳)有限公司 一种视频合成的方法、相关装置、设备以及存储介质
CN112672209A (zh) * 2020-12-14 2021-04-16 北京达佳互联信息技术有限公司 视频编辑方法和视频编辑装置
CN112738647B (zh) * 2020-12-28 2022-04-01 中山大学 一种基于多层级编码-解码器的视频描述方法及系统
CN115442539B (zh) * 2021-06-04 2023-11-07 北京字跳网络技术有限公司 一种视频编辑方法、装置、设备及存储介质
CN115052198B (zh) * 2022-05-27 2023-07-04 广东职业技术学院 一种智慧农场的影像合成方法、装置和系统
CN115065864B (zh) * 2022-06-13 2024-05-10 广州博冠信息科技有限公司 游戏视频制作方法、分享方法、装置、介质和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663794A (zh) * 2012-03-29 2012-09-12 清华大学 图像合成方法及装置
CN104703043A (zh) * 2015-03-26 2015-06-10 努比亚技术有限公司 一种添加视频特效的方法和装置
CN105072337A (zh) * 2015-07-31 2015-11-18 小米科技有限责任公司 图片处理方法及装置
CN106779073A (zh) * 2016-12-27 2017-05-31 西安石油大学 基于深度神经网络的媒体信息分类方法及装置
CN107040795A (zh) * 2017-04-27 2017-08-11 北京奇虎科技有限公司 一种直播视频的监控方法和装置
CN107295362A (zh) * 2017-08-10 2017-10-24 上海六界信息技术有限公司 基于图像的直播内容筛选方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8606084B2 (en) * 2001-06-27 2013-12-10 Knapp Investment Company Limited Method and system for providing a personal video recorder utilizing network-based digital media content
JP6099927B2 (ja) * 2012-10-10 2017-03-22 キヤノン株式会社 情報制御装置とその制御方法及びプログラム
CN107959883B (zh) 2017-11-30 2020-06-09 广州市百果园信息技术有限公司 视频编辑推送方法、系统及智能移动终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663794A (zh) * 2012-03-29 2012-09-12 清华大学 图像合成方法及装置
CN104703043A (zh) * 2015-03-26 2015-06-10 努比亚技术有限公司 一种添加视频特效的方法和装置
CN105072337A (zh) * 2015-07-31 2015-11-18 小米科技有限责任公司 图片处理方法及装置
CN106779073A (zh) * 2016-12-27 2017-05-31 西安石油大学 基于深度神经网络的媒体信息分类方法及装置
CN107040795A (zh) * 2017-04-27 2017-08-11 北京奇虎科技有限公司 一种直播视频的监控方法和装置
CN107295362A (zh) * 2017-08-10 2017-10-24 上海六界信息技术有限公司 基于图像的直播内容筛选方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN107959883A (zh) 2018-04-24
WO2019105440A1 (zh) 2019-06-06
US11393205B2 (en) 2022-07-19
US20200293784A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
CN107959883B (zh) 视频编辑推送方法、系统及智能移动终端
CN111368934B (zh) 图像识别模型训练方法、图像识别方法以及相关装置
CN108197327B (zh) 歌曲推荐方法、装置及存储介质
CN108289057B (zh) 视频编辑方法、装置及智能移动终端
US11995556B2 (en) Video retrieval method, and method and apparatus for generating video retrieval mapping relationship
CN106528745B (zh) 在移动终端上推荐资源的方法、装置及移动终端
CN111582116B (zh) 一种视频抹除痕迹检测方法、装置、设备和存储介质
CN104239535A (zh) 一种为文字配图的方法、服务器、终端及系统
CN108230232B (zh) 一种图像处理的方法以及相关装置
CN111209423B (zh) 一种基于电子相册的图像管理方法、装置以及存储介质
CN108062760B (zh) 视频编辑方法、装置及智能移动终端
EP3493130A1 (en) Image processing method, image processing device, computer device, and computer readable storage medium
CN112990390B (zh) 一种图像识别模型的训练方法、图像识别的方法及装置
CN109325518A (zh) 图像的分类方法、装置、电子设备和计算机可读存储介质
CN112685578A (zh) 一种多媒体信息内容提供方法及装置
CN107908770A (zh) 一种照片搜索方法及移动终端
CN109257649A (zh) 一种多媒体文件生成方法及终端设备
CN110955788A (zh) 一种信息显示方法及电子设备
CN111737520A (zh) 一种视频分类方法、视频分类装置、电子设备及存储介质
CN110347858A (zh) 一种图片的生成方法和相关装置
CN109726726B (zh) 视频中的事件检测方法及装置
CN113608808A (zh) 数据处理方法、移动终端及存储介质
CN108921086A (zh) 图像处理方法和装置、存储介质、电子设备
CN108319412A (zh) 一种照片删除方法、移动终端和计算机可读存储介质
CN116958715A (zh) 一种手部关键点的检测方法、装置以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211123

Address after: 31a, 15 / F, building 30, maple mall, bangrang Road, Brazil, Singapore

Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd.

Address before: Building B-1, North District, Wanda Commercial Plaza, Wanbo business district, No. 79, Wanbo 2nd Road, Nancun Town, Panyu District, Guangzhou City, Guangdong Province

Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd.