CN114173059A - 一种视频编辑系统、方法及装置 - Google Patents

一种视频编辑系统、方法及装置 Download PDF

Info

Publication number
CN114173059A
CN114173059A CN202111499681.7A CN202111499681A CN114173059A CN 114173059 A CN114173059 A CN 114173059A CN 202111499681 A CN202111499681 A CN 202111499681A CN 114173059 A CN114173059 A CN 114173059A
Authority
CN
China
Prior art keywords
module
video
vehicle
shooting
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111499681.7A
Other languages
English (en)
Other versions
CN114173059B (zh
Inventor
张征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Avanti Electronic Technology Co ltd
Original Assignee
Guangzhou Avanti Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Avanti Electronic Technology Co ltd filed Critical Guangzhou Avanti Electronic Technology Co ltd
Priority to CN202111499681.7A priority Critical patent/CN114173059B/zh
Publication of CN114173059A publication Critical patent/CN114173059A/zh
Application granted granted Critical
Publication of CN114173059B publication Critical patent/CN114173059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种视频编辑系统、方法及APP,属于移动互联网开发技术领域,包括摄像模块、记忆模块、处理模块、预合成模块、显示模块、鉴定模块、调节模块以及集成模块,所述摄像模块按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,并将拍摄要求发送给记忆模块,将拍摄的车辆场景内容发送给处理模块,所述记忆模块接收摄像模块发送的拍摄要求的数据,保存并发送给预合成模块,所述处理模块接收摄像模块发送的拍摄内容,通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,本发明避免了因修改视频中某一类内容导致视频的无效性而引起的成本提升,减少拍摄视频的时间、人力以及物力,提升了工作效率。

Description

一种视频编辑系统、方法及装置
技术领域
本发明属于移动互联网开发技术领域,具体地说,涉及一种视频编辑系统、方法及装置。
背景技术
随着5G时代的到来,视频日益成为重要的信息传播媒介,人们也更加倾向于观看视频来更简单、直观、便捷的获取信息,组合视频是一种虚拟场景下的可视化技术,多媒体技术极大地丰富了现代社会人们的生活,尤其是视频编辑技术,视频编辑可有效的将杂乱无章的视频段落素材整理到一起,视频编辑作为一种互联网模式,能够使用户编辑出自己期望的视频,而一个好用的编辑系统是必不可少的;
现有的视频编辑系统在使用时,通常是对提前拍摄好的素材进行整理,获取用户想要的视频内容,比如驾驶车辆的行驶画面,然而现有的技术在对拍摄的车辆画面进行编辑时,只是根据时间线对拍摄内容进行剪切组合,当车辆或者人物场景有变化,而拍摄要求没变化时,需要重新根据同样的要求来拍摄不同的车辆以及画面,这样操作,不仅增加了整理视频所花费的时间和精力,浪费了工作人员进行视频拍摄的时间。
发明内容
本发明的主要目的是提出一种视频编辑系统、方法及装置,旨在针对现有的视频在场景或者车辆变化时需要重新拍摄,不仅浪费时间还浪费人力物力的问题,省略多次拍摄的过程,减少了拍摄时所花费的时间、人力和物力。
为实现上述目的,本发明提出一种视频编辑系统、方法及装置;
一种视频编辑系统,包括:
摄像模块、记忆模块、处理模块、预合成模块、显示模块、鉴定模块、调节模块以及集成模块;
其中,所述摄像模块按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,并将拍摄要求发送给记忆模块,将拍摄的车辆场景内容发送给处理模块;
所述记忆模块接收摄像模块发送的拍摄要求的数据,保存并发送给预合成模块;
所述处理模块接收摄像模块发送的拍摄内容,通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,保存并将该内容发送给预合成模块;
所述预合成模块接收记忆模块和处理模块发送的数据内容,根据接收的拍摄要求数据,拍摄不同时间段、不同地区环境的画面场景,保存并将处理模块发送的单独车辆场景和地区画面场景相结合,发送给显示模块;
所述显示模块接收预合成模块发送的结合数据,设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,将核查结果及结合后的视频内容发送给鉴定模块;
所述鉴定模块接收显示模块发送的核查数据,发送通过信号及结合后的视频内容给调节模块,或者发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
所述调节模块接收鉴定模块发送的视频数据,对画面内容进行调节,并将调节后的内容发送给集成模块;
所述集成模块接收调节模块发送的视频数据,通过ffmpeg工具合成相应的视频,保存并产出。
更近一步的是,所述处理模块包括存储模块,所述存储模块中储存有车辆模型,通过OpenCV读取车辆模型和拍摄的车辆视频,进行分割处理,获取画面中仅有车辆出行的视频内容。
更近一步的是,所述通过存储模块获取画面中仅有车辆出行的视频内容的过程如下:
S1,获取拍摄不同类型车辆的无人物出现且背景为全白的车辆场景视频内容,并保存拍摄要求内容;
S2,通过tenserFlow或者pytorch来训练车辆模型;
S3,然后通过opencv读取模型,得到深度神经网络;
S4,读取待处理车辆视频,截取车辆图片,发送到深度神经网络,找到对应型号车辆的训练模型,进行分割处理,获取画面中仅有车辆出行的视频内容。
更近一步的是,所述摄像模块中拍摄要求是对车辆视频拍摄的过程的内容进行规定,内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数。
更近一步的是,所述所述处理模块包括定位模块、识别模块、标记模块以及修整模块;
所述定位模块截取拍摄视频中的图片,在图片中选定有车辆的矩形作为目标图像,将目标图像发送给识别模块;
所述识别模块接收定位模块发送的目标图像,将矩形外的区域设定为背景,将矩形区域设定为前景,将设定的图像数据发送给标记模块;
所述标记模块接收识别模块发送的图像数据,根据设定的图像数据对视频内每个像素进行标记,将标记后的数据发送给修整模块;
所述修整模块接收标记模块发送的数据,采用高斯混合模型对前景和背景进行建模,并将未定义的像素标记为可能的前景或背景,生成像素节点,连接像素节点,进行分割,生成仅有车辆出行的视频内容。
更近一步的是,所述修整模块中生成像素节点,连接像素节点,进行分割的过程为:将图像中的每一个像素都会与周围像素连接,根据每条边都有一个属于前景或背景的概率这基于它和周围像素颜色上的相似性生成节点,每一个像素节点与前一各前景或背景节点连接,在节点连接完成后,用图论中最大流最小割的方法来分割。
更近一步的是,所述修整模块中对前景和背景进行建模时还采用混合高斯模型为基础的MOG或者MOG2算法。
一种视频编辑方法,流程如下:
步骤1,按照拍摄要求来通过拉伸、移动镜头,拍摄一个无人物且背景为全白的车辆场景视频,并记录拍摄要求以及拍摄参数;
步骤2,通过使用opencv对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容并保存;
步骤3,根据步骤1的拍摄要求以及拍摄参数数据,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将步骤1的拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
步骤4,观察显示屏显示的结合视频内容,对拍摄内容进行判定,判定通过继续下一步,判定不通过,删除步骤3中拍摄的地区画面场景,对拍摄要求数据进行调节,重新拍摄地区画面场景,获取新的结合的地区画面场景;
步骤5,获取步骤4通过的结合视频内容,对车辆区域的光照、亮度进行调节,然后通过ffmpeg工具合成相应的视频,保存并产出。
更近一步的是,所述步骤1中的拍摄要求的内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数。
一种视频编辑APP,所述存储介质储存有运行程序,所述运行程序被处理器执行以实现如一种视频编辑方法中任一项所述编辑视频的方法。
相比于现有技术,本发明的有益效果为:
(1)本发明通过记忆模块在拍摄车辆视频时保持的拍摄要求及拍摄参数,为下次拍摄结合的地区场景画面提供拍摄依据,使拍摄不同视频时,拍摄的视觉、镜头移动速度以及拍摄参数保持一致,为车辆视频和地区场景视频结合时镜头感保持一致性,通过处理模块和预合成模块单独保存的车辆视频和地区场景视频,减少后期因场景变化或者车辆变化引起的视频无效性而重新花费时间、人力以及物力来进行重新拍摄制作结合视频,提升工作效率,节省工作成本;
(2)本发明通过拍摄不同车辆及地区场景的基础视频,并将拍摄视频单独保存,然后将拍摄的视频进行单独的后期制作,避免了因修改视频中某一类内容导致视频的无效性而引起的成本提升,减少拍摄视频的时间、人力以及物力,提升了工作效率。
附图说明
为了更清楚地说明本申请实施例或示例性中的技术方案,下面将对实施例或示例性描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以按照这些附图示出的获得其他的附图。
图1为本发明的系统结构运行示意图;
图2为本发明的方法流程示意图;
图3为本发明的APP使用说明流程示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围,下面结合附图和具体实施例对本发明进行详细描述。
实施例1
如图1所示,一种视频编辑系统,包括:
摄像模块、记忆模块、处理模块、预合成模块、显示模块、鉴定模块、调节模块以及集成模块;
其中,摄像模块按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,并将拍摄要求发送给记忆模块,将拍摄的车辆场景内容发送给处理模块;
记忆模块接收摄像模块发送的拍摄要求的数据,保存并发送给预合成模块;
处理模块接收摄像模块发送的拍摄内容,通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,保存并将该内容发送给预合成模块;
预合成模块接收记忆模块和处理模块发送的数据内容,根据接收的拍摄要求数据,拍摄不同时间段、不同地区环境的画面场景,保存并将处理模块发送的单独车辆场景和地区画面场景相结合,发送给显示模块;
显示模块接收预合成模块发送的结合数据,设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,将核查结果及结合后的视频内容发送给鉴定模块;
鉴定模块接收显示模块发送的核查数据,发送通过信号及结合后的视频内容给调节模块,或者发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
调节模块接收鉴定模块发送的视频数据,对画面内容进行调节,并将调节后的内容发送给集成模块;
集成模块接收调节模块发送的视频数据,通过ffmpeg工具合成相应的视频,保存并产出;
下面结合具体的实施情况,对该系统进行解读:
首先设置摄像拍摄车辆和地区场景的拍摄要求,内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数,然后打开摄像头,使用系统的摄像功能按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,单独保存该视频;
然后通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,单独保存该视频,截取拍摄视频中的图片,在图片中选定有车辆的矩形作为目标图像,将矩形外的区域设定为背景,将矩形区域设定为前景,根据设定的图像数据对视频内每个像素进行标记,采用高斯混合模型或者采用混合高斯模型为基础的MOG、MOG2算法对前景和背景进行建模,并将未定义的像素标记为可能的前景或背景,将图像中的每一个像素都会与周围像素连接,根据每条边都有一个属于前景或背景的概率这基于它和周围像素颜色上的相似性生成节点,每一个像素节点与前一各前景或背景节点连接,在节点连接完成后,用图论中最大流最小割的方法来分割,生成仅有车辆出行的视频内容;
然后根据设置的拍摄要求,按照拍摄车辆视频的步骤来拍摄对应场景,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
接着系统后台设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,核查结果通过,发送通过信号及结合后的视频内容给调节模块,核查结果不通过,发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
最后调节结合视频中汽车区域的光照、亮度等显示,调整完成后,通过ffmpeg工具合成相应的视频,保存并产出。
通过拍摄不同车辆及地区场景的基础视频,并将拍摄视频单独保存,然后将拍摄的视频进行单独的后期制作,避免了因修改视频中某一类内容导致视频的无效性而引起的成本提升,减少拍摄视频的时间、人力以及物力,提升了工作效率。
实施例2
一种视频编辑系统,所实施步骤与实施例1基本相同,进一步的是所述处理模块还包括存储模块,所述通过存储模块获取画面中仅有车辆出行的视频内容的过程如下:
S1,获取拍摄不同类型车辆的无人物出现且背景为全白的车辆场景视频内容,并保存拍摄要求内容;
S2,通过tenserFlow或者pytorch来训练车辆模型;
S3,然后通过opencv读取模型,得到深度神经网络;
S4,读取待处理车辆视频,截取车辆图片,发送到深度神经网络,找到对应型号车辆的训练模型,进行分割处理,获取画面中仅有车辆出行的视频内容;
在具体的实施过程中,通过AI智能方式,使用tenserFlow或者pytorch来训练建立的汽车训练模型,基于深度学习来对车辆目标进行识别和分割,提升了车辆在分割时获取单独车辆视频的精度,提高了工作效率,降低了工作失误率。
实施例3
如图2所示,一种视频编辑方法,流程如下:
步骤1,按照拍摄要求来通过拉伸、移动镜头,拍摄一个无人物且背景为全白的车辆场景视频,并记录拍摄要求以及拍摄参数;
步骤2,通过使用opencv对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容并保存;
步骤3,根据步骤1的拍摄要求以及拍摄参数数据,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将步骤1的拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
步骤4,观察显示屏显示的结合视频内容,对拍摄内容进行判定,判定通过继续下一步,判定不通过,删除步骤3中拍摄的地区画面场景,对拍摄要求数据进行调节,重新拍摄地区画面场景,获取新的结合的地区画面场景;
步骤5,获取步骤4通过的结合视频内容,对车辆区域的光照、亮度进行调节,然后通过ffmpeg工具合成相应的视频,保存并产出;
首先设置摄像拍摄车辆和地区场景的拍摄要求,内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数,然后打开摄像头,使用系统的摄像功能按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,单独保存该视频;
然后通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,单独保存该视频,截取拍摄视频中的图片,在图片中选定有车辆的矩形作为目标图像,将矩形外的区域设定为背景,将矩形区域设定为前景,根据设定的图像数据对视频内每个像素进行标记,采用高斯混合模型或者采用混合高斯模型为基础的MOG、MOG2算法对前景和背景进行建模,并将未定义的像素标记为可能的前景或背景,将图像中的每一个像素都会与周围像素连接,根据每条边都有一个属于前景或背景的概率这基于它和周围像素颜色上的相似性生成节点,每一个像素节点与前一各前景或背景节点连接,在节点连接完成后,用图论中最大流最小割的方法来分割,生成仅有车辆出行的视频内容;
然后根据设置的拍摄要求,按照拍摄车辆视频的步骤来拍摄对应场景,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
接着系统后台设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,核查结果通过,发送通过信号及结合后的视频内容给调节模块,核查结果不通过,发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
最后调节结合视频中汽车区域的光照、亮度等显示,调整完成后,通过ffmpeg工具合成相应的视频,保存并产出。
通过拍摄不同车辆及地区场景的基础视频,并将拍摄视频单独保存,然后将拍摄的视频进行单独的后期制作,避免了因修改视频中某一类内容导致视频的无效性而引起的成本提升,减少拍摄视频的时间、人力以及物力,提升了工作效率。
实施例4
如图3所示,一种视频编辑APP,包括存储介质,存储介质储存有运行程序,运行程序被处理器执行编辑视频的方法,具体操作流程如下:
首先使用APP设置摄像拍摄车辆和地区场景的拍摄要求,内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数,然后操纵APP打开摄像头,使用系统的摄像功能按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,单独保存该视频;
然后分割功能,操纵APP通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,单独保存该视频,截取拍摄视频中的图片,在图片中选定有车辆的矩形作为目标图像,将矩形外的区域设定为背景,将矩形区域设定为前景,根据设定的图像数据对视频内每个像素进行标记,采用高斯混合模型或者采用混合高斯模型为基础的MOG、MOG2算法对前景和背景进行建模,并将未定义的像素标记为可能的前景或背景,将图像中的每一个像素都会与周围像素连接,根据每条边都有一个属于前景或背景的概率这基于它和周围像素颜色上的相似性生成节点,每一个像素节点与前一各前景或背景节点连接,在节点连接完成后,用图论中最大流最小割的方法来分割,生成仅有车辆出行的视频内容;
然后根据设置的拍摄要求,再次打开APP的摄像功能按照拍摄车辆视频的步骤来拍摄对应场景,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
接着在系统后台设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,核查结果通过,发送通过信号及结合后的视频内容给调节模块,核查结果不通过,发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
最后在显示屏上调节结合视频中汽车区域的光照、亮度等显示,调整完成后,通过ffmpeg工具合成相应的视频,保存并产出。
通过在拍摄车辆视频时保持的拍摄要求及拍摄参数,为下次拍摄结合的地区场景画面提供拍摄依据,使拍摄不同视频时,拍摄的视觉、镜头移动速度以及拍摄参数保持一致,为车辆视频和地区场景视频结合时镜头感保持一致性,通过单独保存的车辆视频和地区场景视频,减少后期因场景变化或者车辆变化引起的视频无效性而重新花费时间、人力以及物力来进行重新拍摄制作结合视频,提升工作效率,节省工作成本。
以上所述实施例仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形、改进及替代,这些都属于本发明的保护范围。

Claims (10)

1.一种视频编辑系统,其特征在于,包括:
摄像模块、记忆模块、处理模块、预合成模块、显示模块、鉴定模块、调节模块以及集成模块;
其中,所述摄像模块按照拍摄要求拍摄一个无人物出现且背景为全白的车辆场景视频,并将拍摄要求发送给记忆模块,将拍摄的车辆场景内容发送给处理模块;
所述记忆模块接收摄像模块发送的拍摄要求的数据,保存并发送给预合成模块;
所述处理模块接收摄像模块发送的拍摄内容,通过OpenCV对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容,保存并将该内容发送给预合成模块;
所述预合成模块接收记忆模块和处理模块发送的数据内容,根据接收的拍摄要求数据,拍摄不同时间段、不同地区环境的画面场景,保存并将处理模块发送的单独车辆场景和地区画面场景相结合,发送给显示模块;
所述显示模块接收预合成模块发送的结合数据,设置显示要求,将结合后的车辆场景和地区画面场景视频显示到显示屏上,按照显示要求核查显示画面,将核查结果及结合后的视频内容发送给鉴定模块;
所述鉴定模块接收显示模块发送的核查数据,发送通过信号及结合后的视频内容给调节模块,或者发送清除信号给预合成模块,直接将结合后的视频内容以及预合成模块拍摄的地区画面场景清除,重新进行拍摄合成;
所述调节模块接收鉴定模块发送的视频数据,对画面内容进行调节,并将调节后的内容发送给集成模块;
所述集成模块接收调节模块发送的视频数据,通过ffmpeg工具合成相应的视频,保存并产出。
2.根据权利要求1所述的一种视频编辑系统,其特征在于:所述处理模块包括存储模块,所述存储模块中储存有车辆模型,通过OpenCV读取车辆模型和拍摄的车辆视频,进行分割处理,获取画面中仅有车辆出行的视频内容。
3.根据权利要求2所述的一种视频编辑系统,其特征在于:所述通过存储模块获取画面中仅有车辆出行的视频内容的过程如下:
S1,获取拍摄不同类型车辆的无人物出现且背景为全白的车辆场景视频内容,并保存拍摄要求内容;
S2,通过tenserFlow或者pytorch来训练车辆模型;
S3,然后通过opencv读取模型,得到深度神经网络;
S4,读取待处理车辆视频,截取车辆图片,发送到深度神经网络,找到对应型号车辆的训练模型,进行分割处理,获取画面中仅有车辆出行的视频内容。
4.根据权利要求1所述的一种视频编辑系统,其特征在于:所述摄像模块中拍摄要求是对车辆视频拍摄的过程的内容进行规定,内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数。
5.根据权利要求1所述的一种视频编辑系统,其特征在于:所述所述处理模块包括定位模块、识别模块、标记模块以及修整模块;
所述定位模块截取拍摄视频中的图片,在图片中选定有车辆的矩形作为目标图像,将目标图像发送给识别模块;
所述识别模块接收定位模块发送的目标图像,将矩形外的区域设定为背景,将矩形区域设定为前景,将设定的图像数据发送给标记模块;
所述标记模块接收识别模块发送的图像数据,根据设定的图像数据对视频内每个像素进行标记,将标记后的数据发送给修整模块;
所述修整模块接收标记模块发送的数据,采用高斯混合模型对前景和背景进行建模,并将未定义的像素标记为可能的前景或背景,生成像素节点,连接像素节点,进行分割,生成仅有车辆出行的视频内容。
6.根据权利要求5所述的一种视频编辑系统,其特征在于:所述修整模块中生成像素节点,连接像素节点,进行分割的过程为:将图像中的每一个像素都会与周围像素连接,根据每条边都有一个属于前景或背景的概率这基于它和周围像素颜色上的相似性生成节点,每一个像素节点与前一各前景或背景节点连接,在节点连接完成后,用图论中最大流最小割的方法来分割。
7.根据权利要求5所述的一种视频编辑系统,其特征在于:所述修整模块中对前景和背景进行建模时还采用混合高斯模型为基础的MOG或者MOG2算法。
8.一种视频编辑方法,其特征在于:流程如下:
步骤1,按照拍摄要求来通过拉伸、移动镜头,拍摄一个无人物且背景为全白的车辆场景视频,并记录拍摄要求以及拍摄参数;
步骤2,通过使用opencv对车辆视频进行目标定位、分割,去除背景板,生成仅有车辆出行的视频内容并保存;
步骤3,根据步骤1的拍摄要求以及拍摄参数数据,拍摄不同时间段、不同地区环境的画面场景,系统后台单独保存拍摄地区画面场景,并且实时将步骤1的拍摄的车辆场景对应的时间点和地区画面场景相结合,并在显示屏上显示;
步骤4,观察显示屏显示的结合视频内容,对拍摄内容进行判定,判定通过继续下一步,判定不通过,删除步骤3中拍摄的地区画面场景,对拍摄要求数据进行调节,重新拍摄地区画面场景,获取新的结合的地区画面场景;
步骤5,获取步骤4通过的结合视频内容,对车辆区域的光照、亮度进行调节,然后通过ffmpeg工具合成相应的视频,保存并产出。
9.根据权利要求8所述的一种视频编辑方法,其特征在于:所述步骤1中的拍摄要求的内容包括:车辆做动作时摄像镜头的拉伸和移动距离、拍摄时镜头和车辆中轴线形成的角度变化、与车辆的距离、和地面的距离以及镜头拍摄时的拍摄参数。
10.一种视频编辑APP,其特征在于,所述存储介质储存有运行程序,所述运行程序被处理器执行以实现如权利要求8-9任一项所述编辑视频的方法。
CN202111499681.7A 2021-12-09 2021-12-09 一种视频编辑系统、方法及装置 Active CN114173059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111499681.7A CN114173059B (zh) 2021-12-09 2021-12-09 一种视频编辑系统、方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111499681.7A CN114173059B (zh) 2021-12-09 2021-12-09 一种视频编辑系统、方法及装置

Publications (2)

Publication Number Publication Date
CN114173059A true CN114173059A (zh) 2022-03-11
CN114173059B CN114173059B (zh) 2023-04-07

Family

ID=80484829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111499681.7A Active CN114173059B (zh) 2021-12-09 2021-12-09 一种视频编辑系统、方法及装置

Country Status (1)

Country Link
CN (1) CN114173059B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063906A (zh) * 2022-06-09 2022-09-16 珠海天成创芯科技有限公司 行车记录方法、装置、行车记录仪和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048803A (ja) * 2003-09-29 2004-02-12 National Institute Of Advanced Industrial & Technology 映像合成処理システム
CN103475826A (zh) * 2013-09-27 2013-12-25 深圳市中视典数字科技有限公司 一种视频抠像合成方法
WO2017050115A1 (zh) * 2015-09-24 2017-03-30 努比亚技术有限公司 一种图像合成方法和装置
CN108391095A (zh) * 2018-04-13 2018-08-10 青岛慧拓智能机器有限公司 用于监控无人驾驶车辆的视频拍摄方法及系统
CN110008360A (zh) * 2019-04-09 2019-07-12 河北工业大学 包含特定背景图像的车辆目标图像数据库建立方法
CN111652829A (zh) * 2020-06-09 2020-09-11 展讯通信(上海)有限公司 图像融合方法、装置、电子设备及存储介质
JP2020162149A (ja) * 2020-06-15 2020-10-01 綿半ソリューションズ株式会社 車両撮影システム
CN113489920A (zh) * 2021-06-29 2021-10-08 维沃移动通信(杭州)有限公司 一种视频合成方法、装置及电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048803A (ja) * 2003-09-29 2004-02-12 National Institute Of Advanced Industrial & Technology 映像合成処理システム
CN103475826A (zh) * 2013-09-27 2013-12-25 深圳市中视典数字科技有限公司 一种视频抠像合成方法
WO2017050115A1 (zh) * 2015-09-24 2017-03-30 努比亚技术有限公司 一种图像合成方法和装置
CN108391095A (zh) * 2018-04-13 2018-08-10 青岛慧拓智能机器有限公司 用于监控无人驾驶车辆的视频拍摄方法及系统
CN110008360A (zh) * 2019-04-09 2019-07-12 河北工业大学 包含特定背景图像的车辆目标图像数据库建立方法
CN111652829A (zh) * 2020-06-09 2020-09-11 展讯通信(上海)有限公司 图像融合方法、装置、电子设备及存储介质
JP2020162149A (ja) * 2020-06-15 2020-10-01 綿半ソリューションズ株式会社 車両撮影システム
CN113489920A (zh) * 2021-06-29 2021-10-08 维沃移动通信(杭州)有限公司 一种视频合成方法、装置及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063906A (zh) * 2022-06-09 2022-09-16 珠海天成创芯科技有限公司 行车记录方法、装置、行车记录仪和存储介质

Also Published As

Publication number Publication date
CN114173059B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
US10528820B2 (en) Colour look-up table for background segmentation of sport video
US20080018668A1 (en) Image Processing Device and Image Processing Method
CN110119700B (zh) 虚拟形象控制方法、虚拟形象控制装置和电子设备
CN111193961B (zh) 视频编辑设备和方法
CN108388882A (zh) 基于全局-局部rgb-d多模态的手势识别方法
CN106682652B (zh) 基于增强现实的结构表面病害巡检和分析方法
CN109951635A (zh) 拍照处理方法、装置、移动终端以及存储介质
US11676252B2 (en) Image processing for reducing artifacts caused by removal of scene elements from images
US11443450B2 (en) Analyzing screen coverage of a target object
CN114173059B (zh) 一种视频编辑系统、方法及装置
CN112258610A (zh) 图像标注方法、装置、存储介质及电子设备
CN111598983A (zh) 动画制作系统、方法、存储介质及程序产品
CN112911149B (zh) 图像输出方法、装置、电子设备及可读存储介质
CN109495778B (zh) 影片编辑方法、装置及系统
CN112839167A (zh) 图像处理方法、装置、电子设备及计算机可读介质
US11720233B2 (en) Method for associating production elements with a production approach
CN115134533B (zh) 自动调用车载图像采集装置的拍摄方法及设备
US20230131418A1 (en) Two-dimensional (2d) feature database generation
CN108765574A (zh) 3d场景拟真方法及系统和计算机可读存储介质
CN114549547A (zh) 抠像方法、装置、存储介质及电子设备
CN112686285A (zh) 一种基于计算机视觉的工程质量检测方法及系统
CN113034449A (zh) 目标检测模型训练方法、装置及通信设备
CN112887611A (zh) 图像处理方法、装置、设备和存储介质
CN115775344A (zh) 一种天空分割视频及图像数据构建方法及装置
US20230206471A1 (en) Method and Apparatus for Processing Reference Inputs for Video Compositing with Replacement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant