CN117156203B - 一种自动视频展示方法及系统 - Google Patents
一种自动视频展示方法及系统 Download PDFInfo
- Publication number
- CN117156203B CN117156203B CN202311212917.3A CN202311212917A CN117156203B CN 117156203 B CN117156203 B CN 117156203B CN 202311212917 A CN202311212917 A CN 202311212917A CN 117156203 B CN117156203 B CN 117156203B
- Authority
- CN
- China
- Prior art keywords
- video
- extracting
- video image
- database
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 63
- 239000012634 fragment Substances 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000009395 breeding Methods 0.000 description 4
- 230000001488 breeding effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 239000000306 component Substances 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4662—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
- H04N21/4666—Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自动视频展示方法及系统,包括步骤:S1:实时捕捉稻田景观游览区的视频图像;S2:当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;S3:采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S;S4:提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;S5:将生成的视频片段自动展示在稻田景观游览区大屏幕上。本申请采用加入时间权重因子w(T)进行计算相似找到最优匹配片段,并对视频片段进行色彩、亮度、对比度调整,然后再进行拼接,实现了视频的快速拼接展示自动化处理。
Description
技术领域
本发明涉及户外视频自动处理领域,具体涉及一种自动视频展示方法及系统。
背景技术
随着生态养殖和稻田景观旅游度假区的快速发展,当前全国生态养殖和稻田景观旅游场所大幅增加,在生态养殖和稻田景观旅游场所的多维度展示方面相对欠缺,游客的新鲜感较为平等,随着科技的发展,视频技术在生态养殖和稻田景观旅游场所得到了广泛的应用,尤其是在户外旅游景区,视频展示已经成为一种重要的宣传和吸引游客的手段。然而,传统的视频展示方法往往需要人工进行视频的拍摄、剪辑和播放,这不仅消耗大量的人力物力,而且难以实时反映景区的实际情况,不能满足游客对实时、真实的体验需求。
为了解决上述问题,一些技术提供了自动视频拍摄和播放的方法,但这些方法往往忽略了视频内容的质量和实时性。例如,简单地使用摄像头实时捕捉景区的视频并直接播放,虽然能够实现实时性,但视频的内容可能并不吸引人,而且可能会受到各种环境因素的影响,如光线、天气等,导致视频的质量不高。此外,这种方法也不能实现对特定内容,如游客、特色景点等的特定展示,不能满足游客的个性化需求。例如政府视察、学生参观、家庭游客等不同群体需要匹配不同的环境,有些需要严肃的场景、有些需要欢乐的场景等。
另一方面,一些技术提供了使用预先录制的视频片段进行播放的方法,这种方法可以确保视频的质量,但缺乏实时性,不能反映景区的实时情况。而且,这种方法也不能实现对特定内容的特定展示,同样不能满足游客的个性化需求。且如果在旅游场所,自动生成一段带有游客的视频片段加上本地的一些元素,会大大增加游客的体验感,但需要快速的生成且需要快速的匹配当地元素的视频以形成完成的视频。
为了克服上述问题,需要一种新的视频展示方法,既能够实现视频的实时性,又能够确保视频的质量,而且能够实现对特定内容的特定展示,满足游客的个性化需求。此外,考虑到户外景区的特点,如光线、天气等环境因素的变化,以及游客的动态变化,这种方法还需要能够动态地调整视频的内容和属性,如色彩、亮度、对比度等,以确保视频的质量和吸引力。
发明内容
针对现有技术中提到的上述问题,为解决上述技术问题,本发明提供了一种自动视频展示方法及系统,该方法通过采用计算相似度找到最优的匹配解决方案,采用加入时间权重因子w(T)对采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取后并分别计算与数据库中的每个视频片段进行计算相似u的找到最优匹配片段,并根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,实现了视频的快速拼接展示自动化处理。
一种自动视频展示方法,包括步骤:
S1:实时捕捉稻田景观游览区的视频图像;
S2:当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
S3:采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
S4:提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
S5:将生成的视频片段自动展示在稻田景观游览区大屏幕上。
优选地,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
优选地,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。
优选地,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
优选地,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sin(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
本申请还提供一种自动视频展示系统,包括:
CCD相机实时捕捉稻田景观游览区的视频图像;
视频提取模块,当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
相似度计算模块,采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
视频拼接模块,提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
视频展示模块,将生成的视频片段自动展示在稻田景观游览区大屏幕上。
优选地,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
优选地,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。
优选地,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
优选地,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sim(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
本发明提供了一种自动视频展示方法及系统,所能实现的有益技术效果如下:
1、本申请通过采用采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间,本申请通过加入w(T)为时间权重因子,实现了匹配的精准性,例如政府群体、学生群体、家庭等通过穿戴校服或西装或自由穿戴等颜色不同,实现了数据库片段的竞争匹配,大大增强了视频匹配准确和展示处理效率。
2、本发明根据提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,大大增强了视频的匹配度,例如时间间隔较久则差异较大,则对对比度、色彩、亮度进行适应性的设置,大大提高了匹配程度。
3、本发明通过当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取,大大提高了视频图像处理效率,因为在户外只有道路上的人变动较大,景物农田等色彩等基本不变,只针对性的处理有变化部分,大大增强了处理效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明的一种自动视频展示方法步骤示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例1:
针对现有技术中提到的上述问题,为解决上述技术问题,如附图1所示:一种自动视频展示方法,包括步骤:
一种自动视频展示方法,包括步骤:
S1:实时捕捉稻田景观游览区的视频图像;
S2:当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
S3:采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
CNN卷积核(也称为滤波器)是卷积神经网络中的核心组件,用于在图像上执行卷积操作以提取特征。卷积核是一个小的矩阵,其大小通常为3×33×3,5×55×5或7×77×7,但也可以有其他尺寸。
CNN卷积核的构成:
1.边缘检测卷积核:这种卷积核可以检测图像中的边缘。
例如,垂直边缘检测卷积核为:
-1 0 1
-1 0 1
-1 0 1
2.水平边缘检测卷积核:
-1 -1 -1
0 0 0
1 0 1
3.锐化卷积核:增强图像中的细节
0 -1 0
-1 5 -1
1 0 1
4.模糊卷积核:用于平滑图像通过下面值乘以1/8;
1 1 1
1 1 1
1 0 1
卷积操作如下:给定一个图像I和一个卷积核K,卷积操作在位置(x,y)的输出定义为:
m和n是卷积核的半径(例如,对于3×3的卷积核,m=n=1),对于图像I中的每个位置(x,y),我们都将其周围的像素与卷积核K的对应元素相乘,然后将所有的乘积加起来,得到该位置的输出值。
S4:提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
S5:将生成的视频片段自动展示在稻田景观游览区大屏幕上。
在一些实施例中,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
在一些实施例中,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。帧差法是一种常用的动态目标检测方法,它通过计算连续两帧之间的差异来检测移动的物体。对于判断图像中是否有人,帧差法是合适的,但也有其局限性。以下是详细的解释:
1.帧差法:帧差法计算两个连续帧之间的像素差异。如果一个区域的差异超过了预设的阈值,那么这个区域就被认为有动态目标存在。
如果这个动态目标的形状、大小和移动特征与人相似,那么可以判断这个目标是人。
2.如何判断:
二值化:首先,将帧差结果进行二值化处理,使得移动的物体为白色,背景为黑色。
形态学操作:使用形态学操作(如腐蚀和膨胀)去除噪声并强化目标形状。
目标提取:使用连通组件分析或边界框检测来确定视频中的独立物体。
特征分析:对于每个检测到的物体,分析其大小、形状和移动特征。如果这些特征与人类相似,那么可以认为这个物体是人。
在一些实施例中,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
在一些实施例中,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sin(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
实施例2:
本申请还提供一种自动视频展示系统,包括:
CCD相机实时捕捉稻田景观游览区的视频图像;
视频提取模块,当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
相似度计算模块,采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
视频拼接模块,提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
视频展示模块,将生成的视频片段自动展示在稻田景观游览区大屏幕上。
在一些实施例中,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
在一些实施例中,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。
在一些实施例中,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
在一些实施例中,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sim(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
本发明提供了一种自动视频展示方法及系统,所能实现的有益技术效果如下:
1、本申请通过采用采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间,本申请通过加入w(T)为时间权重因子,实现了匹配的精准性,例如政府群体、学生群体、家庭等通过穿戴校服或西装或自由穿戴等颜色不同,实现了数据库片段的竞争匹配,大大增强了视频匹配准确和展示处理效率。
2、本发明根据提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,大大增强了视频的匹配度,例如时间间隔较久则差异较大,则对对比度、色彩、亮度进行适应性的设置,大大提高了匹配程度。
3、本发明通过当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取,大大提高了视频图像处理效率,因为在户外只有道路上的人变动较大,景物农田等色彩等基本不变,只针对性的处理有变化部分,大大增强了处理效率。。
以上对一种自动视频展示方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想;同时,对于本领域的一般技术人员,依据本发明的思想和方法,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种自动视频展示方法,其特征在于,包括步骤:
S1:实时捕捉户外稻田景观游览区的视频图像;
S2:当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
S3:采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
S4:提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
S5:将生成的视频片段自动展示在稻田景观游览区大屏幕上。
2.如权利要求1所述的一种自动视频展示方法,其特征在于,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
3.如权利要求1所述的一种自动视频展示方法,其特征在于,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。
4.如权利要求1所述的一种自动视频展示方法,其特征在于,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
5.如权利要求1所述的一种自动视频展示方法,其特征在于,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sin(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
6.一种自动视频展示系统,其特征在于,包括:
CCD相机实时捕捉稻田景观游览区的视频图像;
视频提取模块,当有游客时,对视频图像中道路部分进行提取,对视频图像中的非道路部分每隔时间T1进行一次提取;
相似度计算模块,采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,并分别计算与数据库中的每个视频片段的相似度S:
A为采用CNN卷积神经网络对提取的视频图像进行特征提取的特征向量,B表示当前选择的数据库中的视频片段的特征向量;
w(T)为时间权重因子,
其中,e为自然对数,α为设定的常量用于控制时间差异的影响程度,Tin为对视频图像中道路部分进行提取的时间,Tdb为数据库中的视频片段提取时间;
视频拼接模块,提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段;
视频展示模块,将生成的视频片段自动展示在稻田景观游览区大屏幕上。
7.如权利要求6所述的一种自动视频展示系统,其特征在于,所述实时捕捉稻田景观游览区的视频图像,还包括采用直方图均衡化对视频图像进行去噪处理。
8.如权利要求6所述的一种自动视频展示系统,其特征在于,所述当有游客时,对视频图像中道路部分进行提取,包括采用帧差法判断是否有游客进入,当有游客进入后则提取时间间隔为T2的视频段。
9.如权利要求6所述的一种自动视频展示系统,其特征在于,所述采用CNN卷积神经网络对提取的视频图像中道路部分进行特征提取,其中CNN卷积神经网络采用ReLU非线性激活函数。
10.如权利要求6所述的一种自动视频展示系统,其特征在于,所述提取的视频图像与数据库中相似度S最大的视频片段进行拼接形成新的视频片段,还包括根据Δt=Tin-Tdb的值对数据库中相似度S最大的视频片段进行色彩和/或亮度和/或对比度调整,然后再进行拼接,调整过程如下:
C(t)=C0+β*sim(ρ*Δt)
其中,C(t)是色彩调整值,C0是基线色彩值,β是设定的色彩调整系数,ρ是设定的色彩Δt调整系数;
L(t)=L0+γ*cos(∈*Δt)
L(t)是亮度调整值,L0是基线亮度值,γ是设定的亮度调整系数,∈是设定的亮度Δt调整系数;
P(t)是对比度调整值,P0是基线对比度值,θ是设定的对比度调整系数,是设定的对比度Δt调整系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311212917.3A CN117156203B (zh) | 2023-09-19 | 2023-09-19 | 一种自动视频展示方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311212917.3A CN117156203B (zh) | 2023-09-19 | 2023-09-19 | 一种自动视频展示方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117156203A CN117156203A (zh) | 2023-12-01 |
CN117156203B true CN117156203B (zh) | 2024-05-07 |
Family
ID=88902505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311212917.3A Active CN117156203B (zh) | 2023-09-19 | 2023-09-19 | 一种自动视频展示方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117156203B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110996148A (zh) * | 2019-11-27 | 2020-04-10 | 重庆特斯联智慧科技股份有限公司 | 一种基于人脸识别的景区多媒体影像流动播放系统和方法 |
CN112668375A (zh) * | 2019-10-16 | 2021-04-16 | 广东轻工职业技术学院 | 景区内游客分布分析系统及方法 |
CN114005056A (zh) * | 2021-10-25 | 2022-02-01 | 四川智胜慧旅科技有限公司 | 一种景区投喂行为识别方法、装置及系统 |
KR20230068207A (ko) * | 2021-11-10 | 2023-05-17 | 광운대학교 산학협력단 | 모바일 단말에서 유해 동영상 차단을 위한 단말 자원 기반의 적응적 프레임 추출 및 스트리밍 제어 시스템 및 방법 |
CN116309080A (zh) * | 2023-05-11 | 2023-06-23 | 武汉纺织大学 | 一种无人机视频拼接方法 |
-
2023
- 2023-09-19 CN CN202311212917.3A patent/CN117156203B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112668375A (zh) * | 2019-10-16 | 2021-04-16 | 广东轻工职业技术学院 | 景区内游客分布分析系统及方法 |
CN110996148A (zh) * | 2019-11-27 | 2020-04-10 | 重庆特斯联智慧科技股份有限公司 | 一种基于人脸识别的景区多媒体影像流动播放系统和方法 |
CN114005056A (zh) * | 2021-10-25 | 2022-02-01 | 四川智胜慧旅科技有限公司 | 一种景区投喂行为识别方法、装置及系统 |
KR20230068207A (ko) * | 2021-11-10 | 2023-05-17 | 광운대학교 산학협력단 | 모바일 단말에서 유해 동영상 차단을 위한 단말 자원 기반의 적응적 프레임 추출 및 스트리밍 제어 시스템 및 방법 |
CN116309080A (zh) * | 2023-05-11 | 2023-06-23 | 武汉纺织大学 | 一种无人机视频拼接方法 |
Non-Patent Citations (1)
Title |
---|
王馨曼.油画作品在城市轨道交通视频广告中的应用.城市轨道交通研究.2023,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN117156203A (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109525901B (zh) | 视频处理方法、装置、电子设备及计算机可读介质 | |
Tang et al. | Content-based photo quality assessment | |
Liu et al. | Dense SIFT for ghost-free multi-exposure fusion | |
US20160334546A1 (en) | Weather recognition method and device based on image information detection | |
Yuan et al. | A region-wised medium transmission based image dehazing method | |
Přibyl et al. | Evaluation of feature point detection in high dynamic range imagery | |
CN107300968B (zh) | 一种人脸识别方法及装置、画面显示方法及装置 | |
CN111489330B (zh) | 基于多源信息融合的弱小目标检测方法 | |
Rana et al. | Evaluation of feature detection in HDR based imaging under changes in illumination conditions | |
Feng et al. | Infrared target detection and location for visual surveillance using fusion scheme of visible and infrared images | |
CN117156203B (zh) | 一种自动视频展示方法及系统 | |
Tao et al. | Nonlinear image enhancement to improve face detection in complex lighting environment | |
Hu et al. | Video object segmentation in rainy situations based on difference scheme with object structure and color analysis | |
CN110827241B (zh) | 基于颜色失真和对比度增强的低亮度增强图片全参考方法 | |
Qian et al. | Effective contrast enhancement method for color night vision | |
Qu et al. | Algorithm of multiexposure image fusion with detail enhancement and ghosting removal | |
CN111859022A (zh) | 封面生成方法、电子设备及计算机可读存储介质 | |
Soumya et al. | Recolorizing dark regions to enhance night surveillance video | |
CN112995666B (zh) | 一种结合场景切换检测的视频横竖屏转换方法及装置 | |
Wei et al. | Dehazing model based on multiple scattering | |
Nie et al. | Image Defogging Based on Joint Contrast Enhancement and Multi-scale Fusion | |
Tang et al. | Single image defogging based on step estimation of transmissivity | |
Lee et al. | Visibility dehazing based on channel-weighted analysis and illumination tuning | |
Asadi et al. | Improving dark channel prior for single image dehazing | |
Lee et al. | Visibility enhancement via optimal two-piece gamma tone mapping for optical see-through displays under ambient light |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |