CN114862704B - 影像色彩修复的镜头自动划分方法 - Google Patents
影像色彩修复的镜头自动划分方法 Download PDFInfo
- Publication number
- CN114862704B CN114862704B CN202210436280.5A CN202210436280A CN114862704B CN 114862704 B CN114862704 B CN 114862704B CN 202210436280 A CN202210436280 A CN 202210436280A CN 114862704 B CN114862704 B CN 114862704B
- Authority
- CN
- China
- Prior art keywords
- frame
- image
- data
- value
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000011218 segmentation Effects 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 4
- 229910052709 silver Inorganic materials 0.000 description 4
- 239000004332 silver Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
影像色彩修复的镜头自动划分方法,获取包含多种类别的目标检测训练数据,训练VGG19网络作为特征提取器,将黑白影视文件逐帧切割,得到每一帧的图像,并将帧图像大小对齐,将帧图像输入训练好的特征提取器中,提取得到帧图像的多层特征图作为其深度特征,计算每相邻两帧图像的深度特征之间的语义相似度;根据计算得到的语义相似度,基于阈值自适应算法确定分割该黑白影视文件所需要的阈值,将语义相似度中低于该阈值的帧作为镜头的分割点,完成镜头分割。本发明能够根据不同影像利用阈值自适应动态调整阈值,为影像色彩修复等应用场景提供关键技术支持,同时也可用于非黑白影视的镜头划分应用场景。
Description
技术领域
本发明属于人工智能技术领域,涉及影像色彩修复,特别涉及一种影像色彩修复的镜头自动划分方法。
背景技术
一般而言,影像资料往往由多个逻辑上的故事单元组成,每个单元的内容不尽相同。如果对影像资料进行分析处理时,直接对整个视频进行处理,会很难准确地处理黑白影像所包含的所有内容。因此,有必要对影像资料进行语义上的分割。
近年来国内外研究者对视频场景分割进行了大量研究。在2011年,Temporalvideo segmentation to scenes using high-level audiovisual features一文中,作者通过引入镜头转换图的方法进行视频场景分割,其中每个节点都代表一个镜头,并根据它们之间的相似度对节点之间的边进行加权,最后,利用归一化切割将镜头转化图分解为子图,检测场景边界。但该没有充分考虑镜头间的语义相关关系,因此生成的子图难以形成语义层面的场景,导致分割结果不够准确。
在2019年的Keyframes and shot boundaries:the attributes of scenesegmentation and classification一文中,作者采用镜头相似度图法解决场景分割问题,并添加滑动窗口来控制场景检测过程,通过镜头相似度计算,动态调整滑动窗口的长度,避免了场景分割过多或过少的问题。该方法能有效地提高检测精度,但存在检测效率较低等问题。
在2020年,Movie scene segmentation using object detection and settheory一文中,作者通过一种基于三折叠框架的智能卷积神经网络研究场景分割,第一次折叠将输入的影片分割成镜头,第二次折叠检测分割镜头中的目标,第三次折叠基于目标进行镜头匹配,检测场景边界,但该方法依赖于场景中对象的匹配,适用于对象明确的电影类视频场景分割。
发明内容
为解决现在基于深度学习的影像色彩修复技术在算法模型原理上大多实际场景中所需的镜头自动划分问题,本发明的目的在于提供一种影像色彩修复的镜头自动划分方法,利用下文信息对上文信息的依赖,不断提取特征,实现预测时的镜头自动划分。
为了实现上述目的,本发明采用的技术方案是:
影像色彩修复的镜头自动划分方法,其特征在于,包括如下步骤:
步骤1,获取包含多种类别的目标检测训练数据,以VGG19网络作为特征提取器,利用所述目标检测训练数据对其进行训练,将VGG19网络的每一层输出的特征图作为提取到的图像特征;
步骤2,将黑白影视文件逐帧切割,得到每一帧的图像,并将帧图像大小对齐;
步骤3,将所述帧图像输入训练好的特征提取器中,提取得到帧图像的多层特征图作为其深度特征,计算每相邻两帧图像的深度特征之间的语义相似度;
步骤4,根据计算得到的语义相似度,基于阈值自适应算法确定分割该黑白影视文件所需要的阈值,将语义相似度中低于该阈值的帧作为镜头的分割点,完成镜头分割。
在一个实施例中,所述步骤1,从ImageNet中获取包含多种类别的目标检测训练数据,对目标检测训练数据进行数据增强以扩充数据集,所述数据增强包括随机翻转、平移以及遮挡。
在一个实施例中,所述步骤2,利用OPENCV模块进行视频逐帧切割,所得帧图像大小对齐到216*384。
在一个实施例中,所述步骤3,采用梯度下降法进行训练,方法如下:
(1)、采用Adam优化器,采用交叉熵损失函数监督训练;
(2)、在一次迭代中输入X张图片,经过VGG19网络正向传播后根据损失函数计算损失值,并反向传播计算梯度;
(3)、按照等间隔方法调整学习率,初始值为0.001,间隔设置为100,调整倍数设置为0.1,衰减到0.000001为止;
(4)、按照上述(1)、(2)、(3)中的参数设置训练网络,直至损失值停止下降后结束训练,保存网络参数,训练完成。
在一个实施例中,所述步骤3,将提取得到的每张帧图像的多层特征图连接,作为该帧图像的深度特征,将所述深度特征输入残差块得到该帧图像的特征向量。
在一个实施例中,所述步骤4完成镜头分割的方法如下:
(1)、将语义相似度的序列等比例缩放到0~255之间,作为输入数据序列;建立一个长度为5的滤波队列,将输入数据序列的前5个数据先后放入滤波队列中;
(2)、从输入数据序列的第6个数据开始,计算当前滤波队列中所有数据的均值,若当前数据的值与均值之差小于20,则当前数据对应的黑白影视文件中的帧不是镜头分割点,若当前数据的值与均值之差大于等于20,则当前数据对应的影视文件中的帧为镜头分割点;
(3)、处理完输入数据序列中的一个数据后,若该数据不为镜头分割点,则将其放入滤波队列队尾,弹出滤波队列队首的值,否则滤波队列置为空;
(4)、按照(2)~(3)循环处理输入数据序列,得到所有镜头分割点。
与现有技术相比,本发明的有益效果是:
本发明的基于深度学习的镜头自动划分方法,能够根据不同影像利用阈值自适应动态调整阈值,为影像色彩修复等应用场景提供关键技术支持,同时也可用于非黑白影视的镜头划分应用场景。
附图说明
图1为本发明的整体步骤示意图。
图2为本发明的特征提取器的网络结构示意图。
图3为本发明的残差块的网络结构示意图。
图4为基于本发明的《雪海银山》中的镜头划分代表图片。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
针对上述方法存在的难以兼顾效率和质量的问题,本发明提出了影像色彩修复的镜头自动划分方法,利用卷积神经网络提取特征的优势直接提取帧图像的特征,采用VGG19网络和残差块,对黑白影视文件进行逐帧特征提取,输出帧图像的特征向量,达到了高效处理帧图像底层特征的效果。同时,对相邻帧的特征进行相似度比较,将帧图像特征与语义特征结合,构建相似度模型并训练,在执行预测时,将得到的前一帧特征张量作为输入,与当前帧进行相似度比较得到相邻两帧的相似度;最后通过这些相似度进行动态判定是否发生了镜头切换,采用阈值自适应算法进行相似度的动态判定,最终在每个切换处进行切割,输出为切割完成的各个镜头。在模型落地部署后调用API接口或模块时,结合深度学习的镜头自动划分方法,实现影像色彩修复的镜头自动划分。
具体地,如图1所示,本实施例给出影像色彩修复的镜头自动划分方法,包含以下步骤:
步骤1,使用黑白影视文件作为输入进行逐帧切割,得到每一帧的图像,并将帧图像大小对齐。
本发明中,黑白影视文件指以只有黑白两种颜色的感光胶片拍摄的影片对应的视频文件,例如电影《雪海银山》对应的雪海银山.mp4文件。
具体地,本步骤中,可利用OPENCV等视频切割模块将黑白影视文件切割为每一帧要计算相似度的帧图像,将每张帧图像做图像特征提取,逐帧处理;对于每一帧的图像,将图像大小对齐到216*384。
步骤2,获取包含多种类别的目标检测训练数据。
本步骤中,包含多种类别的目标检测训练数据可以从ImageNet中获取,并可对数据进行随机翻转、平移、遮挡等数据增强操作,以扩充数据集。
包含多种类别的目标检测训练数据也可以自行搭建,即采用步骤1的处理方式,获取大量的大小对齐的帧图像。其中,需要将图像的RGB色彩空间转换到Lab色彩空间。
本步骤的相关术语定义如下:
目标:进行检测的物体,比如图像中属于人类别的某某某。
随机裁剪:从图像中随机裁剪一个正方形区域感兴趣区,判断感兴趣区与各个目标框的交并比,若交并比过小则重新裁剪。
随机放大:随机产生一个新的正方形感兴趣区,将原始图像放入感兴趣去区中,使用图像均值填充填充超出原图的区域。
随机翻转:从数据集中选择训练训练图像,沿图像中心按照横轴方向与纵轴方向翻转图像,得到新的图像扩增数据集。
高斯噪声:随机选择数据集中若干样本,对每个样本生成方差为δ/10的高斯噪声(其中δ为该样本像素值的方差),将噪声图像与原图相加,得到新的图像用于扩增数据集。
容易理解,本步骤可以与步骤1替换次序。
步骤3,训练特征提取器。
本发明选用VGG19网络作为特征提取器,利用目标检测训练数据对其进行训练,采用梯度下降法对其进行训练,VGG19网络的每一层(例如relu2_2、relu3_2、relu4_2、relu5_2)输出一个特征图,每个特征图为一个张量。将VGG19网络的每一层输出的特征图均作为提取到的图像特征。
示例地,本步骤采用梯度下降法训练,其实现方法如下:
(1)、采用Adam优化器,采用交叉熵损失函数来监督训练。
(2)、在一次迭代中输入X张图片,经过VGG19网络正向传播后根据损失函数计算损失值,并反向传播计算梯度。
(3)、按照等间隔方法调整学习率,初始值为,0.00001,间隔设置为100,调整倍数设置为0.1,直至衰减至0.000001。
(4)、按照上述(1)、(2)、(3)中的参数设置训练网络,直至损失值停止下降后结束训练,保存网络参数,训练完成。
步骤4,将需要预测的帧图像输入到训练好的特征提取器中,提取得到的多层特征图作为该帧图像的深度特征,计算每相邻两帧图像的深度特征之间的语义相似度。
具体地,参考图3,本步骤是将提取得到的每张帧图像的多层特征图连接,作为该帧图像的深度特征,并进一步将深度特征输入残差块,得到该帧图像的特征向量。
本步骤中术语定义:
深度特征:经过特征提取器输出的各层特征图的总称。
语义相似度:两个帧图像在不同的上下文中可以互相替换使用而不改变语义结构的程度。
本实施例使用从图像分类预训练的VGG19网络中提取的深层特征来构建两张帧图像之间的语义对应关系。具体地,使用图2中多个卷积层和池化层组成的VGG19网络提取两张帧图像的多层特征图,将两张帧图像各自对应的多层特征图分别连接起来形成两个新特征,即深度特征,将深度特征输入到残差块中,以更好的利用来自不同层的特征,并将输出重新整形成两个特征向量。
步骤5,根据计算得到的语义相似度,基于阈值自适应算法确定分割该黑白影视文件所需要的合适阈值,将语义相似度中低于该阈值的帧作为镜头的分割点,完成镜头分割,即,以此分割点作为两个镜头间的临界点,即此分割点的下一帧为下一个镜头。
本步骤的具体流程可执行如下:
(1)、将语义相似度的序列等比例缩放到0~255之间,作为输入数据序列;建立一个长度为5的滤波队列,将输入数据序列的前5个数据先后放入滤波队列中;
(2)、从输入数据序列的第6个数据开始,计算当前滤波队列中所有数据的均值,若当前数据的值与均值之差小于20,则当前数据对应的黑白影视文件中的帧不是镜头分割点,若当前数据的值与均值之差大于等于20,则当前数据对应的影视文件中的帧为镜头分割点。
(3)、处理完输入数据序列中的一个数据后,若该数据不为镜头分割点,则将其放入滤波队列队尾,弹出滤波队列队首的值,否则滤波队列置为空;
(4)、按照(2)~(3)循环处理输入数据序列,得到所有镜头分割点。
图4表示通过本发明方法对《雪海银山》的片段进行划分,第六张帧图像为得到的分割点。可以看出,虽然两个镜头中的人物位置很相似,只通过语义相似度可能区分不开,但是通过本方法的特征提取器和相似度阈值自适应两种算法得到一个良好的结果,将两个镜头划分出来。图4中图像根据特征提取器的特征向量计算得到的语义相似度依次为62.3,63.1,62.5,64.5,62.5,41.2。当计算到图4中第六张图像的滤波序列为[62.3,63.1,62.5,64.5,62.5],此时滤波序列的均值为62.98,则第六张图像的语义相似度与均值的差值为21.78,大于20,则当前帧图像标记为镜头分割点,将滤波队列置为空。继续处理下一张帧图像,直至处理完所有帧图像。
Claims (4)
1.影像色彩修复的镜头自动划分方法,其特征在于,包括如下步骤:
步骤1,获取包含多种类别的目标检测训练数据,以VGG19网络作为特征提取器,利用所述目标检测训练数据对其进行训练,将VGG19网络的每一层输出的特征图作为提取到的图像特征;
步骤2,将黑白影视文件逐帧切割,得到每一帧的图像,并将帧图像大小对齐;
步骤3,将所述帧图像输入训练好的特征提取器中,提取得到帧图像的多层特征图,将提取得到的每张帧图像的多层特征图连接,作为该帧图像的深度特征,将所述深度特征输入残差块得到该帧图像的特征向量,计算每相邻两帧图像的深度特征之间的语义相似度计算公式如下:
步骤4,根据计算得到的语义相似度,基于阈值自适应算法确定分割该黑白影视文件所需要的阈值,将语义相似度中低于该阈值的帧作为镜头的分割点,完成镜头分割,方法如下:
(1)、将语义相似度的序列等比例缩放到0~255之间,作为输入数据序列;建立一个长度为5的滤波队列,将输入数据序列的前5个数据先后放入滤波队列中;
(2)、从输入数据序列的第6个数据开始,计算当前滤波队列中所有数据的均值,若当前数据的值与均值之差小于20,则当前数据对应的黑白影视文件中的帧不是镜头分割点,若当前数据的值与均值之差大于等于20,则当前数据对应的影视文件中的帧为镜头分割点;
(3)、处理完输入数据序列中的一个数据后,若该数据不为镜头分割点,则将其放入滤波队列队尾,弹出滤波队列队首的值,否则滤波队列置为空;
(4)、按照(2)~(3)循环处理输入数据序列,得到所有镜头分割点。
2.根据权利要求1所述影像色彩修复的镜头自动划分方法,其特征在于,所述步骤1,从ImageNet中获取包含多种类别的目标检测训练数据,对目标检测训练数据进行数据增强以扩充数据集,所述数据增强包括随机翻转、平移以及遮挡。
3.根据权利要求1所述影像色彩修复的镜头自动划分方法,其特征在于,所述步骤2,利用OPENCV模块进行视频逐帧切割,所得帧图像大小对齐到216*384。
4.根据权利要求1所述影像色彩修复的镜头自动划分方法,其特征在于,所述步骤3,采用梯度下降法进行训练,方法如下:
(1)、采用Adam优化器,采用交叉熵损失函数监督训练;
(2)、在一次迭代中输入X张图片,经过VGG19网络正向传播后根据损失函数计算损失值,并反向传播计算梯度;
(3)、按照等间隔方法调整学习率,初始值为0.001,间隔设置为100,调整倍数设置为0.1,衰减到0.000001为止;
(4)、按照上述(1)、(2)、(3)中的参数设置训练网络,直至损失值停止下降后结束训练,保存网络参数,训练完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436280.5A CN114862704B (zh) | 2022-04-25 | 2022-04-25 | 影像色彩修复的镜头自动划分方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210436280.5A CN114862704B (zh) | 2022-04-25 | 2022-04-25 | 影像色彩修复的镜头自动划分方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114862704A CN114862704A (zh) | 2022-08-05 |
CN114862704B true CN114862704B (zh) | 2023-03-24 |
Family
ID=82633097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210436280.5A Active CN114862704B (zh) | 2022-04-25 | 2022-04-25 | 影像色彩修复的镜头自动划分方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114862704B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764060A (zh) * | 2018-05-07 | 2018-11-06 | 中国传媒大学 | 基于滑动窗口的视频镜头边缘检测方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100438269B1 (ko) * | 2001-03-23 | 2004-07-02 | 엘지전자 주식회사 | 뉴스 비디오 브라우징 시스템에서 앵커 샷 자동 검출 방법 |
US20080123955A1 (en) * | 2006-11-29 | 2008-05-29 | Chia-Hung Yeh | Method for estimating boundary of video segment in video streams |
CN104243769A (zh) * | 2014-09-12 | 2014-12-24 | 刘鹏 | 基于自适应阈值的视频场景变化检测方法 |
CN106203277B (zh) * | 2016-06-28 | 2019-08-20 | 华南理工大学 | 基于sift特征聚类的固定镜头实时监控视频特征提取方法 |
US10417501B2 (en) * | 2017-12-06 | 2019-09-17 | International Business Machines Corporation | Object recognition in video |
CN113784227A (zh) * | 2020-06-10 | 2021-12-10 | 北京金山云网络技术有限公司 | 一种视频切片方法、装置、电子设备及存储介质 |
CN111984942B (zh) * | 2020-07-23 | 2023-10-27 | 西安理工大学 | 基于极复指数变换和残差神经网络的鲁棒视频零水印方法 |
-
2022
- 2022-04-25 CN CN202210436280.5A patent/CN114862704B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764060A (zh) * | 2018-05-07 | 2018-11-06 | 中国传媒大学 | 基于滑动窗口的视频镜头边缘检测方法 |
Non-Patent Citations (1)
Title |
---|
基于在线 Bayesian决策的动画场景切换检测方法;孙桃;《计算机工程与应用》;20161130;第52卷(第22期);第164-168页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114862704A (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001339B (zh) | 一种基于YOLO v4的行人社交距离实时监测方法 | |
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN110321813B (zh) | 基于行人分割的跨域行人重识别方法 | |
CN110570458B (zh) | 一种基于内部裁剪和多层特征信息融合的目标跟踪方法 | |
CN108345892B (zh) | 一种立体图像显著性的检测方法、装置、设备及存储介质 | |
Bai et al. | A geodesic framework for fast interactive image and video segmentation and matting | |
KR100873638B1 (ko) | 영상 처리 방법 및 장치 | |
CN109949317A (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN109948721B (zh) | 一种基于视频描述的视频场景分类方法 | |
CN110826491A (zh) | 级联手工特征与深度特征的视频关键帧检测方法 | |
CN112950477A (zh) | 一种基于双路径处理的高分辨率显著性目标检测方法 | |
CN111724400A (zh) | 视频自动抠像方法及系统 | |
CN109447082A (zh) | 一种场景运动目标分割方法、系统、存储介质及设备 | |
CN114037938B (zh) | 一种基于NFL-Net的低照度目标检测方法 | |
CN112686276A (zh) | 一种基于改进RetinaNet网络的火焰检测方法 | |
CN114255474A (zh) | 一种基于多尺度、多粒度行人重识别方法 | |
CN107533758A (zh) | 在时间上平滑视频增强 | |
CN114220126A (zh) | 一种目标检测系统及获取方法 | |
CN115546683A (zh) | 一种基于关键帧的改进色情视频检测方法及系统 | |
CN109978858B (zh) | 一种基于前景检测的双框架缩略图像质量评价方法 | |
CN111160354B (zh) | 一种基于联合图像信息的海天背景下船舶图像分割方法 | |
CN114862704B (zh) | 影像色彩修复的镜头自动划分方法 | |
CN110503049B (zh) | 基于生成对抗网络的卫星视频车辆数目估计方法 | |
CN112164078B (zh) | 基于编码器-解码器的rgb-d多尺度语义分割方法 | |
Honnutagi et al. | Underwater video enhancement using manta ray foraging lion optimization-based fusion convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |