CN113128344B - 一种多信息融合的立体视频显著性检测方法 - Google Patents
一种多信息融合的立体视频显著性检测方法 Download PDFInfo
- Publication number
- CN113128344B CN113128344B CN202110297430.4A CN202110297430A CN113128344B CN 113128344 B CN113128344 B CN 113128344B CN 202110297430 A CN202110297430 A CN 202110297430A CN 113128344 B CN113128344 B CN 113128344B
- Authority
- CN
- China
- Prior art keywords
- super
- representing
- pixels
- depth
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000001413 cellular effect Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 230000003287 optical effect Effects 0.000 claims description 12
- 239000010410 layer Substances 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 239000002356 single layer Substances 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 11
- 238000011160 research Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明方法公开了一种多信息融合的立体视频显著性检测方法。本发明方法首先通过2D视频序列的色彩特征、空间特征、中心位置特征计算,得到2D空间显著图;基于时空一致性,在2D空间显著图的基础上获得2D运动显著图;然后利用不同区域的深度差异度计算深度空间显著图;提取深度变化的信息,获得深度运动图;最后使用多层细胞自动机融合产生的视频序列的四种显著图,得到立体视频的显著图。本发明方法根据人眼视觉注意力对色彩、空间位置、物体远近的敏感机制,尤其利用深度信息与运动信息在立体视觉显著性检测中的重要作用,融合了多种立体视频在空间和时间上的特征,消除单一特征计算显著性带来的噪声影响。
Description
技术领域
本发明属于图像处理技术领域,具体是立体视频处理技术领域,涉及一种多信息融合的立体视频显著性检测方法。
背景技术
随着多媒体技术的发展,多媒体数据呈现爆炸式的增长趋势。其中,图像和视频数据因其生动、形象、真实等特点,越来越多地出现在人们生活的方方面面,成为海量视觉信息的主流。计算机智能地帮助人类分析和处理图像数据成为主要趋势。但是在实际运用中,如何让计算机像人眼一样处理图像和视频是计算机视觉领域非常热门的研究方向。在现实生活中,大脑总是对感兴趣的信息优先进行处理,对所有的视觉信息同时进行分析处理,这在人类视觉系统(Human Visual System,HVS)中称为视觉注意机制(Visual AttentionMechanism,VAM)。人们让计算机通过智能算法模拟人的视觉注意机制,提取图像中的显著区域。
近些年来,显著性检测研究发展较快,在2D视觉显著性检测方向的研究已趋于成熟,一些2D显著性检测模型都拥有较高的准确性和可靠性,但在自然场景中,人类视觉系统除了感知颜色、形状等信息时,还会对场景距离远近进行处理,也即感知深度信息。在立体图像的显著性检测模型中,深度信息是不可缺少的一个考虑因素。深度信息的加入将会提高显著性检测模型的稳定性和可靠性。另外,针对立体视频的显著性检测模型,还应该考虑视频的特殊信息,即相邻帧之间的运动信息与深度变化信息。目前在立体视觉显著性检测方面的研究还远不如平面的视觉显著性检测成熟。
发明内容
本发明的目的是针对立体视频显著性检测方面的研究,提供一种多信息融合的立体视频显著性检测方法。
本发明方法提出的立体视频显著性检测,不仅考虑立体视频平面的时间与空间信息,而且还将深度信息加入其中。
本发明方法以视频序列的帧为单位,利用空间和时间上的平面与深度信息分别计算2D空间显著图、深度空间显著图、2D运动显著图、深度运动显著图,然后采用多层元胞自动机(Multi-layer Cellular Automata,MCA)来融合得到立体视频的显著图。
本发明方法具体步骤是:
步骤(1)通过2D视频序列的色彩特征、空间特征、中心位置特征计算,得到2D空间显著图
步骤(2)基于时空一致性,在2D空间显著图的基础上获得2D运动显著图;
步骤(3)利用不同区域的深度差异度计算深度空间显著图
步骤(4)提取深度变化的信息,获得深度运动图;
步骤(5)使用多层细胞自动机融合步骤(1)~(4)产生的视频序列的四种显著图,得到立体视频的显著图。
进一步,步骤(1)具体是:
(1-1)采用线性迭代聚类SLIC超像素分割算法对第K帧视频序列进行超像素分割;
将每个超像素所包含的所有像素的LAB空间颜色信息的平均值作为对应超像素的颜色特征ci,表示第i个超像素的颜色特征;
将每个超像素所包含的所有像素的平均坐标信息作为对应超像素的空间位置特征li,表示第i个超像素的位置特征;
计算第i个超像素与集合B中所有背景节点的色彩差异度∑j∈B||ci-cj||、集合B中所有背景节点的平均色彩特征空间位置距离权重为/>其中,B为位于上、下、左、右四个边界的超像素标记背景先验节点集合,[B]表示集合B中背景节点的个数,cj表示集合B中第j个背景节点的颜色特征,lj表示集合B中第j个背景节点的位置特征;||·||表示两个坐标间欧氏距离,e指数学中的自然常数,α为控制系数;
(1-2)将基于中心位置的目标先验加入到显著性目标检验中,第i个超像素的显著值 为影响显著目标的中心位置权重因子,/>表示第i个超像素的中心与图像中心的距离,DL表示图像对角线的长度;
(1-3)通过以上计算获得初始的2D空间显著图并不能良好的突出前景目标,通过单层元胞自动机更新迭代,其中每个元胞代表初始2D空间显著图其中的一个超像素,每个元胞自动更新到更准确和稳定的状态,获得2D空间显著图
更进一步,步骤(2)具体是:
(2-1)对相邻帧FK和FK+1的2D空间显著图构建权重图ξK=(ψK,θK);其中,ψK表示包含第K帧和第K+1帧视频序列中所有的超像素RK和RK+1;θK表示超像素间的两种边缘:帧内边缘连接的是所有空间相邻的超像素,帧间边缘连接所有时间上相邻的超像素;
对每一帧设定一个自适应阈值μK=m(O(RK)),将帧区分为背景区域BK和待判断的前景区域UK,m(·)表示根据基于2D空间显著目标计算第K帧中所有像素的平均前景可能性,O(·)为超像素的平均像素值;在计算帧序列时,前一帧的背景信息作为当前帧的背景先验;
背景区域BK={RK|OK,n<μK}∪{RK|RK∈BK-1};
前景区域UK=RK-BK;OK,n表示第K帧中第n个超像素的平均像素值;
(2-2)超像素块RK,n的测地显著值计算即为在权重图中从RK,n到BK的最短路径的积累:
其中,RK,n表示第K帧中第n个超像素块,表示RK,n与BK之间的连接程度,p表示权重图中所有超像素索引值;
第K帧视频序列的运动显著性计算所有超像素块的最短路径,所有超像素块的最短路径构成2D运动显著图;
利用超像素RK为边界邻居的概率EK(RK,n)计算权重矩阵RK,m表示第K帧中第m个超像素块;RK,n与BK之间的连接程度/>
又进一步,步骤(3)是利用超像素间的距离与边界连通性增强超像素之间的差异度:
d(p,pi)表示超像素p和pi间的距离,Wl(p,pi)表示超像素p和pi间位置权重因子,/>表示第i个超像素与图像边界的连通权重,N为超像素分割的数量;
将第K帧的深度图分割为N个超像素,为深度超像素pi与其他超像素的深度值差异度ddep(p,pi)表示深度超像素pi与超像素p平均深度的欧氏距离;超像素间位置权重因子/>dS(p,pi)表示两个超像素质心的最短距离,σS表示位置系数,pi与边界连通权重/>con2(pi)表示pi与图像边界的连通性,σcon表示连通系数;
通过计算每个深度超像素与其他超像素的多权重深度差异度,得到深度空间显著图
更进一步,步骤(4)是采用大位移运动估计算法计算相邻帧对应像素的运动光流场FLd,对运动光流场FLd进行处理,将基于颜色对比度的显著性算法修改运用到光流场,对光流场进行基于颜色对比度的处理获得深度运动图;计算像素q的显著值与运动光流场中的所有其他像素的对比度其中D(I′q,I′qm)表示像素q显著值I′q和其他像素qm显著值I′qm之差。
还进一步,步骤(5)步骤具体是:多层元胞自动机将不同显著图中空间位置相同的像素设置为邻居,对于显著图中的任何像素,更新迭代规则为:其中,/>表示在t时刻第m个显著图所有像素的显著值,ri表示二值化显著图的阈值,相邻的像素判定为前景的概率λ>0.5。
本发明方法在立体视频处理研究领域中提出了一种多种信息融合的立体视频显著性检测技术,根据人眼视觉注意力对色彩、空间位置、物体远近的敏感机制。改进了已有的立体视频显著目标检测算法,尤其利用深度信息与运动信息在立体视觉显著性检测中的重要作用。本发明融合了多种立体视频在空间和时间上的特征,消除单一特征计算显著性带来的噪声影响。该模型可以直接应用在3D视频处理,3D视频/图像物体识别等领域。
具体实施方式
一种多信息融合的立体视频显著性检测方法,以视频序列的帧为单位,利用空间和时间上的平面与深度信息分别计算2D空间显著图、深度空间显著图、2D运动显著图、深度运动显著图,然后采用多层元胞自动机(Multi-layer Cellular Automata,MCA)来融合得到立体视频的显著图。具体步骤如下:
步骤(1)通过2D视频序列的色彩特征、空间特征、中心位置特征计算2D空间显著图,具体是:
(1-1)采用线性迭代聚类SLIC超像素分割算法对第K帧视频序列进行超像素分割;
将每个超像素所包含的所有像素的LAB空间颜色信息的平均值作为对应超像素的颜色特征ci,表示第i个超像素的颜色特征;
将每个超像素所包含的所有像素的平均坐标信息作为对应超像素的空间位置特征li,表示第i个超像素的位置特征;
计算第i个超像素与集合B中所有背景节点的色彩差异度∑j∈B||ci-cj||、集合B中所有背景节点的平均色彩特征空间位置距离权重为/>其中,B为位于上、下、左、右四个边界的超像素标记背景先验节点集合,[B]表示集合B中背景节点的个数,cj表示集合B中第j个背景节点的颜色特征,lj表示集合B中第j个背景节点的位置特征;||·||表示两个坐标间欧氏距离,e指数学中的自然常数,α为控制系数,α=0.5。
(1-2)将基于中心位置的目标先验加入到显著性目标检验中,第i个超像素的显著值 为影响显著目标的中心位置权重因子,其中/>表示第i个超像素的中心与图像中心的距离,DL表示图像对角线的长度;
(1-3)通过以上计算获得初始的2D空间显著图并不能良好的突出前景目标,接下来通过已有的单层元胞自动机(Single-layer Cellular Automata,SCA)更新迭代,其中每个元胞代表初始2D空间显著图其中的一个超像素,每个元胞自动更新到更准确和稳定的状态,获得2D空间显著图
步骤(2)基于时空一致性在2D空间显著图的基础上获得2D运动显著图,具体是:
(2-1)对相邻帧FK和FK+1构建权重图ξK=(ψK,θK);其中,ψK表示包含第K帧和第K+1帧视频序列中所有的超像素RK和RK+1;θK表示超像素间的两种边缘:帧内边缘连接的是所有空间相邻的超像素,帧间边缘连接所有时间上相邻的超像素。
基于2D空间显著目标的前景可能性后,分析相邻帧之间显著目标的时空一致性时着重考虑分离部分背景。对于每一帧设定一个自适应阈值μK=m(O(RK)),将帧区分为背景区域BK和待判断的前景区域UK,m(·)表示根据基于2D空间显著目标来计算第K帧中所有像素的平均前景可能性,O(·)为超像素的平均像素值;在计算帧序列时,前一帧的背景信息作为当前帧的背景先验;
背景区域BK={RK|OK,n<μK}∪{RK|RK∈BK-1};前景区域UK=RK-BK;OK,n表示第K帧中第n个超像素的平均像素值。
(2-2)超像素块RK,n的测地显著值计算即为在权重图中从RK,n到BK的最短路径的积累:
其中,RK,n表示第K帧中第n个超像素块,表示RK,n与BK之间的连接程度,p表示权重图中所有超像素索引值。
则第K帧视频序列的运动显著性采用已有的Johnson算法计算所有超像素块的最短路径。
利用超像素RK为边界邻居的概率EK(RK,n)计算权重矩阵RK,m表示第K帧中第m个超像素块;RK,n与BK之间的连接程度/>即超像素RK中属于边界的周长与超像素面积的平方根之比。
步骤(3)利用不同区域的深度差异度来计算深度空间显著图;
利用超像素间的距离与边界连通性增强超像素之间的差异度,称为多权重深度差异度:
d(p,pi)表示超像素p和pi间的距离,Wl(p,pi)表示超像素p和pi间位置权重因子,/>表示第i个超像素与图像边界的连通权重,N为超像素分割的数量。
将第K帧的深度图分割为N个超像素(N=200,与彩色图分割方法及数量相同),为深度超像素pi与其他超像素的深度值差异度ddep(p,pi)表示深度超像素pi与超像素p平均深度的欧氏距离;超像素间位置权重因子/>dS(p,pi)表示两个超像素质心的最短距离,取位置系数σS=0.3,pi与边界连通权重con2(pi)表示pi与图像边界的连通性,连通系数σcon=1;
通过计算每个深度超像素与其他超像素的多权重深度差异度,得到深度空间显著图
步骤(4)提取深度变化的信息来获得深度运动图。
深度运动信息主要是第K帧与第K+1帧之间深度的变化,即相邻帧之间对应像素点的深度值在时间轴上的变化。采用已有的大位移运动估计算法(large displacementmotion estimation algorithm,LDOF)计算相邻帧对应像素的运动光流场FLd,对运动光流场FLd进行处理,将基于颜色对比度的显著性算法修改运用到光流场,计算像素q的显著值与运动光流场中的所有其他像素的对比度其中D(I′q,I′qm)表示像素q显著值I′q和其他像素qm显著值I′qm之差。
步骤(5)使用多层细胞自动机的融合步骤(1)-(4)产生的视频序列的四种显著图,得到立体视频的显著图。
多层元胞自动机将不同显著图中空间位置相同的像素设置为邻居。对于显著图中的任何像素,它在其他图中可能有N-1个邻居,更新迭代规则为:
其中,/>表示在t时刻第m个显著图所有像素的显著值,ri表示二值化显著图的阈值,由已有的OTSU算法产生:当x>0,sing(x)=1;当x=0,sing(x)=0;当x<0,sing(x)=-1。如果像素i被判定为前景,那么与像素i相邻的像素判定为前景的概率λ会增加,即λ>0.5,取/>
Claims (7)
1.一种多信息融合的立体视频显著性检测方法,其特征在于,该方法步骤是:
步骤(1)通过2D视频序列的色彩特征、空间特征、中心位置特征计算,得到2D空间显著图具体是:
(1-1)采用线性迭代聚类SLIC超像素分割算法对第K帧视频序列进行超像素分割;
将每个超像素所包含的所有像素的LAB空间颜色信息的平均值作为对应超像素的颜色特征ci,表示第i个超像素的颜色特征;
将每个超像素所包含的所有像素的平均坐标信息作为对应超像素的空间位置特征li,表示第i个超像素的位置特征;
计算第i个超像素与集合B中所有背景节点的色彩差异度Σj∈B||ci-cj||、集合B中所有背景节点的平均色彩特征空间位置距离权重为/>其中,B为位于上、下、左、右四个边界的超像素标记背景先验节点集合,[B]表示集合B中背景节点的个数,cj表示集合B中第j个背景节点的颜色特征,lj表示集合B中第j个背景节点的位置特征;||·||表示两个坐标间欧氏距离,e指数学中的自然常数,α为控制系数;
(1-2)将基于中心位置的目标先验加入到显著性目标检验中,第i个超像素的显著值 为影响显著目标的中心位置权重因子,/>表示第i个超像素的中心与图像中心的距离,DL表示图像对角线的长度;
(1-3)通过以上计算获得初始的2D空间显著图并不能良好的突出前景目标,通过单层元胞自动机更新迭代,其中每个元胞代表初始2D空间显著图其中的一个超像素,每个元胞自动更新到更准确和稳定的状态,获得2D空间显著图
步骤(2)基于时空一致性,在2D空间显著图的基础上获得2D运动显著图;
步骤(3)利用不同区域的深度差异度计算深度空间显著图
步骤(4)提取深度变化的信息,获得深度运动图;
步骤(5)使用多层细胞自动机融合步骤(1)~(4)产生的视频序列的四种显著图,得到立体视频的显著图。
2.如权利要求1所述的一种多信息融合的立体视频显著性检测方法,其特征在于,步骤(2)具体是:
(2-1)对相邻帧FK和FK+1的2D空间显著图构建权重图ξK=(ψK,θK);其中,ψK表示包含第K帧和第K+1帧视频序列中所有的超像素RK和RK+1;θK表示超像素间的两种边缘:帧内边缘连接的是所有空间相邻的超像素,帧间边缘连接所有时间上相邻的超像素;
对每一帧设定一个自适应阈值μK=m(O(RK)),将帧区分为背景区域BK和待判断的前景区域UK,m(·)表示根据基于2D空间显著目标计算第K帧中所有像素的平均前景可能性,O(·)为超像素的平均像素值;在计算帧序列时,前一帧的背景信息作为当前帧的背景先验;
背景区域BK={RK|OK,n<μK}∪{RK|RK∈BK-1};
前景区域UK=RK-BK;OK,n表示第K帧中第n个超像素的平均像素值;
(2-2)超像素块RK,n的测地显著值计算即为在权重图中从RK,n到BK的最短路径的积累:
其中,RK,n表示第K帧中第n个超像素块,表示RK,n与BK之间的连接程度,p表示权重图中所有超像素索引值;
第K帧视频序列的运动显著性计算所有超像素块的最短路径,所有超像素块的最短路径构成2D运动显著图;
利用超像素RK为边界邻居的概率EK(RK,n)计算权重矩阵RK,m表示第K帧中第m个超像素块;RK,n与BK之间的连接程度/>
3.如权利要求2所述的一种多信息融合的立体视频显著性检测方法,其特征在于,步骤(3)是利用超像素间的距离与边界连通性增强超像素之间的差异度:
d(p,pi)表示超像素p和pi间的距离,Wl(p,pi)表示超像素p和pi间位置权重因子,Wi b表示第i个超像素与图像边界的连通权重,N为超像素分割的数量;
将第K帧的深度图分割为N个超像素,为深度超像素pi与其他超像素的深度值差异度ddep(p,pi)表示深度超像素pi与超像素p平均深度的欧氏距离;超像素间位置权重因子/>dS(p,pi)表示两个超像素质心的最短距离,σS表示位置系数,pi与边界连通权重/>con2(pi)表示pi与图像边界的连通性,σcon表示连通系数;
通过计算每个深度超像素与其他超像素的多权重深度差异度,得到深度空间显著图
4.如权利要求3所述的一种多信息融合的立体视频显著性检测方法,其特征在于,步骤(4)是采用大位移运动估计算法计算相邻帧对应像素的运动光流场FLd,对运动光流场FLd进行处理,将基于颜色对比度的显著性算法修改运用到光流场,对光流场进行基于颜色对比度的处理获得深度运动图;计算像素q的显著值与运动光流场中的所有其他像素的对比度其中D(I′q,I′qm)表示像素q显著值I′q和其他像素qm显著值I′qm之差。
5.如权利要求4所述的一种多信息融合的立体视频显著性检测方法,其特征在于,步骤(5)步骤具体是:多层元胞自动机将不同显著图中空间位置相同的像素设置为邻居,对于显著图中的任何像素,更新迭代规则为:其中,/>表示在t时刻第m个显著图所有像素的显著值,ri表示二值化显著图的阈值,相邻的像素判定为前景的概率λ>0.5。
6.如权利要求1所述的一种多信息融合的立体视频显著性检测方法,其特征在于:所述的控制系数α=0.5。
7.如权利要求3所述的一种多信息融合的立体视频显著性检测方法,其特征在于:所述的位置系数σS=0.3,所述的连通系数σcon=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110297430.4A CN113128344B (zh) | 2021-03-19 | 2021-03-19 | 一种多信息融合的立体视频显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110297430.4A CN113128344B (zh) | 2021-03-19 | 2021-03-19 | 一种多信息融合的立体视频显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113128344A CN113128344A (zh) | 2021-07-16 |
CN113128344B true CN113128344B (zh) | 2024-02-02 |
Family
ID=76773615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110297430.4A Active CN113128344B (zh) | 2021-03-19 | 2021-03-19 | 一种多信息融合的立体视频显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113128344B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113916192B (zh) * | 2021-11-05 | 2023-06-23 | 郑州信息科技职业学院 | 喀斯特溶洞图像采集监测与成像系统 |
CN114973057A (zh) * | 2022-04-08 | 2022-08-30 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的视频图像检测方法及相关设备 |
CN114639171B (zh) * | 2022-05-18 | 2022-07-29 | 松立控股集团股份有限公司 | 一种停车场全景安全监控方法 |
CN115953419A (zh) * | 2023-03-09 | 2023-04-11 | 天津艾思科尔科技有限公司 | 一种基于超像素分析的动态视频检测预处理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN109711417A (zh) * | 2018-12-06 | 2019-05-03 | 重庆邮电大学 | 一种基于低水平显著性融合和测地线的视频显著性检测方法 |
-
2021
- 2021-03-19 CN CN202110297430.4A patent/CN113128344B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN109711417A (zh) * | 2018-12-06 | 2019-05-03 | 重庆邮电大学 | 一种基于低水平显著性融合和测地线的视频显著性检测方法 |
Non-Patent Citations (1)
Title |
---|
融合双目多维感知特征的立体视频显著性检测;周洋;何永健;唐向宏;陆宇;蒋刚毅;;中国图象图形学报(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113128344A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113128344B (zh) | 一种多信息融合的立体视频显著性检测方法 | |
CN108038420B (zh) | 一种基于深度视频的人体行为识别方法 | |
Wu et al. | Stereo matching with fusing adaptive support weights | |
CN109064484B (zh) | 基于子群组划分与动量特征融合的人群运动行为识别方法 | |
CN108986136A (zh) | 一种基于语义分割的双目场景流确定方法及系统 | |
CN101789124B (zh) | 视频序列的时空一致性分割方法 | |
Xiao et al. | Joint affinity propagation for multiple view segmentation | |
CN107862735B (zh) | 一种基于结构信息的rgbd三维场景重建方法 | |
CN108597009A (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN104881655B (zh) | 一种基于多特征时空关系融合的人类行为识别方法 | |
CN112465021B (zh) | 基于图像插帧法的位姿轨迹估计方法 | |
CN116258817B (zh) | 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和系统 | |
CN112446882A (zh) | 一种动态场景下基于深度学习的鲁棒视觉slam方法 | |
CN113223045A (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN113256699B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN109978935A (zh) | 一种基于深度学习和傅里叶域分析的图像深度估计算法 | |
Yang et al. | Local stereo matching based on support weight with motion flow for dynamic scene | |
CN111681275A (zh) | 一种双特征融合的半全局立体匹配方法 | |
CN112509014B (zh) | 金字塔遮挡检测块匹配的鲁棒插值光流计算方法 | |
CN109002808B (zh) | 一种人体行为识别方法及系统 | |
JP2023065296A (ja) | 平面検出装置及び方法 | |
CN113450457B (zh) | 道路重建方法、装置、计算机设备和存储介质 | |
CN108564020A (zh) | 基于全景3d图像的微手势识别方法 | |
CN113192133A (zh) | 基于语义平面的单目即时定位与致密语义地图构建方法 | |
CN113763418A (zh) | 一种基于头肩检测的多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |