CN108520539B - 一种基于稀疏学习可变模型的图像目标检测方法 - Google Patents

一种基于稀疏学习可变模型的图像目标检测方法 Download PDF

Info

Publication number
CN108520539B
CN108520539B CN201810206653.3A CN201810206653A CN108520539B CN 108520539 B CN108520539 B CN 108520539B CN 201810206653 A CN201810206653 A CN 201810206653A CN 108520539 B CN108520539 B CN 108520539B
Authority
CN
China
Prior art keywords
image
model
target
algorithm
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810206653.3A
Other languages
English (en)
Other versions
CN108520539A (zh
Inventor
年睿
王致远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN201810206653.3A priority Critical patent/CN108520539B/zh
Publication of CN108520539A publication Critical patent/CN108520539A/zh
Application granted granted Critical
Publication of CN108520539B publication Critical patent/CN108520539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏学习可变模型的图像目标检测方法。本发明通过引入基于背景测量的视觉颜色轮廓检测模型,消除背景对图像目标的干扰,结合视觉颜色轮廓检测模型有效提取训练目标的轮廓信息;通过基于稀疏学习可变模型的图像目标检测方法,对易发生形变、姿态、尺度变化大及遮挡的图像目标具有良好的检测效果。本发明实现了一种健壮性佳、高鲁棒性的图像目标检测。

Description

一种基于稀疏学习可变模型的图像目标检测方法
技术领域
本发明涉及基于稀疏学习可变模型的图像目标检测研究方法,属于智能信息处理和目标检测技术领域。
背景技术
目标检测是视觉系统中重要的环节,目标检测技术在视频监控、智能机器人导航、自动驾驶、姿态识别、形状检索等领域具有广阔的应用前景。在现实场景中,由于目标存在形变、局部遮挡、光照变化、视角变化和尺度变化等因素的影响,使得目标的外观特征发生极大变化,从而给图像目标检测带来极大的挑战。
目标检测的方法按所用的特征划分包括基于纹理特征的目标检测和基于轮廓特征的目标检测方法。基于纹理特征的目标检测方法以提取物体整体的抽象表达为核心目标,例如,Dalal等人提出的基于HOG(Histogramof Oriented Gradient)和线性SVM的行人检测方法,利用HOG特征和线性SVM学习正负样本模板。LBP(Local Binary Pattern)特征利用二进制编码方法描述该像素点和其周围像素点的关系,其柱状统计图特征常用来训练人脸检测、表情识别等应用的标准模板。纹理特征主要利用统计的方法对物体的某一显著特征进行提取,通常该类特征需要借助设计者的经验,甚至是认知自觉,而且特征更多地是针对具体的任务,因此,这类特征的适应性不强。基于轮廓特征的目标检测方法从目标的轮廓入手,在人类视觉感知研究中发现,人类视觉系统可以根据物体的轮廓或形状很容易地辨别出这个物体,而不需要其它方面的信息。通常,即使不借助环境上下文信息,仅依靠目标物体断裂的形状轮廓段也能被人类识别。基于轮廓的目标检测方法以其抗光照,颜色变化的稳定性能吸引了研究者的注意。
目标检测是计算机视觉领域中极其重要的一部分,物体之间的遮挡形变、背景的复杂性,光照变化,尺度变化等是检测过程亟待解决的问题。即现有技术中存在的主要问题:(1)在现实场景中,图像目标受光照、视角和尺度变化等因素的影响,目标的外观特征发生极大变化的问题;(2)由于图像目标缺乏上下文信息,在图像目标发生部分遮挡或形变的情况下,会导致目标检测差错的问题。
发明内容
本发明的目的是提供一种基于稀疏学习模型的图像目标检测方法,以弥补现有技术的不足。
为达到上述目的,本发明采取的具体技术方案为:
一种基于稀疏学习可变模型的图像目标检测方法,包括如下步骤:
(1)获取训练图像{In,n=1,2,...,N};
(2)图像背景测量:由于训练图像的背景对训练目标轮廓的提取干扰很大,并影响后续的模型学习,使用SLIC方法将每幅训练图像划分N个网格,计算图像中各个区域连接到图像边界的面积与该区域的整体面积的平方根的比值,以消除背景;
(3)视觉颜色轮廓检测模型:对去除背景的训练图像采用基于视觉颜色拮抗机制的计算模型,用于检测训练图像中的边界信息;
(4)稀疏学习可变模型:利用稀疏学习模型进行目标轮廓提取,将提取的目标轮廓使用Gabor滤波器滤波,对其尺度、方向、位置进行线性调制;再两阶段学习的算法对模型进行训练;
(5)目标检测:采用交替的和最大值的自底向上和自顶向下的算法实现。
进一步的,所述步骤(2)中计算图像中各个区域连接到图像边界的面积与该区域的整体面积的平方根的比值:
Figure BDA0001596074000000021
其中,B是图像边界块的集合,R是目标区域块的集合,p是图像块;目标与图像边缘连接的网格数目要比背景与图像边缘连接的网格数目少的多,设定阈值区分目标与背景,消除背景。
进一步的,所述步骤(3)中,基于视觉颜色拮抗机制的计算模型流程如下:
a)将经过背景测量模型处理过的每幅训练图像分为R、G、B和Y四个通道,其中Y=(R+G)/2;将四个通道的图像的分别进行同尺度的高斯平滑,得到视锥细胞响应,记为R′、G′、B′和Y′;
b)节细胞/LGN层接收来自视锥的输入,在R′-G′和B′-Y′通道计算单拮抗响应:
H(x,y)=λ1*R′(x,y,α)+λ2*G′(x,y,α)
其中,λ1、λ2为视锥细胞到节细胞的输入权重,并且λ1λ2≤0,|λ1|,|λ2|∈[0,1],α是高斯平滑尺度;当λ1=λ2时,节细胞/LGN细胞对亮度信息不响应;当λ1≠λ2时,对亮度和颜色信息都有响应;
c)设置λ1和λ2中的一个值为1,另一个值为[-1,0],在四个不同的通道(即λ1R+λ2G,λ2R+λ1G,λ1B+λ2Y和λ2B+λ1Y)中分别检测边界信息,同时用线性归一化将各个通道的响应归一到[0,1],再用最大值运算计算来自不同朝向,最终的轮廓响应为{cn,n=1,2,...,N}。
进一步的,所述步骤(4)具体为:所述稀疏学习模型是一个定义在轮廓响应c上的概率分布:
Figure BDA0001596074000000031
其中,s(c)是已知的高斯白噪声分布模型,遵循独立的
Figure BDA0001596074000000032
分布,
Figure BDA0001596074000000033
是训练图像共享Gabor基函数所选择的子集,μ=(μi,1,2,…,n)是依赖于(xi,sii)的滤波器响应系数,Z(μ)是归一化常数;
a)可变形模型:L(c;F,μ)作为可变形模板,允许
Figure BDA0001596074000000034
中的基函数扰乱它们的位置和取向,使得F变形为
Figure BDA0001596074000000035
其中(△xm,i,△αm,i)是第m幅图像中第i个基函数的位置和方向的扰动范围;将每幅轮廓响应图像投影到由所选择的基函数跨越的子空间,则
Figure BDA0001596074000000036
其中,bm,i是线性投影的最小二乘重建系数,εm是残差图像;
b)参数选择:利用最小化重构误差的总和
Figure BDA0001596074000000037
来选择
Figure BDA0001596074000000038
使用扩展的匹配追踪算法实现基函数的选择,同时通过局部最大共享实现基函数的局部扰动;
c)两阶段学习的算法对模型进行训练:第一阶段:初始设定模型为高斯白噪声模型,使用共享的稀疏编的方法实现对一组基函数的选择,即:
Figure BDA0001596074000000039
第二阶段:由选择出的基函数和随机梯度算法对模型参数进行最大似然估计,通过吉布斯采样生成可变形模板及优化模型参数。
进一步的,所述步骤(5)具体为:输入测试图像{Im,m=1,2,...,M},采用交替的和最大的计算框架结合自底向上和自顶向下算法实现图像中目标的定位;自底向上检测是在和最大的结构上对测试图像进行扫描匹配,从而确定测试图像中目标的位置;而自顶向下算法是找到与测试图像目标最佳匹配的轮廓,从而实现目标的精确定位;通过稀疏学习模型作为一个可变形模板去匹配测试图像的每个位置,其每个位置的模板匹配分数都可用式
Figure BDA00015960740000000310
计算得到,对所有匹配分数取全局最大值,最后标记目标。
本发明的优点和有益效果:
本发明通过引入基于背景测量的视觉颜色轮廓检测模型,消除背景对图像目标的干扰,结合视觉颜色轮廓检测模型有效提取训练目标的轮廓信息;通过基于稀疏学习可变模型的图像目标检测方法,对易发生形变、姿态、尺度变化大及遮挡的图像目标具有良好的检测效果。
附图说明
图1为本发明的整体检测流程示意图。
图2为基于视觉颜色拮抗机制的计算模型流程图。
图3为实施例中基于目标轮廓的稀疏学习模型方法框图。
图4为实施例中精确度-召回率曲线对比图。
图5为实施例中检测效果对比示例图。
具体实施方式
为使本发明的目的、实施方案和优点更为清晰,下面结合附图并通过具体实施例来进一步说明本发明。
实施例采用水下图像数据集。
本实施例的具体流程图如图1所示,如下:
(1)获取训练图像{In,n=1,2,...,N},对训练图像进行滤波去噪、对比度增强的预处理。
(2)图像背景测量:使用线性迭代聚类方法将每幅训练图像划分N个网格,计算图像中各个区域连接到图像边界的面积与该区域的整体面积的平方根的比值:
Figure BDA0001596074000000041
其中,B是图像边界块的集合,R是目标区域块的集合,p是图像块。目标与图像边缘连接的网格数目要比背景与图像边缘连接的网格数目少的多,设定阈值区分目标与背景,消除背景。
(3)视觉颜色轮廓检测模型:对去除背景的训练图像采用基于视觉颜色拮抗机制的计算模型,用于检测训练图像中的边界信息。基于视觉颜色拮抗机制的计算模型流程如图2所示,具体如下:
a)将经过背景测量模型处理过的每幅训练图像分为R、G、B和Y四个通道,其中Y=(R+G)/2。将四个通道的图像的分别进行同尺度的高斯平滑,得到视锥细胞响应,记为R′、G′、B′和Y′。
b)节细胞/LGN层接收来自视锥的输入,在R′-G′和B′-Y′通道计算单拮抗响应:
H(x,y)=λ1*R′(x,y,α)+λ2*G′(x,y,α)
其中,λ1、λ2为视锥细胞到节细胞的输入权重,并且λ1λ2≤0,|λ1|,|λ2|∈[0,1],α是高斯平滑尺度。当λ1=λ2时,节细胞/LGN细胞对亮度信息不响应;当λ1≠λ2时,对亮度和颜色信息都有响应。
c)设置λ1和λ2中的一个值为1,另一个值为[-1,0]。在四个不同的通道(即λ1R+λ2G,λ2R+λ1G,λ1B+λ2Y和λ2B+λ1Y)中分别检测边界信息。同时用线性归一化将各个通道的响应归一到[0,1]。再用最大值运算计算来自不同朝向,最终的轮廓响应为{cn,n=1,2,...,N}。
(4)稀疏学习模型,其构造过程如图3所示:稀疏学习模型是一个定义在轮廓响应c上的概率分布:
Figure BDA0001596074000000051
其中,s(c)是已知的高斯白噪声分布模型,遵循独立的N(0,δ2)分布,
Figure BDA0001596074000000052
是训练图像共享Gabor基函数所选择的子集,μ=(μi,1,2,…,n)是依赖于(xi,sii)的滤波器响应系数,Z(μ)是归一化常数。
a)可变形模型:L(c;F,μ)作为可变形模板,允许
Figure BDA0001596074000000053
中的基函数扰乱它们的位置和取向,使得F变形为
Figure BDA0001596074000000054
其中(△xm,i,△αm,i)是第m幅图像中第i个基函数的位置和方向的扰动范围。将每幅轮廓响应图像投影到由所选择的基函数跨越的子空间,则
Figure BDA0001596074000000055
其中,bm,i是线性投影的最小二乘重建系数,εm是残差图像。
b)参数选择:利用最小化重构误差的总和
Figure BDA0001596074000000056
来选择
Figure BDA0001596074000000057
使用扩展的匹配追踪算法实现基函数的选择,同时通过局部最大共享实现基函数的局部扰动。
c)两阶段学习的算法对模型进行训练。第一阶段:初始设定模型为高斯白噪声模型,使用共享的稀疏编的方法实现对一组基函数的选择,即:
Figure BDA0001596074000000058
第二阶段:由选择出的基函数和随机梯度算法对模型参数进行最大似然估计,通过吉布斯采样生成可变形模板及优化模型参数。
(5)检测:输入测试图像{Im,m=1,2,...,M},采用交替的和最大的计算框架结合自底向上和自顶向下算法实现图像中目标的定位。自底向上检测是在和最大的结构上对测试图像进行扫描匹配,从而确定测试图像中目标的位置;而自顶向下算法是找到与测试图像目标最佳匹配的轮廓,从而实现目标的精确定位。通过学习到的稀疏模型作为一个可变形模板去匹配测试图像的每个位置,其每个位置的模板匹配分数都可用式
Figure BDA0001596074000000061
计算得到,对所有匹配分数取全局最大值,标记目标。
对以上提到的待检测图像,分别用AOT、LSVM、ABT和本发明方法检测性能的比较,结果见图4、表1,可以看出,本发明方法精确度-召回率曲线及曲线下方面积(AUC)来衡量AOT、LSVM和本发明的性能,实现了对目标检测的健壮性和鲁棒性。
表1为显示AOT、LSVM和本发明方法性能对比
Figure BDA0001596074000000062
图5为现有多种检测方法与本发明检测效果对比示例图,可以看出在目标发生形变、部分遮挡的情况下,仍能准确的检测出目标,进一步证明了本发明方法的健壮性和鲁棒性。
以上所述是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于稀疏学习可变模型的图像目标检测方法,其特征在于,该方法包括如下步骤:
(1)获取训练图像{In,n=1,2,...,N};
(2)图像背景测量:由于训练图像的背景对训练目标轮廓的提取干扰很大,并影响后续的模型学习,使用SLIC方法将每幅训练图像划分N个网格,计算图像中各个区域连接到图像边界的面积与该区域的整体面积的平方根的比值,以消除背景;
(3)视觉颜色轮廓检测模型:对去除背景的训练图像采用基于视觉颜色拮抗机制的计算模型,用于检测训练图像中的边界信息;
(4)稀疏学习可变模型:利用稀疏学习模型进行目标轮廓提取,将提取的目标轮廓使用Gabor滤波器滤波,对其尺度、方向、位置进行线性调制;再两阶段学习的算法对模型进行训练;
(5)目标检测:采用交替的和最大值的自底向上和自顶向下的算法实现;
所述步骤(4)具体为:所述稀疏学习模型是一个定义在轮廓响应c上的概率分布:
Figure FDA0003180869390000011
其中,s(c)是已知的高斯白噪声分布模型,遵循独立的N(0,δ2)分布,
Figure FDA0003180869390000012
是训练图像共享Gabor基函数所选择的子集,μ=(μi,1,2,…,n)是依赖于(xi,sii)的滤波器响应系数,Z(μ)是归一化常数;
a)可变形模型:L(c;F,μ)作为可变形模板,允许
Figure FDA0003180869390000013
中的基函数扰乱它们的位置和取向,使得F变形为
Figure FDA0003180869390000014
其中(Δxm,i,Δαm,i)是第m幅图像中第i个基函数的位置和方向的扰动范围;将每幅轮廓响应图像投影到由所选择的基函数跨越的子空间,则
Figure FDA0003180869390000015
其中,bm,i是线性投影的最小二乘重建系数,εm是残差图像;
b)参数选择:利用最小化重构误差的总和
Figure FDA0003180869390000016
来选择
Figure FDA0003180869390000017
使用扩展的匹配追踪算法实现基函数的选择,同时通过局部最大共享实现基函数的局部扰动;
c)两阶段学习的算法对模型进行训练:第一阶段:初始设定模型为高斯白噪声模型,使用共享的稀疏编的方法实现对一组基函数的选择,即:
Figure FDA0003180869390000018
第二阶段:由选择出的基函数和随机梯度算法对模型参数进行最大似然估计,通过吉布斯采样生成可变形模板及优化模型参数。
2.如权利要求1所述的目标检测方法,其特征在于,所述步骤(2)中计算图像中各个区域连接到图像边界的面积与该区域的整体面积的平方根的比值:
Figure FDA0003180869390000021
其中,B是图像边界块的集合,R是目标区域块的集合,p是图像块;目标与图像边缘连接的网格数目要比背景与图像边缘连接的网格数目少的多,设定阈值区分目标与背景,消除背景。
3.如权利要求1所述的目标检测方法,其特征在于,所述步骤(3)中,基于视觉颜色拮抗机制的计算模型流程如下:
a)将经过背景测量模型处理过的每幅训练图像分为R、G、B和Y四个通道,其中Y=(R+G)/2;将四个通道的图像的分别进行同尺度的高斯平滑,得到视锥细胞响应,记为R′、G′、B′和Y′;
b)节细胞或LGN层接收来自视锥的输入,在R′-G′和B′-Y′通道计算单拮抗响应:
H(x,y)=λ1*R′(x,y,α)+λ2*G′(x,y,α)
其中,λ1、λ2为视锥细胞到节细胞的输入权重,并且λ1λ2≤0,|λ1|,|λ2|∈[0,1],α是高斯平滑尺度;当λ1=λ2时,节细胞或LGN细胞对亮度信息不响应;当λ1≠λ2时,对亮度和颜色信息都有响应;
c)设置λ1和λ2中的一个值为1,另一个值为[-1,0],在四个不同的通道,即λ1R+λ2G、λ2R+λ1G、λ1B+λ2Y和λ2B+λ1Y中分别检测边界信息,同时用线性归一化将各个通道的响应归一到[0,1],再用最大值运算计算来自不同朝向,最终的轮廓响应为{cn,n=1,2,...,N}。
4.如权利要求1所述的目标检测方法,其特征在于,所述步骤(5)具体为:输入测试图像{Im,m=1,2,...,M},采用交替的和最大的计算框架结合自底向上和自顶向下算法实现图像中目标的定位;自底向上检测是在和最大的结构上对测试图像进行扫描匹配,从而确定测试图像中目标的位置;而自顶向下算法是找到与测试图像目标最佳匹配的轮廓,从而实现目标的精确定位;通过稀疏学习模型作为一个可变形模板去匹配测试图像的每个位置,其每个位置的模板匹配分数都可用式
Figure FDA0003180869390000031
计算得到,对所有匹配分数取全局最大值,最后标记目标。
CN201810206653.3A 2018-03-13 2018-03-13 一种基于稀疏学习可变模型的图像目标检测方法 Active CN108520539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810206653.3A CN108520539B (zh) 2018-03-13 2018-03-13 一种基于稀疏学习可变模型的图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810206653.3A CN108520539B (zh) 2018-03-13 2018-03-13 一种基于稀疏学习可变模型的图像目标检测方法

Publications (2)

Publication Number Publication Date
CN108520539A CN108520539A (zh) 2018-09-11
CN108520539B true CN108520539B (zh) 2021-08-31

Family

ID=63433683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810206653.3A Active CN108520539B (zh) 2018-03-13 2018-03-13 一种基于稀疏学习可变模型的图像目标检测方法

Country Status (1)

Country Link
CN (1) CN108520539B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110221280B (zh) * 2019-06-14 2021-02-09 中国科学院声学研究所 一种抗压制类水声干扰多通道自适应检测方法及系统
CN110766616B (zh) * 2019-09-12 2023-05-09 中国海洋大学 一种基于单尺度Retinex方法的水下图像匀光算法
CN115081542B (zh) * 2022-07-22 2023-07-07 深圳大学 子空间聚类方法、终端设备及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564195A (zh) * 2004-04-08 2005-01-12 复旦大学 视网膜神经节细胞感受野尺度可变层次网络模型及其算法
CN102867313A (zh) * 2012-08-29 2013-01-09 杭州电子科技大学 一种融合区域颜色和HoG特征的视觉显著性检测方法
CN104680546A (zh) * 2015-03-12 2015-06-03 安徽大学 一种图像显著目标检测方法
CN106228547A (zh) * 2016-07-15 2016-12-14 华中科技大学 一种基于视觉颜色理论和同质抑制的轮廓与边界检测算法
CN106373132A (zh) * 2016-08-30 2017-02-01 刘广海 基于抑制性中间神经元的边缘检测方法
CN106529586A (zh) * 2016-10-25 2017-03-22 天津大学 基于补充文本特征的图像分类方法
CN106780639A (zh) * 2017-01-20 2017-05-31 中国海洋大学 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9966991B2 (en) * 2015-07-28 2018-05-08 John David Terry Method and apparatus for secure network access and group membership in a digital chaos cooperative network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1564195A (zh) * 2004-04-08 2005-01-12 复旦大学 视网膜神经节细胞感受野尺度可变层次网络模型及其算法
CN102867313A (zh) * 2012-08-29 2013-01-09 杭州电子科技大学 一种融合区域颜色和HoG特征的视觉显著性检测方法
CN104680546A (zh) * 2015-03-12 2015-06-03 安徽大学 一种图像显著目标检测方法
CN106228547A (zh) * 2016-07-15 2016-12-14 华中科技大学 一种基于视觉颜色理论和同质抑制的轮廓与边界检测算法
CN106373132A (zh) * 2016-08-30 2017-02-01 刘广海 基于抑制性中间神经元的边缘检测方法
CN106529586A (zh) * 2016-10-25 2017-03-22 天津大学 基于补充文本特征的图像分类方法
CN106780639A (zh) * 2017-01-20 2017-05-31 中国海洋大学 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法

Also Published As

Publication number Publication date
CN108520539A (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
CN110070074B (zh) 一种构建行人检测模型的方法
CN105956582B (zh) 一种基于三维数据的人脸识别系统
CN106803247B (zh) 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法
CN106295124B (zh) 多种图像检测技术综合分析基因子图相似概率量的方法
CN111368683B (zh) 基于模约束CenterFace的人脸图像特征提取方法及人脸识别方法
CN104680144B (zh) 基于投影极速学习机的唇语识别方法和装置
CN105825502B (zh) 一种基于显著性指导的词典学习的弱监督图像解析方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN101576953A (zh) 一种人体姿态的分类方法和装置
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN103778435A (zh) 一种基于视频的行人快速检测方法
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
CN107862267A (zh) 基于完全对称局部韦伯描述子的人脸识别特征提取算法
CN108520539B (zh) 一种基于稀疏学习可变模型的图像目标检测方法
CN103886619A (zh) 一种融合多尺度超像素的目标跟踪方法
CN106529461A (zh) 一种基于积分特征通道和svm训练器的车型识别算法
CN110334594A (zh) 一种基于批再规范化处理的yolo算法的目标检测方法
CN103984920A (zh) 一种基于稀疏表示与多特征点的三维人脸识别方法
CN110991547A (zh) 一种基于多特征最优融合的图像显著性检测方法
CN114463843A (zh) 一种基于深度学习的多特征融合鱼类异常行为检测方法
CN111461010B (zh) 一种基于模板跟踪的电力设备识别效率优化方法
CN110458064B (zh) 结合数据驱动型和知识驱动型的低空目标检测与识别方法
CN111339932A (zh) 一种掌纹图像预处理方法和系统
CN109902692A (zh) 一种基于局部区域深度特征编码的图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant