CN104408711A - 一种基于多尺度区域融合的显著区域检测方法 - Google Patents
一种基于多尺度区域融合的显著区域检测方法 Download PDFInfo
- Publication number
- CN104408711A CN104408711A CN201410616752.0A CN201410616752A CN104408711A CN 104408711 A CN104408711 A CN 104408711A CN 201410616752 A CN201410616752 A CN 201410616752A CN 104408711 A CN104408711 A CN 104408711A
- Authority
- CN
- China
- Prior art keywords
- gradient
- image
- pixel
- scale
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Abstract
本发明涉及一种基于多尺度区域融合的显著区域检测方法,其技术特征在于:首先计算图像的最佳颜色梯度与归一化梯度;然后用梯度索引遍历图像,把满足融合门限的像素对合并,得到第一个尺度的标签图像;再计算该标签图像的边缘梯度图;接着在各个尺度下迭代计算出多尺度标签图;然后利用互信息求出多尺度候选显著图;最后利用空间几何信息熵找出最优尺度,则该尺度下的候选显著图就是最终显著图。该方法概念简单,无需对图像数据提前训练,可以很容易地进行参数修改,处理速度快,极大的提高了显著区域检测的准确性和效率。本发明可以被广泛应用到计算机视觉与其他相关的图像处理问题中。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于多尺度区域融合的显著区域检测方法。
背景技术
显著区域指的是在视觉系统中自发的,具有较高鉴别性的图像细节所组成的图像区域,这里的鉴别性是一个相对属性,取决于该图像细节与其背景的视觉区分程度。而显著区域检测,就是重现人眼如何在复杂视觉场景当中迅速将注意力聚焦到这些感兴趣的区域。因此显著区域检测可以准确的预测的在自由观察下对静态和动态场景的注意力分配,该检测也反映了人眼在视觉场景中能够找到哪些感兴趣的图像细节。正确地提取这些关键区域,可以大大提高图像分析、处理效率和准确度,降低计算的复杂度,显著区域检测可以被广泛应用到计算机视觉与其他相关的图像处理问题当中,在当今大多数视觉任务中是一个至关重要的环节,一直以来都是图像处理领域一个研究热点。
目前显著区域检测的主要方法大多集中在自底向上的处理上,这类处理机制上符合人眼的作用原理。在这类处理机制当中,E.Rahtu等在“Segmenting Salient Objects from Imagesand Videos”in ECCV 2010提出了利用滑动窗和条件随机场结合的方法,通过观察不同尺度窗口内的区域与邻域分布来分析图像的局部细节,该方法考虑了不同尺度的局部特征,但未涉及全局显著度,并且该方法需要对最后的结果用图切的方法进行加工,运行时间受到影响。相应的,不少方法从频域的角度来解决全局性显著检测问题如:X.Hou等在“Saliencydetection A spectral residual approach”in CVPR 2007提出的频谱残差法、B.Schauerte等在“Quaternion-based Spectral Saliency Detection for Eye Fixation Prediction”in ECCV 2012提出的四元数方法。这些方法实现简单,但存在如下的问题:当图像尺寸不同时,检测结果有较大差异,对大尺寸的显著区域往往只能检测到轮廓;当图像尺寸过小时,对尺寸较小的目标区域检测结果较差。一般来说,这种方法是对采样后的图像进行显著性检测,因此得到的显著图分辨率较低。
发明内容
为了解决现有技术的不足之处,本发明提出了一种在多尺度下结合图像全局属性和局部细节来融合显著区域并确定其位置的方法,利用空间几何信息熵找到最佳分辨率尺度,从而准确的检测出显著区域。
为实现上述目的,本发明的技术方案包括如下几个步骤:
步骤1)用一个标准差为1,3×3大小的高斯滤波器来平滑图像T。
步骤2)计算图像T在x和y轴上的最佳颜色梯度和归一化梯度。
2a)设置一个sobel算子大小为1×7,值为[-1,9,-45,0,45,-9,1]/6·t,用于对图像求边缘响应。t为最小允许区域,取值10。
2b)用步骤2a)设置的sobel算子对图像做卷积,分别得到RGB三个颜色通道的x轴梯度,将该算子转置后再对图像做卷积得到三个颜色通道的y轴梯度。
2c)计算x轴和y轴的最佳颜色梯度Ix和Iy,计算方法是从三个通道中选取梯度值最大的通道,该通道的梯度即为图像在该轴上的最佳颜色梯度。
2d)计算图像的归一化梯度:
步骤3)定义尺度参数Q=[1,2...,2n],n取值从0到7,一共8个尺度。
步骤4)求梯度索引index=[Iy;Ix]↓,该梯度索引的大小为l×1,计算方法是将y轴和x轴的最佳颜色梯度合并为一列,并降序排列。
步骤5)用梯度索引依次遍历图像的所有4邻域像素对,满足融合门限的像素合并为一个区域,得到标签图。
5a)建立邻域像素对p和p′,方法是p为T(index),即用梯度索引的图像像素,p′是p的4-邻域像素。
5b)计算三个通道的邻域像素对的标准差:f{R,G,B}(p,p′)=|p-p′|=(p-p′)2。
5c)计算融合门限,该门限包含尺度参数,其表达形式为:
其中,g是图像最大像素值,取值256;而|p|是像素点p的像素值,|p|p||=(|p|+1)min{|p|,g};δ=1/(6n2),n是图像T的像素个数。
5d)若三个通道的像素对标准差都小于其融合门限,即三个通道的像素对都满足条件,那么像素p和p′属于同一区域R,否则两像素分属不同区域。
5e)重复步骤5a)-5d),执行l次邻域像素对,得到标签图L,该标签图L是由k个互相独立的连通区域{R1,R2...,Rk}所组成,标签图L所包含的标签值V=[1,2,...,k]。
步骤6)计算边缘梯度图,并建立新的领域像素对,具体计算步骤如下:
6a)设置初始化边缘梯度图A,方法是设置一个大小为k×k,值为0的矩阵。
6b)计算边缘梯度图A,方法是用标签图L上各个区域的边缘像素(u,v)所对应的标签值L(u,v)作为索引,将边缘梯度图A(L(u,v))的值用归一化梯度图的值I(u,v)来代替。
6c)将边缘梯度图A中的非0像素值进行排序,得到边缘梯度索引index′
6d)建立新的邻域像素对p和p′,p是边缘梯度索引对应的标签值下的图像像素T(V(index′)),p′是p的四邻域像素。
步骤7)重复执行步骤5b)-6),在新的尺度下计算新的标签图,一共执行Q次,可以得到Q个标签图{L1,...LQ}。
步骤8)计算多尺度候选显著图{S1,...SQ}。方法是分别计算标签图LQ中各连通区域{R1,R2...,Rk}与原图像的互信息,选出互信息最大的区域R,该区域所构成的图即该尺度下的候选显著图。
步骤9)计算显著图S,方法是从多尺度候选显著图{S1,...SQ}中找到最优的尺度,该尺度下的候选显著图即为最终显著图。
9a)定义各候选显著图抑制参数λ为:
其中K是一个大小与S相同的2维高斯掩模,其方差σw=W/4,σh=H/4,W和H为图像T的宽和高,并且∑∑K(n,m)=1,N(·)用来归一化S。
9b)求解空间几何信息熵,其计算方法为:H2D(SQ)=H{gn*SQ},其中,H是一个二维熵,gn为一个尺度ζ的低通高斯核,这里ζ是我们期望能够检测到的最小区域,ζ的取值范围为0.01·W到0.04·W。
9c)计算最优尺度计算方法是用各候选显著图的空间几何信息熵除以对应尺度下的抑制参数,选择值最小的尺度,该尺度即为最优尺度。
9d)在该尺度QP下的候选显著图即为最终显著图S。
所述sobel算子采用文章Optimal Operators in Digital Image Processing中的sobel算子。
有益效果
本发明涉及一种基于多尺度区域融合的显著区域检测方法,该方法是一种无监督的自底向上的检测方法,能够自动检测出显著区域。该方法利用了融合区域是一组具有同类性质的像素集合这一设定,用最简单的像素数值属性空间来实现区域融合,通过在多个尺度下结合较小的区域或像素来迭代增长。该方法概念简单,无需对图像数据提前进行训练,可以很容易地进行参数修改,处理速度快。
本发明通过计算最佳颜色梯度与归一化梯度,保留了影响视觉感知单元的图像像素,这些代表了图像全局属性的像素,共同组成了显著区域。而为了解决融合区域边缘的不确定性,方法进一步计算了边缘梯度来弥补图像的局部细节,从而确定了融合区域的边缘,抑制了非显著区域像素点的错误融合。该发明提出空间几何信息熵来选择针对最优尺度,充分考虑了毗邻像素的空间几何相关性和显著图熵较小这两个特点,很好的解决了由于尺度过小时造成的图像噪声不能充分被抑制,和尺度过大时产生显著区域过度融合所带来的问题,极大的提高了显著区域检测的准确性和效率。
附图说明
图1是本发明方法的工作原理流程图。
图2是本发明方法的实例操作图示。
具体实施方式
现结合实施例、附图对本发明作进一步的描述:
用于实施的硬件环境是:Intel core 2T7250CPU、3GB内存、集成显卡计算机,运行的软件环境是:Matlab 2012a、WindowsXP。使用数据库为公开可下载的MSRA显著性图像集进行实验,该数据库是由20000幅图像组成,被三个人进行显著区域标注,图2中的实例就取自于该数据库。我们用Matlab软件实现了本发明提出的方法。
本发明的具体实施步骤如下:
步骤1)用一个标准差为1,3×3大小的高斯滤波器来平滑图像T。
步骤2)计算图像T在x和y轴上的最佳颜色梯度和归一化梯度。
2a)设置一个sobel算子大小为1×7,值为[-1,9,-45,0,45,-9,1]/6·t,用于对图像求边缘响应。t为最小允许区域,取值10。
2b)用步骤2a)设置的sobel算子对图像做卷积,分别得到RGB三个颜色通道的x轴梯度,将该算子转置后再对图像做卷积得到三个颜色通道的y轴梯度。
2c)计算x轴和y轴的最佳颜色梯度Ix和Iy,计算方法是从三个通道中选取梯度值最大的通道,该通道的梯度即为图像在该轴上的最佳颜色梯度。
2d)计算图像的归一化梯度:
步骤3)定义尺度参数Q=[1,2…,2n],n取值从0到7,一共8个尺度。
步骤4)求梯度索引该梯度索引的大小为l×1,计算方法是将y轴和x轴的最佳颜色梯度合并为一列,并降序排列。
步骤5)用梯度索引依次遍历图像的所有4邻域像素对,满足融合门限的像素合并为一个区域,得到标签图。
5a)建立邻域像素对p和p′,方法是p为T(index),即用梯度索引的图像像素,p′是p的4-邻域像素。
5b)计算三个通道的邻域像素对的标准差:f{R,G,B}(p,p′)=|p-p′|=(p-p′)2。
5c)计算融合门限,该门限包含尺度参数,其表达形式为:
其中,g是图像最大像素值,取值256;而|p|是像素点p的像素值,|p|p||=(|p|+1)min{|p|,g};δ=1/(6n2),n是图像T的像素个数。
5d)若三个通道的像素对标准差都小于其融合门限,即三个通道的像素对都满足条件,那么像素p和p′属于同一区域R,否则两像素分属不同区域。
5e)重复步骤5a)-5d),执行l次邻域像素对,得到标签图L,该标签图L是由k个互相独立的连通区域{R1,R2…,Rk}所组成,标签图L所包含的标签值V=[1,2,...,k]。
步骤6)计算边缘梯度图,并建立新的领域像素对,具体计算步骤如下:
6a)设置初始化边缘梯度图A,方法是设置一个大小为k×k,值为0的矩阵。
6b)计算边缘梯度图A,方法是用标签图L上各个区域的边缘像素(u,v)所对应的标签值L(u,v)作为索引,将边缘梯度图A(L(u,v))的值用归一化梯度图的值I(u,v)来代替。
6c)将边缘梯度图A中的非0像素值进行排序,得到边缘梯度索引index′。
6d)建立新的邻域像素对p和p′,p是边缘梯度索引对应的标签值下的图像像素T(V(index′)),p′是p的四邻域像素。
步骤7)重复执行步骤5b)-6),在新的尺度下计算新的标签图,一共执行Q次,可以得到Q个标签图{L1,...LQ}。
步骤8)计算多尺度候选显著图{S1,...SQ}。方法是分别计算标签图LQ中各连通区域{R1,R2...,Rk}与原图像的互信息,选出互信息最大的区域R,该区域所构成的图即该尺度下的候选显著图。
步骤9)计算显著图S,方法是从多尺度候选显著图{S1,...SQ}中找到最优的尺度,该尺度下的候选显著图即为最终显著图。
9a)定义各候选显著图抑制参数λ为:
其中K是一个大小与S相同的2维高斯掩模,其方差σw=W/4,σh=H/4,W和H为图像T的宽和高,并且∑∑K(n,m)=1,N(·)用来归一化S。
9b)求解空间几何信息熵,其计算方法为:H2D(SQ)=H{gn*SQ},其中,H是一个二维熵,gn为一个尺度ζ的低通高斯核,这里ζ是我们期望能够检测到的最小区域,ζ的取值范围为0.01·W到0.04·W。
9c)计算最优尺度计算方法是用各候选显著图的空间几何信息熵除以对应尺度下的抑制参数,选择值最小的尺度,该尺度即为最优尺度。
9d)在该尺度QP下的候选显著图即为最终显著图S。
所述sobel算子采用文章Optimal Operators in Digital Image Processing中的sobel算子。
Claims (2)
1.本发明涉及一种基于多尺度区域融合的显著区域检测方法,其特征在于步骤如下:
步骤1)用一个标准差为1,3×3大小的高斯滤波器来平滑图像T。
步骤2)计算图像T在x和y轴上的最佳颜色梯度和归一化梯度。
2a)设置一个sobel算子大小为1×7,值为[-1,9,-45,0,45,-9,1]/6·t,用于对图像求边缘响应。t为最小允许区域,取值10。
2b)用步骤2a)设置的sobel算子对图像做卷积,分别得到RGB三个颜色通道的x轴梯度,将该算子转置后再对图像做卷积得到三个颜色通道的y轴梯度。
2c)计算x轴和y轴的最佳颜色梯度Ix和Iy,计算方法是从三个通道中选取梯度值最大的通道,该通道的梯度即为图像在该轴上的最佳颜色梯度。
2d)计算图像的归一化梯度:
步骤3)定义尺度参数Q=[1,2...,2n],n取值从0到7,一共8个尺度。
步骤4)求梯度索引index=[Iy;Ix]↓,该梯度索引的大小为l×1,计算方法是将y轴和x轴的最佳颜色梯度合并为一列,并降序排列。
步骤5)用梯度索引依次遍历图像的所有4邻域像素对,满足融合门限的像素合并为一个区域,得到标签图。
5a)建立邻域像素对p和p′,方法是p为T(index),即用梯度索引的图像像素,p′是p的4-邻域像素。
5b)计算三个通道的邻域像素对的标准差:f{R,G,B}(p,p′)=|p-p′|=(p-p′)2。
5c)计算融合门限,该门限包含尺度参数,其表达形式为:
其中,g是图像最大像素值,取值256;而|p|是像素点p的像素值,|p|p||=(|p|+1)min{|p|,g};δ=1/(6n2),n是图像T的像素个数。
5d)若三个通道的像素对标准差都小于其融合门限,即三个通道的像素对都满足条件,那么像素p和p′属于同一区域R,否则两像素分属不同区域。
5e)重复步骤5a)-5d),执行l次邻域像素对,得到标签图L,该标签图L是由k个互相独立的连通区域{R1,R2...,Rk}所组成,标签图L所包含的标签值V=[1,2,...,k]。
步骤6)计算边缘梯度图,并建立新的领域像素对,具体计算步骤如下:
6a)设置初始化边缘梯度图A,方法是设置一个大小为k×k,值为0的矩阵。
6b)计算边缘梯度图A,方法是用标签图L上各个区域的边缘像素(u,v)所对应的标签值L(u,v)作为索引,将边缘梯度图A(L(u,v))的值用归一化梯度图的值I(u,v)来代替。
6c)将边缘梯度图A中的非0像素值进行排序,得到边缘梯度索引index′。
6d)建立新的邻域像素对p和p′,p是边缘梯度索引对应的标签值下的图像像素T(V(index′)),p′是p的四邻域像素。
步骤7)重复执行步骤5b)-6),在新的尺度下计算新的标签图,一共执行Q次,可以得到Q个标签图{L1,...LQ}。
步骤8)计算多尺度候选显著图{S1,...SQ}。方法是分别计算标签图LQ中各连通区域{R1,R2...,Rk}与原图像的互信息,选出互信息最大的区域R,该区域所构成的图即该尺度下的候选显著图。
步骤9)计算显著图S,方法是从多尺度候选显著图{S1,...SQ}中找到最优的尺度,该尺度下的候选显著图即为最终显著图。
9a)定义各候选显著图抑制参数λ为:
其中K是一个大小与S相同的2维高斯掩模,其方差σw=W/4,σh=H/4,W和H为图像T的宽和高,并且∑∑K(n,m)=1,N(·)用来归一化S。
9b)求解空间几何信息熵,其计算方法为:H2D(SQ)=H{gn*SQ},其中,H是一个二维熵,gn为一个尺度ζ的低通高斯核,这里ζ是我们期望能够检测到的最小区域,ζ的取值范围为0.01·W到0.04·W。
9c)计算最优尺度计算方法是用各候选显著图的空间几何信息熵除以对应尺度下的抑制参数,选择值最小的尺度,该尺度即为最优尺度。
9d)在该尺度QP下的候选显著图即为最终显著图S。
2.根据权利要求1所述sobel算子采用文章Optimal Operators in Digital Image Processing中的sobel算子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410616752.0A CN104408711B (zh) | 2014-10-30 | 2014-10-30 | 一种基于多尺度区域融合的显著区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410616752.0A CN104408711B (zh) | 2014-10-30 | 2014-10-30 | 一种基于多尺度区域融合的显著区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104408711A true CN104408711A (zh) | 2015-03-11 |
CN104408711B CN104408711B (zh) | 2017-05-24 |
Family
ID=52646340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410616752.0A Expired - Fee Related CN104408711B (zh) | 2014-10-30 | 2014-10-30 | 一种基于多尺度区域融合的显著区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104408711B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700373A (zh) * | 2015-03-26 | 2015-06-10 | 清华大学 | 一种针对图像模拟信号的多尺度高斯滤波装置及其构造方法 |
CN107105169A (zh) * | 2017-06-07 | 2017-08-29 | 深圳市创艺工业技术有限公司 | 一种有效的厂区安全监测系统 |
CN107423740A (zh) * | 2017-05-12 | 2017-12-01 | 西安万像电子科技有限公司 | 图像显著区域的获取方法和装置 |
WO2018082130A1 (zh) * | 2016-11-02 | 2018-05-11 | 华为技术有限公司 | 一种显著图生成方法及用户终端 |
CN108647713A (zh) * | 2018-05-07 | 2018-10-12 | 宁波华仪宁创智能科技有限公司 | 胚胎边界识别与激光轨迹拟合方法 |
CN108961268A (zh) * | 2018-06-19 | 2018-12-07 | 广东工业大学 | 一种显著图计算方法及相关装置 |
CN110188811A (zh) * | 2019-05-23 | 2019-08-30 | 西北工业大学 | 基于赋范梯度特征与卷积神经网络的水下目标检测方法 |
CN110717454A (zh) * | 2019-10-10 | 2020-01-21 | 北京北特圣迪科技发展有限公司 | 一种舞台环境下的轮式机器人障碍检测方法 |
CN110717451A (zh) * | 2019-10-10 | 2020-01-21 | 电子科技大学 | 一种基于深度学习的药用植物叶部病害图像识别方法 |
CN112800834A (zh) * | 2020-12-25 | 2021-05-14 | 温州晶彩光电有限公司 | 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 |
CN114972328A (zh) * | 2022-07-13 | 2022-08-30 | 江苏瑞斯达安全防护用品有限公司 | 一种基于机器视觉的防护手套染色混合控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070031039A1 (en) * | 2005-05-26 | 2007-02-08 | Bourbay Limited | Segmentation of digital images |
CN101286237A (zh) * | 2008-05-22 | 2008-10-15 | 重庆大学 | 基于视觉仿生的运动目标检测方法 |
CN102103750A (zh) * | 2011-01-07 | 2011-06-22 | 杭州电子科技大学 | 基于韦伯定理和中央-周围假设的视觉显著性检测方法 |
CN102682287A (zh) * | 2012-04-17 | 2012-09-19 | 电子科技大学 | 基于显著度信息的行人检测方法 |
CN103034865A (zh) * | 2012-12-13 | 2013-04-10 | 南京航空航天大学 | 一种基于多尺度相对熵的视觉显著区域提取方法 |
-
2014
- 2014-10-30 CN CN201410616752.0A patent/CN104408711B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070031039A1 (en) * | 2005-05-26 | 2007-02-08 | Bourbay Limited | Segmentation of digital images |
CN101286237A (zh) * | 2008-05-22 | 2008-10-15 | 重庆大学 | 基于视觉仿生的运动目标检测方法 |
CN102103750A (zh) * | 2011-01-07 | 2011-06-22 | 杭州电子科技大学 | 基于韦伯定理和中央-周围假设的视觉显著性检测方法 |
CN102682287A (zh) * | 2012-04-17 | 2012-09-19 | 电子科技大学 | 基于显著度信息的行人检测方法 |
CN103034865A (zh) * | 2012-12-13 | 2013-04-10 | 南京航空航天大学 | 一种基于多尺度相对熵的视觉显著区域提取方法 |
Non-Patent Citations (2)
Title |
---|
JIAN LI 等: "Visual Saliency Based on Scale-Space Analysis in the Frequency Domain", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
景慧昀 等: "显著区域检测算法综述", 《智能计算机与应用》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700373B (zh) * | 2015-03-26 | 2018-01-16 | 清华大学 | 一种针对图像模拟信号的多尺度高斯滤波装置及其构造方法 |
CN104700373A (zh) * | 2015-03-26 | 2015-06-10 | 清华大学 | 一种针对图像模拟信号的多尺度高斯滤波装置及其构造方法 |
WO2018082130A1 (zh) * | 2016-11-02 | 2018-05-11 | 华为技术有限公司 | 一种显著图生成方法及用户终端 |
CN109844806A (zh) * | 2016-11-02 | 2019-06-04 | 华为技术有限公司 | 一种显著图生成方法及用户终端 |
CN107423740A (zh) * | 2017-05-12 | 2017-12-01 | 西安万像电子科技有限公司 | 图像显著区域的获取方法和装置 |
CN107105169A (zh) * | 2017-06-07 | 2017-08-29 | 深圳市创艺工业技术有限公司 | 一种有效的厂区安全监测系统 |
CN108647713B (zh) * | 2018-05-07 | 2021-04-02 | 宁波华仪宁创智能科技有限公司 | 胚胎边界识别与激光轨迹拟合方法 |
CN108647713A (zh) * | 2018-05-07 | 2018-10-12 | 宁波华仪宁创智能科技有限公司 | 胚胎边界识别与激光轨迹拟合方法 |
CN108961268A (zh) * | 2018-06-19 | 2018-12-07 | 广东工业大学 | 一种显著图计算方法及相关装置 |
CN108961268B (zh) * | 2018-06-19 | 2022-03-25 | 广东工业大学 | 一种显著图计算方法及相关装置 |
CN110188811A (zh) * | 2019-05-23 | 2019-08-30 | 西北工业大学 | 基于赋范梯度特征与卷积神经网络的水下目标检测方法 |
CN110717451A (zh) * | 2019-10-10 | 2020-01-21 | 电子科技大学 | 一种基于深度学习的药用植物叶部病害图像识别方法 |
CN110717454B (zh) * | 2019-10-10 | 2022-03-11 | 北京北特圣迪科技发展有限公司 | 一种舞台环境下的轮式机器人障碍检测方法 |
CN110717454A (zh) * | 2019-10-10 | 2020-01-21 | 北京北特圣迪科技发展有限公司 | 一种舞台环境下的轮式机器人障碍检测方法 |
CN110717451B (zh) * | 2019-10-10 | 2022-07-08 | 电子科技大学 | 一种基于深度学习的药用植物叶部病害图像识别方法 |
CN112800834A (zh) * | 2020-12-25 | 2021-05-14 | 温州晶彩光电有限公司 | 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 |
CN112800834B (zh) * | 2020-12-25 | 2022-08-12 | 温州晶彩光电有限公司 | 一种基于跪拜行为识别来定位炫彩射灯的方法及系统 |
CN114972328A (zh) * | 2022-07-13 | 2022-08-30 | 江苏瑞斯达安全防护用品有限公司 | 一种基于机器视觉的防护手套染色混合控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104408711B (zh) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104408711A (zh) | 一种基于多尺度区域融合的显著区域检测方法 | |
Yao et al. | Curvature aided Hough transform for circle detection | |
CN104778721B (zh) | 一种双目图像中显著性目标的距离测量方法 | |
Liao et al. | Automatic segmentation for cell images based on bottleneck detection and ellipse fitting | |
CN104376319B (zh) | 一种基于各向异性高斯核提取封闭边缘图像轮廓的方法 | |
CN103996198A (zh) | 复杂自然环境下感兴趣区域的检测方法 | |
CN103345755A (zh) | 一种基于Harris算子的棋盘格角点亚像素提取方法 | |
CN104850850A (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN104268853A (zh) | 一种红外图像与可见光图像配准方法 | |
CN107045634A (zh) | 一种基于最大稳定极值区域与笔画宽度的文本定位方法 | |
CN104809433A (zh) | 一种基于最大稳定区域和随机采样的斑马线检测方法 | |
CN103413303A (zh) | 基于联合显著性的红外目标分割方法 | |
CN104182985A (zh) | 遥感图像变化检测方法 | |
CN104647893B (zh) | 一种基于十字线的印刷套印误差检测方法 | |
CN105261021A (zh) | 去除前景检测结果阴影的方法及装置 | |
CN104318559A (zh) | 用于视频图像匹配的特征点快速检测方法 | |
CN104463138A (zh) | 基于视觉结构属性的文本定位方法及系统 | |
CN106682678A (zh) | 一种基于支撑域的图像角点检测和分类方法 | |
US8396297B2 (en) | Supervised edge detection using fractal signatures | |
CN106340010A (zh) | 一种基于二阶轮廓差分的角点检测方法 | |
CN105678735A (zh) | 一种用于雾天图像的目标显著性检测方法 | |
CN102663778B (zh) | 一种基于多视点视频的目标跟踪方法和系统 | |
CN112488046A (zh) | 一种基于无人机高分辨率影像的车道线提取方法 | |
CN103150725B (zh) | 基于非局部均值的susan边缘检测方法及系统 | |
Liu et al. | Extraction of lane markings using orientation and vanishing point constraints in structured road scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170524 Termination date: 20191030 |