CN105931255A - 基于显著性和深度卷积神经网络的图像中目标定位方法 - Google Patents
基于显著性和深度卷积神经网络的图像中目标定位方法 Download PDFInfo
- Publication number
- CN105931255A CN105931255A CN201610343311.7A CN201610343311A CN105931255A CN 105931255 A CN105931255 A CN 105931255A CN 201610343311 A CN201610343311 A CN 201610343311A CN 105931255 A CN105931255 A CN 105931255A
- Authority
- CN
- China
- Prior art keywords
- image
- convolutional neural
- target
- neural networks
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000009466 transformation Effects 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 5
- 230000009467 reduction Effects 0.000 claims abstract description 5
- 238000001228 spectrum Methods 0.000 claims description 10
- 230000004807 localization Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000011946 reduction process Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000003707 image sharpening Methods 0.000 claims description 2
- 238000003706 image smoothing Methods 0.000 claims description 2
- 238000005286 illumination Methods 0.000 abstract description 4
- 230000008859 change Effects 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract 2
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Classifications
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明公开了一种基于显著性和深度卷积神经网络的图像中目标定位方法,属于数字图像处理领域。本发明首先将采集的图像进行灰度化、降噪和灰度线性变换处理,以提高图像质量,增强背景和目标的对比度;然后根据谱残差理论对处理后的图像进行视觉显著性处理,获取包含目标区域的视觉显著图以及显著图的二值图,利用投影法来定位显著性区域并分割出显著性区域;再运用卷积神经网络对显著性区域进行分类,以区分出目标区域和非目标区域。本发明的方法对图像中目标的定位精准,能够适应光照条件的变化,具有自适应性以及运行速度快等特点。
Description
技术领域
本发明涉及一种图像中目标定位的方法,具体地涉及一种基于显著性和深度卷积神经网络的图像中目标定位方法,属于数字图像处理领域。
背景技术
在图像处理和计算机视觉研究领域中,目标物体的定位一直是一个热点、难点,目标的准确定位对于目标的识别以及图像的理解与分析起着十分重要的作用。目标的定位已经广泛应用于工业、农业、航天、军事、医疗器械等各个领域中。例如:在工业生产故障定位中,利用图像中目标定位方法可以快速定位故障位置,及时制止故障的蔓延,减少工作人员的劳动强度,提高企业效率。
目前,图像中目标定位研究仍处于早期发展阶段。加拿大学者Lowe曾经提出了一种尺度不变特征变换算法(Scale Invariant Feature Transform,SIFT)来定位图像中的目标。这种方法能够增强特征的鲁棒性,实现特征描述算法对尺度和方向的无关性。但是在相似或对称的环境下,算法的准确率却变得很低,并且SIFT特征向量维数较高,计算量较大,匹配速度较慢。T.Ojala等人提出了一种局部二值模式(local binary pattern,LBP)算子,具有计算简单、部分的尺度、旋转和亮度的不变性等优点,但是它对光照变化的不变性是有条件的,即只对线性的光照具有不变性,这大大降低它的性能,限制了其适用范围。因此需要继续探索研究更加高效的计算机图像中目标定位方法。
发明内容
本发明的目的是为了快速定位图像中的目标,提供一种基于显著性和深度卷积神经网络的图像中目标定位方法。
本发明的基于显著性和深度卷积神经网络的图像中目标定位方法,具体包括如下步骤:
步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;
步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;
步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;
步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;
步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;
步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。
有益效果
本发明的方法是基于显著性和深度卷积神经网络的图像中目标定位方法。由于视觉显著性不仅可以突显大量的目标,有时也会突显少量的特殊背景,鉴于此,引入深度卷积神经网络来去除少量的特殊背景,进而对图像目标进行定位。将具有选择性的视觉注意机制引入图像中的目标定位,提高图像分析的效率,减少运行时间,并用深度卷积神经网络进行目标分类,进一步提高目标定位的准确性。
本发明的方法能够从图像中快速检测出目标的位置,可以减少定位目标所耗费的时间。本发明的图像中目标定位的方法具有自适应性,能够适应光照条件的变化。另外,本发明的图像中目标定位精准,运行速度快。
附图说明
图1为本发明的基于显著性和深度卷积神经网络的图像中目标定位的流程图;
图2为本发明的具体实施方式中的一帧图像;
图3为本发明的具体实施方式中图2所示图像的显著性图像;
图4为本发明的具体实施方式中图3所示图像的二值图像;
图5为本发明的具体实施方式中定位的目标区域。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合附图对本发明作进一步的详细说明。
一种基于显著性和深度卷积神经网络的图像中目标定位方法,其总体技术方案如图1所示,具体包括如下步骤:
步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;
所述的降噪处理可以是几何处理、图像滤波、图像平滑和图像锐化的一种或多种方法组合使用。
步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;
所述的灰度线性变换的计算公式为:W=fa*I+fb。其中,参数fa表示线性函数的斜率,fb表示线性函数在y轴的截距,当fa>1时,输出图像的对比度将增大;当fa<1时,输出图像的对比度将减小。
步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;
在计算显著图时,采用的是谱残差视觉显著性算法,具体包括如下步骤:
(1)对图像W(i,j)傅里叶幅度对数谱进行卷积均值滤波;
(2)从图像W傅里叶幅度对数谱中减去上一步的均值滤波结果,最终得到显著图S。其表达式为:
S=log(A(W))-h(W)*log(A(W)),
式中,A(W)表示图像W的傅里叶幅度谱,h(W)表示图像W的傅里叶幅度谱的均值滤波。
步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;
所述的图像二值化处理可以采用但不局限于如下方法,具体包括如下步骤:
(1)利用OTSU方法计算阈值T;
(2)根据步骤(1)得到的二值化阈值T,将显著图像S进行二值化处理,得到显著二值化图像,其表达式为:
步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;
所述的投影法来定位显著性区域,具体实施过程为对步骤4得到的图像G分别计算水平、垂直两个方向上的投影,得到图像中目标区域;
所述的水平Xi和垂直Yj方向上的投影函数分别为:
由于步骤5得到的区域既有目标区域又有少量的背景区域,在此基础上运用深度卷积神经网络进行分类。在使用深度卷积神经网络进行分类之前,需要对深度卷积神经网络进行训练。
步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。
所述的深度卷积神经网络(CNNs)是采用深层网络结构,分别为输入层、一个或一个以上卷积层、一个或一个以上的下采样层和输出层。
为验证本发明所述方法的有效性,本发明给出了一个实施例。
实施例1:
图2为本实施例的带有数字的一帧图像,其图像大小为1024*1024,由图2可知,该图像中有两个数字6,如果待识别的目标就是图像中的数字,那么对于图2来说就是要识别出数字6。图3所示的图像是对图2提取的显著图。由图3可以发现,显著图中不仅突出了数字所在的区域,而且还突出显示了一个小的背景区域。对图3显著图像做二值化处理后得到图4,通过图4可定位到原始图像上的待识别目标。不过,利用图4的分割结果,从原始图像中分割出的目标,不仅有数字区域还有一个背景区域,识别的准确性不高。然后将根据显著图从原始图像分割出的包含有数字和背景的图像,输入到卷积神经网络进行分类,原始图像分割出的包含有数字和背景的图像,输入到卷积神经网络进行分类,本实施例采用六层网络,分别为输入层,2个卷积层,2个下采样层和1个输出层。输入是大小为28*28的经上面分割出的图像,若分割出的图像不是28*28,则需要通过插值计算变化为28*28大小的图像。卷积层C1由6张大小为24*24的特征图组成,采用的卷积核是大小为5*5。下采样层S1是6张大小为12*12的特征图。卷积层C2由下采样层的6张特征图随机组合成12张大小为8*8特征图。下采样层S2由12张大小为4*4的特征图组成。输出层由2个神经元(数字区域和非数字区域)组成。利用训练好的卷积神经网络对数字区域进行进一步的识别,得到最终的目标区域如图5所示,由图5可知,经卷积神经网络处理后可以很好的识别数字区域,去除显著背景的影响,进而实现对图像中数字目标的定位。
以上所述的具体描述,是对发明的目的、技术方案和有益效果进行的进一步详细说明。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于:该方法包括如下步骤:
步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;
步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;
步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;
步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;
步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;
步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。
2.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤1中,降噪处理可以是几何处理、图像滤波、图像平滑和图像锐化的一种或多种方法组合使用。
3.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤2中,对降噪后的图像进行灰度线性变换,所述的灰度线性变换的计算公式为:W=fa*I+fb。其中,参数fa表示线性函数的斜率,fb表示线性函数在y轴的截距,当fa>1时,输出图像的对比度将增大;当fa<1时,输出图像的对比度将减小。
4.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤3中,在计算显著图S时,采用的是谱残差视觉显著性算法,具体包括如下步骤:
(1)对图像W(i,j)傅里叶幅度对数谱进行卷积均值滤波;
(2)从图像W傅里叶幅度对数谱中减去上一步的均值滤波结果,最终得到显著图S,其表达式为:
S=log(A(W))-h(W)*log(A(W)),
式中,A(W)表示图像W的傅里叶幅度谱,h(W)表示图像W的傅里叶幅度谱的均值滤波。
5.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤4中,显著图像二值化处理采用但不局限于如下方法,具体包括如下步骤:
(1)利用OTSU方法计算阈值T;
(2)根据步骤(1)得到的二值化阈值T,将显著图像S进行二值化处理,得到显著二值化图像,其表达式为:
6.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤5中,利用投影法来定位显著性区域,具体实施过程为对步骤4得到的图像G分别计算水平、垂直两个方向上的投影,得到图像中目标区域;所述的水平Xi和垂直Yj方向上的投影函数分别为:
7.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤6中,深度卷积神经网络(CNNs)是采用深层网络结构,分别为输入层、一个或一个以上卷积层、一个或一个以上的下采样层和输出层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610343311.7A CN105931255A (zh) | 2016-05-18 | 2016-05-18 | 基于显著性和深度卷积神经网络的图像中目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610343311.7A CN105931255A (zh) | 2016-05-18 | 2016-05-18 | 基于显著性和深度卷积神经网络的图像中目标定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105931255A true CN105931255A (zh) | 2016-09-07 |
Family
ID=56842131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610343311.7A Pending CN105931255A (zh) | 2016-05-18 | 2016-05-18 | 基于显著性和深度卷积神经网络的图像中目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105931255A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106686377A (zh) * | 2016-12-30 | 2017-05-17 | 佳都新太科技股份有限公司 | 一种基于深层神经网络的视频重点区域确定算法 |
CN107122701A (zh) * | 2017-03-03 | 2017-09-01 | 华南理工大学 | 一种基于图像显著性和深度学习的交通道路标志识别方法 |
CN107273828A (zh) * | 2017-05-29 | 2017-10-20 | 浙江师范大学 | 一种基于区域的全卷积神经网络的路牌检测方法 |
CN107369160A (zh) * | 2017-06-28 | 2017-11-21 | 苏州比格威医疗科技有限公司 | 一种oct图像中脉络膜新生血管分割算法 |
CN107564007A (zh) * | 2017-08-02 | 2018-01-09 | 中国科学院计算技术研究所 | 融合全局信息的场景分割修正方法与系统 |
CN107563994A (zh) * | 2017-08-08 | 2018-01-09 | 北京小米移动软件有限公司 | 图像的显著性检测方法及装置 |
CN108122247A (zh) * | 2017-12-25 | 2018-06-05 | 北京航空航天大学 | 一种基于图像显著性和特征先验模型的视频目标检测方法 |
CN108416428A (zh) * | 2018-02-28 | 2018-08-17 | 中国计量大学 | 一种基于卷积神经网络的机器人视觉定位方法 |
CN108694398A (zh) * | 2017-04-06 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种图像分析方法及装置 |
CN108846416A (zh) * | 2018-05-23 | 2018-11-20 | 北京市新技术应用研究所 | 显著图像的提取处理方法及系统 |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN110310264A (zh) * | 2019-06-25 | 2019-10-08 | 北京邮电大学 | 一种基于dcnn的大尺度目标检测方法、装置 |
CN110334233A (zh) * | 2019-07-12 | 2019-10-15 | 福建省趋普物联科技有限公司 | 基于深度卷积神经网络模型的广告图像分类方法 |
CN110751690A (zh) * | 2019-10-22 | 2020-02-04 | 郑州迈拓信息技术有限公司 | 铣床刀头视觉定位方法 |
CN111591715A (zh) * | 2020-05-28 | 2020-08-28 | 华中科技大学 | 一种皮带纵向撕裂检测方法及装置 |
CN112179481A (zh) * | 2020-09-01 | 2021-01-05 | 国网山西省电力公司电力科学研究院 | 一种gis设备的机械故障诊断方法及系统 |
CN114511471A (zh) * | 2022-04-18 | 2022-05-17 | 广州骏天科技有限公司 | 基于灰度共生矩阵的图像优化方法及系统 |
US11423634B2 (en) | 2018-08-03 | 2022-08-23 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method, apparatus, and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013500667A (ja) * | 2009-07-30 | 2013-01-07 | ティーピー ビジョン ホールディング ビー ヴィ | 分散イメージリターゲティング |
CN103324935A (zh) * | 2013-06-27 | 2013-09-25 | 中山大学 | 一种图像中对车辆进行定位与区域分割的方法 |
CN103400129A (zh) * | 2013-07-22 | 2013-11-20 | 中国科学院光电技术研究所 | 一种基于频域显著性的目标跟踪方法 |
-
2016
- 2016-05-18 CN CN201610343311.7A patent/CN105931255A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013500667A (ja) * | 2009-07-30 | 2013-01-07 | ティーピー ビジョン ホールディング ビー ヴィ | 分散イメージリターゲティング |
CN103324935A (zh) * | 2013-06-27 | 2013-09-25 | 中山大学 | 一种图像中对车辆进行定位与区域分割的方法 |
CN103400129A (zh) * | 2013-07-22 | 2013-11-20 | 中国科学院光电技术研究所 | 一种基于频域显著性的目标跟踪方法 |
Non-Patent Citations (13)
Title |
---|
XIAODI HOU等: "Saliency Detection: A Spectral Residual Approach", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
丁金铸: "基于图像处理的运动目标检测跟踪系统的设计与实现", 《万方数据库》 * |
冈萨雷斯 等: "《数字图像处理第二版中文版》", 31 August 2007, 电子工业出版社 * |
孙燮华: "《数字图像处理 原理与算法》", 31 August 2010, 机械工业出版社 * |
张文杰 等: "基于视觉显著性的指针仪表读数识别算法", 《计算机辅助设计与图形学学报》 * |
张焱 等: "一种融入运动特性的显著性特征提取方法", 《国防科技大学学报》 * |
张焱: "地面背景下成像目标跟踪技术研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
张维刚 等: "融合视觉内容分析的网络视频缩略图推荐", 《智能计算机与应用》 * |
彭强,余滨: "《多媒体个人计算机实用技术》", 31 October 1996, 西南交通大学出版社 * |
王建: "基于图像的智能交通系统中车标识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
翟良松 等: "融合关注度和空间投影的核跟踪算法", 《红外与激光工程》 * |
蔡英凤 等: "采用视觉显著性和深度卷积网络的鲁棒视觉车辆识别算法", 《江苏大学学报》 * |
陆玲,李金萍: "《Visual C++数字图像处理》", 28 February 2014, 中国电力出版社 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106686377A (zh) * | 2016-12-30 | 2017-05-17 | 佳都新太科技股份有限公司 | 一种基于深层神经网络的视频重点区域确定算法 |
CN107122701A (zh) * | 2017-03-03 | 2017-09-01 | 华南理工大学 | 一种基于图像显著性和深度学习的交通道路标志识别方法 |
CN108694398A (zh) * | 2017-04-06 | 2018-10-23 | 杭州海康威视数字技术股份有限公司 | 一种图像分析方法及装置 |
CN107273828A (zh) * | 2017-05-29 | 2017-10-20 | 浙江师范大学 | 一种基于区域的全卷积神经网络的路牌检测方法 |
CN107369160A (zh) * | 2017-06-28 | 2017-11-21 | 苏州比格威医疗科技有限公司 | 一种oct图像中脉络膜新生血管分割算法 |
CN107369160B (zh) * | 2017-06-28 | 2020-04-03 | 苏州比格威医疗科技有限公司 | 一种oct图像中脉络膜新生血管分割算法 |
CN107564007A (zh) * | 2017-08-02 | 2018-01-09 | 中国科学院计算技术研究所 | 融合全局信息的场景分割修正方法与系统 |
CN107564007B (zh) * | 2017-08-02 | 2020-09-11 | 中国科学院计算技术研究所 | 融合全局信息的场景分割修正方法与系统 |
CN107563994A (zh) * | 2017-08-08 | 2018-01-09 | 北京小米移动软件有限公司 | 图像的显著性检测方法及装置 |
CN107563994B (zh) * | 2017-08-08 | 2021-03-09 | 北京小米移动软件有限公司 | 图像的显著性检测方法及装置 |
CN108122247A (zh) * | 2017-12-25 | 2018-06-05 | 北京航空航天大学 | 一种基于图像显著性和特征先验模型的视频目标检测方法 |
CN108122247B (zh) * | 2017-12-25 | 2018-11-13 | 北京航空航天大学 | 一种基于图像显著性和特征先验模型的视频目标检测方法 |
CN108416428A (zh) * | 2018-02-28 | 2018-08-17 | 中国计量大学 | 一种基于卷积神经网络的机器人视觉定位方法 |
CN108846416A (zh) * | 2018-05-23 | 2018-11-20 | 北京市新技术应用研究所 | 显著图像的提取处理方法及系统 |
US11605211B2 (en) | 2018-08-03 | 2023-03-14 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method and apparatus, and device |
US11423634B2 (en) | 2018-08-03 | 2022-08-23 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method, apparatus, and device |
CN109040605A (zh) * | 2018-11-05 | 2018-12-18 | 北京达佳互联信息技术有限公司 | 拍摄引导方法、装置及移动终端和存储介质 |
CN110310264A (zh) * | 2019-06-25 | 2019-10-08 | 北京邮电大学 | 一种基于dcnn的大尺度目标检测方法、装置 |
CN110310264B (zh) * | 2019-06-25 | 2021-07-20 | 北京邮电大学 | 一种基于dcnn的大尺度目标检测方法、装置 |
CN110334233A (zh) * | 2019-07-12 | 2019-10-15 | 福建省趋普物联科技有限公司 | 基于深度卷积神经网络模型的广告图像分类方法 |
CN110751690B (zh) * | 2019-10-22 | 2020-09-25 | 郑州迈拓信息技术有限公司 | 铣床刀头视觉定位方法 |
CN110751690A (zh) * | 2019-10-22 | 2020-02-04 | 郑州迈拓信息技术有限公司 | 铣床刀头视觉定位方法 |
CN111591715A (zh) * | 2020-05-28 | 2020-08-28 | 华中科技大学 | 一种皮带纵向撕裂检测方法及装置 |
CN112179481A (zh) * | 2020-09-01 | 2021-01-05 | 国网山西省电力公司电力科学研究院 | 一种gis设备的机械故障诊断方法及系统 |
CN114511471A (zh) * | 2022-04-18 | 2022-05-17 | 广州骏天科技有限公司 | 基于灰度共生矩阵的图像优化方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105931255A (zh) | 基于显著性和深度卷积神经网络的图像中目标定位方法 | |
CN107657279B (zh) | 一种基于少量样本的遥感目标检测方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN111325764B (zh) | 一种果实图像轮廓识别方法 | |
CN108537102B (zh) | 基于稀疏特征与条件随机场的高分辨sar图像分类方法 | |
CN110837768B (zh) | 一种面向珍稀动物保护的在线检测与识别方法 | |
CN109325418A (zh) | 基于改进YOLOv3的道路交通环境下行人识别方法 | |
CN104616319B (zh) | 基于支持向量机的多特征选择目标跟踪方法 | |
CN106204651B (zh) | 一种基于改进的判决与生成联合模型的目标跟踪方法 | |
CN111738055B (zh) | 多类别文本检测系统和基于该系统的票据表单检测方法 | |
Liu et al. | Stochastic lane shape estimation using local image descriptors | |
CN110070090A (zh) | 一种基于手写文字识别的物流标签信息检测方法及系统 | |
CN109035300B (zh) | 一种基于深度特征与平均峰值相关能量的目标跟踪方法 | |
CN114429156A (zh) | 雷达干扰多域特征对抗学习与检测识别方法 | |
CN104504721A (zh) | 一种基于Gabor小波变换纹理描述的非结构化道路检测方法 | |
CN107016680B (zh) | 一种基于显著性检测的害虫图像背景去除方法 | |
CN106056627B (zh) | 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法 | |
CN105404868A (zh) | 一种基于交互平台的复杂背景中文本的快速检测方法 | |
CN109117746A (zh) | 手部检测方法及机器可读存储介质 | |
CN112818989A (zh) | 一种基于梯度幅值随机采样的图像匹配方法 | |
Elnemr | Feature selection for texture-based plant leaves classification | |
CN104680536A (zh) | 利用改进的非局部均值算法对sar图像变化的检测方法 | |
CN110533083A (zh) | 基于SVM的Adaboost模型的铸件缺陷识别方法 | |
CN111639555B (zh) | 一种指静脉图像噪声精确提取和自适应滤波去噪方法及装置 | |
CN106525027B (zh) | 一种基于局部二值模式的星敏感器星点提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160907 |
|
RJ01 | Rejection of invention patent application after publication |