CN116664608A - 基于图像增强的目标检测与定位方法 - Google Patents
基于图像增强的目标检测与定位方法 Download PDFInfo
- Publication number
- CN116664608A CN116664608A CN202310469000.5A CN202310469000A CN116664608A CN 116664608 A CN116664608 A CN 116664608A CN 202310469000 A CN202310469000 A CN 202310469000A CN 116664608 A CN116664608 A CN 116664608A
- Authority
- CN
- China
- Prior art keywords
- image
- enhancement
- target
- picture
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003708 edge detection Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 230000002708 enhancing effect Effects 0.000 claims description 12
- 238000005286 illumination Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000001965 increasing effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及目标检测与定位领域,尤其涉及一种面向手机装配场景下的基于图像增强的目标检测与定位方法。该方法通过对视觉传感器获取的原始图像进行增强,分别对目标检测的输入和目标边缘计算的输入图像进行增强,对于目标检测输入采用整体亮度提高,直方图均衡化和Laplace锐化进行亮度,对比度的增强,最后将增强后的图片输入至深度学习网络中进行目标检测,对边缘检测的输入RGB图像采用单R通道线性增强,灰度图进行Sigmod函数增强,最后进行Sobel边缘检测,从而实现目标定位过程。
Description
技术领域
本发明属于目标检测与定位领域,尤其涉及一种面向手机装配场景下的基于图像增强的目标检测与定位方法。
背景技术
目前由于人工智能和深度学习技术的快速发展,在工业上有大量的机器人作业使用了视觉传感器,人们正致力于机器人拥有人类的视觉检测和定位能力,机器人拥有目标检测和定位能力是完成智能化操作的前提,例如智能化装配,智能化缺陷检测等。目标检测任务主要是在图像或视频中对目标对象的位置和边框进行检测,由于目标检测任务依赖于视觉传感器,而在目标检测任务中光照变化对检测的成功率具有很大的影响,因此在实际应用中通常需要置于结构化场景中,不利于机器人完成智能化任务,例如对于手机零件的智能装配,手机装配精度要求通常为微米级,而作业中光照变化将会影响目标检测任务的精度。
发明内容
本发明主要目的在于克服现有技术中光照变化下目标检测与定位精度不高的不足,提供了一种基于图像增强的目标检测与定位方法,通过进行一系列图像增强方法能很好的消除光照对检测与定位的影响,提高目标检测与定位任务的准确性和鲁棒性,该方法在手机装配领域或其他较易受光照影响的任务中具有良好的效果。
实现本发明目的的技术方案为:
一种基于图像增强的目标检测与定位方法,通过视觉传感器获取图像数据,在目标检测前对图像进行增强,目标边缘检测时对图像进行增强来提高任务的精度,所述方法包括如下步骤:
步骤(1)将图像整体亮度提高,对于光照变化场景下获取的图片信息,首先提高图片的亮度,降低阴影对后续操作的影响;
步骤(2)通过直方图均衡化提高图像的整体对比度,根据步骤(1)的结果,获取高对比度的图像信息,提高图像的明暗对比;
步骤(3)采用Laplace算子进行图片锐化,加强图片边缘处或像素值变化较大处的明暗对比度,突出主体;
步骤(4)通过YOLO v5的CNN卷积神经网络对目标进行检测,将步骤(3)的结果作为网络的输入,最终输出目标检测的位置和边界框;
步骤(5)采用图像线性增强方法,对步骤(3)的结果进行线性增强,采用分段式线性函数对图像局部信息进行增强;
步骤(6)通过Sigmoid函数对步骤(5)的结果进行计算,针对手机装配场景进行增强,进一步提高手机零件与背景的差别;
步骤(7)经过Sobel边缘算子进行图像的边缘检测,通过步骤(4)结果中的检测框像素坐标和步骤(6)的结果,将检测结果部分图像截取出来,然后采用本步骤得到实际图像边界,进而进行定位。
进一步地,步骤(1)中将RGB图像进行整体提亮,通过将图片R,G,B三个通道的像素值都增加75,该75数值为人为设定,然后对上述三个通道进行合并,即可提高整体图片的亮度。公式为其中/>为亮度增加后的三通道像素值。
进一步地,步骤(2)通过直方图均衡化对步骤(1)产生的图片进行处理,分别对RGB图像中R,G,B三个通道进行均衡化处理,首先对原始图片进行切片,设置tileGridSize=64,tileGridSize为切片数,为本方法最佳切片数,然后对每块图像进行均衡化处理,均衡化处理首先记录图片中所有像素值pr出现的次数nr,其中r为图片中每个具体的像素值,然后计算每个像素值r的累积分布函数cdf,即公式并将cdf值从小到大进行排序,然后将cdf大于阈值clipLimit=6的像素值平均分配给小于阈值的像素值,重新计算cdf值,直到所有的cdf’值都小于阈值,然后取最小值cdf(min)和最大值cdf(max),最后通过公式/>计算均衡化后的像素值hr,当对每块图像均衡化后将切片图像拼接成一个大图像,至此直方图均衡化完成。
进一步地,步骤(3)采用Laplace算子对均衡化后的图像进行锐化处理,方法为选用卷积核对图像进行卷积操作,通过卷积能够得到锐化后的图像。
进一步地,步骤(4)采用YOLO v5深度学习网络对步骤(3)增强的图像进行目标检测操作,YOLO v5为开源模型,通过该模型能够对图像中的目标进行检测和边界框标记。
进一步地,步骤(5)针对步骤(3)的结果进行线性增强,首先对该三通道图像进行通道分离操作,主要对其中R通道进行增强,根据公式其中r为R通道中的像素值,/>为线性增强后的像素值,对R通道单独增强后合并图像的三个通道。
进一步地,步骤(6)通过Sigmod函数对锐化后的图片进一步提高对比度,首先将三通道图片变为单通道图片,即灰度图,然后根据公式其中r为灰度图中的每个像素值,/>为通过Sigmod函数增强后的像素值。
进一步地,步骤(7)通过步骤(6)保存的灰度图和步骤(4)输出的目标边框位置,首先将目标边框图像在灰度图中截取出来,然后采用Sobel边缘算子进行目标的边缘检测,首先对于图像的X和Y轴分别选用卷积核和/>然后分别用两个卷积核对截取的图像进行卷积操作,分别得到Gx和Gy,对于每个像素的灰度值经过该公式计算后输出最终的边缘检测结果,即可进行目标定位。
本发明方法,既在目标检测阶段进行图像亮度提高,直方图均衡化和Laplace图像增强处理,又在目标定位时边缘检测图片进行增强,包括对RGB三通道图像增强,单独对R通道进行线性增强,对单通道图像进行Sigmod函数增强,使得目标轮廓更清晰,更利于Sobel算子进行目标边缘提取。本发明方法针对手机装配的场景,减少了光照变化对目标检测和定位的影响,提高了目标检测和定位的精度。
附图说明
图1是本发明方法的流程图;
图2是采用本发明方法与原始图像的目标检测结果对比和边缘检测结果对比图;
图2(a)为原始图像的目标检测结果图,图2(b)为采用本发明方法的目标检测结果图。
具体实施方式
以下结合实施例和附图对本发明内容作进一步的详细说明,但不是对本发明限定。
实施例
基于图像增强的目标检测与定位方法,参见图1,通过对目标检测输入图像和目标定位输入图像进行不同的增强,提高对目标的检测准确度与定位精度,图1为本发明方法的具体流程图。本实施例通过对手机软排线的装配来进一步的说明该流程,目标检测与定位方法包括如下步骤:
步骤(1)对于视觉传感器获得的图像进行亮度提高,降低光照变化对后续操作的影响;
步骤(2)将提亮后的图片进行直方图均衡化处理,根据步骤(1)的结果,获取高对比度的图像信息,提高图像的整体的明暗对比;
步骤(3)采用Laplace算子对触觉传感器拍摄的软排线图片进行锐化,加强软排线边缘处的明暗对比度,突出软排线主体;
步骤(4)通过YOLO v5的CNN卷积神经网络对软排线进行检测,其中将步骤(3)的结果作为网络的输入,并最终输出目标检测的位置和边界框,最后该步骤结果在目标定位过程中使用;
步骤(5)对步骤(3)的结果进行线性增强,采用分段式线性函数对RGB图像局部信息进行增强;
步骤(6)将前面增强过的软排线图片采用Sigmoid函数进行增强计算,针对手机软排线R通道图像进行增强,进一步提高手机软排线与背景的差别;
步骤(7)经过Sobel算子进行软排线的边缘检测,通过步骤(4)结果中的检测框像素坐标和步骤(6)的结果,将检测结果部分图像截取出来,然后采用本步骤得到实际图像边界,进而进行定位。
本实施例中,步骤(1)中将RGB图像进行整体提亮,通过将图片R,G,B三个通道的像素值都增加75,该75数值为人为设定,然后对上述三个通道进行合并,即可提高整体图片的亮度。公式为其中/>为亮度增加后的三通道像素值。
本实施例中,通过直方图均衡化对步骤(1)产生的图片进行处理,首先对软排线RGB原始图片进行切片,将原始图像切片为64块小图像,然后对每块图像进行均衡化处理,均衡化处理首先记录图片中所有像素值pr出现的次数nr,其中r为图片中每个具体的像素值,然后计算每个像素值r的累积分布函数cdf,即公式并将cdf值从小到大进行排序,然后将cdf大于阈值clipLimit=6的像素值平均分配给小于阈值的像素值,重新计算cdf值,直到所有的cdf’值都小于阈值,然后取最小值cdf(min)和最大值cdf(max),最后通过公式/>计算均衡化后的像素值hr,当对每块图像均衡化后将切片图像拼接成一个大图像。
本实施例中,将图像均衡化后的图片采用Laplace算子进行锐化处理,首先选用卷积核然后利用该卷积核对图像进行卷积操作,通过卷积能够得到锐化后的图像。最后将锐化后的图像输入至YOLO v5深度学习网络中,对软排线进行目标检测,输出软排线的检测结果和边界框。
本实施例中,步骤(5)针对步骤(3)的结果进行线性增强,首先对该三通道图像进行通道分离操作,主要对其中R通道进行增强,根据公式其中r为R通道中的像素值,/>为线性增强后的像素值,对R通道单独增强后合并图像的三个通道。
本实施例中,对于线性增强的结果,首先将三通道图片变为单通道图片,即灰度图,然后根据公式进行像素值计算,其中r为灰度图中的每个像素值,/>为通过Sigmod函数增强后的像素值。
本实施例中,通过步骤(6)保存的灰度图和步骤(4)输出的目标边框位置,首先将目标边框图像在灰度图中截取出来,然后采用Sobel算子进行目标的边缘检测,首先对于图像的X和Y轴分别选用卷积核和/>然后分别用两个卷积核对截取的图像进行卷积操作,分别得到Gx和Gy,对于每个像素的灰度值经过该公式计算后输出最终的边缘检测结果,即对软排线位置进行定位。
对比例:
参照图2,将采用本发明方法的手机软排线定位结果与原始图像的目标检测结果进行对比,图2(a)为原始图像的目标检测结果图,从图中可见,原始图像对软排序目标检测的效果并不理想,检测框偏离了软排线,且边缘检测时包含了许多无关的线条,对边缘检测结果进行定位产生了较大干扰。
图2(b)为采用本发明方法的目标检测结果图,从图中可见,本发明方法对手机软排线的目标检测效果更好,检测框更准确,且对软排线的边缘检测效果更好,减少了无关检测结果对定位的干扰。
通过图2的比较,本发明方法对软排线的检测更加准确,且对图像进行增强后对于手机软排线的边缘检测效果也更好,从而对软排线的定位更加准确。
Claims (8)
1.基于图像增强的目标检测与定位方法,其特征在于,通过对视觉传感器所获得的图像,分别在目标检测与目标定位前进行图像增强,所述方法包括如下步骤:
步骤(1)将图像整体亮度提高,对于光照变化场景下获取的图片信息,首先提高图片的亮度,降低阴影对后续操作的影响;
步骤(2)通过直方图均衡化提高图像的整体对比度,根据步骤(1)的结果,获取高对比度的图像信息,提高图像的明暗对比;
步骤(3)采用Laplace算子进行图片锐化,加强图片边缘处或像素值变化较大处的明暗对比度,突出主体;
步骤(4)通过YOLO v5的CNN卷积神经网络对目标进行检测,将步骤(3)的结果作为网络的输入,最终输出目标检测的位置和边界框;
步骤(5)采用图像线性增强方法,对步骤(3)的结果进行线性增强,采用分段式线性函数对图像局部信息进行增强;
步骤(6)通过Sigmoid函数对步骤(5)的结果进行计算;
步骤(7)经过Sobel边缘算子进行图像的边缘检测,通过步骤(4)结果中的检测框像素坐标和步骤(6)的结果,将检测结果部分图像截取出来,然后采用本步骤得到实际图像边界,进而进行定位。
2.如权利要求1所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(1)具体是:
将RGB图像进行整体提亮,通过将图片R,G,B三个通道的像素值都增加75,该75数值为人为设定,然后对上述三个通道进行合并,即可提高整体图片的亮度,公式为其中/>为亮度增加后的三通道像素值。
3.如权利要求2所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(2)具体是:
通过直方图均衡化对步骤(1)产生的图片进行处理,分别对RGB图像中R,G,B三个通道进行均衡化处理,首先对原始图片进行切片,设置tileGridSize=64,tileGridSize为切片数,为本方法最佳切片数;
然后对每块图像进行均衡化处理,均衡化处理首先记录图片中所有像素值pr出现的次数nr,其中r为图片中每个具体的像素值,然后计算每个像素值r的累积分布函数cdf,即公式并将cdf值从小到大进行排序,然后将cdf大于阈值clipLimit=6的像素值平均分配给小于阈值的像素值,重新计算cdf值,直到所有的cdf’值都小于阈值,然后取最小值cdf(min)和最大值cdf(max),最后通过公式计算均衡化后的像素值hr,当对每块图像均衡化后将切片图像拼接成一个大图像,至此直方图均衡化完成。
4.如权利要求3所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(3)具体是:
采用Laplace算子对均衡化后的图像进行锐化处理,方法为选用卷积核对图像进行卷积操作,通过卷积能够得到锐化后的图像。
5.如权利要求4所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(4)具体是:
采用YOLO v5深度学习网络对步骤(3)增强的图像进行目标检测操作,YOLO v5为开源模型,通过该模型能够对图像中的目标进行检测和边界框标记。
6.如权利要求5所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(5)具体是:
针对步骤(3)的结果进行线性增强,首先对该三通道图像进行通道分离操作,主要对其中R通道进行增强,根据公式其中r为R通道中的像素值,/>为线性增强后的像素值,对R通道单独增强后合并图像的三个通道。
7.如权利要求6所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(6)具体是:
通过Sigmod函数对锐化后的图片进一步提高对比度,首先将三通道图片变为单通道图片,即灰度图,然后根据公式其中r为灰度图中的每个像素值,/>为通过Sigmod函数增强后的像素值。
8.如权利要求7所述的基于图像增强的目标检测与定位方法,其特征在于,步骤(7)具体是:
通过步骤(6)保存的灰度图和步骤(4)输出的目标边框位置,首先将目标边框图像在灰度图中截取出来,然后采用Sobel边缘算子进行目标的边缘检测,首先对于图像的X和Y轴分别选用卷积核和/>然后分别用两个卷积核对截取的图像进行卷积操作,分别得到Gx和Gy,对于每个像素的灰度值/>经过该公式计算后输出最终的边缘检测结果,即可进行目标定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310469000.5A CN116664608A (zh) | 2023-04-27 | 2023-04-27 | 基于图像增强的目标检测与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310469000.5A CN116664608A (zh) | 2023-04-27 | 2023-04-27 | 基于图像增强的目标检测与定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116664608A true CN116664608A (zh) | 2023-08-29 |
Family
ID=87710816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310469000.5A Pending CN116664608A (zh) | 2023-04-27 | 2023-04-27 | 基于图像增强的目标检测与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116664608A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541561A (zh) * | 2023-11-20 | 2024-02-09 | 广州方舟信息科技有限公司 | 一种抗原试剂盒图像处理方法、装置、设备及存储介质 |
-
2023
- 2023-04-27 CN CN202310469000.5A patent/CN116664608A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541561A (zh) * | 2023-11-20 | 2024-02-09 | 广州方舟信息科技有限公司 | 一种抗原试剂盒图像处理方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819772B (zh) | 一种高精度快速图形检测识别方法 | |
CN111915704A (zh) | 一种基于深度学习的苹果分级识别方法 | |
CN109460754A (zh) | 一种水面异物检测方法、装置、设备及存储介质 | |
CN111191546A (zh) | 基于机器视觉识别的产品智能装配方法 | |
CN105678245A (zh) | 一种基于哈尔特征的靶位识别方法 | |
CN112819748B (zh) | 一种带钢表面缺陷识别模型的训练方法及装置 | |
CN114926407A (zh) | 一种基于深度学习的钢材表面缺陷检测系统 | |
CN116664608A (zh) | 基于图像增强的目标检测与定位方法 | |
CN116843581B (zh) | 一种多场景图的图像增强方法、系统、设备和存储介质 | |
CN110782407A (zh) | 一种基于天空区域概率分割的单幅图像去雾方法 | |
CN118071734B (zh) | 一种基于机器视觉的掩膜板缺陷定位和分类方法及系统 | |
CN110751690B (zh) | 铣床刀头视觉定位方法 | |
CN114298985B (zh) | 缺陷检测方法、装置、设备及存储介质 | |
CN109903275B (zh) | 一种基于自适应多尺度滤波和直方图对比的酒醅发霉区域检测方法 | |
CN111539931A (zh) | 一种基于卷积神经网络和边界限定优化的外观异常检测方法 | |
CN113673396B (zh) | 一种孢子发芽率计算方法、装置及存储介质 | |
CN111368856B (zh) | 一种基于视觉的图书盘点系统的书脊提取方法及装置 | |
CN116469085B (zh) | 一种风险驾驶行为的监控方法及系统 | |
CN110826564A (zh) | 一种复杂场景图像中的小目标语义分割方法及系统 | |
CN114358131A (zh) | 数码相框智能照片优化处理系统 | |
Chengtao et al. | Improved dark channel prior dehazing approach using adaptive factor | |
CN108564534A (zh) | 一种基于检索的图像对比度调整方法 | |
CN112949389A (zh) | 一种基于改进目标检测网络的雾霾图像目标检测方法 | |
CN112085683A (zh) | 一种显著性检测中的深度图可信度检测方法 | |
CN111598943A (zh) | 基于书本辅助阅读设备的书本就位检测方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |