CN110766755B - 用于半挂车物料装填的车斗实时定位方法 - Google Patents
用于半挂车物料装填的车斗实时定位方法 Download PDFInfo
- Publication number
- CN110766755B CN110766755B CN201911001653.0A CN201911001653A CN110766755B CN 110766755 B CN110766755 B CN 110766755B CN 201911001653 A CN201911001653 A CN 201911001653A CN 110766755 B CN110766755 B CN 110766755B
- Authority
- CN
- China
- Prior art keywords
- hopper
- image
- image data
- semitrailer
- halo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 239000000463 material Substances 0.000 title claims abstract description 15
- 125000001475 halogen functional group Chemical group 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000008447 perception Effects 0.000 claims description 10
- 230000005764 inhibitory process Effects 0.000 claims description 8
- 230000000877 morphologic effect Effects 0.000 claims description 6
- 108010067654 nerveside Proteins 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000005530 etching Methods 0.000 claims description 4
- 239000006185 dispersion Substances 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 abstract description 4
- 238000000605 extraction Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000005574 cross-species transmission Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种用于半挂车物料装填的车斗实时定位方法。包括:对当前车斗视频帧图像进行预处理,得到半挂车灰度图像;对半挂车灰度图像进行处理,得到光晕图像数据;对光晕图像数据进行车斗外角点特征提取,得到车辆轮廓图像数据;对光晕图像数据进行高斯模糊,利用车辆轮廓图像数据,进行鲁棒性最佳建模;利用车辆轮廓图像数据以及鲁棒性最佳建模结果进行自商图处理;对自商图处理结果进行坐标回归,得到车斗角点坐标;取视频帧图像序列的下一帧执行步骤一至六的处理,如此循环,得到视频帧图像序列的车斗角点坐标,实现车斗实时定位。利用本发明,可以降低手工调试参数的工作量,提高光照变化条件下的检测鲁棒性。
Description
技术领域
本发明涉及一种目标检测与定位方法,具体涉及一种车斗实时定位方法。
背景技术
半挂车车斗的装填设备定位多为人工肉眼估计为主,主要通过控制器控制装填斗的位置,以经验控制下料时长,然后换到下一个位置继续下料,保证装填的均匀性。人工控制不仅需要专门培训,而且工作中容易出现分神或操作生疏情况,导致下料溢出车斗位置。人工操作问题常引起诸多不必要的麻烦,例如倾泻到半挂车车头、物料洒落地面等情况。目前解决此类问题的办法仍是培训专业操作人员进行下料操作,并在工地加装监控相机,起到一定的责任溯源作用。然而仍无法避免操作时的误差,且需要专人操作。
由于人工控制下料人力成本高,逐渐出现了自动装填设备。目前,自动装填设备主要分为两类。一种是基于手工调整的定时器参数,实现简易的下料系统。该办法虽然解决了人工问题,但参数和场景的过度专用化,导致在临时场合难以及时调整适应。同时,较高的调试人力成本和固化的车辆尺寸要求显著降低了实用性。另一种是基于车斗信标进行自动导航的下料系统,该方法可以在夜间工作,主要通过相机的主动红外光源和车斗的反光标志进行位置检测,进而识别下料路径,通过设定下料速率等参数进行自动控制。该方法能够适应不同尺寸的车斗,且对车辆停靠位置要求较灵活。但是,该方法过度依赖反光信标,而日光具有很强的红外辐射,强度会强于主动红外的发射功率,容易导致检测失效,需要通过遮荫等措施克服,鲁棒性不强。
因此,现有技术存在手工调试参数工作量大,光照变化条件下车斗边缘位置检测鲁棒性不佳的问题。
发明内容
本发明提供了一种用于半挂车物料装填的车斗实时定位方法,该方法实现了车斗实时定位,降低手工调试参数的工作量,提高光照变化条件下的检测鲁棒性。
一种用于半挂车物料装填的车斗实时定位方法,该方法包括:
步骤一,将顶置相机获得的当前车斗视频帧图像I作为被处理图像;
步骤二,对被处理图像进行预处理得到半挂车灰度图像G;
步骤三,基于神经侧抑制原理建立光晕图像获取模型,对半挂车灰度图像G进行处理,得到光晕图像数据SQI;
步骤四,构建形态信息车斗关键点感知模型对光晕图像数据SQI进行车斗外角点特征提取,得到车辆轮廓图像数据SE;
步骤五,对光晕图像数据SQI进行高斯模糊得到模糊的光晕图像数据SQI2,利用获得的SQI2以及车辆轮廓图像数据SE,进行鲁棒性最佳建模,得到图像数据Mask;
步骤七,基于得到的车斗角点自商图数据KPSQI进行坐标回归,得到车斗角点坐标位置;
步骤八,取当前车斗视频帧图像I的下一帧图像作为被处理图像,执行上述步骤二至七的处理,获取下一帧图像中的车斗角点坐标位置,如此循环,直至获得顶置相机获取的车斗视频帧图像序列的最后一帧图像的车斗角点坐标位置,从而实现车斗实时定位。
步骤二中的预处理为灰度化处理,灰处理方法具体为:获取车斗视频帧图像I的RGB数据,分别计算像素点RGB通道分量的最小值U(x,y)=min(R(x,y),G(x,y),B(x,y))和最大值V(x,y)=max(R(x,y),G(x,y),B(x,y)),其中,R(x,y),G(x,y),B(x,y)分别代表位置(x,y)处像素的红、绿、蓝通道分量值,则半挂车灰度图像G=0.5*U(x,y)+0.5*V(x,y)。
步骤三具体为:
利用分母图像H,对半挂车灰度图像G做自商图处理,得到初始光晕图像数据SQI’;
对初始光晕图像数据SQI’中超出值域范围的数据进行截断处理得到光晕图像数据SQI。
步骤四具体为:
形态信息车斗关键点感知模型使用Sobel算子对光晕图像数据SQI进行边缘检测,获得横向的图像灰度值Sx、纵向的图像灰度值Sy;
对Sx以及Sy超出值域的图像灰度进行截断处理;
对Sx以及Sy沿梯度算子的垂直方向进行腐蚀,留出边角;
将腐蚀后的梯度合并,得到车辆轮廓图像数据SE。
步骤六之后还包括:
对车斗角点自商图数据KPSQI做离差标准化,将其结果映射到[0,1]区间。
步骤七具体为:
对车斗角点自商图数据KPSQI进行阈值化处理,得到车斗角点二值图BIN;
对车斗角点二值图BIN进行包围框检测,得到车斗角点的包围框;
对包围框内部的车斗角点进行坐标回归计算,得到车斗角点的坐标位置。
本发明的有益效果在于:
1、本发明监控相机视频流,通过建立车斗感知模型来实现车斗的定位,降低手工调试参数的工作量。
2、本发明使用神经侧抑制网络、形态信息车斗关键点感知模型以及自商图方法,实现日间图像和夜间图像的特征一致性,优于现有图像信标方法的导航方案,提高光照变化条件下的检测鲁棒性。
附图说明
图1为用于半挂车物料装填的车斗实时定位方法流程图;
图2为顶置相机获取的日间、夜间车辆图像示意图;
图3为本发明方法效果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
自动导航装填系统具有很大的智能化潜力,调试时一般仅适配执行机构和进给量即可,而其余调试工作主要关于图像导航。通过调研目前的顶置相机视角发现,顶置相机主要以监控相机为主,相机的图像内容较为一致,皆为拍摄完整车辆顶视图像,且相机都具备主动红外夜间拍摄能力。
本发明使用监控相机视频流,通过建立车斗感知模型来实现车斗的定位。无需在实施现场加装额外的相机、无需改造现有的运输车辆外观,最大限度地降低了改造难度,并提供优于现有图像信标方法的导航方案,实现日间夜间工作。本发明主要提供一种基于计算机视觉的常见填料系统的改造方案,克服了识别及控制系统专用性强、调试复杂的问题。能够基于现有的装填设备、复用现有的顶置监控相机,直接处理车斗区域并自动装填。大大降低了系统间的耦合性,能够广泛运用于常见的装填设备中,实现自动化或半自动化,降低人工成本。下面通过具体实施例来进行说明。
实施例一:
图1是本发明方法流程图。用于半挂车物料装填的车斗实时定位方法,该方法包括:
步骤一,将顶置相机获得的当前车斗视频帧图像I作为被处理图像。
步骤二,对被处理图像进行预处理得到半挂车灰度图像G。即预处理步骤。
由于视频流是以三通道的彩色图像进行传输的,因此可以考虑三通道之间的曝光关系,获取车斗视频帧图像I的RGB数据,使用如下处理方法,融合日间的过曝区域和欠曝区域:
为了压制并最大限度恢复过曝区域亮度细节,有:
U(x,y)=min(R(x,y),G(x,y),B(x,y))
为了提高并最大限度恢复欠曝区域亮度细节,有:
V(x,y)=max(R(x,y),G(x,y),B(x,y))
其中,R(x,y),G(x,y),B(x,y)分别代表位置(x,y)处像素的红、绿、蓝通道分量值;
融合两者,得到半挂车灰度图像G:
G=0.5*U(x,y)+0.5*V(x,y)
图2为顶置相机获取的日间、夜间的车辆图像。其中,图2左边图像为日间车辆图像,右边为夜间车辆图像。图3左边图像为日间车辆图像的各处理阶段的效果图,图3右边为夜间车辆图像的各处理阶段的效果图。对获得的图像分别进行预处理,得到灰度图像G,如图3所示。
步骤三,基于神经侧抑制原理建立光晕图像获取模型,对半挂车灰度图像G进行处理,得到光晕图像数据SQI。即光晕图像获取步骤。
将图像的每一个像素作为输入,每一个像素与它周围的像素有侧向网络联系,并且是相互抑制关系。抑制系数与距离宏观上成反比关系,距离中心感受器越远,对中心感受器抑制作用越小。
光晕图像数据获取模型的神经侧抑制系数可采用高斯滤波或均值滤波提供光晕化的感知结果,在此采用高斯分布,高斯核大小为3*3,σ=1,构建高斯核K:
将矩阵M中九个元素相加即获得中心点的数据值,重复高斯滤波5次以等效13x13的卷积结果以提高高斯核精度,得到分母图像H。
利用分母图像H,对半挂车灰度图像G做自商图处理,得到初始光晕图像数据SQI’;
SQI是自商图像Self-quotient的英文缩写,通过原图和滤波后的图像作商来表示光晕信息。
对初始光晕图像数据SQI’中超出值域范围的数据进行截断处理得到光晕图像数据SQI。光晕信息保留了高频梯度信息,从而克服了欠曝、过曝的信息丢失,并将幅度归一到1附近,因此,需要将SQI的结果偏置-0.5以实现值域在[0,1]的图像,对于超出值域的,做截断处理:SQI(x,y)=min(1,max(0,SQI’(x,y)-0.5)),至此,得到了SQI图像,特征见图3,夜间和日间的感知效果是相同的。
步骤四,构建形态信息车斗关键点感知模型对光晕图像数据SQI进行车斗外角点特征提取,得到车辆轮廓图像数据SE。即车斗外角点特征提取步骤。
形态信息车斗关键点感知模型使用Sobel算子对光晕图像数据SQI进行边缘检测,获得横向的图像灰度值Sx、纵向的图像灰度值Sy:
将矩阵Sobelx、Sobely中各个元素相加,即得到Sx、Sy,对Sx以及Sy超出值域的图像灰度进行截断处理:Sx=min(1,max(0,Sx)),Sy=min(1,max(0,Sy));
对Sx以及Sy沿梯度算子的垂直方向进行腐蚀,留出边角:
Sx(x,y)=min(Sx(x-2,y),Sx(x-1,y),Sx(x,y),Sx(x+1,y),Sx(x+2,y)),
Sy(x,y)=min(Sy(x,y-2),Sy(x,y-1),Sy(x,y),Sy(x,y+1),Sy(x,y+2)),
将腐蚀后的梯度合并,得到车辆轮廓图像数据SE:SE=Sx+Sy,如图3所示。至此得到了车斗外角点特征,基于感知结果,需要过滤无关特征以生成车斗角点的概率云。
步骤五,对光晕图像数据SQI进行高斯模糊得到模糊的光晕图像数据SQI2,利用获得的SQI2以及车辆轮廓图像数据SE,进行鲁棒性最佳建模,得到图像数据Mask。即鲁棒性最佳建模步骤。
车辆轮廓图像数据SE的图像在车斗边角的响应较低,边角特征可见,但仍无法直接阈值分割,主要是因为还有细小的边缘没有剔除,因此,对SQI进行高斯模糊得到模糊的SQI2,方法等同于分母图像H的处理方式。鲁棒性最佳建模具体为:对获得的SQI2以及车辆轮廓图像数据SE进行自商图处理,得到图像数据对Mask′进行腐蚀操作得到图像数据Mask。对Mask’进行大小为5x5的腐蚀操作,即求邻域局部最小值。至此Mask如图3所示,消除了关键点的响应,突出了误识别的响应。
步骤六,利用车辆轮廓图像数据SE以及图像数据Mask进行自商图处理,进一步消除噪声影响,得到车斗角点自商图数据即自商图步骤。对KPSQI做离差标准化,使其值域位于[0,1]区间。获得的车斗角点自商图数据KPSQI如图3所示。
步骤七,基于得到的车斗角点自商图数据KPSQI进行坐标回归,得到车斗角点坐标位置。即坐标回归步骤。
对车斗角点自商图数据KPSQI进行阈值化处理,得到车斗角点二值图BIN,如图3所示。由于原始图像的噪点会影响到阈值的选择,因此实施者应根据具体的相机质量而定,经验值为0.7。对车斗角点二值图BIN进行包围框检测,得到车斗角点的包围框。对包围框内部的车斗角点进行坐标回归计算,得到车斗角点的坐标位置。车斗角点坐标位置可采用softargmax方法计算。
步骤八,取当前车斗视频帧图像I的下一帧图像作为被处理图像,执行上述步骤二到七的处理,获取下一帧图像中的车斗角点坐标位置,如此循环,直至获得顶置相机获取的车斗视频帧图像序列的最后一帧图像的车斗角点坐标位置,从而实现车斗实时定位。
基于实时定位信息,实施者完成相机与行程之间的缩放比例换算以及运动、下料等相关参数,从而实现半挂车物料装填。
本发明提供一种无标半挂车车斗装填定位系统,该系统可以克服现有的信标导航系统专用性过强问题,实现日夜间兼容,最大限度降低手工调试参数量,同时对车辆的车斗尺寸、停靠位置无严格要求。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种用于半挂车物料装填的车斗实时定位方法,其特征在于,该方法包括:
步骤一,将顶置相机获得的当前车斗视频帧图像I作为被处理图像;
步骤二,对被处理图像进行预处理得到半挂车灰度图像G;
步骤三,基于神经侧抑制原理建立光晕图像获取模型,光晕图像数据获取模型的神经侧抑制系数采用高斯分布,构建高斯核,对半挂车灰度图像G进行迭代高斯滤波处理,得到模糊化后的分母图像H;
利用分母图像H,对半挂车灰度图像G做自商图处理,得到初始光晕图像数据SQI’;
对初始光晕图像数据SQI’中超出值域范围的数据进行截断处理得到光晕图像数据SQI;
步骤四,构建形态信息车斗关键点感知模型对光晕图像数据SQI进行车斗外角点特征提取,得到车辆轮廓图像数据SE;
步骤七,基于得到的车斗角点自商图数据KPSQI进行坐标回归,得到车斗角点坐标位置;
步骤八,取当前车斗视频帧图像I的下一帧图像作为被处理图像,执行步骤二至七的处理,获取下一帧图像中的车斗角点坐标位置,如此循环,直至获得顶置相机获取的车斗视频帧图像序列的最后一帧图像的车斗角点坐标位置,从而实现车斗实时定位。
2.如权利要求1所述的用于半挂车物料装填的车斗实时定位方法,其特征在于,所述步骤二中的预处理为灰度化处理,灰处理方法具体为:获取车斗视频帧图像I的RGB数据,分别计算像素点RGB通道分量的最小值U(x,y)=min(R(x,y),G(x,y),B(x,y))和最大值V(x,y)=max(R(x,y),G(x,y),B(x,y)),其中,R(x,y),G(x,y),B(x,y)分别代表位置(x,y)处像素的红、绿、蓝通道分量值,则半挂车灰度图像G=0.5*U(x,y)+0.5*V(x,y)。
4.如权利要求1所述的用于半挂车物料装填的车斗实时定位方法,其特征在于,所述步骤四具体为:
所述形态信息车斗关键点感知模型使用Sobel算子对光晕图像数据SQI进行边缘检测,获得横向的图像灰度值Sx、纵向的图像灰度值Sy;
对Sx以及Sy超出值域的图像灰度进行截断处理;
对Sx以及Sy沿梯度算子的垂直方向进行腐蚀,留出边角;
将腐蚀后的梯度合并,得到车辆轮廓图像数据SE。
5.如权利要求1所述的用于半挂车物料装填的车斗实时定位方法,其特征在于,所述步骤六之后还包括:
对车斗角点自商图数据KPSQI做离差标准化,将其结果映射到[0,1]区间。
6.如权利要求1所述的用于半挂车物料装填的车斗实时定位方法,其特征在于,所述步骤七具体为:
对车斗角点自商图数据KPSQI进行阈值化处理,得到车斗角点二值图BIN;
对车斗角点二值图BIN进行包围框检测,得到车斗角点的包围框;
对包围框内部的车斗角点进行坐标回归计算,得到车斗角点的坐标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911001653.0A CN110766755B (zh) | 2019-10-21 | 2019-10-21 | 用于半挂车物料装填的车斗实时定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911001653.0A CN110766755B (zh) | 2019-10-21 | 2019-10-21 | 用于半挂车物料装填的车斗实时定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110766755A CN110766755A (zh) | 2020-02-07 |
CN110766755B true CN110766755B (zh) | 2020-09-22 |
Family
ID=69332792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911001653.0A Expired - Fee Related CN110766755B (zh) | 2019-10-21 | 2019-10-21 | 用于半挂车物料装填的车斗实时定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766755B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030437B (zh) * | 2023-03-29 | 2023-06-16 | 山东杨嘉汽车制造有限公司 | 基于图像处理的挂车角度识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574817A (zh) * | 2014-12-25 | 2015-04-29 | 清华大学苏州汽车研究院(吴江) | 一种适用于智能手机的基于机器视觉疲劳驾驶预警系统 |
CN106780611A (zh) * | 2016-12-10 | 2017-05-31 | 广东文讯科技有限公司 | 一种使用智能终端摄像头角点检测方法 |
CN108550141A (zh) * | 2018-03-29 | 2018-09-18 | 上海大学 | 一种基于深度视觉信息的运动车斗自动识别与定位方法 |
CN109300099A (zh) * | 2018-08-29 | 2019-02-01 | 努比亚技术有限公司 | 一种图像处理方法、移动终端及计算机可读存储介质 |
-
2019
- 2019-10-21 CN CN201911001653.0A patent/CN110766755B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN110766755A (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106296612B (zh) | 一种图像质量评价和天气状况引导的分级式监控视频清晰化系统及方法 | |
CN107301623B (zh) | 一种基于暗通道和图像分割的交通图像去雾方法及系统 | |
Mu et al. | Lane detection based on object segmentation and piecewise fitting | |
CN108038416B (zh) | 车道线检测方法及系统 | |
CN106991707B (zh) | 一种基于昼夜成像特征的交通信号灯图像强化方法及装置 | |
CN108256521B (zh) | 用于车身颜色识别的有效区域定位方法 | |
CN110059701B (zh) | 一种基于不良光照下的无人机地标图像处理方法 | |
CN105812674A (zh) | 一种信号灯的颜色修正方法、监控方法及装置 | |
CN109934781B (zh) | 图像处理方法、装置、终端设备及计算机可读存储介质 | |
CN112785534A (zh) | 一种动态场景下去鬼影多曝光图像融合方法 | |
CN111754440A (zh) | 车牌图像增强方法、系统、设备及存储介质 | |
CN109359593B (zh) | 一种基于图像局部栅格的雨雪环境画面模糊监测预警方法 | |
WO2019085930A1 (zh) | 车辆中双摄像装置的控制方法和装置 | |
CN114127784A (zh) | 用于生成相机流的掩模的方法、计算机程序产品和计算机可读介质 | |
CN109523474A (zh) | 一种基于雾天退化模型的低照度图像增强方法 | |
CN108810506B (zh) | 一种基于fpga的透雾增强图像处理方法及系统 | |
CN110766755B (zh) | 用于半挂车物料装填的车斗实时定位方法 | |
CN114331873A (zh) | 一种基于区域划分的非均匀光照彩色图像校正方法 | |
CN113077486A (zh) | 一种山区植被覆盖率监测方法及系统 | |
CN108093175B (zh) | 一种实时高清视频自适应去雾方法及装置 | |
CN106803073B (zh) | 基于立体视觉目标的辅助驾驶系统及方法 | |
CN109345479B (zh) | 一种视频监控数据的实时预处理方法及存储介质 | |
CN112863194B (zh) | 一种图像处理方法、装置、终端及介质 | |
CN106327439B (zh) | 一种快速雾霾天图像清晰化方法 | |
CN104660954B (zh) | 低照度场景下基于背景建模的图像亮度提升方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200922 Termination date: 20211021 |
|
CF01 | Termination of patent right due to non-payment of annual fee |