CN109583321A - 一种基于深度学习的结构化道路中小物体的检测方法 - Google Patents
一种基于深度学习的结构化道路中小物体的检测方法 Download PDFInfo
- Publication number
- CN109583321A CN109583321A CN201811329317.4A CN201811329317A CN109583321A CN 109583321 A CN109583321 A CN 109583321A CN 201811329317 A CN201811329317 A CN 201811329317A CN 109583321 A CN109583321 A CN 109583321A
- Authority
- CN
- China
- Prior art keywords
- wisp
- network
- layer
- detection
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习的结构化道路中小物体的检测方法,包括:采集真实的结构化道路上包含小物体的图像数据,通过人工方法标注其中小物体的位置和类别信息;构建适用于结构化道路中小物体检测的深度卷积神经网络及相应的损失函数;将采集到的图像和标注数据输入到前述步骤构建的卷积神经网络中,根据输出值与目标值之间的损失值对神经网络中的参数值进行更新,最后得到理想的网络参数。本发明针对目前的神经网络对小物体检测不佳的问题提出全新的网络结构,在基本不增加计算量的前提下大大提升小物体检测的性能,能方便地部署在现有的智能驾驶系统中,使智能驾驶汽车能远距离地检测到道路上的危险物体,及时地做出反应,提高了行驶过程中的安全性。
Description
技术领域
本发明属于智能驾驶技术领域,特别是涉及一种计算机视觉结合深度学习的特定场景下的目标检测方法。
背景技术
目标检测是计算机视觉领域的基本任务之一,近些年随着深度学习技术的火热发展,目标检测算法也从基于手工特征的传统算法转向了基于深度神经网络的检测技术。目标检测的方法从最初的R-CNN、OverFeat发展到较为成熟的Fast/Faster R-CNN,SSD,YOLO系列,直到最新出现的CornerNet,从面向PC端到面向手机端,都涌现出许多好的算法技术,这些算法在开放目标检测数据集上的检测效果和性能都很出色。可是目前深度卷积网络都是用于通用物体检测任务的,由于训练数据集的限制存在如下缺点:
其一,现有的深度卷积网络的下采样程度较大,图像中的小物体由于本身像素较少,信息会在下采样的过程中丢失,导致网络最后无法输出小物体的检测结果;
其二,现有的深度卷积网络是在全图上做物体检测,耗时长,占用资源大,且容易发生误识别等问题。
发明内容
针对现有技术的上述不足,本发明的目的在于提供一种基于深度学习的结构化道路中小物体的检测方法,其能够利用车载高清相机得到的图像数据,先根据道路消失点的位置得到感兴趣区域,再对感兴趣区域进行超分辨率增强,既节省了计算资源,又增强了小物体的信息,最终实现远距离地检测到道路上的小物体,并能给出较为准确的位置信息和类别信息,给智能驾驶系统充分的时间规避风险,提升了智能驾驶系统的安全性。
为实现上述目的,本发明采用的技术方案如下:
(1)采集真实的结构化道路上包含小物体的图像数据,通过人工方法标注其中小物体的位置和类别信息;
(2)构建适用于结构化道路中小物体检测的深度卷积神经网络及相应的损失函数;
(3)将采集到的图像和标注数据输入到步骤(2)构建的卷积神经网络中,根据输出值与目标值之间的损失值对神经网络中的参数值进行更新,最后得到较为理想的网络参数。
可选地,在步骤(1)中,图像数据的采集与标注步骤如下:
(2-1)对摄像头的内外参进行标定;
(2-2)将道路上较常出现的小物体,如足球、木箱、轮胎等随机组合放在道路上,利用装有摄像头的数据采集车采集图像数据,并记录采集时采集车与小物体的距离及物体类别;
(2-3)利用标注工具对采集到的图像数据进行标注,标注方式包含但不限于像素级标注、目标物体边界框标注,标注内容最少需要包含小物体的位置和类别信息,可以进行拓展,增加可行驶区域、道路边界等信息。
可选地,在步骤(2)中,构建的适用于结构化道路中小物体检测的卷积神经网络及相应的损失函数步骤如下:
(3-1)构建小物体特征提取网络,用于将输入的图像信息进行特征提取与特征编码,得到多尺度的、可用于感兴趣区域检测与小物体检测的共享特征层;
(3-2)构建感兴趣区域检测网络,用于从最后一层共享特征层中提取信息,得到道路的消失点位置及包含小物体的感兴趣区域位置信息;
(3-3)构建特征融合上采样网络,将步骤(3-2)得到的感兴趣区域信息映射到步骤(3-1)中得到的多尺度共享特征层上并进行融合,对融合之后的特征层进行上采样;
(3-4)构建超分辨率增强的小物体检测网络,用于将步骤(3-3)中得到的特征层信息进行超分辨率信息增强,并提取小物体的位置和类别信息;
(3-5)构建平滑化曼哈顿距离损失函数,用于计算网络输出的感兴趣区域位置与感兴趣区域真实位置的损失,以及最后生成的边界框的位置与真实位置的损失;
(3-6)构建适用于类别不平衡的目标检测损失函数,用于计算网络输出的小物体的检测损失,并能抑制样本中小物体与背景的比例的不平衡所造成的影响。
可选地,在步骤(3)中,训练网络的步骤如下:
(4-1)将采集到的图像进行数据预处理,主要步骤包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理;
(4-2)在ImageNet或其他图像分类数据集上利用SoftMax损失函数对小物体特征提取网络进行预训练,得到的参数值作为网络的初始参数;
(4-3)将小物体特征提取网络与感兴趣区域检测网络连接,并将预处理后的图片与标注数据一起输入到网络中,利用平滑化曼哈顿距离损失函数计算网络输出的感兴趣区域位置与真实位置的损失值,进行参数值更新,迭代一定次数后得到较好的网络参数;
(4-4)将(4-3)中得到的感兴趣区域位置映射到小物体特征提取网络的多尺度共享特征层上,对融合之后的特征层进行上采样,并与超分辨率增强的小物体检测网络连接,利用多种损失函数的加权和得到包含边界框位置和类别的综合损失值,再进行网络的参数更新,得到最终结果。
可选地,步骤(3-2)中,在最后一层共享特征层后分别连接2个卷积核大小为1的卷积层,输出消失点热点图和感兴趣区域边界框角点热点图,再分别经过一次角点池化得到消失点位置和边界框角点,最终融合得到感兴趣区域位置信息;
可选地,步骤(3-3)中,将步骤(3-2)得到的感兴趣区域信息映射到步骤(3-1)中得到的多尺度共享特征层上,分别进行2倍、4倍、8倍上采样后进行融合,融合之后的特征层再进行两次上采样,最终得到上采样8倍后的特征层;
可选地,步骤(3-4)中,构建超分辨率增强的小物体检测网络,用于将步骤(3-3)中得到的特征层信息进行超分辨率信息增强,超分辨率分支用相同物体的大尺度特征层作为真值,来增强上采样特征层的小物体特征,检测分支对上采样特征层直接做小物体检测,输出为小物体的类别和边界框的位置;
可选地,步骤(3-5)中,损失函数的计算公式为:
其中,L1表示公式为平滑化曼哈顿距离损失函数,x为自变量,在此处表示网络输出值与真实值之差;
可选地,步骤(3-6)中,损失函数的计算公式为:
其中,C、H、W分别为网络输出的热点图的通道数、高度与宽度,pcij是(i,j)位置处类别c的在预测热点图上的得分,ycij是真实值热点图做非正态高斯变换后的热点图,N是一张图片中物体的类别,α和β是控制每个点贡献值的超参数。
可选地,设定α的值为2,且β的值为4。
由于采用上述方案,本发明的有益效果是:
第一、本发明中提出的感兴趣区域检测网络以道路消失点为导向,能得到包含目标小物体的感兴趣区域,大大缩小了之后的网络的输入数据,节省了大量计算资源,同时方便进行上采样,得到更为丰富的小物体特征信息;
第二、本发明中提出的特征融合上采样网络利用了特征提取网络中多尺度特征层的参数并按照权重进行了融合,实现了对特征层信息的再利用,进一步缩小网络规模,节省计算量,加快计算速度;
第三、本发明中提出的超分辨率增强的小物体检测网络在上采样特征层的基础上,对特征层信息进一步进行超分辨率增强,使特征层包含了更多的特征信息,方便进行小物体的位置检测与类别判断。
附图说明
图1为本发明的深度卷积网络结构示意图。
图2为本发明中小物体特征提取网络的结构示意图。
图3为本发明中感兴趣区域检测网络的结构示意图。
图4为本发明中角点池化的过程示意图。
图5为本发明中特征融合上采样网络的结构示意图。
图6为本发明中超分辨率增强的小物体检测网络的结构示意图。
图7为本发明的深度卷积网络的在自有数据集中单个物体的实验结果图。
图8为本发明的深度卷积网络的在自有数据集中多个物体的实验结果图。
图9为本发明的深度卷积网络在不同尺度下的实验结果之一。
图10为本发明的深度卷积网络在不同尺度下的实验结果之二。
具体实施方式
以下结合附图所示实施例对本发明作进一步的说明。
本发明检测方法的主要步骤包括采集图像数据并进行人工标注、构建适用于适用于结构化道路中小物体检测的深度卷积神经网络及相应的损失函数、将图像与标注数据输入所述神经网络进行训练,得到最终网络参数。本发明针对目前的神经网络对小物体检测不佳的问题提出了一种全新的网络结构,可以在基本不增加计算量的前提下大大提升小物体检测的性能,并能方便地部署在现有的智能驾驶系统中,从而使智能驾驶汽车能远距离地检测到道路上的危险物体,及时地做出反应,提高了行驶过程中的安全性。
本发明提供了一种基于深度学习的结构化道路中小物体的检测方法。该方法以深度卷积神经网络为基础,以道路的消失点为导向,同时融合了超分辨率方法,详细的网络结构图如图1所示。该方法包括如下步骤:
(1)采集真实的结构化道路上包含小物体的图像数据,通过人工方法标注其中小物体的位置和类别信息;
(2)构建适用于结构化道路中小物体检测的深度卷积神经网络及相应的损失函数;
(3)将采集到的图像和标注数据输入到步骤(2)构建的卷积神经网络中,根据输出值与目标值之间的损失值对神经网络中的参数值进行更新,最后得到较为理想的网络参数。
在步骤(1)中,图像数据的采集与标注步骤如下:
(2-1)对摄像头的内外参进行标定,标定内参用于消除镜头造成的图像畸变,标定外参用于确定图像上的路面点对应在现实世界中的位置,标定过程可以参考棋盘法,用待标定摄像头拍摄多张包含棋盘标定板的图像,然后输入Matlab的Calibration工具箱中,得到摄像头的内外参;
(2-2)将道路上较常出现的小物体,如足球、木箱、轮胎等随机组合放在道路上,利用装有摄像头的数据采集车采集图像数据,并记录采集时采集车与小物体的距离及物体类别,注意过程中用到的小物体不但类别可以变化,颜色、形状、大小均可进行变化,采集的场景、天气、光照情况同样可以进行变化,以增加数据的丰富度,推荐的采集流程是采集车由远及近采集不同尺度的小物体的图像,方便之后进行实验分析及处理;
(2-3)利用标注工具对采集到的图像数据进行标注,标注方式包含但不限于像素级标注、目标物体边界框标注,标注内容最少需要包含小物体的位置和类别信息,类别信息包括物体种类和是否有危险,可以进行拓展,增加可行驶区域、道路边界等信息,标注工具可以使用Computer Vision Annotation Tool(CVAT),该工具可以对视频和图像数据进行像素级的标注,同时可以部署在网页端,方便多人协作。
在步骤(2)中,构建的适用于结构化道路中小物体检测的卷积神经网络及相应的损失函数步骤如下:
(3-1)构建小物体特征提取网络,用于将输入的图像信息进行特征提取与特征编码,得到多尺度的、可用于感兴趣区域检测与小物体检测的共享特征层,此部分的整个网络结构如图2所示,由多个残差网络单元串联而成,总共进行3次下采样,下采样倍数为8,得到3个不同尺度的特征层;
(3-2)构建感兴趣区域检测网络,用于从最后一层共享特征层中提取信息,如图3所示,在最后一层共享特征层后分别连接2个卷积核大小为1的卷积层,输出消失点热点图和感兴趣区域边界框角点热点图,再分别经过一次角点池化(如图4所示)得到消失点位置和边界框角点,最终融合得到感兴趣区域位置信息;
(3-3)构建特征融合上采样网络,如图5所示,将步骤(3-2)得到的感兴趣区域信息映射到步骤(3-1)中得到的多尺度共享特征层上,分别进行2倍、4倍、8倍上采样后进行融合,融合之后的特征层再进行两次上采样,最终得到上采样8倍后的特征层;
(3-4)构建超分辨率增强的小物体检测网络,用于将步骤(3-3)中得到的特征层信息进行超分辨率信息增强,如图6所示,超分辨率分支用相同物体的大尺度特征层作为真值,来增强上采样特征层的小物体特征,检测分支对上采样特征层直接做小物体检测,输出为小物体的类别和边界框的位置;
(3-5)构建平滑化曼哈顿距离损失函数,用于计算网络输出的感兴趣区域位置与感兴趣区域真实位置的损失,以及最后生成的边界框的位置与真实位置的损失,损失函数的计算公式为:
其中,L1表示公式为平滑化曼哈顿距离损失函数,x为自变量,在此处表示网络输出值与真实值之差。
(3-6)构建适用于类别不平衡的目标检测损失函数,用于计算网络输出的小物体的检测损失,并能抑制样本中小物体与背景的比例的不平衡所造成的影响,损失函数的计算公式为:
其中,C,H,W分别为网络输出的热点图的通道数,高度与宽度,pcij是(i,j)位置处类别c的在预测热点图上的得分,ycij是真实值热点图做非正态高斯变换后的热点图,N是一张图片中物体的类别,α和β是控制每个点贡献值的超参数,在本实施例中设定α的值为2且β的值为4。
在步骤(3)中,训练网络的步骤如下:
(4-1)将采集到的图像进行数据预处理,主要步骤包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理,本实施例中采用的固定尺寸为2048×1024;
(4-2)在ImageNet或其他图像分类数据集上利用SoftMax损失函数对小物体特征提取网络进行预训练,得到的参数值作为网络的初始参数;
(4-3)将小物体特征提取网络与感兴趣区域检测网络连接,并将预处理后的图片与标注数据一起输入到网络中,利用平滑化曼哈顿距离损失函数计算网络输出的感兴趣区域位置与真实位置的损失值,进行反向传播计算梯度,并使用Adam优化器更新网络参数,迭代一定次数后得到较好的网络参数;
(4-4)将(4-3)中得到的感兴趣区域位置映射到小物体特征提取网络的多尺度共享特征层上,对融合之后的特征层进行上采样,并与超分辨率增强的小物体检测网络连接,利用多种损失函数的加权和得到包含边界框位置和类别的综合损失值,进行反向传播计算梯度,并使用Adam优化器更新网络参数,得到最终结果。最终的实验效果如图7-10所示,从图中可以看出,本发明提出的网络在物体个数及物体尺度变化时均有很好的效果。
总之,本发明提出了一种基于深度学习的结构化道路中小物体的检测方法,占用计算资源少,同时有较高的鲁棒性,能显著增强智能驾驶汽车对道路上远距离危险小物体的感知能力,提高防范与规避危险的能力。
熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于这里的实施例,本领域技术人员根据本发明的揭示,不脱离本发明范畴所做出的改进和修改都应该在本发明的保护范围之内。
Claims (7)
1.一种基于深度学习的结构化道路中小物体的检测方法,其特征在于,包括如下步骤:
(1)采集真实的结构化道路上包含小物体的图像数据,通过人工方法标注其中小物体的位置和类别信息;
(2)构建适用于结构化道路中小物体检测的深度卷积神经网络及相应的损失函数;
(3)将采集到的图像和标注数据输入到步骤(2)构建的卷积神经网络中,根据输出值与目标值之间的损失值对神经网络中的参数值进行更新,最后得到理想的网络参数。
2.根据权利要求1所述的方法,其特征在于,在步骤(1)中,图像数据的采集与标注步骤如下:
(2-1)对摄像头的内外参进行标定;
(2-2)将道路上常出现的小物体随机组合放在道路上,利用装有摄像头的数据采集车采集图像数据,并记录采集时采集车与小物体的距离及物体类别;
(2-3)利用标注工具对采集到的图像数据进行标注,标注方式包含但不限于像素级标注、目标物体边界框标注,标注内容最少需要包含小物体的位置和类别信息,可以进行拓展,增加可行驶区域、道路边界的信息。
3.根据权利要求1所述的方法,其特征在于,在步骤(2)中,构建的适用于结构化道路中小物体检测的卷积神经网络及相应的损失函数步骤如下:
(3-1)构建小物体特征提取网络,用于将输入的图像信息进行特征提取与特征编码,得到多尺度的、可用于感兴趣区域检测与小物体检测的共享特征层;
(3-2)构建感兴趣区域检测网络,用于从最后一层共享特征层中提取信息,得到道路的消失点位置及包含小物体的感兴趣区域位置信息;
(3-3)构建特征融合上采样网络,将步骤(3-2)得到的感兴趣区域信息映射到步骤(3-1)中得到的多尺度共享特征层上并进行融合,对融合之后的特征层进行上采样;
(3-4)构建超分辨率增强的小物体检测网络,用于将步骤(3-3)中得到的特征层信息进行超分辨率信息增强,并提取小物体的位置和类别信息;
(3-5)构建平滑化曼哈顿距离损失函数,用于计算网络输出的感兴趣区域位置与感兴趣区域真实位置的损失,以及最后生成的边界框的位置与真实位置的损失;
(3-6)构建适用于类别不平衡的目标检测损失函数,用于计算网络输出的小物体的检测损失,并能抑制样本中小物体与背景的比例的不平衡所造成的影响。
4.根据权利要求1所述的方法,其特征在于,在步骤(3)中,训练网络的步骤如下:
(4-1)将采集到的图像进行数据预处理,包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理;
(4-2)在ImageNet或其他图像分类数据集上利用SoftMax损失函数对小物体特征提取网络进行预训练,得到的参数值作为网络的初始参数;
(4-3)将小物体特征提取网络与感兴趣区域检测网络连接,并将预处理后的图片与标注数据一起输入到网络中,利用平滑化曼哈顿距离损失函数计算网络输出的感兴趣区域位置与真实位置的损失值,进行参数值更新,迭代后得到理想的网络参数;
(4-4)将步骤(4-3)中得到的感兴趣区域位置映射到小物体特征提取网络的多尺度共享特征层上,对融合之后的特征层进行上采样,并与超分辨率增强的小物体检测网络连接,利用多种损失函数的加权和得到包含边界框位置和类别的综合损失值,再进行网络的参数更新,得到最终结果。
5.根据权利要求2所述的方法,其特征在于,步骤(2-2)中所述的小物体包括足球、木箱、轮胎。
6.根据权利要求2所述的方法,其特征在于:在步骤(3-1)中总共进行3次下采样,下采样倍数为8,得到3个不同尺度的特征层;
步骤(3-2)中,在最后一层共享特征层后分别连接2个卷积核大小为1的卷积层,输出消失点热点图和感兴趣区域边界框角点热点图,再分别经过一次角点池化得到消失点位置和边界框角点,最终融合得到感兴趣区域位置信息;
步骤(3-3)中,将步骤(3-2)得到的感兴趣区域信息映射到步骤(3-1)中得到的多尺度共享特征层上,分别进行2倍、4倍、8倍上采样后进行融合,融合之后的特征层再进行两次上采样,最终得到上采样8倍后的特征层;
步骤(3-4)中,构建超分辨率增强的小物体检测网络,用于将步骤(3-3)中得到的特征层信息进行超分辨率信息增强,超分辨率分支用相同物体的大尺度特征层作为真值,来增强上采样特征层的小物体特征,检测分支对上采样特征层直接做小物体检测,输出为小物体的类别和边界框的位置;
步骤(3-5)中,损失函数的计算公式为:
其中,L1表示公式为平滑化曼哈顿距离损失函数,x为自变量,在此处表示网络输出值与真实值之差;
步骤(3-6)中,损失函数的计算公式为:
其中,C、H、W分别为网络输出的热点图的通道数、高度与宽度,pcij是(i,j)位置处类别c的在预测热点图上的得分,ycij是真实值热点图做非正态高斯变换后的热点图,N是一张图片中物体的类别,α和β是控制每个点贡献值的超参数。
7.根据权利要求6所述的方法,其特征在于:设定α的值为2,且β的值为4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811329317.4A CN109583321A (zh) | 2018-11-09 | 2018-11-09 | 一种基于深度学习的结构化道路中小物体的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811329317.4A CN109583321A (zh) | 2018-11-09 | 2018-11-09 | 一种基于深度学习的结构化道路中小物体的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109583321A true CN109583321A (zh) | 2019-04-05 |
Family
ID=65922028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811329317.4A Pending CN109583321A (zh) | 2018-11-09 | 2018-11-09 | 一种基于深度学习的结构化道路中小物体的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583321A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147753A (zh) * | 2019-05-17 | 2019-08-20 | 电子科技大学 | 一种检测图像中小物体的方法及装置 |
CN110288524A (zh) * | 2019-05-09 | 2019-09-27 | 广东启迪图卫科技股份有限公司 | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 |
CN111008555A (zh) * | 2019-10-21 | 2020-04-14 | 武汉大学 | 一种无人机图像弱小目标增强提取方法 |
CN111191508A (zh) * | 2019-11-28 | 2020-05-22 | 浙江省北大信息技术高等研究院 | 人脸识别方法及装置 |
CN111507958A (zh) * | 2020-04-15 | 2020-08-07 | 全球能源互联网研究院有限公司 | 目标检测方法、检测模型的训练方法及电子设备 |
CN111815981A (zh) * | 2019-04-10 | 2020-10-23 | 黑芝麻智能科技(重庆)有限公司 | 用于检测远距离道路上的物体的系统和方法 |
CN111325739B (zh) * | 2020-02-28 | 2020-12-29 | 推想医疗科技股份有限公司 | 肺部病灶检测的方法及装置,和图像检测模型的训练方法 |
CN113221761A (zh) * | 2021-05-17 | 2021-08-06 | 深圳大学 | 基于集成式Yolo网络的iPSCs群落检测方法、存储介质及装置 |
CN113326763A (zh) * | 2021-05-25 | 2021-08-31 | 河南大学 | 一种基于边界框一致性的遥感目标检测方法 |
WO2021227645A1 (zh) * | 2020-05-14 | 2021-11-18 | 华为技术有限公司 | 目标检测方法和装置 |
US11200455B2 (en) | 2019-11-22 | 2021-12-14 | International Business Machines Corporation | Generating training data for object detection |
CN114167404A (zh) * | 2020-09-11 | 2022-03-11 | 华为技术有限公司 | 目标跟踪方法及装置 |
CN114898204A (zh) * | 2022-03-03 | 2022-08-12 | 中国铁路设计集团有限公司 | 一种基于深度学习的轨道交通周边危险源检测方法 |
TWI807561B (zh) * | 2021-12-28 | 2023-07-01 | 國立陽明交通大學 | 嵌入式深度學習多尺度物件偵測暨即時遠方區域定位裝置及其方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
-
2018
- 2018-11-09 CN CN201811329317.4A patent/CN109583321A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111815981A (zh) * | 2019-04-10 | 2020-10-23 | 黑芝麻智能科技(重庆)有限公司 | 用于检测远距离道路上的物体的系统和方法 |
CN110288524A (zh) * | 2019-05-09 | 2019-09-27 | 广东启迪图卫科技股份有限公司 | 基于增强型上采样和辨别融合机制的深度学习超分辨率方法 |
CN110147753A (zh) * | 2019-05-17 | 2019-08-20 | 电子科技大学 | 一种检测图像中小物体的方法及装置 |
CN111008555A (zh) * | 2019-10-21 | 2020-04-14 | 武汉大学 | 一种无人机图像弱小目标增强提取方法 |
US11200455B2 (en) | 2019-11-22 | 2021-12-14 | International Business Machines Corporation | Generating training data for object detection |
CN111191508A (zh) * | 2019-11-28 | 2020-05-22 | 浙江省北大信息技术高等研究院 | 人脸识别方法及装置 |
CN111325739B (zh) * | 2020-02-28 | 2020-12-29 | 推想医疗科技股份有限公司 | 肺部病灶检测的方法及装置,和图像检测模型的训练方法 |
CN111507958B (zh) * | 2020-04-15 | 2023-05-26 | 全球能源互联网研究院有限公司 | 目标检测方法、检测模型的训练方法及电子设备 |
CN111507958A (zh) * | 2020-04-15 | 2020-08-07 | 全球能源互联网研究院有限公司 | 目标检测方法、检测模型的训练方法及电子设备 |
WO2021227645A1 (zh) * | 2020-05-14 | 2021-11-18 | 华为技术有限公司 | 目标检测方法和装置 |
CN114167404A (zh) * | 2020-09-11 | 2022-03-11 | 华为技术有限公司 | 目标跟踪方法及装置 |
CN113221761A (zh) * | 2021-05-17 | 2021-08-06 | 深圳大学 | 基于集成式Yolo网络的iPSCs群落检测方法、存储介质及装置 |
CN113221761B (zh) * | 2021-05-17 | 2023-09-05 | 深圳大学 | 基于集成式Yolo网络的iPSCs群落检测方法、存储介质及装置 |
CN113326763A (zh) * | 2021-05-25 | 2021-08-31 | 河南大学 | 一种基于边界框一致性的遥感目标检测方法 |
TWI807561B (zh) * | 2021-12-28 | 2023-07-01 | 國立陽明交通大學 | 嵌入式深度學習多尺度物件偵測暨即時遠方區域定位裝置及其方法 |
CN114898204A (zh) * | 2022-03-03 | 2022-08-12 | 中国铁路设计集团有限公司 | 一种基于深度学习的轨道交通周边危险源检测方法 |
CN114898204B (zh) * | 2022-03-03 | 2023-09-05 | 中国铁路设计集团有限公司 | 一种基于深度学习的轨道交通周边危险源检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583321A (zh) | 一种基于深度学习的结构化道路中小物体的检测方法 | |
CN109934200B (zh) | 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统 | |
CN103400151B (zh) | 一体化的光学遥感影像与gis自动配准与水体提取方法 | |
CN111080629A (zh) | 一种图像拼接篡改的检测方法 | |
CN105335716B (zh) | 一种基于改进udn提取联合特征的行人检测方法 | |
Gao et al. | MLNet: Multichannel feature fusion lozenge network for land segmentation | |
CN110533084A (zh) | 一种基于自注意力机制的多尺度目标检测方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN113011427A (zh) | 基于自监督对比学习的遥感图像语义分割方法 | |
CN109508710A (zh) | 基于改进YOLOv3网络的无人车夜间环境感知方法 | |
CN106127204A (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
CN109543632A (zh) | 一种基于浅层特征融合引导的深层网络行人检测方法 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN110069993A (zh) | 一种基于深度学习的目标车辆检测方法 | |
CN108647695A (zh) | 基于协方差卷积神经网络的低对比度图像显著性检测方法 | |
CN112529065B (zh) | 一种基于特征对齐和关键点辅助激励的目标检测方法 | |
CN107452022A (zh) | 一种视频目标跟踪方法 | |
CN110245587B (zh) | 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法 | |
CN109165658A (zh) | 一种基于Faster-RCNN的强负样本水下目标检测方法 | |
CN108776777A (zh) | 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法 | |
CN109558808A (zh) | 一种基于深度学习的路边沿检测方法 | |
Junwu et al. | An infrared and visible image fusion algorithm based on LSWT-NSST | |
CN109214331A (zh) | 一种基于图像频谱的交通雾霾能见度检测方法 | |
CN110889840A (zh) | 面向地物目标的高分6号遥感卫星数据的有效性检测方法 | |
CN113313094A (zh) | 一种基于卷积神经网络的车载图像目标检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190405 |
|
WD01 | Invention patent application deemed withdrawn after publication |