CN110008792A - 图像检测方法、装置、计算机设备及存储介质 - Google Patents
图像检测方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110008792A CN110008792A CN201810011477.8A CN201810011477A CN110008792A CN 110008792 A CN110008792 A CN 110008792A CN 201810011477 A CN201810011477 A CN 201810011477A CN 110008792 A CN110008792 A CN 110008792A
- Authority
- CN
- China
- Prior art keywords
- image
- image slices
- category
- information
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种图像检测方法、装置、计算机设备及存储介质,其中,方法包括:对采集的图像进行规则切分,形成多个第一图像分片;将第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,第一检测结果中包括第一图像分片的第一位置信息和第一类别信息;从图像中截取与第一位置信息匹配的第二图像分片;将第二图像分片输入到第二层联合神经网络中进行目标检测,得到第二检测结果;其中,第二检测结果中包括第二图像分片的第二位置信息和第二类别信息;根据第二类别信息,确定第二图像分片中所属的目标类别和目标类别的置信度。通过本方法,极大地减少了需要检测的区域数量,能够缩短检测耗时,提高检测效率和检测精度。
Description
技术领域
本发明涉及轨道交通技术领域,尤其涉及一种图像检测方法、装置、计算机设备及存储介质。
背景技术
在轨道交通领域,随着无人驾驶技术的研究热度不断攀升,如何检测列车前方的障碍物以保证列车安全运行逐渐成为研究热点。
目前,主要通过目标检测来识别列车前方的障碍物。相关技术中,主要采用区域卷积神经网络特征(Regions with Convolutional Neural Network Features,RCNN)算法实现目标检测。
然而,RCNN算法主要针对较大的目标进行检测,而列车行驶过程中需要检测的目标相对较小,采用RCNN算法进行检测的检测效果较差,准确度低。此外,由于列车行驶速度较快,对于实时性要求较高,而RCNN算法针对每一张图像都要选出2000~3000个候选区域进行检测,耗时较长,检测效率低,难以满足实时性要求。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种图像检测方法,以将采集的图像切分成多个图像分片后进行两次检测,得到检测结果。通过将采集的图像切分成多个图像分片进行检测,极大地减少了需要检测的区域数量,能够缩短检测耗时,提高检测效率,满足实时性要求;通过进行两次检测,能够提高检测精度和检测效果,提高在列车运行场景中的适应性。
本发明的第二个目的在于提出一种图像检测装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为达上述目的,本发明第一方面实施例提出了一种图像检测方法,包括:
采集图像,对所述图像进行规则切分,形成多个第一图像分片;
将所述第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,所述第一检测结果中包括所述第一图像分片的第一位置信息和第一类别信息;所述第一层联合神经网络中包括对所述第一图像分片进行位置检测的第一位置预测神经网络和对所述第一图像分片进行目标类别检测的第一分类神经网络;
从所述图像中截取与所述第一位置信息匹配的第二图像分片;
将所述第二图像分片输入到第二层联合神经网络中进行目标检测,得到所述第二检测结果;其中,所述第二检测结果中包括所述第二图像分片的第二位置信息和第二类别信息;其中,所述第二层联合神经网络包括对所述第二图像分片进行位置检测的第二位置预测神经网络和对所述第二图像分片进行目标类别检测的第二分类神经网络;
根据所述第二类别信息,确定所述第二图像分片中所属的目标类别和所述目标类别的置信度。
本发明实施例的图像检测方法,通过对采集的图像进行规则切分形成多个第一图像分片,将第一图像分片输入到第一层联合神经网络中进行目标检测,得到包含第一图像分片的第一位置信息的第一检测结果,再从图像中截取与第一位置信息匹配的第二图像分片,将第二图像分片输入到第二层联合神经网络中进行目标检测,得到包含第二图像分片的第二类别信息的第二检测结果,进而根据第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度。通过将采集的图像切分成多个图像分片进行检测,极大地减少了需要检测的区域数量,缩短了检测耗时,提高了检测效率,满足了实时性要求;通过进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
为达上述目的,本发明第二方面实施例提出了一种图像检测装置,包括:
切分模块,用于采集图像,并对所述图像进行规则切分,形成多个第一图像分片;
第一检测模块,用于将所述第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,所述第一检测结果中包括所述第一图像分片的第一位置信息和第一类别信息;所述第一层联合神经网络中包括对所述第一图像分片进行位置检测的第一位置预测神经网络和对所述第一图像分片进行目标类别检测的第一分类神经网络;
图片截取模块,用于从所述图像中截取与所述第一位置信息匹配的第二图像分片;
第二检测模块,用于将所述第二图像分片输入到第二层联合神经网络中进行目标检测,得到所述第二检测结果;其中,所述第二检测结果中包括所述第二图像分片的第二位置信息和第二类别信息;其中,所述第二层联合神经网络包括对所述第二图像分片进行位置检测的第二位置预测神经网络和对所述第二图像分片进行目标类别检测的第二分类神经网络;
确定模块,用于根据所述第二类别信息,确定所述第二图像分片所属的目标类别和所述目标类别的置信度。
本发明实施例的图像检测装置,通过对采集的图像进行规则切分形成多个第一图像分片,将第一图像分片输入到第一层联合神经网络中进行目标检测,得到包含第一图像分片的第一位置信息的第一检测结果,再从图像中截取与第一位置信息匹配的第二图像分片,将第二图像分片输入到第二层联合神经网络中进行目标检测,得到包含第二图像分片的第二类别信息的第二检测结果,进而根据第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度。通过将采集的图像切分成多个图像分片进行检测,极大地减少了需要检测的区域数量,缩短了检测耗时,提高了检测效率,满足了实时性要求;通过进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
为达上述目的,本发明第三方面实施例提出了一种计算机设备,包括存储器、处理器和存储在所述存储器上并可在所述处理器上运行的计算机程序,当所述处理器执行所述计算机程序时,实现如第一方面实施例所述的图像检测方法。
为达上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面实施例所述的图像检测方法。
为达上述目的,本发明第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时实现如第一方面实施例所述的图像检测方法。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例一所提供的图像检测方法的流程示意图;
图2为本发明实施例二所提供的图像检测方法的流程示意图;
图3为本发明实施例中根据第一类别信息和第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度的方法流程示意图;
图4为本发明实施例一所提供的图像检测装置的结构示意图;
图5为本发明实施例二所提供的图像检测装置的结构示意图;
图6为本发明实施例三所提供的图像检测装置的结构示意图;以及
图7为本发明实施例所提供的计算机设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的图像检测方法、装置、计算机设备及存储介质。
现有技术中,通常采用RCNN算法进行目标检测,具体过程如下:首先,利用Selective Search算法从一张图像中选择2000~3000个候选区域,具体地,充分分割待检测的图像,将图像分割成多个小区域后,再根据一定的规则合并可能性最高的两个区域,直到最终合并成一个区域,将合并过程中出现的区域输出,作为候选区域;进而,对得到的每个候选区域使用深度学习网络提取特征,再利用多类的支持向量机(Support VectorMachine,SVM)分类器进行分类,得到检测结果。
然而,上述RCNN算法是一种通用的检测方法,不具有针对性,当对列车行驶时拍摄的列车前方的画面进行目标检测时,未考虑列车的行驶特性,导致检测效果不佳,主要包括以下方面:
(1)列车行驶速度较快,对实时性要求较高,若将每一张待检测的图片均从中选出2000~3000个候选区域,再针对每个候选区域进行类别判断,耗时长,检测效率低;
(2)列车行驶过程中,列车前方的画面是由远到近的,画面中的目标由大到小变化,且逐渐清晰,现有的检测算法未考虑到上述列车行驶特性;
(3)列车行驶过程中,需要检测的目标相对较小,而现有的目标检测方法主要针对较大的目标进行检测,对较小的目标检测效果差。
针对上述问题,本发明实施例提供了一种图像检测方法,以提高目标检测的检测效率和检测精度,解决现有技术中检测效率低、效果差的技术问题。
图1为本发明实施例一所提供的图像检测方法的流程示意图。如图1所示,该图像检测方法包括以下步骤:
步骤101,采集图像,对图像进行规则切分,形成多个第一图像分片。
本实施例中,可以在列车的车头位置安装图像采集装置,由图像采集装置实时地或周期性地采集列车车头前方和/或侧方的图像,进而从图像采集装置获取采集的图像,并对采集的图像进行规则切分,形成多个第一图像分片。此处需要说明的是,也可以将目标检测程序移植在图像采集装置内,图像采集装置采集了图像之后,直接进行目标检测,本发明对此不作限制。
比如,从图像采集装置获取了一幅图像之后,可以利用15*15的格子进行划分,将图像划分为225个规则的区域,每个区域即为一个第一图像分片,该图像被规则划分为225个第一图像分片。
步骤102,将第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,第一检测结果中包括第一图像分片的第一位置信息和第一类别信息。
其中,第一层联合神经网络中包括对第一图像分片进行位置检测的第一位置预测神经网络和对第一图像分片进行目标类别检测的第一分类神经网络。第一位置预测神经网络和第一分类神经网络可以预先训练得到,通过采集大量的图像样本,将图像样本作为输入,图像样本中各个图像分片所在的位置的坐标和图像分片中的目标所属的类别作为输出,分别对第一位置预测神经网络和第一分类神经网络进行训练,得到训练后的第一位置预测神经网络和第一分类神经网络。
本实施例中,将图像规则划分为多个第一图像分片之后,将所得的第一图像分片输入至第一层联合神经网络中,进行第一次检测,得到每个第一图像分片的第一位置信息和第一类别信息。其中,第一位置信息中包括第一图像分片的所在位置的坐标信息和大小信息(长和宽);第一类别信息中包括识别出的第一图像分片中目标所属的类别以及属于该类别的概率。
作为一种示例,在利用第一层联合神经网络进行检测时,可以以每个第一图像分片为中心进行检测,针对每个第一图像分片预测两个区域框,每个区域框用25个浮点数预测,其中,20个浮点数用来表示该区域框的类别信息,1个浮点数表示置信度,即属于识别出的类别的概率,剩余的4个浮点数分别用来表示该区域框的位置信息(bx,by,bw,bh),bx和by表示该区域框的位置信息,bw和bh分别表示该区域框的长和宽。从而,对于一幅图像,第一层联合神经网络的输出为15*15*2*25的数值。
步骤103,从图像中截取与第一位置信息匹配的第二图像分片。
本实施例中,得到图像的每个第一图像分片的第一位置信息之后,可以从图像中截取与第一位置信息匹配的第二图像分片,以利用第二图像分片进行第二次检测。
步骤104,将第二图像分片输入到第二层联合神经网络中进行目标检测,得到第二检测结果;其中,第二检测结果中包括第二图像分片的第二位置信息和第二类别信息。
其中,第二层联合神经网络包括对第二图像分片进行位置检测的第二位置预测神经网络和对第二图像分片进行目标类别检测的第二分类神经网络。第二位置预测神经网络和第二分类神经网络也可以预先训练得到。
由于列车的行驶特征,需要检测的图像中的目标相对较小,经第一层联合神经网络检测所得的结果不够精确,可以对截取的第二图像分片再次进行检测。由于第二图像分片是根据第一次检测结果中的第一位置信息截取的,第二图像分片的个数可以多于第一图像分片。比如,如果将一幅图像规则划分为225个第一图像分片,针对每个第一图像分片预测2个区域框,则第一检测结果中包含225*2个区域框的第一位置信息,根据第一位置信息,可以从图像中截取450个第二图像分片,第二图像分片的个数是第一图像分片个数的2倍。
进而,将截取的第二图像分片输入至第二层联合神经网络中进行检测,可以得到第二图像分片的第二位置信息和第二类别信息。其中,第二位置信息中包括第二图像分片的所在位置的坐标信息和大小信息(长和宽);第二类别信息中包括识别出的第二图像分片中目标所属的类别以及属于该类别的概率。
本实施例中的第一位置预测神经网络和第二位置预测神经网络可以采用RCNN算法,第一分类神经网络和第二分类神经网络可以采用多类的SVM算法。
步骤105,根据第二类别信息,确定第二图像分片所属的目标类别和目标类别的置信度。
本实施例中,经过第二次联合神经网络得到第二检测结果之后,可以根据第二检测结果中的第二类别信息确定第二图像分片所属的目标类别和该目标类别对应的置信度。
比如,第二类别信息中包括识别出的第二图像分片中目标所属的类别以及属于该类别的概率,可以比较第二图像分片中的目标属于每个类别的概率,将概率最大的类别确定为该第二图像分片的目标类别,将与目标类别对应的概率确定为目标类别的置信度。
本实施例的图像检测方法,通过对采集的图像进行规则切分形成多个第一图像分片,将第一图像分片输入到第一层联合神经网络中进行目标检测,得到包含第一图像分片的第一位置信息的第一检测结果,再从图像中截取与第一位置信息匹配的第二图像分片,将第二图像分片输入到第二层联合神经网络中进行目标检测,得到包含第二图像分片的第二类别信息的第二检测结果,进而根据第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度。通过将采集的图像切分成多个图像分片进行检测,极大地减少了需要检测的区域数量,缩短了检测耗时,提高了检测效率,满足了实时性要求;通过进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
图2为本发明实施例二所提供的图像检测方法的流程示意图。
如图2所示,该图像检测方法包括以下步骤:
步骤201,采集图像,对图像进行去除噪声和/或压缩处理。
由于列车在行驶过程中,图像采集装置难免受到一些非期望的自然光的干扰,尤其是可能受到列车车头的挡风玻璃对光的反射或者折射造成的影响,在对采集的图像进行切分之前,可以先对图像进行去噪处理;和/或,还可以对图像进行压缩处理,以将图像压缩至固定大小,减小图像的数据量,比如将图像压缩至640*360*3大小,其中,3表示RGB三通道数据,每个通道为640*360的矩阵。
步骤202,对图像进行规则切分,形成多个第一图像分片。
本实施例中,对步骤202的描述可以参见前述实施例中对步骤101的描述,此处不再赘述。
步骤203,将第一图像分片输入到第一位置预测神经网络中,得到第一图像分片的第一位置信息和第一图像分片的特征信息;其中,第一位置信息中包括第一图像分片的坐标信息和形状信息。
本实施例中,对预处理后的图像进行切分得到多个第一图像分片之后,可以先将第一图像分片输入至第一位置预测神经网络中,得到第一图像分片的第一位置信息和特征信息。其中,特征信息比如可以包括颜色、亮度、饱和度等。
此处需要说明的是,第一位置预测神经网络可以预先训练得到。
步骤204,将第一图像分片的形状信息和特征信息,输入到第一分类神经网络中,得到第一类别信息。
其中,第一类别信息包括第一图像分片对应的第一目标类别和属于第一目标类别的第一概率。
具体地,可以将第一图像分片的形状信息和特征信息输入到第一分类神经网络中,得到第一图像分片属于每个类别的第一概率,将最大第一概率对应的类别作为第一目标类别,利用第一目标类别和第一目标类别的第一概率,形成第一类别信息。
本实施例中,针对每个第一图像分片,将第一图像分片的形状信息和特征信息输入到第一分类神经网络中,可以得到第一图像分片可能属于的多个不同的类别,以及属于每个类别的概率,从中选择概率最大的类别作为该第一图像分片的目标类别以及对应的概率,进而利用目标类别和对应的概率形成第一类别信息。
此处需要说明的是,第一分类神经网络可以预先训练获得。
步骤205,根据第一位置信息中的坐标信息,在图像中进行定位。
本实施例中,得到第一图像分片的第一位置信息之后,可以根据第一位置信息中的坐标信息,在图像中进行定位,其中用于定位的图像可以是经去噪和/或压缩处理后的图像,在图像中确定与坐标信息指示的位置相同的位置,实现定位。
步骤206,从图像中所定位的位置,按照第一位置信息中的形状信息,截取第二图像分片。
在图像中确定了与第一位置信息中的坐标信息匹配的位置之后,可以在所定位的位置处,截取与第一位置信息中的形状信息大小匹配的区域,形成第二图像分片。根据对采集的图像进行切分得到的多个第一图像分片对应的多个第一位置信息,可以从图像中截取多个第二图像分片。
步骤207,将第二图像分片输入到第二位置预测神经网络中,得到第二图像分片的第二位置信息和第二图像分片的特征信息;其中,第二位置信息中包括第二图像分片的坐标信息和形状信息。
其中,特征信息比如可以包括颜色、亮度、饱和度等。
步骤208,将第二图像分片的形状信息和特征信息,输入到第二分类神经网络中,得到第二类别信息。
其中,第一类别信息包括第一图像分片对应的第二目标类别和属于第二目标类别的第二概率。
具体地,可以将第二图像分片的形状信息和特征信息输入到第二分类神经网络中,得到第二图像分片属于每个类别的第二概率,将最大第二概率对应的类别作为第二目标类别,进而,利用第二目标类别和第二目标类别的第二概率,形成第二类别信息。
步骤209,根据第二类别信息,确定第二图像分片所属的目标类别和目标类别的置信度。
此处需要说明的是,本实施例中,对步骤209的描述可以参见前述实施例中对步骤105的描述,此处不再赘述。
本实施例的图像检测方法,通过对采集的图像进行去噪和/或压缩处理,能够避免外界非期望的自然光的干扰和/或减小待检测图像的数据量;通过将检测过程分为两部分,进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
本发明实施例的图像检测方法,除了根据第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度之外,还可以根据第一类别信息和第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度,以进一步提高目标检测的准确度和检测效果。
具体地,如图3所示,当第一类别信息中包括第一图像分片所属的第一目标类别和第一目标类别的第一概率,第二类别信息中包括第二图像分片所属的第二目标类别和第二目标类别的第二概率时,根据第一类别信息和第二类别信息,确定第二图像分片所属的目标类别和目标类别的置信度,可以包括以下步骤:
步骤301,针对每个第二图像分片,确定与第二图像分片对应的第一图像分片。
本实施例中,可以根据第二图像分片的第二位置信息中的坐标信息确定与第二图像分片对应的第一图像分片。具体地,针对每个第二图像分片,可以根据第二位置信息中的坐标信息,查询所有第一图像分片的第一位置信息中的坐标信息,将与第二位置信息中的坐标信息一致的第一位置信息对应的第一图像分片确定为与该第二图像分片对应的第一图像分片。
步骤302,对第一图像分片的第一类别信息与第二类别信息进行数据融合,根据融合后的结果确定第二图像分片的目标类别和目标类别的置信度。
具体地,可以在第一图像分片的第一目标类别与第二图像分片的第二目标类别一致时,将第二目标类别作为第二图像分片的目标类别,并将第一图像分片的第一概率和第二图像分片的第二概率进行比较,将第一概率和第二概率中概率大的作为目标类别的置信度;在第一图像分片的第一目标类别与第二图像分片的第二目标类别不一致时,将第一概率和第二概率分别与各自对应的权重相乘,得到第一数值和第二数值,比较第一数值和第二数值,将数值大的对应类别作为目标类别,将第一数值和第二数值相加的和值作为目标类别的置信度。
其中,第一概率和第二概率各自的权重可以预先设置,本发明对权重的大小设置不作限定。优选地,由于第二概率是对第二图像分片进行检测得到的,第二图像分片的个数是第一图像分片的整数倍,第二图像分片的大小相对于第一图像分片更小,检测得到的第二概率可能更加准确,可以为第二概率设置较大的权重,为第一概率设置较小的权重。
本实施例中,通过确定每个第二图像分片对应的第一图像分片,对第一类别信息和第二类别信息进行数据融合,根据融合后的结果确定第二图像分片的目标类别和目标类别的置信度,能够进一步提高目标检测的准确度和检测效果。
上述实施例中,根据第二类别信息或者第一类别信息和第二类别信息确定的第二图像分片所属的目标类别和目标类别的置信度中,可能存在一些类别重复或者参考价值不高的第二图像分片。为了精简检测结果,在本发明实施例一种可能的实现方式中,在确定第二图像分片所属的目标类别和目标类别的置信度之后,还可以根据第二位置信息和目标类别对应的置信度,对所有的第二图像分片进行去重处理。
具体地,对第二图像分片进行去重处理时,可以先根据第二位置信息,计算相邻的第二图像分片之间的重叠度,在相邻的第二图像分片的目标类别一致且重叠度超出预设的第一阈值时,则将目标类别对应的置信度低的第二图像分片丢弃;在相邻的第二图像分片的目标类别不一致且重叠度超出预设的第二阈值时,则将目标类别对应的置信度低的第二图像分片丢弃。
其中,第一阈值和第二阈值是预先设置的,第二阈值可以大于第一阈值。通过在相邻的第二图像分片的目标类别不一致且重叠度超出第二阈值时,将目标类别对应的置信度低的第二图像分片丢弃,可以排除误识别的第二图像分片,排除错误分类对检测结果的影响。
作为一种可能的实现方式,可以将第二图像分片的第二检测结果按照第二类别信息组成一个概率分布的map,结合map和预设的去重规则,去除第二图像分片中重叠度较大的第二图像分片,再利用阈值过滤器,滤除部分置信度较低的第二图像分片,最终得到比较精简的检测结果。
通过对所有的第二图像分片进行去重处理,能够排除第二图像分片中重叠比例较大、置信度较低的第二图像分片,简化检测结果。
为了实现上述实施例,本发明还提出一种图像检测装置。
图4为本发明实施例一所提供的图像检测装置的结构示意图。
如图4所示,该图像检测装置40包括:切分模块410、第一检测模块420、图片截取模块430、第二检测模块440,以及确定模块450。其中,
切分模块410,用于采集图像,并对图像进行规则切分,形成多个第一图像分片。
第一检测模块420,用于将第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,第一检测结果中包括第一图像分片的第一位置信息和第一类别信息。
其中,第一层联合神经网络中包括对第一图像分片进行位置检测的第一位置预测神经网络和对第一图像分片进行目标类别检测的第一分类神经网络。
图片截取模块430,用于从图像中截取与第一位置信息匹配的第二图像分片。
第二检测模块440,用于将第二图像分片输入到第二层联合神经网络中进行目标检测,得到第二检测结果;其中,第二检测结果中包括第二图像分片的第二位置信息和第二类别信息。
其中,第二层联合神经网络包括对第二图像分片进行位置检测的第二位置预测神经网络和对第二图像分片进行目标类别检测的第二分类神经网络。
确定模块450,用于根据第二类别信息,确定第二图像分片所属的目标类别和目标类别的置信度。
进一步地,在本发明实施例一种可能的实现方式中,如图5所示,在如图4所示实施例的基础上,该图像检测装置40还可以包括:
预处理模块400,用于对图像进行规则切分,形成多个第一图像分片之前,对图像进行去除噪声和/或压缩处理。
第一检测模块420包括:
第一位置预测单元421,用于将第一图像分片输入到第一位置预测神经网络中,得到第一图像分片的第一位置信息和第一图像分片的特征信息;其中,第一位置信息中包括第一图像分片的坐标信息和形状信息。
第一分类单元422,用于将第一图像分片的形状信息和特征信息,输入到第一分类神经网络中,得到第一类别信息;其中,第一类别信息包括第一图像分片对应的第一目标类别和属于第一目标类别的第一概率。
具体地,第一分类神经网络422用于将第一图像分片的形状信息和特征信息输入到第一分类神经网络中,得到第一图像分片属于每个类别的第一概率;将最大第一概率对应的类别作为第一目标类别;利用第一目标类别和第一目标类别的第一概率,形成第一类别信息。
图片截取模块430包括:
定位单元431,用于根据第一位置信息中的坐标信息,在图像中进行定位。
截取单元432,用于从图像中所定位的位置,按照第一位置信息中的形状信息,截取第二图像分片。
第二检测模块440包括:
第二位置预测单元441,用于将第二图像分片输入到第二位置预测神经网络中,得到第二图像分片的第二位置信息和第二图像分片的特征信息;其中,第二位置信息中包括第二图像分片的坐标信息和形状信息。
第二分类单元442,用于将第二图像分片的形状信息和特征信息,输入到第二分类神经网络中,得到第二类别信息;其中,第一类别信息包括第一图像分片对应的第二目标类别和属于第二目标类别的第二概率。
具体地,第二分类单元442用于将第二图像分片的形状信息和特征信息输入到第二分类神经网络中,得到第二图像分片属于每个类别的第二概率;将最大第二概率对应的类别作为第二目标类别;利用第二目标类别和第二目标类别的第二概率,形成第二类别信息。
通过对采集的图像进行去噪和/或压缩处理,能够避免外界非期望的自然光的干扰和/或减小待检测图像的数据量;通过将检测过程分为两部分,进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
在本发明实施例一种可能的实现方式中,确定模块450还用于根据第一类别信息和第二类别信息,确定第二图像分片所属的目标类别和目标类别的置信度。
具体地,当第一类别信息中包括第一图像分片所属的第一目标类别和第一目标类别的第一概率,第二类别信息中包括第二图像分片所属的第二目标类别和第二目标类别的第二概率时,如图6所示,在如图4所示实施例的基础上,确定模块450可以包括:
确定单元451,用于针对每个第二图像分片,确定与第二图像分片对应的第一图像分片。
目标类别确定单元452,用于对第一图像分片的第一类别信息与第二类别信息进行数据融合,根据融合后的结果确定第二图像分片的目标类别和目标类别的置信度。
具体地,目标类别确定单元452用于当第一图像分片的第一目标类别与第二图像分片的第二目标类别一致时,将第二目标类别作为第二图像分片的目标类别,将第一图像分片的第一概率和第二图像分片的第二概率进行比较,将第一概率和第二概率中概率大的作为目标类别的置信度;当第一图像分片的第一目标类别与第二图像分片的第二目标类别不一致时,将第一概率和第二概率分别与各自对应的权重相乘,得到第一数值和第二数值,比较第一数值和第二数值,将数值大的对应类别作为目标类别,将第一数值和第二数值相加的和值作为目标类别的置信度。
通过确定每个第二图像分片对应的第一图像分片,对第一类别信息和第二类别信息进行数据融合,根据融合后的结果确定第二图像分片的目标类别和目标类别的置信度,能够进一步提高目标检测的准确度和检测效果。
上述实施例所确定的第二图像分片所属的目标类别和目标类别的置信度中,可能存在一些类别重复或者参考价值不高的第二图像分片。为了精简检测结果,在本发明实施例一种可能的实现方式中,确定模块450确定了第二图像分片所属的目标类别和目标类别的置信度之后,该图像检测装置40还可以根据第二位置信息和目标类别对应的置信度,对所有的第二图像分片进行去重处理。
具体地,图像检测装置40可以先根据第二位置信息,计算相邻的第二图像分片之间的重叠度;在相邻的第二图像分片的目标类别一致且重叠度超出预设的第一阈值时,则将目标类别对应的置信度低的第二图像分片丢弃;在相邻的第二图像分片的目标类别不一致且重叠度超出预设的第二阈值时,则将目标类别对应的置信度低的第二图像分片丢弃。
其中,第一阈值和第二阈值是预先设置的,第二阈值可以大于第一阈值。通过在相邻的第二图像分片的目标类别不一致且重叠度超出第二阈值时,将目标类别对应的置信度低的第二图像分片丢弃,可以排除误识别的第二图像分片,排除错误分类对检测结果的影响。
通过对所有的第二图像分片进行去重处理,能够排除第二图像分片中重叠比例较大、置信度较低的第二图像分片,简化检测结果。
需要说明的是,前述对图像检测方法实施例的解释说明也适用于该实施例的图像检测装置,其实现原理类似,此处不再赘述。
本实施例的图像检测装置,通过对采集的图像进行规则切分形成多个第一图像分片,将第一图像分片输入到第一层联合神经网络中进行目标检测,得到包含第一图像分片的第一位置信息的第一检测结果,再从图像中截取与第一位置信息匹配的第二图像分片,将第二图像分片输入到第二层联合神经网络中进行目标检测,得到包含第二图像分片的第二类别信息的第二检测结果,进而根据第二类别信息确定第二图像分片所属的目标类别和目标类别的置信度。通过将采集的图像切分成多个图像分片进行检测,极大地减少了需要检测的区域数量,缩短了检测耗时,提高了检测效率,满足了实时性要求;通过进行两次检测,提高了检测精度和检测效果,提高了在列车运行场景中的适应性。
为了实现上述实施例,本发明还提出一种计算机设备。
图7为本发明实施例所提供的计算机设备的结构示意图。如图7所示,该计算机设备70包括:存储器701、处理器702和存储在存储器701上并可在处理器702上运行的计算机程序703,当处理器702执行计算机程序703时,实现如前述实施例所述的图像检测方法。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如前述实施例所述的图像检测方法。
为了实现上述实施例,本发明还提出一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时实现如前述实施例所述的图像检测方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (16)
1.一种图像检测方法,其特征在于,包括:
采集图像,对所述图像进行规则切分,形成多个第一图像分片;
将所述第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,所述第一检测结果中包括所述第一图像分片的第一位置信息和第一类别信息;所述第一层联合神经网络中包括对所述第一图像分片进行位置检测的第一位置预测神经网络和对所述第一图像分片进行目标类别检测的第一分类神经网络;
从所述图像中截取与所述第一位置信息匹配的第二图像分片;
将所述第二图像分片输入到第二层联合神经网络中进行目标检测,得到所述第二检测结果;其中,所述第二检测结果中包括所述第二图像分片的第二位置信息和第二类别信息;其中,所述第二层联合神经网络包括对所述第二图像分片进行位置检测的第二位置预测神经网络和对所述第二图像分片进行目标类别检测的第二分类神经网络;
根据所述第二类别信息,确定所述第二图像分片所属的目标类别和所述目标类别的置信度。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果,包括:
将所述第一图像分片输入到所述第一位置预测神经网络中,得到所述第一图像分片的所述第一位置信息和所述第一图像分片的特征信息;其中,所述第一位置信息中包括所述第一图像分片的坐标信息和形状信息;
将所述第一图像分片的形状信息和特征信息,输入到所述第一分类神经网络中,得到所述第一类别信息;其中,所述第一类别信息包括所述第一图像分片对应的第一目标类别和属于所述第一目标类别的第一概率。
3.根据权利要求2所述的方法,其特征在于,所述将所述第一图像分片的形状信息和特征信息,输入到所述第一分类神经网络中,得到所述第一类别信息,包括:
将所述第一图像分片的形状信息和特征信息输入到所述第一分类神经网络中,得到所述第一图像分片属于每个类别的第一概率;
将最大所述第一概率对应的类别作为所述第一目标类别;
利用所述第一目标类别和所述第一目标类别的所述第一概率,形成所述第一类别信息。
4.根据权利要求1所述的方法,其特征在于,所述将所述第二图像分片输入到第二层联合神经网络中进行目标检测,得到所述第二检测结果,包括:
将所述第二图像分片输入到所述第二位置预测神经网络中,得到所述第二图像分片的所述第二位置信息和所述第二图像分片的特征信息;其中,所述第二位置信息中包括所述第二图像分片的坐标信息和形状信息;
将所述第二图像分片的形状信息和特征信息,输入到所述第二分类神经网络中,得到所述第二类别信息;其中,所述第一类别信息包括所述第一图像分片对应的第二目标类别和属于所述第二目标类别的第二概率。
5.根据权利要求4所述的方法,其特征在于,所述将所述第二图像分片形状信息和特征信息,输入到所述第二分类神经网络中,得到所述第二类别信息,包括:
将所述第二图像分片的形状信息和所述特征信息输入到所述第二分类神经网络中,得到所述第二图像分片属于每个类别的第二概率;
将最大所述第二概率对应的类别作为所述第二目标类别;
利用所述第二目标类别和所述第二目标类别的所述第二概率,形成所述第二类别信息。
6.根据权利要求2所述的方法,其特征在于,所述从所述图像中截取与所述第一位置信息匹配的第二图像分片,包括:
根据所述第一位置信息中的坐标信息,在所述图像中进行定位;
从所述图像中所定位的位置,按照所述第一位置信息中的形状信息,截取所述第二图像分片。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述得到所述第二检测结果后,还包括:
根据所述第一类别信息和所述第二类别信息,确定所述第二图像分片所属的目标类别和所述目标类别的置信度。
8.根据权利要求7所述的方法,其特征在于,所述第一类别信息中包括所述第一图像分片所属的第一目标类别和所述第一目标类别的第一概率;所述第二类别信息中包括所述第二图像分片所属的第二目标类别和所述第二目标类别的第二概率,则所述根据所述第一类别信息和所述第二类别信息,确定所述第二图像分片所属的目标类别和所述目标类别的置信度,包括:
针对每个第二图像分片,确定与所述第二图像分片对应的所述第一图像分片;
对所述第一图像分片的第一类别信息与所述第二类别信息进行数据融合,根据融合后的结果确定所述第二图像分片的所述目标类别和所述目标类别的置信度。
9.根据权利要求8所述的方法,其特征在于,所述对所述第一图像分片的第一类别信息与所述第二类别信息进行数据融合,根据融合后的结果确定所述第二图像分片的所述目标类别和所述目标类别的置信度,包括:
当所述第一图像分片的所述第一目标类别与所述第二图像分片的第二目标类别一致时,将所述第二目标类别作为第二图像分片的目标类别;
将所述第一图像分片的第一概率和所述第二图像分片的所述第二概率进行比较;
将所述第一概率和所述第二概率中概率大的作为所述目标类别的置信度;
当所述第一图像分片的所述第一目标类别与所述第二图像分片的第二目标类别不一致时,将所述第一概率和所述第二概率分别与各自对应的权重相乘,得到第一数值和第二数值;
比较所述第一数值和所述第二数值,将数值大的对应类别作为所述目标类别;
将所述第一数值和第二数值相加的和值作为所述目标类别的置信度。
10.根据权利要求1或9所述的方法,其特征在于,所述确定所述第二图像分片所属的目标类别和所述目标类别的置信度之后,还包括:
根据所述第二位置信息和所述目标类别对应的置信度,对所有的第二图像分片进行去重处理。
11.根据权利要求10所述的方法,其特征在于,所述根据所述第二位置信息和所述目标类别对应的置信度,对所有的第二图像分片进行去重处理,包括:
根据所述第二位置信息,计算相邻的所述第二图像分片之间的重叠度;
在相邻的所述第二图像分片的所述目标类别一致且所述重叠度超出预设的第一阈值时,则将所述目标类别对应的置信度低的所述第二图像分片丢弃;
在相邻的所述第二图像分片的所述目标类别不一致且所述重叠度超出预设的第二阈值时,则将所述目标类别对应的置信度低的所述第二图像分片丢弃。
12.根据权利要求1-6任一项所述的方法,其特征在于,所述对所述图像进行规则切分,形成多个第一图像分片之前,还包括:
对所述图像进行去除噪声和/或压缩处理。
13.一种图像检测装置,其特征在于,包括:
切分模块,用于采集图像,并对所述图像进行规则切分,形成多个第一图像分片;
第一检测模块,用于将所述第一图像分片输入到第一层联合神经网络中进行目标检测,得到第一检测结果;其中,所述第一检测结果中包括所述第一图像分片的第一位置信息和第一类别信息;所述第一层联合神经网络中包括对所述第一图像分片进行位置检测的第一位置预测神经网络和对所述第一图像分片进行目标类别检测的第一分类神经网络;
图片截取模块,用于从所述图像中截取与所述第一位置信息匹配的第二图像分片;
第二检测模块,用于将所述第二图像分片输入到第二层联合神经网络中进行目标检测,得到所述第二检测结果;其中,所述第二检测结果中包括所述第二图像分片的第二位置信息和第二类别信息;其中,所述第二层联合神经网络包括对所述第二图像分片进行位置检测的第二位置预测神经网络和对所述第二图像分片进行目标类别检测的第二分类神经网络;
确定模块,用于根据所述第二类别信息,确定所述第二图像分片所属的目标类别和所述目标类别的置信度。
14.一种计算机设备,其特征在于,包括存储器、处理器和存储在所述存储器上并可在所述处理器上运行的计算机程序,当所述处理器执行所述计算机程序时,实现如权利要求1-12任一项所述的图像检测方法。
15.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-12任一项所述的图像检测方法。
16.一种计算机程序产品,其特征在于,当所述计算机程序产品中的指令由处理器执行时实现如权利要求1-12任一项所述的图像检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810011477.8A CN110008792B (zh) | 2018-01-05 | 2018-01-05 | 图像检测方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810011477.8A CN110008792B (zh) | 2018-01-05 | 2018-01-05 | 图像检测方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110008792A true CN110008792A (zh) | 2019-07-12 |
CN110008792B CN110008792B (zh) | 2021-10-22 |
Family
ID=67164614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810011477.8A Active CN110008792B (zh) | 2018-01-05 | 2018-01-05 | 图像检测方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110008792B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523599A (zh) * | 2020-04-24 | 2020-08-11 | 上海商汤智能科技有限公司 | 目标检测方法及装置、电子设备和存储介质 |
CN111723723A (zh) * | 2020-06-16 | 2020-09-29 | 东软睿驰汽车技术(沈阳)有限公司 | 一种图像检测方法及装置 |
CN113647281A (zh) * | 2021-07-22 | 2021-11-16 | 盘锦光合蟹业有限公司 | 一种除草方法及系统 |
CN117611513A (zh) * | 2022-11-08 | 2024-02-27 | 郑州英视江河生态环境科技有限公司 | 微观生物图像处理方法、设备及系统 |
CN117612159A (zh) * | 2022-11-08 | 2024-02-27 | 郑州英视江河生态环境科技有限公司 | 微观生物图像处理方法、神经网络训练方法、装置及设备 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7437339B2 (en) * | 2001-05-31 | 2008-10-14 | Canon Kabuhsiki Kaisha | Pulse signal circuit, parallel processing circuit, pattern recognition system, and image input system |
CN104268900A (zh) * | 2014-09-26 | 2015-01-07 | 中安消技术有限公司 | 一种运动目标检测方法及装置 |
CN104346620A (zh) * | 2013-07-25 | 2015-02-11 | 佳能株式会社 | 对输入图像中的像素分类的方法和装置及图像处理系统 |
CN106022300A (zh) * | 2016-06-02 | 2016-10-12 | 中国科学院信息工程研究所 | 基于级联深度学习的交通标志识别方法和系统 |
CN106295605A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 红绿灯检测与识别方法 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN106780612A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
CN106845374A (zh) * | 2017-01-06 | 2017-06-13 | 清华大学 | 基于深度学习的行人检测方法及检测装置 |
CN106874954A (zh) * | 2017-02-20 | 2017-06-20 | 佛山市络思讯科技有限公司 | 一种信息获取的方法以及相关装置 |
CN107133570A (zh) * | 2017-04-07 | 2017-09-05 | 武汉睿智视讯科技有限公司 | 一种车辆/行人检测方法及系统 |
CN107247956A (zh) * | 2016-10-09 | 2017-10-13 | 成都快眼科技有限公司 | 一种基于网格判断的快速目标检测方法 |
CN107808122A (zh) * | 2017-09-30 | 2018-03-16 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法及装置 |
-
2018
- 2018-01-05 CN CN201810011477.8A patent/CN110008792B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7437339B2 (en) * | 2001-05-31 | 2008-10-14 | Canon Kabuhsiki Kaisha | Pulse signal circuit, parallel processing circuit, pattern recognition system, and image input system |
CN104346620A (zh) * | 2013-07-25 | 2015-02-11 | 佳能株式会社 | 对输入图像中的像素分类的方法和装置及图像处理系统 |
CN104268900A (zh) * | 2014-09-26 | 2015-01-07 | 中安消技术有限公司 | 一种运动目标检测方法及装置 |
CN106022300A (zh) * | 2016-06-02 | 2016-10-12 | 中国科学院信息工程研究所 | 基于级联深度学习的交通标志识别方法和系统 |
CN106295605A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 红绿灯检测与识别方法 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN107247956A (zh) * | 2016-10-09 | 2017-10-13 | 成都快眼科技有限公司 | 一种基于网格判断的快速目标检测方法 |
CN106780612A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
CN106845374A (zh) * | 2017-01-06 | 2017-06-13 | 清华大学 | 基于深度学习的行人检测方法及检测装置 |
CN106874954A (zh) * | 2017-02-20 | 2017-06-20 | 佛山市络思讯科技有限公司 | 一种信息获取的方法以及相关装置 |
CN107133570A (zh) * | 2017-04-07 | 2017-09-05 | 武汉睿智视讯科技有限公司 | 一种车辆/行人检测方法及系统 |
CN107808122A (zh) * | 2017-09-30 | 2018-03-16 | 中国科学院长春光学精密机械与物理研究所 | 目标跟踪方法及装置 |
Non-Patent Citations (2)
Title |
---|
YU XIANG ET AL: "Subcategory-aware Convolutional Neural Networks for Object Proposals Detection", 《ARXIV:1604.04693V3》 * |
杨凯杰等: "深度学习的汽车驾驶员安全带检测", 《中国计量大学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523599A (zh) * | 2020-04-24 | 2020-08-11 | 上海商汤智能科技有限公司 | 目标检测方法及装置、电子设备和存储介质 |
CN111523599B (zh) * | 2020-04-24 | 2024-03-26 | 上海商汤智能科技有限公司 | 目标检测方法及装置、电子设备和存储介质 |
CN111723723A (zh) * | 2020-06-16 | 2020-09-29 | 东软睿驰汽车技术(沈阳)有限公司 | 一种图像检测方法及装置 |
CN113647281A (zh) * | 2021-07-22 | 2021-11-16 | 盘锦光合蟹业有限公司 | 一种除草方法及系统 |
CN117611513A (zh) * | 2022-11-08 | 2024-02-27 | 郑州英视江河生态环境科技有限公司 | 微观生物图像处理方法、设备及系统 |
CN117612159A (zh) * | 2022-11-08 | 2024-02-27 | 郑州英视江河生态环境科技有限公司 | 微观生物图像处理方法、神经网络训练方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110008792B (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110008792A (zh) | 图像检测方法、装置、计算机设备及存储介质 | |
CN110364008B (zh) | 路况确定方法、装置、计算机设备和存储介质 | |
Huang et al. | Automatic symbolic traffic scene analysis using belief networks | |
CN107016409A (zh) | 一种基于图像显著区域的图像分类方法和系统 | |
CN109948684A (zh) | 点云数据标注质量的质检方法、装置及其相关设备 | |
CN104573715A (zh) | 图像主体区域的识别方法及装置 | |
CN106355188A (zh) | 图像检测方法及装置 | |
CN109447033A (zh) | 基于yolo的车辆前方障碍物检测方法 | |
CN109166094A (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
KR102328731B1 (ko) | 다중 카메라 혹은 서라운드 뷰 모니터링에 이용되기 위해, 타겟 객체 통합 네트워크 및 타겟 영역 예측 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 적응 가능한 cnn 기반 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN108921089A (zh) | 车道线检测方法、装置和系统及存储介质 | |
CN106650771A (zh) | 基于聚类分析的轨迹去噪方法以及装置 | |
CN110826379B (zh) | 一种基于特征复用与YOLOv3的目标检测方法 | |
CN108776772A (zh) | 一种跨时间建筑物变化检测建模方法以及检测装置、方法及存储介质 | |
CN103428424B (zh) | 视频处理设备和追踪物体的管理方法 | |
CN106688011A (zh) | 用于多类别物体检测的方法和系统 | |
CN114529799A (zh) | 一种基于改进型yolov5算法的飞机多目标跟踪方法 | |
CN107247956A (zh) | 一种基于网格判断的快速目标检测方法 | |
CN108596221A (zh) | 标尺读数的图像识别方法及设备 | |
CN109886947A (zh) | 基于区域的卷积神经网络的高压电线缺陷检测方法 | |
CN106295502A (zh) | 一种人脸检测方法及装置 | |
CN105975925A (zh) | 基于联合检测模型的部分遮挡行人检测方法 | |
CN108596883A (zh) | 一种基于深度学习和距离约束的航拍图像防震锤滑移故障诊断方法 | |
CN104123714B (zh) | 一种人流量统计中最优目标检测尺度的生成方法 | |
CN107622503A (zh) | 一种恢复图像遮挡边界的分层分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |