CN111160410B - 一种物体检测方法和装置 - Google Patents
一种物体检测方法和装置 Download PDFInfo
- Publication number
- CN111160410B CN111160410B CN201911268040.3A CN201911268040A CN111160410B CN 111160410 B CN111160410 B CN 111160410B CN 201911268040 A CN201911268040 A CN 201911268040A CN 111160410 B CN111160410 B CN 111160410B
- Authority
- CN
- China
- Prior art keywords
- image
- frame image
- current frame
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种物体检测方法和装置,涉及深度学习技术领域。该方法的一具体实施方式包括:通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。该实施方式能够解决对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种物体检测方法和装置。
背景技术
物体检测技术是深度学习的一种重要技术,目前已被逐步应用到各个行业。在安防监控系统、无人超市系统、无人仓储系统等现代智能系统中,摄像头被安置在固定位置,进而执行检测任务,比如检测异常人员、检测火警、检测顾客购买商品等等。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
目前,通用的物体检测技术主要聚焦于单帧图像的检测。主流的物体检测方法采用卷积神经网络对单帧图像提取特征,再通过回归网络对物体的位置和种类进行预测并输出结果等。
而对于视频流的物体检测技术,往往会把视频分解成单帧图像,再采用物体检测方法去检测单帧图像,因此未能对视频信息进行更好的利用,检测性能受限于单帧物体检测方法的检测能力。
发明内容
有鉴于此,本发明实施例提供一种物体检测方法和装置,以解决对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种物体检测方法,包括:
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;
将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
可选地,所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,包括:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
可选地,所述卷积神经网络为ResNet或者VGGNet,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。
可选地,通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征,包括:
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;
对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。
可选地,所述融合层包括串联的至少一个卷积层和至少一个池化层;
所述当前帧图像的第二图像特征和融合图像特征的通道数相同,所述当前帧图像的第二图像特征和融合图像特征的宽度相同,所述当前帧图像的第二图像特征和融合图像特征的高度相同。
可选地,将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,包括:
将所述当前帧图像的第二图像特征和融合图像特征相加,得到叠加图像特征;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中。
可选地,所述分类模型包括区域生成网络、感兴趣区域池化层和回归网络;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中,包括:
将所述叠加图像特征输入到区域生成网络中,得到所述当前帧图像中的候选框;
所述当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,得到所述当前帧图像中的候选框特征;
将所述当前帧图像中的候选框特征输入到回归网络中。
另外,根据本发明实施例的另一个方面,提供了一种物体检测装置,包括:
训练模块,用于通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;
检测模块,用于将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
可选地,所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
所述训练模块还用于:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
可选地,所述卷积神经网络为ResNet或者VGGNet,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。
可选地,所述训练模块还用于:
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;
对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。
可选地,所述融合层包括串联的至少一个卷积层和至少一个池化层;
所述当前帧图像的第二图像特征和融合图像特征的通道数相同,所述当前帧图像的第二图像特征和融合图像特征的宽度相同,所述当前帧图像的第二图像特征和融合图像特征的高度相同。
可选地,所述训练模块还用于:
将所述当前帧图像的第二图像特征和融合图像特征相加,得到叠加图像特征;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中。
可选地,所述分类模型包括区域生成网络、感兴趣区域池化层和回归网络;
所述训练模块还用于:
将所述叠加图像特征输入到区域生成网络中,得到所述当前帧图像中的候选框;
所述当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,得到所述当前帧图像中的候选框特征;
将所述当前帧图像中的候选框特征输入到回归网络中。
根据本发明实施例的另一个方面,还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一实施例所述的方法。
根据本发明实施例的另一个方面,还提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:因为采用通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,将待测当前帧图像和待测当前帧图像的前一帧图像输入到物体检测模型中,从而检测当前图像帧中的物体的技术手段,所以克服了现有技术中对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。本发明实施例利用视频帧图像的时间连续性,提取前一帧图像和当前帧图像的图像特征并进行融合,再把融合后的特征输入到RPN网络中,以得到更为准确的候选框,由此提高了物体检测的精度和准确度。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的物体检测方法的主要流程的示意图;
图2是根据本发明实施例的第一卷积神经网络的结构示意图;
图3是根据本发明实施例的第二卷积神经网络的结构示意图;
图4是根据本发明实施例的融合层的结构示意图;
图5是根据本发明实施例的训练物体检测模型的流程示意图;
图6是根据本发明实施例的物体检测装置的主要模块的示意图;
图7是本发明实施例可以应用于其中的示例性系统架构图;
图8是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在一段视频中,前后帧图像往往存在着一定的连续性,比较前后帧图像的差异,能够更好地得到检测结果,提高物体检测性能。而现有技术仅对单帧图像信息进行检测,未能对视频信息进行更好的利用,导致检测性能受限于单帧物体检测方法的检测能力。针对单帧图像检测性能不足的技术问题,本发明实施例提供了一种物体检测方法,利用视频帧图像的时间连续性,将前一帧图像作为当前帧图像物体检测的辅助依据,提高了检测的精度和准确度。
图1是根据本发明实施例的物体检测方法的主要流程的示意图。作为本发明的一个实施例,如图1所示,所述物体检测方法可以包括:
步骤101,通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型。
在该步骤中,通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,还可以采用验证集对所述物体检测模型进行验证,用于调整所述物体检测模型的超参数和用于对所述物体检测模型的能力进行初步评估,并优化所述物体检测模型的参数矩阵。
其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置。同样地,所述验证集包括多个验证样本,每个验证样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置。
可选地,所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络。其中,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。第一卷积网络提取的特征比起第二卷积网络提取的特征会具有更多的位置信息。
可选地,可以以一个常见的骨干网络作为图像特征提取的卷积网络,比如所述卷积神经网络可以为ResNet或者VGGNet。所述第一卷积神经网络包括至少一个卷积层和至少一个池化层。比如,第一卷积神经网络包括串联的3×3卷积层、池化层以及1×1卷积层,或者,包括3×3卷积层和池化层,又或者,包括1×1卷积层和池化层等,本发明实施例对此不作限制。例如,如图2所示,当骨干网络为VGGNet-16时,所述第一卷积神经网络可以包括串联的3×3卷积层、3×3卷积层、池化层、3×3卷积层、3×3卷积层、池化层、3×3卷积层、3×3卷积层、1×1卷积层和池化层。
类似地,所述第二卷积神经网络包括至少一个卷积层和至少一个池化层。比如,第一卷积神经网络包括串联的3×3卷积层、池化层以及1×1卷积层,或者,包括3×3卷积层和池化层,又或者,包括1×1卷积层和池化层等,本发明实施例对此不作限制。例如,如图3所示,当骨干网络为VGGNet-16时,所述第一卷积神经网络可以包括串联的3×3卷积层、3×3卷积层、1×1卷积层、池化层、3×3卷积层、3×3卷积层、1×1卷积层和池化层。
可选地,步骤101可以包括:分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。在本发明的实施例中,分别将前一帧图像和当前帧图像输入到第一卷积神经网络中,然后对输出的图像特征进行融合,再把融合后的特征输入到分类模型中,以得到更为准确的候选框,从而能够更加准确地识别出目标物体的位置
可选地,通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征,包括:通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。可选地,所述融合层包括串联的至少一个卷积层和至少一个池化层。比如,所述融合层包括串联的3×3卷积层、池化层以及1×1卷积层,或者,包括3×3卷积层和池化层,又或者,包括1×1卷积层和池化层等,本发明实施例对此不作限制。例如,如图4所示,所述融合层可以包括串联的3×3卷积层、池化层、3×3卷积层和池化层。
可选地,所述当前帧图像的第二图像特征和融合图像特征的通道数相同,所述当前帧图像的第二图像特征和融合图像特征的宽度相同,所述当前帧图像的第二图像特征和融合图像特征的高度相同,因此可以通过分类模型将所述当前帧图像的第二图像特征和所述融合图像特征相加,从而更加准确地检测出候选框的位置和大小。
可选地,将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,包括:将所述当前帧图像的第二图像特征和融合图像特征相加,得到叠加图像特征;将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中。在本发明的实施例中,将叠加图像特征送入分类模型,并以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
可选地,所述分类模型包括区域生成网络(Region Proposal Network,RPN网络)、感兴趣区域池化层(RoI Pooling)和回归网络(classifier)。可选地,将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中,包括:将所述叠加图像特征输入到区域生成网络中,得到所述当前帧图像中的候选框;所述当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,得到所述当前帧图像中的候选框特征;将所述当前帧图像中的候选框特征输入到回归网络中。
其中,所述区域生成网络用于提取物体可能在的位置,称为候选框(regionproposal),即候选框的位置和大小。感兴趣区域池化层对各个候选框对应的执行RoIPooling操作,转换为固定长度的输出,称为候选框特征。最后将候选框特征输入到回归网络(classifier),输出各个候选框所属的分类以及在图像中的精确位置。
可选地,在训练所述物体检测模型的过程中,可以采用随机梯度下降法更新卷积神经网络、融合层和分类模型中的各个参数,优化得到最优的参数,从而构建得到物体检测模型。
步骤102,将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
对于待检测的视频,获取待测当前帧图像和所述待测当前帧图像的前一帧图像,将所述待测当前帧图像和所述待测当前帧图像的前一帧图像输入到经过步骤101训练得到的物体检测模型中,所述物体检测模型输出所述待测当前帧图像中各个目标物品的分类标签以及在所述待测当前帧图像中的位置。
根据上面所述的各种实施例,可以看出本发明通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,将待测当前帧图像和待测当前帧图像的前一帧图像输入到物体检测模型中,从而检测当前图像帧中的物体的技术手段,解决了现有技术中对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。本发明实施例利用视频帧图像的时间连续性,提取前一帧图像和当前帧图像的图像特征并进行融合,再把融合后的特征输入到RPN网络中,以得到更为准确的候选框,由此提高了物体检测的精度和准确度。
图5是根据本发明实施例的训练物体检测模型的流程示意图。如图5所示,训练物体检测模型的步骤可以包括:
分别将前一帧图像P和当前帧图像Q输入到第一卷积神经网络中,得到前一帧图像的第一图像特征和当前帧图像的第一图像特征/>然后将当前帧图像的第一图像特征输入到第二卷积网络中,得到当前帧图像的第二图像特征/>
同时,将前一帧图像的第一图像特征和当前帧图像的第一图像特征/>输入到融合层中,得到融合图像特征。在融合层中,将前一帧图像的第一图像特征/>与当前帧图像的第一图像特征/>相减,并通过一系列卷积操作和池化操作,最终得到通道数、宽度和高度与当前帧图像的第二图像特征/>一致的融合图像特征。
接着,将融合图像特征与当前帧图像的第二图像特征相加,得到叠加图像特征,然后将叠加图像特征输入到RPN网络中,得到物体可能在的位置,称为候选框(regionproposal)。
随后,将当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,感兴趣区域池化层对各个候选框对应的/>执行RoI Pooling操作,转换为固定长度的输出,称为候选框特征。
最后,将候选框特征输入到回归网络(classifier)中,输出各个候选框的分类标签以及在图像中的精确位置。
需要指出的是,采用训练后的物体检测模型对当前帧图像中各个物品进行检测的过程与训练物体检测模型的过程类似,不再赘述。
另外,在本发明一个可参考实施例中物体检测方法的具体实施内容,在上面所述物体检测方法中已经详细说明了,故在此重复内容不再说明。
图6是根据本发明实施例的物体检测装置的主要模块的示意图,如图6所示,所述物体检测装置600包括训练模块601和检测模块602。其中,训练模块601用于通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;检测模块602用于将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
可选地,所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
所述训练模块601还用于:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
可选地,所述卷积神经网络为ResNet或者VGGNet,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。
可选地,所述训练模块601还用于:
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;
对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。
可选地,所述融合层包括串联的至少一个卷积层和至少一个池化层;
所述当前帧图像的第二图像特征和融合图像特征的通道数相同,所述当前帧图像的第二图像特征和融合图像特征的宽度相同,所述当前帧图像的第二图像特征和融合图像特征的高度相同。
可选地,所述训练模块601还用于:
将所述当前帧图像的第二图像特征和融合图像特征相加,得到叠加图像特征;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中。
可选地,所述分类模型包括区域生成网络、感兴趣区域池化层和回归网络;
所述训练模块601还用于:
将所述叠加图像特征输入到区域生成网络中,得到所述当前帧图像中的候选框;
所述当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,得到所述当前帧图像中的候选框特征;
将所述当前帧图像中的候选框特征输入到回归网络中。
根据上面所述的各种实施例,可以看出本发明通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,将待测当前帧图像和待测当前帧图像的前一帧图像输入到物体检测模型中,从而检测当前图像帧中的物体的技术手段,解决了现有技术中对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。本发明实施例利用视频帧图像的时间连续性,提取前一帧图像和当前帧图像的图像特征并进行融合,再把融合后的特征输入到RPN网络中,以得到更为准确的候选框,由此提高了物体检测的精度和准确度。
需要说明的是,在本发明所述物体检测装置的具体实施内容,在上面所述物体检测方法中已经详细说明了,故在此重复内容不再说明。
图7示出了可以应用本发明实施例的物体检测方法或物体检测装置的示例性系统架构700。
如图7所示,系统架构700可以包括终端设备701、702、703,网络704和服务器705。网络704用以在终端设备701、702、703和服务器705之间提供通信链路的介质。网络704可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备701、702、703通过网络704与服务器705交互,以接收或发送消息等。终端设备701、702、703上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备701、702、703可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器705可以是提供各种服务的服务器,例如对用户利用终端设备701、702、703所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的物品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、物品信息——仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的物体检测方法一般由服务器705执行,相应地,所述物体检测装置一般设置在服务器705中。本发明实施例所提供的物体检测方法也可以由终端设备701、702、703执行,相应地,所述物体检测装置可以设置在终端设备701、702、703中。
应该理解,图7中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图8,其示出了适于用来实现本发明实施例的终端设备的计算机系统800的结构示意图。图8示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括训练模块和检测模块,其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物体的位置。
根据本发明实施例的技术方案,因为采用通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,将待测当前帧图像和待测当前帧图像的前一帧图像输入到物体检测模型中,从而检测当前图像帧中的物体的技术手段,所以克服了现有技术中对视频流的检测性能受限于单帧物体检测方法的检测能力的技术问题。本发明实施例利用视频帧图像的时间连续性,提取前一帧图像和当前帧图像的图像特征并进行融合,再把融合后的特征输入到RPN网络中,以得到更为准确的候选框,由此提高了物体检测的精度和准确度。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (9)
1.一种物体检测方法,其特征在于,包括:
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;
将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物品的位置;
所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型,包括:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
2.根据权利要求1所述的方法,其特征在于,所述卷积神经网络为ResNet或者VGGNet,所述第一卷积神经网络为所述卷积神经网络的前n层,所述第二卷积神经网络为所述卷积神经网络的其它层;其中,n的取值为第2-4个池化层的序号。
3.根据权利要求1所述的方法,其特征在于,通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征,包括:
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征相减,得到所述当前帧图像的图像差异特征;
对所述当前帧图像的图像差异特征进行卷积操作和池化操作,得到所述当前帧图像的融合图像特征。
4.根据权利要求3所述的方法,其特征在于,所述融合层包括串联的至少一个卷积层和至少一个池化层;
所述当前帧图像的第二图像特征和融合图像特征的通道数相同,所述当前帧图像的第二图像特征和融合图像特征的宽度相同,所述当前帧图像的第二图像特征和融合图像特征的高度相同。
5.根据权利要求1所述的方法,其特征在于,将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,包括:
将所述当前帧图像的第二图像特征和融合图像特征相加,得到叠加图像特征;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中。
6.根据权利要求5所述的方法,其特征在于,所述分类模型包括区域生成网络、感兴趣区域池化层和回归网络;
将所述叠加图像特征和所述当前帧图像的第二图像特征输入到分类模型中,包括:
将所述叠加图像特征输入到区域生成网络中,得到所述当前帧图像中的候选框;
所述当前帧图像的第二图像特征和候选框输入到感兴趣区域池化层中,得到所述当前帧图像中的候选框特征;
将所述当前帧图像中的候选框特征输入到回归网络中。
7.一种物体检测装置,其特征在于,包括:
训练模块,用于通过训练集训练卷积神经网络、融合层和分类模型,得到物体检测模型;其中,所述训练集包括多个训练样本,每个训练样本包括当前帧图像、前一帧图像和所述当前帧图像中物品的分类标签和位置;
检测模块,用于将待测当前帧图像和所述待测当前帧图像的前一帧图像输入到所述物体检测模型中,以检测所述待测当前帧图像中的目标物品以及所述目标物品的位置;
所述卷积神经网络包括第一卷积神经网络和第二卷积神经网络;
所述训练模块还用于:
分别将前一帧图像和当前帧图像输入到第一卷积神经网络,得到所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征;
通过融合层将所述前一帧图像的第一图像特征和所述当前帧图像的第一图像特征进行融合,得到所述当前帧图像的融合图像特征;
将所述当前帧图像的第一图像特征输入到第二卷积神经网络中,得到所述当前帧图像的第二图像特征;
将所述当前帧图像的第二图像特征和融合图像特征输入到分类模型中,以所述当前帧图像中物品的分类标签和位置作为输出,训练所述卷积神经网络、所述融合层和所述分类模型,从而得到物体检测模型。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911268040.3A CN111160410B (zh) | 2019-12-11 | 2019-12-11 | 一种物体检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911268040.3A CN111160410B (zh) | 2019-12-11 | 2019-12-11 | 一种物体检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160410A CN111160410A (zh) | 2020-05-15 |
CN111160410B true CN111160410B (zh) | 2023-08-08 |
Family
ID=70557074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911268040.3A Active CN111160410B (zh) | 2019-12-11 | 2019-12-11 | 一种物体检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160410B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435653B (zh) * | 2020-10-14 | 2024-07-30 | 北京地平线机器人技术研发有限公司 | 语音识别方法、装置和电子设备 |
CN112287860B (zh) * | 2020-11-03 | 2022-01-07 | 北京京东乾石科技有限公司 | 物体识别模型的训练方法及装置、物体识别方法及系统 |
CN112270284B (zh) * | 2020-11-06 | 2021-12-03 | 奥斯福集团有限公司 | 照明设施监控方法、系统和电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036240A (zh) * | 2014-05-29 | 2014-09-10 | 小米科技有限责任公司 | 人脸特征点的定位方法和装置 |
AU2013263838A1 (en) * | 2013-11-29 | 2015-06-18 | Canon Kabushiki Kaisha | Method, apparatus and system for classifying visual elements |
CN107194559A (zh) * | 2017-05-12 | 2017-09-22 | 杭州电子科技大学 | 一种基于三维卷积神经网络的工作流识别方法 |
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN108197623A (zh) * | 2018-01-19 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 用于检测目标的方法和装置 |
CN108596101A (zh) * | 2018-04-25 | 2018-09-28 | 上海交通大学 | 一种基于卷积神经网络的遥感图像多目标检测方法 |
CN108986064A (zh) * | 2017-05-31 | 2018-12-11 | 杭州海康威视数字技术股份有限公司 | 一种人流量统计方法、设备及系统 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110427839A (zh) * | 2018-12-26 | 2019-11-08 | 西安电子科技大学 | 基于多层特征融合的视频目标检测方法 |
CN110443143A (zh) * | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
-
2019
- 2019-12-11 CN CN201911268040.3A patent/CN111160410B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2013263838A1 (en) * | 2013-11-29 | 2015-06-18 | Canon Kabushiki Kaisha | Method, apparatus and system for classifying visual elements |
CN104036240A (zh) * | 2014-05-29 | 2014-09-10 | 小米科技有限责任公司 | 人脸特征点的定位方法和装置 |
CN107194559A (zh) * | 2017-05-12 | 2017-09-22 | 杭州电子科技大学 | 一种基于三维卷积神经网络的工作流识别方法 |
CN108986064A (zh) * | 2017-05-31 | 2018-12-11 | 杭州海康威视数字技术股份有限公司 | 一种人流量统计方法、设备及系统 |
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN108197623A (zh) * | 2018-01-19 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 用于检测目标的方法和装置 |
CN108596101A (zh) * | 2018-04-25 | 2018-09-28 | 上海交通大学 | 一种基于卷积神经网络的遥感图像多目标检测方法 |
CN110427839A (zh) * | 2018-12-26 | 2019-11-08 | 西安电子科技大学 | 基于多层特征融合的视频目标检测方法 |
CN110263813A (zh) * | 2019-05-27 | 2019-09-20 | 浙江科技学院 | 一种基于残差网络和深度信息融合的显著性检测方法 |
CN110443143A (zh) * | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
Non-Patent Citations (1)
Title |
---|
方正 ; 曹铁勇 ; 洪施展 ; 项圣凯 ; .融合深度模型和传统模型的显著性检测.中国图象图形学报.2018,(第12期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111160410A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109308490B (zh) | 用于生成信息的方法和装置 | |
CN111160410B (zh) | 一种物体检测方法和装置 | |
CN108595448B (zh) | 信息推送方法和装置 | |
US20200394414A1 (en) | Keyframe scheduling method and apparatus, electronic device, program and medium | |
CN109993749B (zh) | 提取目标图像的方法和装置 | |
CN113436100A (zh) | 用于修复视频的方法、装置、设备、介质和产品 | |
CN110766348B (zh) | 一种组合拣货任务的方法和装置 | |
CN110633717A (zh) | 一种目标检测模型的训练方法和装置 | |
CN113033377A (zh) | 字符位置修正方法、装置、电子设备和存储介质 | |
CN108512674B (zh) | 用于输出信息的方法、装置和设备 | |
CN110633716A (zh) | 一种目标对象的检测方法和装置 | |
CN110633597B (zh) | 一种可行驶区域检测方法和装置 | |
CN111428536B (zh) | 用于检测物品类别和位置的检测网络的训练方法和装置 | |
US11308133B2 (en) | Entity matching using visual information | |
CN108446693B (zh) | 待识别目标的标记方法、系统、设备及存储介质 | |
CN111833085A (zh) | 一种计算物品价格的方法和装置 | |
CN110634155A (zh) | 一种基于深度学习的目标检测方法和装置 | |
CN114780847A (zh) | 一种对象信息处理、信息推送方法、装置和系统 | |
CN112308678A (zh) | 基于图像识别的价格信息处理方法、装置、设备和介质 | |
CN112861684A (zh) | 一种物品展示方法和装置 | |
CN111259194B (zh) | 用于确定重复视频的方法和装置 | |
CN109657523B (zh) | 一种可行驶区域检测方法和装置 | |
CN111783572A (zh) | 一种文本检测方法和装置 | |
CN111428729A (zh) | 一种目标检测方法和装置 | |
CN110874771A (zh) | 一种商品搭配的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |