CN112084874B - 一种物体检测方法、装置及终端设备 - Google Patents

一种物体检测方法、装置及终端设备 Download PDF

Info

Publication number
CN112084874B
CN112084874B CN202010799792.9A CN202010799792A CN112084874B CN 112084874 B CN112084874 B CN 112084874B CN 202010799792 A CN202010799792 A CN 202010799792A CN 112084874 B CN112084874 B CN 112084874B
Authority
CN
China
Prior art keywords
image
detected
height
width
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010799792.9A
Other languages
English (en)
Other versions
CN112084874A (zh
Inventor
顾在旺
程骏
黄冠文
胡淑萍
赵雨佳
蔡永辉
庞建新
熊友军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN202010799792.9A priority Critical patent/CN112084874B/zh
Publication of CN112084874A publication Critical patent/CN112084874A/zh
Application granted granted Critical
Publication of CN112084874B publication Critical patent/CN112084874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本申请涉及机器视觉技术领域,提出一种物体检测方法、装置及终端设备。该物体检测方法包括:获取待测图像;将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框;其中,该神经网络模型采用已知中心点位置热力图和高宽特征图的多张样本图像作为训练集训练得到,该中心点位置热力图用于确定所述待测图像中具有的物体中心点,该高宽特征图用于确定所述待测图像中具有的物体的高度和宽度。采用该物体检测方法,能够提高物体检测的准确性,且算法耗时较小。

Description

一种物体检测方法、装置及终端设备
技术领域
本申请涉及机器视觉技术领域,尤其涉及一种物体检测方法、装置及终端设备。
背景技术
物体检测是机器视觉领域的经典问题之一,其任务是用框去标出图像中物体的位置,并给出物体的类别。从传统的人工设计特征加浅层分类器的框架,到基于深度学习的端到端的检测框架,物体检测技术变得愈加成熟。
目前,常见的基于深度学习的物体检测方法主要有两种,第一种是以Faster RCNN为代表的物体检测方法,该方法首先通过神经网络找出一系列可能存在物体的目标区域(ROI),接着对这些目标区域逐一进行识别,判断是哪一类物体。第二种是以YOLO为代表的物体检测方法,输入一张图片,算法直接输出物体框坐标,即物体框的左上角和右下角坐标。
然而,上述第一种方法为了尽可能地找到物体,会生成大量形状不一的目标区域,算法需要对每个目标区域进行判断,耗时严重。上述第二种方法通过使用多层卷积神经网络来提取物体的特征,但同时物体的位置信息也在深度卷积神经网络中损失,导致物体框的位置不够准确。
发明内容
有鉴于此,本申请实施例提供了一种物体检测方法、装置及终端设备,能够提高物体检测的准确性,且算法耗时较小。
本申请实施例的第一方面提供了一种物体检测方法,包括:
获取待测图像;
将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框。
本申请实施例采用神经网络对待测图像进行处理,生成该待测图像的中心点位置热力图和高宽特征图,利用该中心点位置热力图找出待测图像中各个物体的中心位置,同时利用该高宽特征图确定各个物体的高度和宽度,从而完成物体检测。与现有技术相比,本申请实施例无需在待测图像中划分出多个目标区域,算法耗时较小;另外,本申请实施例采用中心点位置热力图和高宽特征图的方法确定物体的位置和尺寸,能够比较准确地找出待测图像中具有的各个物体的位置和尺寸,提高物体检测的准确性。
进一步的,在将所述待测图像输入预先构建的神经网络模型之前,还可以包括:
对所述待测图像进行裁剪处理以及归一化处理。
通过对待测图像进行裁剪处理,可以得到指定尺寸的适合模型处理的图像,而对待测图像进行归一化处理,能够降低模型处理的计算量,提高物体检测效率。
具体的,对所述待测图像进行归一化处理,可以包括:
针对所述待测图像中的每个像素点,均将各自的RGB值减去最小RGB值,然后除以最大RGB值;
其中,所述最小RGB值为所述待测图像中RGB值最小的像素点的RGB值,所述最大RGB值为所述待测图像中RGB值最大的像素点的RGB值。
归一化处理是为了将原始的RGB图像(取值范围为0-255)映射到0-1的范围内处理,能够减小模型计算量,提高图像处理的速度。具体的操作方式是将每个像素点的RGB值减去图像中的最小RGB值,然后除以图像中的最大RGB值。
进一步的,所述神经网络模型包括编码网络和解码网络,所述将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图可以包括:
采用所述编码网络提取所述待测图像的图像特征,所述图像特征包含所述待测图像中物体的位置特征和类别特征;
采用所述解码网络对所述图像特征进行解码,得到所述中心点位置热力图和所述高宽特征图。
该神经网络模型可以视作一个编码-解码器,包含编码网络和解码网络。首先,通过编码网络提取待测图像的图像特征,该图像特征包含待测图像中物体的位置特征和类别特征,即包含物体的信息;然后,采用解码网络对该图像特征进行解码,得到中心点位置热力图和高宽特征图。
进一步的,在确定所述待测图像中具有的各个物体框之后,还可以包括:
将确定的所述各个物体框和人工标注的所述待测图像具有的各个物体框进行比较,得到物体检测误差;
根据所述物体检测误差,采用反向传播算法对所述编码网络的参数和所述解码网络的参数进行迭代更新。
在采用神经网络模型预测得到待测图像中的各个物体框后,可以将预测得到的各个物体框与人工标注的该待测图像中的真实物体框进行比较,计算误差。然后,根据该误差,采用反向传播算法对该编码网络和该解码网络的参数进行迭代更新,以提高网络下一次预测的准确率。
进一步的,所述中心点位置热力图包含所述待测图像中每个像素点作为各个预设类别物体的中心点的概率,所述高宽特征图包含所述待测图像中每个像素点作为物体的中心点时所对应的物体框的高度和宽度。
具体的,所述根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框,可以包括:
针对所述中心点位置热力图中的每个像素点,检测该像素点作为各个预设类别物体的中心点的概率中的最大值是否大于预设阈值;
若该像素点作为各个预设类别物体的中心点的概率中的最大值大于预设阈值,则将该像素点确定为目标类别的物体框的中心点,所述目标类别为所述最大值对应的物体类别;
从所述高宽特征图中查找该像素点作为物体的中心点时所对应的物体框的目标高度和目标宽度;
在所述待测图像中生成中心点处于该像素点、高度为所述目标高度且宽度为所述目标宽度的所述目标类别的物体框。
算法会遍历该中心点位置热力图中的每个像素点,获取该像素点对应的作为各个预设类别物体的中心点的概率,查找这些概率中的最大值,然后判断该最大值是否大于预设的阈值(比如0.5)。若该最大值大于或等于预设的阈值,则算法会判定该像素点为目标类别(即该概率最大值对应的物体类别)的物体框的中心点,然后从高宽特征图中找到该像素点对应的目标高度和目标宽度,从而确定该像素点为目标类别的物体框的中心点,且该物体框的高度等于该目标高度,该物体框的宽度等于该目标宽度,接下来采用相同的方式继续判断下一个像素点;若该最大值小于该阈值,则算法会判定该像素点不是物体框的中心点,然后采用相同的方式继续判断下一个像素点。在遍历该中心点位置热力图中的所有像素点之后,即可找出待测图像中所有的物体框,包括物体框的中心点位置以及高宽尺寸。
进一步的,所述获取待测图像可以包括:
获取桌面机器人拍摄的视频流;
对所述视频流进行解码,得到所述视频流中的每一帧图像;
将所述视频流中的每一帧图像确定为所述待测图像。
通过桌面机器人自带的摄像头拍摄得到一个视频流,为了检测该视频流中出现的物体,可以对该视频流进行解码,得到视频流中的每一帧图像,然后将这些图像作为待测图像。
本申请实施例的第二方面提供了一种物体检测装置,包括:
图像获取模块,用于获取待测图像;
图像处理模块,用于将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
物体框确定模块,用于根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框。
本申请实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例的第一方面提供的物体检测方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本申请实施例的第一方面提供的物体检测方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行本申请实施例的第一方面所述的物体检测方法的步骤。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种物体检测方法的第一个实施例的流程图;
图2是本申请实施例提供的物体检测方法的流程示意图;
图3是本申请实施例提供的一种编码网络的结构和基本工作原理图;
图4是本申请实施例提供的一种解码网络的结构和基本工作原理图;
图5是本申请实施例提供的一种中心点位置热力图的示意图;
图6是本申请实施例提供的一种高宽特征图的示意图;
图7是本申请实施例提供的一种物体检测方法的第二个实施例的流程图;
图8是本申请实施例提供的一种物体检测装置的一个实施例的结构图;
图9是本申请实施例提供的一种终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
本申请实施例提供了一种物体检测方法、装置、终端设备和存储介质,能够提高物体检测的准确性,且算法耗时较小。应当理解,本申请各个方法实施例的执行主体可以为各种类型的终端设备或服务器,比如手机、平板电脑、笔记本电脑、台式电脑和可穿戴设备等,也可以为各种类型的带有处理器的智能机器人,比如桌面机器人等。
请参阅图1,示出了本申请实施例中一种物体检测方法,包括:
101、获取待测图像;
首先,获取待测图像,待测图像是待执行物体检测的图像,可以是单独的一张图像,也可以是多张不同的图像。
102、将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
然后,将该待测图像输入预先构建的一个神经网络模型,通过该神经网络模型输出该待测图像的中心点位置热力图和高宽特征图。需要说明的是,若待测图像有多张,则每张图像都会获得一张对应的中心点位置热力图和一张对应的高宽特征图。
该神经网络模型不局限于某一个类型的特定神经网络,是一个统称的说法,任何可实现提取图像特征,并基于图像特征生成中心点位置热力图和高宽特征图的神经网络类别,均可应用于本申请。
该神经网络可以采用已知中心点位置热力图和高宽特征图的多张样本图像作为训练集训练得到,比如,采用人工标注好的,带有中心点位置热力图和高宽特征图的样本图像作为训练集,训练得到一个编码-解码器结构的神经网络。将一张图像输入训练好的该神经网络中,该神经网络能够提取该图像中的某些特征(比如颜色、纹理、轮廓等),然后基于这些特征进行运算,将这些特征和样本图像的图像特征进行比较,最终得到一张对应的中心点位置热力图和高宽特征图。该算法的流程示意图如图2所示,输入图像至编码-解码器结构的神经网络,可以得到物体中心点坐标(根据中心点位置热力图确定)以及物体框的高度和宽度(根据高宽特征图确定),最后即可确定物体框的位置和尺寸。
进一步的,所述神经网络模型包括编码网络和解码网络,所述将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图可以包括:
(1)采用所述编码网络提取所述待测图像的图像特征,所述图像特征包含所述待测图像中物体的位置特征和类别特征;
(2)采用所述解码网络对所述图像特征进行解码,得到所述中心点位置热力图和所述高宽特征图。
该编码网络的基本原理为:通过组合一系列的卷积层和池化层,得到一个编码器神经网络。该网络通过训练,能够提取图像中的特征(比如颜色、轮廓、纹理等信息),这些特征经过进一步的组合,匹配处理,能够得到一组高维度的图像特征F,这个高维度的图像特征F包含待测图像中的物体特征,比如位置特征、类别特征和尺寸特征等。该编码网络的结构和基本工作原理如图3所示,编码网络包含多个卷积层和池化层的组合,将待测图像输入该编码网络后,该编码网络能够提取出待测图像中的高维度的图像特征。另外,从图3中也可以看出,该编码网络的结构简单,属于轻量级的神经网络,不会产生深度卷积网络中损失物体位置信息的问题。
该解码网络的基本原理为:通过组合一系列的反卷积层和线性插值操作层,得到一个解码器神经网络。该网络通过训练,能够对编码网络输出的高维度的图像特征F进行解码,得到对应的中心点位置热力图和高宽特征图。后续再对中心点位置热力图和高宽特征图进行解析,就可以得到待测图像中的各个物体框的中心点、高度和宽度。该解码网络的结构和基本工作原理如图4所示,解码网络包含多个反卷积层和线性插值操作层的组合,将上述高维度的图像特征F输入该解码网络后,输出待测图像的中心点位置热力图和高宽特征图。其中,中心点位置热力图用于确定所述待测图像中具有的物体中心点,高宽特征图用于确定所述待测图像中具有的物体的高度和宽度。
具体的,中心点位置热力图包含待测图像中每个像素点作为各个预设类别物体的中心点的概率,主要用于确定待测图像的物体中心点坐标。由于待测图像中的每一个像素点都有可能是物体的中心点,因此中心点热力图的长宽尺寸和待测图像的长宽尺寸是一样的。另外,中心点位置热力图中每个像素点包含作为各个预设类别物体的中心点的概率,假设有C个预设类别(比如苹果、香蕉、西瓜等)的物体,则每个像素点具有对应的C个概率值,这C个概率值表示该像素点的预测结果,每个概率值都处于0-1之间,且这C个概率值之和等于1。假设待测图像为Ih×w,即h行w列的图像,则对应的中心点位置热力图为Oh×w×C,即为一个维度h×w×C的矩阵,如图5所示。
高宽特征图包含待测图像中每个像素点作为物体的中心点时所对应的物体框的高度和宽度,主要用于确定待测图像的物体框的尺寸。高宽特征图中每个像素点都包含对应的2个数值,分别表示该像素点作为物体的中心点时所对应的物体框的高度和宽度。因此,高宽特征图的长宽尺寸也是和待测图像一样的,假设待测图像为Ih×w,则对应的高宽特征图为Sh×w×2,即为一个维度h×w×2的矩阵,如图6所示。
103、根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框。
在得到待测图像的中心点位置热力图和高宽特征图之后,可以根据这两个图确定该待测图像中具有的各个物体框,即确定各个物体框的中心点坐标和尺寸(高度和宽度)。其中,物体框的中心点坐标根据中心点位置热力图确定,物体框的尺寸根据高宽特征图确定。
具体的,步骤103可以包括:
(1)针对所述中心点位置热力图中的每个像素点,检测该像素点作为各个预设类别物体的中心点的概率中的最大值是否大于预设阈值;
(2)若该像素点作为各个预设类别物体的中心点的概率中的最大值大于预设阈值,则将该像素点确定为目标类别的物体框的中心点,所述目标类别为所述最大值对应的物体类别;
(3)从所述高宽特征图中查找该像素点作为物体的中心点时所对应的物体框的目标高度和目标宽度;
(4)在所述待测图像中生成中心点处于该像素点、高度为所述目标高度且宽度为所述目标宽度的所述目标类别的物体框。
算法会遍历该中心点位置热力图中的每个像素点,获取该像素点对应的作为各个预设类别物体的中心点的概率,查找这些概率中的最大值,然后判断该最大值是否大于预设的阈值(比如0.5)。若该最大值大于或等于预设的阈值,则算法会判定该像素点为目标类别(即该概率最大值对应的物体类别)的物体框的中心点,然后从高宽特征图中找到该像素点对应的目标高度和目标宽度,从而确定该像素点为目标类别的物体框的中心点,且该物体框的高度等于该目标高度,该物体框的宽度等于该目标宽度,接下来采用相同的方式继续判断下一个像素点;若该最大值小于该阈值,则算法会判定该像素点不是物体框的中心点,然后采用相同的方式继续判断下一个像素点。在遍历该中心点位置热力图中的所有像素点之后,即可找出待测图像中所有的物体框,包括物体框的中心点位置以及高宽尺寸。
以图5所示的中心点位置热力图Oh×w×C和图6所示的高宽特征图Sh×w×2为例进行说明。首先,算法会检测该Oh×w×C的一个像素点,比如图中的X(x,y),获取X(x,y)对应的C个概率值,从这C个概率值中找到最大的概率值,同时确定该最大的概率值对应的物体类别(假设是Ci,表示C个物体类别中的类别i)。然后,再判断这个最大的概率值是否大于提前设置好的某个阈值(比如0.5),如果小于,则判定X不是物体的中心点,然后采用相同的方式检测Oh×w×C的下一个像素点;如果大于,则表示X(x,y)为Ci类别物体的中心点,此时从高宽特征图Sh×w×2中查找X(x,y)对应的物体框高度和宽度,可表示为(Sx,y,1)和(Sx,y,2),然后可以确定一个物体框坐标为(x,y,Sx,y,1,Sx,y,2),前两个点表示物体框的中心点坐标,后两个点表示物体框的高度和宽度,同时这个物体框表示的是Ci这个物体类别,且预测的置信度为score(score为该最大的概率值)。当遍历检测完Oh×w×C的所有像素点之后,即可找出待测图像中的所有物体框,完成物体检测操作。
进一步的,在确定所述待测图像中具有的各个物体框之后,还可以包括:
(1)将确定的所述各个物体框和人工标注的所述待测图像具有的各个物体框进行比较,得到物体检测误差;
(2)根据所述物体检测误差,采用反向传播算法对所述编码网络的参数和所述解码网络的参数进行迭代更新。
在采用神经网络模型预测得到待测图像中的各个物体框后,可以将预测得到的各个物体框与人工标注的该待测图像中的真实物体框进行比较,计算误差。然后,根据该误差,采用反向传播算法对该编码网络和该解码网络的参数进行迭代更新,以提高网络下一次预测的准确率。
本申请实施例采用神经网络对待测图像进行处理,生成该待测图像的中心点位置热力图和高宽特征图,利用该中心点位置热力图找出待测图像中各个物体的中心位置,同时利用该高宽特征图确定各个物体框的高度和宽度,从而完成物体检测。与现有技术相比,本申请实施例无需在待测图像中划分出多个目标区域,算法耗时较小;另外,本申请实施例采用中心点位置热力图和高宽特征图的方法确定物体框的位置和尺寸,能够比较准确地找出待测图像中具有的各个物体的位置和尺寸,提高物体检测的准确性。
请参阅图7,示出了本申请实施例中另一种物体检测方法,包括:
701、获取待测图像;
在本申请实施例中,获取的待测图像来自于桌面机器人采集的视频流,步骤701可以包括:
(1)获取桌面机器人拍摄的视频流;
(2)对所述视频流进行解码,得到所述视频流中的每一帧图像;
(3)将所述视频中的每一帧图像确定为所述待测图像。
通过桌面机器人自带的摄像头拍摄得到一个视频流,为了检测该视频流中出现的物体,首先对该视频流进行解码,得到视频流中的n帧图像I1、I2、…In,这n帧图像为本申请实施例中的待测图像。
702、对所述待测图像进行裁剪处理,得到指定尺寸的所述待测图像;
在获取待测图像之后,对该待测图像进行裁剪处理,得到指定尺寸的待测图像。待测图像是通过桌面机器人自带的摄像头获取的,其图像的尺寸是固定的,根据实际需求可以采用裁剪的方式对图像的尺寸进行调整,得到尺寸符合实际需求的待测图像。比如,机器人采集到的原始图像是640*480大小,则可以对该原始图像进行裁剪(主要是在图像的四周裁剪掉一些多余的像素),得到480*480的指定尺寸的图像。将待测图像裁剪成指定尺寸的图像,比如正方形的图像,有利于后续图像处理的计算。在裁剪图像的时候,将上述n帧图像I1、I2、…In都裁剪成同一尺寸的图像。
703、对指定尺寸的所述待测图像进行归一化处理;
然后,对指定尺寸的所述待测图像进行归一化处理。归一化处理是为了将原始的RGB图像(取值范围为0-255)映射到0-1的范围内处理,能够减小模型计算量,提高图像处理的速度。
具体的归一化操作方法可以是:针对所述待测图像中的每个像素点,均将各自的RGB值减去最小RGB值,然后除以最大RGB值;其中,所述最小RGB值为所述待测图像中RGB值最小的像素点的RGB值,所述最大RGB值为所述待测图像中RGB值最大的像素点的RGB值。也即,将每个像素点的RGB值减去图像中的最小RGB值,然后除以图像中的最大RGB值,可以采用公式(P-Pmin)/Pmax表示,其中P表示待测图像中的任意一个像素点的RGB值,Pmin表示待测图像中RGB值最小的像素点的RGB值,Pmax表示待测图像中RGB值最大的像素点的RGB值。
704、将归一化处理后的所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
705、根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框。
步骤704-705的具体说明,可以参照上一个实施例中的步骤102-103,在此不再赘述。
本申请实施例采用神经网络对待测图像进行处理,生成该待测图像的中心点位置热力图和高宽特征图,利用该中心点位置热力图找出待测图像中各个物体的中心位置,同时利用该高宽特征图确定各个物体框的高度和宽度,从而完成物体检测。与本申请的第一个实施例相比,本实施例在将待测图像输入神经网络模型之前,会对待测图像进行裁剪处理和归一化处理,能够减小后续模型处理的计算量,提高算法执行的速度。
应理解,上述各个实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
上面主要描述了一种物体检测方法,下面将对一种物体检测装置进行描述。
请参阅图8,本申请实施例中一种物体检测装置的一个实施例包括:
图像获取模块801,用于获取待测图像;
图像处理模块802,用于将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
物体框确定模块803,用于根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框。
进一步的,所述物体检测装置还可以包括:
图像预处理模块,用于对所述待测图像进行裁剪处理以及归一化处理。
进一步的,所述图像预处理模块可以包括:
归一化处理单元,用于针对所述待测图像中的每个像素点,均将各自的RGB值减去最小RGB值,然后除以最大RGB值;其中,所述最小RGB值为所述待测图像中RGB值最小的像素点的RGB值,所述最大RGB值为所述待测图像中RGB值最大的像素点的RGB值。
进一步的,所述神经网络模型包括编码网络和解码网络,所述图像处理模块可以包括:
图像特征提取单元,用于采用所述编码网络提取所述待测图像的图像特征,所述图像特征包含所述待测图像中物体的位置特征和类别特征;
图像特征解码单元,用于采用所述解码网络对所述图像特征进行解码,得到所述中心点位置热力图和所述高宽特征图。
进一步的,所述物体检测装置还可以包括:
误差确定模块,用于将确定的所述各个物体框和人工标注的所述待测图像具有的各个物体框进行比较,得到物体检测误差;
网络参数更新模块,用于根据所述物体检测误差,采用反向传播算法对所述编码网络的参数和所述解码网络的参数进行迭代更新。
进一步的,所述中心点位置热力图包含所述待测图像中每个像素点作为各个预设类别物体的中心点的概率,所述高宽特征图包含所述待测图像中每个像素点作为物体的中心点时所对应的物体框的高度和宽度。
进一步的,所述物体框确定模块可以包括:
概率检测单元,用于针对所述中心点位置热力图中的每个像素点,检测该像素点作为各个预设类别物体的中心点的概率中的最大值是否大于预设阈值;
中心点确定单元,用于若该像素点作为各个预设类别物体的中心点的概率中的最大值大于预设阈值,则将该像素点确定为目标类别的物体框的中心点,所述目标类别为所述最大值对应的物体类别;
高宽查找单元,用于从所述高宽特征图中查找该像素点作为物体的中心点时所对应的物体框的目标高度和目标宽度;
物体框生成单元,用于在所述待测图像中生成中心点处于该像素点、高度为所述目标高度且宽度为所述目标宽度的所述目标类别的物体框。
进一步的,所述图像获取模块可以包括:
视频流获取单元,用于获取桌面机器人拍摄的视频流;
视频流解码单元,用于对所述视频流进行解码,得到所述视频流中的每一帧图像;
图像确定单元,用于将所述视频流中的每一帧图像确定为所述待测图像。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如图1或图7表示的任意一种物体检测方法的步骤。
本申请实施例还提供一种计算机程序产品,当该计算机程序产品在终端设备上运行时,使得终端设备执行实现如图1或图7表示的任意一种物体检测方法的步骤。
图9是本申请一实施例提供的终端设备的示意图。如图9所示,该实施例的终端设备9包括:处理器90、存储器91以及存储在所述存储器91中并可在所述处理器90上运行的计算机程序92。所述处理器90执行所述计算机程序92时实现上述各个物体检测方法的实施例中的步骤,例如图1所示的步骤101至103。或者,所述处理器90执行所述计算机程序92时实现上述各装置实施例中各模块/单元的功能,例如图8所示模块801至803的功能。
所述计算机程序92可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器91中,并由所述处理器90执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序92在所述终端设备9中的执行过程。
所称处理器90可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器91可以是所述终端设备9的内部存储单元,例如终端设备9的硬盘或内存。所述存储器91也可以是所述终端设备9的外部存储设备,例如所述终端设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器91还可以既包括所述终端设备9的内部存储单元也包括外部存储设备。所述存储器91用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (9)

1.一种物体检测方法,其特征在于,包括:
获取待测图像;
将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框;
其中,所述神经网络模型包括编码网络和解码网络,所述将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图包括:
采用所述编码网络提取所述待测图像的图像特征,所述图像特征包含所述待测图像中物体的位置特征和类别特征;
采用所述解码网络对所述图像特征进行解码,得到所述中心点位置热力图和所述高宽特征图。
2.如权利要求1所述的物体检测方法,其特征在于,所述中心点位置热力图包含所述待测图像中每个像素点作为各个预设类别物体的中心点的概率,所述高宽特征图包含所述待测图像中每个像素点作为物体的中心点时所对应的物体框的高度和宽度。
3.如权利要求2所述的物体检测方法,其特征在于,所述根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框包括:
针对所述中心点位置热力图中的每个像素点,检测该像素点作为各个预设类别物体的中心点的概率中的最大值是否大于预设阈值;
若该像素点作为各个预设类别物体的中心点的概率中的最大值大于预设阈值,则将该像素点确定为目标类别的物体框的中心点,所述目标类别为所述最大值对应的物体类别;
从所述高宽特征图中查找该像素点作为物体的中心点时所对应的物体框的目标高度和目标宽度;
在所述待测图像中生成中心点处于该像素点、高度为所述目标高度且宽度为所述目标宽度的所述目标类别的物体框。
4.如权利要求1所述的物体检测方法,其特征在于,所述物体检测方法还包括:
对所述待测图像进行裁剪处理以及归一化处理。
5.如权利要求4所述的物体检测方法,其特征在于,对所述待测图像进行归一化处理,包括:
针对所述待测图像中的每个像素点,均将各自的RGB值减去最小RGB值,然后除以最大RGB值;
其中,所述最小RGB值为所述待测图像中RGB值最小的像素点的RGB值,所述最大RGB值为所述待测图像中RGB值最大的像素点的RGB值。
6.如权利要求1所述的物体检测方法,其特征在于,在确定所述待测图像中具有的各个物体框之后,还包括:
将确定的所述各个物体框和人工标注的所述待测图像具有的各个物体框进行比较,得到物体检测误差;
根据所述物体检测误差,采用反向传播算法对所述编码网络的参数和所述解码网络的参数进行迭代更新。
7.如权利要求1至6中任一项所述的物体检测方法,其特征在于,所述获取待测图像包括:
获取桌面机器人拍摄的视频流;
对所述视频流进行解码,得到所述视频流中的每一帧图像;
将所述视频流中的每一帧图像确定为所述待测图像。
8.一种物体检测装置,其特征在于,包括:
图像获取模块,用于获取待测图像;
图像处理模块,用于将所述待测图像输入预先构建的神经网络模型,得到所述待测图像的中心点位置热力图和高宽特征图;
物体框确定模块,用于根据所述中心点位置热力图和所述高宽特征图,确定所述待测图像中具有的各个物体框;
其中,所述神经网络模型包括编码网络和解码网络,所述图像处理模块包括:
图像特征提取单元,用于采用所述编码网络提取所述待测图像的图像特征,所述图像特征包含所述待测图像中物体的位置特征和类别特征;
图像特征解码单元,用于采用所述解码网络对所述图像特征进行解码,得到所述中心点位置热力图和所述高宽特征图。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的物体检测方法的步骤。
CN202010799792.9A 2020-08-11 2020-08-11 一种物体检测方法、装置及终端设备 Active CN112084874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010799792.9A CN112084874B (zh) 2020-08-11 2020-08-11 一种物体检测方法、装置及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010799792.9A CN112084874B (zh) 2020-08-11 2020-08-11 一种物体检测方法、装置及终端设备

Publications (2)

Publication Number Publication Date
CN112084874A CN112084874A (zh) 2020-12-15
CN112084874B true CN112084874B (zh) 2023-12-29

Family

ID=73735500

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010799792.9A Active CN112084874B (zh) 2020-08-11 2020-08-11 一种物体检测方法、装置及终端设备

Country Status (1)

Country Link
CN (1) CN112084874B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668675B (zh) * 2021-03-22 2021-06-22 腾讯科技(深圳)有限公司 一种图像处理方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803071A (zh) * 2016-12-29 2017-06-06 浙江大华技术股份有限公司 一种图像中的物体检测方法及装置
CN111259779A (zh) * 2020-01-13 2020-06-09 南京大学 一种基于中心点轨迹预测的视频动作检测方法
CN111311601A (zh) * 2020-03-26 2020-06-19 深圳极视角科技有限公司 一种拼接图像的分割方法及装置
CN111461036A (zh) * 2020-04-07 2020-07-28 武汉大学 一种利用背景建模增强数据的实时行人检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229347B2 (en) * 2017-05-14 2019-03-12 International Business Machines Corporation Systems and methods for identifying a target object in an image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803071A (zh) * 2016-12-29 2017-06-06 浙江大华技术股份有限公司 一种图像中的物体检测方法及装置
CN111259779A (zh) * 2020-01-13 2020-06-09 南京大学 一种基于中心点轨迹预测的视频动作检测方法
CN111311601A (zh) * 2020-03-26 2020-06-19 深圳极视角科技有限公司 一种拼接图像的分割方法及装置
CN111461036A (zh) * 2020-04-07 2020-07-28 武汉大学 一种利用背景建模增强数据的实时行人检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的仓储物体检测算法研究;王飞;陈亮杰;王梨;王林;;南京师范大学学报(工程技术版)(04);全文 *
智能驾驶实时目标检测的深度卷积神经网络;申恩恩;胡玉梅;陈光;罗攀;朱浩;;汽车安全与节能学报(01);全文 *

Also Published As

Publication number Publication date
CN112084874A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN109960742B (zh) 局部信息的搜索方法及装置
CN109165538B (zh) 基于深度神经网络的条形码检测方法及装置
CN111814902A (zh) 目标检测模型训练方法、目标识别方法、装置和介质
CN108564579B (zh) 一种基于时空相关的混凝土裂缝检测方法及检测装置
CN112381061B (zh) 一种面部表情识别方法及系统
CN112200056B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN114066987B (zh) 一种相机位姿估计方法、装置、设备及存储介质
CN112990016B (zh) 表情特征提取方法、装置、计算机设备及存储介质
CN112836625A (zh) 人脸活体检测方法、装置、电子设备
CN111582032A (zh) 行人检测方法、装置、终端设备及存储介质
CN111353385B (zh) 一种基于掩膜对齐与注意力机制的行人再识别方法和装置
CN111898610A (zh) 卡片缺角检测方法、装置、计算机设备及存储介质
CN112084874B (zh) 一种物体检测方法、装置及终端设备
CN113269752A (zh) 一种图像检测方法、装置终端设备及存储介质
CN110210314B (zh) 人脸检测方法、装置、计算机设备及存储介质
CN111104965A (zh) 车辆目标识别的方法及装置
CN110633630A (zh) 一种行为识别方法、装置及终端设备
CN115345895A (zh) 用于视觉检测的图像分割方法、装置、计算机设备及介质
CN112950652B (zh) 机器人及其手部图像分割方法和装置
CN115995017A (zh) 一种果实识别与定位方法、装置及介质
CN115619729A (zh) 人脸图像质量评估方法、装置及电子设备
CN112183359A (zh) 视频中的暴力内容检测方法、装置及设备
CN112069885A (zh) 人脸属性识别方法、装置及移动终端
CN112733670A (zh) 指纹特征提取方法、装置、电子设备及存储介质
CN110956190A (zh) 图像识别方法及装置、计算机装置和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant