CN106295678A - 神经网络训练与构建方法和装置以及目标检测方法和装置 - Google Patents

神经网络训练与构建方法和装置以及目标检测方法和装置 Download PDF

Info

Publication number
CN106295678A
CN106295678A CN201610605759.1A CN201610605759A CN106295678A CN 106295678 A CN106295678 A CN 106295678A CN 201610605759 A CN201610605759 A CN 201610605759A CN 106295678 A CN106295678 A CN 106295678A
Authority
CN
China
Prior art keywords
detection
neutral net
pixel
training
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610605759.1A
Other languages
English (en)
Other versions
CN106295678B (zh
Inventor
余家辉
印奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Megvii Technology Co Ltd
Beijing Aperture Science and Technology Ltd
Original Assignee
Beijing Megvii Technology Co Ltd
Beijing Aperture Science and Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Megvii Technology Co Ltd, Beijing Aperture Science and Technology Ltd filed Critical Beijing Megvii Technology Co Ltd
Priority to CN201610605759.1A priority Critical patent/CN106295678B/zh
Publication of CN106295678A publication Critical patent/CN106295678A/zh
Priority to US15/660,494 priority patent/US10769493B2/en
Application granted granted Critical
Publication of CN106295678B publication Critical patent/CN106295678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Abstract

本发明的实施例提供了用于目标检测的神经网络训练与构建方法和装置以及基于神经网络的目标检测方法和装置。所述用于目标检测的神经网络训练方法包括:将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。本发明实施例的神经网络训练与构建方法和装置以及目标检测方法和装置利用第一损失函数将目标边界框回归为一个整体单元,显著增加了神经网络的目标检测精度,并且能够通过神经网络的两个分支结构有效提高神经网络的训练和检测效率。

Description

神经网络训练与构建方法和装置以及目标检测方法和装置
技术领域
本公开的实施例涉及图像处理,尤其涉及用于目标检测的神经网络的训练与构建方法和装置、以及基于神经网络的目标检测方法和装置。
背景技术
目标检测是计算机视觉领域中一个基础性的研究课题,其在人脸识别、安全监控以及动态追踪等很多方面都有广泛的应用前景。目标检测是指对于任意一幅给定的图像,检测和识别其中特定的目标(例如人脸),并返回目标的位置、大小信息,例如输出包围目标的边界框。目标检测是一个复杂的具有挑战性的模式检测问题,其主要的难点有两方面,一方面是由于目标的细节变化、遮挡等内在的变化所引起的,另外一方面是由于成像角度、光照影响、成像设备的焦距、成像距离、图像获得的途径不同等外在条件变化所引起。
基于深度卷积神经网络(CNN)的目标检测方法是当前较为先进的目标检测方法。现有的基于CNN的目标检测方法一般分为三步:1)利用传统的候选区域(region proposal)方法从图像中提取若干个可能是待检测目标的候选区域;2)将所提取的候选区域输入CNN中用以识别和分类;3)采用边界框回归技术将粗糙的候选目标细化为更加精确的目标边界。然而,当前基于CNN的目标检测方法所获取的目标检测结果仍然存在受目标的内在的变化的影响、目标识别不准确、检测效率低等技术问题。
发明内容
考虑到上述问题而提出了本公开。
根据本公开的一个方面,提供了一种用于目标检测的神经网络的训练方法,包括:将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练,包括:利用所述第一损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
其中,所述第一损失函数为所述预测边界框和所述真实边界框的交集面积与并集面积之比的自然对数的负值。
其中,根据预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,包括:对于位于所述训练图像中真实边界框内的至少一个像素点,确定第一4维向量和第二4维向量,其中,该第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,所述第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离;根据所述第一4维向量,获得所述真实边界框的面积;根据所述第二4维向量,获得所述预测边界框的面积;根据所述第一4维向量和所述第二4维向量,获得所述预测边界框和所述真实边界框的交集面积;以及将获得的所述预测边界框的面积和所述真实边界框的面积的和与所述交集面积的差作为所述并集面积。
其中,训练方法还包括:选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度,所述至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:利用所述第一损失函数和第二损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,以得到训练好的神经网络。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层;其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
其中,训练方法还包括:对于每个输入的训练图像,还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示所述训练图像中对应像素点属于所述训练目标的置信度。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
根据本公开的另一个方面,提供一种用于目标检测的神经网络的训练装置,包括:处理器;存储器;和存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时,使得所述处理器执行以下步骤:将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练,包括:利用所述第一损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
其中,所述第一损失函数为所述预测边界框和所述真实边界框的交集面积与并集面积之比的自然对数的负值。
其中,根据预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,包括:对于位于所述训练图像中真实边界框内的至少一个像素点,确定第一4维向量和第二4维向量,其中,该第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,所述第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离;根据所述第一4维向量,获得所述真实边界框的面积;根据所述第二4维向量,获得所述预测边界框的面积;根据所述第一4维向量和所述第二4维向量,获得所述预测边界框和所述真实边界框的交集面积;以及将获得的所述预测边界框的面积和所述真实边界框的面积的和与所述交集面积的差作为所述并集面积。
其中,所述处理器还执行以下步骤:选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度,利用所述第一损失函数和第二损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,以得到训练好的神经网络。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层,其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
其中,所述处理器还执行以下步骤:对于每个输入的训练图像,还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示所述训练图像中对应像素点属于所述训练目标的置信度。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
根据本公开的又一个方面,提供一种用于目标检测的神经网络的训练装置,包括:预测部件,配置为将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;第一获取部件,配置为根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及参数调整部件,配置为至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,所述参数调整部件利用所述第一损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比。
其中,所述参数调整部件确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
其中,所述第一损失函数为所述预测边界框和所述真实边界框的交集面积与并集面积之比的自然对数的负值。
其中,所述第一获取部件对于位于所述训练图像中真实边界框内的至少一个像素点,确定第一4维向量和第二4维向量,其中,该第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,所述第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离;根据所述第一4维向量,获得所述真实边界框的面积;根据所述第二4维向量,获得所述预测边界框的面积;根据所述第一4维向量和所述第二4维向量,获得所述预测边界框和所述真实边界框的交集面积;以及将获得的所述预测边界框的面积和所述真实边界框的面积的和与所述交集面积的差作为所述并集面积。
其中,训练装置还包括:第二获取部件,配置为选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度,所述参数调整部件利用所述第一损失函数和第二损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,以得到训练好的神经网络。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层,其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
其中,对于每个输入的训练图像,所述预测部件还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示所述训练图像中对应像素点属于所述训练目标的置信度。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
本公开实施例的用于目标检测的神经网络训练方法和装置利用第一损失函数将目标边界框回归为一个整体单元,利用目标边界框的各边界之间的高度关联性,显著增加了神经网络的目标检测精度,并能够在提高神经网络效率的同时有效适用于不同尺寸的目标的训练和检测。
根据本公开的再一个方面,提供一种用于目标检测的神经网络的构建方法,包括:构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
其中,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为所述像素点至所述检测边界框的上、下、左、右边界的距离。
其中,所述神经网络的第一支路上还包括:卷积层,所述卷积层配置为对所述第m个中间层输出的特征图像进行卷积,以获得第一特征图;上采样层,所述上采样层配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,所述剪裁层配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图输出至所述第一支路的第一输出层,以输出所述置信度图。
其中,所述神经网络的第二支路上还包括:卷积层,所述卷积层配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述图像的第二特征图;上采样层,所述上采样层配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,所述剪裁层配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及修正线性单元层,所述修正线性单元层配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至所述第二支路的第二输出层,以输出所述边界框检测图。
其中,构建方法还包括:训练所述神经网络,其中,所述训练神经网络包括:将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中检测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:利用所述第一损失函数以及反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,其中,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开的又一个方面,提供一种用于目标检测的神经网络的构建装置,包括:处理器;存储器;和存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时使得所述处理器执行以下步骤:构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
其中,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为所述像素点至所述检测边界框的上、下、左、右边界的距离。
其中,所述神经网络的第一支路上还包括:卷积层,所述卷积层配置为对所述第m个中间层输出的特征图像进行卷积,以获得所述检测图像的第一特征图;上采样层,所述上采样层配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,所述剪裁层配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图输出至所述第一支路的第一输出层,以输出所述置信度图。
其中,所述神经网络的第二支路上还包括:卷积层,所述卷积层配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述检测图像的第二特征图;上采样层,所述上采样层配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,所述剪裁层配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及修正线性单元层,所述修正线性单元层配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至所述第二支路的第二输出层,以输出所述边界框检测图。
其中,所述处理器还执行以下步骤:训练所述神经网络,具体包括:将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中检测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:利用所述第一损失函数以及反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,其中,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开的又一个方面,提供一种用于目标检测的神经网络的构建装置,包括:构建部件,配置为构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;第一配置部件,配置为将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;第二配置部件,配置为将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
其中,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为所述像素点至所述检测边界框的上、下、左、右边界的距离。
其中,所述构建部件在所述神经网络的第一支路上还构建有:卷积层,所述卷积层配置为对所述第m个中间层输出的特征图像进行卷积,以获得所述检测图像的第一特征图;上采样层,所述上采样层配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,所述剪裁层配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图输出至所述第一支路的第一输出层,以输出所述置信度图。
其中,所述构建部件在所述神经网络的第二支路上还构建有:第二卷积层,所述卷积层配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述图像的第二特征图;上采样层,所述上采样层配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,所述剪裁层配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及修正线性单元层,所述修正线性单元层配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至所述第二支路的第二输出层,以输出所述边界框检测图。
其中,构建装置还包括:训练部件,配置为通过以下方式训练所述神经网络:将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中检测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
其中,所述训练部件利用所述第一损失函数以及反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,其中,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开的又一个方面,提供一种用于目标检测的神经网络,包括一个输入层、n个中间层和两个输出层,n是大于等于2的正整数,其中,第m个中间层级联至所述神经网络的第一支路,第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述神经网络的第二支路的第二输出层配置为在利用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该目标的边界框。
其中,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为所述像素点至所述检测边界框的上、下、左、右边界的距离。
其中,所述神经网络的第一支路上还包括:卷积层,所述卷积层配置为对所述第m个中间层输出的特征图像进行卷积,以获得所述检测图像的第一特征图;上采样层,所述上采样层配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,所述剪裁层配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图输出至所述第一支路的第一输出层,以输出所述置信度图。
其中,所述神经网络的第二支路上还包括:卷积层,所述卷积层配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述检测图像的第二特征图;上采样层,所述上采样层配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,所述剪裁层配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及修正线性单元层,所述修正线性单元层配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至所述第二支路的第二输出层,以输出所述边界框检测图。
其中,所述神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
其中,所述神经网络是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映训练图像中各像素点的预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开实施例中的神经网络构建方法和装置得到的神经网络能够在边界框回归时,使得边界框输出层分支比置信度输出层分支获得更大的感受野,使得边界框输出层分支采用自下而上的策略从置信度图中提取边界框,从而有效提高了神经网络的训练和检测效率。
根据本公开的另一个方面,提供一种基于神经网络的目标检测方法,包括:获取包含检测目标的检测图像;利用神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,所述对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;在拟合得到的几何形状内选取预定数量的像素点;对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
其中,当像素点位于对应的检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为与其对应的像素点至对应的检测边界框的上、下、左、右边界的距离。
其中,将各个所述检测边界框进行合并包括:利用非最大抑制方法将各个所述检测边界框进行合并。
其中,在所述置信度图中基于各个像素点的置信度通过形状拟合得到至少一个几何形状包括:确定置信度大于预定阈值的多个像素点;基于所述多个像素点拟合得到所述至少一个几何形状。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
其中,所述神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框。
其中,所述神经网络是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开的再一个方面,提供一种基于神经网络的目标检测装置,包括:处理器;存储器;和存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时使得所述处理器执行以下步骤:获取包含检测目标的检测图像;利用神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,各对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;在拟合得到的几何形状内选取预定数量的像素点;对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
其中,当像素点位于对应的检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为与其对应的像素点至对应的检测边界框的上、下、左、右边界的距离。
其中,将各个所述检测边界框进行合并包括:利用非最大抑制方法将各个所述检测边界框进行合并。
其中,在所述置信度图中基于各个像素点的置信度通过形状拟合得到至少一个几何形状包括:确定置信度大于预定阈值的多个像素点;基于所述多个像素点拟合得到所述至少一个几何形状。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
其中,所述神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框。
其中,所述神经网络是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
根据本公开的再一个方面,提供一种基于神经网络的目标检测装置,包括:图像获取部件,配置为获取包含检测目标的检测图像;检测部件,配置为利用神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,所述对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;拟合部件,配置为在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;选取部件,配置为在拟合得到的几何形状内选取预定数量的像素点;边界框获取部件,配置为对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;合并部件,配置为将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
其中,当像素点位于对应的检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为与其对应的像素点至对应的检测边界框的上、下、左、右边界的距离。
其中,所述合并部件利用非最大抑制方法将各个所述检测边界框进行合并。
其中,所述拟合部件确定置信度大于预定阈值的多个像素点;基于所述多个像素点拟合得到所述至少一个几何形状。
其中,所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
其中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
其中,所述神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框
其中,所述神经网络是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
由此可见,本公开实施例的基于神经网络的目标检测方法和装置能够得到精确和有效的目标注位结果,检测效率高,并且不必改变输入图像的尺寸,适应性更强,适用于不同尺寸的目标,尤其对于小尺寸目标进行检测也能够取得较好的效果。此外由于在本公开实施例中能够针对每个像素点均生成对应检测边界框的对应向量,因此能够针对位于不同检测目标中的像素点获得相应的不同的检测边界框,因此本公开实施例能够同时处理检测图像中的多个检测目标。
在根据本公开实施例的技术方案中,采用了能够令神经网络更快、更稳定地收敛的损失函数,从而使得对目标的定位更加精确,目标检测的检测适应性更强并且效率更高;此外,本公开实施例的技术方案中的神经网络结构采用了具有两个分支的神经网络,并且自不同的中间层分别级联至出层,以进一步提高了目标检测的精确度。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1示意性地示出了根据本公开实施例的用于目标检测的神经网络的训练方法的流程图;
图2示意性地示出了根据本公开实施例的用于目标检测的神经网络的训练方法中真实边界框和预测边界框的示意图;
图3示意性地示出了根据本公开实施例的用于目标检测的神经网络的训练装置的示意性框图;
图4示意性地示出了根据本公开实施例的用于目标检测的神经网络的训练装置的示例性结构框图;
图5示意性地示出了根据本公开实施例的用于目标检测的神经网络的构建方法的流程图;
图6示意性地示出了根据本公开实施例的用于目标检测的神经网络的结构示意图;
图7示意性地示出了根据本公开实施例的用于目标检测的神经网络的构建装置的示意性框图;
图8示意性地示出了根据本公开实施例的用于目标检测的神经网络的构建装置的示意性框图;
图9示意性地示出了根据本公开实施例的基于神经网络的目标检测方法的流程图;
图10示意性地示出了根据本公开实施例的基于神经网络的目标检测装置的示意性框图;
图11示意性地示出了根据本公开实施例的基于神经网络的目标检测装置的示意性框图;
图12示出了根据本公开实施例的目标检测方法和装置进行人脸检测的示例;
图13(a)、(b)分别示出了利用本公开实施例的损失函数训练的神经网络与利用L2损失函数训练的神经网络进行目标检测的未命中率(miss rate)和查全率(recall rate)的比较;
图14示出了针对检测图像的不同像素利用L2损失函数和采用本公开实施例的第一损失函数训练的神经网络进行人脸目标检测的结果比较示意图;
图15示出本公开实施例的人脸目标检测方法与其他检测方法的横向比较示意图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。基于本公开中描述的实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本公开的保护范围之内。
首先对本公开涉及的基本概念以及根据本公开实施例的用于目标检测的神经网络的训练与构建的基本思想进行简单介绍。
众所周知,利用神经网络进行目标检测可以分为两个阶段,即训练阶段和检测阶段。所谓训练阶段是指首先需要利用训练目标对神经网络进行训练,以调整神经网络的参数;所谓检测阶段是指随后可以利用训练好的神经网络对包含检测目标的检测图像进行目标检测。
L2损失函数一种常用的目标检测损失函数,其分离地考虑像素点到表示检测到的目标的位置和大小的目标边界框的上下左右边界的距离,并由此对神经网络的各参数进行调整。本发明人认识到,目标边界框中的各条边界并不是分立的多个变量,而是具有关联性的整体,因此针对用于目标检测的神经网络,可以借助损失函数将获得的边界框回归(regress)为一个整体单元,由此可以增强训练得到的神经网络的鲁棒性,进而提高利用该神经网络进行目标检测的检测精度和检测效率。
另外,可以将神经网络创建为具有两个分支,其两个输出层分别连接两个不同的中间层。其中,第一输出层所连接的中间层在第二输出层所连接的中间层之前。通过这种设置,能够在神经网络的训练和检测过程中利用第一输出层的输出结果推得第二输出层,并结合第一输出层和第二输出层的预测结果,更精确地进行目标检测。
在下文中,为了便于描述,以目标对象是人脸为例进行说明。应该理解的是,本公开的检测的目标对象不局限于人脸。
其中,在本公开实施例中,位于边界框“内”的像素点可以包括位于边界框边界上的像素点。
下面将参考图1对根据本公开实施例的用于目标检测的神经网络的训练方法进行详细的描述。图1示意性地示出了根据本公开实施例的用于目标检测的神经网络的训练方法的流程图。
如图1所示,训练方法100包括步骤S101:将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框。
在神经网络的训练过程中,首先可将包含有至少一个训练目标的训练图像输入至神经网络,神经网络可以根据训练目标的相关特征进行特征提取、通过诸如SIFT特征以及HOG特征等本领域中常用的目标检测方法进行检测,以生成训练目标的预测边界框。训练图像中可以预先标注训练目标的真实边界框的位置和尺寸等,例如,以边界框预先标注训练目标。例如,以训练目标是人脸为例,可以通过SIFT特征提取以及HOG特征提取等方法提取人脸特征,再使用SVM分类器、Adaboost等方法进行分类来检测人脸,以得到所述训练人脸的预测边界框。
对于所输入的训练图像中的每一个或者某些像素点,都可以利用神经网络预测出一个针对训练目标的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,可选地,可以针对位于训练图像中的真实边界框内的每一个像素点来预测相应的预测边界框。所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
在步骤S102中,根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
其中,对于每个输入的、预先标注了训练目标真实边界框位置和尺寸的训练图像,还可以向神经网络输入与该训练图像相同大小的训练边界框图,所述神经网络输出边界框预测图。其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离。对于位于所述真实边界框之外的像素点,可以用0向量表示。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。根据神经网络所接收的同一个训练目标的训练边界框图及其获得的相应的边界框预测图,可以得到位于训练图像中的真实边界框内的每个像素点的第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离。第二4维向量中的元素分别为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。根据所述第一4维向量和所述第二4维向量,可以计算出预测边界框和真实边界框的交集面积与并集面积之比,即预测边界框和真实边界框相交部分的面积除以预测边界框和真实边界框并集所占面积的值,并据此获得第一损失函数。
在本公开的一个实施例中,当边界框为标示目标的方形边界框时,真实边界框和预测边界框均可以基于对应像素的4维向量来表示。图2示出了根据本公开实施例的用于目标检测的神经网络的训练方法中真实边界框和预测边界框的示意图。如图2所示,对于位于训练图像中真实边界框内的任一个像素点,可以基于训练边界框图中的对应像素点的向量和边界框预测图中的对应像素点的向量,分别确定第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,真实边界框位于图2左下角,第一4维向量可以记为第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,与该像素点对应的预测边界框位于图2右上角,第二4维向量可以记为x=(xt,xb,xl,xr)。此时,在经过符号处理以保证各向量中的每一个分量均不小于0之后,可根据第一4维向量获得如等式(1)所示的真实边界框的面积:
X ~ = ( x ~ t + x ~ b ) × ( x ~ l + x ~ r ) ... ( 1 )
根据第二4维向量获得如等式(2)所示的对应于该像素点的预测边界框的面积:
X=(xt+xb)×(xl+xr)…(2)
根据第一4维向量和第二4维向量获得如等式(3)所示的对应于所述预测边界框和所述真实边界框的交集面积I:
I h = m i n ( x t , x ~ t ) + m i n ( x b , x ~ b ) ,
I w = m i n ( x l , x ~ l ) + m i n ( x r , x ~ r ) , ,
I=Ih×Iw…(3)
可以将获得的所述预测边界框的面积和所述真实边界框的面积的和与所述交集面积的差作为所述并集面积,由此确定第一损失函数。例如,在图2的实施例中,并集面积可以通过等式(4)来表示:
U = X + X ~ - I ... ( 4 )
经过上述运算,可以求得交集面积和并集面积的比值I/U,并由此确定第一损失函数。例如,在本公开的一个优选实施例中,第一损失函数可以表示为所述预测边界框和所述真实边界框的交集面积与并集面积之比的自然对数的负值,即,L=-ln(I/U)。当然,这仅仅是一个示例,第一损失函数也可以是该比值I/U的其他适当函数,例如对数函数、双曲函数等。
以上预测边界框和真实边界框的表示方法仅仅是当边界框为方形边界框时的一种示例表示方式,而并非是对本公开的限制,本领域技术人员也可以采用其他的表示方式。比如,当边界框为方形边界框时,还可以利用边界框的中心点坐标位置、长度和宽度的参数进行表示,同样可以计算出预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。此外,当边界框不为方形边界框时也同理。例如,边界框为圆形边界框时,可以利用圆心坐标和半径来表示,并利用相似的方法计算预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。
在步骤S103中,至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
在此步骤中,可以利用步骤S102中所计算的第一损失函数对神经网络进行训练,调整神经网络的参数以尽量最大化预测边界框和真实边界框交集面积与并集面积之比,即令I/U尽可能大,并将此时的神经网络的参数的值作为训练好的神经网络参数的值。具体的,在一个实施例中,当与I/U的比值相关的第一损失函数表示为L=-ln(I/U)时,可以调整神经网络的参数以令第一损失函数尽可能小,并将第一损失函数收敛时的神经网络的各参数的值作为训练好的神经网络的参数的值,由此得到训练好的神经网络。在另一个实施例中,还可以对神经网络设定训练轮数的阈值,并确定当所述神经网络的训练轮数达到设定的阈值时各参数的值,作为训练好的神经网络的参数的值。
需要说明的是,当对于多个像素点均计算了其预测边界框和真实边界框的交集面积和并集面积的比时,在该步骤中可以利用所述第一损失函数调整所述神经网络的参数,从而使得各像素点对应的预测边界框和真实边界框的交并面积比均为最大化;或者使得各像素点对应的预测边界框和真实边界框的交并面积比之和为最大化,由此得到训练好的神经网络的各个参数。
能够理解,在如上根据输入的训练图像预测所述预测边界框并计算损失函数之后,需要根据所计算的损失函数进行后向传导反馈以训练神经网络。该后向传导反馈是神经网络训练中的常规处理,而并非是本发明的关键所在。此处,仅仅是为了说明的完整,对一种可能的后向传导反馈进行简单的描述。
例如,针对本公开实施例中边界框为方形边界框,且第一损失函数表示为L=-ln(I/U)时,可以如下计算后向传导的梯度:
∂ L ∂ x = I ( ▿ x X - ▿ x I ) - U ▿ x I U 2 × I U = I ( ▿ x X - ▿ x I ) - U ▿ x I U I = 1 U ▿ x X - U + I U I ▿ x I ... ( 5 )
其中,
&part; X &part; x t ( o r &part; x b ) = x l + x r , &part; X &part; x l ( o r &part; x r ) = x t + x b , &part; I &part; x t ( o r &part; x b ) = I w , i f x t < x ~ t ( o r x b < x ~ b ) 0 , o t h e r w i s e , &part; I &part; x l ( o r &part; x r ) = I w , i f x l < x ~ l ( o r x r < x ~ r ) 0 , o t h e r w i s e . ... ( 6 )
其中,与预测边界框的面积有关,是第一损失函数偏导中的正值,与相交部分有关,是第一损失函数偏导中的负值。由此可见,为了使I/U尽可能大,也即第一损失函数L=-ln(I/U)尽可能小,其偏导值倾向于使得相交部分(交集)尽量大而并集部分尽量小。而当相交部分(交集)的面积正好等于并集面积时,即为本实施例中第一损失函数所训练的神经网络的理想情况。
可选的,在利用第一损失函数训练神经网络的基础上,还可以选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数来共同训练此神经网络,以得到更好的训练效果。所述预测置信度为采用该神经网络预测出的所述训练图像中的一个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。其中,针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点属于所述训练目标和不属于所述训练目标。在神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,从而得到训练好的神经网络。在一个实施例中,可以基于所述第一损失函数和所述第二损失函数的加权和调整所述神经网络的参数,以训练所述神经网络。其中,在利用第二损失函数训练神经网络的过程中,一方面,可以对于训练图像中的每个像素点,或者至少一个像素点计算第二损失函数,并使所述像素点的预测置信度与真实置信度之间的差异最小化;另一方面,可以利用第二损失函数训练神经网络以使得比如对于各个像素点均使得预测置信度与真实置信度之间的差异都最小,或者使得各个像素点的预测置信度与真实置信度之间的差异之和最小化,由此得到训练好的神经网络的各个参数。
可选的,该实施例所训练的神经网络可以包含两个输出层。具体的,所述神经网络可以至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层,其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
其中,为了获得训练图像的预测置信度和边界框预测信息,可以对于每个输入的训练图像,还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示训练图像中对应像素点属于所述训练目标的置信度。
可选的,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
在一个实施例中,在对上述神经网络进行训练的过程中,可以根据所述训练边界框图和所述神经网络的边界框输出层输出的边界框预测图,计算所述第一损失函数;并且,可以根据所述真实置信度图以及所述神经网络的置信度输出层输出的预测置信度图,计算所述第二损失函数。根据所述第一损失函数和所述第二损失函数的加权和调整上述神经网络的参数,以实现对所述神经网络的训练。
需要说明的是,以上对根据本公开实施例的训练方法所应用的神经网络包含两个输出层的情形进行了说明,应当理解,这仅仅是一个示例,而并非是对本公开的限制。根据本公开实施例的神经网络的训练方法对于所应用的神经网络没有限制,而是可以适用于任何适当的神经网络,例如具有单个输出层的常见神经网络等。
由此可见,本公开实施例利用第一损失函数将目标边界框回归为一个整体单元,有效避免了L2损失函数将边界框四边作为四个独立变量考虑导致预测精度不高的问题,显著增加了神经网络的目标检测精度。此外,根据L2损失函数,为了平衡不同尺寸的边界框,需要将输入图像调整为特定的尺寸,因此会使得训练和检测效率低下,并且无法适应不同尺寸的目标,而本公开实施例的上述方法计算的是预测边界框和真实边界框的交并面积比,与输入图像的具体大小并无关系,因此本公开实施例无需对输入图像的尺寸进行调整,能够在提高神经网络效率的同时有效适用于不同尺寸的训练和检测目标。
下面,将参考图3来描述根据本公开实施例的用于目标检测的神经网络的训练装置。图3示出了可用于实现根据本公开实施例的神经网络的训练装置的计算设备的框图。
如图3所示,计算设备300包括一个或多个处理器302、存储器304、图像采集装置306和输出装置308,这些组件通过总线系统310和/或其它形式的连接机构(未示出)互连。应当注意,图3所示的计算设备300的组件和结构只是示例性的,而非限制性的,根据需要,计算设备300也可以具有其他组件和结构。
处理器302可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制计算设备300中的其它组件以执行期望的功能。
存储器304可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器302可以运行所述程序指令,以实现以下步骤:将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如输入的训练图像、第一损失函数、预测边界框的面积、真实边界框的面积、各像素点的对应向量、各像素的预测置信度和真实置信度等等。
图像采集装置306可以用于采集带有训练目标的训练图像,并且将所拍摄的训练图像存储在存储器304中以供其它组件使用。当然,也可以利用其他图像采集设备采集所述训练图像,并且将采集的训练图像发送给计算设备300。在这种情况下,可以省略图像采集装置306。
输出装置308可以向外部(例如用户)输出各种信息,例如图像信息、训练结果,并且可以包括显示器、扬声器、投影仪、网卡等中的一个或多个。
下面,将参考图4来描述根据本公开实施例的用于目标检测的神经网络的训练装置。图4示出了根据本公开实施例的用于目标检测的神经网络的训练装置400的示例性结构框图。如图4所示,该训练装置400可以包括预测部件410、第一获取部件420和参数调整部件430,所述各个单元可分别执行上文中结合图1和图2描述的神经网络的训练方法的各个步骤/功能。以下仅对该神经网络的训练装置400的各单元的主要功能进行描述,而省略以上已经描述过的细节内容。
预测部件410配置为将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框。预测部件410可以将包含有至少一个训练目标的训练图像输入至神经网络,神经网络可以根据训练目标的相关特征进行特征提取,以生成训练目标的预测边界框。
对于所输入的训练图像中的每一个或者某些像素点,都可以利用神经网络预测出一个针对训练目标的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,可选地,可以针对位于真实边界框内的每一个像素点来预测相应的预测边界框。所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
第一获取部件420配置为根据所述预测边界框和真实边界框交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
其中,对于每个输入的、预先标注了训练目标真实边界框位置和尺寸的训练图像,预测部件410还可以向神经网络输入与该训练图像相同大小的训练边界框图,所述神经网络输出边界框预测图。其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离。对于位于所述真实边界框之外的像素点,可以用0向量表示。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。第一获取部件420根据神经网络所接收的同一个训练目标的训练边界框图及其获得的相应的边界框预测图,可以得到位于训练图像中的真实边界框内的每个像素点的第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离。第二4维向量中的元素分别为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。根据所述第一4维向量和所述第二4维向量,可以计算出预测边界框和真实边界框的交集面积与并集面积之比,即预测边界框和真实边界框相交部分的面积除以预测边界框和真实边界框共同所占面积的值,并据此获得第一损失函数。
如上所述,预测部件410对于所输入的训练图像中的每一个像素点,都可以利用神经网络预测出一个针对训练目标的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,优选地,预测部件410可以针对位于训练图像中的真实边界框内的每一个像素点来预测相应的预测边界框。
在本公开的一个实施例中,当边界框为标示目标的方形边界框时,第一获取部件420可将真实边界框和预测边界框基于对应像素的4维向量来表示。以图2为例,对于位于训练图像中真实边界框内的任一个像素点(该像素点可以包括位于真实边界框边界上的像素点),可以基于训练边界框图中的对应像素点的向量和边界框预测图中的对应像素点的向量,分别确定第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,真实边界框位于图2左下角,第一4维向量可以记为第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,与该像素点对应的预测边界框位于图2右上角,第二4维向量可以记为x=(xt,xb,xl,xr)。如前所述,第一获取部件420可以求得交集面积和并集面积的比值I/U并获得第一损失函数。在本公开的一个优选实施例中,第一获取部件420可将第一损失函数表示为L=-ln(I/U)。
以上第一获取部件420对预测边界框和真实边界框的表示方法仅仅是当边界框为方形边界框时的一种示例表示方式,而并非是对本公开的限制,本领域技术人员也可以采用其他的表示方式。比如,当边界框为方形边界框时,还可以利用边界框的中心点坐标位置、长度和宽度的参数进行表示,同样可以计算出预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。此外,当边界框不为方形边界框时也同理。例如,边界框为圆形边界框时,可以利用圆心坐标和半径来表示,并利用相似的方法计算预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。
最后,参数调整部件430至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
参数调整部件430在利用第一损失函数对神经网络进行训练时,可以调整神经网络的参数以尽量最大化预测边界框和真实边界框的交集面积与并集面积之比,即令I/U尽可能大,并将此时的神经网络的参数的值作为训练好的神经网络参数的值。具体的,在一个实施例中,当与I/U的比值相关的第一损失函数表示为L=-ln(I/U)时,参数调整部件430可以调整神经网络的参数使得第一损失函数尽可能小,并将第一损失函数收敛时的神经网络的各参数的值作为训练好的神经网络的参数的值,以得到训练好的神经网络。在另一个实施例中,参数调整部件430还可以对神经网络设定训练轮数的阈值,以确定当所述神经网络的训练轮数达到设定的阈值时各参数的值,作为训练好的神经网络的参数的值。
在具体实施过程中,神经网络的训练过程不仅包括根据输入的训练图像预测所述预测边界框并计算损失函数的过程,还包括前述的根据所计算的损失函数进行后向梯度传导反馈以训练神经网络的过程。
此外,在参数调整部件430利用第一损失函数训练神经网络的基础上,训练装置400还可以包括第二获取部件(未示出),配置为选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数来共同训练此神经网络,以得到更好的训练效果。所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。其中,针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点落在训练目标中和没有落在训练目标中。参数调整部件430在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,从而得到训练好的神经网络。在一个实施例中,可以基于所述第一损失函数和所述第二损失函数的加权和来调整所述神经网络的参数,以训练所述神经网络。其中,在利用第二损失函数训练神经网络的过程中,一方面,可以对于训练图像中的每个像素点,或者至少一个像素点计算第二损失函数,并使所述像素点的预测置信度与真实置信度之间的差异最小化;另一方面,可以比如对于各个像素点均使得预测置信度与真实置信度之间的差异都最小,或者也可以使各个像素点的预测置信度与真实置信度之间的差异之和最小化。
可选地,所训练的像素级目标检测的神经网络可以包含两个输出层。具体地,所述神经网络可以至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层,其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
其中,为了获得训练图像的预测置信度和边界框预测信息,预测部件410可以对于每个输入的训练图像,还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示训练图像中对应像素点属于所述训练目标的置信度。并且,在本公开的一个实施例中,所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
在一个实施例中,在对上述神经网络进行训练的过程中,所述第一获取部件420可以根据所述训练边界框图和所述神经网络的边界框输出层输出的边界框预测图,计算所述第一损失函数;并且,所述第二获取部件(未示出)可以根据所述真实置信度图以及所述神经网络的置信度输出层输出的预测置信度图,计算所述第二损失函数。所述参数调整部件430根据所述第一损失函数和所述第二损失函数的加权和调整上述神经网络的参数,以实现对所述神经网络的训练。
需要说明的是,以上对根据本公开实施例的训练装置所训练的神经网络包含两个输出层的情形进行了说明,应当理解,这仅仅是一个示例,而并非是对本公开的限制。根据本公开实施例的神经网络的训练装置对于所应用的神经网络没有限制,而是可以适用于任何适当的神经网络,例如具有单个输出层的常见神经网络等。
由此可见,本公开实施例的神经网络训练装置利用第一损失函数将目标边界框回归为一个整体单元,有效避免了现有技术中将边界框四边作为四个独立变量考虑导致预测精度不高的问题,显著增加了神经网络的目标检测精度。此外,由于现有技术的方法中为了平衡不同尺寸的边界框,需要将输入图像调整为特定的尺寸,因此会使得训练和检测效率低下,并且无法适应不同尺寸的目标,而本公开实施例的上述训练装置能够在提高神经网络效率的同时能够有效适用于不同尺寸的训练和检测目标。
下面将参考图5对根据本公开实施例的用于目标检测的神经网络的构建方法进行详细的描述。图5示意性地示出了根据本公开实施例的用于目标检测的神经网络的构建方法的流程图。
如图5所示,在步骤S501,构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n。
在本步骤中,可以将神经网络设置为包含两个分支的像素级目标检测神经网络,其两个分支分别对应两个输出层,并分别级联至神经网络的不同中间层。
在步骤S502中,将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;步骤S503将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
可选的,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为所述像素点至所述检测边界框的上、下、左、右边界的距离。
可选的,所述第一和第二支路中还可以构建一个或多个中间层。在一个示例中,连接置信度输出层的分支(即,级联第m个中间层的第一支路)上还可以包括卷积层,配置为对第m个中间层输出的特征图像进行卷积,以获得所述检测图像的第一特征图;上采样层,配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述剪裁图像对齐,并将对齐后的第一特征图输出至置信度输出层,以输出所述置信度图。
在一个实施例中,所述m个中间层包括至少一个卷积层(例如,可以为神经网络模型中的多层),用于接收所述训练图像,对所述训练图像进行特征提取,生成表示检测图像中每个像素点属于对应检测目标的置信度的特征图A。将所述特征图A输入至所述第一支路上的卷积层(例如,卷积核为512×3×3×1、步长为1的卷积层),进行进一步的特征提取,得到所述第一特征图A1,通过所述第一支路上的上采样层和剪裁层对所述第一特征图A1的进一步处理,从而得到所述期望的置信度图,所述置信度图中的每个像素点表示采用所述神经网络检测出的、包含检测目标的检测图像中的对应像素点属于所述检测目标的置信度。在另一个示例中,在边界框输出层的分支(即,级联第n个中间层的第二支路)上中还可以包括卷积层,配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述图像的第二特征图;上采样层,配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述训练图像的大小;剪裁层,配置为剪裁所述调整后的第二特征图,以使得所述调整后的第二特征图与所述训练图像对齐;以及修正线性单元层,配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至边界框输出层,以输出所述边界框检测图。
在一个实施例中,所述n个中间层包括所述m个中间层与至少一个卷积层C1连接形成的中间层(例如,可以为神经网络模型中的多层),用于接收所述训练图像,对所述训练图像进行特征提取,生成表示检测图像中每个像素点属于对应检测目标的检测边界框的特征图B。例如,上述第n个中间层可以将获得特征图A输入至所述卷积层C1,所述卷积层C1对所述特征图进行特征提取,以获得特征图B。将所述特征图输入至所述第二支路上的卷积层(例如,卷积核为512×3×3×1、步长为1的卷积层),进行进一步的特征提取,得到所述第二特征图B1,通过所述第二支路上的上采样层和剪裁层对所述第一特征图B1的进一步调整,并通过修正线性单元层将调整后的第二特征图B1中的的每个像素点的对应向量中的元素调整为不小于0的向量元素,从而得到所述期望的边界框检测图,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系。在一个实施例中,经过所述修正线性单元层的调整,位于所述对应的检测边界框外的像素点的向量被调整为0向量,位于所述对应的检测边界框内的像素点的对应向量为不小于0的向量。
进一步地,本公开实施例的神经网络构建方法还可以包括:训练所述神经网络。此处,可以采用本领域中任何适当的训练方法对该神经网络进行训练,如SGD优化方法、RMSProp优化方法、ADAM优化方法等,本公开对此不做限制。
作为一个示例,可以利用本公开前一实施例中的第一损失函数对神经网络进行训练。具体,训练步骤可以包括:将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中预测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
在一个实施例中,可以根据所述训练边界框图和所述边界框预测图,计算所述第一损失函数。所述神经网络的输入层接收所述训练图像和训练边界框图,所述神经网络第二支路上的边界框输出层输出边界框预测图,因此,可以通过所述神经网络的第二支路,计算所述第一损失函数。
在训练过程中,对于所输入的训练图像中的每一个像素点,都可以利用神经网络预测出一个针对训练目标的对应的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,可选地,可以针对位于所述训练图像中的真实边界框内的每一个像素点来预测相应的预测边界框。
可选的,当边界框为标示目标的方形边界框时,训练图像中标注的真实边界框和神经网络预测的预测边界框均可以用4维向量来表示。例如,如上文中参照图2所描述的,对于位于训练图像中真实边界框内的任一个像素点,可以基于训练边界框图中的对应像素点的向量和边界框预测图中的对应像素点的向量,分别确定第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,真实边界框位于图2左下角,第一4维向量可以记为第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,与该像素点对应的预测边界框位于图2右上角,第二4维向量可以记为x=(xt,xb,xl,xr)。由此可以求得交集面积和并集面积的比值I/U并获得第一损失函数。在本公开的一个示例中,第一损失函数可以表示为L=-ln(I/U)。
以上对预测边界框和真实边界框的表示方法仅仅是当边界框为方形边界框时的一种示例表示方式,而并非是对本公开的限制,本领域技术人员也可以采用其他的表示方式。比如,当边界框为方形边界框时,还可以利用边界框的中心点坐标位置、长度和宽度的参数进行表示,同样可以计算出预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。此外,当边界框不为方形边界框时也同理。例如,边界框为圆形边界框时,可以利用圆心坐标和半径来表示,并利用相似的方法计算预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。
在利用第一损失函数对神经网络进行训练时,可以调整神经网络的参数以尽量最大化预测边界框和真实边界框的交集面积与并集面积之比,即令I/U尽可能大,并将此时的神经网络的参数的值作为训练好的神经网络参数的值。换句话说,在一个实施例中,当与I/U的比值相关的第一损失函数表示为L=-ln(I/U)时,需要调整神经网络的参数使得第一损失函数尽可能收敛,以得到训练好的神经网络。在另一个实施例中,还可以对神经网络设定训练轮数的阈值,以确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
此外,在利用第一损失函数训练神经网络的基础上,还可以利用反映预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,以得到更好的训练效果。所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。其中,针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点落在训练目标中和没有落在训练目标中。在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,从而得到训练好的神经网络。在一个实施例中,最终的神经网络的损失函数取决于两个分支损失函数的加权和。
在一个实施例中,可以根据所述真实置信度图以及所述神经网络的置信度输出层输出的预测置信度图,计算所述第二损失函数。所述神经网络的输入层可以接受所述训练图像和真实置信度图,并且所述第一支路上的置信度输出层可以输出预测置信度图,因此,可以根据所述神经网络的第一支路,计算所述第二损失函数。
在利用所述构建的神经网络进行目标检测过程中,利用第一输出层输出的置信度图中的至少一个像素点,选取第二层输出层输出的边界框检测图中的对应像素点,根据所选择的边界框检测图中的对应像素点的向量,可以得到所述像素点与对应的检测边界框的上、下、左、右各个边界的关系,从而获得更精确的边界框。因此,通过将神经网络创建为具有两个分支、其两个输出层分别连接两个不同的中间层的这种设置,可以结合第一输出层和第二输出层的预测结果,从而更精确地进行目标检测。
例如,图6例示了根据本公开实施例的神经网络的构建方法构建得到的神经网络的示意性结构图以及训练此神经网络的示意性流程。如图6所示,神经网络包括两个支路,其中置信度输出层位于第一支路中,用于输出置信度图;边界框输出层位于第二支路中,用于输出边界框检测图。
考虑到在将边界框回归为一个整体时,边界框输出层比置信度输出层需要更大的感受野(receptive field),可选的,在图6所示的根据本公开实施例的神经网络中,将置信度输出层级联至VGG stage-4末端,而边界框输出层级联至VGG stage-5末端,即,置信度输出层所级联的中间层比边界框输出层级联的中间层靠前。
以人脸检测为例,在对图6所示神经网络的训练过程中,首先输入包含人脸的图像作为训练图像,随后经过中间层stage1-4之后,将表示预测置信度的特征图经由所述第一支路输出至第一分支的置信度输出层,以输出预测置信度图,而在进一步经过中间层stage-5之后将表示各像素点至与该像素点对应的预测边界框的位置关系的特征图经由所述第二支路输出至第二分支的边界框输出层,以输出所述边界框预测图,所述边界框预测图包含训练图像中的每个像素点的对应向量。其中,预测的置信度图以渐变的灰度图表示不同像素点对应置信度的大小,范围为0-1,对应于像素点落在训练目标中的概率;边界框预测图也同样以四个渐变的灰度图分别表示训练图像中的像素点与对应的预测边界框的位置关系。当像素点位于对应的预测边界框内时,所述像素点的向量中的元素表示所述像素点至所述与该像素点对应的预测边界框的上、下、左、右四个边界的距离的大小。图6的神经网络中的损失函数可以通过神经网络对于训练图像的预测值和输入的训练图像的真实值之间的比较来确定。其中,如置信度输出层和边界框输出层之后分别对应的两个双箭头所示,神经网络通过边界框输出层所输出的表示距边界框距离的四个向量图与双箭头后的输入层输入的真实边界框向量图(即,训练边界框图)进行比较,获得第一损失函数;通过置信度输出层所输出的预测置信度灰度图和双箭头后的输入层输入的真实置信度图进行比较,获得第二损失函数。其中,真实边界框的向量图(即,训练边界框图)为像素点距真实边界框四边距离的四个渐变灰度图,真实置信度图分别以白色和黑色表示像素点落在训练目标中(1)和没有落在训练目标中(0)的情况。而最终的神经网络的损失函数取决于两个分支损失函数的加权和。由于在训练过程中置信度输出层所级联的中间层比边界框输出层级联的中间层靠前,因此,可以直观地说,边界框能够从置信度图中预测。
由此可见,本公开实施例中的神经网络构建方法能够在边界框回归时,使得边界框输出层分支比置信度输出层分支获得更大的感受野,以使边界框输出层分支采用的自下而上的策略而从置信度图中提取边界框,有效提高了神经网络的训练和检测效率。
下面,将参考图7来描述根据本公开实施例的用于目标检测的神经网络的构建装置。图7示出了可用于实现根据本公开实施例的神经网络的构建装置的计算设备的框图。
如图7所示,计算设备700包括一个或多个处理器702、存储器704、图像采集装置706和输出装置708,这些组件通过总线系统710和/或其它形式的连接机构(未示出)互连。应当注意,图7所示的计算设备700的组件和结构只是示例性的,而非限制性的,根据需要,计算设备700也可以具有其他组件和结构。
处理器702可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制计算设备700中的其它组件以执行期望的功能。
存储器704可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器702可以运行所述程序指令,以实现以下步骤:构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,并且,m小于n;将所述神经网络的第一支路的第一输出层配置为在利用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
图像采集装置706用于处理器702对所述神经网络进行训练时采集带有训练目标的训练图像,并且将所采集的训练图像存储在存储器704中以供其它组件使用。当然,也可以利用其他图像采集设备拍摄采集所述训练图像,并且将拍摄的训练图像发送给计算设备700。在这种情况下,可以省略图像采集装置706。
输出装置708可以向外部(例如用户)输出各种信息,例如图像信息、训练结果,并且可以包括显示器、扬声器、投影仪、网卡等中的一个或多个。
下面,将参考图8来描述根据本公开实施例的用于目标检测的神经网络的构建装置。图8示出了根据本公开实施例的用于目标检测的神经网络的构建装置的示意性框图。
如图8所示,构建装置800包括构建部件810,配置为构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,并且,m小于n;第一配置部件820,配置为将所述神经网络的第一支路的第一输出层配置为在利用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及第二配置部件830,配置为将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述图像中检测到的该检测目标的边界框。
构建部件810可以将神经网络设置为包含两个分支的像素级目标检测神经网络,其两个分支分别对应两个输出层,并分别级联至神经网络的不同中间层。
其中,如图6所示,在图6的神经网络中的连接置信度输出层的分支中,构建部件810还可以将神经网络配置有多个层结构,如卷积层,配置为对所述第m个中间层输出的特征图像(例如,检测图像经过所述stage1-3以及stage4的输出的特征图像)进行卷积,以获得所述检测图像的第一特征图;上采样层,配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图像输出至置信度输出层,以输出所述置信度图。
在图6所示的神经网络连接边界框输出层的分支中,构建部件810还可以将神经网络配置为包括卷积层,对所述第n个中间层输出的特征图像(例如,检测图像经过所述stage1-3、stage4以及stage5的输出的特征图像)进行卷积,以获得所述检测图像的第二特征图;上采样层,配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,配置为剪裁所述调整后的第二特征图,以使得所述调整后的第二特征图与所述检测图像对齐;以及修正线性单元层,配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至边界框输出层,以输出所述边界框检测图。其中修正线性单元层能够将边界框输出层所输出的4维向量的符号均修正为不小于0的向量,以适应于之后第一损失函数的相关计算。经过所述修正线性单元层的调整,位于所述对应的检测边界框外的像素点的向量被调整为0向量,位于所述对应的检测边界框内的像素点的对应向量为不小于0的向量。与现有技术相比,本公开实施例所构建的神经网络采用了尽量少的神经网络层结构,以进一步提高了神经网络的检测效率。
其中,当像素点位于所述检测目标的边界框内时,所述对应向量为4维向量,该4维向量中的元素为与其对应的像素点至所述对应的检测边界框的上、下、左、右边界的距离。
进一步地,本公开实施例构建装置800还可以包括训练部件(未示出),配置为训练所述神经网络。其训练步骤可以包括:将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中检测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
在一个实施例中,可以由所述构建的神经网络的输入层接收所述训练图像和训练边界框图,所述神经网络第二支路上的边界框输出层输出边界框预测图。所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离。对于位于所述真实边界框之外的像素点,可以用0向量表示。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
在训练过程中,对于所输入的训练图像中的每一个像素点,都可以利用神经网络预测出一个针对训练目标的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,优选地,可以针对位于真实边界框内的每一个像素点来预测相应的预测边界框。
在本公开的一个实施例中,当边界框为标示目标的方形边界框时,真实边界框和预测边界框均可以用4维向量来表示。以图2为例,对于位于训练图像中真实边界框内的任一个像素点(该像素点可以包括位于真实边界框边界上的像素点),训练部件可以基于训练边界框图中的对应像素点的向量和边界框预测图中的对应像素点的向量,分别确定所述像素点的第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,真实边界框位于图2左下角,第一4维向量可以记为第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,与该像素点对应的预测边界框位于图2右上角,第二4维向量可以记为x=(xt,xb,xl,xr)。如前所述,同样可以求得交集面积和并集面积的比值I/U并获得第一损失函数。在本公开的一个优选实施例中,第一损失函数可以表示为L=-ln(I/U)。
以上对预测边界框和真实边界框的表示方法仅仅是当边界框为方形边界框时的一种示例表示方式,而并非是对本公开的限制,本领域技术人员也可以采用其他的表示方式。比如,当边界框为方形边界框时,还可以利用边界框的中心点坐标位置、长度和宽度的参数进行表示,同样可以计算出预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。此外,当边界框不为方形边界框时也同理。例如,边界框为圆形边界框时,可以利用圆心坐标和半径来表示,并利用相似的方法计算预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。
在训练部件利用第一损失函数对神经网络进行训练时,可以调整神经网络的参数以尽量最大化预测边界框和真实边界框的交集面积与并集面积之比,即令I/U尽可能大,并将此时的神经网络的参数的值作为训练好的神经网络参数的值。换句话说,在一个实施例中,当与I/U的比值相关的第一损失函数表示为L=-ln(I/U)时,需要调整神经网络的参数使得第一损失函数尽可能收敛,以得到训练好的神经网络。在另一个实施例中,还可以对神经网络设定训练轮数的阈值,以确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
此外,训练部件在利用第一损失函数训练神经网络的基础上,还可以利用反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,以得到更好的训练效果。所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。其中,针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点落在训练目标中和没有落在训练目标中。在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,从而得到训练好的神经网络。最终的神经网络的损失函数取决于两个分支损失函数的加权和。
在一个实施例中,所述构建的神经网络的输入层配置为接收所述训练图像和真实置信度图,并且所述第一支路上的置信度输出层可以输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,因此,可以利用所述构建的神经网络的第一支路计算所述第二损失函数。
在利用所述构建装置构建的神经网络进行目标检测过程中,利用第一输出层输出的置信度图中的至少一个像素点,选取第二层输出层输出的边界框检测图中的对应像素点,根据所选择的边界框检测图中的对应像素点的向量,可以得到所述像素点与对应的检测边界框的上、下、左、右各个边界的关系,从而获得更精确的边界框。因此,通过将神经网络创建为具有两个分支、其两个输出层分别连接两个不同的中间层的这种设置,可以结合第一输出层和第二输出层的预测结果,从而更精确地进行目标检测。
由此可见,本公开实施例中的神经网络构建装置能够在边界框回归时,使得边界框输出层分支比置信度输出层分支获得更大的感受野,以使边界框输出层分支采用的自下而上的策略而从置信度图中提取边界框,有效提高了神经网络的训练和检测效率。
本公开实施例还提供一种用于目标检测的神经网络。图6示出了根据本公开实施例的用于目标检测的神经网络一个优选结构。
所述神经网络包括一个输入层、n个中间层和两个输出层,n是大于等于2的正整数,其中第m个中间层级联至所述神经网络的第一支路,第n个中间层级联至所述神经网络的第二支路,并且,m小于n;所述神经网络的第一支路的第一输出层配置为在利用所述神经网络进行目标检测时输出置信度图,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述神经网络的第二支路的第二输出层配置为在利用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该目标的边界框。
其中,在图6的神经网络连接置信度输出层的分支中,还可以包括多个层结构,如卷积层,配置为对第m个中间层输出的特征图像(例如,检测图像经过所述stage1-3以及stage4的输出的特征图像)进行卷积,以获得所述检测图像的第一特征图;上采样层,配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及剪裁层,配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图像输出至置信度输出层,以输出所述置信度图。
在图6所示的神经网络连接边界框输出层的分支中,还可以包括卷积层,对所述第n个中间层输出的特征图像(例如,检测图像经过所述stage1-3、stage4以及stage5的输出的特征图像)进行卷积,以获得所述图像的第二特征图;上采样层,配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;剪裁层,配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及修正线性单元层,配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至边界框输出层,以输出所述边界框检测图。其中修正线性单元层能够将边界框输出层所输出的4维向量的符号均修正为不小于0的向量,以适应于之后第一损失函数的相关计算。经过所述修正线性单元层的调整,位于所述对应的检测边界框外的像素点的向量被调整为0向量,位于所述对应的检测边界框内的像素点的对应向量为不小于0的向量。与现有技术相比,本公开实施例所构建的神经网络采用了尽量少的神经网络层结构,以进一步提高了神经网络的检测效率。
其中,当像素点位于所述检测目标的边界框内时,所述对应向量为4维向量,该4维向量中的元素为与其对应的像素点至所述对应的检测边界框的上、下、左、右边界的距离。
进一步地,本公开实施例的神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框。
在一个实施例中,可以由所述神经网络的输入层接收所述训练图像和训练边界框图,所述神经网络第二支路上的边界框输出层输出边界框预测图。所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离。对于位于所述真实边界框之外的像素点,可以用0向量表示。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
在训练过程中,对于所输入的训练图像中的每一个像素点,都可以利用神经网络预测出一个针对训练目标的预测边界框。为了在获取尽可能多的有效的像素点的预测结果的基础上尽量减小运算量,优选地,可以针对位于真实边界框内的每一个像素点来预测相应的预测边界框。
在本公开的一个实施例中,当边界框为标示目标的方形边界框时,真实边界框和预测边界框均可以用4维向量来表示。以图2为例,对于位于训练图像中真实边界框内的任一个像素点(该像素点可以包括位于真实边界框边界上的像素点),训练部件可以基于训练边界框图中的对应像素点的向量和边界框预测图中的对应像素点的向量,分别确定所述像素点的第一4维向量和第二4维向量。第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,例如对于如图2所示的情形,真实边界框位于图2左下角,第一4维向量可以记为第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框(位于图2中的右上角的边界框)的上、下、左、右边界的距离,例如对于如图2所示的情形,与该像素点对应的预测边界框位于图2右上角,第二4维向量可以记为x=(xt,xb,xl,xr)。如前所述,同样可以求得交集面积和并集面积的比值I/U并获得第一损失函数。在本公开的一个优选实施例中,第一损失函数可以表示为L=-ln(I/U)。
以上对预测边界框和真实边界框的表示方法仅仅是当边界框为方形边界框时的一种示例表示方式,而并非是对本公开的限制,本领域技术人员也可以采用其他的表示方式。比如,当边界框为方形边界框时,还可以利用边界框的中心点坐标位置、长度和宽度的参数进行表示,同样可以计算出预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。此外,当边界框不为方形边界框时也同理。例如,边界框为圆形边界框时,可以利用圆心坐标和半径来表示,并利用相似的方法计算预测边界框和真实边界框的交集面积和并集面积的比,作为所述第一损失函数。
在训练部件利用第一损失函数对神经网络进行训练时,可以调整神经网络的参数以尽量最大化预测边界框和真实边界框的交集面积与并集面积之比,即令I/U尽可能大,并将此时的神经网络的参数的值作为训练好的神经网络参数的值。换句话说,在一个实施例中,当与I/U的比值相关的第一损失函数表示为L=-ln(I/U)时,需要调整神经网络的参数使得第一损失函数尽可能收敛,以得到训练好的神经网络。在另一个实施例中,还可以对神经网络设定训练轮数的阈值,以确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
此外,在利用第一损失函数训练神经网络的基础上,还可以利用反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,以得到更好的训练效果。可选地,第二损失函数可以为sigmoid cross-entropy损失函数。所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。其中,针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点落在训练目标中和没有落在训练目标中。在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,从而得到训练好的神经网络。最终的神经网络的损失函数取决于两个分支损失函数的加权和。
在一个实施例中,所述神经网络的输入层配置为接收所述训练图像和真实置信度图,并且所述第一支路上的置信度输出层可以输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,因此,可以利用所述构建的神经网络的第一支路计算所述第二损失函数。在利用所述构建装置构建的神经网络进行目标检测过程中,利用第一输出层输出的置信度图中的至少一个像素点,选取第二层输出层输出的边界框检测图中的对应像素点,根据所选择的边界框检测图中的对应像素点的向量,可以得到所述像素点与对应的检测边界框的上、下、左、右各个边界的关系,从而获得更精确的边界框。下文中将结合附图对利用所述神经网络进行目标检测的方法和装置进行具体描述。因此,通过将神经网络创建为具有两个分支、其两个输出层分别连接两个不同的中间层的这种设置,可以结合第一输出层和第二输出层的预测结果,从而更精确地进行目标检测。
由此可见,本公开实施例中的神经网络能够在边界框回归时,使得边界框输出层分支比置信度输出层分支获得更大的感受野,以使边界框输出层分支采用的自下而上的策略而从置信度图中提取边界框,有效提高了神经网络的训练和检测效率。
下面将参考图9对根据本公开实施例的基于神经网络的目标检测方法进行详细的描述。图9示意性地示出了根据本公开实施例的基于神经网络的目标检测方法的流程图。
如图9所示,训练方法900包括步骤S901:获取包含检测目标的检测图像。
在步骤S902中,利用所述神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中每个像素点的对应向量,所述对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框。
其中,当像素点位于所述对应的检测目标的检测边界框中时,所述向量为4维向量,该4维向量中的元素为与其对应的像素点至所述对应的检测边界框的上、下、左、右边界的距离。
在步骤S903中,在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状。
在该步骤中,可以设定置信度的预定阈值,并据此确定置信度大于预定阈值的多个像素点,随后基于所述多个像素点拟合得到与所述检测目标的形状匹配的几何形状。如检测目标为人脸时,可以根据预定阈值确定的像素点进行椭圆拟合,得到与人脸匹配的椭圆;而当检测目标为车辆或其他物品时,也可以拟合为一个矩形或其他形状。
在步骤S904中,在拟合得到的几何形状内选取预定数量的像素点。
在该步骤中,可以对拟合得到的几何形状内的每个像素点都进行计算。但为了减少计算量,提高检测效率,可以提取几何形状内的一个或几个像素点并进行后续步骤的计算。如在上述实施例中提到的人脸检测所拟合的椭圆内,可以选择椭圆的中心点,其长/短轴的中点等一个或多个点来计算。
在步骤S905中,对于每个选取的像素点,确定所述对应边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框。
本步骤中,对于置信度图中每个选择的像素点,都可以对应到所输入的检测图像中的某个像素点,并可以据此得到此像素点的在对应边界框检测图中的对应向量,根据对应向量与所述对应的检测边界框的位置关系,例如,当所述像素点位于对应的检测边界框内时,所述像素点的对应向量中的元素为与所述像素点至对应的检测边界框的上、下、左、右边界的距离,得到像素点的对应的检测边界框。
在步骤S906中,将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
针对同一个检测目标,在步骤S905中所得到的检测边界框可能不止一个。更明确的说,在步骤S905中,由对应边界框检测图中的各个对应像素点确定的各个检测边界框可能并不是完全重合的。因此,在该步骤中可以对这些检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。可选的,可以利用非最大抑制方法将各个检测边界框进行合并,以消除多余的边界框。而最终合并得到的一个检测边界框,即代表检测到图像中的一个检测目标,所述检测边界框是一个精确的检测边界框结果。
可选的,本公开实施例的目标检测方法所使用的神经网络可以至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
其中所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
在一个实施例中,所述神经网络可以由图6所示的神经网络实现。所述神经网络的第m个中间层经由卷积层、上采样层以及剪裁层在神经网络的第一支路上级联至所述置信度输出层,通过所述卷积层、上采样层以及剪裁层对所述第m个中间层输出的特征图特征提取和调整,经由所述置信度输出层输出所述置信度图。所述神经网络的第n个中间层经由卷积层、上采样层、剪裁层以及修正线性单元层在神经网络的第二支路上级联至所述边界框输出层,通过所述卷积层、上采样层、剪裁层以及修正线性单元层对所述第n个中间层输出的特征图进行特征提取和调整,经由所述边界框输出层输出所述边界框检测图。经过所述修正线性单元层的调整,位于所述对应的检测边界框外的像素点的向量被调整为0向量,位于所述对应的检测边界框内的像素点的对应向量为不小于0的向量。
另一方面,可选的,本公开实施例所使用的神经网络可以是利用第一损失函数训练得到的,所述第一损失函数反映所述预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框。
在一个实施例中,可以由所述神经网络的输入层接收所述训练图像和训练边界框图,所述神经网络的边界框输出层输出边界框预测图。所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离。对于位于所述真实边界框之外的像素点,可以用0向量表示。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。可以根据所述训练边界框图和所述边界框预测图,通过所述神经网络的第二支路计算所述第一损失函数。
可选地,本公开实施例中所使用的神经网络还可以是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映训练图像中各像素点的预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,最终的神经网络的损失函数取决于两个分支损失函数的加权和。
由此可见,本公开实施例的基于神经网络的目标检测方法能够得到精确和有效的目标定位结果,检测效率高,并且不必改变输入图像的尺寸,适应性更强,适用于不同尺寸的目标,尤其对于小尺寸目标进行检测也能够取得较好的效果。此外由于在本公开实施例中能够针对每个像素点均生成对应检测边界框的对应向量图,因此能够针对位于不同检测目标中的像素点获得相应的不同的检测边界框,因此本公开实施例能够同时处理检测图像中的多个检测目标
下面,将参考图10来描述根据本公开实施例的基于神经网络的目标检测装置。图10示出了根据本公开实施例的基于神经网络的目标检测装置。该目标检测装置可以是配备有图像采集装置的计算机或服务器。
如图10所示,训练装置1000包括一个或多个处理器1002、存储器1004、图像采集装置1006和输出装置1008,这些组件通过总线系统1010和/或其它形式的连接机构(未示出)互连。应当注意,图10所示的训练装置1000的组件和结构只是示例性的,而非限制性的,根据需要,训练装置1000也可以具有其他组件和结构。
处理器1002可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制训练装置1000中的其它组件以执行期望的功能。
存储器1004可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器1002可以运行所述程序指令,以实现以下步骤:获取包含检测目标的检测图像;利用所述神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中每个像素点的对应向量,所述对应向量表示与其对应的像素点与检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;在拟合得到的几何形状内选取预定数量的像素点;对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个精确的检测边界框。
图像采集装置1006用于采集带有训练目标的训练图像,并且将所采集的训练图像存储在存储器1004中以供其它组件使用。当然,也可以利用其他图像采集设备采集所述训练图像,并且将采集的训练图像发送给目标检测装置1000。在这种情况下,可以省略图像采集装置1006。
输出装置1008可以向外部(例如用户)输出各种信息,例如图像信息、目标检测结果,并且可以包括显示器、扬声器等中的一个或多个。
下面,将参考图11来描述根据本公开实施例的基于神经网络的目标检测装置。图11示出了根据本公开实施例的基于神经网络的目标检测装置的示意性框图。
如图11所示,训练装置1100包括图像获取部件1110,配置为获取包含检测目标的检测图像;检测部件1120,配置为利用所述神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中每个像素点的对应向量,所述对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;拟合部件1130,配置为在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;选取部件1140,配置为在拟合得到的几何形状内选取预定数量的像素点;边界框获取部件1150,配置为对于每个选取的像素点,确定所述对应向量图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;合并部件1160,配置为将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个精确的检测边界框。
其中,当像素点位于所述对应的检测目标的边界框中时,所述像素点对应的向量为4维向量,该4维向量中的元素为所述像素点至所述对应的检测边界框的上、下、左、右边界的距离。
在拟合部件1130通过形状拟合得到几何形状时,可以首先置信度的预定阈值,并据此确定置信度大于预定阈值的多个像素点;随后基于所述多个像素点拟合得到与所述检测目标的形状匹配的几何形状。如检测目标为人脸时,可以根据预定阈值确定的像素点进行椭圆拟合,得到与人脸匹配的椭圆;而当检测目标为车辆或其他物品时,也可以拟合为一个矩形或其他形状。
在选取部件1140自拟合得到的几何形状内选取预定数量的像素点时,可以对拟合得到的几何形状内的每个像素点都进行计算。但为了减少计算量,提高检测效率,可以提取几何形状内的一个或几个像素点并进行后续步骤的计算。如在上述实施例中提到的人脸检测所拟合的椭圆内,可以选择椭圆的中心点,其长/短轴的中点等一个或多个点来计算。
随后,边界框获取部件1150对于置信度图中每个选择的像素点,都可以对应到所输入的检测图像中的某个像素点,并可以据此得到此像素点的在边界框检测图中的对应向量,根据对应向量得到像素点的检测边界框。
其中,针对同一个检测目标,所得到的检测边界框可能不止一个。当对应同一个检测目标的检测边界框为多个时,合并部件1160可以将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个精确的检测边界框。此时,合并部件1160可以利用用非最大抑制方法将各个检测边界框进行合并,以消除多余的边界框。当每个检测目标只对应一个检测边界框时,合并部件1160也可以省略。
本公开实施例的目标检测装置所使用的神经网络可以至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
其中所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
在一个实施例中,所述神经网络可以由图6所示的神经网络实现。所述神经网络的第m个中间层经由卷积层、上采样层以及剪裁层在神经网络的第一支路上级联至所述置信度输出层,通过所述卷积层、上采样层以及剪裁层对所述第m个中间层输出的特征图进行特征提取和调整,经由所述置信度输出层输出所述置信度图。所述神经网络的第n个中间层经由卷积层、上采样层、剪裁层以及修正线性单元层在神经网络的第二支路上级联至所述边界框输出层,通过所述卷积层、上采样层、剪裁层以及修正线性单元层对所述第n个中间层输出的特征图进行特征提取和调整,经由所述边界框输出层输出所述边界框检测图。经过所述修正线性单元层的调整,位于所述对应的检测边界框外的像素点的向量被调整为0向量,位于所述对应的检测边界框内的像素点的对应向量为不小于0的向量。
本公开实施例所使用的神经网络可以是利用第一损失函数训练得到的,所述第一损失函数反映所述预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框。
在一个实施例中,可以由所述神经网络的输入层接收所述训练图像和训练边界框图,所述神经网络的边界框输出层输出边界框预测图。所述训练边界框图包含所述训练图像中的每个像素点的4维向量,该4维向量表明对应的像素点与真实边界框的位置关系。当像素点位于所述真实边界框内时,该像素点对应的4维向量中的元素分别表明该像素点距离真实边界框的上、下、左、右边界的距离对于位于所述真实边界框之外的像素点,可以用0向量表示。。所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。可以根据所述训练边界框图和所述边界框预测图,通过所述神经网络的第二支路计算所述第一损失函数。
可选地,本公开实施例中所使用的神经网络还可以是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映训练图像中各像素点的预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的每个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的每个像素点属于所述训练目标的置信度。在对神经网络的训练过程中,可以利用所述第一损失函数和第二损失函数共同来调整所述神经网络的参数,最终的神经网络的损失函数取决于两个分支损失函数的加权和。
由此可见,本公开实施例的基于神经网络的目标检测装置能够得到精确和有效的目标定位结果,检测效率高,并且不必改变输入图像的尺寸,适应性更强,适用于不同尺寸的目标,尤其对于小尺寸目标进行检测也能够取得较好的效果,并且能够同时处理检测图像中的多个检测目标。
图12示出了利用根据本公开实施例的目标检测方法和装置进行人脸检测的示例,可见利用本公开实施例的方法和装置所得到的人脸目标检测边界框定位精确,并对不同尺寸的人脸目标适应性强,针对有部分遮挡的人脸同样能够得到较好的检测效果。
图13(a)、(b)分别示出了利用上文中提到的第一损失函数和两个输出层的神经网络结构的目标检测方法与利用l2损失函数并采用相同神经网络结构的目标检测方法的未命中率(miss rate)和查全率(recall rate)的比较。根据图13(a)可以看出,随着神经网络训练轮数的增加,利用本公开实施例所对应的损失函数训练的神经网络收敛的更快、更稳定,而采用l2损失函数训练的神经网络收敛很慢并且不稳定。而根据图13(b)可以看出,使用根据本公开实施例的损失函数训练根据本公开实施例的神经网络进行目标检测的工作性能曲线(ROC)效果更好。
图14示出了在检测图像的大小分别为图像长边尺寸为60像素到960像素不等时,利用l2损失函数训练的神经网络和采用第一损失函数训练的神经网络进行人脸目标检测的情形。可以看到,随着图像尺寸的变化,利用基于l2损失函数训练的神经网络的检测方法对检测边界框的判断能力随之变化,并对于小尺寸的人脸(60像素)基本没有判断能力。而比较而言,利用基于本公开实施例的损失函数训练的神经网络检测方法对不同大小的人脸检测目标都有很好的判断。
图15示出本公开实施例的人脸目标检测方法与其他检测方法的横向比较示意图。可见本公开实施例所采用的目标检测方法性能比现有技术中的多种方法均有明显提高。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (29)

1.一种用于目标检测的神经网络的训练方法,包括:
将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;
根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及
至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
2.如权利要求1所述的训练方法,其中至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:
利用所述第一损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比。
3.如权利要求1所述的训练方法,其中至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:
确定当所述神经网络的训练轮数达到设定的阈值时参数的值,作为训练好的神经网络的参数的值。
4.如权利要求1所述的训练方法,其中,所述第一损失函数为所述预测边界框和所述真实边界框的交集面积与并集面积之比的自然对数的负值。
5.如权利要求1所述的训练方法,其中根据预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,包括:
对于位于所述训练图像中真实边界框内的至少一个像素点,确定第一4维向量和第二4维向量,其中,该第一4维向量中的元素分别为该像素点至所述真实边界框的上、下、左、右边界的距离,所述第二4维向量中的元素分别表示该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离;
根据所述第一4维向量,获得所述真实边界框的面积;
根据所述第二4维向量,获得所述预测边界框的面积;
根据所述第一4维向量和所述第二4维向量,获得所述预测边界框和所述真实边界框的交集面积;以及
将获得的所述预测边界框的面积和所述真实边界框的面积的和与所述交集面积的差作为所述并集面积。
6.如权利要求1所述的训练方法,还包括:
选取反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度,
所述至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:
利用所述第一损失函数和第二损失函数调整所述神经网络的参数,以最大化所述预测边界框和所述真实边界框的交集面积与并集面积之比,并最小化所述第二损失函数,以得到训练好的神经网络。
7.如权利要求1所述的训练方法,其中,
所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括置信度输出层和边界框输出层,
其中,在训练阶段,所述输入层配置为接收所述训练图像,所述置信度输出层配置为输出预测置信度图,该预测置信度图表示采用该神经网络预测出的、包含所述训练目标的训练图像中的每个像素点属于该训练目标的置信度,
所述边界框输出层配置为输出边界框预测图,所述边界框预测图包含位于所述训练图像中的每个像素点的4维向量,其中,当像素点位于所述训练图像中的真实边界框内时,所述像素点的4维向量中的元素为该像素点至与该像素点对应的预测边界框的上、下、左、右边界的距离。
8.如权利要求7所述的训练方法,还包括:
对于每个输入的训练图像,还向所述输入层输入与该训练图像相同大小的真实置信度图以及训练边界框图,其中,所述训练边界框图包含所述训练图像中的每个像素点的4维向量,并且,当像素点位于所述训练图像中的真实边界框内时,该像素点对应的4维向量中的元素为该像素点距离所述真实边界框的上、下、左、右边界的距离,所述真实置信度图中的每个像素点表示所述训练图像中对应像素点属于所述训练目标的置信度。
9.如权利要求7所述的训练方法,其中所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
10.一种用于目标检测的神经网络的训练装置,包括:
处理器;
存储器;和
存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时,使得所述处理器执行以下步骤:
将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;
根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及
至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
11.一种用于目标检测的神经网络的训练装置,包括:
预测部件,配置为将包含有训练目标的训练图像输入至神经网络,以得到所述训练目标的预测边界框;
第一获取部件,配置为根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及
参数调整部件,配置为至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
12.一种用于目标检测的神经网络的构建方法,包括:
构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;
将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及
将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
13.如权利要求12所述的构建方法,其中,当像素点位于所述检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为与所述像素点至所述检测边界框的上、下、左、右边界的距离。
14.如权利要求12所述的构建方法,其中,所述神经网络的第一支路上还包括:
卷积层,所述卷积层配置为对所述第m个中间层输出的特征图像进行卷积,以获得所述检测图像的第一特征图;
上采样层,所述上采样层配置为对所述第一特征图进行线性插值,将所述第一特征图调整为所述检测图像的大小;以及
剪裁层,所述剪裁层配置为剪裁所述调整后的第一特征图,以使得所述剪裁后的第一特征图与所述检测图像对齐,并将对齐后的第一特征图输出至所述第一支路的第一输出层,以输出所述置信度图。
15.如权利要求12所述的构建方法,其中,所述神经网络的第二支路上还包括:
卷积层,所述卷积层配置为对所述第n个中间层输出的特征图像进行卷积,以获得所述检测图像的第二特征图;
上采样层,所述上采样层配置为对所述第二特征图进行线性插值,将所述第二特征图调整为所述检测图像的大小;
剪裁层,所述剪裁层配置为剪裁所述调整后的第二特征图,以使得所述剪裁后的第二特征图与所述检测图像对齐;以及
修正线性单元层,所述修正线性单元层配置为获取对齐后的第二特征图,并将所述第二特征图中的每个像素点的对应向量中的元素调整为不小于0的向量元素后输出至所述第二支路的第二输出层,以输出所述边界框检测图。
16.如权利要求12所述的构建方法,还包括:
训练所述神经网络,
其中,所述训练神经网络包括:
将包含有训练目标的训练图像输入至所述神经网络,以得到所述训练目标的预测边界框;
根据所述预测边界框和真实边界框的交集面积与并集面积之比,获得第一损失函数,其中,所述预测边界框为采用该神经网络在包含所述训练目标的训练图像中检测到的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的该训练目标的边界框;以及
至少利用所述第一损失函数调整所述神经网络的参数,以对所述神经网络进行训练。
17.如权利要求16所述的构建方法,其中,至少利用所述第一损失函数调整所述神经网络的参数以对所述神经网络进行训练包括:
利用所述第一损失函数以及反映训练图像中各像素点的预测置信度与真实置信度之间的差异的第二损失函数对该神经网络进行训练,其中,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
18.一种用于目标检测的神经网络的构建装置,包括:
处理器;
存储器;和
存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时使得所述处理器执行以下步骤:
构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;
将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及
将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
19.一种用于目标检测的神经网络的构建装置,包括:
构建部件,配置为构建至少包含一个输入层、n个中间层和两个输出层的神经网络,n是大于等于2的正整数,其中,将第m个中间层级联至所述神经网络的第一支路,将第n个中间层级联至所述神经网络的第二支路,所述两个输出层中的第一输出层位于所述第一支路,第二输出层位于所述第二支路,并且,m小于n;
第一配置部件,配置为将所述神经网络的第一支路的第一输出层配置为在用所述神经网络进行目标检测时输出置信度图的置信度输出层,所述置信度图表示采用所述神经网络检测出的、包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度;以及
第二配置部件,配置为将所述神经网络的第二支路的第二输出层配置为在用所述神经网络进行目标检测时输出边界框检测图的边界框输出层,所述边界框检测图包含该检测图像中的每个像素点的对应向量,该对应向量表示与其对应的像素点与对应的检测边界框的位置关系,所述检测边界框为采用该神经网络在所述检测图像中检测到的该检测目标的边界框。
20.一种基于神经网络的目标检测方法,包括:
获取包含检测目标的检测图像;
利用神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,所述对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;
在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;
在拟合得到的几何形状内选取预定数量的像素点;
对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;
将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
21.如权利要求20所述的目标检测方法,其中,当像素点位于对应的检测边界框内时,所述像素点的对应向量为4维向量,该4维向量中的元素为与所述像素点至对应的检测边界框的上、下、左、右边界的距离。
22.如权利要求20所述的目标检测方法,其中将各个所述检测边界框进行合并包括:
利用非最大抑制方法将各个所述检测边界框进行合并。
23.如权利要求20所述的目标检测方法,其中在所述置信度图中基于各个像素点的置信度通过形状拟合得到至少一个几何形状包括:
确定置信度大于预定阈值的多个像素点;
基于所述多个像素点拟合得到所述至少一个几何形状。
24.如权利要求20所述的目标检测方法,其中,
所述神经网络至少包括一个输入层、n个中间层和两个输出层,其中,n是大于等于2的正整数,所述两个输出层包括用于输出所述置信度图的置信度输出层和用于输出所述边界框检测图的边界框输出层。
25.如权利要求24所述的目标检测方法,其中所述神经网络的第m个中间层级联至所述置信度输出层,第n个中间层级联至所述边界框输出层,并且,m小于n。
26.如权利要求20所述的目标检测方法,其中,
所述神经网络是利用第一损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框。
27.如权利要求20所述的目标检测方法,其中,
所述神经网络是利用第一损失函数和第二损失函数训练得到的,所述第一损失函数反映预测边界框和真实边界框的交集面积与并集面积之比,所述第二损失函数反映预测置信度与真实置信度之间的差异,所述预测边界框为采用该神经网络在包含训练目标的训练图像中预测出的该训练目标的边界框,所述真实边界框为在所述训练图像中预先标注的训练目标的边界框,所述预测置信度为采用该神经网络预测出的所述训练图像中的某一个像素点属于所述训练目标的置信度,所述真实置信度表示在所述训练图像中预先标注的该像素点属于所述训练目标的置信度。
28.一种基于神经网络的目标检测装置,包括:
处理器;
存储器;和
存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时使得所述处理器执行以下步骤:
获取包含检测目标的检测图像;
利用所述神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,所述对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;
在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;
在拟合得到的几何形状内选取预定数量的像素点;
对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;
将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
29.一种基于神经网络的目标检测装置,包括:
图像获取部件,配置为获取包含检测目标的检测图像;
检测部件,配置为利用所述神经网络在所述检测图像中进行目标检测,以输出置信度图和边界框检测图,所述边界框检测图包含该检测图像中各像素点的对应向量,所述对应向量图中的各对应向量表示与其对应的像素点与对应检测边界框的位置关系,所述置信度图中的每个像素点表示包含检测目标的检测图像中的每个像素点属于所述检测目标的置信度,所述检测边界框为采用该神经网络在所述检测图像中检测到的所述检测目标的边界框;
拟合部件,配置为在所述置信度图中基于各个像素点的置信度、通过形状拟合得到至少一个几何形状;
选取部件,配置为在拟合得到的几何形状内选取预定数量的像素点;
边界框获取部件,配置为对于每个选取的像素点,确定所述边界框检测图中的对应像素点,并基于该对应像素点的对应向量得到与该对应像素点对应的检测边界框;
合并部件,配置为将各个所述检测边界框进行合并,以使得对于同一个检测目标合并得到一个检测边界框。
CN201610605759.1A 2016-07-27 2016-07-27 神经网络训练与构建方法和装置以及目标检测方法和装置 Active CN106295678B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610605759.1A CN106295678B (zh) 2016-07-27 2016-07-27 神经网络训练与构建方法和装置以及目标检测方法和装置
US15/660,494 US10769493B2 (en) 2016-07-27 2017-07-26 Method and apparatus for neural network training and construction and method and apparatus for object detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610605759.1A CN106295678B (zh) 2016-07-27 2016-07-27 神经网络训练与构建方法和装置以及目标检测方法和装置

Publications (2)

Publication Number Publication Date
CN106295678A true CN106295678A (zh) 2017-01-04
CN106295678B CN106295678B (zh) 2020-03-06

Family

ID=57662929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610605759.1A Active CN106295678B (zh) 2016-07-27 2016-07-27 神经网络训练与构建方法和装置以及目标检测方法和装置

Country Status (2)

Country Link
US (1) US10769493B2 (zh)
CN (1) CN106295678B (zh)

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107625521A (zh) * 2017-09-14 2018-01-26 华东师范大学 基于脑电数据的用于评估记忆动态变化的多层建模方法
CN108229455A (zh) * 2017-02-23 2018-06-29 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
CN108230292A (zh) * 2017-04-11 2018-06-29 北京市商汤科技开发有限公司 物体检测方法和神经网络的训练方法、装置及电子设备
CN108549927A (zh) * 2018-03-16 2018-09-18 深圳市商汤科技有限公司 物体检测网络的训练方法和特征监督图生成方法
CN108564016A (zh) * 2018-04-04 2018-09-21 北京红云智胜科技有限公司 一种基于计算机视觉的au分类系统及方法
WO2018188453A1 (zh) * 2017-04-11 2018-10-18 腾讯科技(深圳)有限公司 人脸区域的确定方法、存储介质、计算机设备
CN108810418A (zh) * 2018-07-16 2018-11-13 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN108875805A (zh) * 2018-05-31 2018-11-23 北京迈格斯智能科技有限公司 基于深度学习的利用检测识别一体化提高检测精度的方法
CN108875482A (zh) * 2017-09-14 2018-11-23 北京旷视科技有限公司 物体检测方法和装置、神经网络训练方法和装置
CN108898085A (zh) * 2018-06-20 2018-11-27 安徽大学 一种基于手机视频的道路病害智能检测方法
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109165538A (zh) * 2018-07-18 2019-01-08 北京飞搜科技有限公司 基于深度神经网络的条形码检测方法及装置
CN109214389A (zh) * 2018-09-21 2019-01-15 上海小萌科技有限公司 一种目标识别方法、计算机装置及可读存储介质
CN109272016A (zh) * 2018-08-08 2019-01-25 广州视源电子科技股份有限公司 目标检测方法、装置、终端设备和计算机可读存储介质
CN109299656A (zh) * 2018-08-13 2019-02-01 浙江零跑科技有限公司 一种车载视觉系统场景视深确定方法
CN109409517A (zh) * 2018-09-30 2019-03-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109447247A (zh) * 2018-10-23 2019-03-08 北京旷视科技有限公司 获得卷积神经网络的方法及装置
CN109709603A (zh) * 2018-11-23 2019-05-03 中国石油天然气股份有限公司 地震层位识别与追踪方法、系统
CN109754009A (zh) * 2018-12-29 2019-05-14 北京沃东天骏信息技术有限公司 物品识别方法、装置、售货系统和存储介质
CN109766887A (zh) * 2019-01-16 2019-05-17 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN109784194A (zh) * 2018-12-20 2019-05-21 上海图森未来人工智能科技有限公司 目标检测网络构建方法和训练方法、目标检测方法
CN109803090A (zh) * 2019-01-25 2019-05-24 睿魔智能科技(深圳)有限公司 无人拍摄自动变焦方法及系统、无人摄像机及存储介质
CN110008923A (zh) * 2019-04-11 2019-07-12 网易有道信息技术(北京)有限公司 图像处理方法和训练方法、以及装置、介质、计算设备
CN110059554A (zh) * 2019-03-13 2019-07-26 重庆邮电大学 一种基于交通场景的多支路目标检测方法
CN110267041A (zh) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 图像编码方法、装置、电子设备和计算机可读存储介质
CN110321773A (zh) * 2018-03-30 2019-10-11 托比股份公司 使用校准参数的用于三维(3d)注视预测的神经网络训练
CN110580487A (zh) * 2018-06-08 2019-12-17 Oppo广东移动通信有限公司 神经网络的训练方法、构建方法、图像处理方法和装置
CN110782568A (zh) * 2018-07-13 2020-02-11 宁波其兰文化发展有限公司 一种基于视频摄影的门禁系统
CN110782554A (zh) * 2018-07-13 2020-02-11 宁波其兰文化发展有限公司 一种基于视频摄影的门禁控制方法
CN110781659A (zh) * 2018-07-11 2020-02-11 株式会社Ntt都科摩 基于神经网络的文本处理方法和文本处理装置
CN110968735A (zh) * 2019-11-25 2020-04-07 中国矿业大学 一种基于球面相似度层次聚类的无监督行人重识别方法
CN111062413A (zh) * 2019-11-08 2020-04-24 深兰科技(上海)有限公司 一种道路目标检测方法、装置、电子设备及存储介质
CN111108507A (zh) * 2017-09-22 2020-05-05 祖克斯有限公司 根据二维图像和点云数据生成三维边界框
CN111260548A (zh) * 2018-11-30 2020-06-09 浙江宇视科技有限公司 基于深度学习的贴图方法及装置
CN111273953A (zh) * 2018-11-19 2020-06-12 Oppo广东移动通信有限公司 模型处理方法、装置、终端及存储介质
CN111341443A (zh) * 2020-03-09 2020-06-26 西安中科长青医疗科技研究院有限公司 一种基于深度学习的超声甲状腺结节智能评估方法
CN111354378A (zh) * 2020-02-12 2020-06-30 北京声智科技有限公司 语音端点检测方法、装置、设备及计算机存储介质
CN111415333A (zh) * 2020-03-05 2020-07-14 北京深睿博联科技有限责任公司 乳腺x射线影像反对称生成分析模型训练方法和装置
CN111476057A (zh) * 2019-01-23 2020-07-31 北京市商汤科技开发有限公司 车道线获取方法及装置、车辆驾驶方法及装置
CN111507455A (zh) * 2019-01-31 2020-08-07 数坤(北京)网络科技有限公司 神经网络系统生成方法和装置、图像处理方法和电子设备
CN111598972A (zh) * 2020-04-03 2020-08-28 深圳大学 户型图生成方法、装置、计算机设备和存储介质
CN111625668A (zh) * 2019-02-28 2020-09-04 Sap欧洲公司 对象检测和候选过滤系统
US10783643B1 (en) 2019-05-27 2020-09-22 Alibaba Group Holding Limited Segmentation-based damage detection
CN111723809A (zh) * 2019-06-10 2020-09-29 阿里巴巴集团控股有限公司 评估目标检测模型的方法和系统
WO2020238256A1 (zh) * 2019-05-27 2020-12-03 创新先进技术有限公司 基于弱分割的损伤检测方法及装置
CN112101360A (zh) * 2020-11-17 2020-12-18 浙江大华技术股份有限公司 一种目标检测方法、装置以及计算机可读存储介质
CN112329762A (zh) * 2019-12-12 2021-02-05 北京沃东天骏信息技术有限公司 图像处理方法、模型训练方法、装置、计算机设备和介质
CN112863187A (zh) * 2021-01-18 2021-05-28 北京百度网讯科技有限公司 感知模型的检测方法、电子设备、路侧设备和云控平台
WO2021169668A1 (zh) * 2020-02-26 2021-09-02 Oppo广东移动通信有限公司 图像处理方法及相关装置
WO2022000855A1 (zh) * 2020-06-29 2022-01-06 魔门塔(苏州)科技有限公司 一种目标检测方法及装置
CN114485694A (zh) * 2020-11-13 2022-05-13 元平台公司 用于自动检测建筑物覆盖区的系统和方法
CN114639001A (zh) * 2022-04-22 2022-06-17 武汉中科通达高新技术股份有限公司 人脸属性识别网络的训练方法、识别方法及相关设备

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
KR20180027887A (ko) * 2016-09-07 2018-03-15 삼성전자주식회사 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법
US10424064B2 (en) * 2016-10-18 2019-09-24 Adobe Inc. Instance-level semantic segmentation system
US11132529B2 (en) * 2016-11-16 2021-09-28 Ventana Medical Systems, Inc. Convolutional neural networks for locating objects of interest in images of biological samples
US20180189471A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Visual CAPTCHA Based On Image Segmentation
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
EP3649618A1 (en) 2017-07-03 2020-05-13 Artomatix Ltd. Systems and methods for providing non-parametric texture synthesis of arbitrary shape and/or material data in a unified framework
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11250376B2 (en) * 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
US10671083B2 (en) * 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10268205B2 (en) * 2017-09-13 2019-04-23 TuSimple Training and testing of a neural network method for deep odometry assisted by static scene optical flow
WO2019100511A1 (en) * 2017-11-22 2019-05-31 Zhejiang Dahua Technology Co., Ltd. An image processing method and system
US10922871B2 (en) * 2018-01-19 2021-02-16 Bamtech, Llc Casting a ray projection from a perspective view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11210537B2 (en) * 2018-02-18 2021-12-28 Nvidia Corporation Object detection and detection confidence suitable for autonomous driving
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
US10223611B1 (en) * 2018-03-08 2019-03-05 Capital One Services, Llc Object detection using image classification models
US10157331B1 (en) 2018-03-08 2018-12-18 Capital One Services, Llc Systems and methods for image preprocessing to improve accuracy of object recognition
CN108537151A (zh) * 2018-03-27 2018-09-14 上海小蚁科技有限公司 一种非极大值抑制运算装置及系统
US20210201135A1 (en) * 2018-04-03 2021-07-01 Nokia Technologies Oy End-to-end learning in communication systems
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
CN109117836B (zh) * 2018-07-05 2022-05-24 中国科学院信息工程研究所 一种基于焦点损失函数的自然场景下文字检测定位方法和装置
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
CN110766152B (zh) * 2018-07-27 2023-08-04 富士通株式会社 用于训练深度神经网络的方法和装置
CN109064493B (zh) * 2018-08-01 2021-03-09 苏州飞搜科技有限公司 一种基于元学习的目标跟踪方法及装置
US10719737B2 (en) * 2018-08-23 2020-07-21 Denso International America, Inc. Image classification system for resizing images to maintain aspect ratio information
CN109410279A (zh) * 2018-08-31 2019-03-01 南京理工大学 基于深度学习的图像检测定位加速方法
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN109447101B (zh) * 2018-09-04 2021-07-09 北京悦图数据科技发展有限公司 基于深度cnn的车辆位置识别方法、装置及存储介质
TWI691930B (zh) 2018-09-19 2020-04-21 財團法人工業技術研究院 基於神經網路的分類方法及其分類裝置
JP7083037B2 (ja) * 2018-09-20 2022-06-09 富士フイルム株式会社 学習装置及び学習方法
IL305330A (en) 2018-10-11 2023-10-01 Tesla Inc Systems and methods for training machine models with enhanced data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
CN109458978B (zh) * 2018-11-07 2020-12-01 五邑大学 一种基于多尺度检测算法的天线下倾角测量方法
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
CN109801270B (zh) 2018-12-29 2021-07-16 北京市商汤科技开发有限公司 锚点确定方法及装置、电子设备和存储介质
US10635941B1 (en) * 2019-01-29 2020-04-28 StradVision, Inc. Method and device for on-device continual learning of neural network which analyzes input data by optimized sampling of training images, and method and device for testing the neural network for smartphones, drones, vessels, or military purpose
US10922584B2 (en) 2019-01-30 2021-02-16 Walmart Apollo, Llc Systems, methods, and techniques for training neural networks and utilizing the neural networks to detect non-compliant content
US10810726B2 (en) * 2019-01-30 2020-10-20 Walmart Apollo, Llc Systems and methods for detecting content in images using neural network architectures
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
EP3703008A1 (en) * 2019-02-26 2020-09-02 Zenuity AB Object detection and 3d box fitting
US10872258B2 (en) * 2019-03-15 2020-12-22 Huawei Technologies Co., Ltd. Adaptive image cropping for face recognition
CN110135456A (zh) * 2019-04-08 2019-08-16 图麟信息科技(上海)有限公司 一种目标检测模型的训练方法及装置
JP7378221B2 (ja) * 2019-04-17 2023-11-13 シャープ株式会社 画像処理装置、画像形成装置、画像読取装置、制御方法、コンピュータプログラム、および記録媒体
CN111860080A (zh) * 2019-04-30 2020-10-30 杰创智能科技股份有限公司 一种基于通道分离型卷积的快速人脸检测模型
GB2582833B (en) * 2019-04-30 2021-04-07 Huawei Tech Co Ltd Facial localisation in images
CN110210539B (zh) * 2019-05-22 2022-12-30 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110335312A (zh) * 2019-06-17 2019-10-15 武汉大学 一种基于神经网络的目标空间定位方法及装置
CN110945564B (zh) * 2019-08-13 2023-04-07 香港应用科技研究院有限公司 基于混合上下文cnn模型的医学图像分割
WO2021051131A1 (en) 2019-09-09 2021-03-18 Snap Inc. Hand pose estimation from stereo cameras
CN110796135A (zh) * 2019-09-20 2020-02-14 平安科技(深圳)有限公司 目标的定位方法及装置、计算机设备、计算机存储介质
CN110807170B (zh) * 2019-10-21 2023-06-27 中国人民解放军国防科技大学 多样本多通道卷积神经网络Same卷积向量化实现方法
US20210125052A1 (en) * 2019-10-24 2021-04-29 Nvidia Corporation Reinforcement learning of tactile grasp policies
KR20210061839A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
US11758069B2 (en) 2020-01-27 2023-09-12 Walmart Apollo, Llc Systems and methods for identifying non-compliant images using neural network architectures
US11450008B1 (en) * 2020-02-27 2022-09-20 Amazon Technologies, Inc. Segmentation using attention-weighted loss and discriminative feature learning
US20210295171A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Future trajectory predictions in multi-actor environments for autonomous machine applications
CN113642593B (zh) * 2020-04-27 2024-03-01 台达电子工业股份有限公司 影像处理方法与影像处理系统
US11132607B1 (en) * 2020-05-05 2021-09-28 StradVision, Inc. Method for explainable active learning, to be used for object detector, by using deep encoder and active learning device using the same
CN112084869B (zh) * 2020-08-10 2023-04-07 北京航空航天大学 一种基于紧致四边形表示的建筑物目标检测方法
CN112052787B (zh) * 2020-09-03 2021-07-30 腾讯科技(深圳)有限公司 基于人工智能的目标检测方法、装置及电子设备
US11954932B2 (en) * 2020-10-16 2024-04-09 Bluebeam, Inc. Systems and methods for automatic detection of features on a sheet
US20220147748A1 (en) * 2020-11-12 2022-05-12 Texas Instruments Incorporated Efficient object detection using deep learning techniques
US11756309B2 (en) * 2020-11-23 2023-09-12 Waymo Llc Contrastive learning for object detection
CN112819008B (zh) * 2021-01-11 2022-10-28 腾讯科技(深圳)有限公司 实例检测网络的优化方法、装置、介质及电子设备
CN112836677B (zh) * 2021-03-02 2023-04-07 西安建筑科技大学 一种利用深度学习的弱监督车辆重识别方法
CN113128393A (zh) * 2021-04-15 2021-07-16 国网安徽省电力有限公司黄山供电公司 一种检测大型机械吊臂下是否有人的方法和系统
AU2021204756A1 (en) * 2021-05-21 2022-12-08 Soul Machines Transfer learning in image recognition systems
US11823490B2 (en) * 2021-06-08 2023-11-21 Adobe, Inc. Non-linear latent to latent model for multi-attribute face editing
CN115294337B (zh) * 2022-09-28 2023-01-13 珠海大横琴科技发展有限公司 训练语义分割模型的方法、图像语义分割方法及相关装置
CN115953394B (zh) * 2023-03-10 2023-06-23 中国石油大学(华东) 基于目标分割的海洋中尺度涡检测方法及系统
CN116563615B (zh) * 2023-04-21 2023-11-07 南京讯思雅信息科技有限公司 基于改进多尺度注意力机制的不良图片分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680508A (zh) * 2013-11-29 2015-06-03 华为技术有限公司 卷积神经网络和基于卷积神经网络的目标物体检测方法
CN105512624A (zh) * 2015-12-01 2016-04-20 天津中科智能识别产业技术研究院有限公司 一种人脸图像的笑脸识别方法及其装置
CN105760859A (zh) * 2016-03-22 2016-07-13 中国科学院自动化研究所 基于多任务卷积神经网络的网纹人脸图像识别方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US9373057B1 (en) * 2013-11-01 2016-06-21 Google Inc. Training a neural network to detect objects in images
PE20181535A1 (es) * 2015-12-16 2018-09-26 Gritstone Oncology Inc Identificacion, fabricacion y uso de neoantigeno
US10198671B1 (en) * 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680508A (zh) * 2013-11-29 2015-06-03 华为技术有限公司 卷积神经网络和基于卷积神经网络的目标物体检测方法
CN105512624A (zh) * 2015-12-01 2016-04-20 天津中科智能识别产业技术研究院有限公司 一种人脸图像的笑脸识别方法及其装置
CN105760859A (zh) * 2016-03-22 2016-07-13 中国科学院自动化研究所 基于多任务卷积神经网络的网纹人脸图像识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOSEPH REDMON ETC.: "You only look once:unified,real-time object detection", 《COMPUTER VISION AND PATTERN RECOGNITION 》 *
周志华: "《机器学习》", 30 January 2016, 清华大学出版社 *
甘仞初等: "《管理信息系统》", 30 September 2001, 机械工业出版社 *

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11321593B2 (en) 2017-02-23 2022-05-03 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
CN108229455A (zh) * 2017-02-23 2018-06-29 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
CN108229455B (zh) * 2017-02-23 2020-10-16 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
CN108230292A (zh) * 2017-04-11 2018-06-29 北京市商汤科技开发有限公司 物体检测方法和神经网络的训练方法、装置及电子设备
CN108230292B (zh) * 2017-04-11 2021-04-02 北京市商汤科技开发有限公司 物体检测方法和神经网络的训练方法、装置及电子设备
WO2018188453A1 (zh) * 2017-04-11 2018-10-18 腾讯科技(深圳)有限公司 人脸区域的确定方法、存储介质、计算机设备
CN108875482B (zh) * 2017-09-14 2022-01-21 北京旷视科技有限公司 物体检测方法和装置、神经网络训练方法和装置
CN108875482A (zh) * 2017-09-14 2018-11-23 北京旷视科技有限公司 物体检测方法和装置、神经网络训练方法和装置
CN107625521A (zh) * 2017-09-14 2018-01-26 华东师范大学 基于脑电数据的用于评估记忆动态变化的多层建模方法
CN111108507A (zh) * 2017-09-22 2020-05-05 祖克斯有限公司 根据二维图像和点云数据生成三维边界框
CN111108507B (zh) * 2017-09-22 2024-01-12 祖克斯有限公司 根据二维图像和点云数据生成三维边界框
CN108549927A (zh) * 2018-03-16 2018-09-18 深圳市商汤科技有限公司 物体检测网络的训练方法和特征监督图生成方法
CN110321773A (zh) * 2018-03-30 2019-10-11 托比股份公司 使用校准参数的用于三维(3d)注视预测的神经网络训练
CN108564016A (zh) * 2018-04-04 2018-09-21 北京红云智胜科技有限公司 一种基于计算机视觉的au分类系统及方法
CN108875805A (zh) * 2018-05-31 2018-11-23 北京迈格斯智能科技有限公司 基于深度学习的利用检测识别一体化提高检测精度的方法
CN110580487A (zh) * 2018-06-08 2019-12-17 Oppo广东移动通信有限公司 神经网络的训练方法、构建方法、图像处理方法和装置
CN108898085A (zh) * 2018-06-20 2018-11-27 安徽大学 一种基于手机视频的道路病害智能检测方法
CN110781659A (zh) * 2018-07-11 2020-02-11 株式会社Ntt都科摩 基于神经网络的文本处理方法和文本处理装置
CN110782568A (zh) * 2018-07-13 2020-02-11 宁波其兰文化发展有限公司 一种基于视频摄影的门禁系统
CN110782554A (zh) * 2018-07-13 2020-02-11 宁波其兰文化发展有限公司 一种基于视频摄影的门禁控制方法
CN110782568B (zh) * 2018-07-13 2022-05-31 深圳市元睿城市智能发展有限公司 一种基于视频摄影的门禁系统
CN110782554B (zh) * 2018-07-13 2022-12-06 北京佳惠信达科技有限公司 一种基于视频摄影的门禁控制方法
US11233933B2 (en) 2018-07-16 2022-01-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for processing image, and mobile terminal
CN108810418A (zh) * 2018-07-16 2018-11-13 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN108810418B (zh) * 2018-07-16 2020-09-11 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN109165538A (zh) * 2018-07-18 2019-01-08 北京飞搜科技有限公司 基于深度神经网络的条形码检测方法及装置
CN109272016A (zh) * 2018-08-08 2019-01-25 广州视源电子科技股份有限公司 目标检测方法、装置、终端设备和计算机可读存储介质
CN109299656A (zh) * 2018-08-13 2019-02-01 浙江零跑科技有限公司 一种车载视觉系统场景视深确定方法
CN109214389A (zh) * 2018-09-21 2019-01-15 上海小萌科技有限公司 一种目标识别方法、计算机装置及可读存储介质
CN109214389B (zh) * 2018-09-21 2021-09-28 上海小萌科技有限公司 一种目标识别方法、计算机装置及可读存储介质
CN109409517A (zh) * 2018-09-30 2019-03-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109117831B (zh) * 2018-09-30 2021-10-12 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109447247A (zh) * 2018-10-23 2019-03-08 北京旷视科技有限公司 获得卷积神经网络的方法及装置
CN109447247B (zh) * 2018-10-23 2021-11-16 北京旷视科技有限公司 获得用于图像处理任务的卷积神经网络的方法及装置
CN111273953B (zh) * 2018-11-19 2021-07-16 Oppo广东移动通信有限公司 模型处理方法、装置、终端及存储介质
CN111273953A (zh) * 2018-11-19 2020-06-12 Oppo广东移动通信有限公司 模型处理方法、装置、终端及存储介质
CN109709603A (zh) * 2018-11-23 2019-05-03 中国石油天然气股份有限公司 地震层位识别与追踪方法、系统
CN111260548A (zh) * 2018-11-30 2020-06-09 浙江宇视科技有限公司 基于深度学习的贴图方法及装置
CN111260548B (zh) * 2018-11-30 2023-07-21 浙江宇视科技有限公司 基于深度学习的贴图方法及装置
CN109784194A (zh) * 2018-12-20 2019-05-21 上海图森未来人工智能科技有限公司 目标检测网络构建方法和训练方法、目标检测方法
CN109754009A (zh) * 2018-12-29 2019-05-14 北京沃东天骏信息技术有限公司 物品识别方法、装置、售货系统和存储介质
CN109766887B (zh) * 2019-01-16 2022-11-11 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN109766887A (zh) * 2019-01-16 2019-05-17 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN111476057A (zh) * 2019-01-23 2020-07-31 北京市商汤科技开发有限公司 车道线获取方法及装置、车辆驾驶方法及装置
CN111476057B (zh) * 2019-01-23 2024-03-26 北京市商汤科技开发有限公司 车道线获取方法及装置、车辆驾驶方法及装置
CN109803090A (zh) * 2019-01-25 2019-05-24 睿魔智能科技(深圳)有限公司 无人拍摄自动变焦方法及系统、无人摄像机及存储介质
CN111507455A (zh) * 2019-01-31 2020-08-07 数坤(北京)网络科技有限公司 神经网络系统生成方法和装置、图像处理方法和电子设备
CN111507455B (zh) * 2019-01-31 2021-07-13 数坤(北京)网络科技股份有限公司 神经网络系统生成方法和装置、图像处理方法和电子设备
CN111625668A (zh) * 2019-02-28 2020-09-04 Sap欧洲公司 对象检测和候选过滤系统
CN111625668B (zh) * 2019-02-28 2021-09-21 Sap欧洲公司 对象检测和候选过滤系统
CN110059554A (zh) * 2019-03-13 2019-07-26 重庆邮电大学 一种基于交通场景的多支路目标检测方法
CN110059554B (zh) * 2019-03-13 2022-07-01 重庆邮电大学 一种基于交通场景的多支路目标检测方法
CN110008923B (zh) * 2019-04-11 2021-07-27 网易有道信息技术(北京)有限公司 图像处理方法和训练方法、以及装置、介质、计算设备
CN110008923A (zh) * 2019-04-11 2019-07-12 网易有道信息技术(北京)有限公司 图像处理方法和训练方法、以及装置、介质、计算设备
US11004204B2 (en) 2019-05-27 2021-05-11 Advanced New Technologies Co., Ltd. Segmentation-based damage detection
WO2020238256A1 (zh) * 2019-05-27 2020-12-03 创新先进技术有限公司 基于弱分割的损伤检测方法及装置
US10783643B1 (en) 2019-05-27 2020-09-22 Alibaba Group Holding Limited Segmentation-based damage detection
CN111723809B (zh) * 2019-06-10 2021-09-07 创新先进技术有限公司 评估目标检测模型的方法和系统
CN111723809A (zh) * 2019-06-10 2020-09-29 阿里巴巴集团控股有限公司 评估目标检测模型的方法和系统
US11095902B2 (en) 2019-06-28 2021-08-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for image coding, electronic device and computer-readable storage medium
CN110267041A (zh) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 图像编码方法、装置、电子设备和计算机可读存储介质
CN111062413A (zh) * 2019-11-08 2020-04-24 深兰科技(上海)有限公司 一种道路目标检测方法、装置、电子设备及存储介质
CN110968735A (zh) * 2019-11-25 2020-04-07 中国矿业大学 一种基于球面相似度层次聚类的无监督行人重识别方法
CN112329762A (zh) * 2019-12-12 2021-02-05 北京沃东天骏信息技术有限公司 图像处理方法、模型训练方法、装置、计算机设备和介质
CN111354378A (zh) * 2020-02-12 2020-06-30 北京声智科技有限公司 语音端点检测方法、装置、设备及计算机存储介质
WO2021169668A1 (zh) * 2020-02-26 2021-09-02 Oppo广东移动通信有限公司 图像处理方法及相关装置
CN111415333A (zh) * 2020-03-05 2020-07-14 北京深睿博联科技有限责任公司 乳腺x射线影像反对称生成分析模型训练方法和装置
CN111415333B (zh) * 2020-03-05 2023-12-01 北京深睿博联科技有限责任公司 乳腺x射线影像反对称生成分析模型训练方法和装置
CN111341443A (zh) * 2020-03-09 2020-06-26 西安中科长青医疗科技研究院有限公司 一种基于深度学习的超声甲状腺结节智能评估方法
CN111598972B (zh) * 2020-04-03 2021-06-29 深圳大学 户型图生成方法、装置、计算机设备和存储介质
CN111598972A (zh) * 2020-04-03 2020-08-28 深圳大学 户型图生成方法、装置、计算机设备和存储介质
WO2022000855A1 (zh) * 2020-06-29 2022-01-06 魔门塔(苏州)科技有限公司 一种目标检测方法及装置
CN114485694A (zh) * 2020-11-13 2022-05-13 元平台公司 用于自动检测建筑物覆盖区的系统和方法
CN112101360A (zh) * 2020-11-17 2020-12-18 浙江大华技术股份有限公司 一种目标检测方法、装置以及计算机可读存储介质
CN112863187A (zh) * 2021-01-18 2021-05-28 北京百度网讯科技有限公司 感知模型的检测方法、电子设备、路侧设备和云控平台
CN112863187B (zh) * 2021-01-18 2022-04-15 阿波罗智联(北京)科技有限公司 感知模型的检测方法、电子设备、路侧设备和云控平台
CN114639001A (zh) * 2022-04-22 2022-06-17 武汉中科通达高新技术股份有限公司 人脸属性识别网络的训练方法、识别方法及相关设备

Also Published As

Publication number Publication date
CN106295678B (zh) 2020-03-06
US20180032840A1 (en) 2018-02-01
US10769493B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
CN106295678A (zh) 神经网络训练与构建方法和装置以及目标检测方法和装置
CN112200161B (zh) 一种基于混合注意力机制的人脸识别检测方法
Raza et al. Appearance based pedestrians’ head pose and body orientation estimation using deep learning
CN112733749A (zh) 融合注意力机制的实时行人检测方法
CN111612008B (zh) 基于卷积网络的图像分割方法
CN108830188A (zh) 基于深度学习的车辆检测方法
EP3686798B1 (en) Learning method and learning device for objet detector based on cnn
CN109816012A (zh) 一种融合上下文信息的多尺度目标检测方法
CN106372666B (zh) 一种目标识别方法及装置
CN109214366A (zh) 局部目标重识别方法、装置及系统
CN114821246B (zh) 基于多层次残差网络感知和注意力机制的小目标检测方法
CN107871106A (zh) 人脸检测方法和装置
Derpanis et al. Classification of traffic video based on a spatiotemporal orientation analysis
Peemen et al. Speed sign detection and recognition by convolutional neural networks
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN110263712A (zh) 一种基于区域候选的粗精行人检测方法
CN109858547A (zh) 一种基于bssd的目标检测方法与装置
CN106780727B (zh) 一种车头检测模型重建方法及装置
Xing et al. Traffic sign recognition using guided image filtering
CN114821102A (zh) 密集柑橘数量检测方法、设备、存储介质及装置
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
CN109871792A (zh) 行人检测方法和装置
CN104966064A (zh) 基于视觉的前方行人测距方法
CN111967399A (zh) 一种基于改进的Faster RCNN行为识别方法
CN104050486A (zh) 基于图和Wishart距离的极化SAR图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100080 room A, block, No. 2 South Road, Haidian District Academy of Sciences, Beijing, China

Applicant after: MEGVII INC.

Applicant after: Beijing maigewei Technology Co., Ltd.

Address before: 100080 room A, block, No. 2 South Road, Haidian District Academy of Sciences, Beijing, China

Applicant before: MEGVII INC.

Applicant before: Beijing aperture Science and Technology Ltd.

GR01 Patent grant
GR01 Patent grant