CN113326773A - 识别模型训练方法、识别方法、装置、设备及存储介质 - Google Patents
识别模型训练方法、识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113326773A CN113326773A CN202110591890.8A CN202110591890A CN113326773A CN 113326773 A CN113326773 A CN 113326773A CN 202110591890 A CN202110591890 A CN 202110591890A CN 113326773 A CN113326773 A CN 113326773A
- Authority
- CN
- China
- Prior art keywords
- target object
- prediction data
- image
- recognition model
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 title claims abstract description 32
- 238000002372 labelling Methods 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了识别模型训练方法、识别方法、装置、设备及存储介质,深度学习、计算机视觉技术领域。具体实现方案为:将待处理图像输入待训练的识别模型;通过所述待训练的识别模型的特征输出层,输出所述待处理图像的至少一张特征图;通过所述待训练的识别模型的头部,根据所述至少一张特征图获取所述待处理图像中的第一目标物体的预测数据,以及所述待处理图像中的与所述第一目标物体的预测数据关联的第二目标物体的预测数据;根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化所述待训练的识别模型,得到训练后的识别模型。本公开实施能够提高识别模型的识别效率和识别效果。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、计算机视觉技术领域,可应用于智慧城市、智能交通场景下。
背景技术
目标识别是图像处理的一个重要的手段和目的,通过目标识别,可以对视频、静态画面中的物体、人体、动物体等目标物体进行识别,根据识别结果实现身份认证、安全检查等多种用途。
随着计算机技术的发展,在多种需要应用到目标识别技术的场景下,随着应用目的的多样化,被识别的目标物体的多样化,经常需要多重模型实现目标物体识别的目的。如何提高处理待处理图像的模型的效率,是需要改进的一个问题。
发明内容
本公开提供了一种识别模型训练方法、识别方法、装置、设备及存储介质。
根据本公开的一方面,提供了一种识别模型训练方法,包括:
将待处理图像输入待训练的识别模型;
通过待训练的识别模型的特征输出层,输出待处理图像的至少一张特征图;
通过待训练的识别模型的头部,根据至少一张特征图获取待处理图像中的第一目标物体的预测数据,以及待处理图像中的与第一目标物体的预测数据关联的第二目标物体的预测数据;
根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化待训练的识别模型,得到训练后的识别模型。
根据本公开的另一方面,提供了一种识别方法,包括:
将待识别图像输入识别模型,获得待识别图像中的第一目标物体的预测数据和与第一目标物体关联的第二目标物体的预测数据,识别模型为本公开任意一项实施例所提供的训练后的识别模型。
根据本公开的另一方面,提供了一种识别模型训练装置,包括:
第一输入模块,用于将待处理图像输入待训练的识别模型;
特征图模块,用于通过待训练的识别模型的特征输出层,输出待处理图像的至少一张特征图;
预测数据模块,用于通过待训练的识别模型的头部,根据至少一张特征图获取待处理图像中的第一目标物体的预测数据,以及待处理图像中的与第一目标物体的预测数据关联的第二目标物体的预测数据;
训练模块,用于根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化待训练的识别模型,得到训练后的识别模型。
根据本公开的另一方面,提供了一种识别装置,包括:
第二输入模块,用于将待识别图像输入识别模型,获得待识别图像中的第一目标物体的预测数据和与第一目标物体关联的第二目标物体的预测数据,识别模型为本公开任意一项实施例所提供的训练后的识别模型。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术,能够通过待训练的识别模型获得第一目标物体和第二目标物体的预测数据,根据预测数据和标注数据对待训练的识别模型进行优化和训练,得到的识别模型对第一目标物体和与第一目标物体相关的第二目标物体的识别,能够实现至少两种目标物体的关联识别,充分利用待识别图像中提供的信息,以较少的模型数量输出较多的识别结果,提高模型的部署和识别效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例的识别模型训练方法示意图;
图2是根据本公开另一实施例的识别模型训练方法示意图;
图3是根据本公开又一实施例的识别模型训练方法示意图;
图4是根据本公开一种示例的识别模型训练方法示意图;
图5是根据本公开另一种示例的识别模型训练方法示意图;
图6是根据本公开一种示例的数据处理示意图;
图7是根据本公开一种示例的识别示意图;
图8是根据本公开一实施例的识别模型训练装置示意图;
图9是根据本公开另一实施例的识别模型训练装置示意图;
图10是根据本公开又一实施例的识别模型训练装置示意图;
图11是根据本公开一实施例的识别模型训练装置示意图;
图12是根据本公开一实施例的识别模型训练装置示意图;
图13是用来实现本公开实施例的识别模型训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例首先提供一种识别模型训练方法,如图1所示,包括:
步骤S11:将待处理图像输入待训练的识别模型;
步骤S12:通过待训练的识别模型的特征输出层,输出待处理图像的至少一张特征图;
步骤S13:通过待训练的识别模型的头部(Head),根据至少一张特征图获取待处理图像中的第一目标物体的预测数据,以及待处理图像中的与第一目标物体的预测数据关联的第二目标物体的预测数据;
步骤S14:根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化待训练的识别模型,得到训练后的识别模型。
本实施例中,待处理图像可以是包含需要识别的目标物体的图像。需要识别的目标物体,可以是任何物体,比如人物、人脸、人眼、人体、动物、静物等。
在待训练的识别模型的特征输出层输出两张以上特征图的情况下,两张以上的特征图的尺寸不同。
本实施例中,待训练的识别模型的头部,可以是待训练的识别模型中的一层结构。待训练的识别模型的特征输出层输出至少一张特征图之后,至少一张特征图输入待训练的识别模型的头部,由待训练的识别模型的头部输出第一目标物体的预测数据和第二目标物体的预测数据。
本实施例中,第一目标物体和第二目标物体可以是待识别图像中的目标物体。第一目标物体可以是与第二目标物体的存在几何关联等相关关系的目标物体。
比如,第一目标物体为人脸的情况下,第二目标物体可以为与人脸相关的人体,即在第一目标物体为A人物的脸部的情况下,第二目标物体可以是A人物的人体。再如,第一目标物体为人眼的情况下,第二目标物体可以为与人眼相关的人脸,即在第一目标物体为A人物的眼睛的情况下,第二目标物体可以为A人物的脸部。
本实施例中,第一目标物体和第二目标物体之间可以存在相互包含或被包含的关系。
第一目标物体的预测数据,可以包括第一目标物体的识别数据,如第一目标物体在待识别图像中是否存在、存在的位置等。
第一目标物体的预测数据,还可以包括第一目标物体的特征、属性、质量等数据。比如,第一目标物体的大小等级、完整度等级、外形等级等。
第一目标物体的预测数据可以包括多种预测数据。
本实施中,第一目标物体的预测数据和第二目标物体的预测数据的种类可以相同或不同。
通过待训练的识别模型的头部,根据至少一张特征图获取待处理图像中的第一目标物体的预测数据,以及第二目标物体的预测数据,可以是针对特征图的每个像素,输出用于预测第一目标物体的数据和用于预测第二目标物体的数据,根据所有像素的数据,获得第一目标物体的预测数据和第二目标物体的预测数据。
第一目标物体的预测数据和第二目标物体的预测数据可以用于智慧城市、智能交通等场景。
本实施例中,能够通过待训练的识别模型获得第一目标物体和第二目标物体的预测数据,根据预测数据和标注数据对待训练的识别模型进行优化和训练,得到的识别模型对第一目标物体和与第一目标物体相关的第二目标物体的识别,能够实现至少两种目标物体的关联识别,充分利用待识别图像中提供的信息,以较少的模型数量输出较多的识别结果,提高模型的部署和识别效率。
在一种实施方式中,第一目标物体的预测数据包括第一目标物体的分类预测数据和第一目标物体的属性预测数据;第二目标物体的预测数据包括第二目标物体的预测数据和第二目标物体的属性预测数据。
本实施例中,第一目标物体的分类预测数据可以用于判断待识别图像的某个区域是否为第一目标物体。第一目标物体的属性预测数据可以是用于判断第一目标物体在待识别图像中的呈现质量的参数。比如,的分类预测数据,可以是第一目标物体的判定数据,比如图像中是否存在第一目标物体、包围第一目标物体的锚点框等。
第二目标物体的分类预测数据可以与第一目标物体的分类预测数据相同,也可以与第一目标物体的分类预测数据不同。第二目标物体的属性预测数据可以与第一目标物体的属性预测数据相同,也可以与第一目标物体的属性预测数据不同。
本实施例中,能够获得第一目标物体的分类预测数据、第一目标物体的属性预测数据,也能够获得第二目标物体的分类预测数据和属性预测数据,从而能够对至少两个需要识别的关联目标物体进行联合输出,从而,不仅能够通过少量的模型获得较多数量的目标物体的识别结果,而且识别第一目标物体和第二目标物体的过程能够相互融合,达到更好的识别效果。
在一种实施方式中,如图2所示,通过待训练的识别模型的头部,输出第一目标物体的预测数据,以及与第一目标物体的预测数据关联的第二目标物体的预测数据,包括:
步骤S21:针对特征图的每一个像素,输出第一目标物体的锚点框预测数据和第二目标物体的锚点框预测数据;
步骤S22:根据第一目标物体的锚点框预测数据和第二目标物体的锚点框预测数据,输出第一目标物体的预测数据和第二目标物体的预测数据。
本实施例中,针对特征图的每一个像素,第一目标物体的锚点框预测数据,可以包括像素是第一目标物体的概率等数据。第二目标物体的锚点框预测数据可以与第一目标物体的锚点框预测数据相同。
根据第一目标物体的锚点框预测数据,可以在特征图中确定第一目标物体的边界点,从而形成包围第一目标物体的锚点框,根据锚点框确定第一目标物体的预测数据。针对第二目标物体的预测数据,可采用与第一目标物体的预测数据相同的方式生成。
上述步骤S21和S22可通过待训练的识别模型的头部执行。
本实施例中,能够对特征图的每一个像素生成用于预测第一目标物体和第二目标物体的预测数据的锚点框预测数据,从而后续能够获得包围目标物体的锚点框,更为准确第根据锚点框等信息输出第一目标物体和第二目标物体的预测数据。
在一种实施方式中,第一目标物体为人脸;第二目标物体为人体。
在安防大数据系统等场景下,往往需要将监控视频流中出现的自然人进行检测跟踪,并将其中的关键帧图像进行存储记录。其中,关键帧图像可包含人脸、人体中的至少一个,可用于后续的人脸和/或人体检索。本公开实施例可设定第一目标物体为人脸,第二目标物体为人体,从而能够用于视频流的抓拍系统中的人体人脸检测,并将属于同于自然人的人体和人脸进行关联,同时在包含一段不间断的自然人轨迹的视频中,选取最适合识别的一个帧图像存入数据库,为后续的追踪、检索、安防等操作提供重要且高质量的信息。
本实施例中,能够识别待识别图像中的人脸以及与人脸相关的人体,从而实现关联识别。
在一种实施方式中,特征输出层包括主干网络和特征金字塔网络;通过待训练的识别模型的特征输出层,输出待处理图像的至少一张特征图,如图3所示,包括:
步骤S31:通过主干网络(Backbone),输出待处理图像的多张第一特征图;
步骤S32:将多张第一特征图中的N张第二特征图输入特征金字塔网络(FeaturePyramid Network,FPN),N为不小于1的整数;
步骤S33:通过特征金字塔网络,输出N张第三特征图;
步骤S34:将N张第三特征图作为特征图。
在本实施例中,N张第二特征图可以是根据第一特征图中尺寸较小的N张第一特征图生成的。比如,主干网络输出5张第一特征图,F1、F2、F3、F4、F5,其中,F1-F5的尺寸逐渐变小,特征金字塔网络根据F3、F4、F5分别输出F6、F7、F8三张第二特征图。
主干网络可以包括多层CNN(Convolutional Neural Networks,卷积神经网络)子网络,可对输入待训练的识别模型的待识别图像进行卷积操作,获得多张第一特征图。
特征金字塔网络可对N张第一特征图进行进一步的卷积操作等处理,使得待识别图像中的高级语义信息融入特征图中,得到N张第二特征图。
N张第二特征图可以是尺寸大小各不相同的特征图,可用于识别在待识别图像中呈现不同大小的目标物体,例如,较小尺寸的特征图可用于识别较大尺寸的目标物体,较大尺寸的特征图可用于识别较小尺寸的目标物体。
本实施例中,通过待训练的识别模型的主干网络和特征金字塔网络,能够获得待识别图像的特征图,从而后续能够根据特征图进行第一目标物体和关联的第二目标物体的识别以及相关的数据预测。
本公开实施例还提供一种图像识别方法,如图4所示,包括:
步骤S41:将待识别图像输入识别模型,获得待识别图像中的第一目标物体的预测数据和与第一目标物体关联的第二目标物体的预测数据,识别模型为本公开任意一项实施例所提供的训练后的识别模型。
本实施例中,能够利用训练后的识别模型对待识别图像进行识别,获得关联的第一目标物体和第二目标物体的预测数据,从而能够采用较少数量的模型获得较多的预测结果。
在一种实施方式中,待识别图像为待识别视频中的帧图像;识别方法还包括:
根据第一目标物体的预测数据和第二目标物体的预测数据,获得待识别视频中的关键帧图像。
本实施例中,可根据第一目标物体的预测数据和第二目标物体的预测数据,确定待识别视频中第一目标物体和第二目标物体的整体质量最好的图像帧为关键帧图像。
还可根据第一目标物体的预测数据和第二目标物体的预测数据,分别确定待识别视频中第一目标物体和第二目标物体的整体质量最好的图像帧为第一目标物体关键帧图像和第二目标物体的关键图像帧。
本实施例中,通过第一目标物体和第二目标物体的预测数据,获得待识别视频中的关键图像帧,从而可以根据关键图像帧进行人脸识别、活体识别、人体识别、人脸追踪、人体追踪等操作,在应用于智能安防、智能识别等多种场景和领域,能够取得更好的使用效果。
本公开一种示例中,识别模型训练方法可应用于人脸和人体识别,可以包括如图5所示的步骤:
步骤S51:获得待识别图像。
具体的,可对监控或其他场景摄像头的实时视频流抽取图像帧,可以逐帧抽取,也可以设定间隔进行抽取。抽取的图像帧首先经过预处理,被缩放成固定尺寸,如416×416,并减去统一的RGB均值(如[104,117,123]),使得各待识别图像的尺寸和RGB均值在待训练的识别模型的训练过程中统一,从而增强训练后的识别的模型的鲁棒性。
步骤S52:将待识别图像输入别模型。
经过预处理的待识别图像可被送入待训练的识别模型进行计算。
步骤S53:获得待识别图像的特征图。
待训练的识别模型的输入数据可以为经过上述步骤S52预处理后的图像,经过主干网络的处理,得到不同深度和尺度的第一特征图。主干网络的结构可以与YOLO统一实时目标检测(You Only Look Once:Unified,Real-Time Object Detection)模型的主干网络相同,具体可包括具有卷积计算功能的子网络,子网络例如可以是DarkNet、ResNet等网络。
将主干网络输出的第一特征图中尺寸较小的N张,输入特征金字塔网络。通过FPN对主干网络输出的N张第一特征图通过对应的路径进行互相融合,最终得到N个不同尺度的特征图。这N个不同尺寸的特征图可分别用于感知图像上由大到小的不同尺度的目标。
步骤S54:获得第一目标物体预测数据和第二目标物体预测数据。
本示例中,特征金字塔网络后连接待训练识别模型的头部,头部可包括若干个卷积层-激活层-批处理层的组合。
本示例中,可预先设定每个特征图像素位置上产生至少一种不同大小比例的锚点框在锚点框基础上回归一个结果。每个锚点框对应有一个长度为(5+N+M)的中间输出数据。中间输出数据的通道数是5+N+M),表示基于该锚点框对目标检测框的预测(conf,x,y,w,h,class)以及属性的预测值。conf表示该锚点框内包含目标的置信度,x、y、w、h为归一化的检测框坐标及尺度;class是一个维度为N的向量,表示目标属于某一类别的概率对应该类别索引的向量内的值;属性的预测值是长度为M的向量。
人体和人脸的关联关系的定义可以为:属于同一自然人的人体框和人脸框是一组有关联关系的人体-人脸框。生成训练目标时,在每个人体框的中心点所对应的锚点(像素)上生成人体框的标签,同时如果该人体框所对应的自然人在图像中有人脸出现,则在同一锚点上生成该人体所关联的人脸框。
预测时,将完成预处理后的图像输入网络,得到图像中所有人体框和该人体所对应的人脸框,以及人体框对应的属性和人脸框所对应的属性。人体框对应的属性可以包括是否截断、是否异常、遮挡程度和朝向。人脸框所对应的属性可以包括质量、俯仰角、偏航角和翻滚角。
利用人体框和人脸框进行联合跟踪,从轨迹中选取无截断、无异常、遮挡程度低的不同朝向人体关键帧存储入库,选取质量分数高、角度较小的人脸关键帧图像存储入库,入库的关键帧图像可用于后续进行人脸检索等与目标物体相关的操作。
本公开实施例可应用于人脸和/或识别时,只对待识别图像进行一次深度学习模型提取,得到待识别图像上所有人体和人脸的检测框,人体属性、人脸属性,以及人体和人脸的对应关系。相比于利用单阶段模型同时进行关联检测和属性结果的输出,本公开实施例最大程度降低了计算资源开销,同时从模型直接输出人脸和人体的关联关系,无需单独进行人脸和人体的关联判断。
本公开一种示例中,识别模型的结构可以如图6所示,包括主干网络61、特征金字塔网络(FPN)62、头部63。在模型训练阶段,根据头部63输出的数据,可获得用于优化待训练的识别模型的损失(Loss)。通过主干网络61,根据待识别图像输出多张第一特征图,具体可以是C1、C2、C3、C4、C5,尺寸关系为:C1>C2>C3>C4>C5。经过FPN62,对C3、C4、C5进行融合计算,比如,可根据C3对应的顺序,融合被处理的第一特征图中的至少一张,输出第二特征图P3;根据C4对应的顺序,融合被处理的第一特征图中的至少一张,输出第二特征图P4;根据C5对应的顺序,融合被处理的第一特征图中的至少一张,输出第二特征图P5。头部63可包含卷积层conv3×3,头部的输出通道数为输入通道数的2倍,输出数据可分别为:人脸预测数据conv3×3C,3(K+5+4),人体预测数据conv3×3C,3(K+5+4)。
其中,C是输入到头部的特征通道数,k是类别数,5是(x,y,w,h,conf),4是人脸的三个角度和质量,11是人体的4个属性对应的向量:是否正常人体(否,是);是否截断(否,是);遮挡程度(无遮挡,轻微遮挡,重度遮挡);朝向(正面,背面,左侧面,右侧面)。
根据人脸预测数据和人体预测数据,可分别得出人脸的质量相关数据:人脸框(Face Box),人脸分数(Face Score),人脸角度(Face Angle),人脸质量(Face Quality);以及人体的质量相关数据:人体框(Human Box),人体分数(Human Score),人体质量(HumanQuality)。
例如,可根据图7所示的识别结果,获得人脸框71和人体框72,同时获得人脸和人体的质量相关数据:正常人体、无遮挡、无截断、正面。可选择待识别视频中联合NMS(Non-Maximum Suppression,非极大抑制值)最大的帧图像作为关键帧图像。
本公开实施例还提供一种识别模型训练装置,如图8所示,包括:
第一输入模块81,用于将待处理图像输入待训练的识别模型;
特征图模块82,用于通过待训练的识别模型的特征输出层,输出待处理图像的至少一张特征图;
预测数据模块83,用于通过待训练的识别模型的头部,根据至少一张特征图获取待处理图像中的第一目标物体的预测数据,以及待处理图像中的与第一目标物体的预测数据关联的第二目标物体的预测数据;
训练模块84,用于根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化待训练的识别模型,得到训练后的识别模型。
在一种实施方式中,第一目标物体的预测数据包括第一目标物体的分类预测数据和第一目标物体的属性预测数据;第二目标物体的预测数据包括第二目标物体的预测数据和第二目标物体的属性预测数据。
在一种实施方式中,如图9所示,预测数据模块包括:
第一预测单元91,用于针对特征图的每一个像素,输出第一目标物体的锚点框预测数据和第二目标物体的锚点框预测数据;
第二预测单元92,用于根据第一目标物体的锚点框预测数据和第二目标物体的锚点框预测数据,输出第一目标物体的预测数据和第二目标物体的预测数据。
在一种实施方式中,第一目标物体为人脸;第二目标物体为人体。
在一种实施方式中,如图10所示,特征输出层包括主干网络和特征金字塔网络;特征图模块包括:
第一特征图单元101,用于通过主干网络,输出待处理图像的多张第一特征图;
第一特征图输入单元102,用于,将多张第一特征图中的N张第二特征图输入特征金字塔网络,N为不小于1的整数;
第二特征图单元103,用于通过特征金字塔网络,输出N张第二特征图;
第二特征图处理单元104,用于将N张第二特征图作为特征图。
本公开实施例还提供一种图像识别装置,如图11所示,包括:
第二输入模块111,用于将待识别图像输入识别模型,获得待识别图像中的第一目标物体的预测数据和与第一目标物体关联的第二目标物体的预测数据,识别模型为本公开任意一项实施例所提供的训练后的识别模型。
在一种实施方式中,待识别图像为待识别视频中的帧图像;如图12所示,识别装置还包括:
关键帧图像模块121,用于根据第一目标物体的预测数据和第二目标物体的预测数据,获得待识别视频中的关键帧图像。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备130的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图13所示,电子设备130包括计算单元131,其可以根据存储在只读存储器(ROM)132中的计算机程序或者从存储单元138加载到随机访问存储器(RAM)133中的计算机程序来执行各种适当的动作和处理。在RAM 133中,还可存储电子设备130操作所需的各种程序和数据。计算单元131、ROM 132以及RAM 133通过总线134彼此相连。输入输出(I/O)接口135也连接至总线134。
电子设备130中的多个部件连接至I/O接口135,包括:输入单元136,例如键盘、鼠标等;输出单元137,例如各种类型的显示器、扬声器等;存储单元138,例如磁盘、光盘等;以及通信单元139,例如网卡、调制解调器、无线通信收发机等。通信单元139允许电子设备130通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元131可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元131的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元131执行上文所描述的各个方法和处理,例如识别模型训练方法。例如,在一些实施例中,识别模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元138。在一些实施例中,计算机程序的部分或者全部可以经由ROM 132和/或通信单元139而被载入和/或安装到电子设备130上。当计算机程序加载到RAM 133并由计算单元131执行时,可以执行上文描述的识别模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元131可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行识别模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种识别模型训练方法,包括:
将待处理图像输入待训练的识别模型;
通过所述待训练的识别模型的特征输出层,输出所述待处理图像的至少一张特征图;
通过所述待训练的识别模型的头部,根据所述至少一张特征图获取所述待处理图像中的第一目标物体的预测数据,以及所述待处理图像中的与所述第一目标物体的预测数据关联的第二目标物体的预测数据;
根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化所述待训练的识别模型,得到训练后的识别模型。
2.根据权利要求1所述的方法,其中,所述第一目标物体的预测数据包括所述第一目标物体的分类预测数据和所述第一目标物体的属性预测数据;所述第二目标物体的预测数据包括所述第二目标物体的预测数据和所述第二目标物体的属性预测数据。
3.根据权利要求1或2中任意一项所述的方法,其中,所述通过所述待训练的识别模型的头部,输出第一目标物体的预测数据,以及与所述第一目标物体的预测数据关联的第二目标物体的预测数据,包括:
针对所述特征图的每一个像素,输出所述第一目标物体的锚点框预测数据和所述第二目标物体的锚点框预测数据;
根据所述第一目标物体的锚点框预测数据和所述第二目标物体的锚点框预测数据,输出所述第一目标物体的预测数据和所述第二目标物体的预测数据。
4.根据权利要求1-3中任意一项所述的方法,其中,所述第一目标物体为人脸;所述第二目标物体为人体。
5.根据权利要求1-4中任意一项所述的方法,其中,所述特征输出层包括主干网络和特征金字塔网络;所述通过所述待训练的识别模型的特征输出层,输出所述待处理图像的至少一张特征图,包括:
通过所述主干网络,输出所述待处理图像的多张第一特征图;
将所述多张第一特征图中的N张第二特征图输入所述特征金字塔网络,N为不小于1的整数;
通过所述特征金字塔网络,输出N张第三特征图;
将所述N张第三特征图作为所述特征图。
6.一种识别方法,包括:
将待识别图像输入识别模型,获得所述待识别图像中的第一目标物体的预测数据和与所述第一目标物体关联的第二目标物体的预测数据,所述识别模型为权利要求1-5中任意一项所述的训练后的识别模型。
7.根据权利要求6所述方法,其中,所述待识别图像为待识别视频中的帧图像;所述方法还包括:
根据所述第一目标物体的预测数据和所述第二目标物体的预测数据,获得所述待识别视频中的关键帧图像。
8.一种识别模型训练装置,包括:
第一输入模块,用于将待处理图像输入待训练的识别模型;
特征图模块,用于通过所述待训练的识别模型的特征输出层,输出所述待处理图像的至少一张特征图;
预测数据模块,用于通过所述待训练的识别模型的头部,根据所述至少一张特征图获取所述待处理图像中的第一目标物体的预测数据,以及所述待处理图像中的与所述第一目标物体的预测数据关联的第二目标物体的预测数据;
训练模块,用于根据第一目标物体的预测数据、第二目标物体的预测数据、第一目标物体的标注数据和第二目标物体的标注数据,优化所述待训练的识别模型,得到训练后的识别模型。
9.根据权利要求8所述的装置,其中,所述第一目标物体的预测数据包括所述第一目标物体的分类预测数据和所述第一目标物体的属性预测数据;所述第二目标物体的预测数据包括所述第二目标物体的预测数据和所述第二目标物体的属性预测数据。
10.根据权利要求8或9中任意一项所述的装置,其中,所述预测数据模块包括:
第一预测单元,用于针对所述特征图的每一个像素,输出第所述一目标物体的锚点框预测数据和所述第二目标物体的锚点框预测数据;
第二预测单元,用于根据所述第一目标物体的锚点框预测数据和所述第二目标物体的锚点框预测数据,输出所述第一目标物体的预测数据和所述第二目标物体的预测数据。
11.根据权利要求8-10中任意一项所述的装置,其中,所述第一目标物体为人脸;所述第二目标物体为人体。
12.根据权利要求8-11中任意一项所述的装置,其中,所述特征输出层包括主干网络和特征金字塔网络;所述特征图模块包括:
第一特征图单元,用于通过所述主干网络,输出待处理图像的多张第一特征图;
第一特征图输入单元,用于,将所述多张第一特征图中的N张第二特征图输入所述特征金字塔网络,N为不小于1的整数;
第二特征图单元,用于通过所述特征金字塔网络,输出N张第三特征图;
第二特征图处理单元,用于将所述N张第三特征图作为所述特征图。
13.一种识别装置,包括:
第二输入模块,用于将待识别图像输入识别模型,获得所述待识别图像中的第一目标物体的预测数据和与所述第一目标物体关联的第二目标物体的预测数据,所述识别模型为权利要求8-12中任意一项所述的训练后的识别模型。
14.根据权利要求13所述装置,其中,所述待识别图像为待识别视频中的帧图像;所述装置还包括:
关键帧图像模块,用于根据所述第一目标物体的预测数据和所述第二目标物体的预测数据,获得所述待识别视频中的关键帧图像。
15.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110591890.8A CN113326773A (zh) | 2021-05-28 | 2021-05-28 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
JP2022544196A JP2023530796A (ja) | 2021-05-28 | 2022-01-29 | 認識モデルトレーニング方法、認識方法、装置、電子デバイス、記憶媒体及びコンピュータプログラム |
KR1020227025100A KR20220110321A (ko) | 2021-05-28 | 2022-01-29 | 인식 모델의 트레이닝 방법 및 장치, 인식 방법 및 장치, 전자장비, 저장매체 및 컴퓨터 프로그램 |
PCT/CN2022/075119 WO2022247343A1 (zh) | 2021-05-28 | 2022-01-29 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110591890.8A CN113326773A (zh) | 2021-05-28 | 2021-05-28 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113326773A true CN113326773A (zh) | 2021-08-31 |
Family
ID=77422175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110591890.8A Pending CN113326773A (zh) | 2021-05-28 | 2021-05-28 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2023530796A (zh) |
KR (1) | KR20220110321A (zh) |
CN (1) | CN113326773A (zh) |
WO (1) | WO2022247343A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113901911A (zh) * | 2021-09-30 | 2022-01-07 | 北京百度网讯科技有限公司 | 图像识别、模型训练方法、装置、电子设备及存储介质 |
CN114239761A (zh) * | 2022-02-25 | 2022-03-25 | 北京鉴智科技有限公司 | 一种目标检测模型训练方法和装置 |
CN114998575A (zh) * | 2022-06-29 | 2022-09-02 | 支付宝(杭州)信息技术有限公司 | 训练和使用目标检测模型的方法及装置 |
WO2022247343A1 (zh) * | 2021-05-28 | 2022-12-01 | 北京百度网讯科技有限公司 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845432A (zh) * | 2017-02-07 | 2017-06-13 | 深圳市深网视界科技有限公司 | 一种人脸与人体共同检测的方法和设备 |
CN110210304A (zh) * | 2019-04-29 | 2019-09-06 | 北京百度网讯科技有限公司 | 用于目标检测和跟踪的方法及系统 |
CN110634120A (zh) * | 2018-06-05 | 2019-12-31 | 杭州海康威视数字技术股份有限公司 | 一种车辆损伤判别方法及装置 |
CN111612820A (zh) * | 2020-05-15 | 2020-09-01 | 北京百度网讯科技有限公司 | 多目标跟踪方法、特征提取模型的训练方法和装置 |
CN111640140A (zh) * | 2020-05-22 | 2020-09-08 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
WO2021008252A1 (zh) * | 2019-07-12 | 2021-01-21 | 平安科技(深圳)有限公司 | 识别图像中人物位置方法、装置、计算机设备和存储介质 |
CN112597837A (zh) * | 2020-12-11 | 2021-04-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104346620B (zh) * | 2013-07-25 | 2017-12-29 | 佳能株式会社 | 对输入图像中的像素分类的方法和装置及图像处理系统 |
US20190130583A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Still and slow object tracking in a hybrid video analytics system |
US10692243B2 (en) * | 2017-12-03 | 2020-06-23 | Facebook, Inc. | Optimizations for dynamic object instance detection, segmentation, and structure mapping |
JP7255173B2 (ja) * | 2018-12-26 | 2023-04-11 | オムロン株式会社 | 人検出装置および人検出方法 |
US10817739B2 (en) * | 2019-01-31 | 2020-10-27 | Adobe Inc. | Content-aware selection |
US11429842B2 (en) * | 2019-02-24 | 2022-08-30 | Microsoft Technology Licensing, Llc | Neural network for skeletons from input images |
GB2582833B (en) * | 2019-04-30 | 2021-04-07 | Huawei Tech Co Ltd | Facial localisation in images |
CN111144215B (zh) * | 2019-11-27 | 2023-11-24 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111428875A (zh) * | 2020-03-11 | 2020-07-17 | 北京三快在线科技有限公司 | 图像识别方法、装置及相应模型训练方法、装置 |
US10902290B1 (en) * | 2020-08-04 | 2021-01-26 | Superb Ai Co., Ltd. | Methods for training auto labeling device and performing auto labeling related to object detection while performing automatic verification by using uncertainty scores and devices using the same |
CN113326773A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
CN113901911B (zh) * | 2021-09-30 | 2022-11-04 | 北京百度网讯科技有限公司 | 图像识别、模型训练方法、装置、电子设备及存储介质 |
-
2021
- 2021-05-28 CN CN202110591890.8A patent/CN113326773A/zh active Pending
-
2022
- 2022-01-29 WO PCT/CN2022/075119 patent/WO2022247343A1/zh active Application Filing
- 2022-01-29 JP JP2022544196A patent/JP2023530796A/ja active Pending
- 2022-01-29 KR KR1020227025100A patent/KR20220110321A/ko not_active Application Discontinuation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845432A (zh) * | 2017-02-07 | 2017-06-13 | 深圳市深网视界科技有限公司 | 一种人脸与人体共同检测的方法和设备 |
CN110634120A (zh) * | 2018-06-05 | 2019-12-31 | 杭州海康威视数字技术股份有限公司 | 一种车辆损伤判别方法及装置 |
CN110210304A (zh) * | 2019-04-29 | 2019-09-06 | 北京百度网讯科技有限公司 | 用于目标检测和跟踪的方法及系统 |
WO2021008252A1 (zh) * | 2019-07-12 | 2021-01-21 | 平安科技(深圳)有限公司 | 识别图像中人物位置方法、装置、计算机设备和存储介质 |
CN111612820A (zh) * | 2020-05-15 | 2020-09-01 | 北京百度网讯科技有限公司 | 多目标跟踪方法、特征提取模型的训练方法和装置 |
CN111640140A (zh) * | 2020-05-22 | 2020-09-08 | 北京百度网讯科技有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
CN112597837A (zh) * | 2020-12-11 | 2021-04-02 | 北京百度网讯科技有限公司 | 图像检测方法、装置、设备、存储介质和计算机程序产品 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022247343A1 (zh) * | 2021-05-28 | 2022-12-01 | 北京百度网讯科技有限公司 | 识别模型训练方法、识别方法、装置、设备及存储介质 |
CN113901911A (zh) * | 2021-09-30 | 2022-01-07 | 北京百度网讯科技有限公司 | 图像识别、模型训练方法、装置、电子设备及存储介质 |
CN114239761A (zh) * | 2022-02-25 | 2022-03-25 | 北京鉴智科技有限公司 | 一种目标检测模型训练方法和装置 |
CN114998575A (zh) * | 2022-06-29 | 2022-09-02 | 支付宝(杭州)信息技术有限公司 | 训练和使用目标检测模型的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2023530796A (ja) | 2023-07-20 |
KR20220110321A (ko) | 2022-08-05 |
WO2022247343A1 (zh) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
CN113901911B (zh) | 图像识别、模型训练方法、装置、电子设备及存储介质 | |
US20230030431A1 (en) | Method and apparatus for extracting feature, device, and storage medium | |
CN113221771A (zh) | 活体人脸识别方法、装置、设备、存储介质及程序产品 | |
US20220172376A1 (en) | Target Tracking Method and Device, and Electronic Apparatus | |
KR20220153088A (ko) | 비디오 태그 추천 모델의 트레이닝 방법 및 비디오 태그 확정 방법 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
CN112528858A (zh) | 人体姿态估计模型的训练方法、装置、设备、介质及产品 | |
CN113591566A (zh) | 图像识别模型的训练方法、装置、电子设备和存储介质 | |
CN111652181B (zh) | 目标跟踪方法、装置及电子设备 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN113378857A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN113239807A (zh) | 训练票据识别模型和票据识别的方法和装置 | |
CN112989987A (zh) | 用于识别人群行为的方法、装置、设备以及存储介质 | |
CN114093006A (zh) | 活体人脸检测模型的训练方法、装置、设备以及存储介质 | |
CN113989720A (zh) | 目标检测方法、训练方法、装置、电子设备及存储介质 | |
CN114663980A (zh) | 行为识别方法、深度学习模型的训练方法及装置 | |
CN114387651A (zh) | 一种人脸识别方法、装置、设备及存储介质 | |
CN114066790A (zh) | 图像生成模型的训练方法、图像生成方法、装置和设备 | |
CN113378836A (zh) | 图像识别方法、装置、设备、介质及程序产品 | |
CN113920306A (zh) | 目标再识别方法、装置及电子设备 | |
CN113936158A (zh) | 一种标签匹配方法及装置 | |
CN113887394A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN116229209B (zh) | 目标模型的训练方法、目标检测方法及装置 | |
CN112700657B (zh) | 用于生成检测信息的方法、装置、路侧设备和云控平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |