CN107784282A - 对象属性的识别方法、装置及系统 - Google Patents
对象属性的识别方法、装置及系统 Download PDFInfo
- Publication number
- CN107784282A CN107784282A CN201711001804.3A CN201711001804A CN107784282A CN 107784282 A CN107784282 A CN 107784282A CN 201711001804 A CN201711001804 A CN 201711001804A CN 107784282 A CN107784282 A CN 107784282A
- Authority
- CN
- China
- Prior art keywords
- information
- feature information
- region
- neural network
- analyzed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 81
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 23
- 238000013135 deep learning Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 10
- 210000005036 nerve Anatomy 0.000 abstract 1
- 230000008569 process Effects 0.000 description 11
- 102100033591 Calponin-2 Human genes 0.000 description 5
- 101000945403 Homo sapiens Calponin-2 Proteins 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 2
- 238000007429 general method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种对象属性的识别方法、装置及系统,涉及图像处理的技术领域,该方法包括:获取待处理的图像帧,其中,图像帧中包括待分析的目标对象;通过目标神经网络在图像帧中提取图像帧的全局特征信息,以及提取图像帧中待分析区域的局部特征信息,待分析区域中包括目标对象的局部区域;结合局部特征信息和全局特征信息,确定目标对象中局部区域的属性信息,本发明缓解了现有的属性识别技术中由于引入了大量的无用信息导致的局部相关属性识别精度较差的技术问题。
Description
技术领域
本发明涉及图像处理的技术领域,尤其是涉及一种对象属性的识别方法、装置及系统。
背景技术
随着图像识别技术的快速发展,很多应用中采用了各种识别技术,例如,人脸识别技术和待识别对象的属性识别技术。特别是在视频结构化的诸多应用中,行人的属性分析至关重要,行人属性是其中的重要一环。目前,通用的判别行人属性的方法是先在视频帧中做行人检测,检测到行人后,将行人从图像中切出,之后进行训练和测试。以上通用方法适用于全身相关的属性,例如,身高、体型、性别等。但对于局部相关的属性,例如头部的戴不戴帽子、是否长发、是否戴口罩,下半身的衣着是裤子还是裙子等,则引入了大量的无用信息。当引入大量的无用信息时,则会影响或者降低局部相关属性的识别精度。
针对上述问题,还未提出有效解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种对象属性的识别方法、装置及系统,以缓解了现有的属性识别技术中由于引入了大量的无用信息导致的局部相关属性识别精度较差的技术问题。
第一方面,本发明实施例提供了一种对象属性的识别方法,包括:获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
进一步地,在所述图像帧中提取局部特征信息包括:在所述图像帧中提取所述待分析区域的区域信息,其中,所述区域信息包括所述待分析区域的高度,所述待分析区域的宽度,所述待分析区域的一个顶点在所述图像帧中的坐标信息;结合所述区域信息和所述全局特征信息确定所述局部特征信息。
进一步地,结合所述区域信息和所述全局特征信息确定所述局部特征信息包括:基于所述区域信息对所述全局特征信息进行池化处理,以在所述全局特征信息中提取所述局部特征信息。
进一步地,所述目标神经网络包括:基础卷积神经网络,第一卷积神经网络分支和第二卷积神经网络分支,其中,所述第一卷积神经网络分支和所述第二卷积神经网络分支的网络输入端分别与所述基础卷积神经网络的网络输出端相连接。
进一步地,在所述图像帧中提取所述待分析区域的区域信息包括:通过所述基础卷积神经网络对所述图像帧进行浅层学习,学习得到浅层特征信息;通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息。
进一步地,所述待分析区域的数量为多个,通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息包括:通过所述第一卷积神经网络分支中包含的每个卷积神经网络对所述图像帧的浅层特征信息分别进行所述第一深度学习,得到每个所述待分析区域的区域信息。
进一步地,提取所述图像帧的全局特征信息包括:通过预先训练的所述第二卷积神经网络分支对所述浅层特征信息进行第二深度学习,得到所述图像帧的全局特征信息。
进一步地,结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息包括:将所述局部特征信息与所述全局特征信息进行合并,合并之后得到目标特征信息;对所述目标特征信息进行识别,得到所述属性信息。
进一步地,将所述局部特征信息与所述全局特征信息进行合并,合并之后得到目标特征信息包括:对所述局部特征信息的张量与所述全局特征信息的张量进行叠加处理,并将叠加结果作为所述目标特征信息;或者,对所述局部特征信息的张量与所述全局特征信息的张量进行加权合并,并将合并结果作为所述目标特征信息。
进一步地,所述方法还包括:通过损失函数,计算目标差值,其中,所述目标差值包括以下至少之一:所述目标神经网络预测出的所述待分析区域的区域信息与其真实值之间的差值,所述目标神经网络预测出的所述属性信息与其真实值之间的差值;基于所述目标差值对所述目标神经网络中的训练参数进行调整,并对调整之后的所述目标神经网络进行再次训练。
第二方面,本发明实施例还提供一种对象属性的识别装置,包括:获取单元,用于获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;提取单元,用于通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;确定单元,用于结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
第三方面,本发明实施例还提供一种对象属性的识别系统,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求所述的方法。
第四方面,本发明实施例还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行上述所述权利要求所述方法。
在本发明实施例中,首先获取待处理的图像帧;然后,通过目标神经网络在图像帧中提取图像帧的全局特征信息,以及提取图像帧中待分析区域的局部特征信息;最后,结合局部特征信息和全局特征信息,确定目标对象中局部区域的属性信息。在本发明实施例中,通过结合局部特征信息和全局特征信息来识别局部区域的属性信息的方式,提高了属性识别的识别精度,从而缓解了现有的属性识别技术中由于引入了大量的无用信息导致的局部相关属性识别精度较差的技术问题。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种电子设备的示意图;
图2是根据本发明实施例的一种对象属性的识别方法的流程图;
图3是根据本发明实施例的一种目标神经网络的结构示意图;
图4是根据本发明实施例的另一种目标神经网络的结构示意图;
图5是根据本发明实施例的一种对象属性的识别方法中步骤S106的流程图;
图6是根据本发明实施例的一种对象属性的识别装置的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
首先,参照图1来描述用于实现本发明实施例的对象属性的识别方法的示例电子设备100。
如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输入装置106、输出装置108以及图像采集装置110,这些组件通过总线系统112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备也可以具有其他组件和结构。
所述处理器102可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置106可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置108可以向外部(例如,用户)输出各种信息(例如,图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
所述图像采集装置110可以拍摄用户期望的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
示例性地,用于实现根据本发明实施例的人脸特征信息的追踪方法和装置的示例电子设备可以被实现为诸如智能手机、平板电脑等移动终端上。
实施例二:
根据本发明实施例,提供了一种对象属性的识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图2是根据本发明实施例的一种对象属性的识别方法的流程图,如图2所示,该方法包括如下步骤:
步骤S102,获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;
需要说明的是,在本发明实施例中,目标对象可以为人,可以为动物,还可以为静止的物体。对此,在本发明实施例中,不做具体的限定。
进一步需要说明的是,在本发明实施例中,待处理的图像帧为前端设备处理之后的图像帧,在获取到的图像帧中包括待分析的目标对象,其中,目标对象的数量为一个,还可以为多个。在本发明实施例中,可以设置对每个目标对象进行下述分析过程,还可以设置对某一个目标对象进行下述分析过程。
步骤S104,通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;
在本发明实施例中,如果目标对象是人,那么局部区域可以为头部,上半身,下半身等区域。如果目标对象是动物,那么局部区域可以为头部,四肢和躯干等区域。
步骤S106,结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
在本发明实施例中,首先获取待处理的图像帧;然后,通过目标神经网络在图像帧中提取图像帧的全局特征信息,以及提取图像帧中待分析区域的局部特征信息;最后,结合局部特征信息和全局特征信息,确定目标对象中局部区域的属性信息。在本发明实施例中,通过结合局部特征信息和全局特征信息来识别局部区域的属性信息的方式,提高了属性识别的识别精度,从而缓解了现有的属性识别技术中由于引入了大量的无用信息导致的局部相关属性识别精度较差的技术问题。
在本发明实施例的一个可选实施方式中,在所述图像帧中提取局部特征信息包括如下步骤:
步骤S1041,在所述图像帧中提取所述待分析区域的区域信息,其中,所述区域信息包括所述待分析区域的高度,所述待分析区域的宽度,所述待分析区域的一个顶点在所述图像帧中的坐标信息;
步骤S1042,结合所述区域信息和所述全局特征信息确定所述局部特征信息。
在本发明实施例中,待分析区域又可以称为ROI(Rect of Interest)区域,该待分析区域的区域信息包括:所述待分析区域的高度h,所述待分析区域的宽度w,所述待分析区域的一个顶点在所述图像帧中的坐标信息(x,y)。其中,该顶点可以为待分析区域的起点坐标,此时,x即为待分析区域在横轴方向上的一个起点,y即为待分析区域在纵轴方向上的一个起点。
在确定出区域信息和全局特征信息之后,就可以结合区域信息和全局特征信息确定待分析区域ROI的局部特征信息。通过结合局部特征信息和全局特征信息来识别局部区域的属性信息的方式,提高了属性识别的识别精度。
可选地,步骤S1042,结合所述区域信息和所述全局特征信息确定所述局部特征信息的具体过程描述如下:
基于区域信息对全局特征信息进行池化处理,以在全局特征信息中提取所述局部特征信息。
在本发明实施例中,在获取到待分析区域ROI的区域信息之后,就可以基于区域信息对全局特征信息进行池化处理,例如,进行ROI池化处理。其中,池化处理的结果为待分析区域ROI的局部特征信息。通过上述方式,在后续进行属性识别的过程中,减少了无关图像区域对属性判断的影响,从根源上减少了信息的干扰。
需要说明的是,在本发明实施例中,上述步骤S1041和步骤S1042均通过预先训练好的目标神经网络来完成,其中,目标神经网络包括:基础卷积神经网络,第一卷积神经网络分支和第二卷积神经网络分支,其中,所述第一卷积神经网络分支和所述第二卷积神经网络分支的网络输入端分别与所述基础卷积神经网络的网络输出端相连接。
如图3所示,基础卷积神经网络CNN(Convolutional Neural Network)1分别与第一卷积神经网络分支CNN/FC(Convolutional Neural Network/Fully Connected Layers,又称为Propose Region分支)和第二卷积神经网络分支中的CNN2相连接,其中,第一卷积神经网络分支CNN/FC用于学习得到待分析区域的区域信息,第二卷积神经网络分支中的第一模型CNN2用于学习得到全局特征信息。第二卷积神经网络分支中的第二模型ROIPooling用于结合区域信息和全局特征信息确定局部特征信息。第二卷积神经网络分支中的第三模型Attributes用于结合局部特征信息和全局特征信息确定局部区域的属性信息。
在本发明实施例的另一个可选的实施方式中,步骤S1041,在所述图像帧中提取所述待分析区域的区域信息的具体过程描述如下:
步骤S1,通过所述基础卷积神经网络对所述图像帧进行浅层学习,学习得到浅层特征信息;
步骤S2,通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息。
在本发明实施例中,可以将视频流中的图像帧输入到基础卷积神经网络中,以使基础卷积神经网络对图像帧进行浅层学习,得到浅层特征信息。其中,基础卷积神经网络可以为包括一层或多层卷积层的神经网络。可选地,可以为GoogleNet,图像分类模型VGG,ResNet等中的任意一种作为基础卷积神经网络。对于一张图像帧,可以先将其输入到基础卷积神经网络中,该卷积神经网络的参数用已经训练好的基础模型初始化。
在通过基础卷积神经网络对图像帧进行特征提取,得到浅层特征信息之后,就可以通过预先训练的第一卷积神经网络分支CNN/FC对浅层特征信息进行第一深度学习,得到待分析区域ROI的区域信息。
需要说明的是,在本发明实施例中,第一卷积神经网络分支为预先自定义的结构,该网络中包括若干个卷积层,若干个池化层,以及若干全连接层等,该第一卷积神经网络分支的输出为待分析区域的区域信息。
在本发明实施例中,待分析区域ROI可以为一个,还可以为多个。当所述待分析区域的数量为多个,通过预先训练的所述第一卷积神经网络分支对所述图像帧进行学习处理,得到所述待分析区域的区域信息的具体过程描述如下:
通过所述第一卷积神经网络分支中包含的每个卷积神经网络对所述图像帧的浅层特征信息分别进行所述第一深度学习,得到每个所述待分析区域的区域信息。
当待分析区域ROI为一个时,第一卷积神经网络分支中包括一个CNN/FC,此时,就可以该CNN/FC对图像帧中的一个待分析区域ROI进行学习,得到该待分析区域ROI的区域信息。当待分析区域ROI为多个时,第一卷积神经网络分支中包括多个CNN/FC1,此时,可以通过每个CNN/FC学习该图像帧中每个待分析区域ROI的区域信息,从而得到每个待分析区域ROI的区域信息。
具体地,如图4所示,第一卷积神经网络分支中包括3个CNN/FC,每个CNN/FC用于提取图像帧中每个待分析区域ROI的区域信息。分别得到区域信息roi1:x,y,w,h,区域信息roi2:x,y,w,h和区域信息roi3:x,y,w,h。
在本发明实施例的另一个可选的实施方式中,步骤S104中,提取所述图像帧的全局特征信息的具体过程描述如下:
通过预先训练的所述第二卷积神经网络分支对所述浅层特征信息进行第二深度学习,得到所述图像帧的全局特征信息。
在本发明实施例中,如图3和图4所示的第一模型CNN2用于学习图像帧的全局特征信息,该第一模型CNN2为自定义的网络结构,该网络结构包括若干卷积层,若干池化层,还可以包括以及若干全连接层。在本发明实施例中,通过第一模型CNN2进行学习之后,得到的全局特征信息为多尺度特征信息,多尺度特征信息包括卷积核在不同尺度下提取得到的全局特征信息。
在本发明实施例中,在通过上述描述的目标神经网络学习得到待分析区域ROI的区域信息和图像帧的全局特征信息之后,就可以结合区域信息和全局特征信息确定局部特征信息。
如果待分析区域ROI的数量为1个,那么将学习得到一个区域信息,即该待分析区域ROI的区域信息,此时,需要结合该区域信息和全局特征信息来确定局部特征信息。例如,可以基于该区域信息对全局特征信息进行ROI池化处理,得到局部特征信息,得到的局部特征信息为待分析区域的局部特征信息。
如果待分析区域ROI的数量为多个,例如为3个,分别为:待分析区域1,待分析区域2和待分析区域3,那么将学习得到3个区域信息,分别为:区域信息1,区域信息2和区域信息3。此时,需要将区域信息1,区域信息2和区域信息3分别与全局特征信息进行结合来确定局部特征信息。例如,可以基于区域信息1对全局特征信息进行ROI池化处理,得到待分析区域1的局部特征信息;可以基于区域信息2对全局特征信息进行ROI池化处理,得到待分析区域2的局部特征信息;还可以基于区域信息3对全局特征信息进行ROI池化处理,得到待分析区域3的局部特征信息。
需要说明的是,在本发明实施例中,在做ROI池化处理这个操作时,将在全局学习到的全局特征信息中提取待分析区域ROI对应的局部特征信息。该局部特征信息同时包含了待分析区域ROI图像块周边图像的信息,其中,该周边图像的信息为图像帧中除了待分析区域之外的区域的特征信息。因为在对图像帧的浅层图像信息进行卷积的操作过程中,充分地利用了待分析区域ROI周边的信息,因此提取的待分析区域ROI对应的局部特征信息中就包含了实际待分析区域ROI图像块周边图像的信息。
在本发明实施例的另一个可选的实施方式中,如图5所示,步骤S106,结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息包括如下步骤:
步骤S1061,将所述局部特征信息与所述全局特征信息进行合并,合并之后得到目标特征信息;
步骤S1062,对所述目标特征信息进行识别,得到所述属性信息。
在本发明实施例中,在获取到局部特征信息和全局特征信息之后,可以通过第二卷积神经网络分支中的第二模型ROI Pooling将局部特征信息和全局特征进行合并得到最终的属性信息。其中,可以先将局部特征信息和全局特征信息合并的结果作为目标特征信息,然后,将该目标特征信息输入到第三模型Attributes中进行识别,得到属性信息。
可选地,将所述局部特征信息与所述全局特征信息进行合并得到目标特征信息包括:
对所述局部特征信息的张量与所述全局特征信息的张量进行叠加处理,并将叠加结果作为所述目标特征信息;或者,
对所述局部特征信息的张量与所述全局特征信息的张量进行加权合并,并将合并结果作为所述目标特征信息。
需要说明的是,在本发明实施例中,局部特征信息和全局特征信息均为多维张量,例如,三维张量。
具体地,可以将局部特征信息的张量与全局特征信息的张量进行合并,例如,局部特征信息的张量为2000个通道,全局特征信息的张量为1000通道,合并后的张量为3000通道。另外,还可以将局部特征信息的张量与全局特征信息的张量进行加权合并,例如,局部特征信息的张量为2000个通道,全局特征信息的张量为1000通道,将全局特征信息的张量压缩为500通道再去局部特征信息的张量合并,以形成2500通道的张量,局部特征信息和全局特征信息的融合有助于提升属性的性能。
在本发明实施例中,需要说明的是,在执行上述步骤S102至步骤S106所描述的方案之前,还需要对目标神经网络进行训练。在训练之前,可以先采集各种训练样本,然后,基于训练样本对目标神经网络进行训练。除此之外,还对目标神经网络进行训练的过程中,还可以通过损失函数,计算目标差值,其中,所述目标差值包括以下至少之一:所述目标神经网络预测出的待分析区域的区域信息与其真实值之间的差值,所述目标神经网络预测出的属性信息与其真实值之间的差值;然后,基于目标差值对目标神经网络中的训练参数进行调整,并对调整之后的目标神经网络进行再次训练。
在本发明实施例中,可以分别在第一卷积神经网络分支和第二卷积神经网络分支中分别加入一个损失函数。在第一卷积神经网络中加入的损失函数用于计算目标神经网络预测出的区域信息的检测值和区域信息的真实值之间的差值,该差值即为如图3所示的差值1,该差值还可以为如图4所示的差值11,差值12和差值13;在第二卷积神经网络中加入的损失函数用于计算目标神经网络预测出的属性信息的检测值与属性信息的真实值之间的差值,该差值即为如图3和图4所示的差值2。通过上述差值可以对目标神经网络进行训练,以优化目标神经网络的参数,从而提高目标神经网络的检测性能。
需要说明的是,如果没有区域信息的真实值,那么可以通过属性信息的检测值与属性信息的真实值之间的差值来对目标神经网络进行训练。
综上,在本发明实施例中,采用了Propose Region的方法提取到待分析区域的局部特征信息,而后和全局特征信息进行融合,得出对应的属性信息,本发明所提供的方法显著提升了局部相关属性的精度。从而减少了无关图像区域对行人属性判别的影响,从根源上减少了信息干扰。同时,在本发明中,通过计算得到了局部属性相关的位置,融合了局部区域检测和行人属性判别,增加精度的同时,优化了网络框架。
实施例三:
本发明实施例还提供了一种对象属性的识别装置,该对象属性的识别装置主要用于执行本发明实施例上述内容所提供的对象属性的识别方法,以下对本发明实施例提供的对象属性的识别装置做具体介绍。
图6是根据本发明实施例的一种对象属性的识别装置的示意图,如图6所示,该对象属性的识别装置主要包括:获取单元10,提取单元20和确定单元30,其中:
获取单元10,用于获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;
提取单元20,用于通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;
确定单元30,用于结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
在本发明实施例中,首先获取待处理的图像帧;然后,通过目标神经网络在图像帧中提取图像帧的全局特征信息,以及提取图像帧中待分析区域的局部特征信息;最后,结合局部特征信息和全局特征信息,确定目标对象中局部区域的属性信息。在本发明实施例中,通过结合局部特征信息和全局特征信息来识别局部区域的属性信息的方式,提高了属性识别的识别精度,从而缓解了现有的属性识别技术中由于引入了大量的无用信息导致的局部相关属性识别精度较差的技术问题。
可选地,提取单元20包括:提取模块,用于在所述图像帧中提取所述待分析区域的区域信息,其中,所述区域信息包括所述待分析区域的高度,所述待分析区域的宽度,所述待分析区域的一个顶点在所述图像帧中的坐标信息;确定模块,用于结合所述区域信息和所述全局特征信息确定所述局部特征信息。
可选地,确定模块30用于:基于所述区域信息对所述全局特征信息进行池化处理,以在所述全局特征信息中提取所述局部特征信息。
可选地,所述目标神经网络包括:基础卷积神经网络,第一卷积神经网络分支和第二卷积神经网络分支,其中,所述第一卷积神经网络分支和所述第二卷积神经网络分支的网络输入端分别与所述基础卷积神经网络的网络输出端相连接。
可选地,提取模块用于:通过所述基础卷积神经网络对所述图像帧进行浅层学习,学习得到浅层特征信息;通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息。
可选地,所述待分析区域的数量为多个,提取模块用于:通过所述第一卷积神经网络分支中包含的每个卷积神经网络对所述图像帧的浅层特征信息分别进行所述第一深度学习,得到每个所述待分析区域的区域信息。
可选地,提取模块还用于:通过预先训练的所述第二卷积神经网络分支对所述浅层特征信息进行第二深度学习,得到所述图像帧的全局特征信息。
可选地,确定单元30包括:合并模块,用于将所述局部特征信息与所述全局特征信息进行合并,合并之后得到目标特征信息;识别模块,用于通过所述目标神经网络中的识别模型对所述目标特征信息进行识别,得到所述属性信息。
可选地,合并模块用于:对所述局部特征信息的张量与所述全局特征信息的张量进行叠加处理,并将叠加结果作为所述目标特征信息;或者,对所述局部特征信息的张量与所述全局特征信息的张量进行加权合并,并将合并结果作为所述目标特征信息。
可选地,该装置还用于:通过损失函数,计算目标差值,其中,所述目标差值包括以下至少之一:所述目标神经网络预测出的所述待分析区域的区域信息与其真实值之间的差值,所述目标神经网络预测出的所述属性信息与其真实值之间的差值;基于所述目标差值对所述目标神经网络中的训练参数进行调整,并对调整之后的所述目标神经网络进行再次训练。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
在本发明的另一个实施例中,还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行如前述方法实施例所述的方法。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (13)
1.一种对象属性的识别方法,其特征在于,包括:
获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;
通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;
结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
2.根据权利要求1所述的方法,其特征在于,在所述图像帧中提取局部特征信息包括:
在所述图像帧中提取所述待分析区域的区域信息,其中,所述区域信息包括所述待分析区域的高度,所述待分析区域的宽度,所述待分析区域的一个顶点在所述图像帧中的坐标信息;
结合所述区域信息和所述全局特征信息确定所述局部特征信息。
3.根据权利要求2所述的方法,其特征在于,结合所述区域信息和所述全局特征信息确定所述局部特征信息包括:
基于所述区域信息对所述全局特征信息进行池化处理,以在所述全局特征信息中提取所述局部特征信息。
4.根据权利要求2所述的方法,其特征在于,所述目标神经网络包括:基础卷积神经网络,第一卷积神经网络分支和第二卷积神经网络分支,其中,所述第一卷积神经网络分支和所述第二卷积神经网络分支的网络输入端分别与所述基础卷积神经网络的网络输出端相连接。
5.根据权利要求4所述的方法,其特征在于,在所述图像帧中提取所述待分析区域的区域信息包括:
通过所述基础卷积神经网络对所述图像帧进行浅层学习,学习得到浅层特征信息;
通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息。
6.根据权利要求5所述的方法,其特征在于,所述待分析区域的数量为多个,通过预先训练的所述第一卷积神经网络分支对所述浅层特征信息进行第一深度学习,得到所述待分析区域的区域信息包括:
通过所述第一卷积神经网络分支中包含的每个卷积神经网络对所述图像帧的浅层特征信息分别进行所述第一深度学习,得到每个所述待分析区域的区域信息。
7.根据权利要求5所述的方法,其特征在于,提取所述图像帧的全局特征信息包括:
通过预先训练的所述第二卷积神经网络分支对所述浅层特征信息进行第二深度学习,得到所述图像帧的全局特征信息。
8.根据权利要求1至7中任一项所述的方法,其特征在于,结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息包括:
将所述局部特征信息与所述全局特征信息进行合并,合并之后得到目标特征信息;
对所述目标特征信息进行识别,得到所述属性信息。
9.根据权利要求8所述的方法,其特征在于,将所述局部特征信息与所述全局特征信息进行合并,合并之后得到所述目标特征信息包括:
对所述局部特征信息的张量与所述全局特征信息的张量进行叠加处理,并将叠加结果作为所述目标特征信息;或者
对所述局部特征信息的张量与所述全局特征信息的张量进行加权合并,并将合并结果作为所述目标特征信息。
10.根据权利要求1至7中任一项所述的方法,其特征在于,所述方法还包括:
通过损失函数,计算目标差值,其中,所述目标差值包括以下至少之一:所述目标神经网络预测出的所述待分析区域的区域信息与其真实值之间的差值,所述目标神经网络预测出的所述属性信息与其真实值之间的差值;
基于所述目标差值对所述目标神经网络中的训练参数进行调整,并对调整之后的所述目标神经网络进行再次训练。
11.一种对象属性的识别装置,其特征在于,包括:
获取单元,用于获取待处理的图像帧,其中,所述图像帧中包括待分析的目标对象;
提取单元,用于通过目标神经网络提取所述图像帧的全局特征信息,以及在所述图像帧中提取局部特征信息,所述局部特征信息为所述图像帧中待分析区域的特征信息,所述待分析区域为包括所述目标对象的局部区域的图像区域;
确定单元,用于结合所述局部特征信息和所述全局特征信息,确定所述目标对象中局部区域的属性信息。
12.一种对象属性的识别系统,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至9中任一项所述的方法。
13.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行上述权利要求1-9中任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711001804.3A CN107784282B (zh) | 2017-10-24 | 2017-10-24 | 对象属性的识别方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711001804.3A CN107784282B (zh) | 2017-10-24 | 2017-10-24 | 对象属性的识别方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107784282A true CN107784282A (zh) | 2018-03-09 |
CN107784282B CN107784282B (zh) | 2020-04-03 |
Family
ID=61435240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711001804.3A Active CN107784282B (zh) | 2017-10-24 | 2017-10-24 | 对象属性的识别方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107784282B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108537820A (zh) * | 2018-04-18 | 2018-09-14 | 清华大学 | 动态预测方法、系统及所适用的设备 |
CN108921850A (zh) * | 2018-04-16 | 2018-11-30 | 博云视觉(北京)科技有限公司 | 一种基于图像分割技术的图像局部特征的提取方法 |
CN109117888A (zh) * | 2018-08-20 | 2019-01-01 | 北京旷视科技有限公司 | 目标对象识别方法及其神经网络生成方法以及装置 |
CN109165729A (zh) * | 2018-08-22 | 2019-01-08 | 中科物栖(北京)科技有限责任公司 | 神经网络的调度方法及系统 |
CN109255369A (zh) * | 2018-08-09 | 2019-01-22 | 网易(杭州)网络有限公司 | 利用神经网络识别图片的方法及装置、介质和计算设备 |
CN109740415A (zh) * | 2018-11-19 | 2019-05-10 | 深圳市华尊科技股份有限公司 | 车辆属性识别方法及相关产品 |
CN109858464A (zh) * | 2019-02-26 | 2019-06-07 | 北京旷视科技有限公司 | 底库数据处理方法、人脸识别方法、装置和电子设备 |
CN109886998A (zh) * | 2019-01-23 | 2019-06-14 | 平安科技(深圳)有限公司 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
CN109902584A (zh) * | 2019-01-28 | 2019-06-18 | 深圳大学 | 一种口罩缺陷的识别方法、装置、设备及存储介质 |
CN110025959A (zh) * | 2019-01-25 | 2019-07-19 | 清华大学 | 用于控制智能体的方法和设备 |
CN110046577A (zh) * | 2019-04-17 | 2019-07-23 | 北京迈格威科技有限公司 | 行人属性预测方法、装置、计算机设备和存储介质 |
CN110059577A (zh) * | 2019-03-26 | 2019-07-26 | 北京迈格威科技有限公司 | 行人属性信息提取方法及装置 |
CN110232407A (zh) * | 2019-05-29 | 2019-09-13 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备和计算机存储介质 |
CN110287782A (zh) * | 2019-05-17 | 2019-09-27 | 北京迈格威科技有限公司 | 行人分割模型训练方法及装置 |
CN110991380A (zh) * | 2019-12-11 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
CN111079473A (zh) * | 2018-10-19 | 2020-04-28 | 北京奇虎科技有限公司 | 性别识别方法、装置、电子设备及计算机可读存储介质 |
WO2020125216A1 (zh) * | 2018-12-18 | 2020-06-25 | 深圳云天励飞技术有限公司 | 一种行人重识别方法、装置、电子设备及计算机可读存储介质 |
CN111553420A (zh) * | 2020-04-28 | 2020-08-18 | 北京邮电大学 | 一种基于神经网络的x线影像识别方法及装置 |
CN109447095B (zh) * | 2018-10-30 | 2020-09-29 | 上海七牛信息技术有限公司 | 视觉属性识别方法、装置及存储介质 |
CN111753590A (zh) * | 2019-03-28 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法、装置及电子设备 |
CN112308119A (zh) * | 2020-10-15 | 2021-02-02 | 中国医学科学院北京协和医院 | 一种肾小球肾炎的免疫荧光分类方法及装置 |
WO2021127841A1 (zh) * | 2019-12-23 | 2021-07-01 | 深圳市欢太科技有限公司 | 属性识别方法、装置、存储介质及电子设备 |
CN113496172A (zh) * | 2020-04-03 | 2021-10-12 | 深圳爱根斯通科技有限公司 | 指纹异物检测的方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400925B2 (en) * | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106529511A (zh) * | 2016-12-13 | 2017-03-22 | 北京旷视科技有限公司 | 图像结构化方法及装置 |
CN106651973A (zh) * | 2016-09-28 | 2017-05-10 | 北京旷视科技有限公司 | 图像结构化方法及装置 |
CN106682628A (zh) * | 2016-12-30 | 2017-05-17 | 佳都新太科技股份有限公司 | 一种基于多层深度特征信息的人脸属性分类方法 |
CN106845352A (zh) * | 2016-12-23 | 2017-06-13 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN107145857A (zh) * | 2017-04-29 | 2017-09-08 | 深圳市深网视界科技有限公司 | 人脸属性识别方法、装置和模型建立方法 |
CN107169455A (zh) * | 2017-05-16 | 2017-09-15 | 中山大学 | 基于深度局部特征的人脸属性识别方法 |
-
2017
- 2017-10-24 CN CN201711001804.3A patent/CN107784282B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400925B2 (en) * | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
CN106126579A (zh) * | 2016-06-17 | 2016-11-16 | 北京市商汤科技开发有限公司 | 物体识别方法和装置、数据处理装置和终端设备 |
CN106651973A (zh) * | 2016-09-28 | 2017-05-10 | 北京旷视科技有限公司 | 图像结构化方法及装置 |
CN106529511A (zh) * | 2016-12-13 | 2017-03-22 | 北京旷视科技有限公司 | 图像结构化方法及装置 |
CN106845352A (zh) * | 2016-12-23 | 2017-06-13 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN106682628A (zh) * | 2016-12-30 | 2017-05-17 | 佳都新太科技股份有限公司 | 一种基于多层深度特征信息的人脸属性分类方法 |
CN107145857A (zh) * | 2017-04-29 | 2017-09-08 | 深圳市深网视界科技有限公司 | 人脸属性识别方法、装置和模型建立方法 |
CN107169455A (zh) * | 2017-05-16 | 2017-09-15 | 中山大学 | 基于深度局部特征的人脸属性识别方法 |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921850B (zh) * | 2018-04-16 | 2022-05-17 | 博云视觉(北京)科技有限公司 | 一种基于图像分割技术的图像局部特征的提取方法 |
CN108921850A (zh) * | 2018-04-16 | 2018-11-30 | 博云视觉(北京)科技有限公司 | 一种基于图像分割技术的图像局部特征的提取方法 |
CN108537820A (zh) * | 2018-04-18 | 2018-09-14 | 清华大学 | 动态预测方法、系统及所适用的设备 |
CN109255369B (zh) * | 2018-08-09 | 2020-10-16 | 杭州易现先进科技有限公司 | 利用神经网络识别图片的方法及装置、介质和计算设备 |
CN109255369A (zh) * | 2018-08-09 | 2019-01-22 | 网易(杭州)网络有限公司 | 利用神经网络识别图片的方法及装置、介质和计算设备 |
CN109117888A (zh) * | 2018-08-20 | 2019-01-01 | 北京旷视科技有限公司 | 目标对象识别方法及其神经网络生成方法以及装置 |
CN109165729A (zh) * | 2018-08-22 | 2019-01-08 | 中科物栖(北京)科技有限责任公司 | 神经网络的调度方法及系统 |
CN111079473A (zh) * | 2018-10-19 | 2020-04-28 | 北京奇虎科技有限公司 | 性别识别方法、装置、电子设备及计算机可读存储介质 |
CN109447095B (zh) * | 2018-10-30 | 2020-09-29 | 上海七牛信息技术有限公司 | 视觉属性识别方法、装置及存储介质 |
CN109740415A (zh) * | 2018-11-19 | 2019-05-10 | 深圳市华尊科技股份有限公司 | 车辆属性识别方法及相关产品 |
US12020473B2 (en) | 2018-12-18 | 2024-06-25 | Shenzhen Intellifusion Technologies Co., Ltd. | Pedestrian re-identification method, device, electronic device and computer-readable storage medium |
WO2020125216A1 (zh) * | 2018-12-18 | 2020-06-25 | 深圳云天励飞技术有限公司 | 一种行人重识别方法、装置、电子设备及计算机可读存储介质 |
CN109886998A (zh) * | 2019-01-23 | 2019-06-14 | 平安科技(深圳)有限公司 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
CN110025959A (zh) * | 2019-01-25 | 2019-07-19 | 清华大学 | 用于控制智能体的方法和设备 |
CN109902584A (zh) * | 2019-01-28 | 2019-06-18 | 深圳大学 | 一种口罩缺陷的识别方法、装置、设备及存储介质 |
CN109902584B (zh) * | 2019-01-28 | 2022-02-22 | 深圳大学 | 一种口罩缺陷的识别方法、装置、设备及存储介质 |
CN109858464A (zh) * | 2019-02-26 | 2019-06-07 | 北京旷视科技有限公司 | 底库数据处理方法、人脸识别方法、装置和电子设备 |
CN110059577A (zh) * | 2019-03-26 | 2019-07-26 | 北京迈格威科技有限公司 | 行人属性信息提取方法及装置 |
CN111753590A (zh) * | 2019-03-28 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法、装置及电子设备 |
CN111753590B (zh) * | 2019-03-28 | 2023-10-17 | 杭州海康威视数字技术股份有限公司 | 一种行为识别方法、装置及电子设备 |
CN110046577A (zh) * | 2019-04-17 | 2019-07-23 | 北京迈格威科技有限公司 | 行人属性预测方法、装置、计算机设备和存储介质 |
CN110046577B (zh) * | 2019-04-17 | 2022-07-26 | 北京迈格威科技有限公司 | 行人属性预测方法、装置、计算机设备和存储介质 |
CN110287782A (zh) * | 2019-05-17 | 2019-09-27 | 北京迈格威科技有限公司 | 行人分割模型训练方法及装置 |
CN110232407B (zh) * | 2019-05-29 | 2022-03-15 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备和计算机存储介质 |
CN110232407A (zh) * | 2019-05-29 | 2019-09-13 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备和计算机存储介质 |
US11710335B2 (en) | 2019-12-11 | 2023-07-25 | Tencent Technology (Shenzhen) Company Limited | Human body attribute recognition method and apparatus, electronic device, and storage medium |
CN110991380A (zh) * | 2019-12-11 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
WO2021114814A1 (zh) * | 2019-12-11 | 2021-06-17 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
CN110991380B (zh) * | 2019-12-11 | 2024-08-02 | 腾讯科技(深圳)有限公司 | 人体属性识别方法、装置、电子设备以及存储介质 |
CN114424258A (zh) * | 2019-12-23 | 2022-04-29 | 深圳市欢太科技有限公司 | 属性识别方法、装置、存储介质及电子设备 |
WO2021127841A1 (zh) * | 2019-12-23 | 2021-07-01 | 深圳市欢太科技有限公司 | 属性识别方法、装置、存储介质及电子设备 |
CN114424258B (zh) * | 2019-12-23 | 2024-10-01 | 深圳市欢太科技有限公司 | 属性识别方法、装置、存储介质及电子设备 |
CN113496172A (zh) * | 2020-04-03 | 2021-10-12 | 深圳爱根斯通科技有限公司 | 指纹异物检测的方法、装置、电子设备及存储介质 |
CN111553420A (zh) * | 2020-04-28 | 2020-08-18 | 北京邮电大学 | 一种基于神经网络的x线影像识别方法及装置 |
CN111553420B (zh) * | 2020-04-28 | 2023-08-15 | 北京邮电大学 | 一种基于神经网络的x线影像识别方法及装置 |
CN112308119B (zh) * | 2020-10-15 | 2021-11-05 | 中国医学科学院北京协和医院 | 一种肾小球肾炎的免疫荧光分类方法及装置 |
CN112308119A (zh) * | 2020-10-15 | 2021-02-02 | 中国医学科学院北京协和医院 | 一种肾小球肾炎的免疫荧光分类方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107784282B (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107784282B (zh) | 对象属性的识别方法、装置及系统 | |
JP6799302B2 (ja) | 全身測定値抽出のためのシステムおよび方法 | |
CN109961009B (zh) | 基于深度学习的行人检测方法、系统、装置及存储介质 | |
US10534957B2 (en) | Eyeball movement analysis method and device, and storage medium | |
US10572072B2 (en) | Depth-based touch detection | |
JP6664163B2 (ja) | 画像識別方法、画像識別装置及びプログラム | |
US20130251246A1 (en) | Method and a device for training a pose classifier and an object classifier, a method and a device for object detection | |
WO2021051547A1 (zh) | 暴力行为检测方法及系统 | |
CN109299658B (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN108875517B (zh) | 视频处理方法、装置和系统及存储介质 | |
CN106648078B (zh) | 应用于智能机器人的多模态交互方法及系统 | |
KR20130095727A (ko) | 비디오 내 객체들의 시맨틱 파싱 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、系统及存储介质 | |
CN113516113A (zh) | 一种图像内容识别方法、装置、设备及存储介质 | |
WO2019033567A1 (zh) | 眼球动作捕捉方法、装置及存储介质 | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
CN113392741A (zh) | 视频片段提取方法、装置、电子设备及存储介质 | |
JP2022542199A (ja) | キーポイントの検出方法、装置、電子機器および記憶媒体 | |
CN111723762B (zh) | 人脸属性识别方法、装置、电子设备及存储介质 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN106406507B (zh) | 图像处理方法以及电子设备 | |
CN108875501B (zh) | 人体属性识别方法、装置、系统及存储介质 | |
US20160140395A1 (en) | Adaptive sampling for efficient analysis of ego-centric videos | |
CN112101185A (zh) | 一种训练皱纹检测模型的方法、电子设备及存储介质 | |
CN118038303A (zh) | 身份识别图像处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |