CN111178128B - 图像识别方法、装置、计算机设备和存储介质 - Google Patents
图像识别方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111178128B CN111178128B CN201911158025.3A CN201911158025A CN111178128B CN 111178128 B CN111178128 B CN 111178128B CN 201911158025 A CN201911158025 A CN 201911158025A CN 111178128 B CN111178128 B CN 111178128B
- Authority
- CN
- China
- Prior art keywords
- identified
- attribute
- target
- image
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000013145 classification model Methods 0.000 claims description 56
- 230000006870 function Effects 0.000 claims description 56
- 238000004590 computer program Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种图像识别方法、装置、计算机设备和存储介质。该方法通过对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,再对待识别图像进行分类,得到分类结果;然后根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。在上述方法中,由于分类结果指示的是待识别图像中包含的不完整的待识别目标的真实部分,由该分类结果指导输出的属性识别结果是对待识别目标的真实部分的属性信息,属于待识别图像中可见部分的属性信息,避免了传统的属性识别方法对于不完整的待识别目标的不可见部分的属性预测,从而提高了图像识别方法对于属性识别的准确性。
Description
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种图像识别方法、装置、计算机设备和存储介质。
背景技术
行人属性识别是各个行人图像的识别领域的基础核心技术,可以应用于诸多领域,尤其在安防领域,行人属性识别起到了至关重要的作用。例如,在安防领域中十分重要的行人重识别任务,通过行人的属性识别则可以更加鲁棒的依据目标人的衣服颜色、衣服款式、性别、是否背包等属性来判断目标人身份信息。
目前,常用的行人属性识别方法是基于“图片中的行人图像总是完整的”这一假设,对待识别的行人图像进行属性信息的识别,得到与该行人相关的多种属性信息。而对于不完整的行人图像,即采集到的图像数据中行人的一部分是不可见的或缺失的。常用的行人属性识别方法通常采用预设的预测模型对上述不完整的行人图像中不可见的部分的属性进行预测,得到该部分的属性信息。
但是,上述行人属性识别方法存在识别准确性低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高属性识别准确性的图像识别方法、装置、计算机设备和存储介质。
第一方面,一种图像识别方法,所述方法包括:
对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分;
对待识别图像进行分类,得到分类结果;
根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
第二方面,一种图像识别装置,所述装置包括:
识别模块,用于对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分;
分类模块,用于对待识别图像进行分类,得到分类结果;分类结果用于指示待识别图像中包含的待识别目标的部分类型;
确定模块,用于根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
第三方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面任一实施例所述的图像识别方法。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面任一实施例所述的图像识别方法。
本申请提供的一种图像识别方法、装置、计算机设备和存储介质,通过对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,再对待识别图像进行分类,得到分类结果;然后根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。在上述方法中,由于分类结果指示的是待识别图像中包含的待识别目标的真实部分,即待识别图像中待识别目标的可见部分的图像,使得之后根据该分类结果指示的部分,控制输出与该分类结果指示的部分对应的属性信息,是属于待识别图像中待识别目标的可见部分的属性信息,避免了传统的目标属性识别方法对于待识别图像中不可见部分的属性预测,以及避免了目标属性识别方法对不可靠数据预测的输出而导致得到错误的属性信息,从而提高了本申请提出的图像识别方法对于属性识别的准确性。另外,本申请提出的图像识别方法还可以减少真实应用场景下由于常规目标属性识别方法输出的错误属性信息对后续其它诸如目标重识别任务的错误引导,提高了本申请所述的图像识别方法的鲁棒性。
附图说明
图1为一个实施例提供的一种计算机设备的内部结构示意图;
图2为一个实施例提供的一种图像识别方法的流程图;
图3为一个实施例提供的一种属性识别模型的结构示意图;
图4为一个实施例提供的一种属性识别模型的结构示意图;
图5为一个实施例提供的一种图像识别方法的流程图;
图6为图2实施例S102的一种实现方式的流程图;
图7为一个实施例提供的一种图像识别方法的流程图;
图8为一个实施例提供的一种联合训练方法的流程图;
图9为一个实施例提供的另一种联合训练方法的流程图;
图10为一个实施例提供的一种属性识别网络的结构示意图;
图11为一个实施例提供的一种训练网络的结构示意图;
图12为一个实施例提供的一种图像识别装置的结构示意图;
图13为一个实施例提供的一种训练装置的结构示意图;
图14为一个实施例提供的一种训练装置的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请提供的图像识别方法,可以应用于如图1所示的计算机设备中。该计算机设备可以是终端,其内部结构图可以如图1所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
下面将通过实施例并结合附图具体地对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为一个实施例提供的一种图像识别方法的流程图,该方法的执行主体为图1中的计算机设备,该方法涉及的是计算机设备对包含待识别目标的图像进行属性识别的具体过程。如图2所示,该方法具体包括以下步骤:
S101、对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分。
其中,待识别图像可以包含任何类型的目标物,例如,待识别图像可以包含行人、动物、风景等。待识别目标为待识别图像中包含的目标物的至少一个部分,例如,待识别图像中包含的目标物为行人,则待识别目标可以为该行人身体的一部分。上述待识别目标没有包含在待识别图像中的部分在实际应用场景中可能被其它物体遮挡,或这部分图像缺失,那么对应的这部分缺失的部分或被遮挡的部分对应的属性即是不可见的。例如,由于目标物和拍摄设备较近导致目标物的部分溢出拍摄区域未被拍摄到,那么溢出的部分部分(例如,行人的头部)对应的属性(例如,头部的头发长短,是否佩戴眼镜)不可见。待识别图像中可以包含不完整的目标物,可选的,也可以同时包含不完整的目标物和完整的目标物。待识别目标的属性信息用于指示与该待识别目标相关的信息,例如,若待识别目标为行人的头部,则该待识别目标的属性信息可以是头发长短、头发颜色、是否佩戴眼镜等。
在实际应用中,计算机设备可以通过连接拍摄设备对目标进行拍摄得到待识别图像。可选的,计算机设备也可以直接从数据库中或从互联网上下载得到包含不完整的目标物的待识别图像,对此本实施例不做限制。当计算机设备获取到待识别图像时,可以进一步的对该待识别图像进行属性识别,具体可以对该待识别图像中待识别目标的可见部分进行属性识别,以及待识别目标的不可见部分进行属性识别,最终得到待识别图像中待识别目标各部分部分的属性信息。需要说明的是,上述对待识别图像进行属性识别的方法,具体可以采用现有的任一种类型的识别模型或识别网络实现,对此本实施例不做限定,只要能够得到待识别图像中待识别目标的各部分的属性信息即可。
S102、对待识别图像进行分类,得到分类结果。
其中,分类结果用于指示待识别图像中包含的待识别目标的部分类型,例如,若待识别图像中包含行人的上半身,则分类结果即为上半身类型的行人;若待识别图像中包含行人的下半身,则分类结果即为下半身类型的行人;若待识别图像中包含行人的全身,则分类结果即为全身类型的行人;若待识别图像中包含行人的头部,则分类结果即为头部类型的行人;若待识别图像中包含行人的左肢,则分类结果即为左肢类型的行人。分类结果包含的目标物的部分类型根据实际应用需求确定,本实施例对此不做限定。
本实施例中,当计算机设备获取到待识别图像时,还可以进一步的对该待识别图像中的待识别目标进行分类,得到分类结果,以便之后计算机设备根据该分类结果辅助分析待识别图像中待识别目标的可见部分部分的属性信息。
S103、根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
本实施例中,当计算机设备根据S101的步骤获取到待识别图像中待识别目标的各部分的属性信息,以及根据S102的步骤获取到该待识别图像中待识别目标的的分类结果时,可以进一步的根据分类结果指示的部分,控制从待识别目标的的各部分的属性信息中,输出与分类结果指示的部分对应的属性信息。例如,若分类结果指示的待识别目标的部分为行人的头部,则相应的,计算机设备控制输出行人的头部对应的属性信息。
本实施例提供的一种图像属性识别方法,通过对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,再对待识别图像进行分类,得到分类结果;然后根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。在上述方法中,由于分类结果指示的是待识别图像中包含的待识别目标的真实部分,即待识别图像中待识别目标的可见部分的图像,使得之后根据该分类结果指示的部分,控制输出与该分类结果指示的部分对应的属性信息,是属于待识别图像中待识别目标的可见部分的属性信息,避免了传统的目标属性识别方法对于待识别图像中不可见部分的属性预测,以及避免了目标属性识别方法对不可靠数据预测的输出而导致得到错误的属性信息,从而提高了本申请提出的图像识别方法对于属性识别的准确性。另外,本申请提出的图像识别方法还可以减少真实应用场景下由于常规目标属性识别方法输出的错误属性信息对后续其它诸如目标重识别任务的错误引导,提高了本申请所述的图像识别方法的鲁棒性。
在一个实施例中,本申请提供了上述S101的具体实现方式,即,上述S101“对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息”具体包括:采用预设的属性识别模型,对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息。
其中,属性识别模型为一种能够识别输入图像中目标物各部分的属性的识别模型,为预先训练好的网络模型,其可以选用各种类型的网络结构,例如,采用多个不同分支的单层全连接层组成属性识别模型,对此本实施例不做限定。本实施例中,当计算机设备获取到待识别图像时,可以进一步的采训练好的属性识别模型对待识别图像中待识别目标各部分的属性进行识别,具体包括可见部分的属性和不可见部分的属性,最终得到待识别图像中待识别目标的各部分的属性信息。
在一个实施例中,本申请提供了上述属性识别模型的具体结构形式,如图3所示,该属性识别模型包括:至少两个属性识别子模型,不同的属性识别子模型分别用于对待识别目标的不同部分进行属性识别。
在一种应用中,上述属性识别模型可以为一种多分支的属性识别模型,且每个分支的属性识别子模型实现对输入图像中待识别目标的某一部分的属性进行识别,例如,属性识别模型包括两个分支的属性识别子模型,其中一个分支的属性识别子模型用于对待识别目标的上半部分的属性进行识别,另一个分支的属性识别子模型用于对待识别目标的下半部分的属性进行识别。
在一个实施例中,本申请还提供了上述属性识别模型的另一个种具体结构形式,如图4所示,该属性识别模型中的每个属性识别子模型包括:至少一个属性识别单元;不同的属性识别单元分别用于识别待识别目标的同一部分的不同属性。
在实际应用中,由于待识别目标的每个部分均可以具体对应多种类型的属性信息,例如,若待识别目标行人时,行人的上半身身体部位可以对应衣服颜色、衣服款式等属性信息。因此,本实施例中的每个分支的属性识别子模型又可以包括用于对待识别目标的同一部分多种属性信息进行识别的多个属性识别单元,使上述属性识别模型最终可以识别出该待识别目标的各部分的各种类型的属性信息。需要说明的是,属性识别子模型的数量可以预先根据实际应用需求或识别精度确定,属性识别单元的数量也可以预先根据实际识别属性的种类需求确定,对此本实施例不做限定。
基于上述实施例,本申请提供了一种具体的应用实施例,在该实施例中,如图5所示,属性识别模型包括:上半部分的属性识别子模型和下半部分的属性识别子模型;上半部分的属性识别子模型用于识别待识别图像中待识别目标的上半部分的属性信息,下半部分的属性识别子模型用于识别待识别图像中待识别目标的下半部分的属性信息。上半部分的属性识别子模型包括至少一个上半部分的属性识别单元,每个上半部分的属性识别单元用于识别待识别目标的上半部分的的不同属性信息;下半部分的属性识别子模型包括至少一个下半部分的属性识别单元,每个下半部分的属性识别单元用于识别待识别目标的下半部分的的不同属性信息。
本实施例涉及一种应用场景,即,待识别图像中包含的不完整的待识别目标为待识别目标的上半部分或待识别目标的下半部分,在该应用下,选用的属性识别模型可以包含两个属性识别子模型,即上半部分的属性识别子模型和下半部分的属性识别子模型。上半部分的属性识别子模型仅对待识别目标的上半部分的属性进行识别,且输出该待识别目标的上半部分的属性信息,下半部分的属性识别子模型仅对待识别目标的下半部分的属性进行识别,且输出该待识别目标的下半部分的属性信息。如若需要获取待识别目标的同一部分的多种属性信息时,上半部分的属性识别子模型还可以具体包括用于识别多种属性的上半部分的属性识别单元,以及下半部分的属性识别子模型还可以具体包括用于识别多种属性的下半部分的属性识别单元。
基于上述图5实施例所述的应用场景,当对待识别图像进行分类,得到分类结果时,对应的分类结果包括上半部分类型的目标、下半部分类型的目标、全部类型的目标中的任一种。
本实施例给出了分类结果与属性识别模型的对应关系,即,结合图5实施所述的属性识别模型,以及图2实施例所述的图像识别方法的应用,当属性识别模型包括上半部分的属性识别子模型和下半部分的属性识别子模型时,对应的分类结果包括上半部分类型的目标、下半部分类型的目标、全部类型的目标中的任一种。特别说明的是,属性识别模型与分类结果是相互影响的,是存在对应关系的。例如,属性识别模型用于识别行人的头部、脖子、胸部、脑、腿、脚的属性信息,对应的分类结果则包括头部类型的行人、脖子类型的行人、胸部类型的行人、脑类型的行人、腿类型的行人、脚类型的行人、以及全身类型的行人。
图6为图2实施例S102的一种实现方式的流程图,如图6所示,上述S102“对待识别图像进行分类,得到分类结果”,包括:
S201、采用预设的分类模型,获取待识别图像中的待识别目标与目标物的对应关系。
其中,分类模型为一种能够对输入图像中目标物的可见部分的类型进行分析的分类模型,为预先训练好的网络模型,其可以选用各种类型的网络结构,例如,神经网络模型或其它类型的分类器等,对此本实施例不做限定。待识别目标与目标物的对应关系具体表示待识别目标与目标物上的目标部分的对应关系,待识别目标可以与目标物上的任一目标部分对应,例如,若目标物为行人,则待识别目标可以与该行人的上半身对应,也可以与该行人的下半身对应,还可以与该行人的全身对应。
本实施例中,当计算机设备获取到待识别图像时,可以进一步的采用训练好的分类模型获取待识别图像中的待识别目标与目标物的对应关系,以便之后根据该对应关系确定分类结果。
S202、当待识别目标与目标物的目标部分对应时,将目标部分的类型确定为分类结果。
目标部分的类型表示目标部分与目标物的所属关系,例如,若目标部分为目标物的上半部分时,目标部分的类型为上半部分类型;若目标部分为目标物的下半部分时,目标部分的类型为下半部分类型。本实施例中,当计算机设备获取到待识别图像中的待识别目标与目标物的对应关系,且该对应关系为待识别目标与目标物的目标部分对应时,可以直接将该目标部分的类型确定为分类结果。
基于上述实施例所述的应用场景,根据分类结果控制输出属性信息的方法,即上述S104“根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果”,具体包括:根据分类结果指示的目标部分的类型,将待识别目标的各部分的属性信息中目标部分对应的属性信息确定为待识别目标对应的属性识别结果。
本实施例中,当计算机设备基于图6实施例的方法获取到分类结果时,即可根据分类结果指示的目标部分的类型,从待识别目标的各部分的属性信息中提取与目标部分类型对应的属性信息,即目标部分对应的属性信息,并将该属性信息确定为待识别目标对应的属性识别结果。
具体的,如图7所示,上述“根据分类结果指示的目标部分的类型,将待识别目标的各部分的属性信息中目标部分对应的属性信息确定为待识别目标对应的属性识别结果”,可以包括步骤:
S301、当目标部分的类型为上半部分类型时,将待识别目标的各部分的属性信息中待识别目标的上半部分对应的属性信息,确定为待识别目标对应的属性识别结果。
本实施例涉及计算机设备通过对待识别图像进行分类,得到的分类结果指示的目标部分的类型为上半部分类型的应用场景,在该种应用下,计算机设备在获取到待识别目标的各部分的属性信息后,可以进一步的在这些属性信息中,提取出待识别目标的上半部分对应的属性信息,并将该上半部分对应的属性信息确定为待识别目标对应的属性识别结果。
S302、当目标部分的类型为下半部分类型时,将待识别目标的各部分的属性信息中待识别目标的下半部分对应的属性信息,确定为待识别目标对应的属性识别结果。
本实施例涉及计算机设备通过对待识别图像进行分类,得到的分类结果指示的目标部分的类型为下半部分类型的应用场景,在该种应用下,计算机设备在获取到待识别目标的各部分的属性信息后,可以进一步的在这些属性信息中,提取出待识别目标的下半部分对应的属性信息,并将该下半部分对应的属性信息确定为待识别目标对应的属性识别结果。
S303、当目标部分的类型为全部类型时,将待识别目标的各部分的属性信息中的待识别目标的上半部分对应的属性信息和下半部分对应的属性信息确定为待识别目标对应的属性识别结果。
本实施例涉及计算机设备通过对待识别图像进行分类,得到的分类结果指示的目标部分的类型为全部类型的目标的应用场景,在该种应用下,计算机设备在获取到待识别目标的各部分的属性信息后,可以进一步的在这些属性信息中,提取出待识别目标的下半部分对应的属性信息和上半部分对应的属性信息,并该下半部分对应的属性信息和上半部分对应的属性信息确定为待识别目标对应的属性识别结果。
上述实施例中,计算机设备根据分类结果,从待识别目标的各部分的属性信息中,确定输出与分类结果指示的目标部分类型对应的属性信息。该种方法实现了待识别目标的各部分的属性信息控制输出,且控制输出的属性信息是待识别图像中包含的待识别目标的可见身部分,因此该属性信息是真实有效的,提高了利用本申请提出的图像识别方法的属性识别的准确性。
在一个实施例中,本申请还提供了一种联合训练上述属性识别模型和分类模型的方法,如图8所示,该方法包括:
S401、获取样本图像和标签图像;样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;标签图像中区别标记出待识别目标的可见部分和不可见部分。
其中,样本图像表示当前需要进行训练时使用的图像,其与前述S101中描述的待识别图像的类型相同,具体内容可参考前述的说明,在此不重复累赘说明。标签图像为经过标记后的图像,其上预先由计算机设备使用不同的标签标记待识别目标的各可见部分和不可见部分。
S402、采用初始属性识别模型,对样本图像进行属性识别,得到属性预测结果,并根据属性预测结果和标签图像得到训练初始属性识别模型对应的第一损失函数。
其中,初始属性识别模型的结构形式与前述实施例中描述的属性识别模型的结构形式相同,具体内容可参考前述的说明,在此不重复累赘说明。本实施例中,当计算机设备获取到样本图像和对应的标签图像时,可以具体采用初始属性识别模型对该样本图像进行属性识别,得到属性预测结果,然后根据属性预测结果与标签图像得到训练初始属性识别模型对应的第一损失函数,以便之后使用。
S403、采用初始分类模型,对样本图像进行分类,得到分类预测结果,并根据分类预测结果和标签图像得到训练初始分类模型对应的第二损失函数。
其中,初始分类模型的结构形式与前述实施例中描述的分类模型的结构形式相同,具体内容可参考前述的说明,在此不重复累赘说明。本实施例中,当计算机设备获取到样本图像和对应的标签图像时,可以具体采用初始分类模型对该样本图像中的待识别目标进行分类,得到分类预测结果,然后根据分类预测结果与标签图像得到训练初始分类模型对应的第二损失函数,以便之后使用。
S404、根据第一损失函数和第二损失函数,更新初始属性识别模型和初始分类模型中参数,得到属性识别模型和分类模型。
当计算机设备基于前述实施例获取到训练初始属性识别模型对应的第一损失函数和训练初始分类模型对应的第二损失函数时,可以进一步的将这两个损失函数进行累加和运算,得到这两个损失函数的累加和函数,然后利用该累加和函数同时训练初始属性识别模型和初始分类模型,即,同时更新初始属性识别模型和初始分类模型中参数,得到训练好的属性识别模型和分类模型,以便前述实施例使用该训练好的属性识别模型和分类模型实现对待识别图像中待识别目标的属性的准确识别。
在一个实施例中,本申请还提供了另一种联合训练上述属性识别模型和分类模型的方法,如图9所示,该方法包括:
S501、获取样本图像和标签图像;样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;标签图像中区别标记出待识别目标的的可见部分和不可见部分。
本实施例所述的步骤内容与S401步骤所述的内容相同,详细内容请参见S401的步骤,在此不重复累赘说明。
S502、采用初始属性识别模型,对样本图像进行属性识别,得到第一属性预测结果,并根据第一属性预测结果和标签图像得到训练初始属性识别模型对应的第三损失函数。
本实施例所述的步骤内容与S402步骤中训练初始属性识别模型的过程雷同,详细内容请参见S402的步骤,在此不重复累赘说明。
S503、根据第三损失函数,更新初始属性识别模型中参数,得到初次训练好的属性识别模型。
本实施例涉及单独训练初始属性识别模型的过程,得到初次训练好的属性识别模型,以便之后基于该初次训练好的属性识别模型训练分类模型。
S504、采用初次训练好的属性识别模型,对样本图像进行属性识别,得到第二属性预测结果,并根据第二属性预测结果和标签图像得到训练初次训练好的属性识别模型对应的第四损失函数。
本实施例所述的步骤内容与S402中训练初始属性识别模型的过程雷同,详细内容请参见S402的步骤,在此不重复累赘说明。需要说明的是,本实施例是基于初次训练好的属性识别模型进行训练。
S505、采用初始分类模型,对样本图像进行分类,得到分类预测结果,并根据分类预测结果和标签图像得到训练初始分类模型对应的第五损失函数。
本实施例所述的步骤内容也与S403步骤所述的内容相同,详细内容请参见S403的步骤,在此不重复累赘说明。
S506、根据第四损失函数和第五损失函数,更新初次训练好的属性识别模型和初始分类模型中参数,得到属性识别模型和分类模型。
当计算机设备基于前述实施例获取到第四损失函数和第五损失函数时,可以进一步的将这两个损失函数进行累加和运算,得到这两个函数的累加和函数,然后利用该累加和函数同时训练初次训练好的属性识别模型和初始分类模型,即,同时更新初次训练好的属性识别模型和初始分类模型中参数,得到属性识别模型和分类模型,以便前述实施例使用该训练好的属性识别模型和分类模型实现对待识别目标的属性的准确识别。需要说明的是,当计算机设备同时训练初次训练好的属性识别模型和初始分类模型时,可以微调初次训练好的属性识别模型的参数,重点调整初始分类模型的参数,以完成训练,提高训练效率。
示例性说明上述图9实施例中的训练初始属性识别模型对应的第一损失函数,以及训练初始分类模型对应的第二损失函数。可选的,当初始属性识别模块包括多个属性识别子模型时,训练初始属性识别模型对应的第一损失函数为多个属性识别子模型对应的损失函数的累加和函数。例如,每个属性识别子模型对应的损失函数可以用如下关系式(1)得到:
其中,La1表示a1属性识别子模型对应的损失函数;表示标签图像的数据;yi表示属性识别子模型输出的属性预测结果;A表示为用于识别可见部分的属性设置的分类器的数目。
可选的,初始分类模型对应的第二损失函数可以具体通过如下关系式(2)得到:
其中,Lp表示分类模型对应的损失函数;表示标签图像的数据;yp表示分类模型输出的分类结果。
上述和/>具体可以用如下关系式(3)得到:
其中,M表示样本图像的数量。
从上述计算每一分支的属性识别子模型对应的损失函数的关系式(1)中可见,其中涉及到的属性的分类器A为待识别目标的可见部分对应的属性的分类器,即在确定多个分支组成的属性识别模型对应的损失函数时,不累加缺失属性对应的分类器的分类损失函数。相当于本申请在训练属性识别模型时,计算机设备是基于待识别目标的可见部分对应的属性进行训练的,对于待识别目标的不可见部分对应的属性不参与训练,这样的训练方法确保了缺失属性不被激活,即确保模型仅有可见数据驱动训练,实现了通过对可见部分的识别约束属性识别模型更加关注待识别图像中待识别目标的可见部分的属性,提高属性识别模型的训练质量,从而提高了属性识别模型输出属性信息的准确性。
综合上述图2至图7实施例所述的图像识别方法,本申请还提供了一种应用上述图像识别方法的属性识别网络,如图10所示,该属性识别网络包括:特征提取网络、属性识别模型、分类模型、控制单元。其中,属性识别模型包括上半部分的属性识别子模型和下半部分的属性识别子模型,且每个上半部分的属性识别子模型包括多个上半部分的属性识别单元;每个下半部分的属性识别子模型包括多个下半部分的属性识别单元。应用该属性识别网络对输入的待识别图像中的待识别目标的属性进行识别的过程,与前述图2-图7实施例所述的图像识别方法对应,具体内容请参见前述说明,在此不重复累赘说明。
综合上述图8和图9实施例所述的联合训练方法,本申请还提供了一种应用上述训练方法的训练网络,如图11所示,该行训练网络包括:特征提取网络、初始属性识别模型、初始分类模型。其中,初始属性识别模型包括多个初始属性识别子模型,且每个初始属性识别子模型包括多个初始属性识别单元。应用该训练网络根据样本图像对该网络中的初始属性识别模型和初始分类模型进行训练,具体的训练过程与前述图8和图9实施例所述的联合训练方法对应,具体内容请参见前述说明,在此不重复累赘说明。
应该理解的是,虽然图2-9的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-9中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行。
在一个实施例中,如图12所示,提供了一种图像识别装置,包括:识别模块11、分类模块12和确定模块13,其中:
识别模块11,用于对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分;
分类模块12,用于对待识别图像进行分类,得到分类结果;分类结果用于指示待识别图像中包含的待识别目标的部分类型;
确定模块13,用于根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
上述实施例提供的一种图像识别装置,其实现原理和技术效果与上述方法实施例类似,在此不在累赘。
在一个实施例中,如图13所示,提供了一种训练装置,该装置包括:第一获取样本图像模块21、第一确定模块22、第二确定模块23和第一训练模块24,其中:
第一获取样本图像模块21,用于获取样本图像和标签图像;样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;标签图像中区别标记出待识别目标的可见部分和不可见部分;
第一确定模块22,用于采用初始属性识别模型,对样本图像进行属性识别,得到属性预测结果,并根据属性预测结果和标签图像得到训练初始属性识别模型对应的第一损失函数;
第二确定模块23,用于采用初始分类模型,对样本图像进行分类,得到分类预测结果,并根据分类预测结果和标签图像得到训练初始分类模型对应的第二损失函数;
第一训练模块24,用于根据第一损失函数和第二损失函数,更新初始属性识别模型和初始分类模型中参数,得到属性识别模型和分类模型。
上述实施例提供的一种训练装置,其实现原理和技术效果与上述方法实施例类似,在此不在累赘。
在一个实施例中,如图14所示,提供了另一种训练装置,该装置包括:第二获取样本图像模块25、第三确定模块26、第二训练模块27、第四确定模块28、第五确定模块29和第三训练模块30,其中:
第二获取样本图像模块25,用于获取样本图像和标签图像;样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;标签图像中区别标记出待识别目标的的可见部分和不可见部分;
第三确定模块26,用于采用初始属性识别模型,对样本图像进行属性识别,得到第一属性预测结果,并根据第一属性预测结果和标签图像得到训练初始属性识别模型对应的第三损失函数;
第二训练模块27,用于根据第三损失函数,更新初始属性识别模型中参数,得到初次训练好的属性识别模型;
第四确定模块28,用于采用初次训练好的属性识别模型,对样本图像进行属性识别,得到第二属性预测结果,并根据第二属性预测结果和标签图像得到训练初次训练好的属性识别模型对应的第四损失函数;
第五确定模块29,用于采用初始分类模型,对样本图像进行分类,得到分类预测结果,并根据分类预测结果和标签图像得到训练初始分类模型对应的第五损失函数;
第三训练模块30,用于根据第四损失函数和第五损失函数,更新初次训练好的属性识别模型和初始分类模型中参数,得到属性识别模型和分类模型。
上述实施例提供的一种训练装置,其实现原理和技术效果与上述方法实施例类似,在此不在累赘。
关于图像识别装置和训练装置的具体限定可以参见上文中对于一种图像识别方法和训练方法的限定,在此不再赘述。上述图像识别装置和训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分;
对待识别图像进行分类,得到分类结果;
根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
上述实施例提供的一种计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时还实现以下步骤:
对待识别图像进行属性识别,得到待识别图像中待识别目标的各部分的属性信息,待识别目标包括目标物的至少一个部分;
对待识别图像进行分类,得到分类结果;
根据分类结果,从待识别目标的各部分的属性信息中确定待识别目标对应的属性识别结果。
上述实施例提供的一种计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双倍数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像识别方法,其特征在于,所述方法包括:
采用预设的属性识别模型,对待识别图像中待识别目标的可见部分和所述待识别目标的不可见部分进行属性识别,得到所述待识别图像中所述待识别目标的各部分的属性信息,所述待识别目标包括目标物的至少一个部分;所述待识别图像包含不完整的目标物,或同时包含所述不完整的目标物和完整的目标物;
对所述待识别图像进行分类,得到分类结果,所述分类结果用于指示所述待识别图像中所述待识别目标的可见部分的类型,所述待识别目标的可见部分与所述目标物上的目标部分对应时,所述分类结果为所述目标部分的类型;
根据所述分类结果,从所述待识别目标的各部分的属性信息中确定所述待识别目标对应的属性识别结果;
其中,根据所述分类结果,从所述待识别目标的各部分的属性信息中确定所述待识别目标对应的属性识别结果,包括:
根据所述分类结果指示的目标部分的类型,将所述待识别目标的各部分的属性信息中所述目标部分对应的属性信息确定为所述待识别目标对应的属性识别结果。
2.根据权利要求1所述的方法,其特征在于,所述属性识别模型包括至少两个属性识别子模型,不同的所述属性识别子模型分别用于对所述待识别目标的不同部分进行属性识别。
3.根据权利要求2所述的方法,其特征在于,每个所述属性识别子模型包括至少一个属性识别单元;不同的所述属性识别单元分别用于识别所述待识别目标的同一部分的不同属性。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述对所述待识别图像进行分类,得到分类结果,包括:
采用预设的分类模型,获取所述待识别图像中的所述待识别目标与所述目标物的对应关系;
当所述待识别目标与所述目标物的目标部分对应时,将所述目标部分的类型确定为所述分类结果。
5.根据权利要求4所述的方法,其特征在于,所述根据所述分类结果指示的目标部分的类型,将所述待识别目标的各部分的属性信息中所述目标部分对应的属性信息确定为所述待识别目标对应的属性识别结果,包括:
当所述目标部分的类型为上半部分类型时,将所述待识别目标的各部分的属性信息中所述待识别目标的上半部分对应的属性信息,确定为所述待识别目标对应的属性识别结果;
当所述目标部分的类型为下半部分类型时,将所述待识别目标的各部分的属性信息中所述待识别目标的下半部分对应的属性信息,确定为所述待识别目标对应的属性识别结果;
当所述目标部分的类型为全部类型时,将所述待识别目标的各部分的属性信息中的所述待识别目标的上半部分对应的属性信息和下半部分对应的属性信息确定为所述待识别目标对应的属性识别结果。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括联合训练所述属性识别模型和分类模型,所述联合训练的方法包括:
获取样本图像和标签图像;所述样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;所述标签图像中区别标记出待识别目标的可见部分和不可见部分;
采用初始属性识别模型,对所述样本图像进行属性识别,得到属性预测结果,并根据所述属性预测结果和所述标签图像得到训练所述初始属性识别模型对应的第一损失函数;
采用初始分类模型,对所述样本图像进行分类,得到分类预测结果,并根据所述分类预测结果和所述标签图像得到训练所述初始分类模型对应的第二损失函数;
根据所述第一损失函数和所述第二损失函数,更新所述初始属性识别模型和所述初始分类模型中参数,得到所述属性识别模型和所述分类模型。
7.根据权利要求4所述的方法,其特征在于,所述方法还包括联合训练所述属性识别模型和分类模型,所述联合训练的方法包括:
获取样本图像和标签图像;所述样本图像同时包括完整的待识别目标的图像和不完整的待识别目标的图像;所述标签图像中区别标记出所述待识别目标的可见部分和不可见部分;
采用初始属性识别模型,对所述样本图像进行属性识别,得到第一属性预测结果,并根据所述第一属性预测结果和所述标签图像得到训练所述初始属性识别模型对应的第三损失函数;
根据所述第三损失函数,更新所述初始属性识别模型中参数,得到初次训练好的属性识别模型;
采用所述初次训练好的属性识别模型,对所述样本图像进行属性识别,得到第二属性预测结果,并根据所述第二属性预测结果和所述标签图像得到训练所述初次训练好的属性识别模型对应的第四损失函数;
采用初始分类模型,对所述样本图像进行分类,得到分类预测结果,并根据所述分类预测结果和所述标签图像得到训练所述初始分类模型对应的第五损失函数;
根据所述第四损失函数和所述第五损失函数,更新所述初次训练好的属性识别模型和所述初始分类模型中参数,得到所述属性识别模型和所述分类模型。
8.一种图像识别装置,其特征在于,所述装置包括:
识别模块,用于采用预设的属性识别模型,对待识别图像中待识别目标的可见部分和所述待识别目标的不可见部分进行属性识别,得到所述待识别图像中所述待识别目标的各部分的属性信息,所述待识别目标包括目标物的至少一个部分;所述待识别图像包含不完整的目标物,或同时包含所述不完整的目标物和完整的目标物;
分类模块,用于对所述待识别图像进行分类,得到分类结果;所述分类结果用于指示所述待识别图像中所述待识别目标的可见部分的类型,所述待识别目标的可见部分与所述目标物上的目标部分对应时,所述分类结果为所述目标部分的类型;
确定模块,用于根据所述分类结果,从所述待识别目标的各部分的属性信息中确定所述待识别目标对应的属性识别结果;
其中,根据所述分类结果,从所述待识别目标的各部分的属性信息中确定所述待识别目标对应的属性识别结果,包括:
根据所述分类结果指示的目标部分的类型,将所述待识别目标的各部分的属性信息中所述目标部分对应的属性信息确定为所述待识别目标对应的属性识别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911158025.3A CN111178128B (zh) | 2019-11-22 | 2019-11-22 | 图像识别方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911158025.3A CN111178128B (zh) | 2019-11-22 | 2019-11-22 | 图像识别方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111178128A CN111178128A (zh) | 2020-05-19 |
CN111178128B true CN111178128B (zh) | 2024-03-19 |
Family
ID=70653705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911158025.3A Active CN111178128B (zh) | 2019-11-22 | 2019-11-22 | 图像识别方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111178128B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111383030B (zh) * | 2020-05-28 | 2021-02-23 | 支付宝(杭州)信息技术有限公司 | 一种交易风险的检测方法、装置及设备 |
CN111881842A (zh) * | 2020-07-30 | 2020-11-03 | 深圳力维智联技术有限公司 | 行人重识别方法、装置、电子设备及存储介质 |
CN112580493B (zh) * | 2020-12-16 | 2021-11-09 | 广东省林业科学研究院 | 基于无人机遥感的植物识别方法、装置、设备及存储介质 |
CN113591567A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 目标检测方法、目标检测模型的训练方法及其装置 |
CN113591568A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 目标检测方法、目标检测模型的训练方法及其装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214361A (zh) * | 2010-04-09 | 2011-10-12 | 索尼公司 | 信息处理设备、方法和程序 |
CN102687174A (zh) * | 2010-01-12 | 2012-09-19 | 皇家飞利浦电子股份有限公司 | 确定对象的位置特性 |
JP2013195725A (ja) * | 2012-03-21 | 2013-09-30 | Dainippon Printing Co Ltd | 画像表示システム |
CN107067468A (zh) * | 2017-03-30 | 2017-08-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107358242A (zh) * | 2017-07-11 | 2017-11-17 | 浙江宇视科技有限公司 | 目标区域颜色识别方法、装置及监控终端 |
CN107909580A (zh) * | 2017-11-01 | 2018-04-13 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别方法、电子设备及存储介质 |
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
CN109447973A (zh) * | 2018-10-31 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 一种结肠息肉图像的处理方法和装置及系统 |
CN109800679A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种确定待识别对象的属性信息的方法及装置 |
CN109948497A (zh) * | 2019-03-12 | 2019-06-28 | 北京旷视科技有限公司 | 一种物体检测方法、装置及电子设备 |
CN110070030A (zh) * | 2019-04-18 | 2019-07-30 | 北京迈格威科技有限公司 | 图像识别与神经网络模型的训练方法、装置和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1202214A3 (en) * | 2000-10-31 | 2005-02-23 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for object recognition |
US20140009462A1 (en) * | 2012-04-17 | 2014-01-09 | 3Dmedia Corporation | Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects |
US10559111B2 (en) * | 2016-06-23 | 2020-02-11 | LoomAi, Inc. | Systems and methods for generating computer ready animation models of a human head from captured data images |
KR102308871B1 (ko) * | 2016-11-02 | 2021-10-05 | 삼성전자주식회사 | 객체의 속성에 기반하여 객체를 인식 및 트레이닝하는 방법 및 장치 |
CN111052126B (zh) * | 2017-09-04 | 2024-06-04 | 华为技术有限公司 | 行人属性识别与定位方法以及卷积神经网络系统 |
CN109359535B (zh) * | 2018-09-12 | 2021-07-20 | 北京木业邦科技有限公司 | 木材装载信息的识别方法、装置、电子设备及存储介质 |
-
2019
- 2019-11-22 CN CN201911158025.3A patent/CN111178128B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102687174A (zh) * | 2010-01-12 | 2012-09-19 | 皇家飞利浦电子股份有限公司 | 确定对象的位置特性 |
CN102214361A (zh) * | 2010-04-09 | 2011-10-12 | 索尼公司 | 信息处理设备、方法和程序 |
JP2013195725A (ja) * | 2012-03-21 | 2013-09-30 | Dainippon Printing Co Ltd | 画像表示システム |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
CN107067468A (zh) * | 2017-03-30 | 2017-08-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107358242A (zh) * | 2017-07-11 | 2017-11-17 | 浙江宇视科技有限公司 | 目标区域颜色识别方法、装置及监控终端 |
CN107909580A (zh) * | 2017-11-01 | 2018-04-13 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别方法、电子设备及存储介质 |
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN109447973A (zh) * | 2018-10-31 | 2019-03-08 | 腾讯科技(深圳)有限公司 | 一种结肠息肉图像的处理方法和装置及系统 |
CN109800679A (zh) * | 2018-12-29 | 2019-05-24 | 上海依图网络科技有限公司 | 一种确定待识别对象的属性信息的方法及装置 |
CN109948497A (zh) * | 2019-03-12 | 2019-06-28 | 北京旷视科技有限公司 | 一种物体检测方法、装置及电子设备 |
CN110070030A (zh) * | 2019-04-18 | 2019-07-30 | 北京迈格威科技有限公司 | 图像识别与神经网络模型的训练方法、装置和系统 |
Non-Patent Citations (1)
Title |
---|
基于属性重要度的数据补齐方法;吴康康;潘巍;;计算机工程与设计;20160316(03);第725-730页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111178128A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178128B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN112232293B (zh) | 图像处理模型训练、图像处理方法及相关设备 | |
CN110135406B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN110555481B (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN109657583B (zh) | 脸部关键点检测方法、装置、计算机设备和存储介质 | |
WO2021120695A1 (zh) | 图像分割方法、装置、电子设备及可读存储介质 | |
CN108805058B (zh) | 目标对象变化姿态识别方法、装置及计算机设备 | |
CN109472213B (zh) | 掌纹识别方法、装置、计算机设备和存储介质 | |
CN112446302B (zh) | 一种人体姿态检测方法、系统、电子设备和存储介质 | |
WO2020024395A1 (zh) | 疲劳驾驶检测方法、装置、计算机设备及存储介质 | |
CN110287836B (zh) | 图像分类方法、装置、计算机设备和存储介质 | |
CN111310705A (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
WO2021051547A1 (zh) | 暴力行为检测方法及系统 | |
CN111739027A (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
CN108830782B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110163151B (zh) | 人脸模型的训练方法、装置、计算机设备和存储介质 | |
CN110163864B (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN109271917A (zh) | 人脸识别方法、装置、计算机设备和可读存储介质 | |
CN113192175A (zh) | 模型训练方法、装置、计算机设备和可读存储介质 | |
CN113298158A (zh) | 数据检测方法、装置、设备及存储介质 | |
CN111523479A (zh) | 动物的生物特征识别方法、装置、计算机设备及存储介质 | |
Yu et al. | A video-based facial motion tracking and expression recognition system | |
CN111177460B (zh) | 提取关键帧的方法及装置 | |
CN112115790A (zh) | 人脸识别方法、装置、可读存储介质和电子设备 | |
CN113128448B (zh) | 基于肢体识别的视频匹配方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |