CN116704555A - 基于姿态调整的小熊猫识别方法及系统 - Google Patents
基于姿态调整的小熊猫识别方法及系统 Download PDFInfo
- Publication number
- CN116704555A CN116704555A CN202310996232.6A CN202310996232A CN116704555A CN 116704555 A CN116704555 A CN 116704555A CN 202310996232 A CN202310996232 A CN 202310996232A CN 116704555 A CN116704555 A CN 116704555A
- Authority
- CN
- China
- Prior art keywords
- panda
- image
- model
- initial
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 208000025174 PANDAS Diseases 0.000 title claims abstract description 254
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 title claims abstract description 254
- 240000004718 Panda Species 0.000 title claims abstract description 254
- 235000016496 Panda oleosa Nutrition 0.000 title claims abstract description 254
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000011218 segmentation Effects 0.000 claims abstract description 89
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 abstract description 20
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000036544 posture Effects 0.000 description 75
- 241001465754 Metazoa Species 0.000 description 13
- 230000001815 facial effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000009399 inbreeding Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于姿态调整的小熊猫识别方法及系统,应用于小熊猫识别技术,方法包括:获取目标小熊猫的图像信息;对目标小熊猫的图像信息进行躯体分割,形成分割结果;分割结果为表征目标小熊猫各个躯体部位特征的数据;根据分割结果获取目标小熊猫的姿态特征;根据分割结果和姿态特征获取标准姿态下目标小熊猫的图像作为待识别图像;根据待识别图像对目标小熊猫进行个体识别。本发明基于姿态调整的小熊猫识别方法及系统,通过将需要进行识别的小熊猫图像转换到标准姿态,降低了进行识别时识别模型的训练难度,同时降低了人工干预,有效提高了识别准确度。
Description
技术领域
本发明涉及小熊猫识别技术领域,具体涉及基于姿态调整的小熊猫识别方法及系统。
背景技术
濒危动物个体识别,亦即区分不同的濒危动物个体,是濒危动物保护和管理的基本前提。对于动物园区圈养的濒危动物,濒危动物个体识别是做好动物日常管理、动物档案和谱系记录的基础,能有效避免濒危动物之间的近亲交配,科学地进行兽舍管理。对于野外环境的濒危动物,濒危动物个体识别能够在一定程度上辅助相关科研工作者对濒危动物的行为、健康状态、生活习性、进化过程、群体状态和分布情况等进行研究,为制定有效的保护政策和措施提供重要的参考依据。
现有技术中,公开了多种对小熊猫进行识别的技术方案,如申请号为201910086446.3的中国专利公开了一种基于脸部图像的小熊猫个体识别方法,其从一张拍摄照片找出小熊猫脸部图像识别区域;对小熊猫脸部图像识别区域进行关键点检测;对齐小熊猫脸部图像;从对齐后的小熊猫脸部图像中提取出特征;将特征与预设注册样本对比,识别出拍摄照片中小熊猫个体身份信息。同样的,申请号为201910333076.9的中国专利公开了一种小熊猫个体识别方法、设备及计算机可读存储介质,其输入原始图像,提取原始图像中小熊猫的图像区域;对小熊猫的图像区域进行躯体特征分割,得到用于表征小熊猫各个躯体部位的分割结果;基于小熊猫各个躯体部位的分割结果获取小熊猫的姿态特征;基于小熊猫各个躯体部位的分割结果获取小熊猫的视觉特征;基于姿态特征和视觉特征在已知数据的样本库中进行比对,基于比对结果确认小熊猫的个体身份信息。从上述现有技术中可以看出,目前现有技术对小熊猫的识别,主要是通过面部特征或者不同躯体部位的特征进行识别。对于面部特征的识别依赖于小熊猫面部图像的质量,容易受到小熊猫面部非平面内旋转引起姿态变化的影响;而对于不同躯体部位的特征和姿态特征进行小熊猫识别时,需要对不同姿态下不同的躯体部位人为的设定权重值,识别结果受人为因素干扰程度较大,并且识别模型训练成本也较高。
发明内容
为了至少克服现有技术中的上述不足,本申请的目的在于提供基于姿态调整的小熊猫识别方法及系统。
第一方面,本申请实施例提供了基于姿态调整的小熊猫识别方法,包括:
获取目标小熊猫的图像信息;
对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
根据所述分割结果获取所述目标小熊猫的姿态特征;
根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
根据所述待识别图像对所述目标小熊猫进行个体识别。
本申请实施例实施时,为了便于最终模型的建立,并且减少人为设定的干预,采用一种将需要进行个体识别的目标小熊猫的图像转化为标准姿态下的图像完成个体识别。其中,对目标小熊猫的图像信息进行躯体分割可以采用现有技术中的技术方案进行,本申请实施例对此不多做限定,其中躯体分割的分割结果可以包括头部、躯干、尾巴和四肢的特征。而对于目标小熊猫姿态特征的获取同样可以采用现有技术中的技术方案进行,如基于所述头部中心点与所述躯干中心点连线的向量值获取小熊猫的姿态特征。
在本申请实施例中,需要将分割后的不同躯体部位的特征根据姿态特征转换到预先设定的标准姿态中,其中标准姿态可以选择最能表征小熊猫特征的姿态,如侧身姿态的小熊猫并且脸部转向拍摄方向的姿态。将分割结果转换到标准姿态时,可以将头部、躯干、尾巴和四肢的特征分别根据姿态特征进行调整,如旋转、缩放等操作,然后将调整后的特征填充到对应标准姿态的基准图像的对应位置,并将未被填充的位置进行标记形成待识别图像;标记的位置在进行识别时需要进行忽略处理。
在本申请实施例中,在获取了待识别图像后,可以通过训练好的识别模型对目标小熊猫进行个体识别,由于所有的待识别图像都是调整到统一的标准姿态的,所以在进行识别模型的训练时,可以采用不同个体小熊猫在标准姿态下的图像进行训练,其中训练样本采样时,可以通过食物诱导等方式诱导小熊猫做出标准姿态。而对于识别模型的训练也属于现有技术,可以采用现有技术中的卷积神经网络训练方法进行模型训练,本申请实施例对此不多做复述。本申请实施例通过上述技术方案,通过将需要进行识别的小熊猫图像转换到标准姿态,降低了进行识别时识别模型的训练难度,同时降低了人工干预,有效提高了识别准确度。
在一种可能的实现方式中,根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像包括:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像。
在一种可能的实现方式中,所述生成模型和所述判断模型的生成包括:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
在一种可能的实现方式中,通过小熊猫样本库构筑初始生成模型包括:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
在一种可能的实现方式中,将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像包括:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
第二方面,本申请实施例提供了基于姿态调整的小熊猫识别系统,包括:
获取单元,被配置为获取目标小熊猫的图像信息;
分割单元,被配置为对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
姿态单元,被配置为根据所述分割结果获取所述目标小熊猫的姿态特征;
生成单元,被配置为根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
识别单元,被配置为根据所述待识别图像对所述目标小熊猫进行个体识别。
在一种可能的实现方式中,所述生成单元还被配置为:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像。
在一种可能的实现方式中,还包括建模单元,所述建模单元被配置为:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
在一种可能的实现方式中,所述建模单元还被配置为:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
在一种可能的实现方式中,所述建模单元还被配置为:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
本发明与现有技术相比,具有如下的优点和有益效果:
本发明基于姿态调整的小熊猫识别方法及系统,通过将需要进行识别的小熊猫图像转换到标准姿态,降低了进行识别时识别模型的训练难度,同时降低了人工干预,有效提高了识别准确度。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为本申请实施例方法流程图;
图2为本申请实施例小熊猫识别示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请实施例的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其它操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其它实施例,都属于本申请保护的范围。
请结合参阅图1,为本发明实施例所提供的基于姿态调整的小熊猫识别方法的流程示意图,进一步地,所述基于姿态调整的小熊猫识别方法具体可以包括以下步骤S1-步骤S5所描述的内容。
S1:获取目标小熊猫的图像信息;
S2:对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
S3:根据所述分割结果获取所述目标小熊猫的姿态特征;
S4:根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
S5:根据所述待识别图像对所述目标小熊猫进行个体识别。
本申请实施例实施时,为了便于最终模型的建立,并且减少人为设定的干预,采用一种将需要进行个体识别的目标小熊猫的图像转化为标准姿态下的图像完成个体识别。其中,对目标小熊猫的图像信息进行躯体分割可以采用现有技术中的技术方案进行,本申请实施例对此不多做限定,其中躯体分割的分割结果可以包括头部、躯干、尾巴和四肢的特征。而对于目标小熊猫姿态特征的获取同样可以采用现有技术中的技术方案进行,如基于所述头部中心点与所述躯干中心点连线的向量值获取小熊猫的姿态特征。
在本申请实施例中,需要将分割后的不同躯体部位的特征根据姿态特征转换到预先设定的标准姿态中,其中标准姿态可以选择最能表征小熊猫特征的姿态,如侧身姿态的小熊猫并且脸部转向拍摄方向的姿态。将分割结果转换到标准姿态时,可以将头部、躯干、尾巴和四肢的特征分别根据姿态特征进行调整,如旋转、缩放等操作,然后将调整后的特征填充到对应标准姿态的基准图像的对应位置,并将未被填充的位置进行标记形成待识别图像;标记的位置在进行识别时需要进行忽略处理。
在本申请实施例中,在获取了待识别图像后,可以通过训练好的识别模型对目标小熊猫进行个体识别,由于所有的待识别图像都是调整到统一的标准姿态的,所以在进行识别模型的训练时,可以采用不同个体小熊猫在标准姿态下的图像进行训练,其中训练样本采样时,可以通过食物诱导等方式诱导小熊猫做出标准姿态。而对于识别模型的训练也属于现有技术,可以采用现有技术中的卷积神经网络训练方法进行模型训练,本申请实施例对此不多做复述。本申请实施例通过上述技术方案,通过将需要进行识别的小熊猫图像转换到标准姿态,降低了进行识别时识别模型的训练难度,同时降低了人工干预,有效提高了识别准确度。
在一种可能的实现方式中,根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像包括:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像。
请参阅图2,示出了本申请实施例中通过生成模型和判断模型进行标准姿态下目标小熊猫的待识别图像的生成过程,其中图像分割和姿态判断采用现有技术中公开的技术进行,如基于所述头部中心点与所述躯干中心点连线的向量值获取小熊猫的姿态特征。在图2中,初始的图像通过灰度化和锐化等图像预处理后形成图中最上方的图像,其在进行图像分割和姿态判断并拼接后可以形成图2中第二张图像,即完成了拼接的图像。
在一种可能的实现方式中,所述生成模型和所述判断模型的生成包括:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
本申请实施例实施时,采用了对抗神经网络的一种思路来进行待识别图像的生成。其中需要用到生成模型和判断模型,与现有的对抗神经网络不同的是,本申请实施例中的判断模型在初始化后,可以不进行进一步的学习,只有生成模型需要根据判断模型的判断结果进行持续的学习。其中,需要先构建初始生成模型和初始判断模型,初始生成模型可以根据需要进行初始化的训练,如采用分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征作为输入数据,采用标准姿态下对应输入数据的小熊猫图像进行样本生成,并以样本训练相关的模型形成初始生成模型;而初始判断模型可以优选支持向量机进行分类器训练。
本申请实施例中,初始生成模型和初始判断模型构筑完成后,向初始生成模型输入预设的样本,样本需要为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,在初始生成模型根据该样本生成图像后,由初始判断模型进行图像的判断;如果初始判断模型判断结果为真,说明图像符合预期;如果初始判断模型的判断结果为非真,说明图像不符合预期,需要根据初始判断模型对该图像的损失值进行初始生成模型的拟合参数和损失函数的修正。在持续的循环过程后,可以认为初始生成模型完成了训练。
在一种可能的实现方式中,通过小熊猫样本库构筑初始生成模型包括:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
在一种可能的实现方式中,将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像包括:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
本申请实施例实施时,提供了一种初始生成模型的构筑方案,其中需要以样本分割结果做为输入进行初始生成模型的神经网络模型训练,以生成初始生成模型。而对于样本的获取来说,由于不同姿态下小熊猫所能展示的特征不一定全面,所以在本申请实施例中对于基准图像中未被填充的部分,需要进行标记;标记过的区域,生成模型和判断模型会不做计算和识别,以减少无识别几率。
基于相同的发明构思,本申请实施例提供了基于姿态调整的小熊猫识别系统,包括:
获取单元,被配置为获取目标小熊猫的图像信息;
分割单元,被配置为对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
姿态单元,被配置为根据所述分割结果获取所述目标小熊猫的姿态特征;
生成单元,被配置为根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
识别单元,被配置为根据所述待识别图像对所述目标小熊猫进行个体识别。
在一种可能的实现方式中,所述生成单元还被配置为:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像。
在一种可能的实现方式中,还包括建模单元,所述建模单元被配置为:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
在一种可能的实现方式中,所述建模单元还被配置为:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
在一种可能的实现方式中,所述建模单元还被配置为:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显然本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网格设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccess Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.基于姿态调整的小熊猫识别方法,其特征在于,包括:
获取目标小熊猫的图像信息;
对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
根据所述分割结果获取所述目标小熊猫的姿态特征;
根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
根据所述待识别图像对所述目标小熊猫进行个体识别;
根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像包括:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像;
所述生成模型和所述判断模型的生成包括:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
2.根据权利要求1所述的基于姿态调整的小熊猫识别方法,其特征在于,通过小熊猫样本库构筑初始生成模型包括:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
3.根据权利要求2所述的基于姿态调整的小熊猫识别方法,其特征在于,将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像包括:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
4.基于姿态调整的小熊猫识别系统,其特征在于,使用权利要求1~3任意一项所述方法,所述系统包括:
获取单元,被配置为获取目标小熊猫的图像信息;
分割单元,被配置为对所述目标小熊猫的图像信息进行躯体分割,形成分割结果;所述分割结果为表征所述目标小熊猫各个躯体部位特征的数据;
姿态单元,被配置为根据所述分割结果获取所述目标小熊猫的姿态特征;
生成单元,被配置为根据所述分割结果和所述姿态特征获取标准姿态下所述目标小熊猫的图像作为待识别图像;
识别单元,被配置为根据所述待识别图像对所述目标小熊猫进行个体识别。
5.根据权利要求4所述的基于姿态调整的小熊猫识别系统,其特征在于,所述生成单元还被配置为:
将所述分割结果和所述姿态特征输入生成模型,并接收所述生成模型输出的标准姿态下所述目标小熊猫的图像作为待判断图像;
将所述待判断图像输入对应所述生成模型的判断模型,并在所述判断模型的输出结果为真时,将所述待判断图像作为所述待识别图像。
6.根据权利要求5所述的基于姿态调整的小熊猫识别系统,其特征在于,还包括建模单元,所述建模单元被配置为:
通过小熊猫样本库构筑初始生成模型和初始判断模型;所述初始生成模型的输入数据为分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,输出数据为标准姿态下对应输入数据的小熊猫图像;所述初始判断模型的输入数据为所述初始生成模型的输出数据,所述初始判断模型的输出数据为所述初始生成模型的输出数据是否为真实的图像数据;
向所述初始生成模型输入分割后小熊猫各个躯体部位特征和对应的小熊猫姿态特征,并将所述初始生成模型输出的数据送入所述初始判断模型;
将所述初始判断模型的输出结果反馈至所述初始生成模型,所述初始生成模型根据所述初始判断模型的输出结果修正拟合参数和损失函数;
循环向所述初始生成模型输入数据,并进行所述初始生成模型和所述初始判断模型的交互,并在所述初始判断模型的输出结果为真的比例超过预设值时终止循环;
将终止循环后的所述初始生成模型作为所述生成模型,并将终止循环后的所述初始判断模型作为所述判断模型。
7.根据权利要求6所述的基于姿态调整的小熊猫识别系统,其特征在于,所述建模单元还被配置为:
从小熊猫样本库中提取同一个小熊猫在不同姿态特征下的多个小熊猫图像样本;
对所述小熊猫图像样本进行躯体分割,形成表征小熊猫各个躯体部位特征的样本分割结果;
从姿态特征中选取最能表征小熊猫特征的姿态作为所述标准姿态,并将所述小熊猫图像样本通过所述样本分割结果转换至所述标准姿态下的小熊猫的图像作为标准小熊猫图像;
以所述样本分割结果作为输入,以所述标准小熊猫图像作为输出训练神经网络生成初始生成模型。
8.根据权利要求7所述的基于姿态调整的小熊猫识别系统,其特征在于,所述建模单元还被配置为:
构建所述标准姿态下的小熊猫的空白图像作为基准图像;所述基准图像中配置有小熊猫的基准轮廓和小熊猫的躯体划分区域;
根据所述样本分割结果在所述基准图像中修正所述基准轮廓,并将所述样本分割结果映射至所述基准图像中对应的躯体划分区域;
将所述基准图像中未被填充的部分标记为无识别区域形成所述标准小熊猫图像;所述无识别区域为所述生成模型和所述判断模型不做识别的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310996232.6A CN116704555B (zh) | 2023-08-09 | 2023-08-09 | 基于姿态调整的小熊猫识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310996232.6A CN116704555B (zh) | 2023-08-09 | 2023-08-09 | 基于姿态调整的小熊猫识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116704555A true CN116704555A (zh) | 2023-09-05 |
CN116704555B CN116704555B (zh) | 2023-10-13 |
Family
ID=87829774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310996232.6A Active CN116704555B (zh) | 2023-08-09 | 2023-08-09 | 基于姿态调整的小熊猫识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116704555B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262989A1 (en) * | 2007-07-12 | 2009-10-22 | Tatsuo Kozakaya | Image processing apparatus and method |
CN104700076A (zh) * | 2015-02-13 | 2015-06-10 | 电子科技大学 | 人脸图像虚拟样本生成方法 |
CN111222486A (zh) * | 2020-01-15 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 手部姿态识别模型的训练方法、装置、设备及存储介质 |
CN114821778A (zh) * | 2022-04-22 | 2022-07-29 | 中国农业大学 | 一种水下鱼体姿态动态识别方法及装置 |
CN114943746A (zh) * | 2022-06-14 | 2022-08-26 | 南京信息工程大学 | 一种利用深度信息辅助和轮廓增强损失的运动迁移方法 |
CN116525061A (zh) * | 2023-03-09 | 2023-08-01 | 北京体育大学 | 一种基于远程人体姿态评估的训练监控方法及系统 |
-
2023
- 2023-08-09 CN CN202310996232.6A patent/CN116704555B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262989A1 (en) * | 2007-07-12 | 2009-10-22 | Tatsuo Kozakaya | Image processing apparatus and method |
CN104700076A (zh) * | 2015-02-13 | 2015-06-10 | 电子科技大学 | 人脸图像虚拟样本生成方法 |
CN111222486A (zh) * | 2020-01-15 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 手部姿态识别模型的训练方法、装置、设备及存储介质 |
CN114821778A (zh) * | 2022-04-22 | 2022-07-29 | 中国农业大学 | 一种水下鱼体姿态动态识别方法及装置 |
CN114943746A (zh) * | 2022-06-14 | 2022-08-26 | 南京信息工程大学 | 一种利用深度信息辅助和轮廓增强损失的运动迁移方法 |
CN116525061A (zh) * | 2023-03-09 | 2023-08-01 | 北京体育大学 | 一种基于远程人体姿态评估的训练监控方法及系统 |
Non-Patent Citations (5)
Title |
---|
BENJAMIN BIGGS等: "Creatures Great and SMAL: Recovering the Shape and Motion of Animals from Video", 《ASIAN CONFERENCE ON COMPUTER VISION》, pages 3 - 19 * |
BHAGYALAKSHMI A等: "Virtual Dressing Room Application Using GANs", 《2023 9TH INTERNATIONAL CONFERENCE ON ADVANCED COMPUTING AND COMMUNICATION SYSTEMS (ICACCS)》, pages 112 - 116 * |
XIAOWEI DAI等: "Unsupervised 3D Animal Canonical Pose Estimation with Geometric Self-Supervision", 《2023 IEEE 17TH INTERNATIONAL CONFERENCE ON AUTOMATIC FACE AND GESTURE RECOGNITION (FG)》, pages 1 - 8 * |
曹晓瑜等: "基于深度学习的人体姿态估计方法综述", 《现代信息科技》, vol. 6, no. 23, pages 1 - 6 * |
赵宁等: "融合自注意力机制的人物姿态迁移生成模型", 《激光与光电子学进展》, vol. 59, no. 4, pages 1 - 10 * |
Also Published As
Publication number | Publication date |
---|---|
CN116704555B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8655029B2 (en) | Hash-based face recognition system | |
CN109409297B (zh) | 一种基于双通道卷积神经网络的身份识别方法 | |
CN109657595B (zh) | 基于堆叠沙漏网络的关键特征区域匹配人脸识别方法 | |
US6563950B1 (en) | Labeled bunch graphs for image analysis | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
Yadav et al. | Bacteria foraging fusion for face recognition across age progression | |
CN111178195A (zh) | 人脸表情识别方法、装置及计算机可读存储介质 | |
CN108764242A (zh) | 基于深层卷积神经网络的离线手写汉字体识别方法 | |
CN106529377A (zh) | 一种基于图像的年龄估计方法、装置及系统 | |
CN114445879A (zh) | 一种高精度人脸识别方法及人脸识别设备 | |
CN114332938A (zh) | 一种宠物鼻纹识别管理方法、装置、智能设备及存储介质 | |
CN116229528A (zh) | 一种活体掌静脉检测方法、装置、设备及存储介质 | |
CN116704555B (zh) | 基于姿态调整的小熊猫识别方法及系统 | |
CN108921006B (zh) | 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 | |
CN116342968B (zh) | 一种双通道人脸识别方法及装置 | |
CN111160121A (zh) | 一种基于深度学习的人像识别系统、方法及装置 | |
CN116959073A (zh) | 一种方向自适应的多姿态点云人脸识别方法及系统 | |
CN109886320A (zh) | 一种人体股骨x光片智能识读方法及系统 | |
CN111428670B (zh) | 人脸检测方法、装置、存储介质及设备 | |
CN114582014A (zh) | 一种深度图像中人体坐姿识别的方法、装置及存储介质 | |
CN114708654A (zh) | 一种将骨骼信息映射为图像的人物识别方法 | |
JP2022518036A (ja) | ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 | |
CN104346601B (zh) | 对象识别方法和设备 | |
Bauckhage et al. | Age recognition in the wild | |
CN113221799B (zh) | 一种多头部姿态人脸表情识别方法及其应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |