CN116416440A - 目标识别方法、模型训练方法、装置、介质和电子设备 - Google Patents
目标识别方法、模型训练方法、装置、介质和电子设备 Download PDFInfo
- Publication number
- CN116416440A CN116416440A CN202310067908.3A CN202310067908A CN116416440A CN 116416440 A CN116416440 A CN 116416440A CN 202310067908 A CN202310067908 A CN 202310067908A CN 116416440 A CN116416440 A CN 116416440A
- Authority
- CN
- China
- Prior art keywords
- sample
- attention
- image
- target
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000012549 training Methods 0.000 title claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 238000012545 processing Methods 0.000 claims abstract description 20
- 230000007246 mechanism Effects 0.000 claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims description 37
- 230000004927 fusion Effects 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 241000282326 Felis catus Species 0.000 description 27
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 239000003651 drinking water Substances 0.000 description 2
- 235000020188 drinking water Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000029142 excretion Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标识别方法,涉及人工智能技术领域,尤其涉及深度学习、计算机视觉和图像识别技术领域。具体实现方案为:响应于接收到目标图像,对目标图像进行目标检测,得到目标检测结果;响应于确定目标检测结果指示目标图像中存在目标对象,对目标图像进行特征提取,得到图像特征;基于注意力机制处理图像特征,得到注意力特征;以及响应于确定注意力特征与目标预设聚类特征之间的差异小于或等于预设差异阈值,根据与目标预设聚类特征对应的预设对象的信息,得到目标对象的识别结果,其中,目标预设聚类特征来自至少一个预设聚类特征。本公开还提供了一种目标识别模型的训练方法、装置、电子设备和存储介质。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、计算机视觉和图像识别等技术领域。更具体地,本公开提供了一种目标识别方法、目标识别模型的训练方法、装置、电子设备和存储介质。
背景技术
随着人工智能技术的发展,可以对图像采集设备采集图像或视频进行识别,以确定图像和视频中对象的位置和类别。
发明内容
本公开提供了一种目标识别方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种目标识别方法,该方法包括:响应于接收到目标图像,对目标图像进行目标检测,得到目标检测结果;响应于确定目标检测结果指示目标图像中存在目标对象,对目标图像进行特征提取,得到图像特征;基于注意力机制处理图像特征,得到注意力特征;以及响应于确定注意力特征与目标预设聚类特征之间的差异小于或等于预设差异阈值,根据与目标预设聚类特征对应的预设对象的信息,得到目标对象的识别结果,其中,目标预设聚类特征来自至少一个预设聚类特征。
根据本公开的另一方面,提供了一种目标识别模型的训练方法,目标识别模型包括目标检测网络、特征提取网络和注意力网络,该方法包括:将与样本对象相关的多个样本图像分别输入目标检测网络,得到多个样本检测结果,其中,多个样本图像包括至少一个第一样本图像和至少一个第二样本图像,第一样本图像中对象的类别与样本对象相同,第二样本图像中对象的类别与样本对象相异;根据多个样本检测结果各自的检测框和多个样本图像,得到多个输入图像;将多个输入图像输入特征提取网络,得到多个样本图像特征;将多个样本图像特征输入注意力网络,得到多个样本注意力特征,其中,多个样本注意力特征包括至少一个第一样本注意力特征,第一样本注意力特征对应一个第一样本图像;对至少一个第一样本注意力特征进行融合,得到第一类别特征;对多个样本注意力特征进行融合,得到样本类别融合特征;根据第一类别特征和样本类别融合特征,训练目标识别模型。
根据本公开的另一方面,提供了一种目标识别装置,该装置包括:目标检测模块,用于响应于接收到目标图像,对目标图像进行目标检测,得到目标检测结果;第一特征提取模块,用于响应于确定目标检测结果指示目标图像中存在目标对象,对目标图像进行特征提取,得到图像特征;第一处理模块,用于基于注意力机制处理图像特征,得到注意力特征;以及第一获得模块,用于响应于确定注意力特征与目标预设聚类特征之间的差异小于或等于预设差异阈值,根据与目标预设聚类特征对应的预设对象的信息,得到目标对象的识别结果,其中,目标预设聚类特征来自至少一个预设聚类特征。
根据本公开的另一方面,提供了一种目标识别模型的训练装置,目标识别模型包括目标检测网络、特征提取网络和注意力网络,该装置包括:第二获得模块,用于将与样本对象相关的多个样本图像分别输入目标检测网络,得到多个样本检测结果,其中,多个样本图像包括至少一个第一样本图像和至少一个第二样本图像,第一样本图像中对象的类别与样本对象相同,第二样本图像中对象的类别与样本对象相异;第三获得模块,用于根据多个样本检测结果各自的检测框和多个样本图像,得到多个输入图像;第四获得模块,用于将多个输入图像输入特征提取网络,得到多个样本图像特征;第五获得模块,用于将多个样本图像特征输入注意力网络,得到多个样本注意力特征,其中,多个样本注意力特征包括至少一个第一样本注意力特征,第一样本注意力特征对应一个第一样本图像;第二融合模块,用于对至少一个第一样本注意力特征进行融合,得到第一类别特征;第三融合模块,用于对多个样本注意力特征进行融合,得到样本类别融合特征;训练模块,用于根据第一类别特征和样本类别融合特征,训练目标识别模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的可以应用目标识别方法和装置的示例性系统架构示意图;
图2是根据本公开的一个实施例的目标识别方法的流程图;
图3是根据本公开的另一个实施例的目标识别方法的流程图;
图4是根据本公开的一个实施例的目标识别模型的示意图;
图5是根据本公开的另一个实施例的目标识别的训练方法的流程图;
图6是根据本公开的另一个实施例的目标识别模型的示意图;
图7是根据本公开的一个实施例的目标识别装置的框图;
图8是根据本公开的一个实施例的目标识别的训练装置的框图;以及
图9是根据本公开的一个实施例的可以应用目标识别方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
基于目标识别技术,可以从图像中识别出宠物的位置和类别。宠物可以包括猫、狗、鸟等。以多只猫为例,可以根据每只猫的身份信息(例如猫的名字、品种等),监控每只猫的进食与饮水情况,以提前发现猫是否存在异常。
在一些实施例中,可以为宠物佩戴包含射频识别芯片(Radio FrequencyIdentification,RFID)的项圈。在宠物使用自动喂食设备或自动喂水设备时,可以根据射频识别芯片来确定宠物的身份信息。然而,长期佩戴项圈会影响宠物健康。例如,在项圈较为坚韧的情况下,项圈难以解开,可以限制宠物的自由活动,甚至可能导致宠物窒息。此外,若项圈易解开,在宠物在玩闹过程中,项圈可能会掉落,导致不能识别宠物的身份。该项圈也容易发生损坏。
在一些实施例中,可以基于计算机视觉模型进行识别,得到宠物的信息。与项圈相比,计算机视觉模型与宠物之间没有直接接触,较为安全。例如,目标检测模型可以确定图像中是否存在宠物,也可以确定宠物的类别(例如猫或狗)。然而,目标检测模型难以确定宠物的身份信息。又例如,关键点检测模型可以提取宠物的脸部关键特征点。根据脸部关键特征点,可以确定宠物的身份。在可以获得宠物的正脸的情况下,关键点检测模型可以较为准确地识别宠物的身份。然而,在图像采集设备与宠物的距离较远或图像采集设备的视角较差时,关键点检测模型的准确性会大幅下降。
图1是根据本公开一个实施例的可以应用目标识别方法和装置的示例性系统架构示意图。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的目标识别方法一般可以由服务器105执行。相应地,本公开实施例所提供的目标识别装置一般可以设置于服务器105中。本公开实施例所提供的目标识别方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的目标识别装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
图2是根据本公开的一个实施例的目标识别方法的流程图。
如图2所示,该方法200可以包括操作S210至操作S240。
在操作S210,响应于接收到目标图像,对目标图像进行目标检测,得到目标检测结果。
在本公开实施例中,可以按照预设规则接收目标图像。例如,可以按照预设的时间间隔获取目标图像。又例如,也可以在宠物的自动喂食设备或自动喂水设备被触发后,获取目标图像。
在本公开实施例中,目标检测结果可以包括对象的检测框和对象的类别。例如,对象的检测框可以指示对象在目标图像中所处的位置。又例如,对象的类别可以包括宠物和非宠物。可以理解,可以利用各种目标检测网络进行目标检测。例如,目标检测网络可以是只看一次(You Look OnlyOnce,YOLO)网络
在操作S220,响应于确定目标检测结果指示目标图像中存在目标对象,对目标图像进行特征提取,得到图像特征。
在本公开实施例中,可以将宠物作为目标对象。
在本公开实施例中,可以利用各种特征提取方式进行特征提取。例如,特征提取方式可以包括卷积。
在操作S230,基于注意力机制处理图像特征,得到注意力特征。
在本公开实施例中,注意力机制可以包括多头注意力机制(Multi-HeadAttention)、全局注意力机制(Global Attention)等各种注意力机制。例如,以宠物是猫为例,在室内存在多个猫的情况下,注意力机制可以使得不同猫的特征之间的差异增大。
在操作S240,响应于确定注意力特征与目标预设聚类特征的之间的差异小于或等于预设差异阈值,根据与目标预设聚类特征对应的预设对象的信息,得到目标对象的识别结果。
在本公开实施例中,目标预设聚类特征来自至少一个预设聚类特征。预设聚类特征对应一个预设对象。例如,预设对象的类别与目标对象一致。在目标对象是猫的情况下,预设对象也可以是猫。
在本公开实施例中,可以确定注意力特征与预设聚类特征之间的距离,作为上述差异。例如,距离可以是余弦距离。
在本公开实施例中,预设对象的信息可以为预设对象的身份信息。例如,预设对象的信息可以包括预设对象的宠物名、类别等。又例如,预设聚类特征m_T与预设对象Object_T对应。在预设聚类特征m_T与目标对象的注意力特征之间的差异小于预设差异阈值的情况下,可以将预设对象m T的宠物名、类别等信息作为目标对象的识别结果。
通过本公开实施例,基于注意力机制处理了图像特征,使得不同对象的特征之间的差异增大。可以使得注意力特征更靠近同类别的预设聚类特征,有助于准确地识别出对象的身份。此外,根据图像进行了目标检测和再次识别,可以快速地进行识别。
可以理解,上文对本公开的方法进行了说明,下面将获得预设聚类特征的一些方式进行说明。
图3是根据本公开的另一个实施例的目标识别方法的流程图。
如图3所示,该方法300可以包括操作S301至操作S303。操作S301至操作S303可以在操作210之前执行。
在操作S301,对至少一个预设图像集各自的至少一个预设图像分别进行特征提取,得到至少一个预设图像特征集。
在本公开实施例中,预设图像集可以与一个预设对象对应。例如,预设图像集可以包括一个预设对象的至少一个预设图像。例如,至少一个预设对象可以包括第一预设对象和第二预设对象。第一预设对象的身份信息包括宠物名“A”和预设类别“白猫”。第二预设对象的身份信息包括宠物名“B”和预设类别“橘猫”。
在本公开实施例中,预设图像特征集包括至少一个预设图像特征。例如,预设图像特征与预设对象的一个预设图像对应。例如,至少一个预设图像特征集可以包括第一预设图像特征集和第二预设图像特征集。第一预设图像特征集对应第一预设对象。第二预设图像特征集可以对应第二预设对象。
在操作S302,基于注意力机制分别处理至少一个预设图像特征集各自的至少一个预设图像特征,得到至少一个预设注意力特征集。
在本公开实施例中,预设注意力特征集包括至少一个预设注意力特征。例如,预设注意力特征可以与一个预设图像对应。又例如,至少一个预设注意力特征集包括第一预设注意力特征集和第二预设注意力特征集。第一预设注意力特征集对应第一预设对象。第二预设注意力特征集对应第二预设对象。
在操作S303,对至少一个预设注意力特征集分别进行融合,得到至少一个预设聚类特征。
例如,可以对第一预设注意力特征集中的至少一个预设注意力特征进行聚类,得到第一预设聚类特征。可以对第二预设注意力特征集中的至少一个预设注意力特征进行聚类,得到第二预设聚类特征。
在本公开实施例中,可以根据各种方式进行聚类。例如,可以按照求平均的方式进行聚类。通过本公开实施例,基于注意力机制处理了预设图像特征,获得预设聚类特征的方式与再识别阶段获得注意力特征的方式类似,可以快速确定预设聚类特征与注意力特征之间的区别,也可以准确地进行再识别。
可以理解,上文对获得预设聚类特征的一些方式进行了说明。在本公开实施例中,可以利用目标识别模型来实现目标识别方法。下面将结合相关实施例对目标识别模型进行说明。
图4是根据本公开的一个实施例的目标识别模型的示意图。
如图4所示,目标识别模型400可以包括目标检测网络410、特征提取网络420和注意力网络430。例如,特征提取网络420可以是卷积神经网络(Convolution NeuralNetwork,CNN)。
可以将目标图像411输入目标检测网络410,得到目标检测结果。目标检测结果可以包括目标图像411中对象的检测框和类别。例如,目标图像411中对象的类别可以为“猫”。该对象可以作为目标对象。
接下来,响应于确定目标检测结果指示目标图像411中存在目标对象。可以对目标图像进行特征提取,得到图像特征。在本公开实施例中,可以根据目标检测结果的检测框,对目标图像进行裁剪,得到裁剪后的目标图像。对裁剪后的目标图像进行特征提取,得到图像特征。例如,裁剪后的目标图像可以包括检测框指示的图像区域。可以将裁剪后的目标图像输入特征提取网络420,得到图像特征。
可以将图像特征输入注意力网络430,得到注意力特征431。可以确定注意力特征431与多个预设聚类特征之间的多个距离。多个预设聚类特征可以包括预设聚类特征401、预设聚类特征402、......预设聚类特征403。例如,注意力特征431与预设聚类特征401之间的距离小于预设距离阈值。注意力特征431与预设聚类特征402、预设聚类特征403之间的距离均大于预设距离阈值。预设聚类特征401可以与第一预设对象对应。第一预设对象的身份信息可以包括宠物名“A”、类别为“白猫”。可以将第一预设对象的身份信息作为目标对象的识别结果441。
可以理解,上文对本公开的目标识别模型进行了说明,下面将对本公开的目标图像进行说明。
在一些实施例中,目标图像来自与目标对象关联的目标设备的图像采集单元。
在本公开实施例中,目标设备可以包括自动喂食设备、自动喂水设备以及自动宠物厕所。目标设备还可以包括图像采集单元。图像采集单元可以包括单目摄像头。
在本公开实施例中,可以利用方法200或目标识别模型400处理目标图像,得到识别结果。可以理解,目标设备可以执行方法200。或者,目标设备也可以部署有目标识别模型400。也可以理解,目标设备可以将目标图像发送至云端服务器。云端的服务器可以执行方法200,得到识别结果。
例如,可以在自动喂食设备上部署一个单目摄像头。利用该摄像头采集目标图像。自动喂食设备可以按照预设的时间释放宠物粮食。通过本公开实施例,可以快速确定前来食用宠物粮食的宠物的身份信息。由此,在饲养了多个宠物的情况下,可以确定每个宠物的喂食时间和每次的粮食消耗量,有助于用户制定合理的饲养方案。
例如,可以在自动喂水设备上部署一个单目摄像头。利用该摄像头采集目标图像。自动喂水设备可以按照持续地循环净化宠物饮用水。通过本公开实施例,可以快速确定前来饮水的宠物的身份信息。由此,在饲养了多个宠物的情况下,可以确定每个宠物的饮水时间,有助于用户制定合理的饲养方案。
例如,可以自动猫砂盆上部署一个单目摄像头。利用该摄像头采集目标图像。在宠物排泄之后,自动猫砂盆可以自动清理排泄物。通过本公开实施例,可以快速确定前来排泄的宠物的身份信息。由此,在饲养了多个宠物的情况下,可以确定每个宠物的排泄时间以及排泄次数,有助于用户准确发现频繁上厕所的宠物猫,及时发现宠物猫是否处于健康异常状态。
可以理解,上文对本公开的目标识别模型的推理阶段进行了说明,下面将结合相关实施例对目标识别模型的训练阶段进行说明。
图5是根据本公开的另一个实施例的目标识别模型的训练方法的流程图。
在本公开实施例中,目标识别模型包括目标检测网络、特征提取网络和注意力网络。例如,目标检测网络可以包括只看一次网络。特征提取网络可以包括卷积神经网络。注意力网络可以包括全局注意力网络。
如图5所示,该方法500包括操作S510至操作S570。
在操作S510,将与样本对象相关的多个样本图像分别输入目标检测网络,得到多个样本检测结果。
在本公开实施例中,样本检测结果可以包括样本对象的检测框和样本对象的样本类别。例如,样本对象的检测框可以指示样本对象在样本图像中所处的位置样本类别可以包括宠物和非宠物。可以理解,在样本图像的检测结果中,样本类别可以为宠物。
在本公开实施例中,多个样本图像包括至少一个第一样本图像和至少一个第二样本图像,第一样本图像中对象的类别与样本对象相同,第二样本图像中对象的类别与样本对象相异。
例如,第一样本图像也可以被称为正样本图像。第一样本图像中对象的标签类别可以为白猫。第二样本图像也可以被称为负样本图像。第二样本图像中对象的标签类别可以为橘猫。可以理解,可以对样本图像进行人工标注,得到样本图像中对象的标签类别。
在操作S520,根据多个样本检测结果各自的检测框和多个样本图像,得到多个输入图像。
在本公开实施例中,可以根据多个样本检测结果各自的检测框,分别对多个样本图像进行裁剪,得到多个裁剪后的样本图像。裁剪后的样本图像可以作为输入图像。
在操作S530,将多个输入图像输入特征提取网络,得到多个样本图像特征。
在本公开实施例中,样本图像特征可以包括至少一个第一样本图像特征和至少一个第二样本图像特征。例如,第一样本图像特征可以对应一个第一样本图像。第二样本图像特征可以对应一个第二样本图像。
在操作S540,将多个样本图像特征输入注意力网络,得到多个样本注意力特征。
在本公开实施例中,多个样本注意力特征可以包括至少一个第一样本注意力特征,第一样本注意力特征对应一个第一样本图像。
在本公开实施例中,多个样本注意力特征还可以包括至少一个第二样本注意力特征,第二样本注意力特征对应一个第二样本图像。
在操作S550,对至少一个第一样本注意力特征进行融合,得到第一类别特征。
在本公开实施例中,可以根据各种方式进行融合。例如,可以按照求平均的方式对至少一个第一样本注意力特征进行融合。
在操作S560,对多个样本注意力特征进行融合,得到样本类别融合特征。
例如,可以按照求平均的方式对多个样本注意力特征进行融合
在操作S570,根据第一融合特征和样本类别融合特征,训练目标识别模型。
例如,可以根据第一类别特征和样本类别融合特征之间的差异,来调整目标识别模型的参数。
通过本公开实施例,利用正样本和负样本进行了聚类,并训练的目标识别模型,可以有效提到模型的重识别能力,准确地提取图像的注意力特征。
可以理解,上文对目标识别模型的训练方法进行了说明,下面将结合相关实施例对获得多个样本图像的一些方式进行说明
在本公开实施例中,可以在样本场景内部署多个样本对象和图像采集单元。在预设时段内,利用图像采集单元进行视频采集,得到样本视频。对样本视频进行抽帧,得到多个样本图像。对多个样本图像分别进行标注,得到多个样本图像各自的标签。例如,样本场景可以是一个封闭的室内空间。该室内空间中放置多个猫并部署多个单目摄像头。利用单目摄像头进行视频采集并对样本视频进行抽帧(例如每秒10帧图像),得到多个样本图像。对样本图像进行人工标注,得到样本图像的标签。标签可以包括图像猫的名称以及猫的标签类别(白猫、橘猫等)。
可以理解,上文对本公开的样本图像进行了说明,下面将对目标识别模型的训练方法进行进一步说明。
图6是根据本公开的另一个实施例的目标识别模型的示意图。
如图6所示,目标识别模型600可以包括目标检测网络610、特征提取网络620和注意力网络630。
在一些实施例中,至少一个第一样本图像为多个,多个第一样本图像包括至少一个锚样本图像和至少一个正样本图像,第二样本图像为负样本图像,锚样本图像的数量、正样本图像的数量和负样本图像的数量彼此一致。
例如,可以将锚样本图像611、负样本图像612和正样本图像613分别输入目标检测网络610,得到锚样本检测结果、负样本检测结果和正样本检测结果。检测结果可以包括样本图像中对象的检测框和样本类别。又例如,锚样本图像611中样本对象的标签类别可以为“白猫”。负样本图像612中样本对象的标签类别可以为“橘猫”。正样本图像613中样本对象的标签类别可以为“白猫”。
接下来,根据到锚样本检测结果、负样本检测结果和正样本检测结果,可以分别对锚样本图像611、负样本图像612和正样本图像613进行裁剪,得到锚输入图像、负输入图像和正输入图像。裁剪后的输入图像可以包括样本检测框指示的图像区域。可以将锚输入图像、负输入图像和正输入图像分别输入特征提取网络620,得到锚样本图像特征、负样本图像特征和正样本图像特征。
在本公开实施例中,至少一个所述第一样本注意力特征为多个,多个所述第一样本注意力特征包括至少一个锚样本注意力特征和至少一个正样本注意力特征,第二样本注意力特征为负样本注意力特征,所述锚样本注意力特征对应一个锚样本图像,所述正样本注意力特征对应一个正样本图像。例如,可以将锚样本图像特征、负样本图像特征和正样本图像特征分别输入注意力网络630,得到锚样本注意力特征631、负样本注意力特征632和正样本注意力特征633。锚样本注意力特征631可以与锚样本图像611对应。正样本注意力特征633可以与正样本图像613对应。可以根据多个样本注意力特征,确定多个损失值,下面将进行进一步说明。
在本公开实施例中,可以对锚样本注意力特征631和正样本注意力特征633进行融合,得到第一类别特征。可以对锚样本注意力特征631、负样本注意力特征632和正样本注意力特征633进行融合,得到样本类别融合特征m。
在本公开实施例中,根据第一类别特征和样本类别融合特征,可以确定聚类损失。例如,根据多个第一样本注意力特征和第一类别特征,可以确定注意力聚类子损失。根据第一类别特征和样本类别融合特征,可以确定样本聚类子损失。根据注意力聚类子损失和样本聚类子损失,可以确定聚类损失651。
在本公开实施例中,可以对至少一个第二样本注意力特征进行融合,得到第二类别特征。例如,对至少一个负样本注意力特征进行融合,可以得到第二类别特征。可以理解,在负样本注意力特征为1个的情况下,可以将负样本注意力特征632作为第二类别特征。
fi可以为样本注意力特征,I个样本注意力特征可以包括类别相同的样本图像的注意力特征。k为大于或等于1且小于或等于K的整数,K为大于或等于1的整数。本实施例中,在k=1的情况下,相关样本图像中对象的标签类别可以为“白猫”,I个样本注意力特征可以包括锚样本注意力特征631和正样本注意力特征633。在k=2的情况下,相关样本图像中对象的标签类别可以为“橘猫”,I个样本注意力特征可以包括负样本注意力特征632。
mk可以为第k个类别特征,K个类别特征可以包括第一类别特征和第二类别特征。i可以为大于或等于1且小于或等于I的整数。I为大于或等于1的整数。(fi-mk)T可以为(fi-mk)的转置。
可以通过以下公式确定样本聚类子损失S(B):
m可以为样本类别融合特征。(mk-m)T可以为(mk-m)的转置。
接下来,可以通过以下公式确定聚类损失lm:
通过本公开实施例,根据样本类别特征确定了聚类损失,可以从全局的角度训练模型,可以加速模型收敛,并使得目标识别模型提取的各种特征具有更强的特征表达能力。此外,该聚类损失也可以加速模型训练,降低训练成本。
可以理解,上文对本公开的聚类损失进行了说明,本公开的多个损失还可以包括三元组损失,下面将进行进一步说明。
在本公开实施例中,可以根据多个样本注意力特征,确定三元组损失。例如,根据至少一个锚样本注意力特征和至少一个正样本注意力特征,确定至少一个第一注意力子损失。根据至少一个锚样本注意力特征和至少一个负样本注意力特征,确定至少一个第二注意力子损失。根据至少一个第一注意力子损失和至少一个第二注意力子损失,确定三元组损失(Triplet loss)652。
又例如,可以通过以下公式确定三元组损失lt:
α可以为超参。J为三元组的数量,1个锚样本图像,1个正样本图像和1个负样本图像可以作为1个三元组。J为大于或等于1的整数,j为大于或等于1且小于或等于J的整数。可以理解,在图6所示的实施例中,J=1。可以为锚样本注意力特征,/>可以为正样本注意力特征,/>可以为负样本注意力特征。/>可以为第一注意力子损失。可以为第二注意力子损失。
通过本公开实施例,确定了三元组损失,基于该损失训练的模型可以使得对象类别相同的特征更加接近,也可以使得对象类别不同的特征之间的差异更大,有助于加快模型收敛。
可以理解,上文对本公开的三元组损失进行了说明,本公开的多个损失还可以包括分类损失,下面将进行进一步说明。
在本公开实施例中,根据至少一个第一样本注意力特征,可以确定分类损失。例如,根据至少一个第一样本注意力特征进行识别,可以得到至少一个第一样本识别结果。根据至少一个第一样本图像的标签和至少一个第一样本识别结果,可以确定分类损失653。又例如,根据锚样本注意力特征,利用分类器可以得到锚样本识别结果。根据正样本注意力特征,利用分类器可以得到正样本识别结果。根据样本识别结果和标签中样本对象的标签类别,可以利用软最大损失函数(Softmax loss)确定分类损失ls。
接下来,可以根据分类损失ls、三元组损失lt中的至少一个以及聚类损失lm,确定总损失L。例如,可以通过以下公式确定总损失:
L=ls+lt+lm (公式五)
图7是根据本公开的一个实施例的目标识别装置的框图。
如图7所示,该装置700可以包括目标检测模块710、第一特征提取模块720、第一处理模块730以及第一获得模块740。
目标检测模块710,用于响应于接收到目标图像,对目标图像进行目标检测,得到目标检测结果。
第一特征提取模块720,用于响应于确定目标检测结果指示目标图像中存在目标对象,对目标图像进行特征提取,得到图像特征。
第一处理模块730,用于基于注意力机制处理图像特征,得到注意力特征。
第一获得模块740,用于响应于确定注意力特征与至少一个预设聚类特征中目标预设聚类特征的之间的差异小于或等于预设差异阈值,根据与目标预设聚类特征对应的预设对象的信息,得到目标对象的识别结果。
在一些实施例中,装置700还包括:第二特征提取模块,用于对至少一个预设图像集各自的至少一个预设图像分别进行特征提取,得到至少一个预设图像特征集。例如,预设图像集与一个预设对象对应,预设图像特征集包括至少一个预设图像特征。第二处理模块,用于基于注意力机制分别处理至少一个预设图像特征集各自的至少一个预设图像特征,得到至少一个预设注意力特征集。例如,预设注意力特征集包括至少一个预设注意力特征。第一融合模块,用于对至少一个预设注意力特征集分别进行融合,得到至少一个预设聚类特征。
在一些实施例中,第一特征提取模块包括:裁剪子模块,用于根据目标检测结果的检测框,对目标图像进行裁剪,得到裁剪后的目标图像。特征提取子模块,用于对裁剪后的目标图像进行特征提取,得到图像特征。
在一些实施例中,目标对象包括宠物。
在一些实施例中,目标图像来自与目标对象关联的目标设备的图像采集单元。
图8是根据本公开的另一个实施例的目标识别模型的训练装置的框图。
如图8所示,该装置800可以包括第二获得模块810、第三获得模块820、第四获得模块830、第五获得模块840、第二融合模块850、第三融合模块860以及训练模块870。
例如,目标识别模型包括目标检测网络、特征提取网络和注意力网络,装置包括:
第二获得模块810,用于将与样本对象相关的多个样本图像分别输入目标检测网络,得到多个样本检测结果。例如,多个样本图像包括至少一个第一样本图像和至少一个第二样本图像,第一样本图像中对象的类别与样本对象相同,第二样本图像中对象的类别与样本对象相异;
第三获得模块820,用于根据多个样本检测结果各自的检测框和多个样本图像,得到多个输入图像。
第四获得模块830,用于将多个输入图像输入特征提取网络,得到多个样本图像特征。
第五获得模块840,用于将多个样本图像特征输入注意力网络,得到多个样本注意力特征。例如,多个样本注意力特征包括至少一个第一样本注意力特征,第一样本注意力特征对应一个第一样本图像。
第二融合模块850,用于对至少一个第一样本注意力特征进行融合,得到第一类别特征。
第三融合模块860,用于对多个样本注意力特征进行融合,得到样本类别融合特征。
训练模块870,用于根据第一类别特征和样本类别融合特征,训练目标识别模型。
在一些实施例中,训练包括:确定子模块,用于根据第一类别特征和样本类别融合特征,确定聚类损失。训练子模块,用于根据聚类损失,训练目标识别模型。
在一些实施例中,确定子模块包括:第一确定单元,用于根据多个第一样本注意力特征和第一类别特征,确定注意力聚类子损失。第二确定单元,用于根据第一类别特征和样本类别融合特征,确定样本聚类子损失。第三确定单元,用于根据注意力聚类子损失和样本聚类子损失,确定聚类损失。
在一些实施例中,训练子模块包括:第四确定单元,用于根据至少一个第一样本注意力特征,确定分类损失。第五确定单元,用于根据多个样本注意力特征,确定三元组损失。第六确定单元,用于根据分类损失和三元组损失中的至少一个以及聚类损失,确定总损失。调整单元,用于调整目标识别模型的参数,使得总损失收敛。
在一些实施例中,第四确定单元包括:识别子单元,用于根据至少一个第一样本注意力特征进行识别,得到至少一个第一样本识别结果。第一确定子单元,用于根据至少一个第一样本图像的标签和至少一个第一样本识别结果,确定分类损失
在一些实施例中,至少一个第一样本图像为多个,多个第一样本图像包括至少一个锚样本图像和至少一个正样本图像,第二样本图像为负样本图像,锚样本图像的数量、正样本图像的数量和负样本图像的数量彼此一致。
在一些实施例中,至少一个第一样本注意力特征为多个,多个第一样本注意力特征包括至少一个锚样本注意力特征和至少一个正样本注意力特征,第二样本注意力特征为负样本注意力特征,锚样本注意力特征对应一个锚样本图像,正样本注意力特征对应一个正样本图像,负样本注意力特征对应一个负样本图像。
在一些实施例中,第五确定单元包括:第二确定子单元,用于根据至少一个锚样本注意力特征和至少一个正样本注意力特征,确定至少一个第一注意力子损失。第三确定子单元,用于根据至少一个锚样本注意力特征和至少一个负样本注意力特征,确定至少一个第二注意力子损失。第四确定子单元,用于根据至少一个第一注意力子损失和至少一个第二注意力子损失,确定三元组损失。
在一些实施例中,样本对象包括宠物。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如目标识别方法和/或目标识别模型的训练方法。例如,在一些实施例中,目标识别方法和/或目标识别模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的目标识别方法和/或目标识别模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标识别方法和/或目标识别模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)显示器或者LCD(液晶显示器));以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种目标识别方法,包括:
响应于接收到目标图像,对所述目标图像进行目标检测,得到目标检测结果;
响应于确定所述目标检测结果指示所述目标图像中存在目标对象,对所述目标图像进行特征提取,得到图像特征;
基于注意力机制处理所述图像特征,得到注意力特征;以及
响应于确定所述注意力特征与目标预设聚类特征之间的差异小于或等于预设差异阈值,根据与所述目标预设聚类特征对应的预设对象的信息,得到所述目标对象的识别结果,其中,所述目标预设聚类特征来自至少一个预设聚类特征。
2.根据权利要求1所述的方法,还包括:
对至少一个预设图像集各自的至少一个预设图像分别进行特征提取,得到至少一个预设图像特征集,其中,所述预设图像集与一个预设对象对应,所述预设图像特征集包括至少一个预设图像特征;
基于注意力机制分别处理至少一个所述预设图像特征集各自的至少一个预设图像特征,得到至少一个预设注意力特征集,其中,所述预设注意力特征集包括至少一个预设注意力特征;以及
对至少一个所述预设注意力特征集分别进行融合,得到至少一个所述预设聚类特征。
3.根据权利要求1所述的方法,其中,所述对所述目标图像进行特征提取,得到图像特征包括:
根据所述目标检测结果的检测框,对所述目标图像进行裁剪,得到裁剪后的目标图像;以及
对所述裁剪后的目标图像进行特征提取,得到所述图像特征。
4.根据权利要求1所述的方法,其中,所述目标对象包括宠物。
5.根据权利要求4所述的方法,其中,所述目标图像来自与所述目标对象关联的目标设备的图像采集单元。
6.一种目标识别模型的训练方法,所述目标识别模型包括目标检测网络、特征提取网络和注意力网络,所述方法包括:
将与样本对象相关的多个样本图像分别输入所述目标检测网络,得到多个样本检测结果,其中,多个所述样本图像包括至少一个第一样本图像和至少一个第二样本图像,所述第一样本图像中对象的类别与所述样本对象相同,所述第二样本图像中对象的类别与所述样本对象相异;
根据多个所述样本检测结果各自的检测框和多个所述样本图像,得到多个输入图像;
将多个所述输入图像输入所述特征提取网络,得到多个样本图像特征;
将多个所述样本图像特征输入所述注意力网络,得到多个样本注意力特征,其中,多个所述样本注意力特征包括至少一个第一样本注意力特征,所述第一样本注意力特征对应一个所述第一样本图像;
对至少一个所述第一样本注意力特征进行融合,得到第一类别特征;
对多个所述样本注意力特征进行融合,得到样本类别融合特征;以及
根据所述第一类别特征和所述样本类别融合特征,训练所述目标识别模型。
7.根据权利要求6所述的方法,其中,所述根据所述第一类别特征和所述样本类别融合特征,训练所述目标识别模型包括:
根据所述第一类别特征和所述样本类别融合特征,确定聚类损失;以及
根据所述聚类损失,训练所述目标识别模型。
8.根据权利要求7所述的方法,其中,所述根据所述第一类别特征和所述样本类别融合特征,确定聚类损失包括:
根据多个所述第一样本注意力特征和所述第一类别特征,确定注意力聚类子损失;
根据所述第一类别特征和所述样本类别融合特征,确定样本聚类子损失;以及
根据所述注意力聚类子损失和所述样本聚类子损失,确定所述聚类损失。
9.根据权利要求7所述的方法,其中,所述根据所述聚类损失,训练所述目标识别模型包括:
根据至少一个所述第一样本注意力特征,确定分类损失;
根据多个所述样本注意力特征,确定三元组损失;
根据所述分类损失和所述三元组损失中的至少一个以及所述聚类损失,确定总损失;以及
调整所述目标识别模型的参数,使得所述总损失收敛。
10.根据权利要求9所述的方法,其中,所述根据至少一个所述第一样本注意力特征,确定分类损失包括:
根据至少一个第一样本注意力特征进行识别,得到至少一个第一样本识别结果;以及
根据至少一个所述第一样本图像的标签和至少一个所述第一样本识别结果,确定所述分类损失。
11.根据权利要求9所述的方法,其中,至少一个所述第一样本图像为多个,多个所述第一样本图像包括至少一个锚样本图像和至少一个正样本图像,所述第二样本图像为负样本图像,所述锚样本图像的数量、所述正样本图像的数量和所述负样本图像的数量彼此一致,
至少一个所述第一样本注意力特征为多个,多个所述第一样本注意力特征包括至少一个锚样本注意力特征和至少一个正样本注意力特征,所述第二样本注意力特征为负样本注意力特征,所述锚样本注意力特征对应一个所述锚样本图像,所述正样本注意力特征对应一个正样本图像,所述第二样本注意力特征对应一个所述负样本图像
所述根据多个所述样本注意力特征,确定三元组损失包括:
根据至少一个所述锚样本注意力特征和至少一个所述正样本注意力特征,确定至少一个第一注意力子损失;
根据至少一个所述锚样本注意力特征和至少一个所述负样本注意力特征,确定至少一个第二注意力子损失;
根据至少一个所述第一注意力子损失和至少一个所述第二注意力子损失,确定所述三元组损失。
12.根据权利要求6所述的方法,其中,所述样本对象包括宠物。
13.一种目标识别装置,包括:
目标检测模块,用于响应于接收到目标图像,对所述目标图像进行目标检测,得到目标检测结果;
第一特征提取模块,用于响应于确定所述目标检测结果指示所述目标图像中存在目标对象,对所述目标图像进行特征提取,得到图像特征;
第一处理模块,用于基于注意力机制处理所述图像特征,得到注意力特征;以及
第一获得模块,用于响应于确定所述注意力特征与目标预设聚类特征之间的差异小于或等于预设差异阈值,根据与所述目标预设聚类特征对应的预设对象的信息,得到所述目标对象的识别结果,其中,所述目标预设聚类特征来自至少一个预设聚类特征。
14.一种目标识别模型的训练装置,所述目标识别模型包括目标检测网络、特征提取网络和注意力网络,所述装置包括:
第二获得模块,用于将与样本对象相关的多个样本图像分别输入所述目标检测网络,得到多个样本检测结果,其中,多个所述样本图像包括至少一个第一样本图像和至少一个第二样本图像,所述第一样本图像中对象的类别与所述样本对象相同,所述第二样本图像中对象的类别与所述样本对象相异;
第三获得模块,用于根据多个所述样本检测结果各自的检测框和多个所述样本图像,得到多个输入图像;
第四获得模块,用于将多个所述输入图像输入所述特征提取网络,得到多个样本图像特征;
第五获得模块,用于将多个所述样本图像特征输入所述注意力网络,得到多个样本注意力特征,其中,多个所述样本注意力特征包括至少一个第一样本注意力特征,所述第一样本注意力特征对应一个所述第一样本图像;
第二融合模块,用于对至少一个所述第一样本注意力特征进行融合,得到第一类别特征;
第三融合模块,用于对多个所述样本注意力特征进行融合,得到样本类别融合特征;以及
训练模块,用于根据所述第一类别特征和所述样本类别融合特征,训练所述目标识别模型。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至12中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至12中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310067908.3A CN116416440B (zh) | 2023-01-13 | 2023-01-13 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310067908.3A CN116416440B (zh) | 2023-01-13 | 2023-01-13 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116416440A true CN116416440A (zh) | 2023-07-11 |
CN116416440B CN116416440B (zh) | 2024-02-06 |
Family
ID=87058729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310067908.3A Active CN116416440B (zh) | 2023-01-13 | 2023-01-13 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116416440B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111666854A (zh) * | 2020-05-29 | 2020-09-15 | 武汉大学 | 融合统计显著性的高分辨率sar影像车辆目标检测方法 |
CN112926616A (zh) * | 2019-12-06 | 2021-06-08 | 顺丰科技有限公司 | 图像匹配方法和装置、电子设备、计算机可读存储介质 |
WO2021190115A1 (zh) * | 2020-03-25 | 2021-09-30 | 北京沃东天骏信息技术有限公司 | 检索目标的方法和装置 |
CN113657180A (zh) * | 2021-07-23 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种车辆识别方法、服务器和计算机可读存储介质 |
CN114037886A (zh) * | 2021-11-04 | 2022-02-11 | 重庆紫光华山智安科技有限公司 | 图像识别方法、装置、电子设备和可读存储介质 |
CN114612743A (zh) * | 2022-03-10 | 2022-06-10 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、目标对象识别方法和装置 |
WO2022161298A1 (zh) * | 2021-01-29 | 2022-08-04 | 腾讯科技(深圳)有限公司 | 信息生成方法、装置、设备、存储介质及程序产品 |
CN115063573A (zh) * | 2022-06-14 | 2022-09-16 | 湖北工业大学 | 一种基于注意力机制的多尺度目标检测方法 |
CN115482395A (zh) * | 2022-09-30 | 2022-12-16 | 北京百度网讯科技有限公司 | 模型训练方法、图像分类方法、装置、电子设备和介质 |
US20220415027A1 (en) * | 2021-06-29 | 2022-12-29 | Shandong Jianzhu University | Method for re-recognizing object image based on multi-feature information capture and correlation analysis |
-
2023
- 2023-01-13 CN CN202310067908.3A patent/CN116416440B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926616A (zh) * | 2019-12-06 | 2021-06-08 | 顺丰科技有限公司 | 图像匹配方法和装置、电子设备、计算机可读存储介质 |
WO2021190115A1 (zh) * | 2020-03-25 | 2021-09-30 | 北京沃东天骏信息技术有限公司 | 检索目标的方法和装置 |
CN111666854A (zh) * | 2020-05-29 | 2020-09-15 | 武汉大学 | 融合统计显著性的高分辨率sar影像车辆目标检测方法 |
WO2022161298A1 (zh) * | 2021-01-29 | 2022-08-04 | 腾讯科技(深圳)有限公司 | 信息生成方法、装置、设备、存储介质及程序产品 |
US20220415027A1 (en) * | 2021-06-29 | 2022-12-29 | Shandong Jianzhu University | Method for re-recognizing object image based on multi-feature information capture and correlation analysis |
CN113657180A (zh) * | 2021-07-23 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种车辆识别方法、服务器和计算机可读存储介质 |
CN114037886A (zh) * | 2021-11-04 | 2022-02-11 | 重庆紫光华山智安科技有限公司 | 图像识别方法、装置、电子设备和可读存储介质 |
CN114612743A (zh) * | 2022-03-10 | 2022-06-10 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、目标对象识别方法和装置 |
CN115063573A (zh) * | 2022-06-14 | 2022-09-16 | 湖北工业大学 | 一种基于注意力机制的多尺度目标检测方法 |
CN115482395A (zh) * | 2022-09-30 | 2022-12-16 | 北京百度网讯科技有限公司 | 模型训练方法、图像分类方法、装置、电子设备和介质 |
Non-Patent Citations (2)
Title |
---|
XIANG LONG等: "Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification", 《ARXIV:1711.09550V1》, pages 1 - 11 * |
刘玉杰;王文亚;李宗民;李华;: "结合注意力机制的跨域服装检索", 计算机辅助设计与图形学学报, vol. 32, no. 06, pages 894 - 902 * |
Also Published As
Publication number | Publication date |
---|---|
CN116416440B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022033150A1 (zh) | 图像识别方法、装置、电子设备及存储介质 | |
US11182594B2 (en) | Face image retrieval methods and systems, photographing apparatuses, and computer storage media | |
CN111860506B (zh) | 识别文字的方法和装置 | |
WO2021217934A1 (zh) | 监控牲畜数量的方法、装置、计算机设备及存储介质 | |
US9852158B2 (en) | Dynamic adaptation of feature identification and annotation | |
US20210365343A1 (en) | Artificial Intelligence (AI)-Based Cloud Computing Safety Monitoring System | |
CN106934337B (zh) | 用于操作图像检测装置的方法和计算机可读存储介质 | |
CN112418327B (zh) | 图像分类模型的训练方法、装置、电子设备以及存储介质 | |
EP3249610B1 (en) | A method, an apparatus and a computer program product for video object segmentation | |
CN112580657B (zh) | 一种自学习字符识别方法 | |
JP6787831B2 (ja) | 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法 | |
CN113705716B (zh) | 图像识别模型训练方法、设备、云控平台及自动驾驶车辆 | |
CN113657249B (zh) | 训练方法、预测方法、装置、电子设备以及存储介质 | |
CN114898266B (zh) | 训练方法、图像处理方法、装置、电子设备以及存储介质 | |
CN113177566A (zh) | 一种特征提取模型训练方法、装置及计算机设备 | |
CN113947701B (zh) | 训练方法、对象识别方法、装置、电子设备以及存储介质 | |
CN113360693B (zh) | 确定图像标签的方法及其装置、电子设备以及存储介质 | |
US8498978B2 (en) | Slideshow video file detection | |
CN112906810B (zh) | 目标检测方法、电子设备和存储介质 | |
CN116416440B (zh) | 目标识别方法、模型训练方法、装置、介质和电子设备 | |
CN115909357A (zh) | 基于人工智能的目标识别方法、模型训练方法和装置 | |
CN113255484B (zh) | 视频匹配方法、视频处理方法、装置、电子设备及介质 | |
CN114120410A (zh) | 用于生成标签信息的方法、装置、设备、介质和产品 | |
CN114330542A (zh) | 一种基于目标检测的样本挖掘方法、装置及存储介质 | |
CN112001884A (zh) | 数量统计模型的训练方法、计数方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |