CN114549968A - 目标检测方法、装置以及电子设备 - Google Patents

目标检测方法、装置以及电子设备 Download PDF

Info

Publication number
CN114549968A
CN114549968A CN202210028805.1A CN202210028805A CN114549968A CN 114549968 A CN114549968 A CN 114549968A CN 202210028805 A CN202210028805 A CN 202210028805A CN 114549968 A CN114549968 A CN 114549968A
Authority
CN
China
Prior art keywords
target
target object
image
detection
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210028805.1A
Other languages
English (en)
Inventor
王丹丹
周坚灿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lumi United Technology Co Ltd
Original Assignee
Lumi United Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lumi United Technology Co Ltd filed Critical Lumi United Technology Co Ltd
Priority to CN202210028805.1A priority Critical patent/CN114549968A/zh
Publication of CN114549968A publication Critical patent/CN114549968A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种目标检测方法、装置以及电子设备。所述方法包括:获取目标区域下的待检测图像;对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果;根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。

Description

目标检测方法、装置以及电子设备
技术领域
本申请涉及智能家居技术领域,更具体地,涉及一种目标检测方法、装置以及电子设备。
背景技术
随着物联网行业与人工智能技术的发展,目标检测算法在实际生活中得到广泛应用,例如:可以通过目标检测算法自动识别出当前场景下是否存在目标物并对目标物进行定位,同时,还可以对目标检测算法的识别结果进行后续处理,示例性的,在智能家居场景中,可以将智能家具作为目标物,通过目标检测算法自动识别出图像中是否包括有智能家具,并且在包括有智能家具的情况下,可以再对所识别出的智能家具进行分类处理,以便根据该分类处理实现不同的应用。
但是,该后续处理过程还存在不能较为准确执行的问题。
发明内容
鉴于上述问题,本申请提出了一种目标检测方法、装置以及电子设备,以实现改善上述问题。
第一方面,本申请提供了一种目标检测方法,所述方法包括:获取目标区域下的待检测图像;对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果;根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
第二方面,本申请提供了一种目标检测装置,所述装置包括:待检测图像获取单元,用于获取目标区域下的待检测图像;识别结果获取单元,用于对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果;装配检测结果获取单元,用于根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
作为一种方式,所述识别结果包括目标物的完整度,装配检测结果获取单元具体用于若所述目标物的完整度满足完整度阈值,则基于所述目标物的位置信息从所述待检测图像中提取出包含所述目标物的区域的局部图像;对所述局部图像中的目标物进行分类识别,得到所述目标物对应的目标物类别;根据所述目标物类别和所述识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
作为另一种方式,装配检测结果获取单元具体用于若所述装配检测结果表征所述目标物适配目标装配对象,则获取与所述目标物类别相匹配的针对所述目标装配对象的装配方案;将所述装配方案推送至目标终端。
其中,所述待检测图像中目标物的识别结果,通过已训练的目标检测模型进行检测得到,所述目标检测模型通过模型训练单元得到;所述模型训练单元用于获取样本图像和对应的样本标签;所述样本标签包括所述样本图像中目标物标签和位置标签;通过待训练的初始检测模型对所述样本图像进行目标检测,得到所述样本图像中目标物对应的样本位置检测结果;通过所述初始检测模型中的目标识别网络对所述样本图像中的目标物进行识别,得到所述样本图像中目标物对应的样本物体识别结果;基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
作为一种方式,所述目标物标签包括目标完整度软标签,模型训练单元具体用于基于所述样本物体识别结果与所述目标完整度软标签之间的差异,确定目标识别损失;基于所述位置检测结果和所述位置标签确定位置损失;基于所述目标识别损失以及所述位置损失,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
其中,可选的,所述样本标签包括目标物标签,模型训练单元具体用于通过所述初始检测模型中的位置检测网络,检测所述样本图像中目标物的位置,得到样本位置检测结果;基于所述样本位置检测结果中的坐标,与所述位置标签中的坐标之间的坐标差异,确定检测框位置损失;基于所述样本位置检测结果中的目标物区域,与所述位置标签中的目标物区域之间的重合度差异,确定重合度损失。
可选的,基于所述目标物检测框的中心点坐标、长度和宽度确定所述样本位置检测结果中所述目标物对应的各顶点坐标,以及基于所述各顶点坐标确定所述样本位置检测结果中的目标物区域;基于所述样本位置检测结果中所述目标物对应的各顶点坐标,与所述位置标签中目标物的各顶点坐标之间的坐标差异,确定所述检测框位置损失。
第三方面,本申请提供了一种电子设备,包括一个或多个处理器以及存储器;一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述的方法。
第四方面,本申请提供的一种计算机可读存储介质,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码运行时执行上述的方法。
本申请提供的一种目标检测方法、装置、电子设备以及存储介质,在获取目标区域下的待检测图像后,对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果,根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请提出的一种目标检测方法的应用环境的示意图;
图2示出了本申请提出的一种目标检测方法的应用场景的示意图;
图3示出了本申请实施例提出的一种目标检测方法的流程图;
图4示出了本申请另一实施例提出的一种目标检测方法的流程图;
图5示出了本申请提出的一种待训练的初始检测模型的网络结构示意图;
图6示出了本申请提出的一种待检测图像中位置信息对应区域与位置标签对应区域的重合情况的示意图;
图7示出了本申请再一实施例提出的一种目标检测方法的流程图;
图8示出了本申请提出的一种端到端网络模型的网络结构示意图;
图9示出了本申请提出的一种目标检测方法实际应用的流程图;
图10示出了本申请实施例提出的一种目标检测装置的结构框图;
图11示出了本申请提出的一种电子设备的结构框图;
图12是本申请实施例的用于保存或者携带实现根据本申请实施例的目标检测方法的程序代码的存储单元。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
随着物联网行业与人工智能技术的发展,目标检测算法在实际生活中得到广泛应用,例如:可以通过目标检测算法自动识别出当前场景下是否存在目标物并对目标物进行定位,同时,还可以对目标检测算法的识别结果进行后续处理,示例性的,在智能家居场景中,可以将智能家具作为目标物,通过目标检测算法自动识别出图像中是否包括有智能家具,并且在包括有智能家具的情况下,可以再对所识别出的智能家具进行分类处理,以便根据该分类处理实现不同的应用。
但是,发明人在对相关研究中发现,该后续处理过程还存在不能较为准确执行的问题。
因此,发明人提出了本申请中的一种目标检测方法、装置以及电子设备,在获取目标区域下的待检测图像后,对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果,根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。
请参照图1,为本申请实施例的一种应用环境示意图。其中,图1提供了一种目标检测系统10,该目标检测系统包括网关100、与网关100连接的图像采集设备200、与网关100连接的服务器300以及与服务器300连接的终端设备400。其中,网关100可以为智能家居控制的智能网关,可以实现系统数据采集、数据传输、联动控制等功能。网关100还可以通过无线方式与服务器和智能交互终端等产品进行信息交互。
图像采集设备200可以包括设置在相应场景空间下的摄像头或具备摄像头功能的电子设备等。网关100与图像采集设备200可以通过蓝牙、WiFi(Wireless-Fidelity,无线保真)、ZigBee(紫蜂技术等通信方式连接),在本申请实施例中网关100与图像采集设备200的连接方式不作限定。
服务器300可以是本地服务器、云服务器等服务器,具体的服务器类型在本申请实施例中可以不作为限定。设置于不同的空间区域的图像采集设备200以及网关100都可以通过网络与同一个服务器300进行通信连接。
终端设备400可以包括个人电脑(personal computer,PC)、平板电脑、智能手机、个人数字助理(personal digital assistant,PDA)、智能面板等,在此不做限定。
在一些实施例中,可以通过图像采集设备200中的采集目标区域下的待检测图像,然后将采集的待检测图像上传至网关100或服务器300,网关100或服务器300则分别对目标区域下的待检测图像进行目标检测,得到待检测图像中目标物的识别结果,再根据目标物的识别结果,确定针对所述目标区域下的目标物的装配检测结果。
为了更好地理解本申请实施例的方案,下面先对本申请实施例提供的目标检测方法的一种应用场景进行介绍。
如图2所示,在图2所示的场景中包括有智能家居设备(摄像头等)、窗户等,用户可以通过带有摄像头功能的终端设备对窗户进行拍照,并将拍摄好的图像通过用户终端设备上传至网关或服务器,网关或服务器可以通过本申请提供的目标检测方法确定图像中是否包括有窗户,在确定有窗户的情况下输出目标物的完整程度,进而为窗户的分类处理步骤提供了更多的参考依据,并在执行分类处理步骤之后将分类结果以及安装建议发送至用户终端。
需要说明的是,除了网关和服务器以外,用户终端设备也可以执行本申请提供的目标检测方法。并且,在一些实施方式中,用户还可以通过用户终端控制场景中的摄像头设备对窗户进行拍照,并将拍摄好的图像上传至网关、服务器或者用户终端,以便于网关、服务器、用户终端执行本申请实施例提供的目标检测方法。
下面将结合附图对本申请的实施例进行介绍
请参阅图3,本申请提供的一种目标检测方法,所述方法包括:
S110:获取目标区域下的待检测图像。
其中,目标区域,是指需要进行目标检测的真实空间区域,具体可以是进行目标检测所能够覆盖的场景区域,例如,智能家居场景下的室内区域、客厅区域、卧室区域等等。待检测图像,是指需要进行目标检测的图像,具体可以是检测待检测图像中是否存在目标物。
作为一种方式,可以接收用户终端发送的待检测图像。示例性的,用户可以通过用户终端设备对需要进行检测的物体拍照,并将拍好的照片上传至网关或者服务器,使得网关或者服务器可以获取到待检测图像。
作为另一种方式,用户可以通过用户终端设备控制当前场景下的图像采集设备(例如:摄像头等)对需要进行检测的物体拍照,并将拍好的照片上传至网关或者服务器,使得网关或者服务器可以获取到待检测图像。
S120:对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果。
其中,目标检测,是指一种基于目标几何和统计特征的图像分割,具体可以是从一幅场景(图像)中找出目标的方法,主要包括检测和识别两个过程,例如,在智能家居场景下检测和识别出窗户、门等。目标物,是指目标检测的目标,具体可以是在目标检测所能够覆盖的场景区域下的目标,目标物可以为智能家具,例如:窗户、门等。目标物的识别结果可以包括目标物的完整度、待检测图像中是否包含目标物。
作为一种方式,待检测图像中目标物的识别结果,可以通过已训练的目标检测模型进行检测得到,其中,还可以通过目标检测模型得到待检测图像中目标物的位置信息。
其中,为了更好地表示目标物的完整程度,可以将待检测图中目标物识别结果的取值范围设置在0~1之间,待检测图像中目标物越完整,则待检测图像中目标物的识别结果越接近1。待检测图像中目标物的位置信息可以为目标物对应的检测框的中心点坐标、长度和宽度,示例性的,目标物的位置信息可以为(Xo,Yo,Wo,Ho),其中,(Xo,Yo)可以表示目标检测框的中心点坐标,也就是目标检测框的两条对角线的交点,Wo可以表示目标检测框的宽度,Ho可以表示目标检测框的长度。
需要说明的是,在将待检测图像输入目标检测模型之前,还可以对该待检测图像进行图像预处理,以将经过预处理后的图像输入目标检测模型。示例性的,可以将待检测图像的尺寸调整至224×224,再对该待检测图像中的每一个像素点乘以1/256,从而使得图像中的每一个像素点的值在0~1之间,通过对图像进行预处理,可以加快目标检测模型的计算速度以及计算精度,从而得到更准确的检测结果。
通过上述方式使得,目标物识别结果不仅可以表征待检测图像中是否包括有目标物,还可以在有目标物的情况下表征目标物的完整程度,进而为目标物的后续处理步骤提供了更多的参考依据(完整程度),有利于后续该后续处理步骤更为准确的执行。
S130:根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
其中,装配检测结果是指目标物与目标装配对象的匹配结果,例如:在智能家居场景下,当目标物为窗户时,目标装配对象可以为智能窗帘,装配检测结果可以表示该窗户是否适合安装智能窗帘。
作为一种方式,若目标物的识别结果中的完整度满足完整度阈值,则可以基于目标物的位置信息从待检测图像中提取出包含目标物的区域的局部图像;对局部图像中的目标物进行分类识别,得到目标物对应的目标物类别;再根据目标物类别和识别结果,确定针对目标区域下的目标物的装配检测结果。
其中,可选的,可以通过分类模型对局部图像中的目标物进行分类识别,以得到目标物对应的目标物类别。分类模型可以为VGG16、ResNet、MobileNet等分类网络,在本申请实施例中,对待训练分类模型的网络结构不作限定。示例性的,若目标物为窗户,则可以将局部图像输入分类模型中,以得到局部图像中的窗户的类型(例如:为直窗还是L型窗或者是拱形窗、异型窗等)。
可选的,在得到目标物类别后,可以基于目标物类别自身的特性确定针对目标区域下的目标物的装配检测结果。示例性的,当目标物为窗户时,它的类别可以为直窗、L型窗、拱形窗、异型窗等,其中,异型窗、拱形窗等由于形状限制,可能不太方便铺设智能窗帘电轨,从而不具备安装智能窗帘的条件,因此,上述类别的窗户对应的装配检测结果为目标物不适配目标装配对象,即该窗户不适合安装智能窗帘;而直窗等的形状较为规则,可以铺设智能窗帘电轨,因此,直窗等窗户对应的装配检测结果为目标物适配目标装配对象,即该窗户适合安装智能窗帘。
可选的,若装配检测结果表征目标物适配目标装配对象,则获取与目标物类别相匹配的针对目标装配对象的装配方案;将装配方案推送至目标终端。其中,目标终端是指目标区域下绑定的终端,具体可以是用户终端。
示例性的,当分类模型输出目标物为直窗时,该窗户的装配检测结果为目标物适配目标装配对象,即可以安装智能窗帘,此时,服务器或者网关可以将窗户可以安装智能窗帘以及对应的安装方法(图片、文字、视频等)发送至用户终端,以引导用户安装智能窗帘。
通过上述方式使得,可以将待检测图像中目标物的完整度与完整度阈值进行比较,当待检测图像中目标物的完整度大于或等于完整度阈值时,可以表征待检测图像中包含完整的目标物,可以将完整的目标物对应的目标图像输入分类模型以得到目标物对应的装配方案,还可以将装配方案发送至用户终端以便于用户基于得到的装配方案执行后续操作,提高了用户体验。
作为另一种方式,若目标物的完整度小于完整度阈值,可以表征待检测图像中包含的目标物不完整或者不包含目标物,此时,服务器或者网关可以向用户终端发送提示信息系,该提示信息可以用于提示用户该待检测图像中无目标物或目标物不完整,还可以用于提示用户重新执行拍照上传的操作。
可选的,可以基于分类模型对目标物的类别分辨能力确定完整度阈值,示例性的,若分类模型对目标物的类别分辨能力较强,对于不完整的目标物基本可以实现正确分类,则可以将完整度阈值设置为A(例如0.5);若分类模型对目标物的类别分辨能力较弱,对于不完整的目标物基本无法实现正确分类,则可以将完整度阈值设置为B,其中A<B。在本申请实施例中,当目标物的完整程度大于或等于完整度阈值时,可以表征待检测图像中包含完整的目标物。
本实施例提供的一种目标检测方法,在获取目标区域下的待检测图像后,对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果,根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。
请参阅图4,本申请提供的一种目标检测方法,所述方法包括:
S210:获取样本图像和对应的样本标签,所述样本标签包括所述样本图像中目标物标签和位置标签。
其中,样本图像可以为多个,每一个样本图像为含有目标物的图像。目标物可以为智能家具,例如:窗户、门等。在样本图像中,目标物可以占据所在图像的大部分图像空间,也就是说样本图像的主体为目标物。作为一种方式,可以通过相机、摄像头或者具有拍摄功能的电子设备对多个包含目标物的场景进行拍摄以得到多个含有目标物的图像。
其中,目标物标签可以包括目标完整度软标签,目标完整度软标签是指基于样本图像中目标物的完整度设置的软标签,具体可以包括0、0.5、1,其中,将不包含目标物的样本图像的软标签设置为0,将包含不完整目标物的样本图像的软标签设置为0.5,将包含完整目标物的样本图像的标签设置为1。位置标签是指可以表明目标物在样本图像中位置的标签,具体可以为图像中仅包含目标物区域的中心点坐标以及该区域的长度和宽度,该区域也可以被称为目标区域,示例性的,图像中的目标区域可以为矩形框,该区域的中心点坐标可以为该矩形框的两条对角线的交点,可以设置该区域的中心点坐标为(X,Y)、该区域的宽度为W、该区域的高度为H,则该目标物的位置标签可以为(X,Y,W,H)。
作为一种方式,可以通过人工标注的方式对每一个样本图像设置对应的样本标签,并将每一个样本图像以及样本标签按照一一对应的关系进行存储以便后续任务可以直接获取标注好的样本图像,示例性的,可以将每一个样本图像对应的样本标签存储成数组的形式,例如:{图像1:软标签1、位置标签1},{图像2:软标签2、位置标签2}等。可选的,本申请实施例中的获取每一个样本图像对应的样本标签,可以理解为读取预先存储的每一个样本图像对应的样本标签。
S220:通过待训练的初始检测模型对所述样本图像进行目标检测,得到所述样本图像中目标物对应的样本位置检测结果。
其中,作为一种方式,可以先将多个样本图像的尺寸调整为相同尺寸,得到多个调整后的图像,再将多个调整后的图像进行归一化处理,得到多个归一化后的图像;通过待训练的初始检测模型对多个归一化后的图像进行目标检测,以得到样本图像中目标物对应的样本位置检测结果。
示例性的,可以将多个样本图像的尺寸调整至224×224,再对每一个图像中的每一个像素点乘以1/256,从而使得图像中的每一个像素点的值在0~1之间。通过对图像进行预处理的方式,可以使所有样本图像的尺寸相同,从而可以降低待训练的初始检测模型对样本图像进行特征提取的难度,同时,将样本图像进行归一化处理可以提高待训练的初始检测模型通过梯度下降算法求得最优解的速度,也就是说可以加快模型的收敛速度,并且对样本图像进行归一化处理还可以提高模型的准确率。
在本申请实施例中,如图5所示,待训练的初始检测模型可以包括特征提取网络、目标识别网络、位置检测网络,其中,目标识别网络可以包括特征提取网络和全连接层1;位置检测网络可以包括特征提取网络和全连接层2,特征提取网络可以用于提取样本图像的特征,目标识别网络可以用于输出样本图像中目标物的完整程度,位置检测网络可以用于输出样本图像中目标物对应的样本位置检测结果。
其中,特征提取网络的网络结构可以与ResNet(Residual Network,残差网络)、MobileNet等网络中特征提取部分的网络结构相同,本申请对于特征提取网络的具体结构不作限定。作为一种方式,可以将多个样本图像随机分成多组图像(min-batch),依次将每组图像输入特征提取网络中进行训练,输出每一个图像对应的特征。示例性的,可以将多个样本图像按照32个图像或64个图像为一组的方式随机分成多组,依次将每组图像输入特征提取网络中进行特征提取。
作为一种方式,可以将特征提取网络输出的图像特征输入如图5所示的位置检测网络中,通过全连接层2可以输出一个1×4的向量,该向量可以表示样本图像中目标物对应的样本位置检测结果,该样本位置检测结果可以对应于一个目标检测框(Bounding Box,BBox)。示例性的,目标物对应的样本位置检测结果可以为(center_x,center_y,w,h),其中,(center_x,center_y)可以表示目标检测框的中心点坐标,也就是目标检测框的两条对角线的交点,w可以表示目标检测框的宽度,h可以表示目标检测框的长度。
需要说明的是,可以根据实际需求在特征提取网络与全连接层1之间、特征提取网络与全连接层2之间添加其它的网络结构(例如:卷积层、池化层等),从而使得检测模型的输出更为准确。
S230:通过所述初始检测模型中的目标识别网络对所述样本图像中的目标物进行识别,得到所述样本图像中目标物对应的样本物体识别结果。
其中,作为一种方式,可以将步骤S220中经过归一化处理的样本图像输入图5所示的初始检测模型中的目标识别网络对样本图像中的目标物进行识别,得到样本图像中目标物对应的样本物体识别结果。
在本申请实施例中,样本物体识别结果可以包括样本图像中目标物的完整程度,目标物的完整程度越高表示目标物越完整。作为一种方式,可以将特征提取网络输出的图像特征输入图5所示的目标识别网络中,通过全连接层1可以输出一个1×1的向量,该向量可以表示检测物的完整程度,其中,为了更好地表示待检测物的完整程度,可以通过在全连接层1后面增加一个sigmoid函数将目标识别网络的输出控制在0~1的范围内。
S240:基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
其中,作为一种方式,可以基于样本物体识别结果与目标完整度软标签之间的差异,确定目标识别损失;基于位置检测结果和位置标签确定位置损失;基于目标识别损失以及位置损失,调整初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
可选的,可以基于样本物体识别结果与目标完整度软标签之间的差异,确定目标识别损失,包括:可以将样本图像中目标物的完整程度与对应的目标完整软标签输入目标识别损失函数中进行计算,以得到目标识别损失的损失值。
其中,目标识别损失的值越小,表明目标识别网络输出的目标物的完整程度与对应的目标完整度软标签越接近,也就是说目标识别网络的准确率更高。在本申请实施例中,目标识别损失的计算公式可以为:
Figure BDA0003465548070000121
其中,loss1表示目标损失,具体可以是图像对应的目标物的完整度与图像对应的目标完整度软标签之间的差异损失;N可以表示一个min-batch中图像的数量;ln=-[yn·logxn+(1-yn)·log(1-xn)]可以表示一个min-batch中每一个图像对应的二值交叉熵损失,在ln的表达式中,yn可以表示图像对应的目标完整度软标签,xn可以表示图像对应的目标物的完整程度。
可选的,位置损失包括检测框位置损失和重合度损失,基于位置检测结果和位置标签确定位置损失,包括:通过所述初始检测模型中的位置检测网络,检测样本图像中目标物的位置,得到样本位置检测结果;基于样本位置检测结果中的坐标,与位置标签中的坐标之间的坐标差异,确定检测框位置损失;基于样本位置检测结果中的目标物区域,与位置标签中的目标物区域之间的重合度差异,确定重合度损失。
其中,样本位置检测结果包括目标物检测框的中心点坐标、长度和宽度,位置标签包括所述目标物的中心点坐标、长度和宽度。
作为一种方式,基于目标物检测框的中心点坐标、长度和宽度确定样本位置检测结果中目标物对应的各顶点坐标,以及基于上述各顶点坐标确定样本位置检测结果中的目标物区域。
可选的,可以基于目标物检测框的中心点坐标、长度和宽度,得到样本位置检测结果对应的四个顶点坐标,再基于上述四个顶点坐标确定样本位置检测结果对应的区域。同样,也可以基于位置标签的中心点坐标、长度和宽度,得到位置标签对应的四个顶点坐标,再基于四个顶点坐标确定的位置标签对应的区域。
其中,由中心点坐标、长度和宽度计算四个顶点坐标的方式如下:可以先将中心点坐标的横轴坐标与宽度的1/2相减以及中心点坐标的纵轴坐标与长度的1/2相减,得到第一顶点坐标;再将中心点坐标的横轴坐标与宽度的1/2相减以及中心点坐标的纵轴坐标与长度的1/2相加,得到第二顶点坐标;然后将中心点坐标的横轴坐标与宽度的1/2相加以及中心点坐标的纵轴坐标与所述长度的1/2相减,得到第三顶点坐标;再将中心点坐标的横轴坐标与宽度的1/2相加以及中心点坐标的纵轴坐标与长度的1/2相加,得到第四顶点坐标;通过上述方式使得可以基于第一顶点坐标、第二顶点坐标、第三顶点坐标和第四顶点坐标,确定样本位置检测结果和位置标签对应的区域。
例如:样本位置检测结果为(center_x,center_y,w,h),则样本位置检测结果对应的四个顶点坐标可以为:(center_x-1/2w,center_y-1/2h)、(center_x-1/2w,center_y+1/2h)、(center_x+1/2w,center_y-1/2h)、(center_x+1/2w,center_y+1/2h),根据样本位置检测结果对应的四个顶点坐标可以确定一个矩形区域并将该区域作为样本位置检测结果对应的区域。再例如:位置标签(X,Y,W,H),则位置标签对应的四个顶点坐标可以为:(X-1/2W,Y-1/2H)、(X-1/2W,Y+1/2H)、(X+1/2W,Y-1/2H)、(X+1/2W,Y+1/2H),根据位置标签对应的四个顶点坐标可以确定一个矩形区域并将该区域作为位置标签对应的区域。
作为一种方式,可以基于样本位置检测结果中目标物对应的各顶点坐标,与位置标签中目标物的各顶点坐标之间的坐标差异,确定检测框位置损失。
可选的,可以基于样本位置检测结果对应的四个顶点坐标以及位置标签对应的四个顶点坐标可以得到检测框位置损失函数的损失值。其中,检测框位置损失函数的计算公式可以为:
Figure BDA0003465548070000131
其中,loss2表示检测框位置损失,具体可以是样本位置检测结果中目标物的位置与位置标签之间的位置差异损失;N可以表示一个min-batch中图像的数量,li可以表示位置信息对应的第i个顶点坐标与位置标签对应的第i个顶点坐标之间的距离,这个距离可以是曼哈顿距离、欧式距离等,示例性的,当计算的是两个顶点坐标间的欧氏距离时,
Figure BDA0003465548070000132
在对检测框位置损失函数进行计算时,可以先得到一个min-batch中每一个图像的位置信息与位置标签各自对应的四个顶点的距离,再将四个顶点距离相加得到每一个图像的距离,再将一个min-batch中所有图像的距离相加后除以该min-batch中图像的数量,得到该min-batch的平均距离,也就是检测框位置损失函数的损失值。
作为一种方式,可以基于样本位置检测结果中的目标物区域,与位置标签中的目标物区域之间的重合度差异,确定重合度损失。其中,重合度损失的计算公式可以为:
loss3=-ln(IoU)
其中,loss3表示目标物重合度损失,具体可以是样本位置检测结果中的目标物区域与位置标签中目标物区域之间的重合度差异损失;
Figure BDA0003465548070000141
它可以表示样本位置检测结果和位置标签各自对应的区域的交集(intersection)与样本位置检测结果和位置标签各自对应的区域的并集(union)的比值关系,可以根据样本位置检测结果和位置标签各自对应的四个顶点坐标计算上述两个区域之间的交集和并集。示例性的,如图6所示,样本位置检测结果对应的区域左上角顶点坐标为(x1,y1)、右下角顶点坐标为(x2,y2),位置标签对应的区域左上角顶点坐标为(X1,Y1)、右下角顶点坐标为(X2,Y2),则相交区域(交集)的左上角坐标为:X1=max(x1,X1)、Y1=max(y1,Y1),相交区域(交集)的右下角坐标为:X2=min(x2,X2)、Y2=min(y2,Y2),则交集的面积为:
intersection=max(X2-X1+1.0,0)*max(Y2-Y1+1.0,0);
其中,加1.0的目的可以排除两个区域之间重叠的像素对面积的影响,通过max函数可以避免出现负数。在计算出交集之后,可以根据样本位置检测结果和位置标签各自对应的长度和宽度可以计算出样本位置检测结果对应的区域面积S1和位置标签对应的区域面积S2,进而通过公式union=S1+S2-intersection可以得到上述两个区域之间的并集,从而得到IoU的值。
需要说明的是,待训练的初始检测模型最终的损失函数的公式可以为:
LOSS=a*loss1+b*loss2+c*loss3;
其中,a、b、c分别表示loss1、loss2、loss3对应的权重参数,a、b、c之和为1;a、b、c对应的取值具体可以通过试验测试获得。通过LOSS调整初始检测模型的模型参数(如:权重等)并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。其中,目标训练条件可以包括初始检测模型收敛、LOSS达到目标值、训练轮数达到预设轮数,检测精度达到目标精度等中的任意一项。
通过上述方式使得,可以基于目标识别损失、检测框位置损失函数和重合度损失对待训练的初始检测模型进行训练,以得到训练完成的目标检测模型,可以使得目标检测模型的输出更为准确。
S250:获取目标区域下的待检测图像。
S260:对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果。
S270:根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
本实施例提供的一种目标检测方法,通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。并且,在本实施例中,可以通过待训练的初始检测模型对样本图像进行目标检测,并在得到样本图像中目标物对应的样本物体识别结果和样本位置检测结果后,可以基于样本物体识别结果中目标物完整度与目标完整度软标签得到目标识别损失,以及基于样本位置检测结果和位置标签得到位置损失,再通过目标识别损失和位置损失对初始检测模型进行训练,以得到目标检测模型,使得目标检测模型不仅可以检测输入到模型中的图像是否包括有目标物,还可以在有目标物的情况下输出目标物的完整程度,进而为目标物的装配检测结果提供了更多的参考依据,有利于得到更为准确的装配检测结果。
请参阅图7,本申请提供的一种目标检测方法,所述方法包括:
S310:获取样本图像和对应的样本标签;所述样本标签包括所述样本图像中目标物标签和位置标签。
S320:通过待训练的初始检测模型对所述样本图像进行目标检测,得到所述样本图像中目标物对应的样本位置检测结果。
S330通过所述初始检测模型中的目标识别网络对所述样本图像中的目标物进行识别,得到所述样本图像中目标物对应的样本物体识别结果。
S340:基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
S350:获取分类模型数据集。
其中,作为一种方式,可以获取样本图像中含有完整目标物的图像作为初始图像,并获取初始图像各自对应的位置标签和类别标签,再基于位置标签从初始图像中提取出所包含的待检测物图像,以将所提取出的待检测物图像作为分类模型数据集。其中,分类模型数据集所对应的类别标签可以为根据待检测物的形态特征所确定的标签,示例性的,当待检测物为窗户时,可以基于窗户外形的不同(直窗、L型窗、拱形窗、异型窗等)将类别标签设置为0、1、2等。
作为另一种方式,可以通过相机、摄像头或者具有拍摄功能的电子设备对目标物进行拍摄以得到多个图像(图像中只包括目标物)并对每一个图像标记对应的类别标签,以得到分类模型数据集。
S360:通过所述分类模型数据集对待训练分类模型进行训练,以将收敛的待训练分类模型作为分类模型。
其中,待训练分类模型可以为VGG16、ResNet、MobileNet等分类网络,在本申请实施例中,对待训练分类模型的网络结构不作限定。
作为一种方式,可以将分类模型数据集输入待训练分类模型,通过损失函数(例如:交叉熵损失函数等)对待训练分类模型进行训练,以将收敛的待训练分类模型作为分类模型。
作为另一种方式,如图8所示,可以将待训练的初始检测模型和待训练分类模型整合成一个网络模型,在待训练的初始检测模型和待训练分类模型之间,可以自定义一个完整度阈值判断层,该完整度阈值判断层可以将待训练的初始检测模型输出的目标物的完整程度与预设值进行比较,若目标物的完整程度小于预设值,则不执行待训练分类模型的训练,并输出图像中不含目标物的信息;若目标物的完整程度大于或等于预设值,则通过待训练的初始检测模型输出的待检测物的位置信息从原始图像中提取出仅包含目标物的图像,再将仅包含目标物的图像输入分类网络中进行训练,并输出目标物对应的类别信息。通过上述方式使得,将待训练的初始检测模型和待训练分类模型整合成一个网络模型进行训练可以提高训练效率,并且该网络模型可以实现端到端的结果输出,即输入一个图像通过该网络模型可以直接输出图像中是否含有目标物、目标物的类别信息,提高了算法的效率。
S370:获取目标区域下的待检测图像。
S380:对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果。
S390:根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
本实施例提供的一种目标检测方法,通过上述方式使得,可以通过基于图像中目标物的完整度设置软标签对检测模型进行训练,使得检测模型不仅可以检测输入到模型中的图像是否包括有目标物,还可以在有目标物的情况下输出目标物的完整程度,进而为目标物的分类处理步骤提供了更多的参考依据,有利于后续该分类处理步骤更为准确的执行。并且,在本实施例中,通过分类模型数据集对待检测分类模型进行训练,可以得到分类模型,以便于在后续分类处理步骤中使用该分类模型。
通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。并且,在本实施例中,通过分类模型数据集对待检测分类模型进行训练,可以得到分类模型,使得当待检测图像通过目标检测模型得到的目标物的完整度满足完整度阈值时,可以对从待检测图像中提取出包含目标物的区域的局部图像进行分类识别,以得到目标物对应的类别,从而可以根据目标物类别,确定目标物对应的装配检测结果。
本申请还提供一种应用场景,上述目标检测方法在该应用场景的应用如下:在如图2所示的智能家居场景中,用户可以按照图9所示的流程获取当前场景中的窗户是否适合安装智能窗帘的建议。首先,用户可以通过用户终端设备对需要检测的物体(例如:沙发后面的窗户)进行拍照,并将拍好的图片上传至网关或服务器;然后网关或服务器在接收到该图片时,可以将该图片经过预处理后输入检测模型,并得到该图片中窗户的完整度和位置信息,若该图片的窗户完整度低于完整度阈值,则可以向用户终端设备发送“该图片中无目标物或目标物不完整请重新拍照”的信息;若该图片的窗户完整度高于完整度阈值,则可以从该图片中提取出包含窗户的区域的局部图像,再将该局部图像输入分类模型,得到该图片中窗户的类别信息,并基于类别信息确定该窗户是否适配于目标装配对象(智能窗帘),若该窗户适合安装智能窗帘,则可以向用户终端设备发送该窗户的类别信息以及类别信息对应的装配方案(例如:可以发送“该窗户为直窗,可以安装智能窗帘,安装步骤为XXX”等),以便用户可以根据装配方案正确地安装智能窗帘。
需要说明的是,在一些实施方式中,用户还可以通过用户终端设备控制摄像头对窗户进行拍照,例如,在图2所示的场景中可以控制摄像头对用户左手边的窗户进行拍照和上传。在一些实施方式中,检测模型和分类模型也可以部署在用户终端设备。
请参阅图10,本申请提供的一种目标检测装置600,所述装置600包括:
待检测图像获取单元610,用于获取目标区域下的待检测图像。
识别结果获取单元620,用于对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果。
装配检测结果获取单元630,用于根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
作为一种方式,所述识别结果包括目标物的完整度,装配检测结果获取单元630具体用于若所述目标物的完整度满足完整度阈值,则基于所述目标物的位置信息从所述待检测图像中提取出包含所述目标物的区域的局部图像;对所述局部图像中的目标物进行分类识别,得到所述目标物对应的目标物类别;根据所述目标物类别和所述识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
作为另一种方式,装配检测结果获取单元630具体用于若所述装配检测结果表征所述目标物适配目标装配对象,则获取与所述目标物类别相匹配的针对所述目标装配对象的装配方案;将所述装配方案推送至目标终端。
其中,所述装置600还包括:
所述待检测图像中目标物的识别结果,通过已训练的目标检测模型进行检测得到,所述目标检测模型通过模型训练单元640得到;模型训练单元640用于获取样本图像和对应的样本标签;所述样本标签包括所述样本图像中目标物标签和位置标签;通过待训练的初始检测模型对所述样本图像进行目标检测,得到所述样本图像中目标物对应的样本位置检测结果;通过所述初始检测模型中的目标识别网络对所述样本图像中的目标物进行识别,得到所述样本图像中目标物对应的样本物体识别结果;基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
作为一种方式,所述目标物标签包括目标完整度软标签,模型训练单元640具体用于基于所述样本物体识别结果与所述目标完整度软标签之间的差异,确定目标识别损失;基于所述位置检测结果和所述位置标签确定位置损失;基于所述目标识别损失以及所述位置损失,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
其中,可选的,所述样本标签包括目标物标签,模型训练单元640具体用于通过所述初始检测模型中的位置检测网络,检测所述样本图像中目标物的位置,得到样本位置检测结果;基于所述样本位置检测结果中的坐标,与所述位置标签中的坐标之间的坐标差异,确定检测框位置损失;基于所述样本位置检测结果中的目标物区域,与所述位置标签中的目标物区域之间的重合度差异,确定重合度损失。
可选的,所述样本位置检测结果包括所述目标物检测框的中心点坐标、长度和宽度,所述位置标签包括所述目标物的中心点坐标、长度和宽度,模型训练单元640具体用于基于所述目标物检测框的中心点坐标、长度和宽度确定所述目标物对应的各顶点坐标,以及基于所述各顶点坐标确定所述目标物区域;基于所述样本位置检测结果中所述目标物对应的各顶点坐标,与所述位置标签中目标物的各顶点坐标之间的坐标差异,确定所述检测框位置损失。
下面将结合图11对本申请提供的一种电子设备进行说明。
请参阅图11,基于上述的目标检测方法、装置,本申请实施例还提供的另一种可以执行前述目标检测方法的电子设备100。电子设备100包括相互耦合的一个或多个(图中仅示出一个)处理器102、存储器104、图像采集装置106。其中,该存储器104中存储有可以执行前述实施例中内容的程序,而处理器102可以执行该存储器104中存储的程序,图像采集装置106,可以用于进行图像采集。
其中,处理器102可以包括一个或者多个处理核。处理器102利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器104内的指令、程序、代码集或指令集,以及调用存储在存储器104内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器102可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(ProgrammableLogic Array,PLA)中的至少一种硬件形式来实现。处理器102可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器102中,单独通过一块通信芯片进行实现。
存储器104可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器104可用于存储指令、程序、代码、代码集或指令集。存储器104可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
图像采集装置106可以包括摄像头等。
请参考图12,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质800中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质800可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质800包括非易失性计算机可读存储介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
综上所述,本申请提供的一种目标检测方法、装置以及电子设备,在获取目标区域下的待检测图像后,对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果,根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。通过上述方式使得,对待检测图像进行目标检测,可以得到待检测图像中目标物的识别结果,并根据目标物的识别结果,可以确定针对目标区域下的目标物的装配检测结果,从而使得可以根据装配检测结果得到目标物对应的装配方案,以便用户可以基于装配方案更准确地执行后续操作,提高了用户体验。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种目标检测方法,其特征在于,所述方法包括:
获取目标区域下的待检测图像;
对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果;
根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
2.根据权利要求1所述的方法,其特征在于,所述识别结果包括目标物的完整度,所述根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果,包括:
若所述目标物的完整度满足完整度阈值,则基于所述目标物的位置信息从所述待检测图像中提取出包含所述目标物的区域的局部图像;
对所述局部图像中的目标物进行分类识别,得到所述目标物对应的目标物类别;
根据所述目标物类别和所述识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若所述装配检测结果表征所述目标物适配目标装配对象,则获取与所述目标物类别相匹配的针对所述目标装配对象的装配方案;
将所述装配方案推送至目标终端。
4.根据权利要求1-3任一所述的方法,其特征在于,所述待检测图像中目标物的识别结果,通过已训练的目标检测模型进行检测得到,所述目标检测模型通过模型训练步骤得到;所述模型训练步骤包括:
获取样本图像和对应的样本标签;所述样本标签包括所述样本图像中目标物标签和位置标签;
通过待训练的初始检测模型对所述样本图像进行目标检测,得到所述样本图像中目标物对应的样本位置检测结果;
通过所述初始检测模型中的目标识别网络对所述样本图像中的目标物进行识别,得到所述样本图像中目标物对应的样本物体识别结果;
基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
5.根据权利要求4所述的方法,其特征在于,所述目标物标签包括目标完整度软标签,所述基于所述样本物体识别结果以及所述样本位置检测结果与所述目标物标签以及所述位置标签之间的差异,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型,包括:
基于所述样本物体识别结果与所述目标完整度软标签之间的差异,确定目标识别损失;
基于所述位置检测结果和所述位置标签确定位置损失;
基于所述目标识别损失以及所述位置损失,调整所述初始检测模型的模型参数并继续训练,直到满足目标训练条件时停止训练,得到训练完成的目标检测模型。
6.根据权利要求5所述的方法,其特征在于,所述样本标签包括目标物标签;所述基于所述位置检测结果和所述位置标签确定位置损失,包括:
通过所述初始检测模型中的位置检测网络,检测所述样本图像中目标物的位置,得到样本位置检测结果;
基于所述样本位置检测结果中的坐标,与所述位置标签中的坐标之间的坐标差异,确定检测框位置损失;
基于所述样本位置检测结果中的目标物区域,与所述位置标签中的目标物区域之间的重合度差异,确定重合度损失。
7.根据权利要求6所述的方法,其特征在于,所述样本位置检测结果包括所述目标物检测框的中心点坐标、长度和宽度,所述位置标签包括所述目标物的中心点坐标、长度和宽度;所述方法还包括:
基于所述目标物检测框的中心点坐标、长度和宽度确定所述样本位置检测结果中所述目标物对应的各顶点坐标,以及基于所述各顶点坐标确定所述样本位置检测结果中的目标物区域;
所述基于所述样本位置检测结果中的坐标,与所述位置标签中的坐标之间的坐标差异,确定检测框位置损失,包括:
基于所述样本位置检测结果中所述目标物对应的各顶点坐标,与所述位置标签中目标物的各顶点坐标之间的坐标差异,确定所述检测框位置损失。
8.一种目标检测装置,其特征在于,所述装置包括:
待检测图像获取单元,用于获取目标区域下的待检测图像;
识别结果获取单元,用于对所述待检测图像进行目标检测,得到所述待检测图像中目标物的识别结果;
装配检测结果获取单元,用于根据所述目标物的识别结果,确定针对所述目标区域下的所述目标物的装配检测结果。
9.一种电子设备,其特征在于,包括一个或多个处理器以及存储器;
一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行权利要求1-7任一所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码运行时执行权利要求1-7任一所述的方法。
CN202210028805.1A 2022-01-11 2022-01-11 目标检测方法、装置以及电子设备 Pending CN114549968A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210028805.1A CN114549968A (zh) 2022-01-11 2022-01-11 目标检测方法、装置以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210028805.1A CN114549968A (zh) 2022-01-11 2022-01-11 目标检测方法、装置以及电子设备

Publications (1)

Publication Number Publication Date
CN114549968A true CN114549968A (zh) 2022-05-27

Family

ID=81669233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210028805.1A Pending CN114549968A (zh) 2022-01-11 2022-01-11 目标检测方法、装置以及电子设备

Country Status (1)

Country Link
CN (1) CN114549968A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937184A (zh) * 2022-12-28 2023-04-07 中轻长泰(长沙)智能科技股份有限公司 一种物品装配检测方法、装置及终端设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937184A (zh) * 2022-12-28 2023-04-07 中轻长泰(长沙)智能科技股份有限公司 一种物品装配检测方法、装置及终端设备

Similar Documents

Publication Publication Date Title
CN109508678B (zh) 人脸检测模型的训练方法、人脸关键点的检测方法和装置
US10599958B2 (en) Method and system for classifying an object-of-interest using an artificial neural network
CN109146892B (zh) 一种基于美学的图像裁剪方法及装置
CN108229509B (zh) 用于识别物体类别的方法及装置、电子设备
CN109815770B (zh) 二维码检测方法、装置及系统
US8792722B2 (en) Hand gesture detection
CN109815843B (zh) 图像处理方法及相关产品
US8750573B2 (en) Hand gesture detection
CN111488826A (zh) 一种文本识别方法、装置、电子设备和存储介质
CN111126140A (zh) 文本识别方法、装置、电子设备以及存储介质
CN113066017B (zh) 一种图像增强方法、模型训练方法及设备
US10997469B2 (en) Method and system for facilitating improved training of a supervised machine learning process
CN110781964A (zh) 一种基于视频图像的人体目标检测方法及系统
CN111161379B (zh) 基于深度学习的空户型特征检测的室内家居自动布局方法
WO2021208617A1 (zh) 进出站识别方法、装置、终端及存储介质
CN112989995B (zh) 文本检测方法、装置及电子设备
CN109325539B (zh) 绝缘子掉串检测方法及装置
CN113781519A (zh) 目标跟踪方法和目标跟踪装置
US11157765B2 (en) Method and system for determining physical characteristics of objects
JP2019220014A (ja) 画像解析装置、画像解析方法及びプログラム
CN114549968A (zh) 目标检测方法、装置以及电子设备
CN111080665A (zh) 图像边框识别方法、装置、设备和计算机存储介质
CN116883916A (zh) 一种基于深度学习的会议异常行为检测方法及系统
CN111583417A (zh) 一种图像语义和场景几何联合约束的室内vr场景构建的方法、装置、电子设备和介质
CN114972732A (zh) 一种烟火检测方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination