CN113468931A - 数据处理方法、装置、电子设备及存储介质 - Google Patents

数据处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113468931A
CN113468931A CN202010247375.3A CN202010247375A CN113468931A CN 113468931 A CN113468931 A CN 113468931A CN 202010247375 A CN202010247375 A CN 202010247375A CN 113468931 A CN113468931 A CN 113468931A
Authority
CN
China
Prior art keywords
image
model
sample image
map
end processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010247375.3A
Other languages
English (en)
Other versions
CN113468931B (zh
Inventor
颜肇义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN202010247375.3A priority Critical patent/CN113468931B/zh
Publication of CN113468931A publication Critical patent/CN113468931A/zh
Application granted granted Critical
Publication of CN113468931B publication Critical patent/CN113468931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例公开了一种数据处理方法、装置、电子设备及存储介质,所述方法包括:接收用户通过客户端上传的请求数据;根据所述请求数据,获取样本图像;所述样本图像输入至前端处理模型,获得第一特征图;将所述第一特征图输入至后端处理模型的第一分支,获得所述样本图像对应的第一对象密度估计图,以及将第一特征图输入至后端处理模型的第二分支,获得所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;遮挡区域为所述样本图像中存在对象遮挡的区域;根据第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整;返回调整后的所述前端处理模型和所述后端处理模型的模型参数。

Description

数据处理方法、装置、电子设备及存储介质
技术领域
本公开涉及计算机技术领域,具体涉及一种数据处理方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的发展,对象监控的需求越来越多,并且对监控精度的要求也越来越高。以人群监控为例,人群监控这一应用场景下,人群密度估计受到了学术界和工业界的广泛关注。人群密度估计是指对场景中的人群进行密度估计得到人群密度图。目前较为常见的是采用网络模型估计人群图像对应的人群密度图,进而再根据人群密度图计算得到人群图像中的大概数目。因此,这种方式下对象密度图的估计精度主要依赖于网络模型,而如何通过改进网络模型来提高对象密度图的估计精度成为本领域技术人员需要解决的技术问题之一。
发明内容
本公开实施例提供一种数据处理方法、装置、电子设备及计算机可读存储介质。
第一方面,本公开实施例中提供了一种数据处理方法,包括:
接收用户通过客户端上传的请求数据,其中,所述请求数据包括模型训练请求;
根据所述请求数据,获取样本图像;其中,所述样本图像用于模型训练;
将所述样本图像输入至前端处理模型,获得第一特征图;
将所述第一特征图输入至后端处理模型的第一分支,获得所述样本图像对应的第一对象密度估计图,以及将所述第一特征图输入至所述后端处理模型的第二分支,获得所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;所述遮挡区域为所述样本图像中存在对象遮挡的区域;
根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整;
返回调整后的所述前端处理模型和所述后端处理模型的模型参数。
进一步地,还包括:
获取所述样本图像中人的位置标注;
根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图。
进一步地,根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图,包括:
根据所述位置标注获得所述样本图像对应的点图,所述点图与所述样本图像大小一致,且所述点图中对应于所述位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将所述点图中的第一像素点映射成对象标注区域的方式获得所述对象密度图。
进一步地,还包括:
检测所述对象密度图中的异常对象标注区域,所述异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将所述异常对象标注区域确定为所述遮挡区域。
进一步地,根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整,包括:
通过比较所述样本图像对应的对象密度图和第一对象密度估计图、以及通过比较所述对象密度图中所述遮挡区域内的第一遮挡区域对象密度图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整。
第二方面,本公开实施例中提供了一种数据处理方法,包括:
获取样本图像;
确定所述样本图像中存在对象遮挡的遮挡区域;
利用所述样本图像以及所述样本图像中的所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
进一步地,还包括:
获取所述样本图像中人的位置标注;
根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图。
进一步地,根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图,包括:
根据所述位置标注获得所述样本图像对应的点图,所述点图与所述样本图像大小一致,且所述点图中对应于所述位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将所述点图中的第一像素点映射成对象标注区域的方式获得所述对象密度图。
进一步地,确定所述样本图像中存在对象遮挡的遮挡区域,包括:
检测所述对象密度图中的异常对象标注区域,所述异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将所述异常对象标注区域确定为所述遮挡区域。
进一步地,利用所述样本图像以及所述样本图像中所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练,包括:
利用所述对象聚集程度检测模型估计所述样本图像对应的第一对象密度估计图,以及利用所述对象聚集程度检测模型估计所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;
通过比较所述样本图像对应的对象密度图和第一对象密度估计图、以及比较所述对象密度图中所述遮挡区域内的第一遮挡区域对象密度图和所述第二对象密度估计图更新所述对象聚集程度检测模型的模型参数。
进一步地,所述对象聚集程度检测模型包括前端处理模型和后端处理模型;利用所述对象聚集程度检测模型估计所述样本图像对应的第一对象密度估计图,以及利用所述对象聚集程度检测模型估计所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图,包括:
利用所述前端处理模型对所述样本图像进行处理得到第一特征图;
利用所述后端处理模型的第一分支对所述第一特征图进行处理,得到所述第一对象密度估计图;
利用所述后端处理模型的第二分支对所述第一特征图中遮挡区域内的第一区域特征图进行处理,得到所述第二对象密度估计图。
第三方面,本公开实施例中提供了一种数据处理方法,包括:
获取待检测图像;
利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图;其中,所述对象聚集程度检测模型利用第一方面或第二方面所述的方法训练得到。
进一步地,所述对象聚集程度检测模型包括前端处理模型和后端处理模型,利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图,包括:
利用所述前端处理模型对所述待检测图像进行处理得到第二特征图;
利用所述后端处理模型的第一分支对所述第二特征图进行处理,得到所述对象密度图。
第四方面,本公开实施例中提供了一种数据处理方法,包括:
获取待检测图像;
确定所述待检测图像中存在对象遮挡的遮挡区域;
利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
根据所述初始对象密度图以及所述第二遮挡区域对象密度图获得所述待检测图像对应的最终对象密度图。
进一步地,还包括:
利用第一方面或第二方面所述的方法训练得到所述对象聚集程度检测模型。
进一步地,所述对象聚集程度检测模型包括前端处理模型和后端处理模型;利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图,包括:
利用所述前端处理模型对所述待检测图像进行处理得到第二特征图;
利用所述后端处理模型的第一分支对所述第二特征图进行处理,得到所述初始对象密度图;
利用所述后端处理模型的第二分支对所述第二特征图中遮挡区域内的第二区域特征图进行处理,得到所述第二遮挡区域对象密度图。
第五方面,本公开实施例中提供了一种数据处理装置,包括:
接收模块,被配置为接收用户通过客户端上传的请求数据,其中,所述请求数据包括模型训练请求;
第一获取模块,被配置为根据所述请求数据,获取样本图像;其中,所述样本图像用于模型训练;
第一输入模块,被配置为将所述样本图像输入至前端处理模型,获得第一特征图;
第二输入模块,被配置为将所述第一特征图输入至后端处理模型的第一分支,获得所述样本图像对应的第一对象密度估计图,以及将所述第一特征图输入至所述后端处理模型的第二分支,获得所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;所述遮挡区域为所述样本图像中存在对象遮挡的区域;
调整模块,被配置为根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整;
返回模块,被配置为返回调整后的所述前端处理模型和所述后端处理模型的模型参数。
第六方面,本公开实施例中提供了一种数据处理装置,包括:
第一获取模块,被配置为获取样本图像;
第一确定模块,被配置为确定所述样本图像中存在对象遮挡的遮挡区域;
训练模块,被配置为利用所述样本图像以及所述样本图像中的所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
第七方面,本公开实施例中提供了一种数据处理装置,包括:
第三获取模块,被配置为获取待检测图像;
第一处理模块,被配置为利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图;其中,所述对象聚集程度检测模型利用第五方面或第六方面所述的装置训练得到。
第八方面,本公开实施例中提供了一种数据处理装置,包括:
第四获取模块,被配置为获取待检测图像;
第三确定模块,被配置为确定所述待检测图像中存在对象遮挡的遮挡区域;
第二处理模块,被配置为利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
第五获取模块,被配置为根据所述初始对象密度图以及所述第二遮挡区域对象密度图获得所述待检测图像对应的最终对象密度图。
所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,上述装置的结构中包括存储器和处理器,所述存储器用于存储一条或多条支持上述装置执行上述对应方法的计算机指令,所述处理器被配置为用于执行所述存储器中存储的计算机指令。上述装置还可以包括通信接口,用于上述装置与其他设备或通信网络通信。
第九方面,本公开实施例提供了一种电子设备,包括存储器和处理器;其中,所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行以实现上述任一方面所述的方法。
第十方面,本公开实施例提供了一种计算机可读存储介质,用于存储上述任一装置所用的计算机指令,其包含用于执行上述任一方面所述方法所涉及的计算机指令。
本公开实施例提供的技术方案可以包括以下有益效果:
本公开实施例针对样本图像中的遮挡区域对对象聚集程度检测模型进行训练,也即在模型训练过程中,加入了样本图像中的对象遮挡信息,使得训练得到的对象聚集程度检测模型对图像中对象遮挡信息的识别能力更加具有鲁棒性,能够提高检测对象聚集程度的精确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
结合附图,通过以下非限制性实施方式的详细描述,本公开的其它特征、目的和优点将变得更加明显。在附图中:
图1示出根据本公开一实施方式的数据处理方法的流程图;
图2(a)和图2(b)示出根据本公开一实施方式的样本图像对应的点图以及对应的人群密度图的示意图;
图3示出根据本公开一实施方式的模型的训练场景示意图;
图4示出根据本公开另一实施方式的数据处理方法的流程图;
图5示出根据本公开一实施方式的人群密度检测模型的训练场景示意图;
图6示出根据本公开另一实施方式的数据处理方法的流程图;
图7示出根据本公开又一实施方式的数据处理方法的流程图;
图8是适于用来实现根据本公开一实施方式的数据处理方法的电子设备的结构示意图。
具体实施方式
下文中,将参考附图详细描述本公开的示例性实施方式,以使本领域技术人员可容易地实现它们。此外,为了清楚起见,在附图中省略了与描述示例性实施方式无关的部分。
在本公开中,应理解,诸如“包括”或“具有”等的术语旨在指示本说明书中所公开的特征、数字、步骤、行为、部件、部分或其组合的存在,并且不欲排除一个或多个其他特征、数字、步骤、行为、部件、部分或其组合存在或被添加的可能性。
另外还需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
下面通过具体实施例详细介绍本公开实施例的细节。
图1示出根据本公开一实施方式的数据处理方法的流程图。如图1所示,该数据处理方法包括以下步骤:
在步骤S101中,接收用户通过客户端上传的请求数据,其中,请求数据包括模型训练请求;
在步骤S102中,根据请求数据,获取样本图像;其中,样本图像用于模型训练;
在步骤S103中,将样本图像输入至前端处理模型,获得第一特征图;
在步骤S104中,将第一特征图输入至后端处理模型的第一分支,获得样本图像对应的第一对象密度估计图,以及将第一特征图输入至后端处理模型的第二分支,获得样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;遮挡区域为样本图像中存在对象遮挡的区域;
在步骤S105中,根据第一对象密度估计图和第二对象密度估计图对前端处理模型和后端处理模型的模型参数进行调整;
在步骤S106中,返回调整后的前端处理模型和后端处理模型的模型参数。
本实施例中,该数据处理方法可以运行在服务器端。在客户端上可以为用户提供接口,用户通过该接口可以请求服务器端进行模型训练。用户通过该接口可以上传模型训练的请求数据,该请求数据可以包括但不限于待训练模型的类别(在该接口可以提供多种模型训练功能时,可以在请求数据中指明模型类别)、训练过程中所需要的相关配置信息(例如模型训练完成条件、损失函数、目标函数等),具体可以根据实际应用场景而定,在此不做限制。
在接收到用户的请求数据之后,服务器可以根据用户的请求数据获取对应的样本图像。在一些实施例中,样本图像可以从用户获取,还可以从已有样本库中获取,具体可以根据实际情况而定,在此不做限制。
本实施例针对的模型可以为对象聚集程度检测模块,用于检测图像中对象的密集程度;对象可以是人、动物、车辆、机器人等。
在一些实施例中,对象聚集程度检测模型可以采用深度神经网络模型,而该对象聚集程度检测模型可以包括前端处理模型和后端处理模型,对象聚集程度检测模型可以包括前端处理模型和后端处理模型,前端处理模型用于提取输入图像的图像特征,得到对应的第一特征图,而后端处理模型可以利用特征图估计得到输入图像的估计结果,也即输入图像对应的对象密度估计图。
在一些实施例中,前端处理模型可以采用多层卷积网络。当然,在其他实施例中,前端处理模型也可以采用其他模型,具体可以根据实际应用场景而定,在此不做限制。
在训练过程中,可以将样本图像和遮挡区域信息输入至对象聚集程度检测模型中,样本图像经过前端处理模型的处理可以得到第一特征图,后端处理模型可以包括第一分支和第二分支,第一分支用于估计第一特征图对应的第一对象密度估计图,而第二分支用于估计第一特征图中遮挡区域内的第一区域特征图对应的第二对象密度估计图。在一些实施例中,第一分支和第二分支的网络结构基本相同,并且模型参数共享,所不同的是在第二分支的网络层上可以加入掩膜操作,使得第二分支每层网络所处理的数据仅保留遮挡区域内的数据,而非遮挡区域内的数据置为0。
在一些实施例中,第一分支通过对第一特征图进行处理得到第一对象密度估计图的过程中,可以直接针对完整的第一特征图进行处理相应处理,例如第一分支的每层网络对第一特征图进行卷积操作;而第二分支则可以通过将第一特征图与卷积核进行卷积操作等进行处理基础上加入掩膜操作,以将遮挡区域作为掩膜加入到对第一特征图的处理中,例如可以将第一特征图与遮挡区域掩膜版(也即与第一特征图相同大小,且遮挡区域内的像素值为1,而非遮挡区域内的像素值为0)进行点乘之后再进行与第一分支相同的处理,使得估计得到的第二对象密度估计图仅专注于遮挡区域。
假设第一分支中网络层的卷积操作表示如下:Y=WTX,则第二分支中网络层加入掩膜的卷积操作可以如下表示:Y=WT(X⊙M);其中M表示遮挡区域,Y表示输出,W表示对应卷积层的模型参数,X表示输入,⊙表示点乘操作。
由于本公开发明人发现,已有的对象聚集程度估计方法中尚未显式考虑对象遮挡的问题,而对象遮挡问题在对象聚集程度估计中会造成很大的影响。为此,本公开实施例在数据处理过程中,显式地将遮挡信息加入对象聚集程度检测模型中,在利用样本图像对该对象聚集程度检测模型进行训练的同时,还通过该样本图像中存在对象遮挡的遮挡区域内的第一区域图像对对象聚集程度检测模型一同进行训练。也就是说,本公开实施例在数据处理过程中,针对同一样本图像,同时利用该样本图像和样本图像中遮挡区域内的第一区域图像共同对对象聚集程度检测模型进行训练。
在模型训练过程中,可以利用对象聚集程度检测模型针对样本图像得到的估计结果(也即对象聚集程度检测模型针对样本图像估计得到的对象密度图)和针对第一区域图像得到的估计结果(也即对象聚集程度检测模型针对第一区域图像得到的对象密度图),对对象聚集程度检测模型的模型参数进行调整,使得对象聚集程度检测模型的下一次估计结果更接近于真实结果。在模型训练完成之后,可以将调整后的模型参数返回给客户端,以便在客户端上展示给用户。
本公开实施例中,专门针对样本图像中的遮挡区域对对象聚集程度检测模型进行训练,也即在模型训练过程中,加入了样本图像中的对象遮挡信息,使得训练得到的模型对图像中对象遮挡信息的识别能力更加具有鲁棒性,能够提高检测对象聚集程度的精确度。
在本实施例的一个可选实现方式中,该方法进一步还包括以下步骤:
获取样本图像中人的位置标注;
根据样本图像以及位置标注确定样本图像对应的对象密度图。
该可选的实现方式中,在获取到样本图像之后,可以获取样本图像中对象所在的位置的标注,该标注例如可以在样本图像上对象中心位置或者对象的标志性位置(例如人头、车牌号等位置),根据样本图像上对象的标注位置可以得到样本图像对应的真实对象密度图。可以理解的是,也可以通过其他已有的方式获得样本图像对应的真实对象密度图,或者可以获取真实对象密度图已知的图像作为样本图像。
在本实施例的一个可选实现方式中,根据样本图像以及位置标注确定样本图像对应的对象密度图的步骤,进一步包括以下步骤:
根据位置标注获得样本图像对应的点图,点图与样本图像大小一致,且点图中对应于位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将点图中的第一像素点映射成对象标注区域的方式获得对象密度图。
该可选的实现方式中,利用样本图像上对象的位置标注确定样本图像的真实对象密度图的过程中,可以根据对象在样本图像上的位置标注获得样本图像对应的点图,该点图的大小与样本图像相同,而将对应于的位置标注处的第一像素点可以设置为第一值,比如1,而将其他位置处的第二像素点设置为第二值,比如0,通过这种方式可以得到样本图像对应的点图。对象标注区域可以是标注位置所在的区域,例如对于人群密度图而言,对象标注区域可以是人头区域,而对于车辆密度图而言,对象标注区域可以是车牌号区域,具体根据对象的不同以及实际应用场景而不同。
图2(a)和图2(b)示出根据本公开一实施方式的样本图像对应的点图以及对应的人群密度图的示意图。如图2(a)所示,坐标处值为1的像素点表示人头中心点位置,而值为0的像素点表示无人头标注,该点图中包括三个人头,像素坐标分别为(2,2)、(5,5)和(7,8)。
在获得样本图像对应的点图之后,可以通过高斯模糊处理得到人群密度图。高斯模糊处理是指利用构建的高斯核函数对点图进行卷积操作,由于点图中人头位置标注处的第一像素点的值通常设置为1,而其他位置的第二像素点的值通常设置为0,因此针对点图进行高斯核卷积,实际上是将第一像素点映射成高斯核大小的头区域,对点图上所有第一像素点进行高斯核卷积操作之后可以得到样本图像对应的对象密度图,并且对象密度图中各个像素点上的像素值大小可以用于表示该像素点为人头区域的概率,在一个人头区域中,中心点位置处所在的像素值最大,而一个第一像素点映射成的一个人头区域内的所有像素值之后为固定值。
利用大小为3*3的高斯核对图2(a)中的点图进行卷积操作之后,得到如图2(b)所示的对象密度图的矩阵表示。对象密度图中每个人头区域(大小为3*3)内各个像素值也即概率之和可以为1。
在本实施例的一个可选实现方式中,方法还包括:
检测对象密度图中的异常对象标注区域,异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将异常对象标注区域确定为遮挡区域。
该可选的实现方式中,对点图进行高斯模糊处理的过程可以是对点图中对象标注位置处的第一值进行高斯核的卷积操作,高斯核可以是估计得到的对象标注区域大小的二维高斯核,而该二维高斯核的大小可以根据所估计的对象标注区域大小自适应变化。
在利用高斯核对点图进行卷积操作之后,对象标注区域的概率之和可以为固定值,例如为1。因此可以针对对象密度图中每个对象标注区域中的概率值进行相加操作,如果存在两个对象标注区域的部分相互重叠,则该对象标注区域内各像素值之和会高于上述固定值,因此可以通过这种方式检测得到异常对象标注区域。
假设点图中的对象标注位置点a和b经过高斯核卷积操作后,得到对象标注区域A和B,且由于点a和b位置相近,所得到的对象标注区域A和B至少有一部分区域重叠,则重叠部分的像素点处的像素值为分别对点a和b进行高斯核卷积得到的值之和,因此对象标注区域A和对象标注区域B中各像素点的像素值之和大于上述固定值。
在本实施例的一个可选实现方式中,步骤S105中,根据第一对象密度估计图和第二对象密度估计图对前端处理模型和后端处理模型的模型参数进行调整的步骤,进一步包括以下步骤:
利用对象聚集程度检测模型估计样本图像对应的第一对象密度估计图,以及利用对象聚集程度检测模型估计样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;
通过比较样本图像对应的对象密度图和第一对象密度估计图、以及通过比较对象密度图中遮挡区域内的第一遮挡区域对象密度图和第二对象密度估计图对前端处理模型和后端处理模型的模型参数进行调整。
该可选的实现方式中,可以通过将样本图像输入至对象聚集程度检测模型得到第一估计结果,该第一估计结果为对应于样本图像的第一对象密度估计图,还可以通过将遮挡区域内的第一区域图像(可以通过将样本图像中非遮挡区域中的像素值置为0而得到)输入至对象聚集程度检测模型得到第二估计结果,该第二估计结果对应于第一区域图像的第二对象密度估计图。当然,在其他实施例中,还可以通过将样本图像输入至对象聚集程度检测模型的前端处理模型得到样本图像的第一特征图,利用后端处理模型的第一分支得到第一特征图对应的第一对象密度估计图,并利用后端处理模型得到该第一特征图中遮挡区域内的第一区域特征图的第二对象密度估计图。
在更新模型参数的过程中,可以通过比较第一对象密度估计图和样本图像对应的真实的对象密度图对模型参数进行调整,调整的目标使得对象聚集程度检测模型对于输入图像得到的估计结果能够越来越接近于真实结果,也即真实的对象密度图;同时,还通过比较第二对象密度估计图和遮挡区域内的真实对象密度图(可以通过将样本图像对应的真实对象密度图中非遮挡区域的像素值置为0得到)对模型参数进行调整。
需要说明的是,可以同时利用第一对象密度估计图和样本图像对应的真实对象密度图之间的第一差异和第二对象密度估计图和第一遮挡区域对象密度图的第二差异对模型参数进行调整,并且在调整过程中还可以分别针对第一差异和第二差异设置权重,例如,可以设置第一差异的权重较大,使得模型参数的调整过程中更注重第一对象密度估计图与真实对象密度图之间的差异。当然,可以理解的是,上述权重的设置可以根据实际应用而定,在此不做限制。
图3示出根据本公开一实施方式的模型的训练场景示意图。如图3所示,用户通过客户端向服务器发送包括模型训练请求的请求数据,服务器端的模型训练接口接收到用户的数据请求之后可以根据请求数据获取样本图像,并将样本图像输入至前端检测模型,前端检测模型对样本图像进行处理之后,输出第一特征图;该第一特征图可以分别输入至后端检测模型的第一分支和第二分支,第一分支通过对第一特征图处理获得样本图像对应的第一对象密度估计图,第二分支对第一特征图像处理之后获得样本图像中遮挡区域对应的第二对象密度估计图。第一对象密度估计图和第二对象密度估计图可以被用来调整前端处理模型和后端处理模型的模型参数。后端处理模型中第一分支和第二分支的模型参数共享。经过大量样本图像的训练之后,将调整后的模型参数返回给客户端,在客户端上可以展示该模型参数,供用户查看使用。
图4示出根据本公开另一实施方式的数据处理方法的流程图。如图4所示,该数据处理方法包括以下步骤:
在步骤S401中,获取样本图像;
在步骤S402中,确定样本图像中存在对象遮挡的遮挡区域;
在步骤S403中,利用样本图像以及样本图像中的遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
本实施例中,样本图像可以是收集到的包括对象的图像,对象可以是人、动物、车辆、机器人等。针对每个样本图像,可以通过人工方式或其他能够正确标记出对象位置的方式进行标注,例如人群密度估计中,可以标注样本图像上人头的位置,而车辆密度图估计中则可以标注样本图像上车辆中心位置或者车牌号位置等。
针对每个样本图像,可以确定存在对象遮挡的遮挡区域。存在对象遮挡的遮挡区域可以是样本图像上两个及两个以上的对象有重叠的区域。遮挡区域的确定可以采用多种方式,比如人工方式手动标注得到、利用训练好的智能化机器识别模型自动识别得到等。
在一些实施例中,对象聚集程度检测模型可以采用深度神经网络模型,例如对象聚集程度检测模型可以包括前端处理模型和后端处理模型,前端处理模型可以采用多层卷积网络提取输入图像(在训练过程中为样本图像,在线检测过程中为待检测图像)的二维图像特征,而后端处理模型可以针对所提取出的二维图像特征进行处理,例如后端处理模型可以是通过空洞卷积层对二维特征进行处理以得到具有更大感受野的特征,之后根据处理后的特征得到对应的输出,也即输入图像对应的对象密度估计图。
由于本公开发明人发现,已有的对象聚集程度估计方法中尚未显式考虑对象遮挡的问题,而对象遮挡问题在对象聚集程度估计中会造成很大的影响。为此,本公开实施例在对象聚集程度检测模型的训练过程中,显式地将遮挡信息加入对象聚集程度检测模型中,在利用样本图像对该对象聚集程度检测模型进行训练的同时,还通过该样本图像中存在对象遮挡的遮挡区域内的第一区域图像对对象聚集程度检测模型一同进行训练。也就是说,本公开实施例在对象聚集程度检测模型的训练过程中,针对同一样本图像,同时利用该样本图像和样本图像中遮挡区域内的第一区域图像共同对对象聚集程度检测模型进行训练。
在模型训练过程中,利用样本图像和样本图像中遮挡区域内的第一区域图像共同对对象聚集程度检测模型进行训练,可以理解为利用对象聚集程度检测模型针对样本图像得到的估计结果(也即对象聚集程度检测模型针对样本图像估计得到的对象密度图)和针对第一区域图像得到的估计结果(也即对象聚集程度检测模型针对第一区域图像得到的对象密度图),对对象聚集程度检测模型的模型参数进行调整,使得对象聚集程度检测模型的下一次估计结果更接近于真实结果。
本公开实施例中,专门针对样本图像中的遮挡区域对对象聚集程度检测模型进行训练,也即在模型训练过程中,加入了样本图像中的对象遮挡信息,使得训练得到的对象聚集程度检测模型对图像中对象遮挡信息的识别能力更加具有鲁棒性,能够提高检测对象聚集程度的精确度。
在本实施例的一个可选实现方式中,该方法进一步还包括以下步骤:
获取样本图像中人的位置标注;
根据样本图像以及位置标注确定样本图像对应的对象密度图。
该可选的实现方式中,可以针对样本图像中对象所在的位置进行标注,例如可以在样本图像上标注对象中心位置或者对象的标志性位置(例如人头、车牌号等位置),然后根据样本图像上对象的标注位置得到样本图像对应的真实对象密度图。可以理解的是,也可以通过其他已有的方式获得样本图像对应的真实对象密度图,或者可以收集真实对象密度图已知的图像作为样本图像。
在本实施例的一个可选实现方式中,根据样本图像以及位置标注确定样本图像对应的对象密度图的步骤,进一步包括以下步骤:
根据位置标注获得样本图像对应的点图,点图与样本图像大小一致,且点图中对应于位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将点图中的第一像素点映射成对象标注区域的方式获得对象密度图。
该可选的实现方式中,利用样本图像上对象的位置标注确定样本图像的真实对象密度图的过程中,可以根据对象在样本图像上的位置标注获得样本图像对应的点图,该点图的大小与样本图像相同,而将对应于的位置标注处的第一像素点可以设置为第一值,比如1,而将其他位置处的第二像素点设置为第二值,比如0,通过这种方式可以得到样本图像对应的点图。对象标注区域可以是标注位置所在的区域,例如对于人群密度图而言,对象标注区域可以是人头区域,而对于车辆密度图而言,对象标注区域可以是车牌号区域,具体根据对象的不同以及实际应用场景而不同。
在本实施例的一个可选实现方式中,步骤S402中,确定样本图像中存在对象遮挡的遮挡区域的步骤,进一步包括以下步骤:
检测对象密度图中的异常对象标注区域,异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将异常对象标注区域确定为遮挡区域。
该可选的实现方式中,对点图进行高斯模糊处理的过程可以是对点图中对象标注位置处的第一值进行高斯核的卷积操作,高斯核可以是估计得到的对象标注区域大小的二维高斯核,而该二维高斯核的大小可以根据所估计的对象标注区域大小自适应变化。
在利用高斯核对点图进行卷积操作之后,对象标注区域的概率之和可以为固定值,例如为1。因此可以针对对象密度图中每个对象标注区域中的概率值进行相加操作,如果存在两个对象标注区域的部分相互重叠,则该对象标注区域内各像素值之和会高于上述固定值,因此可以通过这种方式检测得到异常对象标注区域。
在本实施例的一个可选实现方式中,步骤S403中,利用样本图像以及样本图像中遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练的步骤,进一步包括以下步骤:
利用对象聚集程度检测模型估计样本图像对应的第一对象密度估计图,以及利用对象聚集程度检测模型估计样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;
通过比较样本图像对应的对象密度图和第一对象密度估计图、以及比较对象密度图中遮挡区域内的第一遮挡区域对象密度图和第二对象密度估计图更新对象聚集程度检测模型的模型参数。
该可选的实现方式中,可以通过将样本图像输入至对象聚集程度检测模型得到第一估计结果,该第一估计结果为对应于样本图像的第一对象密度估计图,还可以通过将遮挡区域内的第一区域图像(可以通过将样本图像中非遮挡区域中的像素值置为0而得到)输入至对象聚集程度检测模型得到第二估计结果,该第二估计结果对应于第一区域图像的第二对象密度估计图。当然,在其他实施例中,还可以通过将样本图像输入至对象聚集程度检测模型的前端处理模型得到样本图像的第一特征图,利用后端处理模型的第一分支得到第一特征图对应的第一对象密度估计图,并利用后端处理模型得到该第一特征图中遮挡区域内的第一区域特征图的第二对象密度估计图。
在更新模型参数的过程中,可以通过比较第一对象密度估计图和样本图像对应的真实的对象密度图对模型参数进行调整,调整的目标使得对象聚集程度检测模型对于输入图像得到的估计结果能够越来越接近于真实结果,也即真实的对象密度图;同时,还通过比较第二对象密度估计图和遮挡区域内的真实对象密度图(可以通过将样本图像对应的真实对象密度图中非遮挡区域的像素值置为0得到)对模型参数进行调整。
需要说明的是,可以同时利用第一对象密度估计图和样本图像对应的真实对象密度图之间的第一差异和第二对象密度估计图和第一遮挡区域对象密度图的第二差异对模型参数进行调整,并且在调整过程中还可以分别针对第一差异和第二差异设置权重,例如,可以设置第一差异的权重较大,使得模型参数的调整过程中更注重第一对象密度估计图与真实对象密度图之间的差异。当然,可以理解的是,上述权重的设置可以根据实际应用而定,在此不做限制。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型;利用对象聚集程度检测模型估计样本图像对应的第一对象密度估计图,以及利用对象聚集程度检测模型估计样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图的步骤,进一步包括以下步骤:
利用前端处理模型对样本图像进行处理得到第一特征图;
利用前端处理模型的第一分支对第一特征图进行处理,得到第一对象密度估计图;
利用前端处理模型的第二分支对第一特征图中遮挡区域内的第一区域特征图进行处理,得到第二对象密度估计图。
该可选的实现方式中,对象聚集程度检测模型可以包括前端处理模型和后端处理模型,前端处理模型用于提取输入图像的图像特征,得到对应的特征图,而后端处理模型可以利用特征图估计得到输入图像的估计结果,也即输入图像对应的对象密度估计图。
在一些实施例中,前端处理模型可以采用多层卷积网络。当然,在其他实施例中,前端处理模型也可以采用其他模型,具体可以根据实际应用场景而定,在此不做限制。
在训练过程中,可以将样本图像和遮挡区域信息输入至对象聚集程度检测模型中,样本图像经过前端处理模型的处理可以得到第一特征图,后端处理模型可以包括第一分支和第二分支,第一分支用于估计第一特征图对应的第一对象密度估计图,而第二分支用于估计第一特征图中遮挡区域内的第一区域特征图对应的第二对象密度估计图。在一些实施例中,第一分支和第二分支的网络结构基本相同,并且模型参数共享,所不同的是在第二分支的网络层上可以加入掩膜操作,使得第二分支每层网络所处理的数据仅保留遮挡区域内的数据,而非遮挡区域内的数据置为0。
在一些实施例中,第一分支通过对第一特征图进行处理得到第一对象密度估计图的过程中,可以直接针对完整的第一特征图进行处理相应处理,例如第一分支的每层网络对第一特征图进行卷积操作;而第二分支则可以通过将第一特征图与卷积核进行卷积操作等进行处理基础上加入掩膜操作,以将遮挡区域作为掩膜加入到对第一特征图的处理中,例如可以将第一特征图与遮挡区域掩膜版(也即与第一特征图相同大小,且遮挡区域内的像素值为1,而非遮挡区域内的像素值为0)进行点乘之后再进行与第一分支相同的处理,使得估计得到的第二对象密度估计图仅专注于遮挡区域。
下面通过举例详细说明本实施例中的数据处理过程。
图5示出根据本公开一实施方式的人群密度检测模型的训练场景示意图。如图5所示,收集样本图像集,针对样本图像集中的每个样本图像标注人头位置,得到样本图像对应的点图;利用预先构建好的高斯核与该点图进行卷积操作,得到样本图像对应的真实的人群密度图,以及根据人群密度图确定样本图像中的遮挡区域;将当前样本图像输入至待训练的人群密度检测模型的前端处理模型中,由前端处理模型输出样本图像对应的第一特征图,将第一特征图输入至后端处理模型的第一分支和第二分支,第一分支直接利用第一特征图得到第一人群密度估计图,第二分支利用对第一特征图进行遮挡区域的掩膜操作后得到的第一区域特征图得到第二人群密度估计图;构建用于比较第一人群密度估计图与样本图像对应的真实的人群密度图之间的第一差异、以及第一人群密度估计图与样本图像对应的真实人群密度图中遮挡区域内的第一遮挡区域对象密度图之间的第二差异的损失函数,进而通过该损失函数估计对象聚集程度检测模型的误差,并通过反向传播的方式调整对象聚集程度检测模型的模型参数;经过样本图像集中大量样本图像的上述训练过程,可以得到训练好的对象聚集程度检测模型。
图6示出根据本公开另一实施方式的数据处理方法的流程图。如图6所示,该数据处理方法包括以下步骤:
在步骤S601中,获取待检测图像;
在步骤S602中,利用对象聚集程度检测模型对待检测图像进行处理,得到待检测图像对应的对象密度图;其中,对象聚集程度检测模型利用上述数据处理方法得到。
本实施例中,待检测图像可以是包括对象的图像,例如通过监控设备得到的公共区域内的对象图像。对象聚集程度检测模型可以利用上述实施例中描述的数据处理方法获得,将待检测图像输入至对象聚集程度检测模型,由对象聚集程度检测模型预测得到待检测图像对应的对象密度图,通过对象密度图可以得到待检测图像中的对象数量的估计值。
对象聚集程度检测模型的训练过程可以参见上述图1所示实施例及相关实施例、图4所示实施例及相关实施例中数据处理方法的描述,在此不再赘述。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型,步骤S602,即利用对象聚集程度检测模型对待检测图像进行处理,得到待检测图像对应的对象密度图的步骤,进一步包括以下步骤:
利用前端处理模型对待检测图像进行处理得到第二特征图;
利用后端处理模型的第一分支对第二特征图进行处理,得到对象密度图。
该可选的实现方式中,根据上述数据处理方法的描述可知,对象聚集程度检测模型可以包括前端处理模型和后端处理模型,前端处理模型用于提取输入图像的特征图,后端处理模型用于根据输入图像的特征图得到对应的对象密度图。在训练过程中,后端处理模型的第一分支可以针对输入图像的特征图估计得到对象密度图,而第二分支针对特征图中遮挡区域估计得到遮挡区域对应的对象密度图,通过这种方式,可以提高对象聚集程度检测模型对于遮挡区域的识别能力。
然而,利用训练完成的对象聚集程度检测模型进行在线识别时,可以利用后端处理模型的第一分支获得待检测图像的对象密度图,而无需再使用第二分支对遮挡区域进行单独识别。因此,在识别过程中,可以直接将待检测图像输入至对象聚集程度检测模型,由对象聚集程度检测模型的前端处理模型提取得到待检测图像对应的第二特征图,而由后端处理模型的第一分支对第二特征图进行处理,最终得到待检测模型对应的对象密度图。这种方式中,可以无需预先对待检测图像进行处理,预先获取该待检测图像中的遮挡区域,而是与常见的机器模型一样,直接利用训练好的对象聚集程度检测模型对待检测图像进行识别。由于本公开实施例中的对象聚集程度检测模型对于遮挡区域具有较好的鲁棒性,因此从待检测图像中检测得到的对象密度图的精确度更高。
图7示出根据本公开又一实施方式的数据处理方法的流程图。如图7所示,该数据处理方法包括以下步骤:
在步骤S701中,获取待检测图像;
在步骤S702中,确定待检测图像中存在对象遮挡的遮挡区域;
在步骤S703中,利用对象聚集程度检测模型对待检测图像进行处理得到待检测图像对应的初始对象密度图,以及利用对象聚集程度检测模型对待检测图像中遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
在步骤S704中,根据初始对象密度图以及第二遮挡区域对象密度图获得待检测图像对应的最终对象密度图。
本实施例中,待检测图像可以是包括对象的图像,例如通过监控设备得到的公共区域内的对象图像。本实施例中,针对待检测图像,可以预先确定待检测图像中存在对象遮挡的遮挡区域。存在对象遮挡的遮挡区域可以是待检测图像上两个及两个以上的人头至少部分有重叠的区域。遮挡区域的确定可以采用多种方式,比如人工方式手动标注得到、利用训练好的智能化机器识别模型自动识别得到等。
对象聚集程度检测模型可以采用深度神经网络模型来实现,并且可以是经过大量样本图像训练而得到的。本公开实施例中的对象聚集程度检测模型可以针对待检测图像分别识别待检测图像对应的对象密度图以及待检测图像中遮挡区域内的第二区域图像对应的对象密度图。图1所示实施例及相关实施例、图4所示实施例及相关实施例分别描述了本公开实施例中对象聚集程度检测模型的训练方式,该训练方式下对象聚集程度检测模型的结构可以参见上述对数据处理方法的描述,在此不再赘述。可以理解的是,对象聚集程度检测模型也可以是采用其他已知的训练方式得到的,只要该对象聚集程度检测模型可以识别待检测图像对应的对象密度图以及待检测图像中遮挡区域内的图像对应的对象密度图即可。
在一些实施例中,可以通过将待检测图像以及待检测图像中的遮挡区域信息输入至对象聚集程度检测模型,并由对象聚集程度检测模型进行处理后输出对应的初始对象密度图以及遮挡区域内的第二区域图像对应的第二遮挡区域对象密度图。对象聚集程度检测模型对于待检测图像中遮挡区域的识别具有鲁棒性,因此通过结合初始对象密度图以及第二遮挡区域对象密度图得到最终对象密度图,可以使得最终的结果更加精确。
在一些实施例中,对象聚集程度检测模型输出初始对象密度图以及第二遮挡区域对象密度图之后,可以通过将初始对象密度图中的遮挡区域部分替换成第二遮挡区域对象密度图中的遮挡区域部分(第二遮挡区域对象密度图的大小可以与初始对象密度图一致,并且非遮挡区域的像素值为0)的方式得到最终对象密度图。而在另一些实施例中,可以通过将初始对象密度图中遮挡区域部分与第二遮挡区域对象密度图中遮挡区域部分叠加的方式得到最终对象密度图,该叠加的方式可以两图像像素值之间进行或操作的方式。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型;步骤S703,即利用对象聚集程度检测模型对待检测图像进行处理得到待检测图像对应的初始对象密度图,以及利用对象聚集程度检测模型对待检测图像中遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图的步骤,进一步包括以下步骤:
利用前端处理模型对待检测图像进行处理得到第二特征图;
利用后端处理模型的第一分支对第二特征图进行处理,得到初始对象密度图;
利用后端处理模型的第二分支对第二特征图中遮挡区域内的第二区域特征图进行处理,得到第二遮挡区域对象密度图。
该可选的实现方式中,对象聚集程度检测模型可以包括前端处理模型和后端处理模型,前端处理模型用于提取输入图像也即待检测图像的图像特征,得到对应的特征图,而后端处理模型可以利用特征图估计得到输入图像的估计结果,也即待检测图像对应的初始对象密度图以及遮挡区域内的第二区域图像对应的第二遮挡区域对象密度图。
在一些实施例中,前端处理模型可以采用多层卷积网络。当然,在其他实施例中,前端处理模型也可以采用其他模型,具体可以根据实际应用场景而定。
在一些实施例中,可以将待检测图像以及遮挡区域信息(例如遮挡区域信息可以是与待检测图像大小一致,而遮挡区域内的值为1,其他区域的值为0的掩膜版)输入至对象聚集程度检测模型,待检测图像经过前端处理模型的处理得到第二特征图,后端处理模型可以包括第一分支和第二分支,第一分支用于根据第二特征图识别待检测图像对应的初始对象密度图,而第二分支用于根据第一特征图以及遮挡区域信息对第一特征图中遮挡区域内的第二区域特征图进行处理,并识别得到待检测图像中遮挡区域内的第二区域图像对应的第二遮挡区域对象密度图。
表1示出了本公开实施方式中对象聚集程度检测模型以及未显示考虑遮挡信息的已有对象聚集程度检测模型在同一测试集上的测试结果对比数据。已有对象聚集程度检测模型与本公开实施方式中的对象聚集程度检测模型的区别主要在于:在模型训练过程中,本公开实施方式中的对象聚集程度检测模型利用后端处理模型中的第二分支,通过专门学习样本图像中的遮挡信息对模型参数进行更新,而已有的对象聚集程度检测模型不包括后端处理模型中的第二分支,也即已有的对象聚集程度检测模型未通过专门学习样本图像中的遮挡信息更新模型参数。
表1
Figure BDA0002434303710000231
表1中采用MAE(平均每张图估计误差数目,越低越好)作为衡量指标,利用两个模型分别针对测试集ShanghaiTech A和ShanghaiTech B进行测试,从表1可以看出,本公开实施例的对象聚集程度检测模型在两个测试集上的MAE值均低于已有对象聚集程度检测模型,可见本公开实施例的对象聚集程度检测模型的性能明显优于已有对象聚集程度检测模型。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
根据本公开一实施方式的数据处理装置,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该数据处理装置包括:
接收模块,被配置为接收用户通过客户端上传的请求数据,其中,请求数据包括模型训练请求;
第一获取模块,被配置为根据请求数据,获取样本图像;其中,样本图像用于模型训练;
第一输入模块,被配置为将样本图像输入至前端处理模型,获得第一特征图;
第二输入模块,被配置为将第一特征图输入至后端处理模型的第一分支,获得样本图像对应的第一对象密度估计图,以及将第一特征图输入至后端处理模型的第二分支,获得样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;遮挡区域为样本图像中存在对象遮挡的区域;
调整模块,被配置为根据第一对象密度估计图和第二对象密度估计图对前端处理模型和后端处理模型的模型参数进行调整;
返回模块,被配置为返回调整后的前端处理模型和后端处理模型的模型参数。
在本实施例的一个可选实现方式中,该装置还包括:
第二获取模块,被配置为获取样本图像中人的位置标注;
第一确定模块,被配置为根据样本图像以及位置标注确定样本图像对应的对象密度图。
在本实施例的一个可选实现方式中,第一确定模块,包括:
第三获取模块,被配置为根据位置标注获得样本图像对应的点图,点图与样本图像大小一致,且点图中对应于位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
第四获取模块,被配置为通过高斯核将点图中的第一像素点映射成对象标注区域的方式获得对象密度图。
在本实施例的一个可选实现方式中,该装置还包括:
第一检测模块,被配置为检测对象密度图中的异常对象标注区域,异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
第二确定模块,被配置为将异常对象标注区域确定为遮挡区域。
在本实施例的一个可选实现方式中,调整模块,包括:
第一调整子模块,被配置为通过比较样本图像对应的对象密度图和第一对象密度估计图、以及通过比较对象密度图中遮挡区域内的第一遮挡区域对象密度图和第二对象密度估计图对前端处理模型和后端处理模型的模型参数进行调整。
本实施例中的数据处理装置与图1所示实施例及相关实施例中的数据处理方法对应一致,具体细节可以参见上述对数据处理方法的描述,在此不再赘述。
根据本公开另一实施方式的数据处理装置,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该数据处理装置包括:
第三获取模块,被配置为获取样本图像;
第三确定模块,被配置为确定样本图像中存在对象遮挡的遮挡区域;
第一训练模块,被配置为利用样本图像以及样本图像中的遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
在本实施例的一个可选实现方式中,还包括:
第四获取模块,被配置为获取样本图像中人的位置标注;
第四确定模块,被配置为根据样本图像以及位置标注确定样本图像对应的对象密度图。
在本实施例的一个可选实现方式中,第四确定模块,包括:
第三获取子模块,被配置为根据位置标注获得样本图像对应的点图,点图与样本图像大小一致,且点图中对应于位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
映射子模块,被配置为通过高斯核将点图中的第一像素点映射成对象标注区域的方式获得对象密度图。
在本实施例的一个可选实现方式中,第三确定模块,包括:
检测子模块,被配置为检测对象密度图中的异常对象标注区域,异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
第一确定子模块,被配置为将异常对象标注区域确定为遮挡区域。
在本实施例的一个可选实现方式中,训练模块,包括:
估计子模块,被配置为利用对象聚集程度检测模型估计样本图像对应的第一对象密度估计图,以及利用对象聚集程度检测模型估计样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;
更新子模块,被配置为通过比较样本图像对应的对象密度图和第一对象密度估计图、以及比较对象密度图中遮挡区域内的第一遮挡区域对象密度图和第二对象密度估计图更新对象聚集程度检测模型的模型参数。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型;估计子模块,包括:
第一处理子模块,被配置为利用前端处理模型对样本图像进行处理得到第一特征图;
第二处理子模块,被配置为利用后端处理模型的第一分支对第一特征图进行处理,得到第一对象密度估计图;
第三处理子模块,被配置为利用后端处理模型的第二分支对第一特征图中遮挡区域内的第一区域特征图进行处理,得到第二对象密度估计图。
本实施例中的数据处理装置与图4所示实施例及相关实施例中的数据处理方法对应一致,具体细节可以参见上述对数据处理方法的描述,在此不再赘述。
根据本公开一实施方式的数据处理装置,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该数据处理装置包括:
第五获取模块,被配置为获取待检测图像;
第一处理模块,被配置为利用对象聚集程度检测模型对待检测图像进行处理,得到待检测图像对应的对象密度图;其中,对象聚集程度检测模型利用上述数据处理装置训练得到。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型,第一处理模块,包括:
第四处理子模块,被配置为利用前端处理模型对待检测图像进行处理得到第二特征图;
第五处理子模块,被配置为利用后端处理模型的第一分支对第二特征图进行处理,得到对象密度图。
本实施例中的数据处理装置与图6所示实施例及相关实施例中的数据处理方法对应一致,具体细节可以参见上述对数据处理方法的描述,在此不再赘述。
根据本公开一实施方式的数据处理装置,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。该数据处理装置包括:
第六获取模块,被配置为获取待检测图像;
第五确定模块,被配置为确定待检测图像中存在对象遮挡的遮挡区域;
第二处理模块,被配置为利用对象聚集程度检测模型对待检测图像进行处理得到待检测图像对应的初始对象密度图,以及利用对象聚集程度检测模型对待检测图像中遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
第七获取模块,被配置为根据初始对象密度图以及第二遮挡区域对象密度图获得待检测图像对应的最终对象密度图。
在本实施例的一个可选实现方式中,还包括:
第二训练模块,被配置为利用上述数据处理装置训练得到对象聚集程度检测模型。
在本实施例的一个可选实现方式中,对象聚集程度检测模型包括前端处理模型和后端处理模型;第二处理模块,包括:
第六处理子模块,被配置为利用前端处理模型对待检测图像进行处理得到第二特征图;
第七处理子模块,被配置为利用后端处理模型的第一分支对第二特征图进行处理,得到初始对象密度图;
第八处理子模块,被配置为利用后端处理模型的第二分支对第二特征图中遮挡区域内的第二区域特征图进行处理,得到第二遮挡区域对象密度图。
本实施例中的数据处理装置与图7所示实施例及相关实施例中的数据处理方法对应一致,具体细节可以参见上述对数据处理方法的描述,在此不再赘述。
图8是适于用来实现根据本公开实施方式的数据处理方法的电子设备的结构示意图。
如图8所示,电子设备800包括处理单元801,其可实现为CPU、GPU、FPGA、NPU等处理单元。处理单元801可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行本公开上述任一方法的实施方式中的各种处理。在RAM803中,还存储有电子设备800操作所需的各种程序和数据。处理单元801、ROM802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施方式,上文参考本公开实施方式中的任一方法可以被实现为计算机软件程序。例如,本公开的实施方式包括一种计算机程序产品,其包括有形地包含在及其可读介质上的计算机程序,所述计算机程序包含用于执行本公开实施方式中任一方法的程序代码。在这样的实施方式中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。
附图中的流程图和框图,图示了按照本公开各种实施方式的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,路程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。描述于本公开实施方式中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
作为另一方面,本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施方式中所述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本公开的方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (22)

1.一种数据处理方法,包括:
接收用户通过客户端上传的请求数据,其中,所述请求数据包括模型训练请求;
根据所述请求数据,获取样本图像;其中,所述样本图像用于模型训练;
将所述样本图像输入至前端处理模型,获得第一特征图;
将所述第一特征图输入至后端处理模型的第一分支,获得所述样本图像对应的第一对象密度估计图,以及将所述第一特征图输入至所述后端处理模型的第二分支,获得所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;所述遮挡区域为所述样本图像中存在对象遮挡的区域;
根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整;
返回调整后的所述前端处理模型和所述后端处理模型的模型参数。
2.根据权利要求1所述的方法,其中,还包括:
获取所述样本图像中人的位置标注;
根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图。
3.根据权利要求2所述的方法,其中,根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图,包括:
根据所述位置标注获得所述样本图像对应的点图,所述点图与所述样本图像大小一致,且所述点图中对应于所述位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将所述点图中的第一像素点映射成对象标注区域的方式获得所述对象密度图。
4.根据权利要求3所述的方法,其中,还包括:
检测所述对象密度图中的异常对象标注区域,所述异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将所述异常对象标注区域确定为所述遮挡区域。
5.根据权利要求1-4任一项所述的方法,其中,根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整,包括:
通过比较所述样本图像对应的对象密度图和第一对象密度估计图、以及通过比较所述对象密度图中所述遮挡区域内的第一遮挡区域对象密度图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整。
6.一种数据处理方法,其中,包括:
获取样本图像;
确定所述样本图像中存在对象遮挡的遮挡区域;
利用所述样本图像以及所述样本图像中的所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
7.根据权利要求6所述的方法,其中,还包括:
获取所述样本图像中人的位置标注;
根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图。
8.根据权利要求7所述的方法,其中,根据所述样本图像以及所述位置标注确定所述样本图像对应的对象密度图,包括:
根据所述位置标注获得所述样本图像对应的点图,所述点图与所述样本图像大小一致,且所述点图中对应于所述位置标注处的第一像素点为第一值,而其他位置处的第二像素点为与第一值不同的第二值;
通过高斯核将所述点图中的第一像素点映射成对象标注区域的方式获得所述对象密度图。
9.根据权利要求8所述的方法,其中,确定所述样本图像中存在对象遮挡的遮挡区域,包括:
检测所述对象密度图中的异常对象标注区域,所述异常对象标注区域的至少一部分与其他对象标注区域相互重叠;
将所述异常对象标注区域确定为所述遮挡区域。
10.根据权利要求6-9任一项所述的方法,其中,利用所述样本图像以及所述样本图像中所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练,包括:
利用所述对象聚集程度检测模型估计所述样本图像对应的第一对象密度估计图,以及利用所述对象聚集程度检测模型估计所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;
通过比较所述样本图像对应的对象密度图和第一对象密度估计图、以及比较所述对象密度图中所述遮挡区域内的第一遮挡区域对象密度图和所述第二对象密度估计图更新所述对象聚集程度检测模型的模型参数。
11.根据权利要求10所述的方法,其中,所述对象聚集程度检测模型包括前端处理模型和后端处理模型;利用所述对象聚集程度检测模型估计所述样本图像对应的第一对象密度估计图,以及利用所述对象聚集程度检测模型估计所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图,包括:
利用所述前端处理模型对所述样本图像进行处理得到第一特征图;
利用所述后端处理模型的第一分支对所述第一特征图进行处理,得到所述第一对象密度估计图;
利用所述后端处理模型的第二分支对所述第一特征图中遮挡区域内的第一区域特征图进行处理,得到所述第二对象密度估计图。
12.一种数据处理方法,其中,包括:
获取待检测图像;
利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图;其中,所述对象聚集程度检测模型利用权利要求1-11任一项所述的方法训练得到。
13.根据权利要求12所述的方法,其中,所述对象聚集程度检测模型包括前端处理模型和后端处理模型,利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图,包括:
利用所述前端处理模型对所述待检测图像进行处理得到第二特征图;
利用所述后端处理模型的第一分支对所述第二特征图进行处理,得到所述对象密度图。
14.一种数据处理方法,其中,包括:
获取待检测图像;
确定所述待检测图像中存在对象遮挡的遮挡区域;
利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
根据所述初始对象密度图以及所述第二遮挡区域对象密度图获得所述待检测图像对应的最终对象密度图。
15.根据权利要求14所述的方法,其中,还包括:
利用权利要求1-11任一项所述的方法训练得到所述对象聚集程度检测模型。
16.根据权利要求14-15任一项所述的方法,其中,所述对象聚集程度检测模型包括前端处理模型和后端处理模型;利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图,包括:
利用所述前端处理模型对所述待检测图像进行处理得到第二特征图;
利用所述后端处理模型的第一分支对所述第二特征图进行处理,得到所述初始对象密度图;
利用所述后端处理模型的第二分支对所述第二特征图中遮挡区域内的第二区域特征图进行处理,得到所述第二遮挡区域对象密度图。
17.一种数据处理装置,包括:
接收模块,被配置为接收用户通过客户端上传的请求数据,其中,所述请求数据包括模型训练请求;
第一获取模块,被配置为根据所述请求数据,获取样本图像;其中,所述样本图像用于模型训练;
第一输入模块,被配置为将所述样本图像输入至前端处理模型,获得第一特征图;
第二输入模块,被配置为将所述第一特征图输入至后端处理模型的第一分支,获得所述样本图像对应的第一对象密度估计图,以及将所述第一特征图输入至所述后端处理模型的第二分支,获得所述样本图像中遮挡区域内的第一区域图像对应的第二对象密度估计图;所述遮挡区域为所述样本图像中存在对象遮挡的区域;
调整模块,被配置为根据所述第一对象密度估计图和所述第二对象密度估计图对所述前端处理模型和后端处理模型的模型参数进行调整;
返回模块,被配置为返回调整后的所述前端处理模型和所述后端处理模型的模型参数。
18.一种数据处理装置,其中,包括:
第三获取模块,被配置为获取样本图像;
第三确定模块,被配置为确定所述样本图像中存在对象遮挡的遮挡区域;
第一训练模块,被配置为利用所述样本图像以及所述样本图像中的所述遮挡区域内的第一区域图像对对象聚集程度检测模型进行训练。
19.一种数据处理装置,其中,包括:
第五获取模块,被配置为获取待检测图像;
第一处理模块,被配置为利用对象聚集程度检测模型对所述待检测图像进行处理,得到所述待检测图像对应的对象密度图;其中,所述对象聚集程度检测模型利用权利要求17或18所述的装置训练得到。
20.一种数据处理装置,其中,包括:
第六获取模块,被配置为获取待检测图像;
第五确定模块,被配置为确定所述待检测图像中存在对象遮挡的遮挡区域;
第二处理模块,被配置为利用对象聚集程度检测模型对所述待检测图像进行处理得到所述待检测图像对应的初始对象密度图,以及利用所述对象聚集程度检测模型对所述待检测图像中所述遮挡区域内的第二区域图像进行处理得到第二遮挡区域对象密度图;
第七获取模块,被配置为根据所述初始对象密度图以及所述第二遮挡区域对象密度图获得所述待检测图像对应的最终对象密度图。
21.一种电子设备,其中,包括存储器和处理器;其中,
所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行以实现权利要求1-16任一项所述的方法。
22.一种计算机可读存储介质,其上存储有计算机指令,其中,该计算机指令被处理器执行时实现权利要求1-16任一项所述的方法。
CN202010247375.3A 2020-03-31 2020-03-31 数据处理方法、装置、电子设备及存储介质 Active CN113468931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010247375.3A CN113468931B (zh) 2020-03-31 2020-03-31 数据处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010247375.3A CN113468931B (zh) 2020-03-31 2020-03-31 数据处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113468931A true CN113468931A (zh) 2021-10-01
CN113468931B CN113468931B (zh) 2022-04-29

Family

ID=77865796

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010247375.3A Active CN113468931B (zh) 2020-03-31 2020-03-31 数据处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113468931B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117037077A (zh) * 2023-10-09 2023-11-10 成都数智创新精益科技有限公司 基于图像处理的人群计数方法、装置、介质、设备及产品

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799863A (zh) * 2012-07-02 2012-11-28 中国计量学院 视频监控中的团体人群异常行为检测方法
CN103106667A (zh) * 2013-02-01 2013-05-15 山东科技大学 一种面向遮挡和场景变换的运动对象追踪方法
CN105095856A (zh) * 2015-06-26 2015-11-25 上海交通大学 基于掩膜的有遮挡人脸识别方法
CN106372595A (zh) * 2016-08-31 2017-02-01 重庆大学 遮挡人脸识别方法及装置
CN107909065A (zh) * 2017-12-29 2018-04-13 百度在线网络技术(北京)有限公司 用于检测人脸遮挡的方法及装置
CN109784255A (zh) * 2019-01-07 2019-05-21 深圳市商汤科技有限公司 神经网络训练方法及装置以及识别方法及装置
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN110070056A (zh) * 2019-04-25 2019-07-30 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
CN110084155A (zh) * 2019-04-12 2019-08-02 苏州大学 一种密集人数计数的方法、装置、设备以及存储介质
CN110598558A (zh) * 2019-08-14 2019-12-20 浙江省北大信息技术高等研究院 人群密度估计方法、装置、电子设备及介质
CN110728330A (zh) * 2019-10-23 2020-01-24 腾讯科技(深圳)有限公司 基于人工智能的对象识别方法、装置、设备及存储介质
US20200074186A1 (en) * 2018-08-28 2020-03-05 Beihang University Dense crowd counting method and apparatus

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799863A (zh) * 2012-07-02 2012-11-28 中国计量学院 视频监控中的团体人群异常行为检测方法
CN103106667A (zh) * 2013-02-01 2013-05-15 山东科技大学 一种面向遮挡和场景变换的运动对象追踪方法
CN105095856A (zh) * 2015-06-26 2015-11-25 上海交通大学 基于掩膜的有遮挡人脸识别方法
CN106372595A (zh) * 2016-08-31 2017-02-01 重庆大学 遮挡人脸识别方法及装置
CN107909065A (zh) * 2017-12-29 2018-04-13 百度在线网络技术(北京)有限公司 用于检测人脸遮挡的方法及装置
US20200074186A1 (en) * 2018-08-28 2020-03-05 Beihang University Dense crowd counting method and apparatus
CN109784255A (zh) * 2019-01-07 2019-05-21 深圳市商汤科技有限公司 神经网络训练方法及装置以及识别方法及装置
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN110084155A (zh) * 2019-04-12 2019-08-02 苏州大学 一种密集人数计数的方法、装置、设备以及存储介质
CN110070056A (zh) * 2019-04-25 2019-07-30 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及设备
CN110598558A (zh) * 2019-08-14 2019-12-20 浙江省北大信息技术高等研究院 人群密度估计方法、装置、电子设备及介质
CN110728330A (zh) * 2019-10-23 2020-01-24 腾讯科技(深圳)有限公司 基于人工智能的对象识别方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117037077A (zh) * 2023-10-09 2023-11-10 成都数智创新精益科技有限公司 基于图像处理的人群计数方法、装置、介质、设备及产品
CN117037077B (zh) * 2023-10-09 2023-12-08 成都数智创新精益科技有限公司 基于图像处理的人群计数方法、装置、介质、设备及产品

Also Published As

Publication number Publication date
CN113468931B (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
CN107609483B (zh) 面向驾驶辅助系统的危险目标检测方法、装置
US9330336B2 (en) Systems, methods, and media for on-line boosting of a classifier
TWI716012B (zh) 樣本標註方法、裝置、儲存媒體和計算設備、損傷類別的識別方法及裝置
Liu et al. Optimal matching problem in detection and recognition performance evaluation
CN112465871B (zh) 一种视觉跟踪算法准确性的评价方法及系统
CN106558051A (zh) 一种改进的从单幅图像检测道路的方法
KR20140114303A (ko) 3차원 의료 영상들에서 2차원 뷰의 자동 플래닝을 위한 방법 및 시스템
CN112634369A (zh) 空间与或图模型生成方法、装置、电子设备和存储介质
CN114862973B (zh) 基于固定点位的空间定位方法、装置、设备及存储介质
CN112150448B (zh) 图像处理方法、装置及设备、存储介质
CN111753702A (zh) 目标检测方法、装置及设备
CN112562005A (zh) 一种空间标定方法和系统
CN113468931B (zh) 数据处理方法、装置、电子设备及存储介质
CN116964588A (zh) 一种目标检测方法、目标检测模型训练方法及装置
US11314975B2 (en) Object identification in data relating to signals that are not human perceptible
EP3819815A1 (en) Human body recognition method and device, as well as storage medium
EP3074844B1 (en) Estimating gaze from un-calibrated eye measurement points
CN109903308B (zh) 用于获取信息的方法及装置
CN112907663A (zh) 定位方法、计算机程序产品、装置及系统
CN115527083B (zh) 图像标注方法、装置和电子设备
CN116597246A (zh) 模型训练方法、目标检测方法、电子设备及存储介质
CN114663917A (zh) 基于多视角的多人三维人体位姿估计方法及装置
CN114359700A (zh) 数据处理方法、装置、电子设备及存储介质
Rasyidy et al. A Framework for Road Boundary Detection based on Camera-LIDAR Fusion in World Coordinate System and Its Performance Evaluation Using Carla Simulator
CN112950582B (zh) 一种基于深度学习的3d肺部病灶分割方法、装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant