CN112330619A - 一种检测目标区域的方法、装置、设备及存储介质 - Google Patents

一种检测目标区域的方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112330619A
CN112330619A CN202011183534.4A CN202011183534A CN112330619A CN 112330619 A CN112330619 A CN 112330619A CN 202011183534 A CN202011183534 A CN 202011183534A CN 112330619 A CN112330619 A CN 112330619A
Authority
CN
China
Prior art keywords
region
image
detected
pixel point
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011183534.4A
Other languages
English (en)
Other versions
CN112330619B (zh
Inventor
惠强
任馨怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202011183534.4A priority Critical patent/CN112330619B/zh
Publication of CN112330619A publication Critical patent/CN112330619A/zh
Application granted granted Critical
Publication of CN112330619B publication Critical patent/CN112330619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种检测目标区域的方法、装置、设备及存储介质,用于解决检测目标区域的准确性较低的问题。该方法包括:将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,获得所述待检测图像中的目标区域;其中,所述区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,所述目标区域包括所述待检测图像中,区域类别为目标区域类别的所有像素点;将所述目标区域划分为至少一个目标子区域,并识别所述至少一个目标子区域中每个目标子区域的颜色类别;基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果。

Description

一种检测目标区域的方法、装置、设备及存储介质
技术领域
本申请涉及图像处理领域,尤其涉及一种检测目标区域的方法、装置、设备及存储介质。
背景技术
随着科技的不断发展,越来越多的领域中,设备可以直接对图像进行检测,获取其中的有用信息,不需要人工参与。例如,在水体检测领域,可以通过检测遥感图像中的水域的颜色,来判断遥感图像中的水域的污染情况,以及污染类型等。然而,对水域整体进行检测,仅能够反映出水域的整体情况,无法获得水域的局部情况。因此,无法对水域中被污染的部分进行有针对性的治理或分析等。可见,在水体检测领域中,水体检测的准确性较低,在其他领域中,也存在相同的问题。
发明内容
本申请实施例提供一种检测目标区域的方法、装置、设备及存储介质,用于提高检测目标区域的准确性。
第一方面,提供一种检测目标区域的方法,包括:
将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,获得所述待检测图像中的目标区域;其中,所述区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,所述目标区域包括所述待检测图像中,区域类别为目标区域类别的所有像素点;
将所述目标区域划分为至少一个目标子区域,并识别所述至少一个目标子区域中每个目标子区域的颜色类别;
基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果。
可选的,将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,具体包括:
将接收的待检测图像输入区域识别模型,获得所述区域识别模型输出的所述待检测图像中每个像素点属于各个区域类别的概率;
针对每个像素点,根据像素点属于各个区域类别的概率,将概率最大的区域类别作为像素点的区域类别,获得所述待检测图像中每个像素点的区域类别。
可选的,在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,还包括:
接收前端拍摄装置发送的待检测图像;或者,
向前端拍摄装置发送拍摄控制指令,以使所述前端拍摄装置依据所述拍摄控制指令进行拍摄,并返回拍摄的待检测图像。
可选的,基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果,具体包括:
将各个目标子区域的颜色类别,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的数量,与所述至少一个目标子区域中所有目标子区域的数量的比值,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的像素点数量,与所述至少一个目标子区域中所有目标子区域中的像素点数量的比值,作为针对所述待检测图像的检测结果。
可选的,所述区域识别模型是结合判决模型训练得到的,在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,所述区域识别模型的训练过程包括:
将样本图像输入区域识别模型,确定所述样本图像的中每个像素点的区域类别;
根据每个像素点的区域类别,以及对应的区域类别标记,确定像素匹配误差;
根据各个识别区域,以及对应的样本区域,确定区域匹配误差;其中,所述识别区域是根据样本图像中,区域类别相同的像素点确定的,所述样本区域是根据样本图像中,区域类别标记相同的像素点确定的;
利用所述判决模型针对由各个识别区域所构成的图像,以及由各个样本区域所构成的图像进行判决得到的判决概率,确定判决误差;其中,所述判决模型用于确定输入图像是由各个识别区域所构成的图像的概率,以及是由各个样本区域所构成的图像的概率;
根据所述像素匹配误差、所述区域匹配误差以及判决误差的加权和,确定所述区域识别模型结合所述判决模型的训练损失;
若确定所述训练损失未收敛,则调整所述区域识别模型的模型参数和所述判决模型的模型参数,以使所述训练损失收敛,获得已训练的区域识别模型。
可选的,根据各个识别区域,以及对应的样本区域,确定区域匹配误差,具体包括:
针对每个识别区域,确定识别区域中各个像素点的像素点位置,获得第一像素点位置集合;确定识别区域对应的样本区域中各个像素点的像素点位置,获得第二像素点位置集合;
根据第一像素点位置集合与第二像素点位置集合的交集中像素点位置的数量,与第一像素点位置集合与第二像素点位置集合的并集中像素点位置的数量的比值,确定识别区域与对应的样本区域之间的匹配误差;
根据各个识别区域,与对应的样本区域之间的匹配误差的加权和,确定区域匹配误差。
可选的,各个识别区域,与对应的样本区域之间的匹配误差的权重中,目标区域与对应的样本区域之间的匹配误差的权重大于其他识别区域,与对应的样本区域之间的匹配误差的权重。
第二方面,提供一种检测目标区域的装置,包括:
获取模块:用于将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,获得所述待检测图像中的目标区域;其中,所述区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,所述目标区域包括所述待检测图像中,区域类别为目标区域类别的所有像素点;
检测模块:用于将所述目标区域划分为至少一个目标子区域,并识别所述至少一个目标子区域中每个目标子区域的颜色类别;以及,基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果。
可选的,所述获取模块具体用于:
将接收的待检测图像输入区域识别模型,获得所述区域识别模型输出的所述待检测图像中每个像素点属于各个区域类别的概率;
针对每个像素点,根据像素点属于各个区域类别的概率,将概率最大的区域类别作为像素点的区域类别,获得所述待检测图像中每个像素点的区域类别。
可选的,所述获取模块还用于:
在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,接收前端拍摄装置发送的待检测图像;或者,
向前端拍摄装置发送拍摄控制指令,以使所述前端拍摄装置依据所述拍摄控制指令进行拍摄,并返回拍摄的待检测图像。
可选的,所述检测模块具体用于:
将各个目标子区域的颜色类别,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的数量,与所述至少一个目标子区域中所有目标子区域的数量的比值,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的像素点数量,与所述至少一个目标子区域中所有目标子区域中的像素点数量的比值,作为针对所述待检测图像的检测结果。
可选的,所述区域识别模型是结合判决模型训练得到的,所述获取模块还用于:
在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,将样本图像输入区域识别模型,确定所述样本图像的中每个像素点的区域类别;
根据每个像素点的区域类别,以及对应的区域类别标记,确定像素匹配误差;
根据各个识别区域,以及对应的样本区域,确定区域匹配误差;其中,所述识别区域是根据样本图像中,区域类别相同的像素点确定的,所述样本区域是根据样本图像中,区域类别标记相同的像素点确定的;
利用所述判决模型针对由各个识别区域所构成的图像,以及由各个样本区域所构成的图像进行判决得到的判决概率,确定判决误差;其中,所述判决模型用于确定输入图像是由各个识别区域所构成的图像的概率,以及是由各个样本区域所构成的图像的概率;
根据所述像素匹配误差、所述区域匹配误差以及判决误差的加权和,确定所述区域识别模型结合所述判决模型的训练损失;
若确定所述训练损失未收敛,则调整所述区域识别模型的模型参数和所述判决模型的模型参数,以使所述训练损失收敛,获得已训练的区域识别模型。
可选的,所述获取模块具体用于:
针对每个识别区域,确定识别区域中各个像素点的像素点位置,获得第一像素点位置集合;确定识别区域对应的样本区域中各个像素点的像素点位置,获得第二像素点位置集合;
根据第一像素点位置集合与第二像素点位置集合的交集中像素点位置的数量,与第一像素点位置集合与第二像素点位置集合的并集中像素点位置的数量的比值,确定识别区域与对应的样本区域之间的匹配误差;
根据各个识别区域,与对应的样本区域之间的匹配误差的加权和,确定区域匹配误差。
可选的,各个识别区域,与对应的样本区域之间的匹配误差的权重中,目标区域与对应的样本区域之间的匹配误差的权重大于其他识别区域,与对应的样本区域之间的匹配误差的权重。
第三方面,一种计算机设备,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序指令执行如第一方面所述的方法。
第四方面,一种存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如第一方面所述的方法。
本申请实施例中,将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别,获得待检测图像中的目标区域。通过大量样本图像训练得到的神经网络模型,来确定待检测图像中的目标区域,相较于传统的边缘检测算法来说,确定目标区域的效率较高,且,确定出的目标区域的准确性较高。将目标区域划分为至少一个目标子区域,并识别至少一个目标子区域中每个目标子区域的颜色类别。通过对目标区域进行分割,识别每一个目标子区域的颜色类别,可以获得目标区域的局部颜色情况,可以更加准确的反映目标区域的实际情况,提高基于各个目标子区域的颜色类别,确定待检测图像的检测结果的准确性。
附图说明
图1为本申请实施例提供的检测目标区域的方法的一种应用场景示意图;
图2为本申请实施例提供的检测目标区域的方法的一种流程示意图;
图3为待检测图像的一种示意图;
图4为本申请实施例提供的检测目标区域的方法的一种结构示意图一;
图5为本申请实施例提供的检测目标区域的方法的一种结构示意图二;
图6为本申请实施例提供的检测目标区域的装置的结构示意图一;
图7为本申请实施例提供的检测目标区域的装置的结构示意图二。
具体实施方式
为了使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
另外,本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。
随着科技的不断发展,在越来越多的领域中,设备可以直接对图像进行检测,获取其中的有用信息,不需要人工参与。例如,在水体检测领域当中,可以通过检测水体颜色,来判断水体污染情况,以及污染类型等。然而,对于整个水体进行颜色识别的方法,无法获得水体的局部颜色情况,因此,无法获得水体局部的污染情况或污染类型,使得水体检测的准确性较低。
鉴于此,本申请提供一种检测目标区域的方法,该方法可以应用于终端设备或网络设备中。终端设备可以是手机、平板电脑或个人计算机等;网络设备可以是本地服务器、第三方服务器或云服务器等。
本申请实施例中,将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别,获得待检测图像中的目标区域。通过大量样本图像训练得到的神经网络模型,来确定待检测图像中的目标区域,相较于传统的边缘检测算法来说,确定目标区域的效率较高,且,确定出的目标区域的准确性较高。将目标区域划分为至少一个目标子区域,并识别至少一个目标子区域中每个目标子区域的颜色类别。通过对目标区域进行分割,识别每一个目标子区域的颜色类别,可以获得目标区域的局部颜色情况,可以更加准确的反映目标区域的实际情况,提高基于各个目标子区域的颜色类别,确定待检测图像的检测结果的准确性。
请参考图1,为本申请实施例提供的检测目标区域的方法的一种应用场景示意图。该应用场景包括前端拍摄设备101、检测设备102和处理设备103。前端拍摄设备101和检测设备102之间可以通信;检测设备102和处理设备103之间可以通信。通信方式可以是有线通信方式,例如通过连接网线或串口线进行通信;也可以是无线通信方式,例如蓝牙或无线保真(wireless fidelity,WIFI)等技术进行通信,具体不做限制。
前端拍摄设备101泛指可以拍摄图像的设备,例如摄像头等。检测设备102泛指可以对图像进行检测的设备,例如服务器、终端设备或客户端等。客户端可以是安装在终端设备中的第三方应用程序或终端设备可以访问的网页等。处理设备103泛指可以对检测结果进行处理或分析的设备。
作为一种实施例,前端拍摄设备101和检测设备102可以是同一个设备,即检测设备102可以实现前端拍摄设备101的功能。或者,检测设备102和处理设备103可以是同一个设备,即检测设备102可以实现处理设备103的功能。或者,前端拍摄设备101和处理设备103可以是同一个设备,即处理设备103可以实现前端拍摄设备101的功能。或者,前端拍摄设备101、检测设备102和处理设备103可以是同一个设备,即检测设备102可以实现前端拍摄设备101和处理设备103的功能。本申请实施例中,以前端拍摄设备101、检测设备102和处理设备103分别为不同的设备为例进行介绍。
下面基于图1的应用场景,对各个设备之间的交互过程进行简单介绍。
前端拍摄设备101进行拍摄之后,获得待检测图像。前端拍摄设备101向检测设备102发送待检测图像。检测设备102接收待检测图像之后,将待检测图像输入区域识别模型。区域识别模型确定待检测图像中每个像素点的区域类别,检测设备102获得待检测图像中每个像素点的区域类别。检测设备102根据每个像素点的区域类别,获得待检测图像中的目标区域。其中,目标区域包括待检测图像中,区域类别为目标区域类别的所有像素点。
检测设备102将目标区域划分为至少一个目标子区域,并识别每个目标子区域的颜色类别。基于各个目标子区域的颜色类别,获得针对待检测图像的检测结果。检测设备102在获得针对待检测图像的检测结果之后,向处理设备103发送针对待检测图像的检测结果。处理设备103接收检测设备102发送的针对待检测图像的检测结果,并基于检测结果进行处理或分析。
本申请实施例中,将目标区域划分为至少一个目标子区域,识别每个目标子区域的颜色类别。基于各个目标子区域的颜色类别,获得针对待检测图像的检测结果。相较于直接对目标区域进行识别的方法,本申请实施例中,可以获得目标区域的局部特征,使得确定出的颜色类别更加准确,从而基于各个目标子区域获得的检测结果更加准确。
请参考图2,为本申请实施例提供的检测目标区域的方法的一种流程示意图。下面对检测目标区域的方法进行具体介绍。
S201,获得待检测图像。
前端拍摄设备101在对拍摄场景进行拍摄之后,获得待检测图像。前端拍摄设备101在获得待检测图像之后,向检测设备102发送待检测图像,检测设备102接收前端拍摄设备101发送的待检测图像。拍摄场景表示包括目标区域所在的真实场景。
或者,检测设备102在需要获取待检测图像时,向前端拍摄设备101发送拍摄控制指令。前端拍摄设备101在接收拍摄控制指令之后,对拍摄场景进行拍摄。前端拍摄设备101获得待检测图像,并向检测设备102发送待检测图像。检测设备102接收前端拍摄设备101发送的待检测图像,获得待检测图像。
作为一种实施例,前端拍摄设备101为设置在目标区域所在的真实场景的旁边,例如,请参考图3,为一种待检测图像示意图。待检测图像中包括天空301、河岸302和河道303。目标区域为河道303时,前端拍摄设备101可以设置在河岸302上。前端拍摄设备101可以对目标区域进行俯拍、仰拍或水平拍摄等,具体拍摄角度不做限制,从各个角度对目标区域进行拍摄,可以减小拍摄角度对目标区域造成的色差影响,例如,水面反光造成的水面颜色差异等。且这种近距离的拍摄所获得的待检测图像,相较于卫星拍摄的遥感图像来说,能够反映更多目标区域的局部特征,从而,提高检测目标区域的准确性。
S202,将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别。
在获得待检测图像之后,检测设备102可以通过区域识别模型对待检测图像中的目标区域进行识别。在通过区域识别模型对待检测图像进行识别之前,可以先获取已训练的区域识别模型。已训练的区域识别模型可以是预先训练好的,存储于存储装置中,在使用时进行调用即可,或者,可以是在需要检测图像时,进行训练得到的,具体训练时机不做限制。
在获得已训练的区域识别模型之后,检测设备102将待检测图像输入区域识别模型,获得待检测图像中每个像素点属于各个区域类别的概率,根据像素点属于各个区域类别的概率,将概率最大的区域类别作为像素点的区域类别,从而检测设备102获得待检测图像中每个像素点的区域类别。
下面对区域识别模型的训练过程进行介绍。
区域识别模型是结合判决模型训练得到的,区域识别模型的输出端连接判决模型的输入端。区域识别模型是通过的大量的样本图像,以及样本图像中每个像素点的区域类别标记进行训练获得的。样本图像可以是前端拍摄设备101拍摄的图像,并通过人工标记或手动标记,获得图像中每个像素点的区域类别标记。或者,样本图像可以是网络资源中已标记的每个像素点的区域类别的图像等,具体不做限制。
请参考图4,为训练区域识别模型的一种结构示意图。下面基于图4,对区域识别模型的训练过程,进行具体介绍。
S1.1,基于样本图像中每个像素点的区域类别,以及对应的区域类别标记,确定像素匹配误差。
针对每个样本图像,将样本图像输入区域识别模型,根据区域识别模型的输出,确定样本图像中每个像素点的区域类别。根据每个像素点的区域类别,以及每个像素点的区域类别标记,采用如下公式(1),确定样本图像的像素匹配误差Lgen
Figure BDA0002750831970000111
其中,H为样本图像中像素点的总行数,W为样本图像中像素点的总列数,C为样本图像中像素点的总通道数,i为大于0,且小于H的整数,j为大于0,且小于W的整数,k为大于0,且小于C的整数。pijk为位置在(i,j,k)的像素点的区域类别标记,
Figure BDA0002750831970000112
为位置在(i,j,k)的像素点的区域类别。
S1.2,基于样本图像中各个识别区域,以及对应的样本区域,确定区域匹配误差。
在获得样本图像中各个像素点的区域类别之后,将区域类别相同的像素点确定为同一个识别区域,根据每个像素点的区域类别,确定各个识别区域。样本图像中,区域类别标记相同的像素点包含在同一个样本区域中。与区域类别相同的区域类别标记,为区域类别对应的区域类别标记,从而,所关联的区域类别标记与识别区域关联的区域类别相同的样本区域,为识别区域对应的样本区域。
根据各个识别区域,以及分别对应的样本区域,采用如下公式(2),确定区域匹配误差。公式(2)中以区域类别或区域类别标记包括水体、河岸和天空三种为例进行的介绍,实际上不限制区域类别或区域类别标记的内容和数量等。
Figure BDA0002750831970000113
其中,
Figure BDA0002750831970000114
表示水体的识别区域,
Figure BDA0002750831970000115
表示对应的水体的样本区域;
Figure BDA0002750831970000116
表示河岸的识别区域,
Figure BDA0002750831970000117
表示对应的河岸的样本区域;
Figure BDA0002750831970000118
表示天空的识别区域,
Figure BDA0002750831970000121
表示对应的天空的样本区域。a、b和c为权重。
针对每个识别区域,上述公式(2)中的IoU误差的计算方法为,确定识别区域中各个像素点的像素点位置,获得第一像素点位置集合;确定识别区域对应的样本区域中各个像素点的像素点位置,获得第二像素点位置集合;
根据第一像素点位置集合与第二像素点位置集合的交集中像素点位置的数量,与第一像素点位置集合与第二像素点位置集合的并集中像素点位置的数量的比值,确定识别区域与对应的样本区域之间的匹配误差,即IoU误差。
作为一种实施例,公式(2)中,权重a、b和c,如果将水体的识别区域作为目标区域,那么可以将水体的识别区域对应的权重a设置为大于权重b和c的数值。从而,在对区域识别模型的训练过程中,水体的识别区域的识别准确性,对训练过程的影响大于其他识别区域的影响,使得训练完成后,水体的识别区域的识别准确性更高,在不增加样本图像数量的前提下,提高了水体的识别区域的识别准确性。
S1.3,基于样本图像中各个识别区域所构成的图像,以及由各个样本区域所构成的图像,确定判决误差。
在获得样本图像中的各个识别区域之后,利用区域类别对应的区域类别标记,代替样本图像中的各个像素点的像素值,获得mask图像。mask图像可以看成是由各个识别区域所构成的图像。对于各个样本区域,样本mask图像中各个像素点的像素值为相应的区域类别标记。样本mask图像可以看成是由各个样本区域所构成的图像。
依次将mask图像和样本mask图像随机输入到判决模型中,判决模型预测输入的图像是mask图像,还是样本mask图像,输出是mask图像的判决概率,以及是样本mask图像的判决概率。
根据如下公式(3),确定判决误差:
Figure BDA0002750831970000122
其中,Im表示第m个样本图像,G(Im)表示mask图像,D(G(Im))表示判决模型输出是mask图像的判决概率。
S1.4,根据像素匹配误差、区域匹配误差以及判决误差的加权和,确定区域识别模型结合判决模型的训练损失。
在获得像素匹配误差、区域匹配误差以及判决误差之后,可以根据如下公式(4),确定区域识别模型结合判决模型的训练损失L。
Figure BDA0002750831970000131
其中,γ1、γ2和γ3为权重。权重可以是预先设定的,或者,可以根据实际使用需求自定义的等,权重设定方式不做限制。
如果训练损失L未收敛,那么调整区域识别模型的模型参数和判决模型的模型参数。不断进行迭代,直到训练损失L收敛,根据当前的区域识别模型的模型参数,获得已训练的区域识别模型。
作为一种实施例,可以通过梯度下降算法,调整区域识别模型的模型参数和判决模型的模型参数。梯度下降算法的优化可以采用adam优化器进行。模型学习率可以设定为0.001,迭代次数可以设定为100000次。
请参考图5,为训练区域识别模型的一种结构示意图。下面基于图5,对区域识别模型的训练过程,进行示例介绍。
区域识别模型中首先是第一卷积层和第二卷积层,然后连接第一空洞卷积层、第二空洞卷积层和第三空洞卷积层,之后连接第一反卷积层和第二反卷积层,最后连接第三卷积层。第一卷积层和第二卷积层的卷积核的大小均为3×3,卷积步长均为1,卷积核的数量均为128,即卷积通道为128,卷积方式均为SAME。第一空洞卷积层、第二空洞卷积层和第三空洞卷积层,与第一反卷积层和第二反卷积层组成对称网络,可以对提取的图像特征进行进一步的特征提取,以及去噪。第一空洞卷积层、第二空洞卷积层和第三空洞卷积层的卷积核的大小均为3×3,卷积步长均为2,空洞跨度rate分别为6、3和2,卷积核的数量均为256,即卷积通道为256,卷积方式为VALID。第一反卷积层和第二反卷积层的卷积核的大小均为3×3,卷积步长均为2,卷积核的数量均为256,即卷积通道为256。
在第一空洞卷积层、第二空洞卷积层和第三空洞卷积层,与第一反卷积层和第二反卷积层组成的对称网络中,引入跳跃连接,通过第四卷积层和第五卷积层来匹配不同层特征图的大小,且引入浅层特征,有助于特征融合。第四卷积层和第五卷积层的卷积核的大小均为3×3,卷积步长均为1。第三卷积层的卷积核的大小均为3×3,卷积步长均为1,卷积核的数量均为3,即卷积通道为3。该举例中,以天空、河岸和河道三个区域类别为例,因此,第三卷积层的卷积核的数量设置为3,区域类别的数量与第三卷积层的卷积核的数量一致。
将样本图像输入区域识别模型,在通过第三卷积层之后,获得与样本图像的大小相同的特征图,从而,可以获得每个像素点的区域类别。根据每个像素点的区域类别获得样本图像的mask图像,将mask图像输入判决模型。
判决模型中首先是卷积层A、卷积层B、卷积层C和卷积层D,连接全连接层A和全连接层B。卷积层A、卷积层B、卷积层C和卷积层D的卷积核的大小为3×3,卷积步长均为1,卷积核的数量分别为256、128、64和32,即卷积通道为256、128、64和32。连接全连接层A和全连接层B中神经元的数量分别为100和50。将mask图像输入判决模型之后,全连接层B输出判决概率,即输入图像是mask图像的概率,以及输入图像是样本mask图像的概率。通过不断的迭代,并计算训练损失,调整区域识别模型的模型参数和判决模型的模型参数,最终获得已训练的区域识别模型。
S203,获得待检测图像中的目标区域。
检测设备102在获得待检测图像中每个像素点的区域类别之后,将属于同一个区域类别的像素点,划分为同一个识别区域。区域类别为目标区域类别的像素点所在的识别区域为目标区域。检测设备102获得待检测图像中的目标区域。
S204,将目标区域划分为至少一个目标子区域。
检测设备102在获得待检测图像中的目标区域之后,将目标区域划分为至少一个目标子区域。划分目标区域的方法有多种,下面以其中的两种方法为例进行介绍。
划分方法一:
将目标区域划分为多个网格区域,网格区域为目标子区域。
对目标区域进行规则划分,将目标区域划分为多个网格区域,每个网格区域均可以作为目标子区域,或者,网格区域中包括的像素点的数量大于预设数量的网格区域,可以作为目标子区域等。网格区域的数量可以预先设定,或者可以随机生成,具体不做限制。
划分方法二:
根据各像素点之间的像素值的差异值,将目标区域划分为至少一个像素块,每个像素块为一个目标子区域。
在目标区域中选取一定量的关键像素点,以关键像素点未基准,确定关键像素点附近的像素点,与关键像素点之间的像素值的差异值,将像素点和差异值最小的关键像素点划分为一个像素块,也就是说,每个像素块中,各像素点与关键像素点之间的像素值的差异值,小于各像素点与其他关键像素点之间的像素值的差异值。
每个像素块均可以作为目标子区域,或者,像素块中包括的像素点的数量大于预设数量的像素块,可以作为目标子区域等。关键像素点的数量可以预先设定,或者可以随机生成,具体不做限制。
S205,识别至少一个目标子区域中每个目标子区域的颜色类别。
检测设备102依次识别至少一个目标子区域中每个目标子区域的颜色类别,识别颜色类别的方法包括多种,例如,通过分析目标子区域中的各像素点的像素值,或采用机器学习技术,如采用已训练的感知器,识别目标子区域的颜色类别等。本申请实施例中,以采用已训练的感知器,识别目标子区域的颜色类别为例,进行介绍。
在训练感知器时,可以根据使用需求,预先设定颜色类别的数量,例如颜色类别包括黑色、绿色、蓝色、黄色、红色和其他6个颜色类别。可以通过大量的样本图像对感知器进行训练,以使感知器可以区分6个颜色类别。
在通过已训练的感知器,对目标子区域进行识别时,感知器接收目标子区域,输出该目标子区域输入每个颜色类别的概率,如输出一个向量,将概率值最大的颜色类别作为该目标子区域的颜色类别。从而,检测设备102获得每个目标子区域的颜色类别。
S206,基于各个目标子区域的颜色类别,获得针对待检测图像的检测结果。
在检测设备102获得各个目标子区域的颜色类别之后,检测设备102可以根据各个目标子区域中是否包括某一指定颜色类别,来确定针对待检测图像的检测结果,或者,检测设备102可以根据各个目标子区域中某一指定颜色类别的目标子区域占所有目标子区域的数量的比例,确定针对待检测图像的检测结果等。
作为一种实施例,检测设备102可以向处理设备103发送各个目标子区域的颜色类别,处理设备103接收检测设备102发送的各个目标子区域的颜色类别。处理设备103基于各个目标子区域的颜色类别,可以对该目标区域内各个颜色类别对应的区域面积进行统计,或者,可以对各个颜色类别对应的区域,占目标区域的比例进行统计,或者,可以确定该目标区域的各个目标子区域中是否包括某一指定的颜色类别的目标子区域等。
例如,根据如下公式(5),确定各个颜色类别对应的区域,占目标区域的比例。
Figure BDA0002750831970000161
其中,i为第i个目标子区域,N表示目标子区域的总数量,
Figure BDA0002750831970000162
表示某一颜色类别对应的目标子区域的数量。
又例如,根据如下公式(6),确定各个颜色类别对应的区域,占目标区域的比例。
Figure BDA0002750831970000171
其中,Mi表示第i个目标子区域中像素点的数量,
Figure BDA0002750831970000172
表示某一颜色类别对应的所有目标子区域中像素点的数量,
Figure BDA0002750831970000173
表示所有目标子区域中像素点的数量。
基于同一发明构思,本申请实施例提供一种检测目标区域的装置,该装置相当于前文论述的检测设备102,能够实现前述检测目标区域的方法对应的功能。请参考图6,该装置包括获取模块601和检测模块602,其中:
获取模块601:用于将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别,获得待检测图像中的目标区域;其中,区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,目标区域包括待检测图像中,区域类别为目标区域类别的所有像素点;
检测模块602:用于将目标区域划分为至少一个目标子区域,并识别至少一个目标子区域中每个目标子区域的颜色类别;以及,基于各个目标子区域的颜色类别,获得针对待检测图像的检测结果。
在一种可能的实施例中,获取模块601具体用于:
将接收的待检测图像输入区域识别模型,获得区域识别模型输出的待检测图像中每个像素点属于各个区域类别的概率;
针对每个像素点,根据像素点属于各个区域类别的概率,将概率最大的区域类别作为像素点的区域类别,获得待检测图像中每个像素点的区域类别。
在一种可能的实施例中,获取模块601还用于:
在将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别之前,接收前端拍摄装置发送的待检测图像;或者,
向前端拍摄装置发送拍摄控制指令,以使前端拍摄装置依据拍摄控制指令进行拍摄,并返回拍摄的待检测图像。
在一种可能的实施例中,检测模块602具体用于:
将各个目标子区域的颜色类别,作为针对待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的数量,与至少一个目标子区域中所有目标子区域的数量的比值,作为针对待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的像素点数量,与至少一个目标子区域中所有目标子区域中的像素点数量的比值,作为针对待检测图像的检测结果。
在一种可能的实施例中,区域识别模型是结合判决模型训练得到的,获取模块601还用于:
在将接收的待检测图像输入区域识别模型,确定待检测图像中每个像素点的区域类别之前,将样本图像输入区域识别模型,确定样本图像的中每个像素点的区域类别;
根据每个像素点的区域类别,以及对应的区域类别标记,确定像素匹配误差;
根据各个识别区域,以及对应的样本区域,确定区域匹配误差;其中,识别区域是根据样本图像中,区域类别相同的像素点确定的,样本区域是根据样本图像中,区域类别标记相同的像素点确定的;
利用判决模型针对由各个识别区域所构成的图像,以及由各个样本区域所构成的图像进行判决得到的判决概率,确定判决误差;其中,判决模型用于确定输入图像是由各个识别区域所构成的图像的概率,以及是由各个样本区域所构成的图像的概率;
根据像素匹配误差、区域匹配误差以及判决误差的加权和,确定区域识别模型结合判决模型的训练损失;
若确定训练损失未收敛,则调整区域识别模型的模型参数和判决模型的模型参数,以使训练损失收敛,获得已训练的区域识别模型。
在一种可能的实施例中,获取模块601具体用于:
针对每个识别区域,确定识别区域中各个像素点的像素点位置,获得第一像素点位置集合;确定识别区域对应的样本区域中各个像素点的像素点位置,获得第二像素点位置集合;
根据第一像素点位置集合与第二像素点位置集合的交集中像素点位置的数量,与第一像素点位置集合与第二像素点位置集合的并集中像素点位置的数量的比值,确定识别区域与对应的样本区域之间的匹配误差;
根据各个识别区域,与对应的样本区域之间的匹配误差的加权和,确定区域匹配误差。
在一种可能的实施例中,各个识别区域,与对应的样本区域之间的匹配误差的权重中,目标区域与对应的样本区域之间的匹配误差的权重大于其他识别区域,与对应的样本区域之间的匹配误差的权重。
基于同一发明构思,本申请实施例提供一种计算机设备,该计算机设备能够实现前述的检测目标区域的功能,该计算机设备可以相当于前述的电扇,请参见图7,该计算机设备包括:
至少一个处理器701,以及与至少一个处理器701连接的存储器702,本申请实施例中不限定处理器701与存储器702之间的具体连接介质,图7中是以处理器701和存储器702之间通过总线700连接为例。总线700在图7中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线700可以分为地址总线、数据总线、控制总线等,为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。或者,处理器701也可以称为控制器701,对于名称不做限制。
在本申请实施例中,存储器702存储有可被至少一个处理器701执行的指令,至少一个处理器701通过执行存储器702存储的指令,可以执行前文论述的检测目标区域的方法。处理器701可以实现图6所示的控制设备中各个模块的功能。
其中,处理器701是该控制设备的控制中心,可以利用各种接口和线路连接整个该控制设备的各个部分,通过运行或执行存储在存储器702内的指令以及调用存储在存储器702内的数据,该控制设备的各种功能和处理数据,从而对该控制设备进行整体监控。
在一种可能的实施例中,处理器701可包括一个或多个处理单元,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。在一些实施例中,处理器701和存储器702可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器701可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的检测目标区域的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器702作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器702可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器702是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器702还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器701进行设计编程,可以将前述实施例中介绍的检测目标区域的方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行图2所示的实施例的检测目标区域的方法的步骤。如何对处理器701进行设计编程为本领域技术人员所公知的技术,这里不再赘述。
基于同一发明构思,本申请实施例还提供一种存储介质,该存储介质存储有计算机指令,当该计算机指令在计算机上运行时,使得计算机执行前文论述检测目标区域的方法。
在一些可能的实施方式中,本申请提供的检测目标区域的方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在装置上运行时,程序代码用于使该控制设备执行本说明书上述描述的根据本申请各种示例性实施方式的检测目标区域的方法中的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种检测目标区域的方法,其特征在于,包括:
将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,获得所述待检测图像中的目标区域;其中,所述区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,所述目标区域包括所述待检测图像中,区域类别为目标区域类别的所有像素点;
将所述目标区域划分为至少一个目标子区域,并识别所述至少一个目标子区域中每个目标子区域的颜色类别;
基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果。
2.根据权利要求1所述的方法,其特征在于,将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,具体包括:
将接收的待检测图像输入区域识别模型,获得所述区域识别模型输出的所述待检测图像中每个像素点属于各个区域类别的概率;
针对每个像素点,根据像素点属于各个区域类别的概率,将概率最大的区域类别作为像素点的区域类别,获得所述待检测图像中每个像素点的区域类别。
3.根据权利要求1所述的方法,其特征在于,在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,还包括:
接收前端拍摄装置发送的待检测图像;或者,
向前端拍摄装置发送拍摄控制指令,以使所述前端拍摄装置依据所述拍摄控制指令进行拍摄,并返回拍摄的待检测图像。
4.根据权利要求1~3任一项所述的方法,其特征在于,基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果,具体包括:
将各个目标子区域的颜色类别,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的数量,与所述至少一个目标子区域中所有目标子区域的数量的比值,作为针对所述待检测图像的检测结果;或者,
将颜色类别相同的目标子区域的像素点数量,与所述至少一个目标子区域中所有目标子区域中的像素点数量的比值,作为针对所述待检测图像的检测结果。
5.根据权利要求1所述的方法,其特征在于,所述区域识别模型是结合判决模型训练得到的,在将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别之前,所述区域识别模型的训练过程包括:
将样本图像输入区域识别模型,确定所述样本图像的中每个像素点的区域类别;
根据每个像素点的区域类别,以及对应的区域类别标记,确定像素匹配误差;
根据各个识别区域,以及对应的样本区域,确定区域匹配误差;其中,所述识别区域是根据样本图像中,区域类别相同的像素点确定的,所述样本区域是根据样本图像中,区域类别标记相同的像素点确定的;
利用所述判决模型针对由各个识别区域所构成的图像,以及由各个样本区域所构成的图像进行判决得到的判决概率,确定判决误差;其中,所述判决模型用于确定输入图像是由各个识别区域所构成的图像的概率,以及是由各个样本区域所构成的图像的概率;
根据所述像素匹配误差、所述区域匹配误差以及判决误差的加权和,确定所述区域识别模型结合所述判决模型的训练损失;
若确定所述训练损失未收敛,则调整所述区域识别模型的模型参数和所述判决模型的模型参数,以使所述训练损失收敛,获得已训练的区域识别模型。
6.根据权利要求5所述的方法,其特征在于,根据各个识别区域,以及对应的样本区域,确定区域匹配误差,具体包括:
针对每个识别区域,确定识别区域中各个像素点的像素点位置,获得第一像素点位置集合;确定识别区域对应的样本区域中各个像素点的像素点位置,获得第二像素点位置集合;
根据第一像素点位置集合与第二像素点位置集合的交集中像素点位置的数量,与第一像素点位置集合与第二像素点位置集合的并集中像素点位置的数量的比值,确定识别区域与对应的样本区域之间的匹配误差;
根据各个识别区域,与对应的样本区域之间的匹配误差的加权和,确定区域匹配误差。
7.根据权利要求6所述的方法,其特征在于,各个识别区域,与对应的样本区域之间的匹配误差的权重中,目标区域与对应的样本区域之间的匹配误差的权重大于其他识别区域,与对应的样本区域之间的匹配误差的权重。
8.一种检测目标区域的装置,其特征在于,包括:
获取模块:用于将接收的待检测图像输入区域识别模型,确定所述待检测图像中每个像素点的区域类别,获得所述待检测图像中的目标区域;其中,所述区域识别模型是根据大量样本图像,以及样本图像中每个像素点的区域类别标记训练得到的,所述目标区域包括所述待检测图像中,区域类别为目标区域类别的所有像素点;
检测模块:用于将所述目标区域划分为至少一个目标子区域,并识别所述至少一个目标子区域中每个目标子区域的颜色类别;以及,基于各个目标子区域的颜色类别,获得针对所述待检测图像的检测结果。
9.一种计算机设备,其特征在于,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序指令执行如权利要求1~7中任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1~7中任一项所述的方法。
CN202011183534.4A 2020-10-29 2020-10-29 一种检测目标区域的方法、装置、设备及存储介质 Active CN112330619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011183534.4A CN112330619B (zh) 2020-10-29 2020-10-29 一种检测目标区域的方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011183534.4A CN112330619B (zh) 2020-10-29 2020-10-29 一种检测目标区域的方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112330619A true CN112330619A (zh) 2021-02-05
CN112330619B CN112330619B (zh) 2023-10-10

Family

ID=74297009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011183534.4A Active CN112330619B (zh) 2020-10-29 2020-10-29 一种检测目标区域的方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112330619B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163509A1 (en) * 2015-10-30 2017-05-03 Xiaomi Inc. Method for region extraction, method for model training, and devices thereof
KR101749030B1 (ko) * 2015-12-11 2017-06-20 연세대학교 산학협력단 영상에서의 신체 부위 검출 방법 및 그 장치
CN107358242A (zh) * 2017-07-11 2017-11-17 浙江宇视科技有限公司 目标区域颜色识别方法、装置及监控终端
CN107609536A (zh) * 2017-09-29 2018-01-19 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN110569693A (zh) * 2018-08-16 2019-12-13 阿里巴巴集团控股有限公司 车体颜色识别方法及装置
EP3624007A1 (en) * 2018-08-03 2020-03-18 Huawei Technologies Co., Ltd. Method and apparatus for training object detection model, and device
WO2020101428A1 (ko) * 2018-11-15 2020-05-22 사회복지법인 삼성생명공익재단 병변 영역 검출 장치, 병변 영역 검출 방법 및 컴퓨터 프로그램
CN111401376A (zh) * 2020-03-12 2020-07-10 腾讯科技(深圳)有限公司 目标检测方法、装置、电子设备以及存储介质
CN111489369A (zh) * 2020-03-24 2020-08-04 玖壹叁陆零医学科技南京有限公司 幽门螺杆菌的定位方法、装置和电子设备
CN111738244A (zh) * 2020-08-26 2020-10-02 腾讯科技(深圳)有限公司 图像检测方法、装置、计算机设备和存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3163509A1 (en) * 2015-10-30 2017-05-03 Xiaomi Inc. Method for region extraction, method for model training, and devices thereof
KR101749030B1 (ko) * 2015-12-11 2017-06-20 연세대학교 산학협력단 영상에서의 신체 부위 검출 방법 및 그 장치
CN107358242A (zh) * 2017-07-11 2017-11-17 浙江宇视科技有限公司 目标区域颜色识别方法、装置及监控终端
CN107609536A (zh) * 2017-09-29 2018-01-19 百度在线网络技术(北京)有限公司 信息生成方法和装置
EP3624007A1 (en) * 2018-08-03 2020-03-18 Huawei Technologies Co., Ltd. Method and apparatus for training object detection model, and device
CN110569693A (zh) * 2018-08-16 2019-12-13 阿里巴巴集团控股有限公司 车体颜色识别方法及装置
WO2020101428A1 (ko) * 2018-11-15 2020-05-22 사회복지법인 삼성생명공익재단 병변 영역 검출 장치, 병변 영역 검출 방법 및 컴퓨터 프로그램
CN111401376A (zh) * 2020-03-12 2020-07-10 腾讯科技(深圳)有限公司 目标检测方法、装置、电子设备以及存储介质
CN111489369A (zh) * 2020-03-24 2020-08-04 玖壹叁陆零医学科技南京有限公司 幽门螺杆菌的定位方法、装置和电子设备
CN111738244A (zh) * 2020-08-26 2020-10-02 腾讯科技(深圳)有限公司 图像检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN112330619B (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
CN112990432B (zh) 目标识别模型训练方法、装置及电子设备
CN110569878B (zh) 一种基于卷积神经网络的照片背景相似度聚类方法及计算机
CN104700099B (zh) 识别交通标志的方法和装置
CN109815770B (zh) 二维码检测方法、装置及系统
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN110163842B (zh) 建筑裂缝检测方法、装置、计算机设备和存储介质
CN111814902A (zh) 目标检测模型训练方法、目标识别方法、装置和介质
CN112651438A (zh) 多类别图像的分类方法、装置、终端设备和存储介质
CN111626295B (zh) 车牌检测模型的训练方法和装置
CN112215201B (zh) 评估人脸识别模型、针对图像的分类模型的方法及装置
CN110765865B (zh) 基于改进的yolo算法的水下目标检测方法
CN111104830A (zh) 用于图像识别的深度学习模型、该模型的训练装置及方法
CN109670383B (zh) 视频遮蔽区域选取方法、装置、电子设备及系统
CN111935479B (zh) 一种目标图像确定方法、装置、计算机设备及存储介质
CN111680690B (zh) 一种文字识别方法及装置
CN109858547A (zh) 一种基于bssd的目标检测方法与装置
CN111914908B (zh) 一种图像识别模型训练方法、图像识别方法及相关设备
CN112101359B (zh) 文本公式的定位方法、模型训练方法及相关装置
CN111814776B (zh) 一种图像处理方法、设备、服务器及存储介质
CN109165654B (zh) 一种目标定位模型的训练方法和目标定位方法及装置
CN113673530A (zh) 遥感图像语义分割方法、装置、计算机设备和存储介质
CN111179270A (zh) 基于注意力机制的图像共分割方法和装置
CN110633712A (zh) 一种车身颜色识别方法、系统、装置及计算机可读介质
CN112597995B (zh) 车牌检测模型训练方法、装置、设备及介质
CN111553337A (zh) 一种基于改进锚框的高光谱多目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant