CN110399871A - 一种场景文本检测结果的评估方法 - Google Patents
一种场景文本检测结果的评估方法 Download PDFInfo
- Publication number
- CN110399871A CN110399871A CN201910517849.9A CN201910517849A CN110399871A CN 110399871 A CN110399871 A CN 110399871A CN 201910517849 A CN201910517849 A CN 201910517849A CN 110399871 A CN110399871 A CN 110399871A
- Authority
- CN
- China
- Prior art keywords
- text
- callout box
- detection
- detection block
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种场景文本检测结果的评估方法,该方法分别将预测框在原标注框的占比以及目标文本标注框在预测框的占比作为判定因素,根据这些因素计算检测文本框的召回率和准确率以及调和平均数。与之前的方法相比,在进行文本检测结果评估的时候,该方法考虑到了召回文本框是否能包含完整的文本信息以及检测框之间的紧凑性等问题,而且也将不同检测框和原标注框的紧密程度考虑在内。本方法也针对数据标注标准不一致(有些文本是行级别标注,有些则是单词级别标注)导致结果评估不公正的问题提出了更好的解决方案。本发明能够更加科学地去评估一个场景文本检测器的性能,而且也对检测模型的改进有很大的指导意义。
Description
技术领域
本发明涉及一种场景文本检测结果的评估,具体为一种场景文本检测结果的评估方法,属于计算机视觉与人工智能技术领域。
背景技术
计算机视觉的研究旨在赋予机器以人类的视觉感官能力,它对于实现自动驾驶、人机交互、视屏监督和增强现实等方面的应用有着重要作用。其中,目标检测是视觉感知的第一步,它是计算机视觉的一个基础并且重要的分支。目标检测的目标就是定位物体的位置,并确定物体的类别。而文本也可以视为通用目标的一种,场景文本检测也是目标检测中一个重要的任务。
近年来,在深度学习技术的推动下,场景文本检测得到了充分的发展,越来越多的检测算法被提出。基于深度学习的场景文本检测方法体现出了明显的优势,检测的速度和精度已经远远超过了传统文本检测方法。
对于场景文本检测算法的评估,目前借鉴了通用目标检测的PascalVOC标准提出了ICDAR2013和ICDAR2015等评估标准,根据Recall、Precision和Hmean三个指标去衡量一个文本检测算法的性能。尽管这些标准能比较客观的反应一个文本检测器的性能,但由于场景中的文本存在形状还有分布上的多样性,使得该标准用于场景文本检测结果评估时会有误判,比如该标准对于文本检测框不能完整覆盖目标文本以及一个文本检测框覆盖多个文本的现象不能很好的判断。
发明内容
本发明的目的就在于为了解决上述问题而提供的更加全面、科学的场景文本检测的结果评估标准,可以有效的判别文本检测中是否出现文本检测框不能完整覆盖目标文本以及一个文本检测框覆盖多个文本的现象,并提出更加科学的召回率、精确率和调和平均数的计算方法的一种场景文本检测结果评估方法。
本发明通过以下技术方案来实现上述目的:一种场景文本检测结果的评估方法,包括以下步骤:
步骤1、根据检测框和标注框相交的区域在标注框中所占的比例去计算检测文本框的召回率(TIOURecall);
步骤2、根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率(TIOUPrecision);
步骤3、针对数据集标注标准不一致(有些文本是行级别标注,有些则是单词级别标注)导致评估结果时不公正的问题改进了OM(一个标注框匹配多个检测框)和MO(多个标注框匹配一个检测框)的匹配评估方法,计算得到该情况下文本检测框的召回率和精确率;
步骤4、由上述计算得到的召回率和精确率以及标注框和检测框的总个数计算得到整体的召回率(RecallTIOU)、精确率(PrecisionTIOU)和调和平均数(HmeanTIOU)。
优选的,所述步骤(1)考虑到了检测框不能完全覆盖标注框中的文本信息的时候是否依旧能判定为召回的问题,根据检测框和标注框的相交区域在标注框中的占比去计算召回率(TIOURecall)。
具体的计算方法如下所示:
1-1先定义一个标注框Gi中未被召回的文本区域为Ct:
Ct=A(Gi)-A(Dj∩Gi),Ct∈[0,A(Gi)]
其中A(*)代表区域的面积,Gi表示第i个目标标注框,Dj表示第j个目标检测框,Ct代表第t个未被召回的文本区域;
1-2由Ct计算得到检测框在标注框Gi中的相交区域在标注框Gi中所占的比例:
x代表未被召回区域在标注框中的比例。
1-3计算得到该评估方法下单个文本检测框的召回率(TIOURecall):
优选的,所述步骤2考虑到了一个检测框可能会包含多个文本标注框的情况,根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率(TIOUPrecision)。
包括:
2-1定义一个检测框中包含的非目标文本标注框区域为Ot,这些区域都在目标文本标注框区域外边,不与目标文本标注区域相交;
Ot计算如下:
Ot=A((G1∩Dj-G1∩Dj∩Gi)∪…∪(Gi-1∩Dj-Gi-1∩Dj∩Gi)∪(Gi+1∩Dj-Gi+1∩Dj∩Gi)∪…∪(Gn∩Dj-Gn∩Dj∩Gi)),Ot∈[0,A(Dj-Dj∩Gi)]
Ot代表第t个非目标文本标注框区域,Gk(k≠i,k=1,2...n)代表检测框包含的非目标文本标注框,Gi表示第i个目标文本标注框,Dj表示第j个目标检测框。
2-2根据Ot计算得到目标文本标注框在检测框Dj的相交区域在检测框Dj中所占的比例:
x表示非目标文本标注框外的区域在检测框中的比例。
2-3由计算得到该评估方法下单个文本检测框的精确率(TIOUPrecision):
优选的,所述步骤3包括:
3-1基于单词级别的标注进行行级别的标注,每个文本行级别的标注至少包含2个及2个以上的单词级别标注框;
3-2在对检测结果进行评估时,先用和单词级别标注相同的评估方法对辅助的文本行级别标注进行评估;如果检测框可以和一个文本行标注框匹配,直接计算召回率(TIOURecall)和精确率(TIOUPrecision),否则,继续进行单词级别标注的评估;
具体的匹配公式如下:
tp和tr是Precision和Recall的阈值,且均设为0.8。
3-3对于单词级别标注的评估,先用3-2中的公式判断在文本行标注内的单词级别标注是否被完全召回,如果是,那么文本行级别的召回率(TIOURecall)可以用如下公式计算:
在接下来的步骤中,这个文本行标注框会被跳过。
如果该标注框未被完全召回,那么就根据单词级别标注的评估方法进行计算最后的结果。
优选的,所述步骤4包括:
4-1根据单个文本检测框的召回率(TIOURecall)和标注框总数量计算得到整体的召回率(RecallTIOU):
Numgt为标注框(gt)的总数量。
4-2根据单个文本检测框的精确率(TIOUPrecision)和检测框总数量得到整体的精确率(PrecisionTIOU):
Numdt为检测框(dt)的数量。
4-3根据上述步骤所得到的RecallTIOU和PrecisionTIOU,计算得到该标准下的调和平均值(HmeanTIOU):
本发明的有益效果是:该场景文本检测结果的评估方法设计合理:
(1)本发明针对召回率的计算,引入了检测框和标注框的交集与标注框的比例作为惩罚因子,能更加关注标注框的每一部分,确保检测到的文本的完整性;
(2)本发明针对精确率的计算,同样引入了非目标标注框的区域以及目标标注框与检测框相交的区域在检测框中所占的比例作为惩罚因子,能更加关注检测框与文本之间的紧凑性;
(3)本发明改进了原始的OM(one to many:一个标注框匹配多个检测框)和MO(many to one:多个标注框匹配一个检测框)的匹配评估方法,能更好地解决数据集标注标准不一致导致结果评估不公正的问题;
(4)本发明考虑了文本检测中由于文本的形状和分布多样性而特有的问题,能更加科学全面地反应一个场景文本检测算法的优劣,同时也可以为检测模型的改进提供更好的指导。。
附图说明
图1为本发明场景文本检测中存在的问题示意图;
图2为本发明流程示意图。
图中:(a)为检测文本不完整、(b)为检测到过多背景噪声、(c)为一个检测框包含多个标注框、(d)为OM(one to many)和MO(many toone)的情况。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1~2,一种场景文本检测结果的评估方法,包括以下步骤:
步骤1、根据检测框和标注框相交的区域在标注框中所占的比例去计算检测文本框的召回率(TIOURecall),考虑到了检测框不能完全覆盖标注框中的文本信息的时候是否依旧能判定为召回的问题,根据检测框和标注框的相交区域在标注框中的占比去计算召回率(TIOURecall);
具体的计算方法如下所示:
1-1先定义一个标注框Gi中未被召回的文本区域为Ct:
Ct=A(Gi)-A(Dj∩Gi),Ct∈[0,A(Gi)]
其中A(*)代表区域的面积,Gi表示第i个目标标注框,Dj表示第j个目标检测框,Ct代表第t个未被召回的文本区域;
1-2由Ct计算得到检测框在标注框Gi中的相交区域在标注框Gi中所占的比例:
x代表未被召回区域在标注框中的比例。
1-3计算得到该评估方法下单个文本检测框的召回率(TIOURecall):
步骤2、根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率(TIOUPrecision),考虑到了一个检测框可能会包含多个文本标注框的情况,根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率(TIOUPrecision);
包括:
2-1定义一个检测框中包含的非目标文本标注框区域为Ot,这些区域都在目标文本标注框区域外边,不与目标文本标注区域相交;
Ot计算如下:
Ot=A((G1∩Dj-G1∩Dj∩Gi)∪…∪(Gi-1∩Dj-Gi-1∩Dj∩Gi)∪(Gi+1∩Dj-Gi+1∩Dj∩Gi)∪…∪(Gn∩Dj-Gn∩Dj∩Gi)),Ot∈[0,A(Dj-Dj∩Gi)]
Ot代表第t个非目标文本标注框区域,Gk(k≠i,k=1,2...n)代表检测框包含的非目标文本标注框,Gi表示第i个目标文本标注框,Dj表示第j个目标检测框。
2-2根据Ot计算得到目标文本标注框在检测框Dj的相交区域在检测框Dj中所占的比例:
x表示非目标文本标注框外的区域在检测框中的比例。
2-3由计算得到该评估方法下单个文本检测框的精确率(TIOUPrecision):
步骤3、针对数据集标注标准不一致(有些文本是行级别标注,有些则是单词级别标注)导致评估结果时不公正的问题改进了OM(one to many:一个标注框匹配多个检测框)和MO(many to one:多个标注框匹配一个检测框)的匹配评估方法,计算得到该情况下文本检测框的召回率和精确率;
包括:
3-1基于单词级别的标注进行行级别的标注,每个文本行级别的标注至少包含2个及2个以上的单词级别标注框;
3-2在对检测结果进行评估时,先用和单词级别标注相同的评估方法对辅助的文本行级别标注进行评估;如果检测框可以和一个文本行标注框匹配,直接计算召回率(TIOURecall)和精确率(TIOUPrecision),否则,继续进行单词级别标注的评估;
具体的匹配公式如下:
tp和tr是Precision和Recall的阈值,且均设为0.8。
3-3对于单词级别标注的评估,先用3-2中的公式判断在文本行标注内的单词级别标注是否被完全召回,如果是,那么文本行级别的召回率(TIOURecall)可以用如下公式计算:
在接下来的步骤中,这个文本行标注框会被跳过。
如果该标注框未被完全召回,那么就根据单词级别标注的评估方法进行计算最后的结果。
步骤4、由上述计算得到的召回率和精确率以及标注框和检测框的总个数计算得到整体的召回率(RecallTIOU)、精确率(PrecisionTIOU)和调和平均数(HmeanTIOU)。
包括:
4-1根据单个文本检测框的召回率(TIOURecall)和标注框总数量计算得到整体的召回率(RecallTIOU):
Numgt为标注框(gt)的总数量。
4-2根据单个文本检测框的精确率(TIOUPrecision)和检测框总数量得到整体的精确率(PrecisionTIOU):
Numdt为检测框(dt)的数量。
4-3根据上述步骤所得到的RecallTIOU和PrecisionTIOU,计算得到该标准下的调和平均值(HmeanTIOU):
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (5)
1.一种场景文本检测结果的评估方法,其特征在于:包括以下步骤:
步骤1、根据检测框和标注框相交的区域在标注框中所占的比例去计算检测文本框的召回率;
步骤2、根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率;
步骤3、针对数据集标注标准不一致导致评估结果时不公正的问题改进了OM(一个标注框匹配多个检测框)和MO(多个标注框匹配一个检测框)的匹配评估方法,计算得到该情况下文本检测框的召回率和精确率;
步骤4、由上述计算得到的召回率和精确率以及标注框和检测框的总个数计算得到整体的召回率、精确率和调和平均数。
2.根据权利要求1所述的一种场景文本检测结果的评估方法,其特征在于:所述步骤(1)考虑到了检测框不能完全覆盖标注框中的文本信息的时候是否依旧能判定为召回的问题,根据检测框和标注框的相交区域在标注框中的占比去计算召回率。
具体的计算方法如下所示:
1-1 先定义一个标注框Gi中未被召回的文本区域为Ct:
Ct=A(Gi)-A(Dj∩Gi),Ct∈[0,A(Gi)]
其中A(*)代表区域的面积,Gi表示第i个目标标注框,Dj表示第j个目标检测框,Ct代表第t个未被召回的文本区域;
1-2 由Ct计算得到检测框在标注框Gi中的相交区域在标注框Gi中所占的比例:
x代表未被召回区域在标注框中的比例。
1-3 计算得到该评估方法下单个文本检测框的召回率:
3.根据权利要求1所述的一种场景文本检测结果的评估方法,其特征在于:所述步骤2考虑到了一个检测框可能会包含多个文本标注框的情况,根据检测框包含的非目标文本标注框的区域以及目标文本标注框与检测框相交的区域在检测框中所占的比例去计算检测文本框的精确率:
包括:
2-1 定义一个检测框中包含的非目标文本标注框区域为Ot,这些区域都在目标文本标注框区域外边,不与目标文本标注区域相交;
Ot计算如下:
Ot=A((G1∩Dj-G1∩Dj∩Gi)∪…∪(Gi-1∩Dj-Gi-1∩Dj∩Gi)∪(Gi+1∩Dj-Gi+1∩Dj∩Gi)∪…∪(Gn∩Dj-Gn∩Dj∩Gi)),
Ot∈[0,A(Dj-Dj∩Gi)]
Ot代表第t个非目标文本标注框区域,Gk(k≠i,k=1,2...n)代表检测框包含的非目标文本标注框,Gi表示第i个目标文本标注框,Dj表示第j个目标检测框。
2-2 根据Ot计算得到目标文本标注框在检测框Dj的相交区域在检测框Dj中所占的比例:
x表示非目标文本标注框外的区域在检测框中的比例。
2-3 由计算得到该评估方法下单个文本检测框的精确率:
4.根据权利要求1所述的一种场景文本检测结果的评估方法,其特征在于:所述步骤3包括:
3-1 基于单词级别的标注进行行级别的标注,每个文本行级别的标注至少包含2个及2个以上的单词级别标注框;
3-2 在对检测结果进行评估时,先用和单词级别标注相同的评估方法对辅助的文本行级别标注进行评估;如果检测框可以和一个文本行标注框匹配,直接计算召回率和精确率,否则,继续进行单词级别标注的评估;
具体的匹配公式如下:
tp和tr是Precision和Recall的阈值,且均设为0.8。
3-3 对于单词级别标注的评估,先用3-2中的公式判断在文本行标注内的单词级别标注是否被完全召回,如果是,那么文本行级别的召回率可以用如下公式计算:
在接下来的步骤中,这个文本行标注框会被跳过。
如果该标注框未被完全召回,那么就根据单词级别标注的评估方法进行计算最后的结果。
5.根据权利要求1所述的一种场景文本检测结果的评估方法,其特征在于:所述步骤4包括:
4-1 根据单个文本检测框的召回率和标注框总数量计算得到整体的召回率:
Numgt为标注框(gt)的总数量。
4-2 根据单个文本检测框的精确率和检测框总数量得到整体的精确率:
Numdt为检测框(dt)的数量。
4-3 根据上述步骤所得到的RecallTIOU和PrecisionTIOU,计算得到该标准下的调和平均值:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910517849.9A CN110399871A (zh) | 2019-06-14 | 2019-06-14 | 一种场景文本检测结果的评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910517849.9A CN110399871A (zh) | 2019-06-14 | 2019-06-14 | 一种场景文本检测结果的评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110399871A true CN110399871A (zh) | 2019-11-01 |
Family
ID=68324301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910517849.9A Pending CN110399871A (zh) | 2019-06-14 | 2019-06-14 | 一种场景文本检测结果的评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110399871A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001453A (zh) * | 2020-08-31 | 2020-11-27 | 北京易华录信息技术股份有限公司 | 一种视频事件检测算法的准确率计算方法及装置 |
WO2022100452A1 (zh) * | 2020-11-16 | 2022-05-19 | 深圳壹账通智能科技有限公司 | Ocr系统的评估方法、装置、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107563379A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 用于对自然场景图像中文本的定位方法 |
CN109325406A (zh) * | 2018-08-10 | 2019-02-12 | 广州广电运通金融电子股份有限公司 | 待评估检测算法检测性能的评估方法、装置和计算机设备 |
US20190130204A1 (en) * | 2017-10-31 | 2019-05-02 | The University Of Florida Research Foundation, Incorporated | Apparatus and method for detecting scene text in an image |
CN110378334A (zh) * | 2019-06-14 | 2019-10-25 | 华南理工大学 | 一种基于二维特征注意力机制的自然场景文本识别方法 |
-
2019
- 2019-06-14 CN CN201910517849.9A patent/CN110399871A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346420A (zh) * | 2017-06-19 | 2017-11-14 | 中国科学院信息工程研究所 | 一种基于深度学习的自然场景下文字检测定位方法 |
CN107563379A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 用于对自然场景图像中文本的定位方法 |
US20190130204A1 (en) * | 2017-10-31 | 2019-05-02 | The University Of Florida Research Foundation, Incorporated | Apparatus and method for detecting scene text in an image |
CN109325406A (zh) * | 2018-08-10 | 2019-02-12 | 广州广电运通金融电子股份有限公司 | 待评估检测算法检测性能的评估方法、装置和计算机设备 |
CN110378334A (zh) * | 2019-06-14 | 2019-10-25 | 华南理工大学 | 一种基于二维特征注意力机制的自然场景文本识别方法 |
Non-Patent Citations (2)
Title |
---|
YULIANG LIU等: "Tightness-aware Evaluation Protocol for Scene Text Detection", 《HTTPS://ARXIV.ORG/PDF/1904.00813.PDF》 * |
王润民 等: "自然场景图像中的文本检测综述", 《自动化学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001453A (zh) * | 2020-08-31 | 2020-11-27 | 北京易华录信息技术股份有限公司 | 一种视频事件检测算法的准确率计算方法及装置 |
CN112001453B (zh) * | 2020-08-31 | 2024-03-08 | 北京易华录信息技术股份有限公司 | 一种视频事件检测算法的准确率计算方法及装置 |
WO2022100452A1 (zh) * | 2020-11-16 | 2022-05-19 | 深圳壹账通智能科技有限公司 | Ocr系统的评估方法、装置、设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105184778B (zh) | 一种检测方法及装置 | |
CN109765462A (zh) | 输电线路的故障检测方法、装置和终端设备 | |
CN105095238B (zh) | 用于检测欺诈交易的决策树生成方法 | |
WO2017143921A1 (zh) | 一种多重抽样模型训练方法及装置 | |
CN106203430A (zh) | 一种基于前景聚集度和背景先验的显著性物体检测方法 | |
CN109145949A (zh) | 基于集成学习的非侵入式电力负荷监测与分解方法及系统 | |
CN107123123A (zh) | 基于卷积神经网络的图像分割质量评价方法 | |
CN104992454B (zh) | 一种区域化自动变类的图像分割方法 | |
CN107633323A (zh) | 核保难度预测的方法、装置、计算机设备及存储介质 | |
CN109783617A (zh) | 用于答复问题的模型训练方法、装置、设备及存储介质 | |
CN105512627A (zh) | 一种关键点的定位方法及终端 | |
CN107832802A (zh) | 基于人脸比对的人脸图像质量评价方法及装置 | |
CN103065134A (zh) | 一种具有提示信息的指纹识别装置和方法 | |
CN110033446A (zh) | 基于孪生网络的增强图像质量评价方法 | |
CN107704512A (zh) | 基于社交数据的金融产品推荐方法、电子装置及介质 | |
CN110399871A (zh) | 一种场景文本检测结果的评估方法 | |
CN110276264A (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN108985133B (zh) | 一种人脸图像的年龄预测方法及装置 | |
CN109039503A (zh) | 一种频谱感知方法、装置、设备及计算机可读存储介质 | |
CN109598414A (zh) | 风险评估模型训练、风险评估方法、装置及电子设备 | |
CN106407908A (zh) | 一种训练模型生成方法、人脸检测方法及装置 | |
CN104463916B (zh) | 基于随机游走的眼动注视点测定方法 | |
CN103942415B (zh) | 一种流式细胞仪数据自动分析方法 | |
CN106779271A (zh) | 确定风险特征的方法及装置和账户风险评分方法及装置 | |
CN107203558A (zh) | 对象推荐方法和装置、推荐信息处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191101 |