CN115661500A - 基于二阶分布及不确定性感知聚类融合的目标检测方法 - Google Patents

基于二阶分布及不确定性感知聚类融合的目标检测方法 Download PDF

Info

Publication number
CN115661500A
CN115661500A CN202211681207.0A CN202211681207A CN115661500A CN 115661500 A CN115661500 A CN 115661500A CN 202211681207 A CN202211681207 A CN 202211681207A CN 115661500 A CN115661500 A CN 115661500A
Authority
CN
China
Prior art keywords
prediction
distribution
target
uncertainty
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211681207.0A
Other languages
English (en)
Other versions
CN115661500B (zh
Inventor
陈蕾
王瑞
鲍庆森
张宇帆
毛泽勇
朱薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202211681207.0A priority Critical patent/CN115661500B/zh
Publication of CN115661500A publication Critical patent/CN115661500A/zh
Application granted granted Critical
Publication of CN115661500B publication Critical patent/CN115661500B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及不确定性估计领域及目标检测领域,公开了基于二阶分布及不确定性感知聚类融合的目标检测方法。所述方法包括:定义目标类别服从先验分布为狄利克雷分布的类别分布,并基于主观逻辑理论,将其转化为等价的主观意见从而得到类别不确定性评估以及类别预测;定义目标位置偏移量服从先验分布为高斯逆伽马分布的高斯分布,并对目标位置标签进行逆运算,基于神经网络学习得到的二阶分布计算得到目标框位置信息以及回归不确定性估计;基于空间邻近性对模型输出的预测框聚类得到预测框簇,并引入加权信念融合方法对预测框簇中的狄利克雷分布进行融合,最终针对同一目标,得到结合了不同预测框证据的单一预测框作为最终结果。

Description

基于二阶分布及不确定性感知聚类融合的目标检测方法
技术领域
本发明涉及不确定性估计领域及目标检测领域,特别涉及一种基于二阶分布及不确定性感知聚类融合的目标检测方法。
背景技术
随着深度学习方法的快速发展,采用深度学习方法的目标检测模型也取得了巨大的成功,被广泛应用于医学影像识别、自动驾驶感知、人脸识别等领域。然而在如上这些安全敏感的领域中,模型在给出预测的同时,具备提供校准的、鲁棒的、高效的不确定性估计的能力是至关重要的。
当前基于深度网络的目标检测模型(如Redmon J, Divvala S, Girshick R, etal. You only look once: Unified, real-time object detection[C]//Proceedingsof the IEEE conference on computer vision and pattern recognition. 2016: 779-788.,以及Girshick R. Fast r-cnn[C]//Proceedings of the IEEE internationalconference on computer vision. 2015: 1440-1448.,以及Liu W, Anguelov D, ErhanD, et al. Ssd: Single shot multibox detector[C]//European conference oncomputer vision. Springer, Cham, 2016: 21-37.)往往将通过SoftMax函数输出的类别概率解释为分类置信度,并且通过学习预测框与目标真实框的IOU给出了回归任务的置信度,然而这样得到的置信度是非校准的,在面对分布外样本时,其给出的置信度估计是不可靠的。
深度学习中的不确定性主要有两种来源:偶然不确定性、认知不确定性。为解决当前目标检测模型无法给出可靠不确定性估计的问题,在现有技术中,往往使用MC-Dropout(如Harakeh A, Smart M, Waslander S L. Bayesod: A bayesian approach foruncertainty estimation in deep object detectors[C]//2020 IEEE InternationalConference on Robotics and Automation (ICRA). IEEE, 2020: 87-93.)以及Ensemble方法评估认知不确定性;通过直接建模方法(如Choi J, Chun D, Kim H, et al.Gaussian yolov3: An accurate and fast object detector using localizationuncertainty for autonomous driving[C]//Proceedings of the IEEE/CVFInternational Conference on Computer Vision. 2019: 502-511.)评估偶然不确定性。采用以上技术的可信目标检测模型,要么受限于计算代价过高的问题;亦或仅仅建模两种不确定性中的一种,限制了模型的应用广度。
发明内容
本发明实施例提供基于二阶分布及不确定性感知聚类融合的目标检测方法,旨在解决现有技术无法在同时给出精准的预测、评估偶然不确定性和认知不确定性的同时,保证极低的计算代价的技术问题。
为此,本发明实施例提供如下技术方案:
基于二阶分布及不确定性感知聚类融合的目标检测方法,包括:
基于主观逻辑理论,定义目标类别服从类别分布(Categorical distribution),并定义狄利克雷分布(Dirichlet Distribution)为类别似然的共轭先验;
基于yolov3目标检测模型构建可信目标检测模型分类分支,以神经网络输出作为主观意见,将神经网络的学习定义为一个证据获取过程,并从数据中学习得到通过获取证据产生此主观意见的函数;
将目标位置偏移量的学习定义为一个证据获取过程;
基于yolov3目标检测模型构建可信目标检测模型回归分支,定义目标位置偏移量对应的四个参数分别服从高斯分布,并定义高斯逆伽马分布(Normal Inverse Gammadistribution)为高斯似然的共轭先验;
获取训练样本;
根据所述训练样本及对应标签,训练可信目标检测模型分类分支学习狄利克雷分布的参数;
根据所述训练样本及对应标签,对标签进行逆运算,训练可信目标检测模型回归分支学习高斯逆伽马分布的参数;
获取测试样本;
通过所述训练得到的可信目标检测模型预测所述测试样本中目标对应的狄利克雷分布以及高斯逆伽马分布的参数;
基于所述可信目标检测模型预测得到的狄利克雷分布参数,根据主观逻辑理论计算所述测试样本中目标对应预测框类别以及类别不确定性;
基于所述可信目标检测模型预测得到的所述四个目标位置偏移量对应的高斯逆伽马分布的参数,计算所述测试样本对应预测框位置以及回归任务中的偶然不确定性以及认知不确定性;
通过融合四个位置参数对应的不确定性以获得一个单一的不确定性估计;
通过Scaled-Sigmoid函数将回归任务中的两种不确定性映射为值域为[0,1]的小数,并基于映射后的不确定性估计计算回归置信度;
基于模型输出的类别不确定估计计算类别置信度;
基于类别置信度以及回归置信度计算对于目标框预测的整体置信度;
将所述可信目标检测模型输出的预测框以及对应的狄利克雷分布加入输入预测框集合以及预测框对应的狄利克雷分布集合;
基于所述得到的预测框集合,选取回归置信度得分最高的预测框作为聚类中心;
基于空间邻近性,将与聚类中心预测框交并比分数大于预设阈值的预测框加入当前预测框簇,并将所述预测框及对应分布从原集合中删除;
将聚类中心预测框的位置信息作为针对此目标的最终单一预测框对应的位置信息;
基于主观意见融合理论,将所述预测框簇中针对同一目标的狄利克雷分布集合进行融合得到针对此目标的最终单一预测框的类别信息以及对应的单一狄利克雷分布,并基于所述单一狄利克雷分布计算得到类别置信度;
将所述得到的回归置信度最高得分预测框位置信息、所述单一预测框类别信息、回归置信度以及类别置信度进行组合作为针对此目标的最终预测框,将所述最终预测框加入输出预测框集合;
重复此过程,直至所述可信目标检测模型输出的所述预测框集合及所述分布集合为空;
在所述测试样本上可视化所述输出预测框集合中的预测框。
本发明提出的可信目标检测模型具有如下优点:
(1)首先基于主观逻辑建模了类别不确定性,相较于传统方法使用一阶概率表达不确定性,后者缺点在于无法反应所给出概率的可信程度,主观逻辑通过在主观意见中包含不确定性质量来显式建模不确定性,从而具有反映所给出的概率是否可靠的能力;
(2)主观意见可以通过狄利克雷分布表达,这使得可以通过神经网络学习观测样本中存在的证据来生成主观意见;
(3)将对于目标位置的学习定义为一个证据获取过程,在假设目标位置坐标服从高斯分布的基础上,建模定义在一阶高斯分布之上的高斯逆伽马分布,从而可以在一次神经网络前向传播过程中,同时建模偶然不确定性以及认知不确定性,相较贝叶斯神经网络通过采样来建模认知不确定性的方式,本发明采用的方法不仅大幅减少了计算代价,同时提供了更精准的不确定性估计;
(4)本发明还包含一种不确定性感知的聚类融合后处理方法,相较于传统非极大值抑制方法,不仅在模型处理分布外样本时,同样能够提供精准的不确定性估计从而降低了由于模型过度自信所导致的多检、误检情况;
(5)将负责预测同一目标的不同预设框对应的检测头视为专注于不同类型目标的检测器,将模型预测的针对同一目标的不同狄利克雷分布视为关于此目标类别信息的不同方面信息来源,采用主观意见融合方法将针对同一目标的不同狄利克雷分布融合,从而可以更加充分的利用模型学习到的关于目标类别的不同方面证据。
附图说明
为了更清楚的说明本发明实施的技术方案,下面将对实施例中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。
图1是本发明实施例目标检测方法的整体流程图。
图2是本发明实施例目标检测方法的模型推理流程图。
图3是本发明实施例目标检测方法的模型结构图。
图4是本发明实施例不确定性感知的聚类融合方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了使本发明实施例的方案更容易理解,并且更好的体现与现有的实施方案的区别,下面首先对现有技术中已有的可信目标检测方法做简要说明。
现有可信目标检测方法可以简要分为三类:采用MC-Dropout或者Deep Ensemble方法仅估计认知不确定性的可信目标检测方法、采用直接建模方式仅估计偶然不确定性的可信目标检测方法、同时采用上述两种方法同时估计偶然不确定性以及认知不确定性的可信目标检测方法。此外,现有目标检测模型往往采用多个预测框预测同一目标,最后通过非极大值抑制(Non Maximum Supression)去除冗余预测框。然而,不同的预测框对应的分布可能包含对于预测目标的不同方面的信息,采用非极大值抑制可能会造成信息损失。
由于贝叶斯神经网络通过定义网络权重服从高斯分布,进而通过变分推断以及蒙特卡罗方法近似推断出网络权重的后验分布,但往往带来高昂的计算代价。通过采用MC-Dropout的深度神经网络亦或Deep Ensemble方法估计认知不确定性虽然相较于贝叶斯神经网络减少了计算代价,但上述方法要么需在测试阶段多次运行神经网络、要么需要同时训练多个神经网络。与非贝叶斯深度神经网络对比,均无法在单个神经网络单次前向传播中估计认知不确定性。本发明实施例所提供的方法在将高斯逆伽马分布定义为高斯似然函数的共轭先验前提下,将深度网络学习过程定义为一个证据获取过程,实现了在一次前向传播中,同时估计偶然不确定性以及认知不确定性。
现有可信目标检测方法中,往往通过直接建模方法也就是一阶概率估计目标检测中存在的偶然不确定性,然而得到的概率估计往往是非校准的,并且在处理分布外(out ofdistribution)样本时,可能会出现过于自信的预测(over-confidence),而本发明实施例通过建模二阶分布学习数据中存在的证据则在处理分布外数据时由于收集到的证据较少,因此仍然可以提供较高的不确定性估计。
综上所述,本发明实施例所提供的方案,不仅可以在处理分布外样本时,仍然能够给出鲁棒的、校准的不确定性估计,并且还能在一次前向传播中完成认知不确定性的评估,相较于贝叶斯神经网络、MC-Dropout以及Deep Ensemble方法大大减少了计算代价。
由于本发明实施例基线模型为yolov3目标检测模型,因此有必要对yolov3目标检测模型进行简要的描述。yolov3模型为单阶段目标检测模型,其特点为通过将不同深度卷积层所提取得到的特征图划分为网格结构,并且在每一个网格上预设na个先验框,将落在相应网格内的目标与预设框计算宽度比例以及高度比例,筛选出比率小于预设阈值的先验框作为正样本预测框,从而同时预测目标的位置信息、类别信息以及置信度。采用预设框机制不仅可以使得密集场景下多个物体落在同一网格中,模型无法同时兼顾预测的缺点,而且通过聚类算法统计训练样本中目标框的尺度情况,给出更加贴合真实目标尺度的预设框,从而使得模型可以基于预设框预测目标相对于预设框的偏移以及缩放倍数,相较于直接预测目标位置及大小,前者可以更加容易的预测出目标的真实位置。
为简洁起见,此处给出本发明公式所使用的下标符号含义:i表示正样本先验框对应索引位置;j表示对于同一先验框对应的预测结果中不同的位置参数变量对应的索引位置;k表示对于同一先验框对应的预测结果中类别向量中的类别索引位置;K表示对于同一先验框对应的预测结果中类别向量所包含的类别数量,r表示对于可信yolov3目标监测模型输出的预测框进行聚类后得到的预测框簇索引。本发明实施例首先构建可信yolov3目标检测模型分类分支,由于目标检测任务定义单张图片为一个样本,但是单张图片中很可能包含多个不同目标,此外,由于yolov3模型标签匹配算法通过计算目标框与预设框之间的尺度比例,选取与目标尺度匹配的正样本预测框进行预测。
然而,采用上述标签匹配算法可能导致存在多个预设框负责预测同一个目标框。 因此,将每一个正样本预测框定义为从总体中独立同分布采样得到的样本,并定义每一个 正样本预测框对应的类别
Figure 958217DEST_PATH_IMAGE001
服从类别分布,且将狄利克雷分布作为类别分布似然函数的共 轭先验,并通过训练神经网络输出针对每一个正样本预测框类别对应的证据向量,即为:
Figure 112117DEST_PATH_IMAGE002
,其中可信目标检测分类分支神经网络通过
Figure 994623DEST_PATH_IMAGE003
以函数形式表示,其中
Figure 347107DEST_PATH_IMAGE004
为第i个正样本预测框对应的输入,
Figure 227338DEST_PATH_IMAGE005
为可信目标检测分类分支神经网络对应的参数, 其通过网络预测得到的证据向量得到对应狄利克雷分布的参数
Figure 665273DEST_PATH_IMAGE006
,通过计算狄 利克雷分布的期望
Figure 85890DEST_PATH_IMAGE007
,其中
Figure 558459DEST_PATH_IMAGE008
通过公式7计算得到,即可得到对于类别概率的估 计。
采用贝叶斯风险作为神经网络的损失函数,对应于可信目标检测中的分类分支, 对于单个正样本预测框的损失函数如公式1所示,其中K为类别总数,
Figure 344013DEST_PATH_IMAGE009
为K维多项贝塔 函数:
Figure 908724DEST_PATH_IMAGE010
此外,对于无法正确分类的样本,希望网络输出的证据为零,因此通过加入正则项 来移除non misleading证据,第i个正样本预测框对应的正则项损失函数
Figure 133032DEST_PATH_IMAGE011
如公式2所 示,其中
Figure 460108DEST_PATH_IMAGE012
表示狄利克雷分布,
Figure 682142DEST_PATH_IMAGE013
表示伽马函数,
Figure 94669DEST_PATH_IMAGE014
表示逆伽马函数:
Figure 857088DEST_PATH_IMAGE015
Figure 38671DEST_PATH_IMAGE016
Figure 493923DEST_PATH_IMAGE017
综上所述,分类分支损失函数为:
Figure 393746DEST_PATH_IMAGE018
其中
Figure 897540DEST_PATH_IMAGE019
为衰减系数,t为当前训练epoch轮数, anneal_step为预先设置的超参数。衰减系数的目的是防止模型过早收敛,导致模型学习不 够充分。
基于主观逻辑理论,通过公式6计算得到类别不确定性估计:
Figure 933629DEST_PATH_IMAGE020
Figure 559782DEST_PATH_IMAGE021
并基于网络输出的对于预测框i的类别概率最大值
Figure 946901DEST_PATH_IMAGE022
计算得到类别置信度估计:
Figure 51123DEST_PATH_IMAGE023
对于可信yolov3目标检测模型回归分支的构造,同样遵循上述分类任务中样本的定义方式,即为:每一个正样本先验框为一个从总体中采样得到的独立同分布样本。
对于目标检测任务中的回归问题,通常针对每一个目标,需要预测四个参数,(x1, y1,x2,y2)或(x,y,w,h),前者表示目标的左上角坐标以及右下角坐标,后者表示目标相对 于所在图片的中心坐标位置以及目标框的宽高信息。本发明实施例采用yolov3作为基线模 型,如公式9、10、11、12所示,yolov3采用后者表示方式基于预设框机制对目标位置进行预 测,其中
Figure 144981DEST_PATH_IMAGE024
表示Sigmoid函数,
Figure 207615DEST_PATH_IMAGE025
表示yolov3所输出预测框的坐标,
Figure 816451DEST_PATH_IMAGE026
为负责预测目标的单元格 索引,
Figure 255523DEST_PATH_IMAGE027
为先验框对应的宽/高值,
Figure 531783DEST_PATH_IMAGE028
为yolov3输出的变换前的预测值。
Figure 139220DEST_PATH_IMAGE029
Figure 500931DEST_PATH_IMAGE030
Figure 946956DEST_PATH_IMAGE031
Figure 343302DEST_PATH_IMAGE032
由于可信目标检测回归分支采用二型极大似然估计作为神经网络损失函数,因 此,本发明实施例基于公式13、14、15、16对目标标签进行逆运算得到对应目标偏移量标签, 从而保留了预设框机制的优点,其中
Figure 747739DEST_PATH_IMAGE033
如公式17为Sigmoid的反函数。
Figure 472112DEST_PATH_IMAGE034
Figure 987407DEST_PATH_IMAGE035
Figure 972681DEST_PATH_IMAGE036
Figure 548019DEST_PATH_IMAGE037
Figure 884322DEST_PATH_IMAGE038
定义对目标坐标进行逆变换后的偏移量标签
Figure 78674DEST_PATH_IMAGE039
分别服从先验分布为高 斯逆伽马分布的高斯分布,且相互独立。随机向量
Figure 184033DEST_PATH_IMAGE040
Figure 664693DEST_PATH_IMAGE041
Figure 160397DEST_PATH_IMAGE042
Figure 283073DEST_PATH_IMAGE043
为回归分支网络参数,
Figure 977360DEST_PATH_IMAGE044
为正 样本预测框索引,
Figure 268402DEST_PATH_IMAGE045
分量索引。
针对每一个正样本预测框坐标,定义其服从高斯分布:
Figure 844877DEST_PATH_IMAGE046
并定义高斯逆伽马分布(Normal Inverse Gamma Distribution)为高斯分布似然函数的共轭先验:
Figure 505665DEST_PATH_IMAGE047
从高斯逆伽马分布中进行采样可以得到似然函数的一个实例,即为:
Figure 54458DEST_PATH_IMAGE048
,可 以将此高斯逆伽马分布视作一个高阶证据分布,其定义在得到观测样本的未知低阶似然分 布之上。
本发明实施例通过构造可信yolov3回归分支预测此高阶证据分布的参数,此方法相较于之前相关工作优点在于在一次前向转播中即可完成对于目标坐标的预测,并且同时给出偶然不确定性以及认知不确定性的估计。
在得到样本对应的高斯逆伽马分布后,通过公式20,21,22计算其对应的预测值, 偶然不确定性
Figure 283445DEST_PATH_IMAGE049
以及认知不确定性
Figure 816058DEST_PATH_IMAGE050
Figure 14958DEST_PATH_IMAGE051
Figure 683837DEST_PATH_IMAGE052
Figure 942780DEST_PATH_IMAGE053
下面给出训练模型输出高斯逆伽马分布参数的方法,将对于高斯逆伽马分布的学习分为两个子任务:
最大化支持获取到给定观测数据的模型证据;
当预测出现错误时,最小化证据;
对于任务(1),采用二型极大似然估计最大化模型证据即为边际似然函数,其中
Figure 431530DEST_PATH_IMAGE054
Figure 434121DEST_PATH_IMAGE055
其中,边际似然函数如公式24所示,其中
Figure 957506DEST_PATH_IMAGE056
Figure 59454DEST_PATH_IMAGE057
对于任务(2),通过添加错误证据惩罚项来最小化错误预测中的证据。
此处有必要对于NIG分布的参数进行一定的解释,通常可以将共轭先验的参数解释为其与已观测到的具有参数指定性质的虚拟观测数有关。以高斯逆伽马分布为例,参数v表示均值为从v个均值为γ的虚拟观测中估计得到,参数α以及参数β表示方差为从2α个均值为γ,平方偏差和为2β的虚拟观测中估计得到。
因此,将网络预测得到的虚拟观测数之和定义为可信目标检测回归证据分布的证据总量:
Figure 566659DEST_PATH_IMAGE058
并基于证据总量
Figure 107362DEST_PATH_IMAGE059
,定义证据正则项,其正比于预测与真实标签的偏差程度:
Figure 626199DEST_PATH_IMAGE060
当预测出现错误时,此正则项会施加惩罚,惩罚程度正比于证据总量;反过来,只要模型预测正确,那么其据总量便不会受到惩罚而因此减小。
根据上述证据深度回归损失函数构建方法,针对单一正样本预测框,本发明实施例所述的可信目标检测模型回归分支损失函数为:
Figure 226945DEST_PATH_IMAGE061
其中λ作用为权衡模型拟合和不确定性收缩的重要程度。
综上所述,针对单个正样本预测框,本发明实施例所提出的可信目标检测模型采用如下损失函数作为优化目标:
Figure 690287DEST_PATH_IMAGE062
本发明实施例基于公式28所表述的损失函数,采用Adam优化器训练可信目标检测模型。
由于回归分支定义每一个先验框预测的四个参数变量相互独立,通过每一个参数 变量对应的证据分布计算得到的不确定性估计也是针对单个参数变量而言的,然而最终需 要提供的是对于四个参数变量的整体不确定性估计。一个直观的做法是取所有参数变量对 应的不确定性估计的均值为整体不确定性估计,本发明基于公式29、30综合了四个参数变 量对应的不确定性估计,从而得到对于预测框整体的回归不确定性估计,其中
Figure 34681DEST_PATH_IMAGE063
表示偶 然不确定性估计,
Figure 532658DEST_PATH_IMAGE064
表示认知不确定性估计:
Figure 474944DEST_PATH_IMAGE065
Figure 956741DEST_PATH_IMAGE066
由于在后处理过滤阶段,本发明同时考虑分类置信度以及回归置信度过滤预测 框,因此,需要保证回归不确定性与类别不确定性尺度一致,然而通过公式29、30计算得到 的回归不确定性估计值域为
Figure 839246DEST_PATH_IMAGE067
,而类别不确定性估计值域为
Figure 457309DEST_PATH_IMAGE068
,因此,本发明采 用公式31所示的Scaled-Sigmoid函数将回归不确定性估计的值域映射为
Figure 399858DEST_PATH_IMAGE069
,其目的不 仅在于使其尺度与分类不确定性相匹配进而可以结合两者综合评估,而且通过映射也能够 使得回归不确定性估计值的大小与样本无关,从而提供给用户一个统一的不确定性估计。 为提高映射后的不确定性的可分性,在Sigmoid函数中加入了超参数
Figure 837792DEST_PATH_IMAGE070
,其作用为调节 Sigmoid函数变换尺度大小,从而使得映射后的不确定性估计值更加分散:
Figure 664934DEST_PATH_IMAGE071
本发明结合了回归分支输出的回归不确定性估计以及对于预测框相对于真实目 标框交并比的预测值
Figure 137504DEST_PATH_IMAGE072
,得到了回归置信度估计
Figure 250953DEST_PATH_IMAGE073
,其综合考虑了对于目标位置预测 的可信程度
Figure 441763DEST_PATH_IMAGE074
Figure 931650DEST_PATH_IMAGE075
以及准确程度
Figure 399672DEST_PATH_IMAGE072
Figure 684023DEST_PATH_IMAGE076
Figure 830970DEST_PATH_IMAGE077
Figure 858969DEST_PATH_IMAGE078
基于所述得到的回归置信度估计以及类别置信度估计,本发明通过公式35计算得 到综合考虑了分类任务以及回归任务的置信度估计
Figure 40552DEST_PATH_IMAGE079
Figure 495804DEST_PATH_IMAGE080
此外,由于yolov3模型标签匹配算法的性质有可能产生多个先验框负责同一个目标的情况,因此在预测阶段,针对同一目标,与其对应可能存在多个预测框,传统NMS基于预设阈值,首先将网络预测的置信度低于预设阈值的预测框过滤掉,其次针对同一类别,以置信度最高的预测框为准,基于交并比得分过滤掉冗余检测框。
然而,基于网络预测的置信度筛选预测框存在如下问题:
(1)当yolov3置信度预测分支处理分布外样本时,其给出的置信度估计是不可靠的;
(2)网络负责预测同一目标的多个预测框可能包含对于目标位置以及目标类别的不同方面的信息,直接丢弃可能会损失有利于模型预测以及不确定性评估的有益信息。
针对问题(1),本发明实施例提供了基于可信yolov3分类分支评估的类别不确定性,以及回归分支评估的回归不确定性(其中又包含偶然不确定性和认知不确定性),与yolov3基线模型置信度预测分支预测的置信度不同的是:首先,本发明实施例提供的类别不确定性基于主观逻辑理论,通过神经网络预测与主观意见等价的狄利克雷分布的参数,学习数据中存在的证据,从而基于证据量的大小给出可靠的不确定性评估,其衡量了模型所给出的概率分布是否可靠,而这也是分类任务中证据深度学习方法区别于yolov3基线模型通过一阶概率建模类别不确定性的方法的地方,后者在给出概率分布预测的同时,无法给出此概率分布的可靠程度。其次,本发明实施例通过定义高斯逆伽马分布为定义于高斯分布上的高阶分布,从而使得模型具备衡量所给出的分布是否可靠的能力。
针对问题(2),本发明实施例采用融合而非丢弃的方式去除冗余检测框。引入了一种用于融合狄利克雷分布的方法。由于本发明实施例基于主观逻辑通过狄利克雷分布建模主观意见,因此可以采用主观意见融合方法融合对应于同一目标的多个狄利克雷分布,本发明实施例将不同预设框对应的检测头视作给出不同主观意见预测的来源,并且不同预设框对应的检测头均基于相同的特征输入给出主观意见预测,因此不同预设框对应的检测头给出的主观意见是存在依赖关系的,考虑到以上特性,本发明实施例采用主观意见融合方法中的加权信念融合方法融合对应于同一目标的不同狄利克雷分布:
定义
Figure 333310DEST_PATH_IMAGE081
代表负责预测目标的第i个先验框所给出的主观意见预测,
Figure 164999DEST_PATH_IMAGE082
为融合后得 到的主观意见;加权信念融合通过将主观意见映射为等价的狄利克雷分布并对狄利克雷分 布的证据向量
Figure 466668DEST_PATH_IMAGE083
基于各自狄利克雷分布置信度进行加权平均后映射回主观意见表示,其中
Figure 92821DEST_PATH_IMAGE084
Figure 214361DEST_PATH_IMAGE085
基于上述所提的主观意见融合方法,针对不同检测框中的狄利克雷分布,即可通过融合得到结合了不同来源信息的单一主观意见。
本发明所提出的不确定性感知的聚类融合方法主要包含以下执行步骤:
(1) 基于所述可信目标检测模型预测得到的狄利克雷分布参数集合
Figure 584162DEST_PATH_IMAGE086
,根据主 观逻辑理论计算所述测试样本对应预测框类别向量集合
Figure 740337DEST_PATH_IMAGE087
以及类别不确定性集合
Figure 537392DEST_PATH_IMAGE088
(2) 基于所述可信目标检测模型预测得到的高斯逆伽马分布参数集合,计算所述 测试样本对应预测框位置集合
Figure 146228DEST_PATH_IMAGE089
(3) 对所述得到的预测结果进行过滤处理,i表示预测结果集合中第i个预测结果 对应的索引位置,基于公式34计算得到预测框回归置信度估计
Figure 490359DEST_PATH_IMAGE090
,基于公式8计算得到类 别置信度估计
Figure 766620DEST_PATH_IMAGE091
,基于公式35得到整体置信度估计
Figure 875521DEST_PATH_IMAGE092
,将整体置信度估计值小于预设阈值 的预测滤除。
(4) 选取具有最大回归置信度
Figure 237233DEST_PATH_IMAGE073
的预测框作为当前簇r的聚类中心,并遍历检 测框集合,基于公式
Figure 214416DEST_PATH_IMAGE093
将与 聚类中心预测框交并比得分大于预设阈值
Figure 345183DEST_PATH_IMAGE094
的预测框加入当前簇,并将簇中预测框 从所述可信目标检测模型输出的预测框集合中删除。
(5) 将回归置信度最高得分预测框的位置信息作为针对此目标的最终单一预测 框对应的位置信息
Figure 749619DEST_PATH_IMAGE095
(6) 使用公式36所表述的weighted belief fusion对每一预测框簇中的不同预 测框对应的狄利克雷分布进行融合,将融合后的狄利克雷分布的期望作为本簇对应唯一预 测框的类别概率向量
Figure 208414DEST_PATH_IMAGE096
(7) 基于步骤4融合得到的所述狄利克雷分布,基于公式8计算预测框对应的类别 置信度估计
Figure 989288DEST_PATH_IMAGE097
(8) 将所述得到的回归置信度最高得分预测框位置信息
Figure 974561DEST_PATH_IMAGE095
、所述单一预测框 类别向量
Figure 549899DEST_PATH_IMAGE096
、回归置信度
Figure 620623DEST_PATH_IMAGE098
以及类别置信度
Figure 674030DEST_PATH_IMAGE097
进行组合作为针对此目标的最终预测,将 所述最终预测加入输出预测框集合。
(9) 重复过程3、4、5、6、7,直至所述可信目标检测模型输出的所述预测框集合及所述分布集合为空。
(10) 在所述测试样本上可视化所述输出预测框集合中的预测框。
所述不确定性感知的聚类融合方法具体执行细节在方法1中进行表述,其具体执行步骤在图2网络推理流程图中进行表述。
图3为本实施例所提出的可信yolov3目标检测网络结构简图。
图4中,filter对应上文中步骤(3)所述过滤,cluster对应上文中步骤(4)所述聚类,weighted belief fusion 对应上文中步骤(6)所述融合。
Figure 654756DEST_PATH_IMAGE099
综上所述,本发明基于主观逻辑理论建模了目标检测任务中的类别不确定性,通过在主观意见中包含不确定性质量来显式建模不确定性,从而具有反映所给出的概率是否可靠的能力。其次将对于目标位置的学习定义为一个证据获取过程,在假设目标位置坐标服从高斯分布的基础上,建模定义在一阶高斯分布之上的高斯逆伽马分布,从而可以在一次神经网络前向传播过程中,同时建模偶然不确定性以及认知不确定性,相较贝叶斯神经网络通过采样来建模认知不确定性的方式,本发明实施例采用的方法不仅大幅减少了计算代价,同时提供了更精准的不确定性估计。此外,本发明提出了一种不确定性感知的证据融合后处理方法,相较于传统非极大值抑制方法,不仅在模型处理分布外样本时,同样能够提供精准的不确定性估计从而降低了由于模型过度自信所导致的多检、误检情况。并且,将模型预测的针对同一目标的不同狄利克雷分布视为关于此目标类别信息的不同方面信息来源,采用主观意见融合方法将针对同一目标的不同狄利克雷分布融合,从而可以更加充分的利用模型学习到的关于目标类别的不同方面证据。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.基于二阶分布及不确定性感知聚类融合的目标检测方法,其特征在于:包括以下步骤:
S1,获取训练样本以及对应标签;
S2,根据所述训练样本及对应标签,训练可信目标检测模型证据分类分支学习预测狄利克雷分布的参数;
S3,根据所述训练样本及对应标签,对标签进行逆运算从而在保留预设框机制优点的同时,采用二型极大似然损失函数作为训练证据深度回归神经网络学习预测高斯逆伽马分布的参数;
S4,获取测试样本;
S5,将所述测试样本输入训练得到的可信目标检测模型,预测所述测试样本中目标框 对应的狄利克雷分布参数集合
Figure 729565DEST_PATH_IMAGE001
以及高斯逆伽马分布参数集合
Figure 646705DEST_PATH_IMAGE002
S6,基于所述可信目标检测模型预测得到的狄利克雷分布参数集合
Figure 426442DEST_PATH_IMAGE003
,根据主观逻辑 理论计算所述测试样本对应预测框类别向量集合
Figure 759335DEST_PATH_IMAGE004
以及类别不确定性集合
Figure 573707DEST_PATH_IMAGE005
S7,基于所述可信目标检测模型预测得到的高斯逆伽马分布参数集合
Figure 396170DEST_PATH_IMAGE006
,计算所述 测试样本对应预测框位置集合
Figure 663203DEST_PATH_IMAGE007
S8,对得到的预测框位置集合
Figure 862103DEST_PATH_IMAGE008
进行过滤处理,i表示预测结果集合中第i个预测结果 对应的索引位置,计算得到预测框回归置信度估计
Figure 530982DEST_PATH_IMAGE009
,计算得到类别置信度估计
Figure 727608DEST_PATH_IMAGE010
,基 于公式
Figure 481937DEST_PATH_IMAGE011
得到整体置信度估计
Figure 218949DEST_PATH_IMAGE012
,将整体置信度估计值小于预设阈值的预测 滤除;
S9,选取具有最大回归置信度
Figure 742334DEST_PATH_IMAGE013
的预测框作为当前簇r的聚类中心,并遍历预测框集 合,基于公式
Figure 172179DEST_PATH_IMAGE014
将与聚类中 心预测框交并比得分大于预设阈值
Figure 413804DEST_PATH_IMAGE015
的预测框加入当前簇,其中
Figure 626611DEST_PATH_IMAGE016
表示当前 簇的聚类中心,即预测框簇中具有最大置信度的预测框对应的回归坐标,
Figure 270082DEST_PATH_IMAGE017
表示预测 框集合中的预测框回归坐标,并将簇中预测框从所述可信目标检测模型输出的预测框集合 中删除;
S10,将回归置信度最高得分预测框的位置信息作为针对此目标的最终单一预测框对应的位置信息;
S11,使用weighted belief fusion对每一预测框簇中的不同预测框对应的狄利克雷 分布进行融合,将融合后的狄利克雷分布的期望作为本簇对应唯一预测框的类别概率向量
Figure 605248DEST_PATH_IMAGE018
S12,基于步骤S11融合得到的所述狄利克雷分布,基于
Figure 334170DEST_PATH_IMAGE019
计算预 测框对应的类别置信度估计
Figure 412984DEST_PATH_IMAGE020
S13,将所述得到的回归置信度最高得分预测框位置信息
Figure 910962DEST_PATH_IMAGE021
、所述单一预测框类别 向量
Figure 259772DEST_PATH_IMAGE022
、回归置信度
Figure 210411DEST_PATH_IMAGE023
以及类别置信度
Figure 92916DEST_PATH_IMAGE024
进行组合作为针对此目标的最终预测,将所 述最终预测加入输出预测框集合;
S14,重复步骤S3-7,直至所述可信目标检测模型输出的所述预测框集合及所述分布集合为空;
S15,在所述测试样本上可视化所述输出预测框集合中的预测框m。
2.根据权利要求1所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其特征在于,步骤S8中,包括以下步骤:
Step A,基于所述可信目标检测模型输出的高斯逆伽马分布参数集合
Figure 445400DEST_PATH_IMAGE025
,对于
Figure 387948DEST_PATH_IMAGE026
中的每一个预测结果
Figure 763566DEST_PATH_IMAGE027
中每一位置参数变量对应的高斯逆伽马分布参数
Figure 184183DEST_PATH_IMAGE028
,通过公 式20、21、22计算预测框四个位置参数分别对应的偶然不确定性估计
Figure 656753DEST_PATH_IMAGE029
以及认知 不确定性估计
Figure 770202DEST_PATH_IMAGE030
Figure 695433DEST_PATH_IMAGE031
Figure 857424DEST_PATH_IMAGE032
Figure 184500DEST_PATH_IMAGE033
Step B,通过公式29、30将所述的
Figure 734430DEST_PATH_IMAGE034
以及
Figure 412536DEST_PATH_IMAGE035
进行融合,分别得到对 应于单个预测框位置信息的偶然不确定性估计
Figure 440535DEST_PATH_IMAGE036
以及认知不确定性估计
Figure 261598DEST_PATH_IMAGE037
Figure 716850DEST_PATH_IMAGE038
Figure 882252DEST_PATH_IMAGE039
Step C,通过公式32、33所表述的Scaled-Sigmoid函数将所述
Figure 713942DEST_PATH_IMAGE040
以及
Figure 15610DEST_PATH_IMAGE041
分别映射 为值域为[0,1]的
Figure 517130DEST_PATH_IMAGE042
以及
Figure 904249DEST_PATH_IMAGE043
Figure 274050DEST_PATH_IMAGE044
Figure 164646DEST_PATH_IMAGE045
Step D,通过公式34将所述
Figure 961701DEST_PATH_IMAGE046
以及
Figure 570537DEST_PATH_IMAGE047
与预测框相对于真实目标框交并比的 预测值
Figure 947291DEST_PATH_IMAGE048
相乘得到对应于预测框位置信息的回归置信度估计
Figure 957973DEST_PATH_IMAGE049
Figure 191508DEST_PATH_IMAGE050
3.根据权利要求1所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其 特征在于,步骤S8中,所述预测框对应的类别置信度
Figure 553219DEST_PATH_IMAGE051
为基于所述可信目标检测模型输 出的类别不确定性估计
Figure 264823DEST_PATH_IMAGE052
通过公式8计算得到:
Figure 270956DEST_PATH_IMAGE053
4.根据权利要求1所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其 特征在于,步骤S3中,对于目标检测任务中的回归问题,针对每一个目标,需要预测四个参 数,(x1,y1,x2,y2)或(x,y,w,h),前者表示目标的左上角坐标以及右下角坐标,后者表示目 标相对于所在图片的中心坐标位置以及目标框的宽高信息;采用yolov3作为基线模型,如 公式9、10、11、12所示,yolov3采用后者表示基于预设框机制对目标位置进行预测,其中
Figure 675393DEST_PATH_IMAGE055
表 示Sigmoid函数,
Figure 258821DEST_PATH_IMAGE056
表示yolov3所输出预测框的坐标,
Figure 774116DEST_PATH_IMAGE057
为负责预测目标的单元格索引,
Figure 24969DEST_PATH_IMAGE058
为 先验框对应的宽/高值,
Figure 974208DEST_PATH_IMAGE059
为yolov3输出的变换前的预测值:
Figure 310511DEST_PATH_IMAGE060
Figure 629497DEST_PATH_IMAGE061
Figure 734857DEST_PATH_IMAGE062
Figure 356462DEST_PATH_IMAGE063
基于公式13、14、15、16对目标标签进行逆运算得到对应目标偏移量标签,其中
Figure 914482DEST_PATH_IMAGE064
如公 式17为Sigmoid的反函数:
Figure 37159DEST_PATH_IMAGE065
Figure 731445DEST_PATH_IMAGE066
Figure 648586DEST_PATH_IMAGE067
Figure 834848DEST_PATH_IMAGE068
Figure 230057DEST_PATH_IMAGE069
5.根据权利要求1所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其特征在于,步骤S11中,所述可信目标检测方法通过公式36所表述的weighted belieffusion方法将位于同一预测框簇中的不同预测框对应的狄利克雷分布进行融合:
Figure 44429DEST_PATH_IMAGE070
6.根据权利要求2所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其 特征在于,步骤Step D中,回归置信度
Figure 398050DEST_PATH_IMAGE071
可单独基于认知不确定性
Figure 930663DEST_PATH_IMAGE072
计算得到。
7.根据权利要求1所述的基于二阶分布及不确定性感知聚类融合的目标检测方法,其 特征在于,步骤S3中,将每一个正样本预测框定义为从总体中独立同分布采样得到的样本, 并定义每一个正样本预测框对应的类别
Figure 270508DEST_PATH_IMAGE073
服从类别分布,且将狄利克雷分布作为类别分布 似然函数的共轭先验,并通过训练神经网络输出针对每一个正样本预测框类别对应的证据 向量,即为:
Figure 673808DEST_PATH_IMAGE074
,其中神经网络通过
Figure 198330DEST_PATH_IMAGE075
以函数形式表示,
Figure 218239DEST_PATH_IMAGE076
为第i个正样 本预测框对应的输入,
Figure 955251DEST_PATH_IMAGE077
为可信目标检测分类分支神经网络对应的参数,通过网络预测 得到的证据向量得到对应狄利克雷分布的参数
Figure 744215DEST_PATH_IMAGE078
,通过计算狄利克雷分布的期 望
Figure 813540DEST_PATH_IMAGE079
,其中
Figure 55165DEST_PATH_IMAGE080
通过公式
Figure DEST_PATH_IMAGE081
计算得到,即得到对于类别概率的估计;
采用贝叶斯风险作为神经网络的损失函数,对应于可信目标检测中的分类分支,对于 单个正样本预测框的损失函数如公式1所示,其中K为类别总数,
Figure 861447DEST_PATH_IMAGE082
为K维多项贝塔函 数:
Figure DEST_PATH_IMAGE083
此外,对于无法正确分类的样本,希望网络输出的证据为零,因此通过加入正则项来移 除non misleading证据,正则项损失函数
Figure 770498DEST_PATH_IMAGE084
如公式2所示,其中
Figure DEST_PATH_IMAGE085
表示狄利克雷分 布,
Figure 512189DEST_PATH_IMAGE086
表示伽马函数,
Figure DEST_PATH_IMAGE087
表示逆伽马函数:
Figure 506689DEST_PATH_IMAGE088
Figure DEST_PATH_IMAGE089
Figure 992028DEST_PATH_IMAGE090
综上所述,分类分支损失函数为:
Figure DEST_PATH_IMAGE091
其中
Figure 755585DEST_PATH_IMAGE092
为衰减系数,t为当前训练epoch轮数,anneal_ step为预先设置的超参数。
CN202211681207.0A 2022-12-27 2022-12-27 基于二阶分布及不确定性感知聚类融合的目标检测方法 Active CN115661500B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211681207.0A CN115661500B (zh) 2022-12-27 2022-12-27 基于二阶分布及不确定性感知聚类融合的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211681207.0A CN115661500B (zh) 2022-12-27 2022-12-27 基于二阶分布及不确定性感知聚类融合的目标检测方法

Publications (2)

Publication Number Publication Date
CN115661500A true CN115661500A (zh) 2023-01-31
CN115661500B CN115661500B (zh) 2023-04-28

Family

ID=85022546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211681207.0A Active CN115661500B (zh) 2022-12-27 2022-12-27 基于二阶分布及不确定性感知聚类融合的目标检测方法

Country Status (1)

Country Link
CN (1) CN115661500B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630751A (zh) * 2023-07-24 2023-08-22 中国电子科技集团公司第二十八研究所 一种融合信息瓶颈和不确定性感知的可信目标检测方法
CN116884094A (zh) * 2023-09-07 2023-10-13 武汉理工大学 基于视角和行为解耦的多视角行为识别方法及系统
CN117974634A (zh) * 2024-03-28 2024-05-03 南京邮电大学 一种基于证据深度学习的无锚框表面缺陷可信检测方法
CN117974634B (zh) * 2024-03-28 2024-06-04 南京邮电大学 一种基于证据深度学习的无锚框表面缺陷可信检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931857A (zh) * 2020-08-14 2020-11-13 桂林电子科技大学 一种基于mscff的低照度目标检测方法
CN112597815A (zh) * 2020-12-07 2021-04-02 西北工业大学 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法
CN114821022A (zh) * 2022-06-27 2022-07-29 中国电子科技集团公司第二十八研究所 融合主观逻辑和不确定性分布建模的可信目标检测方法
CN115423982A (zh) * 2022-09-19 2022-12-02 南京航空航天大学 基于图像和深度的桌面冰壶三维检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931857A (zh) * 2020-08-14 2020-11-13 桂林电子科技大学 一种基于mscff的低照度目标检测方法
CN112597815A (zh) * 2020-12-07 2021-04-02 西北工业大学 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法
CN114821022A (zh) * 2022-06-27 2022-07-29 中国电子科技集团公司第二十八研究所 融合主观逻辑和不确定性分布建模的可信目标检测方法
CN115423982A (zh) * 2022-09-19 2022-12-02 南京航空航天大学 基于图像和深度的桌面冰壶三维检测方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630751A (zh) * 2023-07-24 2023-08-22 中国电子科技集团公司第二十八研究所 一种融合信息瓶颈和不确定性感知的可信目标检测方法
CN116630751B (zh) * 2023-07-24 2023-10-31 中国电子科技集团公司第二十八研究所 一种融合信息瓶颈和不确定性感知的可信目标检测方法
CN116884094A (zh) * 2023-09-07 2023-10-13 武汉理工大学 基于视角和行为解耦的多视角行为识别方法及系统
CN116884094B (zh) * 2023-09-07 2023-12-12 武汉理工大学 基于视角和行为解耦的多视角行为识别方法及系统
CN117974634A (zh) * 2024-03-28 2024-05-03 南京邮电大学 一种基于证据深度学习的无锚框表面缺陷可信检测方法
CN117974634B (zh) * 2024-03-28 2024-06-04 南京邮电大学 一种基于证据深度学习的无锚框表面缺陷可信检测方法

Also Published As

Publication number Publication date
CN115661500B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN115661500A (zh) 基于二阶分布及不确定性感知聚类融合的目标检测方法
Orchard A particle filtering-based framework for on-line fault diagnosis and failure prognosis
Gawlikowski et al. A survey of uncertainty in deep neural networks
Carvalho et al. A cookbook for using model diagnostics in integrated stock assessments
JP6707920B2 (ja) 画像処理装置、画像処理方法、およびプログラム
Irawan et al. Trade and Foreign Direct Investment on Economic Growth in Indonesia: ARDL Approach: English
Ghoshal et al. On cost-sensitive calibrated uncertainty in deep learning: An application on covid-19 detection
CN104766100B (zh) 基于机器学习的红外小目标图像背景预测方法与装置
Zhang et al. Identification of concrete surface damage based on probabilistic deep learning of images
CN106779354B (zh) 用于飞行器性能评估的Bayes数据融合评估方法
Aunali et al. Bayesian approach in control charts techniques
CN116738192A (zh) 一种基于数字孪生的安全数据评估方法及系统
CN116385969A (zh) 基于多摄像头协同和人类反馈的人员聚集检测系统
Feizizadeh et al. Sensitivity and uncertainty analysis approach for GIS-MCDA based economic vulnerability assessment
Ye et al. Uncertainty Regularized Evidential Regression
Liu Leave-group-out cross-validation for latent Gaussian models
Loch-Dehbi et al. Stochastic reasoning for UAV supported reconstruction of 3D building models
Alag A Bayesian decision-theoretic framework for real-time monitoring and diagnosis of complex systems: Theory and application
Murugamoorthy et al. Interpreting uncertainty in model predictions for COVID-19 diagnosis
Reis et al. Multiresolution Analytics for Large Scale Industrial Processes
Linander et al. Looking at the posterior: accuracy and uncertainty of neural-network predictions
CN116630751B (zh) 一种融合信息瓶颈和不确定性感知的可信目标检测方法
Jing et al. Adaptive multiple cues integration for robust outdoor vehicle visual tracking
CN113657382B (zh) 一种目标检测任务中最佳检测模型的选取方法及装置
CN114550860B (zh) 一种基于流程数据与智能网络模型的就医满意度评估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant