CN108921871B - 一种基于全局贪婪搜索的鲁棒模型拟合方法 - Google Patents
一种基于全局贪婪搜索的鲁棒模型拟合方法 Download PDFInfo
- Publication number
- CN108921871B CN108921871B CN201810610626.2A CN201810610626A CN108921871B CN 108921871 B CN108921871 B CN 108921871B CN 201810610626 A CN201810610626 A CN 201810610626A CN 108921871 B CN108921871 B CN 108921871B
- Authority
- CN
- China
- Prior art keywords
- model
- data
- theta
- hypothesis
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/231—Analysis of motion using block-matching using full search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Abstract
Description
技术领域
本发明涉及计算机视觉技术,具体涉及一种基于全局贪婪搜索的鲁棒模型拟合方法。
背景技术
鲁棒模型拟合是计算机视觉中一项重要的基础性研究任务,它已广泛地应用于多个实际应用中,比如:特征匹配、图像配准、可视化跟踪,室内导航和运动分割等领域。鲁棒模型拟合的目标是从输入数据中估计出感兴趣模型的参数。具体地,给定一个几何模型(例如:线或基础矩阵),通过模型拟合方法来估计数据中模型实例的参数。
在近数十年里,有大量的模型拟合方法被提出。例如,RANSAC[1]就是一种很受欢迎的模型拟合方法,因其简单易于实现。但是,RANSAC中所使用的随机采样策略并不够高效和准确。具体地,随着几何模型维度或输入数据中离群点(outlier)比例的增加,使用随机采样方法采样到一个干净最小数据子集所需的采样次数会指数地增加。如果没有采样到干净最小数据子集,基于数据采样的模型拟合方法将失败。干净最小数据子集是输入数据的一个子集,它包含了估计一个模型假设所需的最少个(即k)数据,并且一个干净最小数据子集中只能包含一个模型实例的内点。
为了提高采样的有效性,很多模型拟合方法被提出,其中HMSS[2]是近期提出的一种相对高效的拟合方法。HMSS包含一种有效的贪婪采样方法,其采样过程如下:(1)随机选取一个包含h个数据的数据子集来生成一个模型假设,其中h等于k加2,即h=k+2。这里的k是用户输入的一个模型实例应包含的数据点个数的最小值;(2)升序排列输入数据与当前模型假设的残差;(3)使用第k-h+1到第k个排序残差所对应的数据估计一个模型假设;(4)判断是否达到停止标准。如果未达到停止标准,则继续执行第(2),(3)步;否则,停止采样过程。每执行一次HMSS采样可以生成一个模型假设。如果数据中存在多个模型实例,则需要把HMSS嵌入到“拟合-和-移除”过程。通过迭代地在当前剩余的数据中执行HMSS采样来生成模型假设,然后把该模型假设的内点从当前剩余的数据中移除来估计数据中多个模型实例的模型参数。
然而,若干位作者(比如[3]))发现“拟合-和-移除”的过程存在如下缺陷:若有一个模型实例的模型参数估计不准确将导致数据中剩余模型实例的模型参数被估计错误。为了改进这个缺陷,多个针对多模型实例数据的模型拟合方法(例如[3,4,5])被提出,这些方法将数据采样与模型拟合分为两个独立的步骤,目的是同时估计数据中所有的模型实例。它们在执行模型拟合前,需要先采样预先指定个数的数据子集,而如何有效地确定预先指定数据子集的采样个数是相当困难的。
发明内容
有鉴于此,本发明的目的在于提供一种基于全局贪婪搜索的鲁棒模型拟合方法有效地改进了“拟合-和-移除”过程的缺陷。
为实现上述目的,本发明采用如下技术方案:
一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于包括以下步骤:
步骤S1:设置数据集,包含N个数据的输入χ={x1,x2,...,xN},其中N为自然数,并预设一个模型实例应包含的最少数据点个数k及模型实例的个数mc;
步骤S2:初始化参数,包括最大迭代次数tmax,数据子集包含的数据点个数h=p+2,当前迭代次数t,当前已生成的模型实例数m和类标label;
步骤S3:判断当前迭代次数,若前迭代次数t小于tmax,执行步骤S4;否则,结束程序并输出已生成的mc个模型假设;
步骤S4:判断当前已生成的模型实例数m,若当前已生成的模型实例数m小于mc,执行步骤S5;否则,执行步骤S10;
步骤S5:使用label来获取类标为m的第m个模型实例的内点Im;
步骤S6:如果Im所包含的数据元素个数大于h,执行步骤S7;否则,执行步骤S8;
步骤S7:根据全局贪婪搜索的采样方法在Im及输入数据χ上生成模型假设θ;
步骤S8:根据HMSS的采样方法在label中类标为0的数据上生成模型假设θ;
步骤S9:根据模型假设θ及label来获得新的label;
步骤S11:判断是否达到停止标准,若达到停止标准,则输出已生成的mc个模型假设,否则t=t+1后进行步骤S3;
步骤S12:根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合。
进一步的,所述步骤S7具体为:
步骤S71:预设参数,包括单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞;
步骤S72:若当前采样次数j小于jmax,执行步骤S73和S74;否则,结束程序并输出已生成的模型假设;
步骤S73:从Im中随机选取一个包含h个数据的数据子集;
步骤S74:如果当前迭代次数i小于imax,执行步骤S75至S710;否则执行步骤S71;
步骤S75:根据已选取的数据子集来估计一个模型假设θi,输入数据χ与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据xn与θi的残差;
非降序地排列残差向量r(θi)得到排序残差向量
步骤S76:θi的代价函数计算为:
步骤S77:若f(θi)小于fmin(j-1),则fmin(j-1)=f(θi)且θ=θi;
步骤S79:计算fstop如下:
步骤S710:若满足fstop,停止此次采样过程;
步骤S711:若满足fmin(j)=fmin(j-1)=fmin(j-2),则停止整个采样过程并输出已生成的模型假设θ。
进一步的,所述步骤S10具体为:
步骤S101:设定任意两个模型假设之间的互信息计算如下:
其中,
p(xn|θj)是第n个输入数据xn成为模型假设θj内点的概率,公式为:
步骤S102:执行融合操作:若M(θi,θj)大于0,那么融合模型假设θi和θj;反之,保留模型假设θi和θj。
进一步的,所述融合模型假设θi和θj具体为,权重较小的模型假设的类标变为另一个模型假设的类标。
进一步的,所述停止标准具体为:
其中θm,t是融合第t次迭代生成的模型假设后的第m个模型假设。
本发明与现有技术相比具有以下有益效果:
1、本发明提出的模型拟合方法使用贪婪搜索从内点中选取初始数据子集来生成更准确的模型假设。
2、本发明提出的模型拟合方法有效地改进了“拟合-和-移除”过程的缺陷。
3、本发明可应用于单应矩阵估计、基本矩阵估计、两视图平面分割和运动分割等计算机视觉任务。
附图说明
图1是本发明流程图;
图2是本发明在AdelaideRMF数据集的部分图像对上进行两视图平面分割定性的结果图:
图3是本发明在Hopkins 155数据集的部分视频上进行运动分割的结果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
实施例1:
请参照图1,本发明提供一种一种基于全局贪婪搜索的鲁棒模型拟合方法,包括以下步骤:
S1.给定包含N个数据的输入数据χ={x1,x2,...,xN},其中N为自然数。指定一个模型实例应包含的最少数据点个数k及模型实例的个数mc。
S2.执行初始化:指定最大迭代次数tmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数t=0,当前已生成的模型实例数m=0和类标label=0。
S3.如果当前迭代次数t小于tmax,那么执行步骤D;否则,结束程序并输出已生成的mc个模型假设。
S4.如果当前已生成的模型实例数m小于mc,那么执行步骤S5至S9;否则,执行步骤S10及S11。
S5.使用label来获取类标为m的第m个模型实例的内点Im。
S6.如果Im所包含的数据元素个数大于h,那么执行步骤S7;否则,执行步骤S8。
S7.本发明提出的基于全局贪婪搜索的采样方法在Im及输入数据χ上生成模型假设θ具体包括:
S7-1.执行初始化:指定单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞。
S7-2.如果当前采样次数j小于jmax,那么执行步骤S7-3和S7-4。
S7-3.从Im中随机选取一个包含h个数据的数据子集。
S7-4.如果当前迭代次数i小于imax,那么执行步骤S7-5至S7-10;否则,执行步骤S7-11。
S7-5.用已选取的数据子集来估计一个模型假设θi,输入数据χ与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据点xn与θi的残差。非降序地排列残差向量r(θi)得到排序残差向量
S7-6.θi的代价函数计算如下:
S7-7.如果f(θi)小于fmin(j-1),那么让fmin(j-1)=f(θi)且θ=θi。
S7-9.计算fstop如下:
S7-10.如果fstop为真,那么停止此次采样过程。
S7-11.如果fmin(j)=fmin(j-1)=fmin(j-2)为真,那么停止整个采样过程并输出已生成的模型假设θ。
S8.使用HMSS的采样方法在label中类标为0的数据上生成模型假设θ。
S9.使用θ及label来获得新的label。
S10-1.任意两个模型假设之间的互信息计算如下:
其中,
p(xn|θj)是第n个输入数据xn成为模型假设θj内点的概率,其计算如下:
S10-2.执行融合操作如下:
如果M(θi,θj)大于0,那么融合模型假设θi和θj。权重较小的模型假设的类标变为另一个模型假设的类标。其中模型假设的权重计算见Wang et al.PMAI2012。反之,保留模型假设θi和θj。
S11.判断是否达到停止标准。如果达到停止标准,那么结束程序。判断是否达到停止标准具体包括:
S11-1.计算停止标准如下:
其中θm,t是融合第t次迭代生成的模型假设后的第m个模型假设。
S12.输出已生成的mc个模型假设,根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合。。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (4)
1.一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于包括以下步骤:
步骤S1:设置数据集,包含N个数据的输入x={x1,x2,…,xN},其中N为自然数,并预设一个模型实例应包含的最少数据点个数k及模型实例的个数mc;
步骤S2:初始化参数,包括最大迭代次数tmax,数据子集包含的数据点个数h=p+2,当前迭代次数t,当前已生成的模型实例数m和类标label;
步骤S3:判断当前迭代次数,若前迭代次数t小于tmax,执行步骤S4;否则,结束程序并输出已生成的mc个模型假设;
步骤S4:判断当前已生成的模型实例数m,若当前已生成的模型实例数m小于mc,执行步骤S5;否则,执行步骤S10;
步骤S5:使用label来获取类标为m的第m个模型实例的内点Im;
步骤S6:如果Im所包含的数据元素个数大于h,执行步骤S7;否则,执行步骤S8;
步骤S8:根据HMSS的采样方法在label中类标为0的数据上生成模型假设θ;
步骤S9:根据模型假设θ及label来获得新的label;
步骤S11:判断是否达到停止标准,若达到停止标准,则输出已生成的mc个模型假设,否则t=t+1后进行步骤S3;
步骤S12:根据输出已生成的mc个模型假设,对图像进行分割,完成模型拟合;
所述步骤S7具体为:
步骤S71:预设参数,包括单次采样的最大迭代次数imax=50,最大采样次数jmax=10,数据子集包含的数据点个数h=p+2,当前迭代次数i=0,当前已采样次数j=0和当前最小代价fmin(0)=+∞;
步骤S72:若当前采样次数j小于jmax,执行步骤S73和S74;否则,结束程序并输出已生成的模型假设;
步骤S73:从Im中随机选取一个包含h个数据的数据子集;
步骤S74:如果当前迭代次数i小于imax,执行步骤S75至S710;否则执行步骤S71;
步骤S75:根据已选取的数据子集来估计一个模型假设θi,输入数据x与θi的残差向量计算如下:
r(θi)=[r1(θi),r2(θi),…,rN(θi)], (1)
其中rn(θi)是第n个数据xn与θi的残差;
非降序地排列残差向量r(θi)得到排序残差向量
步骤S76:θi的代价函数计算为:
步骤S77:若f(θi)小于fmin(j-1),则fmin(j-1)=f(θi)且θ=θi;
步骤S79:计算fstop如下:
步骤S710:若满足fstop,停止此次采样过程;
步骤S711:若满足fmin(j)=fmin(j-1)=fmin(j-2),则停止整个采样过程并输出已生成的模型假设θ。
3.根据权利要求2所述的一种基于全局贪婪搜索的鲁棒模型拟合方法,其特征在于:所述融合模型假设θi和θj具体为,权重较小的模型假设的类标变为另一个模型假设的类标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810610626.2A CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810610626.2A CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921871A CN108921871A (zh) | 2018-11-30 |
CN108921871B true CN108921871B (zh) | 2022-02-01 |
Family
ID=64419566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810610626.2A Active CN108921871B (zh) | 2018-07-27 | 2018-07-27 | 一种基于全局贪婪搜索的鲁棒模型拟合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921871B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163865B (zh) * | 2019-05-28 | 2021-06-01 | 闽江学院 | 一种针对模型拟合中不平衡数据的采样方法 |
CN111612060B (zh) * | 2020-05-20 | 2023-06-02 | 闽江学院 | 基于迭代和贪婪搜索的内点尺度估计方法 |
CN111612067B (zh) * | 2020-05-21 | 2023-06-02 | 闽江学院 | 一种融合拟合-移除和两阶段框架优点的拟合方法 |
CN111639691B (zh) * | 2020-05-22 | 2023-05-30 | 闽江学院 | 一种基于特征匹配和贪婪搜索的图像数据采样方法 |
CN112132204B (zh) * | 2020-09-18 | 2022-05-24 | 厦门大学 | 一种基于偏好概率加权采样的鲁棒模型拟合方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118068A (zh) * | 2015-09-29 | 2015-12-02 | 常熟理工学院 | 一种小样本条件下医学图像自动标注方法 |
CN105913423A (zh) * | 2016-04-08 | 2016-08-31 | 厦门大学 | 一种基于超像素的确定性模型拟合方法 |
CN106203480A (zh) * | 2016-06-29 | 2016-12-07 | 华侨大学 | 基于缺损数据的非线性特征提取和分类方法 |
CN106296747A (zh) * | 2016-07-26 | 2017-01-04 | 厦门大学 | 基于结构决策图的鲁棒多模型拟合方法 |
CN107123119A (zh) * | 2017-04-27 | 2017-09-01 | 厦门大学 | 一种针对多结构数据的指导性采样方法 |
CN107656250A (zh) * | 2017-11-13 | 2018-02-02 | 浙江大学 | 一种基于人工蜂群算法的智能雷达海上目标检测系统及方法 |
CN107844129A (zh) * | 2017-11-30 | 2018-03-27 | 北京大学深圳研究生院 | 基于路径规划和信息融合的多无人机协同搜索方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
-
2018
- 2018-07-27 CN CN201810610626.2A patent/CN108921871B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118068A (zh) * | 2015-09-29 | 2015-12-02 | 常熟理工学院 | 一种小样本条件下医学图像自动标注方法 |
CN105913423A (zh) * | 2016-04-08 | 2016-08-31 | 厦门大学 | 一种基于超像素的确定性模型拟合方法 |
CN106203480A (zh) * | 2016-06-29 | 2016-12-07 | 华侨大学 | 基于缺损数据的非线性特征提取和分类方法 |
CN106296747A (zh) * | 2016-07-26 | 2017-01-04 | 厦门大学 | 基于结构决策图的鲁棒多模型拟合方法 |
CN107123119A (zh) * | 2017-04-27 | 2017-09-01 | 厦门大学 | 一种针对多结构数据的指导性采样方法 |
CN107656250A (zh) * | 2017-11-13 | 2018-02-02 | 浙江大学 | 一种基于人工蜂群算法的智能雷达海上目标检测系统及方法 |
CN107844129A (zh) * | 2017-11-30 | 2018-03-27 | 北京大学深圳研究生院 | 基于路径规划和信息融合的多无人机协同搜索方法及系统 |
Non-Patent Citations (6)
Title |
---|
Locally Optimized RANSAC;Ondřej Chum et al;《DAGM-Symp》;20031231;236-243 * |
Music structure analysis using a probabilistic fitness measure and a greedy search algorithm;J Paulus et al;《IEEE Transactions on Audio, Speech, and Language Processing》;20090623;第17卷(第6期);1159 – 1170 * |
Robust Model Fitting Using Higher Than Minimal Subset Sampling;Ruwan B. Tennakoon et al;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20160201;第38卷(第2期);350 – 362 * |
基于贪婪算法成像侦察卫星调度方法研究;徐培德等;《计算机仿真》;20080515;第25卷(第2期);37-40 * |
适合于机组组合问题的贪婪随机自适应搜索模型;黎静华等;《电网技术》;20101231;第34卷(第4期);119-123 * |
鲁棒模型拟合中的指导性采样及其在运动分割中的应用;赖桃桃等;《万方》;20170621;1-128 * |
Also Published As
Publication number | Publication date |
---|---|
CN108921871A (zh) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921871B (zh) | 一种基于全局贪婪搜索的鲁棒模型拟合方法 | |
US11200696B2 (en) | Method and apparatus for training 6D pose estimation network based on deep learning iterative matching | |
CN109816725B (zh) | 一种基于深度学习的单目相机物体位姿估计方法及装置 | |
Brachmann et al. | Dsac-differentiable ransac for camera localization | |
CN108229504B (zh) | 图像解析方法及装置 | |
CN114863573B (zh) | 一种基于单目rgb-d图像的类别级6d姿态估计方法 | |
CN107730514B (zh) | 场景分割网络训练方法、装置、计算设备及存储介质 | |
Matsuki et al. | Codemapping: Real-time dense mapping for sparse slam using compact scene representations | |
CN110766002B (zh) | 一种基于深度学习的船名字符区域检测方法 | |
US9934563B2 (en) | 3D object rotation-based mechanical parts selection through 2D image processing | |
CN107480603B (zh) | 基于slam和深度摄像头的同步建图与物体分割方法 | |
CN111783779B (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN108427941B (zh) | 用于生成人脸检测模型的方法、人脸检测方法和装置 | |
Liu et al. | Unstructured road vanishing point detection using convolutional neural networks and heatmap regression | |
CN112330701A (zh) | 基于极坐标表示的组织病理图像细胞核分割方法及系统 | |
CN107862696B (zh) | 基于时尚图迁移的特定行人衣物解析方法及系统 | |
Porzi et al. | Depth-aware convolutional neural networks for accurate 3D pose estimation in RGB-D images | |
Lin et al. | Multi-mode interactive image segmentation | |
CN111583417B (zh) | 一种图像语义和场景几何联合约束的室内vr场景构建的方法、装置、电子设备和介质 | |
Kiyokawa et al. | Efficient collection and automatic annotation of real-world object images by taking advantage of post-diminished multiple visual markers | |
CN113496148A (zh) | 一种多源数据融合方法及系统 | |
CN109543700B (zh) | 一种抗遮挡的服饰关键点检测方法 | |
CN115409951B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115219492B (zh) | 一种三维物体的外观图像采集方法及装置 | |
Song et al. | Bi-directional seed attention network for interactive image segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |