CN107451231A - 基于相似性查询的示功图分类算法 - Google Patents
基于相似性查询的示功图分类算法 Download PDFInfo
- Publication number
- CN107451231A CN107451231A CN201710606549.9A CN201710606549A CN107451231A CN 107451231 A CN107451231 A CN 107451231A CN 201710606549 A CN201710606549 A CN 201710606549A CN 107451231 A CN107451231 A CN 107451231A
- Authority
- CN
- China
- Prior art keywords
- indicator card
- data
- indicator
- data sequence
- difference curves
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9038—Presentation of query results
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于相似性查询的示功图分类算法,在数据序列的动态弯曲距离概念的基础上提出了示功图辅助识别的新思路。该算法首先采用差分曲线法将二维示功图封闭曲线转化为一维曲线,然后通过数据序列的相似性查询技术辅助识别示功图类型。对真实的示功图数据进行了实验验证,结果表明通过这种方法能够高效地发现相似的示功图曲线,在充分利用已经存储的示功图数据和类型的情况下提高了未知示功图类型的识别效率。本发明将该方法应用于真实示功图的相似性查询实验。结果表明,相似性查询方法可以充分利用已存储的示功图数据及专家经验,有效地应用于示功图的辅助识别。
Description
技术领域
本发明涉及一种数据处理技术,特别涉及一种基于相似性查询的示功图分类算法。
背景技术
有杆抽油是机械采油技术中最为常用的方法。为了了解深井泵在井下工作的真实情况,通过示功仪将作用在光杆上的实时变化变成曲线记录下来,上下一个冲程正好形成一个封闭的图形或曲线,即示功图。示功图包含了有杆抽油系统机、泵、杆工作状态的丰富信息,是抽油机井故障诊断的重要基础资料,因此示功图的识别分析是采油工程技术管理的一项重要工作。
传统的示功图解释主要是靠人工解释,但由于抽油机井的实测示功图是深井泵和抽油杆受力复杂过程的真实反映,示功图形状变化较大,诊断结果会受到解释人员的经验、技术水平等主客观因素的影响,使得抽油系统诊断的效率、准确率和推广应用受到很大的限制。另一方面,随着计算机和网络技术高速发展,大批油井示功图及其类型都已存入数据库中,通过网络可以方便地取得。如何高效利用已有的这些数据资源和专家经验,采用人工智能技术对示功图的形状特征进行自动识别辅助分类,从而实现快速、准确地识别示功图的目的成为相关领域的研究热点。
发明内容
本发明是针对在机械采油过程中由于复杂的井下工作情况,示功图形状变化幅度较大,对解释人员正确诊断示功图类型带来很大困扰的问题,提出了一种基于相似性查询的示功图分类算法,在数据序列的动态弯曲距离概念的基础上提出了示功图辅助识别的新思路。该方法首先采用差分曲线法将二维示功图封闭曲线转化为一维曲线,然后通过数据序列的相似性查询技术辅助识别示功图类型。对真实的示功图数据进行了实验验证,结果表明通过这种方法能够高效地发现相似的示功图曲线,在充分利用已经存储的示功图数据和类型的情况下提高了未知示功图类型的识别效率。
本发明的技术方案为:一种基于相似性查询的示功图分类算法,具体包括如下步骤:
1)读入待测的示功图数据;
2)计算示功图坐标最极点min(x,y),max(x,y),即定位二维示功图的离原点最近点为最小极点min(x,y)和离原点最远点为最大极点max(x,y);将示功图中从min(x,y)顺时针到max(x,y)的数据序列做为上冲程,从max(x,y)顺时针到min(x,y)的数据序列做为下冲程;
3)以步骤2)得到的下冲程的起点和终点连线为对称线,计算所得下半段冲程的对称点;
4)用步骤2)得到上冲程与步骤3)得到的对称点作差,计算出差分曲线数据并输出;
5)读入现有的示功图数据库中已知示功图,按步骤2)至4),得到所有已知示功图对应的差分曲线;
6)将步骤4)所得待测的示功图的差分曲线与步骤5)所得已知示功图差分曲线一一进行动态时间弯曲距离计算,找到距离最小值对应的差分曲线即为最相似的差分曲线,对应的已知示功图即为最相似的示功图。
所述步骤6)动态时间弯曲距离计算方法:
给定数据序列X={x1,x2,…,xi,…,xn}和Y={y1,y2,…,yj,…,ym},数据序列X和Y的动态时间弯曲距离D(X,Y)计算公式如下:
D(<>,<>)=0
即两条空数据序列的DTW距离为0;
D(X,<>)=D(<>,Y)=+∞
即非空数据序列与空数据序列之间的DTW距离为+∞;
D(X,Y)=dist(xn,ym)+
min{D(X[1:n],Y[1:m-1]),D(X[1:n-1],Y[1:m]),D(X[1:n-1],Y[1:m-1])}
其中:i为数据序列X的第i个元素,1≤i≤n;j为数据序列Y的第j个元素,1≤j≤m;
X[1:i]:X曲线第1个元素到第i个元素;
Y[1:j]:Y曲线第1个元素到第j个元素;
dist(xn,ym):表示两个数据点xn,ym的欧氏距离;
D(X[1:i],Y[1:j]):表示X[1:i]与Y[1:j]之间的动态时间弯曲距离。
本发明的有益效果在于:本发明基于相似性查询的示功图分类算法,将该方法应用于真实示功图的相似性查询实验。结果表明,相似性查询方法可以充分利用已存储的示功图数据及专家经验,有效地应用于示功图的辅助识别。
附图说明
图1为本发明深井泵固定阀漏失的差分曲线图;
图2为动态时间弯曲距离的点对齐关系图;
图3为数据序列欧几里德距离相似性度量和DTW距离相似性度量示意图;
图4为本发明基于差分曲线的示功图工况识别算法流程图;
图5为本发明真实的示功图一;
图6为本发明对应图5示功图一计算所得的差分曲线;
图7为本发明真实的示功图一对应的相似示功图;
图8为本发明真实的示功图二;
图9为本发明对应图8示功图二计算所得的差分曲线;
图10为本发明真实的示功图二对应的相似示功图。
具体实施方式
本发明的基于相似性查询的示功图分类方法在本质上属于数据序列相似性查询技术的范畴。这项技术应用于石油工程领域的抽油机故障检测中。
图1以固定阀漏失的理想示功图为例说明差分曲线的画法。曲线ABCD是固定阀漏失的理想示功图,其中ABC为上冲程段、CDA为下冲程段。下冲程段CDA的反向曲线是CD’A。这二段曲线相减就得到了差分曲线abcd。用差分曲线取代示功图,将表示深井泵的工作状态的二维示功图封闭曲线转换为一维曲线,简化了深井泵设备状态的识别过程。
1、动态时间弯曲距离基本概念
数据序列相似性度量是指在数据序列库中发现与给定序列模式相似的数据序列,其中欧几里德距离和动态时间弯曲距离应用较多。在大部分的应用场合,数据序列的相似性度量不一定要求匹配的数据序列在时间轴上完全一致。只要两条序列具有同样的形状,即使序列内部存有间隙或偏移或振幅差异也可以认为是匹配的。
为了支持时间序列的时间轴伸缩,使得时间序列的相似波形能够在时间轴上对齐匹配,Berndt和Clifford在1994年首次将在语音识别中广泛使用的动态时间弯曲距离DTW(Dynamic Time Warping)引入到时间序列的相似性研究中。DTW距离可以获取两个不同长度时间序列之间的最小距离,并在此过程中确定这两个时间序列中各个点的最佳对应关系。例如,图2中显示了计算动态时间弯曲距离时序列各点之间的对应关系。由图2可见,DTW实现了两序列间各点非线性对齐。图3中(a)和(b)分别给出了利用欧几里德距离和DTW距离对所示的四条序列进行相似性度量得到的结果。可以发现,采用欧几里德距离对序列1~4进行相似性度量时,认为序列1和2相似,序列3和4相似,如图3中(a)所示,发生了比较大的偏差,实质上,序列3应与序列1,2更为相似,如图3(b)所示。显而易见,DTW方法优于欧几里德距离度量方法。
2、动态时间弯曲距离实现
动态时间弯曲距离采用动态规划的方法计算实现,时间复杂度为O(|X|*|Y|)(|X|和|Y|分别代表差分曲线X和Y的长度)。下面介绍DTW距离计算公式和算法实现思路。
给定数据序列X={x1,x2,…,xi,…,xn}和Y={y1,y2,…,yj,…,ym},数据序列X和Y的DTW距离D(X,Y)计算公式如下:
D(<>,<>)=0 (1)
即两条空数据序列的DTW距离为0;
D(X,<>)=D(<>,Y)=+∞ (2)
即非空数据序列与空数据序列之间的DTW距离为+∞;
D(X,Y)=dist(xn,ym)+
min{D(X[1:n],Y[1:m-1]),D(X[1:n-1],Y[1:m]),D(X[1:n-1],Y[1:m-1])} (3)
由上述公式(1)至(3)可知,对于任意两条数据序列X、Y,一定满足D(X,Y)≥0。
(i:数据序列X的第i个元素,1≤i≤n;j:数据序列Y的第j个元素,1≤j≤m)。其中:
X[1:i]:X曲线第1个元素到第i个元素;
Y[1:j]:Y曲线第1个元素到第j个元素;
dist(xn,ym):表示两个数据点xn,ym的欧氏距离;
D(X[1:i],Y[1:j]):表示X[1:i]与Y[1:j]之间的动态时间弯曲距离。
以表1差分曲线X和Y的动态弯曲距离表中的X,Y差分曲线为例,给出求二条差分曲线的动态时间弯曲距离计算方法:
设X="3,6,5,3,4"、Y="3,4,5,6,2,3",以X为行向量、Y为列向量,从仅包含一个数值的数据子序列开始,逐个增加序列长度,分别计算出当前X各子串和Y各子串的最大公共子序列长度,直至包含全部数值的数据序列。
首先通过公式(3)可得:
D(X[1:1],Y[1:1])=D({3},{3})=dist(3,3)+min{D({3},<>),D(<>,<>),D(<>,{3})}=0;
依次类推可得:
D(X[1:2],Y[1:1])=D({3,6},{3})
=dist(6,3)+min{D({3,6},<>),D({3},{3}),D({3},<>)}=3;
D(X[1:1],Y[1:2])=D({3},{3,4})
=dist(3,4)+min{D({3},{3}),D(<>,{3,4}),D(<>,{3})}=1;
重复运算若干步后,最终得到数据序列X和Y的DTW距离值D(X,Y)为
表中灰色部分显示了计算所得到的时间弯曲路径,最右下方单元格中带圈数字为对应的DTW距离。
在这个计算过程中,我们同时可以得到差分曲线X和Y的任何一个前缀Y[1:j]的时间弯曲距离,它存储在第j行的最后一个表格单元;同样可以得到的任何一个前缀X[1:j]和Y之间的时间弯曲距离,它存储在第j列最上面的一个表格单元。从两条曲线的动态弯曲距离开始,沿表1中灰色部分表示的弯曲路径按最小累加值倒退直到起始点(1,1),即可找到整个弯曲路径。通过动态时间弯曲距离的计算可直接体现两个示功图的相似性。即距离最小值对应的差分曲线即为最相似的差分曲线,对应的示功图也是最相似的。
表1
3、基于差分曲线的示功图相似性比较算法实现:
差分曲线计算过程描述如下:
2-1读入示功图数据;
2-2计算示功图坐标最极点min(x,y),max(x,y),即定位二维示功图的离原点最近点为最小极点min(x,y)和离原点最远点为最大极点max(x,y)(以图1为例,A=min(x,y),C=max(x,y));将示功图中从min(x,y)顺时针到max(x,y)的数据序列做为上冲程,从max(x,y)顺时针到min(x,y)的数据序列做为下冲程;
2-3以步骤2-2得到的下冲程的起点和终点连线为对称线,计算所得下半段冲程的对称点;
2-4用步骤2-2得到上冲程与步骤2-3得到的对称点作差,计算出差分曲线并输出。
基于差分曲线的示功图工况识别算法流程图如图4所示,将待测的示功图按差分曲线法从二维转换为一维图后,然后在现有的示功图数据库中一一调用已知示功图,同样得到已知示功图对应的差分曲线,再用动态时间弯曲距离计算方法,算出待测的示功图与已知示功图两条差分曲线的动态时间弯曲距离,找到距离最小值对应的差分曲线即为最相似的差分曲线,对应的已知示功图也是最相似的。
如图5所示真实的示功图一,图6为对应图5示功图一计算所得的差分曲线;如图8所示真实的示功图二,图9为对应图8示功图一计算所得的差分曲线;可以看出,不同的示功图类型对应的差分曲线特征也有所不同,但由于井下工况复杂,因而示功图形状和对应的差分曲线波动均较大。
如图7所示真实的示功图一对应的相似示功图,图10为所示真实的示功图二对应的相似示功图。可以看出,通过差分曲线的动态弯曲距离计算,找到距离最小的示功图,对应的示功图也是实验数据集中最为相似的示功图。
Claims (2)
1.一种基于相似性查询的示功图分类算法,其特征在于,具体包括如下步骤:
1)读入待测的示功图数据;
2)计算示功图坐标最极点min(x,y),max(x,y),即定位二维示功图的离原点最近点为最小极点min(x,y)和离原点最远点为最大极点max(x,y);将示功图中从min(x,y)顺时针到max(x,y)的数据序列做为上冲程,从max(x,y)顺时针到min(x,y)的数据序列做为下冲程;
3)以步骤2)得到的下冲程的起点和终点连线为对称线,计算所得下半段冲程的对称点;
4)用步骤2)得到上冲程与步骤3)得到的对称点作差,计算出差分曲线数据并输出;
5)读入现有的示功图数据库中已知示功图,按步骤2)至4),得到所有已知示功图对应的差分曲线;
6)将步骤4)所得待测的示功图的差分曲线与步骤5)所得已知示功图差分曲线一一进行动态时间弯曲距离计算,找到距离最小值对应的差分曲线即为最相似的差分曲线,对应的已知示功图即为最相似的示功图。
2.根据权利要求1所述基于相似性查询的示功图分类算法,其特征在于,所述步骤6)动态时间弯曲距离计算方法:
给定数据序列X={x1,x2,…,xi,…,xn}和Y={y1,y2,…,yj,…,ym},数据序列X和Y的动态时间弯曲距离D(X,Y)计算公式如下:
D(<>,<>)=0
即两条空数据序列的DTW距离为0;
D(X,<>)=D(<>,Y)=+∞
即非空数据序列与空数据序列之间的DTW距离为+∞;
D(X,Y)=dist(xn,ym)+
min{D(X[1:n],Y[1:m-1]),D(X[1:n-1],Y[1:m]),D(X[1:n-1],Y[1:m-1])}
其中:i为数据序列X的第i个元素,1≤i≤n;j为数据序列Y的第j个元素,1≤j≤m;
X[1:i]:X曲线第1个元素到第i个元素;
Y[1:j]:Y曲线第1个元素到第j个元素;
dist(xn,ym):表示两个数据点xn,ym的欧氏距离;
D(X[1:i],Y[1:j]):表示X[1:i]与Y[1:j]之间的动态时间弯曲距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710606549.9A CN107451231A (zh) | 2017-07-24 | 2017-07-24 | 基于相似性查询的示功图分类算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710606549.9A CN107451231A (zh) | 2017-07-24 | 2017-07-24 | 基于相似性查询的示功图分类算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107451231A true CN107451231A (zh) | 2017-12-08 |
Family
ID=60488018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710606549.9A Pending CN107451231A (zh) | 2017-07-24 | 2017-07-24 | 基于相似性查询的示功图分类算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107451231A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110571794A (zh) * | 2019-08-26 | 2019-12-13 | 国家电网公司东北分部 | 一种适用于双馈风机风电场的暂态模型等值计算方法 |
CN112766301A (zh) * | 2020-12-11 | 2021-05-07 | 南京富岛信息工程有限公司 | 一种采油机示功图相似性判断方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477619A (zh) * | 2008-12-26 | 2009-07-08 | 北京航空航天大学 | 基于dtw曲线的运动数据动作分类方法 |
CN102982803A (zh) * | 2012-12-11 | 2013-03-20 | 华南师范大学 | 基于hrsf及改进dtw算法的孤立词语音识别方法 |
CN104361365A (zh) * | 2014-12-04 | 2015-02-18 | 杭州和利时自动化有限公司 | 一种抽油泵运行状态识别方法及装置 |
CN104915434A (zh) * | 2015-06-24 | 2015-09-16 | 哈尔滨工业大学 | 一种基于马氏距离dtw的多维时间序列分类方法 |
CN105649602A (zh) * | 2015-12-31 | 2016-06-08 | 山东天工石油装备有限公司 | 一种基于地面示功图实现油井工况诊断的方法 |
CN106930751A (zh) * | 2017-04-20 | 2017-07-07 | 东北大学 | 一种有杆泵抽油井故障分离方法 |
-
2017
- 2017-07-24 CN CN201710606549.9A patent/CN107451231A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477619A (zh) * | 2008-12-26 | 2009-07-08 | 北京航空航天大学 | 基于dtw曲线的运动数据动作分类方法 |
CN102982803A (zh) * | 2012-12-11 | 2013-03-20 | 华南师范大学 | 基于hrsf及改进dtw算法的孤立词语音识别方法 |
CN104361365A (zh) * | 2014-12-04 | 2015-02-18 | 杭州和利时自动化有限公司 | 一种抽油泵运行状态识别方法及装置 |
CN104915434A (zh) * | 2015-06-24 | 2015-09-16 | 哈尔滨工业大学 | 一种基于马氏距离dtw的多维时间序列分类方法 |
CN105649602A (zh) * | 2015-12-31 | 2016-06-08 | 山东天工石油装备有限公司 | 一种基于地面示功图实现油井工况诊断的方法 |
CN106930751A (zh) * | 2017-04-20 | 2017-07-07 | 东北大学 | 一种有杆泵抽油井故障分离方法 |
Non-Patent Citations (1)
Title |
---|
韩国庆 等: "示功图识别技术在有杆泵工况诊断中的应用", 《石油钻采工艺》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110571794A (zh) * | 2019-08-26 | 2019-12-13 | 国家电网公司东北分部 | 一种适用于双馈风机风电场的暂态模型等值计算方法 |
CN112766301A (zh) * | 2020-12-11 | 2021-05-07 | 南京富岛信息工程有限公司 | 一种采油机示功图相似性判断方法 |
CN112766301B (zh) * | 2020-12-11 | 2024-04-12 | 南京富岛信息工程有限公司 | 一种采油机示功图相似性判断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jiang et al. | HDCB-Net: A neural network with the hybrid dilated convolution for pixel-level crack detection on concrete bridges | |
Dibeklioglu et al. | 3D facial landmarking under expression, pose, and occlusion variations | |
Su et al. | An effective staff detection and removal technique for musical documents | |
CN107153848A (zh) | 基于OpenCV的仪表图像自动识别方法 | |
CN103927532B (zh) | 基于笔画特征的笔迹配准方法 | |
CN104615676A (zh) | 一种基于最大相似度匹配的图片检索方法 | |
Tsintotas et al. | DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM | |
Mishchenko et al. | Chart image understanding and numerical data extraction | |
CN107451231A (zh) | 基于相似性查询的示功图分类算法 | |
Chen et al. | Invariant leaf image recognition with histogram of Gaussian convolution vectors | |
CN109034237A (zh) | 基于卷积神经元网络路标和序列搜索的回环检测方法 | |
CN116775918B (zh) | 基于互补熵对比学习跨模态检索方法、系统、设备及介质 | |
CN106022348A (zh) | 一种基于特定点方向场与指纹投影的指纹检索方法 | |
Saabni et al. | Fast key-word searching via embedding and Active-DTW | |
CN110532867A (zh) | 一种基于黄金分割法的人脸图像聚类方法 | |
CN111369595A (zh) | 基于自适应相关卷积神经网络的光流计算方法 | |
CN110288021A (zh) | 一种多元工业时间序列数据的分段方法 | |
Ahmad et al. | A fusion of labeled-grid shape descriptors with weighted ranking algorithm for shapes recognition | |
JP2015052994A (ja) | 特徴選択装置、学習装置、方法、及びプログラム | |
Rahman et al. | Machine learning aided classification of noise distribution in scanning electron microscopy images | |
CN113936246A (zh) | 基于联合局部特征判别性学习的无监督目标行人重识别方法 | |
CN114463746A (zh) | 目标识别模型训练以及细胞识别方法、装置及电子设备 | |
Mishchenko et al. | Model-Based Recognition and Extraction of Information from Chart Images. | |
Liu et al. | An image retrieval algorithm based on multiple convolutional features of RPN and weighted cosine similarity | |
CN103902980A (zh) | 一种手指静脉网络特征提取与匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171208 |