CN107895166A - 基于特征描述子的几何哈希法实现目标鲁棒识别的方法 - Google Patents

基于特征描述子的几何哈希法实现目标鲁棒识别的方法 Download PDF

Info

Publication number
CN107895166A
CN107895166A CN201710269307.5A CN201710269307A CN107895166A CN 107895166 A CN107895166 A CN 107895166A CN 201710269307 A CN201710269307 A CN 201710269307A CN 107895166 A CN107895166 A CN 107895166A
Authority
CN
China
Prior art keywords
target
mtd
basic point
point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710269307.5A
Other languages
English (en)
Other versions
CN107895166B (zh
Inventor
刘克平
殷春华
李西卫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Technology
Original Assignee
Changchun University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Technology filed Critical Changchun University of Technology
Priority to CN201710269307.5A priority Critical patent/CN107895166B/zh
Publication of CN107895166A publication Critical patent/CN107895166A/zh
Application granted granted Critical
Publication of CN107895166B publication Critical patent/CN107895166B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明是基于特征描述子的几何哈希法实现目标鲁棒识别的方法。离线建模阶段,对模板图像进行边缘检测并膨胀,通过SIFT提取特征点并添加描述子,选取符合距离阈值的基点对构建坐标系,量化剩余特征点,然后索引到哈希表中。在线识别阶段,使用欧氏距离来确定实测图像的描述子和模板图像的描述子之间的关系,利用最近邻搜索确定特征点子集,在特征子集中选取符合距离阈值的基点对构建坐标系,量化特征点,使用量化后的坐标查询几何哈希表中的基点对并投票,实现目标的识别。本发明可以实现存在遮挡、杂乱情况下几何目标的鲁棒识别。

Description

基于特征描述子的几何哈希法实现目标鲁棒识别的方法
技术领域
本发明主要应用于机器视觉中工业装备零配件的定位识别领域,具体是指对图像进行边缘检测,提取特征点,将量化的特征点坐标索引到哈希表中,通过几何哈希法实现待测图像和模板库图像的鲁棒识别方法。
背景技术
随着对机器视觉技术研究的不断深入,机器视觉技术逐渐取代人力,成为现代工业生产的重要方式。机器视觉的目的就是让机器人能够像人类一样工作,从而去替代人类的一些劳动任务,并且具备高效率、高精度、高稳定性等优点。因此机器视觉被广泛应用到汽车零件的识别、电子元器件的检测、物流产品的分拣等领域。
Haim J.Wolfson提出了一种几何哈希法用于图像识别,几何哈希法的最大优点是算法的并行性,算法分为离线建模过程和在线识别过程,使用数据结构中的哈希表作为索引、查找工具,建立模型几何特征的索引库,通过待测图像特征量化坐标的查找哈希表中相应坐标,实现目标的识别。经典的几何哈希法针对存在遮挡、目标杂乱的目标识别性能比较差。本发明在经典几何哈希法的基础上,为了提升视觉识别系统对目标存在遮挡、杂乱情况下的识别性能,提出了基于特征描述子的几何哈希法实现目标鲁棒识别的方法。
发明内容
本发明的目的实现对存在遮挡、杂乱情况下的目标进行识别,设计了一种使用特征点描述子向量作为辅助信息的鲁棒性识别方法。
在工业领域中,汽车、电子、设备等生产过程中包含大量的形状规则的零部件。本发明能够对产线上存在遮挡和目标杂乱的形状规则零配件进行识别。
本发明采用改进的Canny进行边缘检测,使用SIFT提取特征点并添加描述子向量,整体基于几何哈希法进行目标的鲁棒识别,具体的实现步骤如下:
离线建模过程:
(1)将需要识别的目标模板放置在单一背景的平台上,使用工业CCD相机采集模板图像,在模板图像中选择目标的所在的区域作为待处理的图像。
(2)采用改进的Canny算子检测目标的边缘,然后使用3*3的正方形结构对目标边缘进行膨胀操作。通过SIFT提取特征点及添加描述子向量,并存储描述子向量。
(3)选择点之间距离在阈值范围之内的基点对(Pi,Pj)建参考坐标系,通过该坐标系对剩余的特征点进行量化,得到特征点的在该坐标系下的坐标。(根据经验值,基点对之间的距离阈值取(Tmin,Tmax)=(30,80)像素,此距离阈值的选取与相机图像的像素大小有关)。
(4)建立几何哈希表,重复步骤(3),直到将所有符合阈值条件的基点对均建立坐标系,用量化的特征点坐标索引(Mi,(Pi,Pj))到哈希表中,其中Mi指模型,(Pi,Pj)指基点对。
在线识别阶段:
(1)通过CCD相机获取现场中待识别目标的图像,对待测目标图像处理同离线建模阶段步骤(1)到(2)。
(2)使用欧氏距离来匹配测量待识别目标图像的特征点描述子向量和模板图像的特征点描述子向量之间的对应关系,采用Kd树实现最近邻搜索,确定匹配置信度前20的特征点作为特征子集。
(3)选择特征子集中符合距离阈值的基点对构建参考坐标系,使用该坐标系量化特征点,使用这些坐标值查询几何哈希表中的基点对,并计算基点对的得票数。
(4)基点对的票数高于设定阈值,选择得票数最高的基点对符作为匹配点,使用欧氏距离验证实测图和模板图的相对关系,匹配成功,则识别目标,匹配不成功,重复步骤(3);如果不存在高于设定阈值的基点对,则重复步骤(3),直到所有符合条件的基点对评估完毕。
本发明的优点:本发明采用几何哈希法作为识别的方法,满足了工业实时性的要求;采用改进的Canny算子进行边缘检测,很好的消除了图像中噪声的影响;本发明中引入了SIFT特征点及描述子向量,实现了对目标存在遮挡和目标杂乱情况下的鲁棒识别。
附图说明
图1是本发明的整体示意图。
图2是本发明具体识别过程示意图。
具体实施方式
下面对本发明的具体实施步骤及每个步骤中具体细节、技术方案、方法优点做进一步的说明。
图1是本发明的识别方法的整体示意图。
识别方法分为并行的两部分,包括:离线建模过程、在线识别过程。具体步骤如下:
离线建模过程
步骤一
(1.1)识别的目标模板放置在单一背景的平台上,使用背光照射,通过工业CCD相机采集模板图像,在模板图像中选择目标的所在的区域作为待处理的图像。
步骤二
(2.1)使用改进的Canny算子对模板图像进行边缘检测,得到边缘检测的图像。
(2.2)通过3*3的正方形结构对边缘进行膨胀操作,3*3正方形结构如下:
(2.3)通过SIFT提取特征点(p0,p1,…,pn)及添加描述子向量,存储描述子向量。
步骤三
(3.1)选择符合距离阈值的特征点,其中任意两点坐标为Pi(xi,yi), Pj(xj,yj),ij=0,1,...,n:
Tmin≤D≤Tmax
取Tmin=30像素,Tmax=80像素。
(3.2)使用满足阈值的任意两点构建正交坐标系,量化剩余特征点坐标。
Po=(Pi+Pj)/2
其中Po是基点对的中点,Po=(Pxo,Pyo)。
P'x=Px*cosθ+Py*sinθ-Pxo
其中P'x是量化后的x坐标值,Px,Py是任意特征点的x,y坐标值。
P'y=-Px*sinθ+Py*cosθ-Pyo
其中P'y是量化后的y坐标值,Px,Py是任意征点的x,y坐标值。
步骤四
(4.1)建立几何哈希表,用量化的特征点坐标索引(Mi,(Pi,Pj))到哈希表中,其中Mi指模型,(Pi,Pj)指基点对。重复步骤三,直到所有符合阈值条件的基点对均构建坐标系。
在线识别阶段
步骤一
(1.1)采用背光照射,使用工业CCD相机采集待识别目标图像。
(1.2)使用改进的Canny算子对模板图像进行边缘检测,得到边缘检测的图像。
(1.3)通过3*3的正方形结构对边缘进行膨胀操作,3*3正方形结构如下:
(1.4)通过SIFT提取特征点(p0,p1,…,pm)及添加描述子向量,存储描述子向量。
步骤二
(2.1)使用欧氏距离来匹配测量待识别目标图像的特征点描述子向量和模板图像的特征点描述子向量之间的对应关系:
其中D12表示描述子向量之间的欧氏距离,a,b分别表示模板、待测目标的描述子向量。
采用Kd树实现最近邻搜索,确定匹配置信度前20的特征点(P0,P1,…, P19)作为特征子集。
步骤三
(3.1)在特征子集中选择符合距离阈值的特征点,其中任意两点坐标为 Pi(xi,yi),Pj(xi,yj),ij=0,1,...,19:
Tmin≤D≤Tmax
取Tmin=30像素,Tmax=80像素。
(3.2)使用满足阈值的任意两点作为基底构建正交坐标系,量化剩余特征点坐标。
Po=(Pi+Pj)/2
其中Po是基点对的中点,Po=(Pxo,Pyo)。
P'x=Px*cosθ+Py*sinθ-Pxo
其中P'x是量化后的x坐标值,Px,Py是任意特征点的x,y坐标值。
P'y=-Px*sinθ+Py*cosθ-Pyo
其中P'y是量化后的y坐标值,Px,Py是任意特征点的x,y坐标值。
(3.3)使用量化的坐标值查询几何哈希表中的基点对,并计算基点对的投票数。每有一个坐标值查询到基点对,基点对的相应得票数加1。
步骤四
(4.1)基点对的票数高于设定阈值,选择得票数最高的基点对符作为匹配点,使用欧氏距离验证实测图和模板图的相对关系,匹配成功,则识别目标,匹配不成功,重复步骤三。
(4.2)如果不存在高于设定投票阈值的基点对,我们重复步骤三,选取另外一组符合距离阈值条件的基点对,重新计算投票,直到找到高于设定投票阈值的基点对。否则,认定为待测图像中不存在目标模板。

Claims (6)

1.本发明是基于特征描述子的几何哈希法实现目标鲁棒识别的方法,实现工业现场存在遮挡和目标杂乱情况下的目标鲁棒识别,本发明方法包含离线建模阶段和在线识别阶段,具体实施步骤如下:
离线建模阶段:
(1)将需要识别的目标模板放置在单一背景的平台上,使用背光照射,通过工业CCD相机采集模板图像,在模板图像中选择目标的所在的区域作为待处理的图像。
(2)采用改进的Canny算子检测图像中目标的边缘,对检测的边缘进行膨胀操作。通过SIFT提取特征点及特征描述子向量,并存储描述子向量。
(3)选择点之间距离在阈值范围之内的基点对(Pi,Pj)构建参考坐标系,通过该坐标系对剩余的特征点进行量化,得到特征点在该坐标系下的坐标。(根据经验值,基点对之间的距离阈值取(Tmin,Tmax)=(30,80)像素,此距离阈值的选取与相机图像的像素大小有关)。
(4)建立几何哈希表,重复步骤(3),直到将所有符合阈值条件的基点对一一建立坐标系,用量化的特征点坐标索引(Mi,(Pi,Pj))到哈希表中,其中Mi指模型,(Pi,Pj)指基点对。
在线识别阶段:
(1)使用相机获取现场中待识别目标的图像,对待测目标图像处理同离线建模阶段步骤(1)到(2)。
(2)使用欧氏距离来匹配测量待识别目标图像的特征点描述子向量和模板图像的特征点描述子向量之间的对应关系,采用Kd树实现最近邻搜索,确定匹配置信度前20的特征点作为特征子集。
(3)选择20个特征点中符合距离阈值范围的基点对构建参考坐标系,使用该坐标系量化剩余特征点的坐标,使用这些坐标查询几何哈希表中的基点对,并对基点对进行投票,计算基点对的得票数。
(4)基点对的得票数高于设定阈值,选择得票数最高的基点对作为匹配点,使用欧氏距离验证实测图像和模板图像的相对关系,匹配成功,则视为识别目标,匹配不成功,重复步骤(3);如果不存在高于设定阈值的基点对,则重复步骤(3),直到所有符合条件的基点对评估完毕。
2.根据权利要求1所述基于特征描述子的几何哈希法实现目标鲁棒识别的方法,其特征是:所述离线建模阶段第(2)步,包括:
改进的Canny算子检测目标的边缘:
本发明使用改进的Canny算子进行边缘检测,改进的Canny算子采用双边滤波处理图像,使用最大类间法确定高低门限值,相对于传统的Canny算子,改进的算法提取的边缘更加的清晰,而且能更好的消除目标图像中存在噪声和无关干扰对目标识别的影响,使得识别系统具有更好的抗噪性能。
3.根据权利要求1所述基于特征描述子的几何哈希法实现目标鲁棒识别的方法,其特征是:所述离线建模阶段第(2)步,包括:
对检测的边缘进行膨胀操作:
本发明使用形态学图像处理中的3*3正方形结构SE对检测的目标边缘进行膨胀操作,从而桥接目标的边缘检测中断裂的边缘部分,使得边缘部分更加的完整,包含的信息更多。
<mrow> <mi>S</mi> <mi>E</mi> <mo>=</mo> <mfenced open = "(" close = ")"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
4.根据权利要求1所述基于特征描述子的几何哈希法实现目标鲁棒识别的方法,其特征是:所述离线建模阶段第(2)步,包括:
SIFT提取特征点及添加特征点描述子向量:
本发明使用SIFT算法提取模板图像特征点,并给特征点添加描述子向量,SIFT特征对旋转、尺度缩放、亮度变化具有不变性,描述子向量信息的加入显著提高了识别系统对目标遮挡、杂乱情况下识别的鲁棒性。
5.根据权利要求1所述基于特征描述子的几何哈希法实现目标鲁棒识别的方法,其特征是:所述离线建模阶段第(3)步,包括:
选择点之间距离在阈值范围之内的基点对构建参考坐标系:
本发明将基点对之间的距离阈值设置为(Tmin,Tmax)=(30,80)像素,通过设置阈值降低可能的基点对的数目。基点对距离太小,容易导致噪声产生;基点对距离过大,哈希表会过于稀疏。同时注意此处阈值的选取是根据不同相机分辨率的不同而选取不同的阈值。
Tmin≤D≤Tmax
其中D是基点对之间的像素距离,Tmin是基点对之间像素距离的最小值,Tmax是基点对之间像素距离的最大值。
6.根据权利要求1所述基于特征描述子的几何哈希法实现目标鲁棒识别的方法,其特征是:所述在线识别阶段第(2)步,包括:
确定匹配置信度前20的特征点作为特征子集:
本发明使用欧氏距离对SIFT特征点描述子向量进行匹配测量,使用Kd树实现最近邻搜索,确定匹配置信度前20的特征点(20为经验值),形成特征子集,然后选择特征子集中符合距离阈值的基点对构建参考坐标系,量化特征。降低了基点对的数目,从而提高了目标识别系统的速度。
CN201710269307.5A 2017-04-24 2017-04-24 基于特征描述子的几何哈希法实现目标鲁棒识别的方法 Expired - Fee Related CN107895166B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710269307.5A CN107895166B (zh) 2017-04-24 2017-04-24 基于特征描述子的几何哈希法实现目标鲁棒识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710269307.5A CN107895166B (zh) 2017-04-24 2017-04-24 基于特征描述子的几何哈希法实现目标鲁棒识别的方法

Publications (2)

Publication Number Publication Date
CN107895166A true CN107895166A (zh) 2018-04-10
CN107895166B CN107895166B (zh) 2021-05-25

Family

ID=61802577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710269307.5A Expired - Fee Related CN107895166B (zh) 2017-04-24 2017-04-24 基于特征描述子的几何哈希法实现目标鲁棒识别的方法

Country Status (1)

Country Link
CN (1) CN107895166B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472651A (zh) * 2019-06-17 2019-11-19 青岛星科瑞升信息科技有限公司 一种基于边缘点局部特征值的目标匹配与定位方法
CN111639667A (zh) * 2020-04-14 2020-09-08 北京迈格威科技有限公司 图像识别方法、装置、电子设备及计算机可读存储介质
CN112802070A (zh) * 2021-01-06 2021-05-14 南京航空航天大学 一种基于多描述子投票的飞机蒙皮局部点云定位方法
CN113343920A (zh) * 2021-07-01 2021-09-03 中诚信征信有限公司 人脸识别照片的分类方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871048A (zh) * 2013-12-31 2014-06-18 江南大学 一种基于直线基元的几何哈希法实时定位与匹配方法
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871048A (zh) * 2013-12-31 2014-06-18 江南大学 一种基于直线基元的几何哈希法实时定位与匹配方法
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
于淼: "基于特征点匹配和哈希法的图像检索方法", 《微计算机应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472651A (zh) * 2019-06-17 2019-11-19 青岛星科瑞升信息科技有限公司 一种基于边缘点局部特征值的目标匹配与定位方法
CN110472651B (zh) * 2019-06-17 2022-11-29 青岛星科瑞升信息科技有限公司 一种基于边缘点局部特征值的目标匹配与定位方法
CN111639667A (zh) * 2020-04-14 2020-09-08 北京迈格威科技有限公司 图像识别方法、装置、电子设备及计算机可读存储介质
CN112802070A (zh) * 2021-01-06 2021-05-14 南京航空航天大学 一种基于多描述子投票的飞机蒙皮局部点云定位方法
CN113343920A (zh) * 2021-07-01 2021-09-03 中诚信征信有限公司 人脸识别照片的分类方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN107895166B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN109801337B (zh) 一种基于实例分割网络和迭代优化的6d位姿估计方法
CN103793712B (zh) 一种基于边缘几何特征的图像识别方法及系统
CN105740899B (zh) 一种机器视觉图像特征点检测与匹配复合的优化方法
CN107895166A (zh) 基于特征描述子的几何哈希法实现目标鲁棒识别的方法
CN106251353A (zh) 弱纹理工件及其三维位姿的识别检测方法及系统
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN106934813A (zh) 一种基于视觉定位的工业机器人工件抓取实现方法
CN106355577A (zh) 基于特征状态与全局一致性的快速图像匹配方法及系统
CN108550166B (zh) 一种空间目标图像匹配方法
CN106067031B (zh) 基于人工纠错机制与深度学习网络协作机器视觉识别系统
JP2018128897A (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
CN104778707A (zh) 一种改进广义Hough变换的电解电容检测方法
CN108133211B (zh) 一种基于移动终端视觉图像的检测配电柜的方法
CN104077769A (zh) 一种图像配准中的误匹配点对剔除算法
KR101461108B1 (ko) 인식기, 차량모델인식장치 및 방법
CN105718929B (zh) 全天候未知环境下高精度快速圆形目标定位方法和系统
CN110490887B (zh) 一种基于3d视觉的对矩形包裹边缘快速识别定位方法
CN103700119A (zh) 基于局部分组对比模式直方图的局部纹理描述方法
CN116188763A (zh) 一种基于YOLOv5的纸箱识别定位及放置角度的测量方法
CN103871048B (zh) 一种基于直线基元的几何哈希法实时定位与匹配方法
CN113963070A (zh) 一种圆形标定板识别方法
CN114749299B (zh) 一种喷涂修复带电作业工具的控制系统及方法
CN117593528B (zh) 一种基于机器视觉的轨道车辆螺栓松动检测方法
CN114120011B (zh) 一种利用群体智能算法提高图像匹配精度和速度的方法
CN104112270B (zh) 一种基于自适应权重多尺度窗口的任意点匹配算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210525

CF01 Termination of patent right due to non-payment of annual fee