CN111401266B - 绘本角点定位的方法、设备、计算机设备和可读存储介质 - Google Patents
绘本角点定位的方法、设备、计算机设备和可读存储介质 Download PDFInfo
- Publication number
- CN111401266B CN111401266B CN202010195885.0A CN202010195885A CN111401266B CN 111401266 B CN111401266 B CN 111401266B CN 202010195885 A CN202010195885 A CN 202010195885A CN 111401266 B CN111401266 B CN 111401266B
- Authority
- CN
- China
- Prior art keywords
- image
- corner
- area
- point
- corner point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 16
- 239000002131 composite material Substances 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 235000002566 Capsicum Nutrition 0.000 claims description 4
- 239000006002 Pepper Substances 0.000 claims description 4
- 235000016761 Piper aduncum Nutrition 0.000 claims description 4
- 235000017804 Piper guineense Nutrition 0.000 claims description 4
- 235000008184 Piper nigrum Nutrition 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 150000003839 salts Chemical class 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 244000203593 Piper nigrum Species 0.000 claims 1
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000036544 posture Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 241000722363 Piper Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 235000012434 pretzels Nutrition 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种绘本角点定位的方法、设备、计算机设备和可读存储介质,其中,绘本角点定位的方法包括:获取待定位图像,对待定位图像与识别模板进行特征点匹配,定位待定位图像中所有角点的第一位置,根据第一位置获取角点坐标,根据识别模板的几何参数和角点坐标,计算几何差值,保留几何差值均小于或者等于差值阈值的角点,以角点为几何中心,截取第一区域,在第一区域内,进行绘本角点定位,得到角点的第二位置,以角点的第二位置为中心,截取第二区域,在第二区域内进行绘本角点定位,得到角点的第三位置。通过本申请,解决了在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题,提高了角点定位的准确度。
Description
技术领域
本申请涉及图像识别领域,特别是涉及绘本角点定位的方法、设备、计算机设备和可读存储介质。
背景技术
绘本是指一类以绘画为主,并附有少量文字的书籍,随着生产技术的发展,越来越多的人采用绘本帮助孩子了解世界,学习知识,培养孩子对阅读的爱好和兴趣。
在相关技术中,对绘本的定位通常通过特征点匹配来实现,进行特征点匹配的过程具体为:首先,提取绘本图像和识别模板的特征点和特征,通过对比绘本图像和识别模板的特征点特征,找出匹配的点对,然后通过匹配点对计算两张图像的位姿关系,最后通过位姿关系计算识别模板四个角点在摄像装置拍摄的图像里的位置。然而,通过特征点识别得到的角点位置,在绘本发生一定形变,或者待定位图像为大片纯色色块,特征点数量较少的情况下,误差会较大。
目前针对相关技术中,在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题,尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种绘本角点定位的方法、设备、计算机设备和可读存储介质,以至少解决相关技术中在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题。
第一方面,本申请实施例提供了一种绘本角点定位的方法,所述方法包括:
获取绘本的待定位图像,对所述待定位图像与识别模板进行特征点匹配,定位所述待定位图像中所有角点的第一位置;
根据所述第一位置获取角点坐标,根据所述识别模板的几何参数和所述角点坐标,计算几何差值,在所述所有角点的所述几何差值均小于或者等于差值阈值的情况下,保留所述角点;
以所述角点为几何中心,截取第一区域,在所述第一区域内,进行绘本角点定位,得到所述角点的第二位置,以所述角点的第二位置为中心,截取第二区域,在所述第二区域内进行绘本角点定位,得到所述角点的第三位置,其中,所述第一区域的面积大于所述第二区域。
在其中一些实施例中,所述根据所述识别模板的几何参数和所述角点坐标,计算几何差值,在所述所有角点的所述几何差值均小于或者等于差值阈值的情况下,保留所述角点包括:
根据所述角点坐标,计算所述待定位图像各个边长的测量值,根据所述识别模板的几何参数和缩放比例,计算所述待定位图像的估计值;
计算所述测量值与所述估计值之间的几何差值,在所述几何差值小于或者等于所述差值阈值的情况下,保留所述角点坐标,在所述几何差值大于所述差值阈值的情况下,重新进行特征点匹配。
在其中一些实施例中,在所述以所述角点为几何中心,截取第一区域之前,所述方法还包括:
根据所述绘本的几何参数,矫正所述角点的位置。
在其中一些实施例中,所述根据所述所述绘本的几何参数,矫正所述角点的位置包括:
获取所述绘本的长和宽,根据所述绘本的长宽比,矫正所述角点的位置。
在其中一些实施例中,在所述得到所述角点的第三位置之后,所述方法还包括:
将所述第三位置进行坐标系变换,在坐标系转移后,计算所述待定位图像的位置和姿态,对所述位置和姿态进行渲染和叠加。
在其中一些实施例中,在所述获取绘本的待定位图像之前,所述方法还包括合成绘本数据,通过所述绘本数据对神经网络模型进行训练,所述训练方法包括:
提取待标注图像的轮廓,获取所述轮廓的最小外接多边形,在所述轮廓内,根据所述最小外接多边形的顶点与所述轮廓内像素的距离,标注所述轮廓的修正角点坐标,其中,所述待标注图像为深度图像;
将所述修正角点坐标转换至彩色坐标系,在所述彩色坐标系中,将以所述修正角点坐标为顶点形成的彩色区域贴图至背景图像,得到合成图像,对所述合成图像的边角图像进行数据增强;
根据所述数据增强后的边角图像,对所述神经网络模型进行训练,其中,所述神经网络模型用于角点回归。
在其中一些实施例中,所述根据所述最小外接多边形的顶点与所述轮廓内像素的距离,标注所述轮廓的修正角点坐标包括:
在所述轮廓内,获取与所述最小外接多边形的顶点距离最近的像素,根据所述像素的坐标与所述修正角点的深度值,确定所述像素的修正角点坐标。
在其中一些实施例中,所述对所述合成图像的边角图像进行数据增强包括:
以所述合成图像的顶点为几何中心,以第一预设长度截取第一方形区域,以所述几何中心为中心,以任意角度旋转所述第一方形区域;
在旋转后的所述第一方形区域中,以所述几何中心为中心,以第二预设长度截取第二方形区域;
在所述第二方形区域内,改变所述待标注图像的光照、亮度、对比度和模糊度,或者加入椒盐噪声,对合成图像的边角图像进行缩放和畸变。
在其中一些实施例中,所述提取待标注图像的轮廓包括:
采集所述待标注图像的深度图,在所述深度图的前景图中,提取面积大于预设面积阈值的轮廓;
在所述轮廓与所述前景图的边缘不相连,且所述轮廓的数量为1,所述轮廓对应的状态为等待采集的情况下,保留所述轮廓。
第二方面,本申请实施例提供了一种绘本角点定位的设备,所述设备包括摄像装置和中央处理器:
通过所述摄像装置获取绘本的待定位图像,所述中央处理器对所述待定位图像与识别模板进行特征点匹配,定位所述待定位图像中所有角点的第一位置;
所述中央处理器根据所述第一位置获取角点坐标,根据所述识别模板的几何参数和所述角点坐标,计算几何差值,在所述所有角点的所述几何差值均小于或者等于差值阈值的情况下,保留所述角点;
所述中央处理器以所述角点为几何中心,截取第一区域,在所述第一区域内,进行绘本角点定位,得到所述角点的第二位置,以所述角点的第二位置为中心,截取第二区域,在所述第二区域内进行绘本角点定位,得到所述角点的第三位置,其中,所述第一区域的面积大于所述第二区域。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的绘本角点定位的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的绘本角点定位的方法。
相比于相关技术,本申请实施例提供的绘本角点定位的方法,通过获取绘本的待定位图像,对该待定位图像与识别模板进行特征点匹配,定位该待定位图像中所有角点的第一位置,根据该第一位置获取角点坐标,根据该识别模板的几何参数和该角点坐标,计算几何差值,在该所有角点的该几何差值均小于或者等于差值阈值的情况下,保留该角点,以该角点为几何中心,截取第一区域,在该第一区域内,进行绘本角点定位,得到该角点的第二位置,以该角点的第二位置为中心,截取第二区域,在该第二区域内进行绘本角点定位,得到该角点的第三位置,其中,该第一区域的面积大于该第二区域,解决了在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题,提高了角点定位的准确度。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的绘本角点定位的方法的应用环境示意图;
图2是根据本申请实施例的绘本角点定位的方法的流程图;
图3是根据本申请实施例的计算几何差值的流程图;
图4是根据本申请实施例的角点位置矫正的流程图;
图5是根据本申请实施例的通过绘本数据对神经网络模型进行训练的方法的流程图;
图6是根据本申请实施例的对边角图像进行数据增强的方法的流程图;
图7是根据本申请实施例的待标注图像轮廓提取的方法的流程图;
图8是根据本申请实施例的绘本角点定位的设备的结构框图;
图9是根据本发明实施例的计算机设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
本申请提供的绘本角点定位的方法,可以应用于增强现实(AugmentedReality,简称为AR)领域,图1是根据本申请实施例的绘本角点定位的方法的应用环境示意图,如图1所示,投影仪11将绘本12进行投影,投影仪11通过内嵌的主板对绘本的待定位图像与识别模板进行特征点匹配,定位该待定位图像中所有角点的第一位置,根据该第一位置获取角点坐标,根据该识别模板的几何参数和该角点坐标,计算几何差值,在所有角点的几何差值均小于或者等于差值阈值的情况下,保留角点,并以该角点为几何中心,截取不同大小的区域,进行多次绘本角点定位,得到该角点的优化位置。
本实施例还提供了一种绘本角点定位的方法。图2是根据本申请实施例的绘本角点定位的方法的流程图,如图2所示,该方法包括如下步骤:
步骤S201,获取绘本的待定位图像,对该待定位图像与识别模板进行特征点匹配,定位该待定位图像中所有角点的第一位置。进行特征点匹配的过程具体为:首先提取待定位图像和识别模板的特征点和特征,提取的方法例如尺度不变特征变换SIFT(Scale-Invariant Feature Transform)、特征提取算法ORB(Oriented FAST and RotatedBRIEF)、特征检测算法AKAZE、深度模型DELF(DEep Local Features)等等,通过对比识别模板和待定位图像的特征点特征,找出匹配的点对,通过匹配点对计算两张图像的位姿关系,通过位姿关系计算识别模板四个角点在摄像装置拍摄的待定位图像里的位置。
获取待定位图像中角点的第一位置还可以通过滑窗与手工特征结合的方案实现,例如方向梯度直方图(Histogram of Oriented Gridients,简称为HOG),或者是基于卷积神经网络(Convolutional Neural Networks,简称为CNN)的方案,比如目标检测网络算法YOLO(You Only Look Once,简称为YOLO),目标检测算法SSD(Single Shot MultiBoxDetector,简称为SSD),RCNN等等,在识别出绘本的页面的同时,可以定位绘本的包围盒(Bounding Box,简称为BBox),其中,包围盒为平行图像长短边的最小包围住目标物体的框。
在定位该待定位图像的角点的过程中,角点的数量可以为4个,也可以为6个。在本步骤中定位得到的第一位置,在绘本发生一定形变,或者待定位图像为大片纯色色块,特征点数量较少的情况下,误差会较大。
步骤S202,根据该第一位置获取角点坐标,根据该识别模板的几何参数和该角点坐标,计算几何差值,在所有角点的几何差值均小于或者等于差值阈值的情况下,保留该角点。例如,在获取的角点数量为4的情况下,只有在四个角点的几何差值均小于或者等于差值阈值的情况下,这四个角点才会被保留,否则,这四个角点都会被删除,对角点坐标之间进行差值计算,即可得到以角点为顶点形成的几何图形的各个边长,将各个边长与识别模板中预设的边长进行对比,得到几何差值。其中,差值阈值可以根据实际情况进行调整,取值范围一般为0.1至0.5。
步骤S203,以该角点为几何中心,截取第一区域,在该第一区域内,进行绘本角点定位,得到该角点的第二位置,以该角点的第二位置为中心,截取第二区域,在该第二区域内进行绘本角点定位,得到该角点的第三位置,其中,该第一区域的面积大于该第二区域。
在CNN的输入尺寸为长w′、宽h′的情况下,第一区域的长为βw′、宽为βh′,在第一区域超出待定位图像的范围的情况下,将中心平移,直到不超出边界为止。其中,β为缩放的倍数,一般取2或者4,与待定位图像的分辨率有关,在截取区域完成之后,将该区域缩放至长为w′、宽为h′的图像,将所有角点的图像作为一个批次的样本进行绘本角点定位,得到角点的第二位置。以第二位置为中心,截取的第二区域的长为w′、宽为h′,在第二区域内再次进行绘本角点定位,得到角点的第三位置,在第一区域和第二区域进行绘本角点定位的CNN网络可以为相同的网络,也可以为不同的网络。其中,第一区域的面积大于第二区域,例如在第一区域的面积为200×200的情况下,第二区域的面积为100×100,面积的单位为像素。
在其他实施例中,可以进一步截取面积更小的区域,对角点的位置进行多次回归。
通过上述步骤S201至S203,在得到粗糙的角点位置的基础上,对误差较大的角点进行过滤,通过在面积大小不同的区域里对角点的位置进行多次识别,得到更为精确的角点位置,解决了在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题,在提高了角点定位的准确度的同时,降低了成本。
在其中一些实施例中,图3是根据本申请实施例的计算几何差值的流程图,如图3所示,该方法包括如下步骤:
步骤S301,根据角点坐标,计算该待定位图像各个边长的测量值,根据该识别模板的几何参数和缩放比例,计算该待定位图像的估计值。在采集的角点坐标的数量为4的情况下,将角点坐标分别以P1、P2、P3、P4表示,其中,P1P2表示长边,P1P3表示短边,通过坐标之间的差值计算,得到待定位图像各个边长的测量值。在识别模板中,模板的长以w表示,模板的宽以h表示,长和宽的单位可以为像素,也可以为米。在通过深度摄像头进行拍照,或者场景和挂高固定的情况下,缩放比例为a,进而可以得到待定位图像的估计值,具体为,待定位图像的成像长度为aw,成像宽度为ah。
在缩放比例未知的情况下,a的值可以由如下公式1得到:
在公式1中,s为由角点围成的四边形的面积,w为识别模板的长,h为识别模板的宽。
步骤S302,计算该测量值与该估计值之间的几何差值,在该几何差值小于或者等于该差值阈值的情况下,保留该角点坐标,在该几何差值大于该差值阈值的情况下,重新进行特征点匹配。其中,几何差值由如下公式2得到:
在公式2中,|P1P2|、|P3P4|、|P1P3|、|P2P4|分别为角点围成的图形的边长,aw为待定位图像的成像长度,ah为待定位图像的成像宽度,γ为差值阈值,差值阈值可以根据实际情况进行调整,一般在0.1至0.5的范围内取值。
在几何差值大于差值阈值的情况下,认为对角点的识别结果与角点的真实位置之间的差异较大,需重新进行特征点匹配。
通过上述步骤S301和S302,本申请通过对角点的第一位置进行过滤,得到误差较小的绘本角点定位结果,在此基础上,再对角点进行多次定位,提高了对绘本角点定位的准确度。
在一些实施例中,在以角点为几何中心,截取第一区域之前,绘本角点定位的方法还包括:根据该绘本的几何参数,矫正该角点的位置。其中,绘本的几何参数包括绘本各个边的长度,各个角的角度。本实施例通过绘本的几何参数对角点的位置进行矫正,可以降低定位过程中角点位置的偏差,提高绘本角点定位的准确度。
在一些实施例中,根据绘本的几何参数,矫正角点的位置包括:获取该绘本的长和宽,根据该绘本的长宽比,矫正所述角点的位置。通常情况下,绘本为矩形,长宽比为绘本的长与绘本的宽的比值。
本申请还提供了一种角点位置矫正的方法,图4是根据本申请实施例的角点位置矫正的流程图,如图4所示,该方法包括如下步骤:
步骤S401,在P1P4和P2P3的交点以O表示,角点分别以P1、P2、P3、P4表示的条件下,获取∠P1OP2和∠P1OP3的角平分线,其中,∠P1OP2的角平分线为OPh,∠P1OP3的角平分线为OPw。其中,在P1P2表示长边,P1P3表示短边的情况下,几何中心可以由P1P2和P1P3的交点得到。
步骤S402,根据缩放比例和该识别模板的几何参数确定矫正矩形的长和宽,以OPh和OPw为该矫正矩形边线的方向,获取矫正矩形,该矫正矩形的顶点为该角点矫正后的位置。
通过上述步骤S401和步骤S402,根据角平分线的方向和识别模板的几何参数对角点形成的几何图形进行矫正,使角点位置更接近于真实值。
在一些实施例中,在得到角点的第三位置之后,绘本角点定位的方法还包括:将第三位置进行坐标系变换,在坐标系变换后,计算该待定位图像的位置和姿态,对该位置和姿态进行图像增强。角点的第三位置位于彩色摄像头的坐标系,在进行AR展示的过程中,需要将该彩色摄像头的坐标系转移至AR坐标系,在该AR展示通过投影实现的情况下,该AR坐标系为投影仪坐标系,在该AR展示通过AR眼镜实现的情况下,该AR坐标系为眼镜坐标系。在坐标系变换之后,可以根据角点的第三位置获取角点坐标,进而计算待定位图像的位置和姿态,其中,进行虚拟现实叠加的素材可以为二维素材,也可以为三维素材。
在其他实施例中,可以直接在彩色图像上进行渲染和叠加,此时,则不需要坐标系转化。
在一些实施例中,在渲染和叠加完成之后,进行翻页判断,在判断用户进行翻页之后,进行特征点匹配,开始对新一帧待定位图像进行绘本角点定位,在用户没有进行翻页的情况下,重新截取第一区域进行定位,不断修正角点位置。
在一些实施例中,在获取待定位图像之前,还包括合成绘本数据,通过绘本数据对神经网络模型进行训练,本申请还提供了一种训练方法,图5是根据本申请实施例的通过绘本数据对神经网络模型进行训练的方法的流程图,如图5所示,该方法包括如下步骤:
步骤S501,提取待标注图像的轮廓,获取该轮廓的最小外接多边形,在该轮廓内,根据该最小外接多边形的顶点与该轮廓内像素的距离,标注该轮廓的修正角点坐标,其中,该待标注图像为深度图像。在提取待标注图像轮廓的过程中,尽可能准备数量更多的待标注图像,包含更多的边角图像信息。深度图的背景通过固定深度摄像头及彩色摄像头,拍摄无杂物桌面的深度图得到。
在标注的过程中,用户需将待标注图像放入摄像头的视野内,然后双手离开视野,在摄像头获取到该待标注图像的深度图之后,更换待标注图像,再次将双手移至摄像头的视野外,直到采集完成所有的待标注图像。
在提取轮廓之前,如果深度摄像头没有与彩色摄像头进行像素对齐,需要对深度摄像头与彩色摄像头进行标注,以计算像素在不同摄像头中的对应位置。
步骤S502,将修正角点坐标转换至彩色坐标系,在彩色坐标系中,将以该修正角点坐标为顶点形成的彩色区域贴图至背景图像,得到合成图像,对该合成图像进行数据增强。其中,合成图像由如下步骤实现:在得到修正角点坐标之后,更换背景,获取待标注图像的多个彩色图像,在对所有的角点进行标注之后,得到图像集合PIC和标签集合L。取出PIC里的一张图像及L里对应的四个角点标签,并随机抽取一张背景,在图片里抠出四个点围成的图像块,将提取出的图像块贴图到背景上,形成合成图像。本实施例中的边角图像定义为,在合成图像的顶点处,边长为128像素的方形区域,在其他实施例中,该方形区域的边长可以为其他像素值。
步骤S503,根据该数据增强后的边角图像,对该神经网络模型进行训练,其中,该神经网络模型用于角点回归。
通过上述步骤S501至步骤S503,通过获取神经网络训练所需的数据,将绘本角点标注转化为一个小范围的回归问题,由于数据完全是合成的,可以保证标签准确度极高,又由于整个过程不需要手动打标签,人工成本低,可以非常方便地获取大批量数据,绘本角点标注被简化,很小的卷积神经网络就可以得到较好的拟合效果,满足深度学习对于数据数量和质量的需求。
在一些实施例中,为了使得绘本角点标注能泛化到更多场景,需尽可能多的采集不包含待标注图像的背景,例如不同纹理不同材质的桌面、地面等等,构成图像集合背景,该背景的图像尺寸与采集的彩色图像一致。
在一些实施例中,根据最小外接多边形的顶点与该轮廓内像素的距离,标注轮廓的修正角点坐标包括:在轮廓内,获取与最小外接多边形的顶点距离最近的像素,根据该像素的坐标与该修正角点的深度值,确定该像素的修正角点坐标。例如,在该最小外接多边形为矩形的情况下,计算该最小外接矩形的四个角点,将其中一个角点代表的像素以Q1表示,获取Q1的深度值为k,则该角点的修正角点坐标为DepthToCol(Q1,k-h),其中,DepthToCol为深度摄像头的像素点与彩色图像坐标之间的转换关系,h为待标注图像在背景中的高度。在形成识别模板的过程中,需要将待标注图像置于高度为h的平整物体上,该物体的轮廓需小于待标注图像,h的取值可以为20mm。本实施例提供的获取修正角点坐标的方法,计算简便,效率高,减少了人工标注的工作量。
在一些实施例中,本实施例提供了一种对边角图像进行数据增强的方法,图6是根据本申请实施例的对边角图像进行数据增强的方法的流程图,如图6所示,该方法包括如下步骤:
步骤S601,以该合成图像的顶点为几何中心,以第一预设长度截取第一方形区域,以该几何中心为中心,以任意角度旋转该第一方形区域。其中,该第一预设长度与合成图像的分辨率有关,该第一预设长度值越大,绘本角点标注的准确率越高。
步骤S602,在旋转后的第一方形区域中,以该几何中心为中心,以第二预设长度截取第二方形区域。其中,该第二预设长度为第一预设长度的
步骤S603,在该第二方形区域内,改变待标注图像的光照、亮度、对比度和模糊度,或者加入椒盐噪声和渲染特效,对合成图像的边角图像进行缩放和畸变。其中,椒盐噪声为也称为脉冲噪声,是图像中一种随机出现的白点或者黑点,可能是亮的区域有黑色像素或是在暗的区域有白色像素。根据场景需求,加入随机光照、亮度、对比度、模糊等干扰项,可以对数据进行增强,提升识别模板的泛化能力,再加入椒盐噪声或其他渲染特效等,可以提升识别模板对于投影类噪声的抑制能力。
通过上述步骤S601至步骤S603,对边角图像进行缩放和畸变,可以提升识别模板的鲁棒性。
在其他实施例中,在对边角图像进行缩放和畸变之后,对数据进行打包,实施深度学习训练。该过程可以离线生成也可以在线实施,数据生成的方式如下:
在图像里随机截取长度大于或者等于第三预设长度的,且长宽比为w′/h′的区块,保证角点在截取范围内,其中,第三预设长度一般不小于网络的输入输入尺寸。在左上角点为TL,右下为BR的情况下,将图像缩放至长为w′,宽为h′,角点坐标变由如下公式3确定:
在公式3中,u为第二预设长度,TL.x代表左上角的x坐标,TL.y代表左上角的y坐标,BR.x代表右下角的x坐标。
通过上述方式,对角点进行优化的过程拥有了平移不变性及一定程度的缩放不变性的特征。本实施例的网络结构具体为:输入为长为w′、宽为h′的图像,通道数不限,可以是三通道彩色图,也可以是单通道灰度图或其他格式图像,输出为角点在图像中的位置。框架结构可以是常见的轻量级神经网络Mobilenet,VGG(Oxford Visual Geometry Group),目标检测Pelee等,还可以由简单堆叠的几层卷积或者可分离卷积,池化层,激活层等构成框架结构,最后接上全连接层进行回归即可。
在一些实施例中本申请提供了一种待标注图像轮廓提取的方法,图7是根据本申请实施例的待标注图像轮廓提取的方法的流程图,如图7所示,该方法包括如下步骤:
步骤S701,采集待标注图像的深度图,在该深度图的前景图中,提取面积大于预设面积阈值的轮廓。其中,通过深度摄像头采集深度图,与背景图做差,提取前景高度大于高度阈值的区域,该高度阈值与深度摄像头的分辨率有关,取值范围为10mm至15mm。在前景图中,面积阈值与深度摄像头的分辨率有关,通常取为手掌大小。
步骤S702,在该轮廓与该前景图的边缘不相连,且该轮廓的数量为1,该轮廓对应的状态为等待采集的情况下,保留该轮廓。对前景图中获取的轮廓进行分析,如果轮该廓与前景图的边缘相连,认为该轮廓为手部轮廓或者待标注图像正在移动的中间状态,将该轮廓过滤,只保留所有与边缘不相连的轮廓。在轮廓的数量大于1的情况下,认为当前场景有多个物体,不进行任何操作,重新采集深度图。在轮廓的数量为0的情况下,认为此时处于用户操作的阶段,设置状态为等待采集,在轮廓的数量为1,且状态为等待采集的情况下,采集并保存当前彩色图像,开始计算图像的四个角点,并将状态设置为采集完成,以避免重复采集,也可以连续采集多张图片。
通过上述步骤S701和步骤S702,对深度图进行前景提取和轮廓提取,得到待标注图像的完整轮廓,有利于提高对待标注图像的绘本角点标注的准确度。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例还提供了一种绘本角点定位的设备,该设备用于实现上述实施例,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图8是根据本申请实施例的绘本角点定位的设备的结构框图,如图8所示,该设备包括摄像装置81和中央处理器82:
通过摄像装置81获取绘本的待定位图像,该中央处理器82对该待定位图像与识别模板进行特征点匹配,定位该待定位图像中所有角点的第一位置;该中央处理器82根据该第一位置获取角点坐标,根据该识别模板的几何参数和该角点坐标,计算几何差值,在所有角点的几何差值均小于或者等于差值阈值的情况下,保留该角点;该中央处理器82以该角点为几何中心,截取第一区域,在该第一区域内,进行绘本角点定位,得到该角点的第二位置,以该角点的第二位置为中心,截取第二区域,在该第二区域内进行绘本角点定位,得到该角点的第三位置,其中,该第一区域的面积大于该第二区域。
本实施例中的摄像装置81包括深度摄像头和彩色摄像头,在得到粗糙的角点位置的基础上,中央处理器82对误差较大的角点进行过滤,通过在面积大小不同的区域里对角点的位置进行多次定位,得到更为精确的角点位置,在使用特征点匹配进行绘本定位的情况下,对绘本姿态识别误差较大的问题,在提高了角点定位的准确度的同时,降低了成本。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种绘本角点定位的方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
在一个实施例中,图9是根据本发明实施例的计算机设备的内部结构示意图,如图9所示,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种绘本角点定位的方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述各实施例提供的绘本角点定位的方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个实施例提供的绘本角点定位的方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种绘本角点定位的方法,其特征在于,所述方法包括:
获取绘本的待定位图像,对所述待定位图像与识别模板进行特征点匹配,定位所述待定位图像中所有角点的第一位置;
根据所述第一位置获取角点坐标,根据所述识别模板的几何参数和所述角点坐标,计算几何差值,在所述所有角点的所述几何差值均小于或者等于差值阈值的情况下,保留所述角点,包括:根据所述角点坐标,计算所述待定位图像各个边长的测量值,根据所述识别模板的几何参数和缩放比例,计算所述待定位图像的估计值;计算所述测量值与所述估计值之间的几何差值,在所述几何差值小于或者等于所述差值阈值的情况下,保留所述角点坐标,在所述几何差值大于所述差值阈值的情况下,重新进行特征点匹配;
以所述角点为几何中心,截取第一区域,在所述第一区域内,进行绘本角点定位,得到所述角点的第二位置,以所述角点的第二位置为中心,截取第二区域,在所述第二区域内进行绘本角点定位,得到所述角点的第三位置,其中,所述第一区域的面积大于所述第二区域。
2.根据权利要求1所述的绘本角点定位的方法,其特征在于,在所述以所述角点为几何中心,截取第一区域之前,所述方法还包括:
根据所述绘本的几何参数,矫正所述角点的位置。
3.根据权利要求2所述的绘本角点定位的方法,其特征在于,所述根据所述所述绘本的几何参数,矫正所述角点的位置包括:
获取所述绘本的长和宽,根据所述绘本的长宽比,矫正所述角点的位置。
4.根据权利要求1所述的绘本角点定位的方法,其特征在于,在所述得到所述角点的第三位置之后,所述方法还包括:
将所述第三位置进行坐标系变换,在坐标系转移后,计算所述待定位图像的位置和姿态,对所述位置和姿态进行渲染和叠加。
5.根据权利要求1所述的绘本角点定位的方法,其特征在于,在所述获取绘本的待定位图像之前,所述方法还包括合成绘本数据,通过所述绘本数据对神经网络模型进行训练,所述训练方法包括:
提取待标注图像的轮廓,获取所述轮廓的最小外接多边形,在所述轮廓内,根据所述最小外接多边形的顶点与所述轮廓内像素的距离,标注所述轮廓的修正角点坐标,其中,所述待标注图像为深度图像;
将所述修正角点坐标转换至彩色坐标系,在所述彩色坐标系中,将以所述修正角点坐标为顶点形成的彩色区域贴图至背景图像,得到合成图像,对所述合成图像的边角图像进行数据增强;
根据所述数据增强后的边角图像,对所述神经网络模型进行训练,其中,所述神经网络模型用于角点回归。
6.根据权利要求5所述的绘本角点定位的方法,其特征在于,所述根据所述最小外接多边形的顶点与所述轮廓内像素的距离,标注所述轮廓的修正角点坐标包括:
在所述轮廓内,获取与所述最小外接多边形的顶点距离最近的像素,根据所述像素的坐标与所述修正角点的深度值,确定所述像素的修正角点坐标。
7.根据权利要求5所述的绘本角点定位的方法,其特征在于,所述对所述合成图像的边角图像进行数据增强包括:
以所述合成图像的顶点为几何中心,以第一预设长度截取第一方形区域,以所述几何中心为中心,以任意角度旋转所述第一方形区域;
在旋转后的所述第一方形区域中,以所述几何中心为中心,以第二预设长度截取第二方形区域;
在所述第二方形区域内,改变所述待标注图像的光照、亮度、对比度和模糊度,或者加入椒盐噪声,对合成图像的边角图像进行缩放和畸变。
8.根据权利要求5所述的绘本角点定位的方法,其特征在于,所述提取待标注图像的轮廓包括:
采集所述待标注图像的深度图,在所述深度图的前景图中,提取面积大于预设面积阈值的轮廓;
在所述轮廓与所述前景图的边缘不相连,且所述轮廓的数量为1,所述轮廓对应的状态为等待采集的情况下,保留所述轮廓。
9.一种绘本角点定位的设备,其特征在于,所述设备包括摄像装置和中央处理器:
通过所述摄像装置获取绘本的待定位图像,所述中央处理器对所述待定位图像与识别模板进行特征点匹配,定位所述待定位图像中所有角点的第一位置;
所述中央处理器根据所述第一位置获取角点坐标,根据所述识别模板的几何参数和所述角点坐标,计算几何差值,在所述所有角点的所述几何差值均小于或者等于差值阈值的情况下,保留所述角点,包括:根据所述角点坐标,计算所述待定位图像各个边长的测量值,根据所述识别模板的几何参数和缩放比例,计算所述待定位图像的估计值;计算所述测量值与所述估计值之间的几何差值,在所述几何差值小于或者等于所述差值阈值的情况下,保留所述角点坐标,在所述几何差值大于所述差值阈值的情况下,重新进行特征点匹配;
所述中央处理器以所述角点为几何中心,截取第一区域,在所述第一区域内,进行绘本角点定位,得到所述角点的第二位置,以所述角点的第二位置为中心,截取第二区域,在所述第二区域内进行绘本角点定位,得到所述角点的第三位置,其中,所述第一区域的面积大于所述第二区域。
10.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8中任一项所述的绘本角点定位的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至8中任一项所述的绘本角点定位的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010195885.0A CN111401266B (zh) | 2020-03-19 | 2020-03-19 | 绘本角点定位的方法、设备、计算机设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010195885.0A CN111401266B (zh) | 2020-03-19 | 2020-03-19 | 绘本角点定位的方法、设备、计算机设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401266A CN111401266A (zh) | 2020-07-10 |
CN111401266B true CN111401266B (zh) | 2023-11-03 |
Family
ID=71431021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010195885.0A Active CN111401266B (zh) | 2020-03-19 | 2020-03-19 | 绘本角点定位的方法、设备、计算机设备和可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401266B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862218B (zh) * | 2020-07-29 | 2021-07-27 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN112132163B (zh) * | 2020-09-21 | 2024-04-02 | 杭州睿琪软件有限公司 | 识别对象边缘的方法、系统及计算机可读存储介质 |
CN112215890B (zh) * | 2020-09-30 | 2022-07-05 | 华中科技大学 | 一种基于单目视觉的盾构机滚刀刀座位姿的测量方法 |
CN112328150B (zh) * | 2020-11-18 | 2022-03-29 | 贝壳技术有限公司 | 自动截图方法、装置以及设备、存储介质 |
CN112507951B (zh) * | 2020-12-21 | 2023-12-12 | 阿波罗智联(北京)科技有限公司 | 指示灯识别方法、装置、设备、路侧设备和云控平台 |
CN114463750A (zh) * | 2022-01-19 | 2022-05-10 | 湖南视比特机器人有限公司 | 工件喷码的校正方法及其校正系统和路径控制方法 |
CN114463751A (zh) * | 2022-01-19 | 2022-05-10 | 湖南视比特机器人有限公司 | 基于神经网络和检测算法的边角定位方法及装置 |
CN114972531B (zh) * | 2022-05-17 | 2024-06-11 | 上海人工智能创新中心 | 一种角点检测方法、设备及可读存储介质 |
CN116309837B (zh) * | 2023-03-16 | 2024-04-26 | 南京理工大学 | 一种结合特征点与轮廓点的毁伤元识别定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279956A (zh) * | 2013-05-30 | 2013-09-04 | 华南理工大学 | 一种检测贴片机元器件定位精度的方法 |
CN109118473A (zh) * | 2018-07-03 | 2019-01-01 | 深圳大学 | 基于神经网络的角点检测方法、存储介质与图像处理系统 |
CN110610519A (zh) * | 2019-09-25 | 2019-12-24 | 江苏鸿信系统集成有限公司 | 一种基于深度学习的车窗定位方法 |
CN110751143A (zh) * | 2019-09-26 | 2020-02-04 | 中电万维信息技术有限责任公司 | 一种电子发票信息的提取方法及电子设备 |
CN110766025A (zh) * | 2019-10-09 | 2020-02-07 | 杭州易现先进科技有限公司 | 绘本识别方法、装置、系统及存储介质 |
CN110765926A (zh) * | 2019-10-21 | 2020-02-07 | 杭州易现先进科技有限公司 | 图画书识别方法、装置、电子设备和存储介质 |
-
2020
- 2020-03-19 CN CN202010195885.0A patent/CN111401266B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103279956A (zh) * | 2013-05-30 | 2013-09-04 | 华南理工大学 | 一种检测贴片机元器件定位精度的方法 |
CN109118473A (zh) * | 2018-07-03 | 2019-01-01 | 深圳大学 | 基于神经网络的角点检测方法、存储介质与图像处理系统 |
CN110610519A (zh) * | 2019-09-25 | 2019-12-24 | 江苏鸿信系统集成有限公司 | 一种基于深度学习的车窗定位方法 |
CN110751143A (zh) * | 2019-09-26 | 2020-02-04 | 中电万维信息技术有限责任公司 | 一种电子发票信息的提取方法及电子设备 |
CN110766025A (zh) * | 2019-10-09 | 2020-02-07 | 杭州易现先进科技有限公司 | 绘本识别方法、装置、系统及存储介质 |
CN110765926A (zh) * | 2019-10-21 | 2020-02-07 | 杭州易现先进科技有限公司 | 图画书识别方法、装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
S.Ando,et al..Image field categorization and edge/corner detection from gradient covariance.《IEEE Transactions on Pattern Analysis and Machine Intelligence》.2003,第22卷(第2期),179-190. * |
沈士喆 等.一种自适应阈值的预筛选Harris角点检测方法.《数据采集与处理》.2011,第26卷(第2期),207-213. * |
Also Published As
Publication number | Publication date |
---|---|
CN111401266A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401266B (zh) | 绘本角点定位的方法、设备、计算机设备和可读存储介质 | |
CN110135455B (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN112348815B (zh) | 图像处理方法、图像处理装置以及非瞬时性存储介质 | |
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
CN111328396B (zh) | 用于图像中的对象的姿态估计和模型检索 | |
Zhang et al. | An image stitching algorithm based on histogram matching and SIFT algorithm | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
Azad et al. | Stereo-based 6d object localization for grasping with humanoid robot systems | |
US10977767B2 (en) | Propagation of spot healing edits from one image to multiple images | |
CN104537705B (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
CN109859137B (zh) | 一种广角相机非规则畸变全域校正方法 | |
EP4107650A1 (en) | Systems and methods for object detection including pose and size estimation | |
CN112657176A (zh) | 一种结合人像行为信息的双目投影人机交互方法 | |
CN111626241A (zh) | 一种人脸检测方法及装置 | |
CN113436251B (zh) | 一种基于改进的yolo6d算法的位姿估计系统及方法 | |
CN113012298B (zh) | 一种基于区域检测的弯曲mark三维注册增强现实方法 | |
US11080920B2 (en) | Method of displaying an object | |
CN111179271B (zh) | 一种基于检索匹配的物体角度信息标注方法及电子设备 | |
CN117253022A (zh) | 一种对象识别方法、装置及查验设备 | |
CN114862866B (zh) | 标定板的检测方法、装置、计算机设备和存储介质 | |
CN116092106A (zh) | 印章识别方法、装置、电子设备及存储介质 | |
CN115086625A (zh) | 投影画面的校正方法、装置、系统、校正设备和投影设备 | |
CN114004839A (zh) | 全景图像的图像分割方法、装置、计算机设备和存储介质 | |
CN113570535A (zh) | 视觉定位方法及相关装置、设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |