CN107240112B - 一种复杂场景下个体x角点提取方法 - Google Patents

一种复杂场景下个体x角点提取方法 Download PDF

Info

Publication number
CN107240112B
CN107240112B CN201710506693.5A CN201710506693A CN107240112B CN 107240112 B CN107240112 B CN 107240112B CN 201710506693 A CN201710506693 A CN 201710506693A CN 107240112 B CN107240112 B CN 107240112B
Authority
CN
China
Prior art keywords
point
pixel
corner
points
response value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710506693.5A
Other languages
English (en)
Other versions
CN107240112A (zh
Inventor
王君臣
季旭全
徐庆鹤
赵宵洋
卢清荣
孙振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baihui Weikang Technology Co Ltd
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201710506693.5A priority Critical patent/CN107240112B/zh
Publication of CN107240112A publication Critical patent/CN107240112A/zh
Application granted granted Critical
Publication of CN107240112B publication Critical patent/CN107240112B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Abstract

本发明公开了一种基于响应值方法和支持向量机(Support Vector Machine,简称SVM)分类器的X角点提取算法,X角点是两个暗块和两个亮块交替排列形成图案的公共点,如图1所示。本发明的算法步骤主要包括:一、制作X角点标准板;二、采集训练图像,并将图片灰度化;三、对图片进行高斯滤波;四、计算各个像素的响应值,并进行阈值过滤;五、使用U‑SURF特征提取方法提取特征;六、人工添加标记;七、训练SVM分类器;八、加载图片进行检测;九、亚像素定位。由于采用机器学习的方法,本发明具有良好的移植性。此外,本发明具有良好的识别能力、实时性和定位精度,基本可以满足机器视觉在快速识别和定位上的需求。

Description

一种复杂场景下个体X角点提取方法
技术领域
本发明涉及机器视觉领域,尤其涉及一种复杂场景下个体X角点提取方法。
背景技术
在机器视觉中,对目标物体快速精准的定位,一直是学界和工程界研究的重点问题,解决了识别与定位问题,就完成了“机器人眼睛”的一个重要工作。
在目标检测方面,从识别目标上来区分,包括有Marker的方式和无Marker的途径。Marker是指固定在目标物体上,可以被系统自身算法识别的二维或三维标记点,例如二维码、条形码以及本发明所要识别的X角点。无Marker识别指的是识别目标物体本身,通过提取目标物体的轮廓及纹理特征,然后对特征加以分类,最后对目标的种类做出判断。从识别的途径上来分,有基于形态学方法和基于深度学习的方式,这两种方式的区别在于,形态学方法是采用人工的方式对特征进行提取,而深度学习相当于一个黑箱,通过众多不同功能的神经元和深层次的卷积神经网络对图片进行特征提取。
本发明中,采用相对环境辨识度高、抗干扰能力强的X角点为Marker,X角点是两个暗块和两个亮块图案交替排列形成图案的公共点。目前学术界对于X角点检测的工作几乎全部集中于棋盘格特征点的检测,比如张正友在“Aflexiblenewtechniqueforcameracalibration”中公开了一种基于棋盘格角点的相机标定方法,通过识别多张棋盘格图像中的X角点,计算出相机的内参。另外还有例如西安理工大学的杨幸芳等人再“用于摄像机标定的棋盘图像角点检测新算法”中提出的使用环形模板的识别算法,北京航空航天大学魏军等人在“基于段测试的X角点快速检测与亚像素定位”一文中提出了使用段测试的X角点检测方法。其中张正友标定法中采用的识别方法依赖于棋盘格的几何特征,无法检测个体的X角点;其他的基于几何特征、基于模板匹配、基于梯度特征等等方法虽然适用于个体X角点,但是这些方法普遍具有对图像投影变换、平面外旋转、光照、噪声等敏感,并且在复杂场景下会有很多的误检测点,导致识别时间过长,无法满足机器视觉对实时性的要求。
发明内容
发明目的:
本发明克服了现有X角点检测技术在复杂场景下的检测率低的问题,提出了一种基于响应值提取和支持向量机(SupportVectorMachine,简称SVM)分类的角点提取方法,大大提高了角点检测的准确率和鲁棒性,缩短了检测时间。
技术方案:
本发明一种复杂场景下个体X角点提取方法,其步骤如下:
步骤一:制作X角点标准板。为了尽可能得提升SVM分类器的适应性,避免分类器过拟合,在标准板上打印18个X角点,以第一个X角点为基准,从第二个开始,每个X角点是前一个X角点绕中心顺时针旋转10°构成,所以最终会得到一个旋转角从0°~170°的X角点标准板。
步骤二:采集训练SVM使用的图像,并将图片灰度化。在0.5m-4m的视野范围内,通过旋转亮暗调节的方式扩充样本数量,采集上千张训练图像。采集的图片如果是带有RGB(红、绿、蓝)三个通道的彩色图像,需要将其转化为灰度图像以降低数据的维度。灰度化的公式如下:
Grey=0.299*R+0.587*G+0.114*B
其中Grey表示当前像素点灰度化之后的像素值大小,R表示原图像红色通道像素值,G表示原图像绿色通道像素值,B表示原图像蓝色通道像素值。
步骤三:对采集的图片进行高斯滤波。高斯滤波就是对整幅图像进行加权平均的过程,每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。例如可以采用11*11的模板,设置X(图像水平)和Y(图像竖直)方向的方差都为1.5,对图像进行高斯滤波,就能有效降低高斯噪声对后续步骤的影响,提升X角点识别的准确性。
步骤四:计算各个图像中各个像素的响应值,并进行响应值过滤。由于X角点的对称性和黑白相见的特性,采用一种对X角点具有高响应值而对其他角点响应值低的算子来计算当前角点的响应值。在以当前像素点为中心,半径为5个像素的圆上,均匀取16个像素点编号0~15,然后将当前像素点的上、右、下、左和当前像素点5个像素编号为16、17、18、19、20。计算其总响应值(SR),微分响应(DR)和平均响应值(MR),公式如下:
Figure GDA0001375603540000031
Figure GDA0001375603540000032
Figure GDA0001375603540000033
其中:In表示在位置n处的像素值。
最后,通过以下公式算出当前点的响应值:
R=SR-DR-16MR
计算出像素点的响应值后,对其阈值过滤,只保留响应值高于阈值的点,这样能大幅度减少点的规模。阈值过滤之后再采用局部非极大值抑制的方法,消除相互距离过近的点。
步骤五:特征提取。在特征的选择上,采用SURF(Speeded-UpRobustFeatures)特征。相比与其他特征提取方法,SURF特征具有明暗不变、尺度不变以及旋转不变性等特点。由于X角点是中心对称的,所以不需要它的旋转不变性,因此,采用了U-SURF特征,也就是不带方向的SURF特征描述子,这样不仅能大大提高运算的速度,在准确率上也有一定的提升。采用U-SURF特征描述子对特征进行提取之后,由每个角点可以得到一个64维的特征描述向量。假设一共有n个特征点,那么就可以得到一个n*64的特征描述矩阵。
步骤六:人工添加标记。在候选角点中,包含了所要识别的X角点,但是大部分是干扰点,需要生成一个标签文件来告诉SVM分类器哪些是正样本,哪些是负样本。例如把正样本标记为1,将负样本标记为-1,这样就得到了一个n*1的标签向量。
步骤七:SVM分类器训练。在采集完足够的样本之后,需要对SVM分类器进行训练。经过分析和实验,最终采用径向基作为SVM核函数。设定好迭代停止条件,将第五步和第六步得到的特征描述矩阵和标签向量输入分类器中进行训练。训练完成之后就可以使用该SVM分类器了。
步骤八:加载图片进行测试。对输入图片进行灰度化之后,对图片进行三、四、五等三个步骤的处理,生成图片的n*64的特征矩阵,n表示当前图片中候选点的个数。将特征矩阵输入训练好的SVM分类器中进行训练,它会输出一个n*1的预测向量,分别代表从1~n个候选点的预测值,如果为1,就表示预测当前候选点为X角点;否则如果为-1,就表示预测当前候选点非X角点。
步骤九:对提取的X角点点进行亚像素定位。在第八步所确定的X角点属于像素级定位,也就是说像素点的坐标是整数,它只是实际角点坐标的一个近似值。在实际应用中,像素级的定位是不够的,必须要达到亚像素级的定位,也就是要把坐标的精度提升到0.1像素级。
本发明一种复杂场景下个体X角点提取方法,具有以下优点:
1.本发明适用于嘈杂的环境中,对噪声的敏感度低。本发明中不仅采用了角点响应值方法对像素点进行了过滤,而且增加了采用机器学习中的SVM分类器进行筛选,相比与其他X角点检测算法,具有更强的适应性和更高的准确率。
2.本发明识别精度高,波动小。在0.5m至2.0m的范围内,对两点之间距离进行测量,测量距离误差在小于0.1mm,标准差小于0.02mm。
3.本算法具有良好的移植性。用户可以根据自身使用环境、图片大小、图片质量等的差异,使用自己的图片训练SVM分类器以达到更好的分类效果。
4.本算法对X角点具有良好的辨识度,对X角点识别进行了角度测试。X角点相对于相机的位置从平行开始,绕测试板的竖直中轴线进行离面旋转,每隔5°进行采样。测试结果显示,在相机与X角点距离0.5m的时候,从0°到75°识别率一直是100%,到80°的时候下降为79.75%;而在1m的时候,0~70°的识别率依然是100%,而75°的结果降至88.89%,80°的识别率降至55.56%;在1.5m的时候,0~65°的正确率为100%,70°的正确率降低至81.22%,75°的正确率降低至52.61%,。相比其他算法,本发明算法具有很好的鲁棒性。
5.本发明耗时所耗时间短,一张输入为2560*1024的图片,完成检测的所有步骤耗时只需要0.1s,如果图片缩小或者使用GPU运算速度还能有所提升,完全可以满足机器视觉对实时性的要求。
附图说明
图1为X角点示意图
图2图2为本发明X角点识别的流程框图(算法流程图如图2所示)
具体实施方式
下面结合附图,对本发明的技术方案做进一步的说明。
实现复杂场景下X角点的精确识别,需要两大步骤:首先是高效地筛选,使用专门针对X角点的响应值计算方法,尽可能地放大X角点的响应值,同时抑制非X角点的响应值,达到迅速降低数据集维度的目的,其次是使用精确的分类方法,剔除掉候选点中的非X角点,最终只剩下人工添加的Marker中的X角点。
本发明的一种复杂场景下个体X角点提取方法,对象是与自然环境具有明显区别的X角点,参见图1,如果以一个圆分割出X角点,具有以下三个明显特征:
1.黑色和白色区域各占总面积的一半。
2.黑色和白色区域交替,相邻区域有较大的灰度值变化。
3.像素的灰度值关于中心点对称。
本发明一种复杂场景下个体X角点提取方法的实现步骤参见图2所示,具体描述如下:
(一)、制作X角点标准板。为了尽可能得提升SVM分类器的适应性,避免分类器过拟合,在标准板上打印18个X角点,以第一个X角点为基准,从第二个开始,每个X角点是前一个X角点绕中心顺时针旋转10°构成,所以最终会得到一个旋转角从0°~170°的X角点标准板。
(二)、采集训练SVM使用的图像,并将图片灰度化。在0.5m-4m的视野范围内,通过旋转亮暗调节的方式扩充样本数量,采集上千张训练图像。采集的图片如果是带有RGB(红、绿、蓝)三个通道的彩色图像,需要将其转化为灰度图像以降低数据的维度。灰度化的公式如下:
Grey=0.299*R+0.587*G+0.114*B
其中Grey表示当前像素点灰度化之后的像素值大小,R表示原图像红色通道像素值,G表示原图像绿色通道像素值,B表示原图像蓝色通道像素值。
(三)、对采集的图片进行高斯滤波。高斯滤波就是对整幅图像进行加权平均的过程,每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。例如可以采用11*11的模板,设置X(图像水平)和Y(图像竖直)方向的方差都为1.5,对图像进行高斯滤波,就能有效降低高斯噪声对后续步骤的影响,提升X角点识别的准确性。
(四)、计算各个图像中各个像素的响应值,并进行响应值过滤。参见图1,由于X角点的图形特性,采用一种对X角点具有高响应值而对其他角点响应值低的算子来计算当前角点的响应值。在以当前像素点为中心,半径为5个像素的圆上,均匀取16个像素点编号0~15,然后将当前像素点的上、右、下、左和当前像素点5个像素编号为16、17、18、19、20。计算其总响应值(SR),微分响应(DR)和平均响应值(MR),公式如下:
Figure GDA0001375603540000061
Figure GDA0001375603540000062
Figure GDA0001375603540000063
其中:In表示在位置n处的像素值。
最后,通过以下公式算出当前点的响应值:
R=SR-DR-16MR
计算出像素点的响应值后,对其阈值过滤,只保留响应值高于阈值的点,这样能大幅度减少点的规模,阈值过滤之后再采用局部非极大值抑制的方法,消除相互距离过近的点。
(五)、特征提取。在特征的选择上,采用SURF(Speeded-UpRobustFeatures)特征。相比与其他特征提取方法,SURF特征具有明暗不变、尺度不变以及旋转不变性等特点。由于X角点是中心对称的,所以不需要它的旋转不变性,因此,采用了U-SURF特征,也就是不带方向的SURF特征描述子,这样不仅能大大提高运算的速度,在准确率上也有一定的提升。采用U-SURF特征描述子对特征进行提取之后,由每个角点可以得到一个64维的特征描述向量。假设一共有n个特征点,那么就可以得到一个n*64的特征描述矩阵。
(六)、人工添加标记。在候选角点中,包含了所要识别的X角点,但是大部分是干扰点,需要生成一个标签文件来告诉SVM分类器哪些是正样本,哪些是负样本。例如把正样本标记为1,将负样本标记为-1,这样就得到了一个n*1的标签向量。
(七)、SVM分类器训练。在采集完足够的样本之后,需要对SVM分类器进行训练。经过分析和实验,最终采用径向基作为SVM核函数。设定好迭代停止条件,将第五步和第六步得到的特征描述矩阵和标签向量输入分类器中进行训练。训练完成之后就可以使用该SVM分类器了。
(八)、加载图片进行测试。对输入图片进行灰度化之后,对图片进行(三)、(四)、(五)三个步骤的处理,生成图片的n*64的特征矩阵,n表示当前图片中候选点的个数。将特征矩阵输入训练好的SVM分类器中进行训练,它会输出一个n*1的预测向量,分别代表从1~n个候选点的预测值,如果为1,就表示预测当前候选点为X角点;否则如果为-1,就表示预测当前候选点非X角点。
(九)、对提取的X角点进行亚像素定位。在第八步筛选出来的X角点都是像素级的,也就是说像素点的坐标是整数,它只是实际角点坐标的一个近似值。在实际应用中,像素级的定位是不够的,必须要达到亚像素级的定位,也就是要把坐标的精度提升到0.1像素级。
需要指出的是,本发明中所有的参数和方法不唯一,只要不脱离复杂场景下个体X角点提取方法的理论方法,所有显而易见的改变以及具有等同替换的相似方法,均包含在本发明的保护范围之内。

Claims (4)

1.一种复杂场景下个体X角点提取方法,特征在于:该方法步骤如下:
步骤一:制作X角点标准板,用于采集训练样本,其中,在标准板上打印18个X角点,以第一个X角点为基准,从第二个开始,每个X角点是前一个X角点绕中心顺时针旋转10°构成,所以最终会得到一个旋转角从0°~170°的X角点标准板;
步骤二:采集训练SVM使用的图像,并将图片灰度化;
步骤三:对采集的图片进行高斯滤波;
步骤四:计算各个图像中各个像素的响应值,并进行响应值过滤;
步骤五:特征提取,使用U-SURF特征提取方法对候选点的特征进行提取;
步骤六:人工添加标记,人工选点生成一组带有类比信息的标签向量;
步骤七:将提取的特征和标签向量送入SVM分类器中进行训练;
步骤八:加载图片进行检测,对图片进行灰度化之后,使用步骤三、步骤四、步骤五、步骤六完成特征矩阵的生成,将其送入SVM分类器中进行预测,得到分类各个候选点的分类结果,输出预测为X角点的候选点坐标;
步骤九:对提取的候选点进行亚像素定位。
2.根据权利要求1所述的一种复杂场景下个体X角点提取方法,特征在于:步骤四中采用专门为X角点设计的响应值计算方法:在以当前像素点为中心,半径为5个像素的圆上,均匀取16个像素点编号0~15,然后将当前像素点的上、右、下、左和当前像素点5个像素编号为16、17、18、19、20,计算其总响应值(SR),微分响应(DR)和平均响应值(MR),公式如下:
Figure FDA0003053772410000011
Figure FDA0003053772410000012
Figure FDA0003053772410000013
其中:In表示在位置n处的像素值;
最后,通过以下公式算出当前点的响应值:
R=SR-DR-16MR
计算出像素点的响应值后,对其阈值过滤,只保留响应值高于阈值的点,这样能大幅度减少点的规模,阈值过滤之后再采用局部非极大值抑制的方法,消除相互距离过近的点。
3.根据权利要求1所述的一种复杂场景下个体X角点提取方法,特征在于:步骤五中,在特征的选择上,采用SURF(Speeded-UpRobustFeatures)特征,相比与其他特征提取方法,SURF特征具有明暗不变、尺度不变以及旋转不变性等特点,由于X角点是中心对称的,所以不需要它的旋转不变性,因此,采用了U-SURF特征,也就是不带方向的SURF特征描述子,这样不仅能大大提高运算的速度,在准确率上也有一定的提升,采用U-SURF特征描述子对特征进行提取之后,由每个角点可以得到一个64维的特征描述向量,假设一共有n个特征点,最终可以得到一个n*64的特征描述矩阵。
4.根据权利要求1所述的一种复杂场景下个体X角点提取方法,特征在于:步骤七中使用SVM分类器对X角点的特征进行学习,将获取的特征描述矩阵和标签向量输入到SVM分类器中进行训练,迭代至收敛。
CN201710506693.5A 2017-06-28 2017-06-28 一种复杂场景下个体x角点提取方法 Active CN107240112B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710506693.5A CN107240112B (zh) 2017-06-28 2017-06-28 一种复杂场景下个体x角点提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710506693.5A CN107240112B (zh) 2017-06-28 2017-06-28 一种复杂场景下个体x角点提取方法

Publications (2)

Publication Number Publication Date
CN107240112A CN107240112A (zh) 2017-10-10
CN107240112B true CN107240112B (zh) 2021-06-22

Family

ID=59989983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710506693.5A Active CN107240112B (zh) 2017-06-28 2017-06-28 一种复杂场景下个体x角点提取方法

Country Status (1)

Country Link
CN (1) CN107240112B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190434B (zh) * 2018-06-25 2021-08-24 广东工业大学 一种基于亚像素级角点检测的条码识别算法
CN111343664B (zh) * 2018-12-18 2023-04-07 中国移动通信集团江西有限公司 用户定位方法、装置、设备及介质
CN111047614B (zh) * 2019-10-10 2023-09-29 南昌市微轲联信息技术有限公司 一种基于特征提取的复杂场景图像的目标角点提取方法
CN111539970B (zh) * 2020-04-29 2022-09-16 华中科技大学 一种适用于结构光三维重建的棋盘格角点检测方法
CN113836964B (zh) * 2020-06-08 2023-11-10 北京图森未来科技有限公司 车道线角点检测方法及装置
CN111833405B (zh) * 2020-07-27 2023-12-08 北京大华旺达科技有限公司 基于机器视觉的标定识别方法及装置
CN113837206A (zh) * 2021-09-29 2021-12-24 佛山市南海区广工大数控装备协同创新研究院 一种基于机器学习svm的图像角点检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824081A (zh) * 2014-02-24 2014-05-28 北京工业大学 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN103854029A (zh) * 2014-02-21 2014-06-11 杭州奥视图像技术有限公司 一种前车窗右上角点检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080008377A1 (en) * 2006-07-07 2008-01-10 Lockheed Martin Corporation Postal indicia categorization system
CN102095370B (zh) * 2010-11-22 2013-03-13 北京航空航天大学 三x组合标记的检测识别方法
US20140313345A1 (en) * 2012-11-08 2014-10-23 Ornicept, Inc. Flying object visual identification system
CN105809085B (zh) * 2014-12-29 2019-07-26 深圳Tcl数字技术有限公司 人眼定位方法及装置
CN105389593B (zh) * 2015-11-16 2019-01-11 上海交通大学 基于surf特征的图像物体识别方法
CN105760828B (zh) * 2016-02-04 2019-03-22 山东大学 一种基于视觉的静态手势识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854029A (zh) * 2014-02-21 2014-06-11 杭州奥视图像技术有限公司 一种前车窗右上角点检测方法
CN103824081A (zh) * 2014-02-24 2014-05-28 北京工业大学 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法

Also Published As

Publication number Publication date
CN107240112A (zh) 2017-10-10

Similar Documents

Publication Publication Date Title
CN107240112B (zh) 一种复杂场景下个体x角点提取方法
CN102426649B (zh) 一种简单的高准确率的钢印数字自动识别方法
CN107705288B (zh) 伪目标运动强干扰下的危险气体泄漏红外视频检测方法
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
CN105335725B (zh) 一种基于特征融合的步态识别身份认证方法
CN104715238B (zh) 一种基于多特征融合的行人检测方法
CN104835175B (zh) 一种基于视觉注意机制的核环境中目标检测方法
JP5333570B2 (ja) 画像処理装置、プログラム及び画像処理システム
CN107025652A (zh) 一种基于运动特性和颜色时空信息的火焰检测方法
CN107392885A (zh) 一种基于视觉对比机制的红外弱小目标检测方法
CN110276750A (zh) 一种任意倾斜角晶圆直线边长的提取与晶粒区隔离方法
CN104268602A (zh) 一种基于二进制特征匹配的遮挡工件识别方法及装置
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN108491498A (zh) 一种基于多特征检测的卡口图像目标搜索方法
CN109447062A (zh) 基于巡检机器人的指针型仪表识别方法
CN104123554A (zh) 基于mmtd的sift图像特征提取方法
CN109389165A (zh) 基于巡检机器人的变压器油位计识别方法
CN108073940A (zh) 一种非结构化环境中的3d目标实例物体检测的方法
CN108491857A (zh) 一种视域重叠的多摄像机目标匹配方法
Laroca et al. A first look at dataset bias in license plate recognition
CN111539330B (zh) 一种基于双svm多分类器的变电站数显仪表识别方法
Christen et al. Target marker: A visual marker for long distances and detection in realtime on mobile devices
CN108388854A (zh) 一种基于改进fast-surf算法的定位方法
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN111402185B (zh) 一种图像检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220913

Address after: Room 501, 5th Floor, Building 9, No. 35, Huayuan North Road, Haidian District, Beijing 100191

Patentee after: Beijing Baihui Weikang Technology Co.,Ltd.

Address before: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Patentee before: BEIHANG University

TR01 Transfer of patent right