CN113160332A - 一种基于双目视觉的多目标识别与定位方法 - Google Patents
一种基于双目视觉的多目标识别与定位方法 Download PDFInfo
- Publication number
- CN113160332A CN113160332A CN202110464721.8A CN202110464721A CN113160332A CN 113160332 A CN113160332 A CN 113160332A CN 202110464721 A CN202110464721 A CN 202110464721A CN 113160332 A CN113160332 A CN 113160332A
- Authority
- CN
- China
- Prior art keywords
- image
- matching
- formula
- target
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001914 filtration Methods 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 235000002566 Capsicum Nutrition 0.000 claims description 5
- 239000006002 Pepper Substances 0.000 claims description 5
- 241000722363 Piper Species 0.000 claims description 5
- 235000016761 Piper aduncum Nutrition 0.000 claims description 5
- 235000017804 Piper guineense Nutrition 0.000 claims description 5
- 235000008184 Piper nigrum Nutrition 0.000 claims description 5
- 150000003839 salts Chemical class 0.000 claims description 5
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 3
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 3
- 238000003491 array Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于双目视觉的多目标识别与定位方法,它涉及图像处理领域。技术要点为:1、双目相机标定;2、对图像进行畸变矫正,降噪滤波,图像增强等预处理;3、Otsu算法对图像进行分割,Canny算法提取轮廓特征;4、轮廓信息与模板信息进行匹配;5、Harris角点检测法提取角点,改进的NCC算法提高匹配速率;6、空间映射线求交获取目标空间位姿;本发明所公开的识别方法能够快速实现多目标的识别与定位,且识别定位精度高,具有很好的应用前景。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种基于双目视觉的多目标识别与定位方法。
背景技术
在工业自动化领域,结合双目视觉技术,机械臂对单一目标的抓取、搬运、分拣、码垛等技术已经非常成熟,并应用广泛。然而针对多目标的机械臂自动化抓取、分拣、码垛等技术还需要进行研究并不断提高。待识别目标与匹配模板进行相似度匹配时,因为目标的位置与姿态同模板差异过大,会导致对目标识别存在错误,以及获得目标的识别定位结果耗时较长。
发明内容
针对上述问题,本发明提供一种基于改进蚁群优化算法的机械臂运动轨迹规划方法,通过双目视觉感知工作环境中的障碍物,在多障碍物空间中运行改进的蚁群优化算法规划机械臂运动轨迹,实现机械臂在多障碍物空间中的避障运动。实现本发明的技术方案包括如下过程:
一种基于双目视觉的多目标识别与定位方法,包括以下步骤:
步骤一:双目相机标定
通过张正友标定法进行双目相机标定;
步骤二:图像采集;
步骤三:图像预处理
采用中心点邻滤波方法可以有效抑制高斯与椒盐这两种噪声,其原理为去除以中心点像素为圆心的圆周所含n2个像素点灰度值中最值各m个,然后对余下像素点进行均值计算fr(x,y),替换噪声像素点所在位置。其表达式为:
式中:∑f(x=i,y=j)表示去除最高与最低灰值后所剩灰度值之和,当n2-2m=1时,此时去噪效果与中值滤波等同;当m=0时,则可以抑制高斯噪声,因此,去噪效果取决于m值的选取。
直方图均衡化可以提高图像分辨率,使其更具立体感,此方法为避免由于剧烈变化导致图像处理的难度加剧,尽可能使其均匀的分布。
步骤四:边缘提取
通过Otsu算法分割3中预处理后的图像,以式(2)得出的阈值为基准进行图像分割处理。采用Canny算法提取轮廓特征;
式中:gmin和gmax为图像所含灰度值的最值,distobj_bkg为图像的类间方差。
步骤五:轮廓特征识别
提取待测图像特征量,将待识别图像中目标物体的轮廓特征信息与模板图像所涵盖的轮廓特征量进行匹配,以其相似度所在范围判断是否所属为同一类物体。
步骤六:立体匹配
采用级别为亚像素级别的Harris角点检测方法进行角点提取。以差分求和定理为基础对NCC算法做进一步改进,用以提升左右视图特征点匹配速度。具体实施为:设两个一维数组f(x)、g(x)且均具有变量N个,满足关系式如下:
式中:
F(x)=f(x)-f(x+1)
G(x)=G(x-1)-g(x+1)
G(0)=0 f(K+1)=0
将一幅视图中提取的特征点均存放在数组f(x)中,另一幅图像中与之对应的特征点均存放在数组g(x)中。通过差分求和定理将计算量较大的乘积计算g(x)、f(x)转化成相对来说计算量较小的G(x)、F(x)求和计算。同时,对数组进行差分计算后会出现较多的0、1和-1元素,与这些元素相关的乘法计算可被略过,因此,大大降低了计算的复杂程度,匹配速度获得显著提升。
采用快速聚类的方法定位密度聚类中心。其实现原理就是通过公式(4-8)、(4-9)计算将左右视图提取的所有特征点存放在新的坐标系中,然后进行矢量运算,观察它们的相似程度,相似度在某一范围内被认作为相互匹配点对,否则为不匹配点对。
式中:左右视图的匹配点在所属视图中的坐标为(x1,y1)、(x2,y2),可根据公式转换成极坐标形式(angle,d)。
步骤七:目标空间位姿获取
利用空间映射线求交的方法,根据物体本身三个特征点的空间位置即可确定该物体的空间位姿;
本发明的有益效果是:
(1)对于零件分拣机器人来说,该发明方法能够有效识别多个目标,为后续零件分拣定位奠定基础。
(2)采用中心点邻滤波方法可以同时有效抑制高斯与椒盐这两种噪声,此方法解决了双边滤波和中值滤波仅可将其中一种噪声缩小到可控范围内的弊端,并结合了两种滤波的优点。
(3)以差分求和定理为基础对NCC算法做进一步改进,用以提升左右视图特征点匹配速度,大大节约了匹配阶段的时间成本。
附图说明
为了易于说明,本发明由下述的具体实施及附图作以详细描述。
图1为多目标识别与定位总流程;
图2为目标识别流程图;
图3为物体位姿获取流程图;
图4为边缘提取效果图;
图5为不同模板的识别效果图,(a)为L型二通识别结果,(b)为三通识别结果,(c)为螺钉识别结果,(d)为减震柱识别结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面通过附图中示出的具体实施例来描述本发明。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
如图1、图2、图3、图4、图5所示,本具体实施方式采用以下技术方案:一种基于双目视觉的多目标识别与定位方法,其特征在于:所述方法的具体实现过程为:
步骤一:双目相机标定
通过张正友标定法进行双目相机标定;
步骤二:图像采集;
步骤三:图像预处理
采用中心点邻滤波方法可以有效抑制高斯与椒盐这两种噪声,其原理为去除以中心点像素为圆心的圆周所含n2个像素点灰度值中最值各m个,然后对余下像素点进行均值计算fr(x,y),替换噪声像素点所在位置。其表达式为:
式中:∑f(x=i,y=j)表示去除最高与最低灰值后所剩灰度值之和,当n2-2m=1时,此时去噪效果与中值滤波等同;当m=0时,则可以抑制高斯噪声,因此,去噪效果取决于m值的选取。
直方图均衡化可以提高图像分辨率,使其更具立体感,此方法为避免由于剧烈变化导致图像处理的难度加剧,尽可能使其均匀的分布。
步骤四:边缘提取
通过Otsu算法分割3中预处理后的图像,以式(2)得出的阈值为基准进行图像分割处理。采用Canny算法提取轮廓特征;
式中:gmin和gmax为图像所含灰度值的最值,distobj_bkg为图像的类间方差。
步骤五:轮廓特征识别
提取待测图像特征量,将待识别图像中目标物体的轮廓特征信息与模板图像所涵盖的轮廓特征量进行匹配,以其相似度所在范围判断是否所属为同一类物体。
步骤六:立体匹配
采用级别为亚像素级别的Harris角点检测方法进行角点提取。以差分求和定理为基础对NCC算法做进一步改进,用以提升左右视图特征点匹配速度。具体实施为:设两个一维数组f(x)、g(x)且均具有变量N个,满足关系式如下:
式中:
F(x)=f(x)-f(x+1)
G(x)=G(x-1)-g(x+1)
G(0)=0 f(K+1)=0
将一幅视图中提取的特征点均存放在数组f(x)中,另一幅图像中与之对应的特征点均存放在数组g(x)中。通过差分求和定理将计算量较大的乘积计算g(x)、f(x)转化成相对来说计算量较小的G(x)、F(x)求和计算。同时,对数组进行差分计算后会出现较多的0、1和-1元素,与这些元素相关的乘法计算可被略过,因此,大大降低了计算的复杂程度,匹配速度获得显著提升。
采用快速聚类的方法定位密度聚类中心。其实现原理就是通过公式(4-8)、(4-9)计算将左右视图提取的所有特征点存放在新的坐标系中,然后进行矢量运算,观察它们的相似程度,相似度在某一范围内被认作为相互匹配点对,否则为不匹配点对。
式中:左右视图的匹配点在所属视图中的坐标为(x1,y1)、(x2,y2),可根据公式
转换成极坐标形式(angle,d)。
步骤七:目标空间位姿获取
利用空间映射线求交的方法,根据物体本身三个特征点的空间位置即可确定该物体的空间位姿;
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (6)
1.一种基于双目视觉的多目标识别与定位方法,其特征在于,包括以下步骤:
(1)双目相机标定:通过张正友标定法进行双目相机标定;
(2)图像采集;
(3)图像预处理:以相机的畸变矩阵为依据对1中采集的图像进行畸变校正。采用中心点邻滤波方法可以有效抑制高斯与椒盐这两种噪声。采用直方图均衡化增强图像;
(4)边缘提取:通过Otsu算法分割3中预处理后的图像,采用Canny算法提取轮廓特征;
(5)轮廓特征识别:提取待测图像特征量,将待识别图像中目标物体的轮廓特征信息与模板图像所涵盖的轮廓特征量进行匹配,以其相似度所在范围判断是否所属为同一类物体。
(6)立体匹配:采用级别为亚像素级别的Harris角点检测方法进行角点提取。以差分求和定理为基础对NCC算法做进一步改进,用以提升左右视图特征点匹配速度。选用聚类法对匹配点对进行提纯来获取较为准确的匹配点对,最后通过这些点对来对基础矩阵进行估算。
(7)目标空间位姿获取:利用空间映射线求交的方法,根据物体本身三个特征点的空间位置即可确定该物体的空间位姿。
2.根据权利要求1所述的一种基于双目视觉的多目标识别与定位方法,其特征在于,所述步骤(3)中,采用中心点邻滤波方法可以有效抑制高斯与椒盐这两种噪声,其原理为去除以中心点像素为圆心的圆周所含n2个像素点灰度值中最值各m个,然后对余下像素点进行均值计算fr(x,y),替换噪声像素点所在位置。其表达式为:
式中:∑f(x=i,y=j)表示去除最高与最低灰值后所剩灰度值之和,当n2-2m=1时,此时去噪效果与中值滤波等同;当m=0时,则可以抑制高斯噪声,因此,去噪效果取决于m值的选取。
直方图均衡化可以提高图像分辨率,使其更具立体感,此方法为避免由于剧烈变化导致图像处理的难度加剧,尽可能使其均匀的分布。
4.根据权利要求1所述的一种基于双目视觉的多目标识别与定位方法,其特征在于,所述步骤(5)中,基于轮廓特征识别算法通过模板匹配,即将待识别图像中目标物体的轮廓特征信息与模板图像所涵盖的轮廓特征量进行匹配,以其相似度所在范围判断是否所属为同一类物体。基于轮廓特征的识别方法可分为以下几个步骤进行:首先提取待测图像特征量,然后选择适合的相似度范围,最后分析识别结果。
5.根据权利要求1所述的一种基于双目视觉的多目标识别与定位方法,其特征在于,所述步骤(6)中,采用级别为亚像素级别的Harris角点检测方法进行角点提取。以差分求和定理为基础对NCC算法做进一步改进,用以提升左右视图特征点匹配速度。具体实施为:设两个一维数组f(x)、g(x)且均具有变量N个,满足关系式如下:
式中:
F(x)=f(x)-f(x+1)
G(x)=G(x-1)-g(x+1)
G(0)=0f(K+1)=0
将一幅视图中提取的特征点均存放在数组f(x)中,另一幅图像中与之对应的特征点均存放在数组g(x)中。通过差分求和定理将计算量较大的乘积计算g(x)、f(x)转化成相对来说计算量较小的G(x)、F(x)求和计算。同时,对数组进行差分计算后会出现较多的0、1和-1元素,与这些元素相关的乘法计算可被略过,因此,大大降低了计算的复杂程度,匹配速度获得显著提升。
采用快速聚类的方法定位密度聚类中心。其实现原理就是通过公式(4-8)、(4-9)计算将左右视图提取的所有特征点存放在新的坐标系中,然后进行矢量运算,观察它们的相似程度,相似度在某一范围内被认作为相互匹配点对,否则为不匹配点对。
式中:左右视图的匹配点在所属视图中的坐标为(x1,y1)、(x2,y2),可根据公式转换成极坐标形式(angle,d)。
6.根据权利要求1所述的一种基于双目视觉的多目标识别与定位方法,其特征在于,所述步骤(7)中,利用空间映射线求交的方法,根据物体本身三个特征点的空间位置即可确定该物体的空间位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110464721.8A CN113160332A (zh) | 2021-04-28 | 2021-04-28 | 一种基于双目视觉的多目标识别与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110464721.8A CN113160332A (zh) | 2021-04-28 | 2021-04-28 | 一种基于双目视觉的多目标识别与定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113160332A true CN113160332A (zh) | 2021-07-23 |
Family
ID=76871989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110464721.8A Pending CN113160332A (zh) | 2021-04-28 | 2021-04-28 | 一种基于双目视觉的多目标识别与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160332A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117282718A (zh) * | 2023-11-24 | 2023-12-26 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408609A (zh) * | 2016-09-13 | 2017-02-15 | 江苏大学 | 一种基于双目视觉的并联机构末端运动位姿检测方法 |
CN106548173A (zh) * | 2016-11-24 | 2017-03-29 | 国网山东省电力公司电力科学研究院 | 一种基于分级匹配策略的改进无人机三维信息获取方法 |
CN107437069A (zh) * | 2017-07-13 | 2017-12-05 | 江苏大学 | 基于轮廓的猪只饮水行为识别方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN112132958A (zh) * | 2020-09-23 | 2020-12-25 | 哈尔滨工程大学 | 一种基于双目视觉的水下环境三维重建方法 |
-
2021
- 2021-04-28 CN CN202110464721.8A patent/CN113160332A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408609A (zh) * | 2016-09-13 | 2017-02-15 | 江苏大学 | 一种基于双目视觉的并联机构末端运动位姿检测方法 |
CN106548173A (zh) * | 2016-11-24 | 2017-03-29 | 国网山东省电力公司电力科学研究院 | 一种基于分级匹配策略的改进无人机三维信息获取方法 |
CN107437069A (zh) * | 2017-07-13 | 2017-12-05 | 江苏大学 | 基于轮廓的猪只饮水行为识别方法 |
CN111062990A (zh) * | 2019-12-13 | 2020-04-24 | 哈尔滨工程大学 | 一种面向水下机器人目标抓取的双目视觉定位方法 |
CN112132958A (zh) * | 2020-09-23 | 2020-12-25 | 哈尔滨工程大学 | 一种基于双目视觉的水下环境三维重建方法 |
Non-Patent Citations (2)
Title |
---|
柏月等: "基于双目视觉的棉花三维重构技术", 《机械设计与制造工程》 * |
马庭田等: "面向图像匹配的基础矩阵估计改进算法", 《计算机集成制造系统》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117282718A (zh) * | 2023-11-24 | 2023-12-26 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
CN117282718B (zh) * | 2023-11-24 | 2024-02-27 | 无锡出新环保设备有限公司 | 一种电镀件镀前超声波除油装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112819772B (zh) | 一种高精度快速图形检测识别方法 | |
CN110648367A (zh) | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 | |
CN111784770A (zh) | 基于shot和icp算法的无序抓取中的三维姿态估计方法 | |
CN108376403B (zh) | 基于霍夫圆变换的网格菌落图像分割方法 | |
CN110782477A (zh) | 基于序列图像的运动目标快速检测方法、计算机视觉系统 | |
CN110246151B (zh) | 一种基于深度学习和单目视觉的水下机器人目标跟踪方法 | |
CN113034600B (zh) | 基于模板匹配的无纹理平面结构工业零件识别和6d位姿估计方法 | |
CN110021029B (zh) | 一种适用于rgbd-slam的实时动态配准方法及存储介质 | |
CN110929598B (zh) | 基于轮廓特征的无人机载sar图像匹配方法 | |
CN104915951B (zh) | 一种点刻式dpm二维码区域定位方法 | |
CN114549549B (zh) | 一种动态环境下基于实例分割的动态目标建模跟踪方法 | |
CN117764983A (zh) | 一种用于智能制造产线的双目识别的视觉检测的方法 | |
CN113469195B (zh) | 一种基于自适应颜色快速点特征直方图的目标识别方法 | |
CN113191281B (zh) | 基于感兴趣区域及自适应半径的orb特征提取方法 | |
CN113160332A (zh) | 一种基于双目视觉的多目标识别与定位方法 | |
CN113205494B (zh) | 基于自适应尺度图像块加权差测量的红外小目标检测方法和系统 | |
CN113723314A (zh) | 一种基于YOLOv3算法的甘蔗茎节识别方法 | |
CN112734816A (zh) | 基于CSS-Delaunay的异源图像配准方法 | |
CN116958264A (zh) | 一种基于三维视觉的螺栓孔定位及位姿估计方法 | |
Han et al. | Accurate and robust vanishing point detection method in unstructured road scenes | |
CN112348853B (zh) | 基于红外显著性特征融合的粒子滤波跟踪的方法 | |
CN112541471B (zh) | 一种基于多特征融合的遮挡目标识别方法 | |
CN112329796B (zh) | 基于视觉显著性的红外成像卷云检测方法和装置 | |
CN115147613A (zh) | 一种基于多向融合的红外小目标检测方法 | |
CN114511803A (zh) | 一种面向视觉跟踪任务的目标遮挡检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210723 |
|
WD01 | Invention patent application deemed withdrawn after publication |