CN110415363A - 一种基于三目视觉的散乱物识别定位方法 - Google Patents
一种基于三目视觉的散乱物识别定位方法 Download PDFInfo
- Publication number
- CN110415363A CN110415363A CN201910717030.7A CN201910717030A CN110415363A CN 110415363 A CN110415363 A CN 110415363A CN 201910717030 A CN201910717030 A CN 201910717030A CN 110415363 A CN110415363 A CN 110415363A
- Authority
- CN
- China
- Prior art keywords
- camera
- model
- random
- mesh
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000009434 installation Methods 0.000 claims abstract description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 238000013499 data model Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 241000208340 Araliaceae Species 0.000 claims description 4
- 241001269238 Data Species 0.000 claims description 4
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 4
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 4
- 235000008434 ginseng Nutrition 0.000 claims description 4
- 238000005498 polishing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 5
- 238000005070 sampling Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种基于三目视觉的散乱物识别定位方法,实时重建散乱物的三维点云,进行背景滤除,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,进行识别和定位。本发明鲁棒性强、处理速度快、精度较高、安装方便。
Description
技术领域
本发明涉及自动化技术领域,尤其涉及一种基于三目视觉的散乱物识别定位方法。
背景技术
随着自动化技术系统的发展,散乱物堆叠的应用场景也日益增多,导致散乱物识别定位抓取技术的应用越来越广泛。随着该技术的发展,工业机器人和视觉相结合,利用视觉的三维重建技术生成3D点云数据,并生成散乱物的姿态信息,控制指导机器人工作来完成一些抓取定位工作,减少人类参与重复性工作。
目前各种3D成像方案,都存在或多或少缺陷。如面结构光方案,在强光下,面结构光的激光散斑会丢失纤细,因此不合适强光照。线结构光方案,由于是激光线扫描,零部件扫描要一条一条激光线拼接起来,速度过慢。双目立体重建,利用可见光视差来计算,受光照和被测物纹理影响大,要求相机分辨率较高。飞行时间法,实时性高,算法简单,但分辨率较低,精度较差。
发明内容
本发明提供一种基于三目视觉的散乱物识别定位方法,实时重建散乱物的三维点云,进行背景滤除,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,进行识别和定位,鲁棒性强、处理速度快、精度较高、安装方便。
为了达到上述目的,本发明提供一种基于三目视觉的散乱物识别定位方法,包含以下步骤:
步骤S1、进行三目相机系统配置,实时获取散乱物图像,针对散乱堆放物合理安装三目相机、镜头、光源,并且设置合适的相机参数。
步骤S2、对三目相机进行标定,初始相机内参数,创建标定数据模型和标定板信息,求出三目相机的内外参。
步骤S3、根据3D姿态、三目相机模型、立体模型,由视差图像从校准的多视图立体图像中重建出表面3D点云。
步骤S4、创建用于存储三角形和三角形法线的表面匹配模型,为3D对象模型创建基于表面的匹配模型。
步骤S5、实时重建3D场景点云,进行背景滤除,只重建散乱物点云信息,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,并输出坐标和位置。
所述的步骤S1包含以下步骤:
步骤S1.1、确定三目视觉测量系统配置参数,实时输出测量结果。
步骤S1.2、安装具有环形光源的三目相机,第一相机设置在前面,第二相机设置在左面,第三相机设置在右面。
步骤S1.3、设置三目相机参数。
步骤S1.4、环形光源均匀打光,三目相机实时获取散乱物三个不同方向的图像。
所述的步骤S2包含以下步骤:
步骤S2.1、设置标定板参数。
步骤S2.2、初始相机内参数。
步骤S2.3、创建标定数据模型。
步骤S2.4、标定相机内外参,进行三目相机标定,求出相机内外参数。
所述的步骤S3包含以下步骤:
步骤S3.1、创建描述刚性3D转换的3D姿态。
步骤S3.2、建立相机模型,在相机模型中定义相机类型、参数、相对姿态。
步骤S3.3、创建立体模型,从校准的多视图立体图像中重建出表面3D点云数据。
步骤S3.4、设置立体模型参数。
所述的步骤S4包含以下步骤:
步骤S4.1、设置用于存储三角形和法线的3D对象模型。
步骤S4.2、为3D对象模型创建表面匹配模型。
所述的步骤S5包含以下步骤:
步骤S5.1、将第一相机的姿态转化为世界坐标系下坐标。
步骤S5.2、实时采集三目相机图像数据。
步骤S5.3、重建3D场景,从多图像中重新构造表面,用校准的多视图与立体模型构造立体视觉数据。
步骤S5.4、背景滤除,通过三维数据点云相似相减,将场景中非散乱物的背景滤除。
步骤S5.5、执行3D匹配,进行搜索零部件,在3D场景中找到表面模型的最佳匹配数据,作为3D模型。
步骤S5.6、输出零件坐标,输出找到的最优零件坐标显示在零件表面。
步骤S5.7、清除立体模型和3D模型。
本发明由三目相机和环形光源构成的三维测量系统来进行三目相机标定,实时重建散乱物的三维点云,进行背景滤除,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,进行识别和定位。本发明鲁棒性强、处理速度快、精度较高、安装方便。应用领域包括零部件上下料、CNC上下料、堆叠物及无序物的3D定位、物流分拣、3D尺寸测量、3D缺陷检测等领域。
附图说明
图1为本发明提供的一种基于三目视觉的散乱物识别定位方法的整体流程图。
图2为三目相机安装位置及拍摄图像。
图3为重建散乱物场景的3D点云数据。
图4为3D匹配找到表面模型的最佳匹配。
具体实施方式
以下根据图1~图4,具体说明本发明的较佳实施例。
如图1所示,本发明提供一种基于三目视觉的散乱物识别定位方法,包含以下步骤:
步骤S1、进行三目相机系统配置,实时获取散乱物图像,针对散乱堆放物合理安装三目相机、镜头、光源,并且设置合适的相机参数。
步骤S2、对三目相机进行标定,初始相机内参数,创建标定数据模型和标定板信息,求出三目相机的内外参。
步骤S3、根据3D姿态、三目相机模型、立体模型,由视差图像从校准的多视图立体图像中重建出表面3D点云。
步骤S4、创建用于存储三角形和三角形法线的表面匹配模型,为3D对象模型创建基于表面的匹配模型。
步骤S5、实时重建3D场景点云,进行背景滤除,只重建散乱物点云信息,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,并输出坐标和位置。
进一步,所述的步骤S1包含以下步骤:
步骤S1.1、确定三目视觉测量系统配置参数,实时输出测量结果。
所述的三目视觉测量系统配置参数包含:工业相机、镜头、光源、打光方式、光源距离、相机安装距离、相机安装角度、相机安装方式、确定安装材料(如型材搭建)、测量散乱物的长宽高范围、测量精度、测量时间(包括重建场景时间和计算3D位姿时间)、三维点云密度、输出结合方式(如和六轴机械手相结合,用于定位抓取)。
明确系统配置后方便后续用于基于三目视觉的散乱物识别定位算法参数数值设置,实时输出测量结果,优化实时处理时间。
步骤S1.2、安装具有环形光源的三目相机,第一相机设置在前面,第二相机设置在左面,第三相机设置在右面。
工业相机放置在散乱堆放物的斜上方,其中三目相机都倾斜朝向测量物里面,拍摄散乱物图像都有重叠部分,分别为前面相机、左面相机、右面相机,依次排序为第一相机、第二相机、第三相机。并且三目相机镜头前方安装有环形LED光源,用于减少环境光对散乱物三维重建数据的干扰。如图2所示,为三目相机安装位置及拍摄图像。
步骤S1.3、设置三目相机参数。
所述的三目相机参数包含帧率、焦距、光圈、分辨率、增益、信噪比等,使拍摄零部件图像成像质量高、运行稳定、噪点低、光照均匀。
步骤S1.4、环形光源均匀打光,三目相机实时获取散乱物三个不同方向的图像。
所述的步骤S2包含以下步骤:
步骤S2.1、设置标定板参数。
所述的标定板参数包含:黑色圆点直径、圆点中心间距、行点数、列点数、内外边框长度的数值。
步骤S2.2、初始相机内参数。
所述的相机内参数包含:焦距、标定板厚度、像元宽、像元高、图形中心行列坐标、图像宽高的数值。
步骤S2.3、创建标定数据模型。
创建标定数据模型包含:设置标定相机参数模型,并且在标定相机参数模型中写入标定板参数。
步骤S2.4、标定相机内外参,进行三目相机标定,求出相机内外参数。
所述的标定相机内外参包含以下步骤:三目相机循环实时拍摄不少于三张的标定板图片,寻找标定板的测量区域,寻找标定板的标志点坐标和预估相机外参,保存标定参数到标定相机参数模型,通过同步最小化过程最后确定三目相机内外参。
所述的三目相机标定包含以下步骤:
设P点在图像像素坐标系下的坐标为(u,v),P点在图像物理坐标系下的坐标为(x,y),P点在世界坐标系下的坐标为P(XW,YW,ZW),用齐次坐标与矩阵来计算表示相机标定,得到图像像素坐标系和世界坐标系之间的关系:
其中,s=s'f,[R,t]为相机外部参数矩阵,(u0,v0)为主点坐标,au,av分别为图像u轴和v轴上的尺度因子,s是描述两图像坐标轴倾斜程度的参数,dx、dy分别表示相机水平和垂直方向的单位像素焦距。
进行三目相机标定,得到相机的内参数包含:相机焦距、径向畸变参数、图像传感器在水平和垂直方向的像素距离、图像主点的行和列坐标、图像宽和高。得到相机的外参数包含:平移向量和旋转向量。
所述的步骤S3包含以下步骤:
步骤S3.1、创建描述刚性3D转换的3D姿态。
所述的3D姿态用来描述一个坐标系相对于另一个坐标系的位置和方向,其中一个姿态描述一个刚性3D转换,由沿着X、Y、Z轴平移,旋转X、Y、Z轴的6个参数组成。
步骤S3.2、建立相机模型,在相机模型中定义相机类型、参数、相对姿态。
建立相机模型,使用三个相机的内参数值分别建立三个多项式模型,并设置参数。为需要标定的三个相机创建相机模型,在相机设置模型中定义相机的类型、参数、相对姿态。三目相机统一建立在第一个相机坐标系下的姿态。
步骤S3.3、创建立体模型,从校准的多视图立体图像中重建出表面3D点云数据。
创建立体模型,从一个校准的多视角立体相机设置中重建3D点云数据。在一个校准的多视图立体图像中,从预先选定的图像对中获得视差图像,视差图像重建后利用立体模型获得3D信息,并将收集到的3D信息加载到表面模型中,可以区分是否匹配。立体模型在配置之后从校准的多视图立体图像中重建出表面3D点云数据。
步骤S3.4、设置立体模型参数。
所述的立体模型参数包含:双目图像矫正参数,相机对,立体边界框,二次抽样,双眼差异参数。
双目图像矫正参数,其中矫正图的插值模式为双线性插值,二级抽样因子为1.0。
定义相机对,指定用于表面立体重建的图像对,在创建的立体模型下,通过计算图像对的视差图像来重建表面。设置为第一相机和第二相机为一对,第一相机和第三相机为一对。
设置立体边界框,指定两个角点为左上角坐标P1=x1,y1,z1和右下角P2=x2,y2,z2,利用两点三维坐标构造一个立体边界框,这个边界框用于三维重建的相机,设置相机模型的坐标框架中定义了一个黑盒子,三维重建算法将任何重建结果都要在这个边界框中。
设置二次抽样,数值越大点云数据越稀疏。
设置双眼差异参数,设置双目滤波器,过滤左眼和右眼数据。
所述的步骤S4包含以下步骤:
步骤S4.1、设置用于存储三角形和法线的3D对象模型。
设置3D对象模型,将dxf格式转化成设置为STL的ASCII文件格式,用来存储三角形和三角形法线,其中参数刻度单位为mm。
步骤S4.2、为3D对象模型创建表面匹配模型。
表面匹配模型的创建要求3D对象模型包含点和法线,可以是点和点法线、点和三角形或多边形网格、点和一个2d映射,其中采样距离相对于物体的直径为0.03。
所述的步骤S5包含以下步骤:
步骤S5.1、将第一相机的姿态转化为世界坐标系下坐标。
将第一相机的姿态转化为世界坐标系下坐标,通过将世界坐标系下坐标转化为相应的齐次变换矩阵并对这个矩阵进行逆变换,将将第一相机的每一个姿态都转换成世界坐标系下的姿态。
步骤S5.2、实时采集三目相机图像数据。
同时读入三目相机图像数据,实时的三张图片数据是针对同一散乱物的同一时刻所拍摄的图片。
步骤S5.3、重建3D场景,从多图像中重新构造表面,用校准的多视图与立体模型构造立体视觉数据。
重建3D场景,从校准的多视图立体图像来重建表面,从多个图像中重新构造一个表面,用一个校准的多视图设置与一个立体模型的立体模型相关联一起来构造立体视觉数据,并且创建一个3D姿态,为交互式显示3D对象模型提供转换关系。如图3所示,为重建散乱物场景的3D点云数据。
步骤S5.4、背景滤除,通过三维数据点云相似相减,将场景中非散乱物的背景滤除。
背景滤除,需要把散乱物移走,重新进行步骤S5.3进行重建3D场景,该场景中只有静态图像背景,通过三维数据点云相似相减,将场景中非散乱物的背景滤除,只重建散乱物的点云信息。
步骤S5.5、执行3D匹配,进行搜索零部件,在3D场景中找到表面模型的最佳匹配数据,作为3D模型。
输入创建的表面匹配模型和重建3D场景点云数据,其中参数包括相对于表面模型直径的现场采样距离设置为0.03,其中数值越小导致越多采样点,从而使匹配更稳定但更慢;设置被用作关键点的采样点的分数为0.3,数值越大意味着从场景中需要选择更多的关键点,从而导致匹配速度较慢但更稳定;筛选分数值设置为0.25,用于筛选结果,只有得分超过值的匹配才会输出;设置输出匹配上零件的最大个数为5;设置相对于表面模型直径的得分距离阈值为0.02;设置模式为mls用于处理噪声数据,法线的计算基于较大的邻域,并使用更复杂但更准确的mls方法,该参数控制采样场景的正常计算。
搜索是从图像从左至右,从上往下扫描。利用设置的参数数据,如采样距离、采样点、筛选分值、匹配零件、方法模式来找到最佳匹配数据形成3D模型。如图4所示,是3D匹配找到表面模型的最佳匹配。
步骤S5.6、输出零件坐标,输出找到的最优零件坐标显示在零件表面。
输出零件坐标,将求出坐标转化为零件在第一相机坐标系中的位姿,通过刚体变换将一个3D模型数据投射到图像坐标系中。输出零件坐标,输出找到的最优零件坐标显示在零件表面。
步骤S5.7、清除立体模型和3D模型。
本发明由三目相机和环形光源构成的三维测量系统来进行三目相机标定,实时重建散乱物的三维点云,进行背景滤除,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,进行识别和定位。本发明鲁棒性强、处理速度快、精度较高、安装方便。应用领域包括零部件上下料、CNC上下料、堆叠物及无序物的3D定位、物流分拣、3D尺寸测量、3D缺陷检测等领域。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (6)
1.一种基于三目视觉的散乱物识别定位方法,其特征在于,包含以下步骤:
步骤S1、进行三目相机系统配置,实时获取散乱物图像,针对散乱堆放物合理安装三目相机、镜头、光源,并且设置合适的相机参数;
步骤S2、对三目相机进行标定,初始相机内参数,创建标定数据模型和标定板信息,求出三目相机的内外参;
步骤S3、根据3D姿态、三目相机模型、立体模型,由视差图像从校准的多视图立体图像中重建出表面3D点云;
步骤S4、创建用于存储三角形和三角形法线的表面匹配模型,为3D对象模型创建基于表面的匹配模型;
步骤S5、实时重建3D场景点云,进行背景滤除,只重建散乱物点云信息,再执行基于表面的三维匹配,检测最优匹配散乱物的坐标位置,并输出坐标和位置。
2.如权利要求1所述的基于三目视觉的散乱物识别定位方法,其特征在于,所述的步骤S1包含以下步骤:
步骤S1.1、确定三目视觉测量系统配置参数,实时输出测量结果;
步骤S1.2、安装具有环形光源的三目相机,第一相机设置在前面,第二相机设置在左面,第三相机设置在右面;
步骤S1.3、设置三目相机参数;
步骤S1.4、环形光源均匀打光,三目相机实时获取散乱物三个不同方向的图像。
3.如权利要求2所述的基于三目视觉的散乱物识别定位方法,其特征在于,所述的步骤S2包含以下步骤:
步骤S2.1、设置标定板参数;
步骤S2.2、初始相机内参数;
步骤S2.3、创建标定数据模型;
步骤S2.4、标定相机内外参,进行三目相机标定,求出相机内外参数。
4.如权利要求3所述的基于三目视觉的散乱物识别定位方法,其特征在于,所述的步骤S3包含以下步骤:
步骤S3.1、创建描述刚性3D转换的3D姿态;
步骤S3.2、建立相机模型,在相机模型中定义相机类型、参数、相对姿态;
步骤S3.3、创建立体模型,从校准的多视图立体图像中重建出表面3D点云数据;
步骤S3.4、设置立体模型参数。
5.如权利要求4所述的基于三目视觉的散乱物识别定位方法,其特征在于,所述的步骤S4包含以下步骤:
步骤S4.1、设置用于存储三角形和法线的3D对象模型;
步骤S4.2、为3D对象模型创建表面匹配模型。
6.如权利要求5所述的基于三目视觉的散乱物识别定位方法,其特征在于,所述的步骤S5包含以下步骤:
步骤S5.1、将第一相机的姿态转化为世界坐标系下坐标;
步骤S5.2、实时采集三目相机图像数据;
步骤S5.3、重建3D场景,从多图像中重新构造表面,用校准的多视图与立体模型构造立体视觉数据;
步骤S5.4、背景滤除,通过三维数据点云相似相减,将场景中非散乱物的背景滤除;
步骤S5.5、执行3D匹配,进行搜索零部件,在3D场景中找到表面模型的最佳匹配数据,作为3D模型;
步骤S5.6、输出零件坐标,输出找到的最优零件坐标显示在零件表面;
步骤S5.7、清除立体模型和3D模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717030.7A CN110415363A (zh) | 2019-08-05 | 2019-08-05 | 一种基于三目视觉的散乱物识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910717030.7A CN110415363A (zh) | 2019-08-05 | 2019-08-05 | 一种基于三目视觉的散乱物识别定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110415363A true CN110415363A (zh) | 2019-11-05 |
Family
ID=68365719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910717030.7A Pending CN110415363A (zh) | 2019-08-05 | 2019-08-05 | 一种基于三目视觉的散乱物识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110415363A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402411A (zh) * | 2020-04-10 | 2020-07-10 | 贵刚 | 一种基于线结构光的散乱物识别抓取方法 |
CN111590591A (zh) * | 2020-06-04 | 2020-08-28 | 南京工程学院 | 基于计算机立体视觉引导机制的垃圾堆自动抓取方法和系统 |
CN112560704A (zh) * | 2020-12-18 | 2021-03-26 | 温州大学乐清工业研究院 | 一种多特征融合的视觉识别方法及系统 |
CN112734712A (zh) * | 2020-12-31 | 2021-04-30 | 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) | 一种船舶振动设备健康状态的成像检测方法及系统 |
CN113313833A (zh) * | 2021-06-29 | 2021-08-27 | 西藏新好科技有限公司 | 一种基于3d视觉技术的猪体重预估方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5951475A (en) * | 1997-09-25 | 1999-09-14 | International Business Machines Corporation | Methods and apparatus for registering CT-scan data to multiple fluoroscopic images |
US20110235897A1 (en) * | 2010-03-24 | 2011-09-29 | Nat'l Institute Of Advanced Industrial Science And Technology | Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof |
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
US20180144458A1 (en) * | 2016-11-21 | 2018-05-24 | Seiko Epson Corporation | Multiple Hypotheses Segmentation-Guided 3D Object Detection and Pose Estimation |
CN108109174A (zh) * | 2017-12-13 | 2018-06-01 | 上海电气集团股份有限公司 | 一种用于散乱零件随机分拣的机器人单目引导方法和系统 |
CN108126914A (zh) * | 2017-11-24 | 2018-06-08 | 上海发那科机器人有限公司 | 一种基于深度学习的料框内散乱多物体机器人分拣方法 |
CN108876852A (zh) * | 2017-05-09 | 2018-11-23 | 中国科学院沈阳自动化研究所 | 一种基于3d视觉的在线实时物体识别定位方法 |
CN108942921A (zh) * | 2018-06-11 | 2018-12-07 | 江苏楚门机器人科技有限公司 | 一种基于深度学习物体识别的散乱抓取装置 |
US20190108396A1 (en) * | 2017-10-11 | 2019-04-11 | Aquifi, Inc. | Systems and methods for object identification |
-
2019
- 2019-08-05 CN CN201910717030.7A patent/CN110415363A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5951475A (en) * | 1997-09-25 | 1999-09-14 | International Business Machines Corporation | Methods and apparatus for registering CT-scan data to multiple fluoroscopic images |
US20110235897A1 (en) * | 2010-03-24 | 2011-09-29 | Nat'l Institute Of Advanced Industrial Science And Technology | Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof |
US20180144458A1 (en) * | 2016-11-21 | 2018-05-24 | Seiko Epson Corporation | Multiple Hypotheses Segmentation-Guided 3D Object Detection and Pose Estimation |
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
CN108876852A (zh) * | 2017-05-09 | 2018-11-23 | 中国科学院沈阳自动化研究所 | 一种基于3d视觉的在线实时物体识别定位方法 |
US20190108396A1 (en) * | 2017-10-11 | 2019-04-11 | Aquifi, Inc. | Systems and methods for object identification |
CN108126914A (zh) * | 2017-11-24 | 2018-06-08 | 上海发那科机器人有限公司 | 一种基于深度学习的料框内散乱多物体机器人分拣方法 |
CN108109174A (zh) * | 2017-12-13 | 2018-06-01 | 上海电气集团股份有限公司 | 一种用于散乱零件随机分拣的机器人单目引导方法和系统 |
CN108942921A (zh) * | 2018-06-11 | 2018-12-07 | 江苏楚门机器人科技有限公司 | 一种基于深度学习物体识别的散乱抓取装置 |
Non-Patent Citations (1)
Title |
---|
王玉波: "基于多目立体视觉的零件分类与识别系统研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402411A (zh) * | 2020-04-10 | 2020-07-10 | 贵刚 | 一种基于线结构光的散乱物识别抓取方法 |
CN111590591A (zh) * | 2020-06-04 | 2020-08-28 | 南京工程学院 | 基于计算机立体视觉引导机制的垃圾堆自动抓取方法和系统 |
CN112560704A (zh) * | 2020-12-18 | 2021-03-26 | 温州大学乐清工业研究院 | 一种多特征融合的视觉识别方法及系统 |
CN112734712A (zh) * | 2020-12-31 | 2021-04-30 | 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) | 一种船舶振动设备健康状态的成像检测方法及系统 |
CN112734712B (zh) * | 2020-12-31 | 2022-07-01 | 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) | 一种船舶振动设备健康状态的成像检测方法及系统 |
CN113313833A (zh) * | 2021-06-29 | 2021-08-27 | 西藏新好科技有限公司 | 一种基于3d视觉技术的猪体重预估方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415363A (zh) | 一种基于三目视觉的散乱物识别定位方法 | |
CN110363858B (zh) | 一种三维人脸重建方法及系统 | |
Pusztai et al. | Accurate calibration of LiDAR-camera systems using ordinary boxes | |
CN109443209B (zh) | 一种基于单应性矩阵的线结构光系统标定方法 | |
CN109598762B (zh) | 一种高精度双目相机标定方法 | |
CN108416812B (zh) | 一种单摄像机镜像双目视觉系统的标定方法 | |
WO2012053521A1 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
CN109035200A (zh) | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 | |
CN112161619B (zh) | 位姿检测方法、三维扫描路径规划方法和检测系统 | |
CN104537707B (zh) | 像方型立体视觉在线移动实时测量系统 | |
CN109272574B (zh) | 基于投影变换的线阵旋转扫描相机成像模型构建方法和标定方法 | |
JPWO2008026722A1 (ja) | 3次元モデルデータ生成方法及び3次元モデルデータ生成装置 | |
CN105627926A (zh) | 四像机组平面阵列特征点三维测量系统及测量方法 | |
CN110021039A (zh) | 序列图像约束的多视角实物表面点云数据初始配准方法 | |
CN112132906A (zh) | 一种深度相机与可见光相机之间的外参标定方法及系统 | |
CN111028340A (zh) | 精密装配中的三维重构方法、装置、设备及系统 | |
CN104794718B (zh) | 一种单图像ct机房监控摄像机标定的方法 | |
CN111145269B (zh) | 一种鱼眼相机与单线激光雷达的外方位元素的标定方法 | |
JP2009284188A (ja) | カラー撮像装置 | |
CN111402411A (zh) | 一种基于线结构光的散乱物识别抓取方法 | |
CN111060006A (zh) | 一种基于三维模型的视点规划方法 | |
Strobl et al. | The DLR multisensory hand-guided device: The laser stripe profiler | |
CN113034612A (zh) | 一种标定装置、方法及深度相机 | |
CN112184793B (zh) | 深度数据的处理方法、装置及可读存储介质 | |
CN112184811A (zh) | 单目空间结构光系统结构校准方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |
|
RJ01 | Rejection of invention patent application after publication |