CN113945167B - 一种工件数据获取方法和装置 - Google Patents
一种工件数据获取方法和装置 Download PDFInfo
- Publication number
- CN113945167B CN113945167B CN202111567815.4A CN202111567815A CN113945167B CN 113945167 B CN113945167 B CN 113945167B CN 202111567815 A CN202111567815 A CN 202111567815A CN 113945167 B CN113945167 B CN 113945167B
- Authority
- CN
- China
- Prior art keywords
- model
- image
- workpiece
- area
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明实施例公开了一种工件数据获取方法和装置。应用于线结构光相机,该方法包括:通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;通过面阵相机创建对应的虚拟相机模型;依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;依据第一成像图和第二成像图,生成目标成像图。本发明提供的方案能够精准的表示工件在线结构光相机下的投影成像。
Description
技术领域
本发明涉及计算机技术应用领域,尤其涉及一种工件数据获取方法和装置。
背景技术
在相关技术中,线结构光相机是由一个线激光器和一个2D面阵相机按特定角度组合构成,经过标定算法计算两者物理关系。线激光在物体表面形成反射光被相机传感器接受,物体凹凸变化的轮廓在相机靶面生成平面图像,从而转换成立体数据点云数据。当需要对其中线激光或面阵相机的位置或参数进行调整测试时,必须对工件再次拍照才能获取到点云数据。这样会导致在需要对不同的特定参数的线结构光相机进行测试时,会造成大量的时间上的浪费。并且,在线结构光相机工作的过程中,由于最终的点云是每一条线扫描图像转化拼接而来,在拼接过程中容易造成精度损失。故对于任意特定参数的线结构光相机来说,现有技术无法做到快速精确的得到和表示出工件在该相机下的投影成像数据。
针对目前相关技术无法做到快速精确的得到和表示出工件在线结构光相机下的投影成像数据的问题,目前尚未得到有效的解决。
发明内容
为解决上述技术问题,本发明实施例期望提供一种工件数据获取方法和装置,能够解决目前相关技术无法做到快速精确的得到和表示出工件在线结构光相机下的投影成像数据的问题。
本发明的技术方案是这样实现的:
第一方面,本发明实施例提供一种工件数据获取方法,应用于线结构光相机,包括:通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;通过面阵相机创建对应的虚拟相机模型;依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;依据第一成像图和第二成像图,生成目标成像图。
可选的,通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集包括:获取工件模型的工件模型文件和线激光的光平面信息;依据光平面信息创建线激光光源矩阵;依据线激光光源矩阵和工件模型文件,获取工件模型中所有可见点的坐标集。
进一步地,可选的,获取工件模型的工件模型文件包括:从工件模型文件中提取工件模型的顶点信息和面片信息;将顶点信息和面片信息由文本格式转换为数组格式,得到转换后的顶点数组和面片数组;其中,顶点信息包括:每个顶点的位置;面片信息包括:工件模型中每个面包含的顶点序号。
可选的,光平面信息包括:光平面方程、光心位置坐标和光轴方向向量。
进一步地,可选的,依据光平面信息创建线激光光源矩阵包括:依据光心位置坐标,光轴方向向量和向上的指定方向得到线激光光源矩阵。
可选的,依据线激光光源矩阵和工件模型文件,获取工件模型中所有可见点的坐标集包括:依据线激光光源矩阵创建线激光坐标系;依据线激光坐标系和线激光光源矩阵,创建线激光虚拟相机模型;依据线激光虚拟相机模型和工件模型文件,得到工件模型中所有可见点的坐标集。
可选的,通过面阵相机创建对应的虚拟相机模型包括:获取面阵相机参数文件;从面阵相机参数文件中获取外参矩阵和内参矩阵;依据外参矩阵创建虚拟相机的第一矩阵,并将第一图库中的面阵相机坐标系转换为第二图库中的面阵相机坐标系;依据内参矩阵创建虚拟相机的第二矩阵,并将内参矩阵中的参数转换为第二图库中投影矩阵的参数;依据第一矩阵和第二矩阵得到虚拟相机模型;其中,外参矩阵,用于表示面阵相机在世界坐标系下的平移和旋转信息;内参矩阵,用于表示面阵相机的焦距和图像中心坐标。
进一步地,可选的,依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图包括:通过虚拟相机模型调用第二图库中的指定函数读取坐标集中每个可见点对应的第一深度值信息;依据第一深度值信息生成所有可见点在面阵相机下的第一成像图。
可选的,依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图包括:通过虚拟相机模型调用第二图库中的指定函数读取工件模型的所有可见点的第二深度值信息;依据第二深度值信息生成工件模型在面阵相机下的第二成像图。
可选的,依据第一成像图和第二成像图,生成目标成像图包括:将第一成像图和第二成像图中每个像素点的深度值进行比对;判断第一成像图中每个像素点的深度值是否大于第二成像图中对应位置的像素点的深度值,且第一成像图中每个像素点的深度值与第二成像图中对应位置的像素点的深度值的误差大于预设阈值;在判断结果为是的情况下,剔除对应像素点,生成剔除后的成像图;将剔除后的成像图进行二值化处理,得到目标成像图。
第二方面,本发明实施例提供一种工件数据获取装置,应用于线结构光相机,包括:扫描模块,用于通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;创建模块,用于通过面阵相机创建对应的虚拟相机模型;第一获取模块,用于依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;第二获取模块,用于依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;图像获取模块,用于依据第一成像图和第二成像图,生成目标成像图。
本发明实施例提供了一种工件数据获取方法,通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;通过面阵相机创建对应的虚拟相机模型;依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;依据第一成像图和第二成像图,生成目标成像图,达到能够精准的表示工件在线结构光相机下的投影成像。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例一提供的一种工件数据获取方法的流程示意图;
图2a为本发明实施例一提供的一种工件数据获取方法中第一图库的坐标系示意图;
图2b为本发明实施例一提供的一种工件数据获取方法中第二图库的坐标系示意图;
图3为本发明实施例一提供的一种工件数据获取方法中面阵相机的内参fx,fy,cx,cy转换成OpenGL中投影矩阵的参数过程示意图;
图4为本发明实施例一提供的一种工件数据获取方法中线结构光相机成像原理示意图;
图5为本发明实施例一提供的一种工件数据获取方法中成像公式的流程示意图;
图6为本发明实施例二提供的一种工件数据获取装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于限定特定顺序。
还需要说明是,本发明下述各个实施例可以单独执行,各个实施例之间也可以相互结合执行,本发明实施例对此不作具体限制。
下面,对网络安全事件的关联分析方法、装置及其技术效果进行详细描述。
实施例一
图1为本发明实施例一提供的一种工件数据获取方法的流程示意图,应用于线结构光相机,如图1所示,该方法可以包括如下步骤:
步骤S102,通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;
其中,步骤S102中通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集包括:
步骤S1021,获取工件模型的工件模型文件和线激光的光平面信息;
具体的,在步骤S1021中获取工件模型的工件模型文件包括:从工件模型文件中提取工件模型的顶点信息和面片信息;将顶点信息和面片信息由文本格式转换为数组格式,得到转换后的顶点数组和面片数组;其中,顶点信息包括:每个顶点的位置;面片信息包括:工件模型中每个面包含的顶点序号。
其中,将工件模型文件中的顶点信息和面片信息解构,保存成Mesh数组(即,本申请实施例中的数组格式),用于计算工件中每一个坐标点的成像情况。
需要说明的是,在本申请实施例中,对顶点信息和面片信息的格式转换,是由于获取到的顶点信息和面片信息为文本信息,用于描述工件模型中各个顶点的坐标,以及各顶点组成的面的光学特征,其中,光学特征至少包括:颜色,纹理;为了便于后续计算,将文本信息转换为计算机能够识别的数字代码,因此选择以Mesh数组为例的数组格式;以三角锥为例,三角锥包括四个顶点A,B,C,D;由该四个顶点能够得到四个面,包括:面ABC,面BCD,面ACD和面ABD;因此顶点信息可以包括顶点A,B,C,D的世界坐标;面片信息至少包括:面ABC,面BCD,面ACD和面ABD,以及面ABC,面BCD,面ACD和面ABD的纹理和颜色。
实际上仅以上述示例为例进行说明,以实现本申请实施例提供的工件数据获取方法为准,具体不做限定。
可选的,光平面信息包括:光平面方程、光心位置坐标和光轴方向向量。
其中,光平面方程可以为:ax+by+cz+d=0,其中a,b,c,d为光平面方程参数;光心位置坐标(格式为三维向量),以及光轴方向向量(格式为三维向量)。
步骤S1022,依据光平面信息创建线激光光源矩阵;
其中,步骤S1022中依据光平面信息创建线激光光源矩阵包括:依据光心位置坐标,光轴方向向量和向上的指定方向得到线激光光源矩阵。
具体的,根据步骤S1021中得到的光平面信息,构建lookAt矩阵(即,本申请实施例中的线激光光源矩阵)。lookAt矩阵是由以下几种信息来定义的:光心位置,光轴方向,以及向上的up方向(即,本申请实施例中的向上的指定方向),这几种信息均以向量的形式组成矩阵。
步骤S1023,依据线激光光源矩阵和工件模型文件,获取工件模型中所有可见点的坐标集。
其中,步骤S1023中依据线激光光源矩阵和工件模型文件,获取工件模型中所有可见点的坐标集包括:依据线激光光源矩阵创建线激光坐标系;依据线激光坐标系和线激光光源矩阵,创建线激光虚拟相机模型;依据线激光虚拟相机模型和工件模型文件,得到工件模型中所有可见点的坐标集。
具体的,通过OpenGL图像库中的绘制函数,将读入的工件模型绘制出来。由于只需要线激光扫描到的工件模型上的部分(一条线状的点云数据),所以在绘制工件模型时,可通过以下处理只绘制线激光扫描到的模型部分:
通过lookAt矩阵,构建一个以光心为坐标原点,以光轴方向为z轴,光平面法向量为x轴,向上up方向为y轴的坐标系(即,本申请实施例中的线激光坐标系)。
创建一个位置与光心坐标重合,视口宽度只有1个像素的虚拟相机模型(即,本申请实施例中的线激光虚拟相机模型)。其创建过程如下表示:view矩阵即是lookAt矩阵。projection矩阵则通过OpenGL图像库中的perspective函数创建。注意该虚拟相机的视口宽度为1像素,视口高度应尽可能的高(不超过10240像素),以提高模型绘制的精度。
通过得到的view和projection矩阵,根据成像公式,计算工件的投影图。得到线激光下工件模型的所有可见点。
通过矩阵逆运算,计算出所有可见点在世界坐标系下的坐标(即,本申请实施例中的坐标集)。将这些可见点的坐标(世界坐标系下)存入数组中。
此外,在计算工件在线激光下所有的可见点的过程中,可以选择不构造一个视口宽度为1的虚拟相机模型,而选择直接绘制出工件的完整模型,然后通过遍历工件模型的所有点的在世界坐标系下的坐标,将坐标带入光平面方程,判断该点是否在光平面上,以此来获取到工件在线激光下的可见点。
步骤S104,通过面阵相机创建对应的虚拟相机模型;
其中,在本申请实施例中面阵相机可以为2D面阵相机,步骤S104中通过面阵相机创建对应的虚拟相机模型包括:获取面阵相机参数文件;从面阵相机参数文件中获取外参矩阵和内参矩阵;依据外参矩阵创建虚拟相机的第一矩阵,并将第一图库中的面阵相机坐标系转换为第二图库中的面阵相机坐标系;依据内参矩阵创建虚拟相机的第二矩阵,并将内参矩阵中的参数转换为第二图库中投影矩阵的参数;依据第一矩阵和第二矩阵得到虚拟相机模型;其中,外参矩阵,用于表示面阵相机在世界坐标系下的平移和旋转信息;内参矩阵,用于表示面阵相机的焦距和图像中心坐标。
具体的,获取面阵相机的内外参矩阵和畸变参数文件;根据外参矩阵构建虚拟相机的view矩阵(即,本申请实施例中的第一矩阵),需要将OpenCV(即,本申请实施例中的第一图库)中的相机坐标系绕X轴旋转180度,得到OpenGL(即,本申请实施例中的第二图库)的相机坐标系。
其中,如图2a和图2b所示,图2a为本发明实施例一提供的一种工件数据获取方法中第一图库的坐标系示意图;图2b为本发明实施例一提供的一种工件数据获取方法中第二图库的坐标系示意图;其中,将OpenCV(即,本申请实施例中的第一图库)中的相机坐标系绕X轴旋转180度,得到OpenGL(即,本申请实施例中的第二图库)的相机坐标系,能够根据OpenCV的坐标系和OpenGL的坐标系的区别得到,其中,图2a为OpenCV的坐标系,图2b为OpenGL的坐标系。
根据内参矩阵(和FOV信息)构建虚拟相机的projection矩阵(即,本申请实施例中的第二矩阵),需要根据其相似三角形原理进行换算,将fx,fy,cx,cy转换成OpenGL中投影矩阵的参数(即,本申请实施例中的第二图库中投影矩阵的参数)。其中,如图3所示,图3为本发明实施例一提供的一种工件数据获取方法中面阵相机的内参fx,fy,cx,cy转换成OpenGL中投影矩阵的参数过程示意图。
综上,如图4所示,图4为本发明实施例一提供的一种工件数据获取方法中线结构光相机成像原理示意图,其中,图4中Oc指的是面阵相机的光心,Op表示的是线激光的光心。以光心为坐标原点,构建XpYpZp坐标系,Zp表示光轴。Oc是面阵相机的光心,以XcYcZc构建坐标系,Zc为光轴。从A到B的曲线为光平面与工件表面的交线,即所有在线激光下工件表面的可见点。
步骤S106,依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;
其中,步骤S106中依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图包括:通过虚拟相机模型调用第二图库中的指定函数读取坐标集中每个可见点对应的第一深度值信息;依据第一深度值信息生成所有可见点在面阵相机下的第一成像图。
具体的,根据成像公式,计算出线激光下的工件可见点在面阵相机下的投影。通过OpenGL(即,本申请实施例中的第二图库)中的glReadPixels函数(即,本申请实施例中的指定函数)读取每个点的深度值信息(即,本申请实施例中的第一深度值信息),将所有点(这些点为线激光下可见的点在面阵相机下的可见点)的深度值信息保存成深度图(即,本申请实施例中的第一成像图)的格式(即每个像素点的颜色值为该像素点的深度值)。
步骤S108,依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;
其中,步骤S108中依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图包括:通过虚拟相机模型调用第二图库中的指定函数读取工件模型的所有可见点的第二深度值信息;依据第二深度值信息生成工件模型在面阵相机下的第二成像图。
具体的,根据成像计算公式,计算整个工件模型在面阵相机下的投影。通过OpenGL(即,本申请实施例中的第二图库)中的glReadPixels函数(即,本申请实施例中的指定函数)读取每个点的深度值信息(即,本申请实施例中的第二深度值信息),将所有点(这些点为整个工件在面阵相机下的可见点)的深度值信息保存成深度图(即,本申请实施例中的第二成像图)的格式。
在本申请实施例中,成像计算公式可以为:
。其
中, 指的是某点在世界坐标系下的坐标; 指的是观察矩阵,将点在
世界坐标系下的坐标转换至相机坐标系下的坐标;指的是投影矩阵,将
点在相机坐标系下的坐标转换至成像坐标系(即像素坐标系)下的坐标;指的
是模型矩阵,用于表示模型的缩放、旋转、平移过程,默认值为一个单位矩阵;指的
是点在成像坐标系(即像素坐标系)下的坐标。
如图5所示,图5为本发明实施例一提供的一种工件数据获取方法中成像公式的流程示意图,其中,对应成像公式所表示的成像流程的图像化表达,对应一点的坐标在每一个空间坐标系内的转化。
步骤S110,依据第一成像图和第二成像图,生成目标成像图。
其中,步骤S110中依据第一成像图和第二成像图,生成目标成像图包括:将第一成像图和第二成像图中每个像素点的深度值进行比对;判断第一成像图中每个像素点的深度值是否大于第二成像图中对应位置的像素点的深度值,且第一成像图中每个像素点的深度值与第二成像图中对应位置的像素点的深度值的误差大于预设阈值;在判断结果为是的情况下,剔除对应像素点,生成剔除后的成像图;将剔除后的成像图进行二值化处理,得到目标成像图。
具体的,对比线激光下可见点的深度图(即,本申请实施例中的第一成像图)和整个工件的深度图(即,本申请实施例中的第二成像图)中每个像素点的深度值大小。
若某点在第一成像图中的深度值大于第二成像图中的深度值,且误差大于阈值(即,本申请实施例中判断第一成像图中每个像素点的深度值是否大于第二成像图中对应位置的像素点的深度值,且第一成像图中每个像素点的深度值与第二成像图中对应位置的像素点的深度值的误差大于预设阈值),则表示该点在面阵相机下存在被遮挡,应剔除。通过该步骤,去除所有的错误点,可进一步提高最终获得的点云精度。
将经过剔除后的深度图(即,本申请实施例中的剔除后的成像图)进行二值化处理,作为最终输出的线结构光相机下的投影图(即,本申请实施例中的目标成像图)。
需要说明的是,本申请实施例提供的上述示例,仅以说明本申请实施例提供的工件数据获取方法为准,具体不做限定。
本发明实施例提供了一种工件数据获取方法,基于OpenGL和OpenCV的线结构光相机模型设计,作为模拟工件在真实相机下投影情况的虚拟环境。该模型设计由一个线激光模型和一个面阵相机模型组成,映射了实际情况下工件在线结构光相机下的扫描和投影成像过程。其中,线激光由一个光平面方程、光心坐标以及光轴朝向向量作为参数来构造,面阵相机由一个视锥模型来模拟。通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;通过面阵相机创建对应的虚拟相机模型;依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;依据第一成像图和第二成像图,生成目标成像图,达到能够精准的表示工件在线结构光相机下的投影成像。
实施例二
图6为本发明实施例二提供的一种工件数据获取装置的示意图,应用于线结构光相机,如图6所示,该工件数据获取装置可以包括:
扫描模块60,用于通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;创建模块62,用于通过面阵相机创建对应的虚拟相机模型;第一获取模块64,用于依据坐标集和虚拟相机模型,得到坐标集中所有可见点在面阵相机下的第一成像图;第二获取模块66,用于依据工件模型和虚拟相机模型,得到工件模型在面阵相机下的第二成像图;图像获取模块68,用于依据第一成像图和第二成像图,生成目标成像图。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。
Claims (10)
1.一种工件数据获取方法,其特征在于,应用于线结构光相机,该工件数据获取方法包括:
通过线激光扫描工件模型,得到所述工件模型中所有可见点的坐标集;
通过面阵相机创建对应的虚拟相机模型;
依据所述坐标集和所述虚拟相机模型,得到所述坐标集中所有可见点在面阵相机下的第一成像图;
依据工件模型和所述虚拟相机模型,得到所述工件模型在所述面阵相机下的第二成像图;
依据所述第一成像图和所述第二成像图,生成目标成像图,包括:将第一成像图和第二成像图中每个像素点的深度值进行比对;判断第一成像图中每个像素点的深度值是否大于第二成像图中对应位置的像素点的深度值,且第一成像图中每个像素点的深度值与第二成像图中对应位置的像素点的深度值的误差大于预设阈值;在判断结果为是的情况下,剔除对应像素点,生成剔除后的成像图;将剔除后的成像图进行二值化处理,得到目标成像图。
2.根据权利要求1所述的方法,其特征在于,所述通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集包括:
获取所述工件模型的工件模型文件和线激光的光平面信息;
依据所述光平面信息创建线激光光源矩阵;
依据所述线激光光源矩阵和所述工件模型文件,获取工件模型中所有可见点的坐标集。
3.根据权利要求2所述的方法,其特征在于,所述获取所述工件模型的工件模型文件包括:
从所述工件模型文件中提取工件模型的顶点信息和面片信息;
将所述顶点信息和所述面片信息由文本格式转换为数组格式,得到转换后的顶点数组和面片数组;
其中,所述顶点信息包括:每个顶点的位置;所述面片信息包括:工件模型中每个面包含的顶点序号。
4.根据权利要求2所述的方法,其特征在于,所述光平面信息包括:光平面方程、光心位置坐标和光轴方向向量。
5.根据权利要求4所述的方法,其特征在于,所述依据所述光平面信息创建线激光光源矩阵包括:
依据所述光心位置坐标,所述光轴方向向量和向上的指定方向得到所述线激光光源矩阵。
6.根据权利要求2或5所述的方法,其特征在于,所述依据所述线激光光源矩阵和所述工件模型文件,获取工件模型中所有可见点的坐标集包括:
依据所述线激光光源矩阵创建线激光坐标系;
依据所述线激光坐标系和所述线激光光源矩阵,创建线激光虚拟相机模型;
依据所述线激光虚拟相机模型和所述工件模型文件,得到所述工件模型中所有可见点的坐标集。
7.根据权利要求1所述的方法,其特征在于,所述通过面阵相机创建对应的虚拟相机模型包括:
获取面阵相机参数文件;
从所述面阵相机参数文件中获取外参矩阵和内参矩阵;
依据所述外参矩阵创建虚拟相机的第一矩阵,并将第一图库中的面阵相机坐标系转换为第二图库中的面阵相机坐标系;
依据所述内参矩阵创建虚拟相机的第二矩阵,并将所述内参矩阵中的参数转换为所述第二图库中投影矩阵的参数;
依据所述第一矩阵和所述第二矩阵得到所述虚拟相机模型;
其中,所述外参矩阵,用于表示面阵相机在世界坐标系下的平移和旋转信息;所述内参矩阵,用于表示所述面阵相机的焦距和图像中心坐标。
8.根据权利要求7所述的方法,其特征在于,所述依据所述坐标集和所述虚拟相机模型,得到所述坐标集中所有可见点在面阵相机下的第一成像图包括:
通过所述虚拟相机模型调用所述第二图库中的指定函数读取所述坐标集中每个可见点对应的第一深度值信息;
依据所述第一深度值信息生成所述所有可见点在面阵相机下的第一成像图。
9.根据权利要求7所述的方法,其特征在于,所述依据工件模型和所述虚拟相机模型,得到所述工件模型在所述面阵相机下的第二成像图包括:
通过所述虚拟相机模型调用所述第二图库中的指定函数读取所述工件模型的所有可见点的第二深度值信息;
依据所述第二深度值信息生成所述工件模型在所述面阵相机下的第二成像图。
10.一种工件数据获取装置,其特征在于,应用于线结构光相机,该工件数据获取装置包括:
扫描模块,用于通过线激光扫描工件模型,得到工件模型中所有可见点的坐标集;
创建模块,用于通过面阵相机创建对应的虚拟相机模型;
第一获取模块,用于依据所述坐标集和所述虚拟相机模型,得到所述坐标集中所有可见点在面阵相机下的第一成像图;
第二获取模块,用于依据工件模型和所述虚拟相机模型,得到所述工件模型在所述面阵相机下的第二成像图;
图像获取模块,用于依据所述第一成像图和所述第二成像图,生成目标成像图,包括:将第一成像图和第二成像图中每个像素点的深度值进行比对;判断第一成像图中每个像素点的深度值是否大于第二成像图中对应位置的像素点的深度值,且第一成像图中每个像素点的深度值与第二成像图中对应位置的像素点的深度值的误差大于预设阈值;在判断结果为是的情况下,剔除对应像素点,生成剔除后的成像图;将剔除后的成像图进行二值化处理,得到目标成像图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111567815.4A CN113945167B (zh) | 2021-12-21 | 2021-12-21 | 一种工件数据获取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111567815.4A CN113945167B (zh) | 2021-12-21 | 2021-12-21 | 一种工件数据获取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113945167A CN113945167A (zh) | 2022-01-18 |
CN113945167B true CN113945167B (zh) | 2022-08-09 |
Family
ID=79339446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111567815.4A Active CN113945167B (zh) | 2021-12-21 | 2021-12-21 | 一种工件数据获取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113945167B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723828B (zh) * | 2022-06-07 | 2022-11-01 | 杭州灵西机器人智能科技有限公司 | 一种基于双目视觉的多线激光扫描方法及系统 |
CN116645375B (zh) * | 2023-07-27 | 2023-09-26 | 四川中天鹰眼信息技术有限公司 | 一种基于三维重建算法的卷烟零售商户库存盘点方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2115859C (en) * | 1994-02-23 | 1995-12-26 | Brian Dewan | Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device |
CN102589476B (zh) * | 2012-02-13 | 2014-04-02 | 天津大学 | 高速扫描整体成像三维测量方法 |
CN104236479B (zh) * | 2014-09-22 | 2016-11-02 | 电子科技大学 | 一种线结构光三维测量系统及3d纹理图像构造算法 |
CN109556533B (zh) * | 2018-06-13 | 2020-12-22 | 中国人民解放军陆军工程大学 | 一种针对多线结构光条纹图像的自动提取方法 |
CN111207670A (zh) * | 2020-02-27 | 2020-05-29 | 河海大学常州校区 | 一种线结构光标定装置及方法 |
CN112797915B (zh) * | 2020-12-29 | 2023-09-12 | 杭州海康机器人股份有限公司 | 一种线结构光测量系统的标定方法、标定装置、以及系统 |
-
2021
- 2021-12-21 CN CN202111567815.4A patent/CN113945167B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113945167A (zh) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551418B2 (en) | Image rendering of laser scan data | |
US11410320B2 (en) | Image processing method, apparatus, and storage medium | |
EP3080781B1 (en) | Image rendering of laser scan data | |
CN113945167B (zh) | 一种工件数据获取方法和装置 | |
US8531457B2 (en) | Apparatus and method for finding visible points in a cloud point | |
US8179393B2 (en) | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment | |
US9972120B2 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
CN113870430B (zh) | 一种工件数据处理方法和装置 | |
WO2010004466A1 (en) | Three dimensional mesh modeling | |
KR102109814B1 (ko) | 영상 정합 장치 및 방법 | |
Crombez et al. | 3D point cloud model colorization by dense registration of digital images | |
WO2013142819A1 (en) | Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces | |
KR20210050365A (ko) | 영상 정합 장치 및 방법 | |
Frommholz et al. | Inlining 3d reconstruction, multi-source texture mapping and semantic analysis using oblique aerial imagery | |
KR20210050366A (ko) | 촬영 위치 결정 장치 및 방법 | |
Drap et al. | Underwater multimodal survey: Merging optical and acoustic data | |
CN117611781B (zh) | 一种实景三维模型的压平方法及装置 | |
CN116452459B (zh) | 阴影遮罩生成方法、阴影去除方法及装置 | |
Morita et al. | A combined approach of SFM-MVS photogrammetry and reflectance transformation imaging to enhance 3D reconstructions | |
NL2005197C2 (en) | Computer controlled evaluation of binary images. | |
KR20220094460A (ko) | 파손 볼륨 계산 장치 및 방법 | |
CN118247429A (zh) | 一种空地协同快速三维建模方法及系统 | |
Bailey et al. | A portable graphics program for rapid prototyping file display, repair, and interchange |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |