CN1168045C - 结构光三维双视觉模型建模方法 - Google Patents
结构光三维双视觉模型建模方法 Download PDFInfo
- Publication number
- CN1168045C CN1168045C CNB011183020A CN01118302A CN1168045C CN 1168045 C CN1168045 C CN 1168045C CN B011183020 A CNB011183020 A CN B011183020A CN 01118302 A CN01118302 A CN 01118302A CN 1168045 C CN1168045 C CN 1168045C
- Authority
- CN
- China
- Prior art keywords
- network
- training
- sigma
- output
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种用于工业检测和视觉导引的结构光三维双视觉模型建模立法。径向基函数神经网络(RBF神经网络)由三层组成,输入层有两个节点,输出层有三个节点,隐层节点中的作用函数采用高斯核函数,利用全局坐标系下的标定点数据对双视觉神经网络进行训练。本发明基于RBF神经网络,建立了结构光三维双视觉模型,解决了BP网络中局部极小和训练速度慢的问题,较常规建模方法和BP网络法有较高的精度,同时解决了单视觉检测系统的“盲区”问题。
Description
技术领域:本发明涉及一种用于工业检测和视觉导引的结构光三维双视觉模型建模立法。
背景技术:视觉检测技术以其大量程、大视场、测量速度快、光条图像易于提取及较高精度等特点在工业环境中得到了愈来愈广泛的应用。结构光三维视觉检测广泛地应用于工件的完整性、表面平整度的测量;微电子器件(IC芯片、PC板、BGA)等的自动检测;软质、易脆零部件的检测;各种模具三维形状的检测;机器人的视觉导引等。这种系统柔性好;测量为非接触式、动态响应快,能满足大量生产“节拍”短的要求,而且整个测量过程高度自动化。
建立合理的视觉检测模型是结构光三维视觉检测过程中的重要步骤,目前视觉检测模型的建模方法主要有两种:常规建模方法和基于BP(BackPropagation)神经网络的建模方法。
(1)常规建模方法是基于摄像机针孔成像理论的方法,但针孔成像理论只是一种近似,否则在摄像机感光面上不会有任何光强。因此,视觉检测通用模型从严格意义上讲是不准确的,尤其在远光轴的情况下这种近似更为严重。
另外,视觉检测系统精密而复杂,影响系统精度的参数,除了数学模型误差外,还包括许多系统参数及摄像机内部、外部参数,如光学系统调整误差、CCD光敏元非均匀误差、视频信号转换误差等。其中一部分可以用数学模型描述,而有些则很难用模型描述。因此,采用常规方法建立起来的结构光三维视觉检测模型与实际系统所具有的数学模型仍存在一定的差异。如果忽略了这些微小的误差和干扰,将会降低系统的测量精度。目前结构光三维多视觉检测精度在0.5-1mm左右。
(2)基于BP神经网络的视觉模型建模方法:这种方法国内外都有相关的文献报道,比如Ming Cheng等人(Optical Engineering,Vol.34,No.12,1995,pp3572-3576),邓文怡等人(华中理工大学学报,Vol.27,No.1,1999,pp78-80)均采用了该方法。但这些报道都采用常用的BP网络,而且是用于单视觉检测模型。然而,BP网络存在一些无法克服的缺点和不足,主要表现在:结构上BP网络通常使用较多的隐层,使得网络变得复杂,训练速度缓慢。实际训练上,BP网络存在局部最优问题,并且收敛速度慢、效率低,其精度往往不高,报道文献中给出的精度只有0.31-0.34mm。
发明内容:本发明的目的是建立以少的隐层、高的精度、收敛速度快的双视觉检测模型。
本发明的技术解决方案是,径向基函数神经网络(RBF神经网络)由三层组成,输入层设置两个节点,输出层设置三个节点,隐层节点中的作用函数采用高斯核函数,为
网络的输出为隐层节点输出的线性组合,即
网络结构确定后,利用全局坐标系下采集的标定点数据对双视觉神经网络进行训练,其训练步骤为:
(1)启动训练,初始化网络结构参数,包括高斯核函数的中心值,方差σ以及隐层-输出层权值阵W。
(2)设置网络训练参数学习率μ(k),动量项α(k)以及期望的网络总体最小训练误差emi tr。
(3)从内存中按顺序从N个训练样本中取出一组,将其中的输入训练样本(x1i,x2i)输入到网络的输入层。
(4)计算网络输出层三个节点的实际输出(yo1i,yo2i,yo3i),并分别计算其与网络期望输出(ye1i,ye2i,ye3i)即输出训练样本的残差的平方和,累加到SUM中,即
(5)按带动量项的梯度下降法来调整各个网络结构参数,具体的调整算法如下:
定义准则函数
计算准则函数J(E)对各个网络结构参数的偏导数值,J(E)/E|E=E(k),并按下列公式来调整各个网络结构参数的值:
隐层-输出层连接权值矩阵W的调整式为
隐层中心值矩阵C的调整式为
隐层方差矩阵σ的调整式为
(6)判断是否N组训练样本全都输入训练了一遍。如果不是,则回到(3);如果是,则计算网络总体训练误差即均方根差
(7)判断ERMS是否小于期望的值。如果不是,则回到(3),并根据观察适当调整网络训练参数学习率μ(k)和动量项α(k);如果是,则利用当前的网络模型,使用网络测试样本集合计算网络输出层各节点输出的测试误差。测试误差的计算按下式进行:
(8)判断测试误差,如果测试误差不能满足要求,则可以减小期望的网络总体最小训练误差emi tr,返回到(3)继续训练或者返回到(1)重新开始训练;如果已经达到要求,则保存网络结构参数,结束训练。
本发明首次基于RBF神经网络,建立了结构光三维双视觉模型,不仅有效地克服了常规建模方法存在的不足,还解决了BP网络中单视觉检测系统的盲区问题,而且较大地提高了网络的收敛速度,避免了局部极小点问题,具有全局最佳逼近性能,提高了模型建模精度,由于本发明采用了带动量项的梯度下降法来训练网络,因此,建模的收敛速度快,稳定性好,训练精度高,训练方法快速易行。
说明书附图:图1为本发明的网络结构图;
图2为本发明的训练流程图;
图3为本发明所采用的双视觉标定点发生装置示意图。
具体实施方式:网络的结构为三层,输入层设置两个节点,分别代表二维图像坐标(x1,x2),输出层设置三个节点,分别代表三维物坐标(y1,y2,y3)。隐层节点中的作用函数采用高斯核函数(Gauss Kernel Function),如下式所示:
其中,uj是第j个隐层节点的输出,X=(x1,x2)T是输入样本,即二维图像坐标,Cj是高斯函数的中心值,σj是方差,Nh是隐层节点数。
网络的输出为隐层节点输出的线性组合,即
其中,
为隐层和输出层的权值阵, 为隐层的输出向量。
双视觉RBF网络模型结构确定后,接下来就是利用全局坐标系下采集的标定点数据对双视觉RBF神经网络进行训练,以建立双视觉模型。
基于RBF神经网络双视觉模型的训练实现过程如图2所示,详细的步骤如下:
(1)启动训练,初始化网络结构参数,包括高斯核函数的中心值,方差σ以及隐层-输出层权值阵W。
(2)设置网络训练参数学习率μ(k),动量项α(k)以及期望的网络总体最小训练误差emi tr。
(3)从内存中按顺序从N个训练样本中取出一组,将其中的输入训练样本(x1i,x2i)输入到网络的输入层。
(4)计算网络输出层三个节点的实际输出(yo1i,yo2i,yo3i),并分别计算其与网络期望输出(ye1i,ye2i,ye3i)即输出训练样本的残差的平方和,累加到SUM中,即
(5)按带动量项的梯度下降法来调整各个网络结构参数,具体的调整算法如下:
定义准则函数
其中,Y(k)代表希望输出,
为网络的实际输出,E是网络所有参数组成的向量,包括隐层中心值、隐层方差和输出权值,ε(E,k)为
对Y(k)的残差。
计算准则函数J(E)对各个网络结构参数的偏导数值,J(E)/E|E=E(k),并按下列公式来调整各个网络结构参数的值:
隐层-输出层连接权值矩阵W的调整式为
隐层中心值矩阵C的调整式为
隐层方差矩阵σ的调整式为
其中,k为调整的次数,μ(k)为学习率,α(k)为k时刻的遗忘因子,又称动量项或阻尼项。当前次即第k+1次的网络参数值由上一次即第k次的网络参数值获得,即第k次的参数值加上μ(k)与该参数的准则函数负梯度的乘积,再加上α(k)与第k次和第k-1次参数值残差的乘积。μ(k)的作用是用于调整网络的训练速度,μ(k)较大时,参数调整的幅度大,反之则小。α(k)的作用相当于阻尼力,当网络的训练误差迅速下降时,它使网络收敛逐渐平稳,当网络训练误差迅速增大时,它使网络发散的越来越缓慢。这样,使得网络的收敛过程不致出现过大的振荡,有利于网络的平稳收敛。
(6)判断是否N组训练样本全都输入训练了一遍。如果不是,则回到(3);如果是,则计算网络总体训练误差即均方差
(7)判断ERMS是否小于期望的值。如果不是,则回到(3),并根据观察适当调整网络训练参数学习率μ(k)和动量项α(k);如果是,则利用当前的网络模型,使用网络测试样本集合计算网络输出层各节点输出的测试误差。测试误差的计算按下式进行:
(8)测试误差即为网络模型的最终精度。如果测试误差不能满足要求,则可以减小期望的网络总体最小训练误差emi tr,返回到(3)继续训练或者返回到(1)重新开始训练。如果已经达到要求,则保存网络结构参数,结束训练。
获取用于网络训练的标定点数据,包括二维图像坐标(x1,x2)和三维物坐标(y1,y2,y3)。这一过程是由一个高精度三维双视觉标定点发生装置完成的,如图3所示。其中1、2为激光投射器。3、4为CCD摄像机,实现场景图像的获取。5为双向光电瞄准装置。6为三维移动台。7为图像采集卡。8为计算机,控制及数据处理。(该发生装置的技术内容在申请号为01115655.4专利中已公开,此处不再对其做详细陈述)对于左侧视觉检测系统,控制该装置分别在x方向和z方向以步长4mm移动,采集光平内60mm×60mm范围的标定点,标定点个数共为256个。其中的64个做测试样本,192个做训练样本。对于右侧视觉检测系统,同样控制该装置分别在x方向和z方向以步长4mm移动,采集光平内60mm×60mm范围的标定点,标定点个数共为256个。其中的64个做测试样本,192个做训练样本。
对于该基于RBF神经网络的结构光双视觉模型,利用上述获取的训练样本及测试样本,对左右两侧的视觉检测系统分别采用5.2步骤进行耐心充分的训练,最终得到了最佳结构光三维双视觉RBF神经网络模型如下:
(1)右侧视觉检测系统的最佳RBF神经网络模型的结构参数(网络测试精度为0.080mm)
采用三层RBF网络,输入节点数为2,隐层节点数为16,输出节点数为3。则各个调整参数阵的结构如下:
①隐层方差矩阵σ16×1=[σ0,σ1,…,σ15]T
②隐层中心值矩阵
③隐层---输出层权值矩阵
各网络训练参数,网络结构参数初始化值以及最终训练值如下:
学习率μ的初始值0.1,终止值0.003。动量项α的初始值0.01,终止值0。隐层-输出层连接权值W的初始化区间[-0.1,0.1],隐层方差σ的初始化区间[-1,1],隐层中心值的初始化区间为[-1,1]。对网络训练到13500次,得到的网络各模型结构参数如下:
①隐层方差矩阵
σ16×1=[2.525,0.665,-0.914,2.369,-1.679,-0.160,1.987,-0.057,-0.067,1.443,-1.125-1.395,1.415,-0.592,0.629,-0.327]T
②隐层中心值矩阵C2×16 ③隐层---输出层权值矩阵W3×16
(2)左侧视觉检测系统的最佳RBF神经网络模型的结构参数(网络测试精度为0.081mm)
采用三层RBF网络,输入节点数为2,隐层节点数为20,输出节点数为3。则各个调整参数阵的结构如下:
①隐层方差矩阵σ20×1=[σ0,σ1,…,σ19]T
②隐层中心值矩阵
③隐层---输出层权值矩阵
各网络训练参数,网络结构参数初始化值以及最终训练值如下:
学习率μ的初始值0.1,终止值0.003。动量项α的初始值0.01,终止值0。隐层-输出层连接权值W的初始化区间[-0.1,0.1],隐层方差σ的初始化区间[-1,1],隐层中心值的初始化区间为[-1,1]。对网络训练到15800次,得到的网络各模型结构参数如下:
①隐层方差矩阵
σ20×1=[-0.493,-1.376,-2.769,-3.075,-0.370,-3.025,-0.069,-0.013,2.464,3.272,-0.251,0.207,0.575,0.011,-0.001,0.368,-0.003,0.198,0.431,0.276]T
②隐层中心值矩阵C2×20 ③隐层---输出层权值矩阵
Claims (1)
1、一种结构光三维双视觉模型建模方法,其特征是,径向基函数神经网络由三层组成,输入层设置两个节点,输出层设置三个节点,隐层节点中的作用函数采用高斯核函数,为
网络的输出为隐层节点输出的线性组合,即
网络结构确定后,利用全局坐标系下采集的标定点数据对双视觉神经网络进行训练;其训练的步骤如下:
(1)启动训练,初始化网络结构参数,包括高斯核函数的中心值,方差σ以及隐层-输出层权值阵W;
(2)设置网络训练参数学习率μ(k),动量项α(k)以及期望的网络总体最小训练误差emi tr;
(3)从内存中按顺序从N个训练样本中取出一组,将其中的输入训练样本(x1i,x2i)输入到网络的输入层;
(4)计算网络输出层三个节点的实际输出(yo1i,yo2i,yo3i),并分别计算其与网络期望输出(ye1i,ye2i,ye3i)即输出训练样本的残差的平方和,累加到SUM中,即
(5)按带动量项的梯度下降法来调整各个网络结构参数,具体的调整算法如下:
定义准则函数
计算准则函数J(E)对各个网络结构参数的偏导数值,J(E)/E|E=E(k),并按下列公式来调整各个网络结构参数的值:
隐层-输出层连接权值矩阵W的调整式为
隐层中心值矩阵C的调整式为
隐层方差矩阵σ的调整式为
(6)判断是否N组训练样本全都输入训练了一遍,如果不是,则回到(3);如果是,则计算网络总体训练误差即均方差
(7)判断ERMS是否小于期望的值,如果不是,则回到(3),并根据观察适当调整网络训练参数学习率μ(k)和动量项α(k);如果是,则利用当前的网络模型,使用网络测试样本集合计算网络输出层各节点输出的测试误差,测试误差的计算按下式进行:
(8)判断测试误差,如果测试误差不能满足要求,则可以减小期望的网络总体最小训练误差emi tr,返回到(3)继续训练或者返回到(1)重新开始训练;如果已经达到要求,则保存网络结构参数,结束训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB011183020A CN1168045C (zh) | 2001-05-22 | 2001-05-22 | 结构光三维双视觉模型建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB011183020A CN1168045C (zh) | 2001-05-22 | 2001-05-22 | 结构光三维双视觉模型建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1387167A CN1387167A (zh) | 2002-12-25 |
CN1168045C true CN1168045C (zh) | 2004-09-22 |
Family
ID=4663088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB011183020A Expired - Fee Related CN1168045C (zh) | 2001-05-22 | 2001-05-22 | 结构光三维双视觉模型建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1168045C (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100367310C (zh) * | 2004-04-08 | 2008-02-06 | 复旦大学 | 视网膜神经节细胞感受野尺度可变层次网络模型及其算法 |
CN101187649B (zh) * | 2007-12-12 | 2010-04-07 | 哈尔滨工业大学 | 异种材料扩散焊界面缺陷的自动识别方法 |
CN105319655B (zh) * | 2014-06-30 | 2017-02-01 | 北京世维通科技发展有限公司 | 一种光学集成芯片与光纤组件的自动耦合方法及系统 |
CN111383281A (zh) * | 2018-12-29 | 2020-07-07 | 天津大学青岛海洋技术研究院 | 一种基于rbf神经网络的摄像机标定方法 |
-
2001
- 2001-05-22 CN CNB011183020A patent/CN1168045C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN1387167A (zh) | 2002-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1975324A (zh) | 一种双传感器激光视觉三维测量系统校准方法 | |
CN1259542C (zh) | 一种空间圆几何参数的视觉测量方法 | |
CN1303400C (zh) | 超精密工作台自标定方法及装置 | |
CN110031829B (zh) | 一种基于单目视觉的目标精准测距方法 | |
CN107153382B (zh) | 基于双目视觉测量的柔性铰接板振动控制装置及方法 | |
CN107820075A (zh) | 一种基于光流相机的vr设备延迟测试装置 | |
CN1743806A (zh) | 移动体高度判别装置 | |
CN1678880A (zh) | 多维测量系统 | |
CN1287643A (zh) | 电子组件的三维检测方法和设备 | |
CN104181685A (zh) | 基于显微镜的数字切片自动聚焦装置及其方法 | |
CN101907448A (zh) | 一种基于双目三维视觉的深度测量方法 | |
CN1168045C (zh) | 结构光三维双视觉模型建模方法 | |
CN111823221A (zh) | 一种基于多传感器的机器人打磨方法 | |
CN111536872A (zh) | 基于视觉的二维平面测距装置及方法、标记点识别装置 | |
CN111735385A (zh) | 一种竞品车逆向工程中座椅基准点的确定方法 | |
CN102162718B (zh) | 刚性物体空间自由姿态测量装置及方法及数据分析方法 | |
CN107329233A (zh) | 一种基于神经网络的微滴式pcr仪自动对焦方法 | |
CN109596618A (zh) | 一种基于断面轮廓序列的微观多相结构三维建模测量方法 | |
CN1912532A (zh) | 一种三维视觉测量量值传递方法和平面靶标 | |
CN106888344A (zh) | 摄像模组及其像面倾斜的获取方法和调整方法 | |
CN114092411A (zh) | 一种高效快速的双目3d点云焊点缺陷检测方法 | |
CN113702384A (zh) | 一种回转构件表面缺陷检测装置、检测方法及标定方法 | |
CN110966937B (zh) | 一种基于激光视觉传感的大型构件三维构形拼接方法 | |
CN1851618A (zh) | 单目视觉半实物仿真系统及方法 | |
CN1896679A (zh) | 一种三维视觉现场测量量值传递方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C19 | Lapse of patent right due to non-payment of the annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |