CN107329233A - 一种基于神经网络的微滴式pcr仪自动对焦方法 - Google Patents

一种基于神经网络的微滴式pcr仪自动对焦方法 Download PDF

Info

Publication number
CN107329233A
CN107329233A CN201710742287.9A CN201710742287A CN107329233A CN 107329233 A CN107329233 A CN 107329233A CN 201710742287 A CN201710742287 A CN 201710742287A CN 107329233 A CN107329233 A CN 107329233A
Authority
CN
China
Prior art keywords
mrow
msub
output
msubsup
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710742287.9A
Other languages
English (en)
Other versions
CN107329233B (zh
Inventor
郑方园
陈善雄
吴本涛
郝英杰
杨芒
李常军
武技桥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University
Guangdong Shunde Industrial Design Institute
Original Assignee
Southwest University
Guangdong Shunde Industrial Design Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University, Guangdong Shunde Industrial Design Institute filed Critical Southwest University
Priority to CN201710742287.9A priority Critical patent/CN107329233B/zh
Publication of CN107329233A publication Critical patent/CN107329233A/zh
Application granted granted Critical
Publication of CN107329233B publication Critical patent/CN107329233B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明涉及一种基于神经网络的微滴式PCR仪自动对焦方法,其包括:(一)对焦模块设计,即照明光源在一端,其发出的光线经生物芯片,再经过物镜进入相机,物镜起到对焦的作用,由自动三维平台控制物镜位置;(二)对焦策略拟定,即通过事先测量好焦点位置,经过BP神经网络进行训练获得稳定的映射,之后在对焦过程中,测量几个位置后确定其所属的函数类型,获得预先测量好的焦点位置;(三)聚焦函数选择,即使用超小波中的轮廓波作为图像聚焦评价处理函数,其测量值作为神经网络的输入;(四)图像检测区域选择。本发明能够快速、精确的给出焦点的位置,提高了PCR仪检测系统的精确度和对焦速度。

Description

一种基于神经网络的微滴式PCR仪自动对焦方法
技术领域
本发明涉及显微视觉技术领域,具体涉及一种基于神经网络的微滴式PCR仪自动对焦方法。
背景技术
显微视觉被广泛的应用于医学,IC制造,生物工程,微机电系统装配等领域,具有视场小,景深短等特点。显微视觉须通过聚焦来获取清晰图像。自动对焦技术是自动控制显微视觉系统的核心功能,是显微视觉高精度测量的基础,而准确,快速聚焦有是自动聚焦技术的关键。
微滴式数字PCR系统是在传统的PCR扩增前对样品进行微滴化处理,即将含有核酸分子的反应体系分成上万个纳升级的微滴,其中每个微滴不含待检测核酸靶分子,或者含有一个至数个待检测核酸靶分子。经过PCR扩增后,逐个对每个微滴进行检测,然后根据泊松分布原理及阳性微滴的个数与比例即可得出靶分子的起始拷贝数或者浓度。
在数字PCR仪检测系统中,对焦模块用于相机实时采集生物芯片的图像,以及激光焦点大小的控制。它属于显微视觉。
在数字PCR仪检测系统中,一种类型是采用生物芯片固定在仪器内部的,使用后清洗的方案,从而使得芯片可以被再次使用。该类型的仪器在最初被生产出来时,就经过校正调焦的过程,因此,不需要重复进行调焦。而采用一次性生物芯片的数字PCR仪检测系统,其每次进行扩增操作,都要进行对焦过程。
基于光学的自动对焦技术(Auto.Focus,也称作自动聚焦/自动调焦等)是从20世纪70年代后期发展起来的。从基本原理上划分,自动聚焦的方式可以分成两大类:一种是基于镜头于被摄物体之间距离测量的测距方法;另一种是基于对焦屏上成像清晰的聚焦检测方法。
1、测距方法。测距方法的自动对焦主要红外线测距法和超声波测距法。
2、聚焦检测方法。聚焦检测方法主要有对比度法和相位法。
1)对比度法
该方法是通过检测图像的轮廓边缘实现自动对焦。图像的轮廓边缘越清晰,则它的亮度梯度就越大,或者说边缘处景物和背景之间的对比度就越大。反之,失焦的图像,轮廓边缘模糊不清,亮度梯度或对比度下降;离焦面距离越远,对比度越低。利用这个原理,将两个光电检测器放在CCD前后相等距离处,被摄影物的图像经过分光同时成在这两个检测器上,分别输出其成像的对比度。当两个检测器所输出的对比度相差的绝对值最小时,说明对焦的像面刚好在两个检测器中间,即和CCD的成像表面接近,于是对焦完成。
2)相位法
该方法是通过检测像的偏移量实现自动调焦的。如下图所示,在感光底片的位置放置一个由平行线条组成的网格板,线条相继为透光和不透光。网格板后适当位置上与光轴对称地放置两个受光元件。网格板在与光轴垂直方向上往复振动。
当聚焦面与网格板重合时,通过网格板透光线条的光同时到达其后面的两个受光元件。而当离焦时,光束只能先后到达两个受光元件,于是它们的输出信号之间有相位差。有相位差的两个信号经电路处理后即可控制执行机构来调节物镜的位置,使聚焦面与网格板的平面重合。
各种自动对焦方式各有其局限性。例如红外测距和超声测距的对焦方法,当被测目标对红外光或超声波有较强的吸收作用时,将使测距系统失灵或对焦不准确;而对比度法聚焦检测受光照条件的制约,当光线暗弱或被摄体与背景明暗差别很小时,调焦就会有困难,甚至失去作用。
随着计算机硬件和数字图像技术的飞速发展,图像的实时处理已经成为可能。因此,计算机通过镜头和CCD/COMS采集到一系列的数字图像,对每一帧图像进行实时处理,判断对焦是否准确,成像是否清晰,并给出反馈信号控制镜头的运动,直到采集到的图像符合使用要求,即完成自动调焦。
聚焦策略:在上述的三大类聚焦策略中,基于图像聚焦评价的方法使用较少的辅助器件,容易实现。该方法中,图像聚焦的过程可以简化为通过移动镜片寻找图像聚焦评价函数峰值的过程。该问题有很多经典的算法,如爬山算法,二分搜索法。爬山搜索法是由二值搜索法(binary search)演变而来的,通过比较当前位置和前一位置的对焦评价值判断电机的搜索方向,最终快速收敛到最佳聚焦位置的搜索方法。但是爬山算法具有容易陷入局部峰值的缺点。且对焦速度较慢,一般需要经过多次尝试,才能对焦。其他算法也是通过采取不同的搜索策略,但是都要经过多次尝试,才能对焦。因此,对于寻找函数峰值,需要采取不同的思路。
(1)聚焦函数选择:现有许多经典的聚焦函数算法,主要分为时域函数和频域函数。典型的时域函数有灰度差分法,边缘检测法,Sobel-Tenengrad方法,灰度均方差发等方法。频域函数主要包括傅立叶变换及小波变换等方法。尽管目前已提出的自动聚焦评价函数多达数十种,但并未有公认的最佳方法。
(2)图像检测区域的选择:由于数字PCR仪器中摄像头采集的是生物芯片的显微放大图像,因此,其图像的主要特征为横竖的管道。因此对于除了管道的其他部分可以不用检测。这就需要过一个办法识别图像的管道,之后后对此进行截取。
发明内容
本发明的目的在于提供了一种基于神经网络的微滴式PCR仪自动对焦方法,该方法能够快速、精确的给出焦点的位置,提高了PCR仪检测系统的精确度和对焦速度。
本发明的技术方案如下:
上述的基于神经网络的微滴式PCR仪自动对焦方法,具体包括以下步骤:
(一)对焦模块设计
照明光源在一端,其发出的光线经生物芯片,再经过物镜进入相机,物镜起到对焦的作用,由自动三维平台控制物镜位置;
(二)对焦策略拟定
通过事先测量好焦点位置,经过BP神经网络进行训练获得稳定的映射,之后在对焦过程中,测量几个位置后确定其所属的函数类型,获得预先测量好的焦点位置;
(三)聚焦函数选择
使用超小波中的轮廓波,作为图像聚焦评价处理函数,其测量值作为神经网络的输入;
(四)图像检测区域选择
对图像进行水平和竖直方向的灰度值进行统计,得出一个直方图,得出需要检测的范围,确定一个大概坐标范围。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中,所述步骤(二)中是使用BP神经网络来预测焦点,具体为:(1)测量固定位置的聚焦函数评价值,以及平均灰度值,曝光时间作为输入;(2)手动测量焦点位置作为输出,然后进行训练,来达到模拟这一映射的功能,之后使用一些方法,向左右移动,检测是否处于焦点位置。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中,所述BP网络结构如下:输入层为5个节点,隐含层为100个神经元,输出层为1个神经元;隐含层的激活函数为对数S形转移函数,输出层的激活函数为线性函数,训练函数为梯度下降函数,采用L-M优化算法;迭代次数为1500次,学习率为0.01;根据数字PCR仪的使用环境,输入层的5个输入参数分别为位置为s0时的聚焦评价值、位置为s1时的聚焦评价值、位置为s2时的聚焦评价值、平均灰度值和曝光时间。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中,所述BP网络结构的训练步骤如下:
(1)选取100组不同的h,q组合,作为100个类别;
(2)对于每组类别,选取固定位置的三个p0,p1,p2,测量其聚焦评价值作为s0,s1,s2,测量曝光时间t0,t1,t2,平均灰度值d0,d1,d2
(3)计算s0,s1,s2的平均曝光时间t=(t0+t1+t2)/3,及平均灰度值d=(d0+d1+d2)/3;
(4)对于每组类别,测量其聚焦函数的图像,即移动镜片,测量其聚焦函数值,并找出其峰值的位置p3,聚焦评价值s3
(5)对于获得的100组s0,s1,s2,d,t,使用y=(x-min)/(max-min)进行归一化,其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y,归一化后s0,s1,s2,d,t作为输入向量,p3为输出向量;
(6)将此100组数据作为输入进行训练;
(7)训练过程按照BP网络训练步骤训练,具体步骤包括:①输入模式顺传播,即输入模式由输入层经隐含层向输出层传播计算;②输出误差逆传播,即输出的误差由输出层经隐含层传向输入层;③循环记忆训练,即所述模式顺传播与误差逆传播的计算过程反复交替循环进行;④学习结果判别,即判定全局误差是否趋向极小值或是否已达到设定的最大迭代次数。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中:所述①输入模式顺传播主要是利用输入模式求出它所对应的实际输出,确定输入向量X:
上式(1)中,k=1,2,…,m;m是学习模式对数(训练模式对数);n是输入层单元数。
确定期望输出向量Y:
上式(2)中,k=1,2,…,m;m是学习模式对数(训练模式对数);q为输出层单元数。
计算隐含层各神经元的激活值s:
上式(3)中,n是输入层单元数;w是输入层至隐含层的连接权值;θ是隐含层单元的阈值;j=1,2…p,p是隐含层单元数。
激活函数采用s型函数:
计算隐含层j单元的输出值:将上面的激活值即公式(3)代入激活函数即公式(4)中可得隐含层j单元的输出值:
阈值θ在学习过程中与权值w一样也不断地被修正。
计算输出层第t个单元的激活值o:
计算输出层第t个单元的实际输出值c:
ct=ot (7)
上式(6)和(7)中,w是隐含层至输出层的权值;θ是输出层单元阈值;j=1,2…p,p是隐含层单元数;x为隐含层第j个节点的输出值;f是s型激活函数,t=1,2…,q,q为输出层单元数;
利用以上所述公式(1)-(7)即可计算出一个输入模式的顺传播过程;
所述②输出误差的逆传播:即在所述模式顺传播计算中得到了网络的实际输出值,当这些实际的输出值与希望的输出值不一样或者误差大于所限定的数值时,就要对网络进行校正;所述校正是从前往后进行的,计算时是从输出层到隐含层,再从隐含层到输入层;
输出层的校正误差:
上式(8)中,t=1,2,…,q,q是输出层单元数;k=1,2,…,m,m是训练(学习)模式对数;y是希望输出;c是实际输出;f’()是对输出函数的导数。
隐含层各单元的校正误差:
上式(9)中,t=1,2,…,q,q是输出层单元数;j=1,2,…,p;p是隐含层单元数;k=1,2,…,m,m是训练(学习)模式对数。
对于输出层至隐含层连接权和输出层阈值的校正量:
上式(10)和(11)中,b是隐含层j单元的输出;d是输出层的校正误差;j=1,2…,p;t=1,2,…,q;k=1,2,…,m;α为输出层至隐含层学习率,α>0;
隐含层至输入层的校正量:
上式(12)和(13)中,e是隐含层j单元的校正误差;x是标准输入,i=1,2,…,n,n是输入层单元数;β为隐含层至输入层学习率,0<β<1;
所述③循环记忆训练:即为使网络的输出误差趋向于极小值,对于BP网输入的每一组训练模式要经过数百次甚至上万次的循环记忆训练,使网络记住这一模式,这种循环记忆实际上就是反复重复上面介绍的输入模式顺传播和输出误差逆传播;
所述④学习结果的判别:即当每次循环记忆训练结束后进行学习结果的判别,以检查输出误差是否已经小到可以允许的程度,如果小到可以允许的程度,就结束整个学习过程,否则继续进行循环训练。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中:所述BP网络结构经训练后,对焦流程如下:
(1)驱动自动三维平台,使镜片移动到三个距离相等的位置(距离为训练时的距离dis),分别测得三个位置的聚焦评价值ss0,ss1,ss2,曝光时间tt0,tt1,tt2,平均灰度值dd0,dd1,dd2
(2)计算平均曝光时间tt=(tt0+tt1+tt2)/3,及平均灰度值dd=(dd0+dd1+dd2)/3。
(3)将ss0,ss1,ss2,tt,dd作为输入,经过神经网络计算到输出层,(不用进行权值调整)得到输出层的值c,c即为焦点位置预测坐标。
(4)驱动自动三维平台将透镜移动到c处。
(5)记当前位置为n,从当前位置n开始,将镜片向左和右分别移动三次相同的距离a,并测量聚焦评价值。如果遇到比当前值大的位置,记为n。并重复本步骤5,直到两边评价值都比n小为止。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中,所述步骤(三)聚焦函数选择中的所述轮廓波的变换方法为:先构建离散域,然后扩展到稀疏连续域,在每一层的拉普拉斯金字塔产生一个低通输出和一个带通输出,然后将带通输出经过方向滤波器组,输出小波系数,低通输出再次通过拉普拉斯金字塔,获得更多的系数,直到获得较好的图像细节;
所述轮廓波变换中的信号‘X’由通过一系列的低通和高通滤波器计算得出,所述低通和高通滤波器的计算结果需要计算轮廓系数,滤波器的输出和轮廓系数方程为:
上式(14)和(15)中n表示信号的下标,g表示低通滤波器系数,h表示高通滤波器系数;
对每一层图像进行变换之后,图像被分成{LL,LH,HL,HH}4个子带,LL为低低输入图像,LH为低高输入图像,HL为高低输入图像,HH为高高输入图像,由于图像边缘信息只存在高频子带中,所以只提取HH子带图像X参于聚焦函数计算;
经过测试,将第2层的HH子带和第3层的HH子带相加后,对图像的清晰度进行评价,聚焦评价函数为:
G=g2+g3 (18);
上式(16)、(17)和(18)中g2表示第二层的HH子带和,g3表示第三层的HH子带和,G表示聚焦评价函数值。
所述基于神经网络的微滴式PCR仪自动对焦方法,其中,所述图像检测区域选择的具体流程为:
1)从相机得到原图像的灰度图像;
2)统计水平和竖直方向上每行的灰度值累加和,记为一个数组sum;
3)对于水平方向和竖直方向,分别设定一个阈值,在每个方向找出sum小于阈值的m个点的位置坐标;
4)对于所述步骤3)中所述的位置坐标,设水平方向上坐标最大和最小的两个点的坐标为x1,x2,竖直方向上坐标最大和最小的两个点的坐标为y1,y2
5)将上述步骤4)中四个点的坐标分别向两边扩大n个像素点,设xx1=x1-n,xx2=x2+n,yy1=y1-n,yy2=y2+n;
6)获得聚焦评价函数的计算范围,即原图像中范围为xx1-xx2,yy1-yy2的图像。
有益效果:
本发明基于神经网络的微滴式PCR仪自动对焦方法构思合理,能够快速、精确的给出焦点的位置,提高了PCR仪检测系统的精确度和对焦速度;本发明使用较少的器件,节约了成本,本发明设计的bp神经网络结构,能有效的实现输入到输出的映射,误差在10^-7以下,达到了很好地映射效果;图像选择区域的优化使得计算量降低,速度加快;根据本发明对焦策略,在实际操作中,只需要4-7步即可完成对焦;轮廓波,Contourlet变换是一种新的图像二维表示方法,具有多分辨率、局部定位、多方向性、近邻界采样和各向异性等性质,其基函数分布于多尺度、多方向上,少量系数即可有效地捕捉图像中的边缘轮廓,使对焦更加精准。
附图说明
图1为本发明基于神经网络的微滴式PCR仪自动对焦方法的对焦物理结构设计图;
图2为本发明基于神经网络的微滴式PCR仪自动对焦方法的控制结构图;
图3为本发明基于神经网络的微滴式PCR仪自动对焦方法的神经网络模型图;
图4为本发明基于神经网络的微滴式PCR仪自动对焦方法的对焦详细结构图;
图5为本发明基于神经网络的微滴式PCR仪自动对焦方法的BP神经网络预测模拟图;
图6为本发明基于神经网络的微滴式PCR仪自动对焦方法的聚焦评价函数图;
图7为本发明基于神经网络的微滴式PCR仪自动对焦方法的BP网络结构经训练后的对焦流程的步骤(5)函数图;
图8为本发明基于神经网络的微滴式PCR仪自动对焦方法的对焦流程图;
图9为本发明基于神经网络的微滴式PCR仪自动对焦方法的相机成像图;
图10为本发明基于神经网络的微滴式PCR仪自动对焦方法的灰度值统计图);
图11为本发明基于神经网络的微滴式PCR仪自动对焦方法的两个槽交叉的位置图。
图12为本发明基于神经网络的微滴式PCR仪自动对焦方法的图像检测区域选择的算法流程图。
具体实施方式
本发明基于神经网络的微滴式PCR仪自动对焦方法,具体步骤包括:
(一)、对焦模块设计
对焦物理结构设计如图1所示,照明光源在一端,发出的光线经生物芯片(透明),在经过物镜进入相机,物镜起到对焦的作用,由自动三维平台控制其位置。
控制结构如图2所示,相机自带的接口连接电脑,为电脑提供实时画面数据,用于计算聚焦评价值;自动三维平台由stm32开发板控制,经串口连接电脑,电脑通过串口发送和接收数据,用于控制三维平台移动。
(二)、对焦策略拟定
本发明提出通过神经网络实现对聚焦评价函数的分类和识别,从而为快速确定函数峰值奠定基础。本发明与经典的寻找聚焦评价函数峰值有着方法上的根本区别。本发明是通过事先测量好焦点位置,经过BP神经网络进行训练获得稳定的映射,之后在对焦过程中,测量几个位置后确定其所属的函数类型,获得预先测量好的焦点位置;经过matlab模拟,本发明设计的BP神经网络结构,能有效的实现输入到输出的映射,误差在10^-7以下,达到了很好地映射效果;之后根据本发明对焦策略,在实际操作中,只需要4-7步即可完成对焦。
如图3所示,为一个典型的3层BP神经网络模型,本对焦方案拟使用BP神经网络实现焦点的预测,通过:
(1)测量固定位置的聚焦函数评价值,以及平均灰度值(亮度),曝光时间作为输入。
(2)手动测量焦点位置作为输出,然后进行训练,来达到模拟这一映射的功能,之后使用一些的方法,向左右移动,检测是否处于焦点位置。
本发明设计的BP网络结构如下:
输入层为5个节点,隐含层为100个神经元,输出层为1个神经元。隐含层的激活函数为对数S形转移函数(logsig),输出层的激活函数为线性函数(purelin),训练函数为梯度下降函数,采用L-M优化算法(trainlm)。迭代次数为1500次,学习率为0.01。根据数字PCR仪的使用环境,输入层的5个输入参数分别为1.位置为s0时的聚焦评价值,2.位置为s1时的聚焦评价值,3.位置为s2时的聚焦评价值4.平均灰度值5.曝光时间。
训练样本说明:为了增加对焦精度,使用100组样本进行训练,基于大数据量的训练使得本发明的对焦效果较好;而且样本中包含曝光时间,亮度等图像信息,使得训练数据覆盖了聚焦清晰度评价的多个要素,使得对焦更准确。
输出层激活函数说明:输出层为坐标大于1,因此不使用非线性激活函数,故使用线性函数f(x)=x。
本发明设计的BP网络结构的训练步骤如下:
(1)选取100组不同的h,q(h,q如图4所示)组合,作为100个类别。
(2)对于每组类别,选取固定位置的三个p0,p1,p2(这里选取的三个位置满足p0-p=p1-p0=p2-p1=dis),测量其聚焦评价值作为s0,s1,s2,测量曝光时间t0,t1,t2,平均灰度值d0,d1,d2。(聚焦函数在下节中说明)。
(3)计算s0,s1,s2的平均曝光时间t=(t0+t1+t2)/3,及平均灰度值d=(d0+d1+d2)/3。
(4)对于每组类别,测量其聚焦函数的图像,即移动镜片(改变p),测量其聚焦函数值,并找出其峰值的位置p3,聚焦评价值s3
(5)对于获得的100组s0,s1,s2,d,t,使用y=(x-min)/(max-min)(其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y)进行归一化,归一化后s0,s1,s2,d,t作为输入向量,p3为输出向量。
(6)将此100组数据作为输入进行训练。
(7)训练过程按照BP网络训练步骤训练,如下:①输入模式顺传播(输入模式由输入层经隐含层向输出层传播计算);②输出误差逆传播(输出的误差由输出层经隐含层传向输入层);③循环记忆训练(模式顺传播与误差逆传播的计算过程反复交替循环进行);④学习结果判别(判定全局误差是否趋向极小值或是否已达到设定的最大迭代次数)。
其中,①输入模式顺传播:这一过程主要是利用输入模式求出它所对应的实际输出,确定输入向量X:
上式(1)中,k=1,2,…,m;m是学习模式对数(训练模式对数);n是输入层单元数。
确定期望输出向量Y:
上式(2)中,k=1,2,…,m;m是学习模式对数(训练模式对数);q为输出层单元数。
计算隐含层各神经元的激活值s:
上式(3)中,n是输入层单元数;w是输入层至隐含层的连接权值;θ是隐含层单元的阈值;j=1,2…p,p是隐含层单元数。
激活函数采用s型函数:
计算隐含层j单元的输出值:将上面的激活值即公式(3)代入激活函数即公式(4)中可得隐含层j单元的输出值:
阈值θ在学习过程中与权值w一样也不断地被修正。
计算输出层第t个单元的激活值o:
计算输出层第t个单元的实际输出值c:
ct=ot (7)
上式(6)和(7)中,w是隐含层至输出层的权值;θ是输出层单元阈值;j=1,2…p,p是隐含层单元数;x为隐含层第j个节点的输出值;t=1,2…,q,q为输出层单元数。
利用以上各公式就可以计算出一个输入模式的顺传播过程。
②输出误差的逆传播:在第一步的模式顺传播计算中得到了网络的实际输出值,当这些实际的输出值与希望的输出值不一样或者误差大于所限定的数值时,就要对网络进行校正。
这里的校正是从前往后进行的,所以叫做误差逆传播,计算时是从输出层到隐含层,再从隐含层到输入层。
输出层的校正误差:
上式(8)中,t=1,2,…,q,q是输出层单元数;k=1,2,…,m,m是训练(学习)模式对数;y是希望输出;c是实际输出;f’()是对输出函数的导数。
隐含层各单元的校正误差:
上式(9)中,t=1,2,…,q,q是输出层单元数;j=1,2,…,p;p是隐含层单元数;k=1,2,…,m,m是训练(学习)模式对数。
对于输出层至隐含层连接权和输出层阈值的校正量:
上式(10)和(11)中,b是隐含层j单元的输出;d是输出层的校正误差;j=1,2…,p;t=1,2,…,q;k=1,2,…,m;α>0(输出层至隐含层学习率)。
隐含层至输入层的校正量:
上式(12)和(13)中,e是隐含层j单元的校正误差;x是标准输入,i=1,2,…,n,n是输入层单元数;0<β<1(隐含层至输入层学习率)。
③循环记忆训练:为使网络的输出误差趋向于极小值,对于BP网输入的每一组训练模式,一般要经过数百次甚至上万次的循环记忆训练,才能使网络记住这一模式。这种循环记忆实际上就是反复重复上面介绍的输入模式顺传播和输出误差逆传播。
④学习结果的判别:当每次循环记忆训练结束后,都要进行学习结果的判别。判别的目的主要是检查输出误差是否已经小到可以允许的程度。如果小到可以允许的程度,就可以结束整个学习过程,否则还要继续进行循环训练。
经过matlab模拟训练过程后,使用训练数据对训练结果进行仿真,结果显示其误差在10^-7以下,结果如下图5所示,*为期望值,o为仿真结果。(x轴为归一化的输入,y轴为期望值,设定为600-700之间的随机数)。
本发明设计的BP网络结构经训练后,对焦流程如下:
(1)驱动自动三维平台,使镜片移动到三个距离相等的位置(距离为训练时的距离dis),分别测得三个位置的聚焦评价值ss0,ss1,ss2,曝光时间tt0,tt1,tt2,平均灰度值dd0,dd1,dd2
(2)计算平均曝光时间tt=(tt0+tt1+tt2)/3,及平均灰度值dd=(dd0+dd1+dd2)/3。
(3)将ss0,ss1,ss2,tt,dd作为输入,经过神经网络计算到输出层,(不用进行权值调整)得到输出层的值c,c即为焦点位置预测坐标。
(4)驱动自动三维平台将透镜移动到c处。
(5)记当前位置为n,从当前位置n开始,将镜片向左和右分别移动三次相同的距离a,并测量聚焦评价值。如果遇到比当前值大的位置,记为n。并重复本步骤5,直到两边评价值都比n小为止。
(三)、聚焦函数选择
理想聚焦评价函数应具备单峰性及峰值明显,无偏性,灵敏度高的等特点。在时域中,与离焦图像相比,聚焦图像存在较为锐化的边缘;在频域中,聚焦图像比离焦图像包含更多的信息和细节,即高频分量更多。由于液滴式数字PCR仪是封闭的环境,其照明光源恒定,即获得的图像亮度比较恒定,因此降低了对聚焦函数对于复杂环境的适应性。
对于经典的图像算法小波而言。对于边缘、轮廓和纹理等具有高维奇异性的几何特征,小波不是表示图像的最优基。二维小波变换只有2.5个方向选择性。小波是表示具有点奇异性目标函数的最优基(能有效表示信号的零维奇异特征,反映奇异点的位置和特性),但是难以表示更高维的几何特征。
相比而言,新一代的超小波理论有了更好的解决方案。其中的轮廓波,Contourlet变换是一种新的图像二维表示方法,具有多分辨率、局部定位、多方向性、近邻界采样和各向异性等性质,其基函数分布于多尺度、多方向上,少量系数即可有效地捕捉图像中的边缘轮廓,而边缘轮廓正是自然图像中的主要特征。它能用不同尺度、不同频率的自带更准确地捕获图像中的分段二次连续曲线,从而使表示图像边缘的Contourlet系数能量更加集中;Contourlet能够达到的MSE衰减率为O(N-2(logN)3)。
本发明使用超小波中的轮廓波,作为图像聚焦评价处理函数,其测量值作为神经网络的输入。
轮廓波变换:
变换的方法首先是构建离散域,然后扩展到稀疏连续域。轮廓波变换与其他变换的主要不同之处是在这种新的变换中使用拉普拉斯金字塔和方向滤波器组。因此,这种新变换不仅能检测间断的边缘,而且能将间断的边缘转化为连续域。输入图像包括像LL(低低),LH(低高),HL(高低)和HH(高高)的频率特点。在每一层的拉普拉斯金字塔产生一个低通输出(LL)和一个带通输出(LH,HL,和HH),然后将带通输出经过方向滤波器组,输出小波系数,低通输出再次通过拉普拉斯金字塔,获得更多的系数直到获得较好的图像细节。
轮廓波变换中的信号‘X’由通过一系列的低通和高通滤波器计算得出,这两个滤波器的计算结果需要计算轮廓系数,低通和高通滤波器用于轮廓分解,低通和高通滤波器的输出和轮廓系数方程为:
上式(14)和(15)中n表示信号的下标,g表示低通滤波器系数,h表示高通滤波器系数;(K由滤波器的抽头数决定,根据实际情况可取16阶,8阶等等);
对每一层图像进行变换之后,图像被分成{LL,LH,HL,HH}4个子带,由于图像边缘等信息只存在高频子带中,所以只提取HH子带图像X参与聚焦函数计算。
经过测试,将第2层的HH子带,和第3层的HH子带相加后,可以较好的对图像的清晰度进行评价,其评价曲线呈现出较好的单峰型,无偏性;聚焦评价函数如下式所示:
G=g2+g3 (18);
上式(16)、(17)和(18)中g2表示第二层的HH子带和,g3表示第三层的HH子带和,G表示聚焦评价函数值。
(四)、图像检测区域选择
由于图像的成像结果主要为图9所示图案,因此可以对图像进行处理,从而进行指定区域的聚焦评价,从而减少无效区域对聚焦评价结果的影响。具体方法为:对图像进行水平和竖直方向的灰度值进行统计,得出一个直方图,其类似下图10;由此可以得出需要检测的范围,可以确定一个大概坐标范围,为两个槽交叉的位置如下图11所示;从而缩小了检测范围,减少了运算量,提升了速度。
如图12所示,上述图像检测区域选择的算法流程为:
1)从相机得到原图像的灰度图像;
2)统计水平和竖直方向上每行的灰度值累加和,记为一个数组sum(类似求直方图);
3)对于水平方向和竖直方向,分别设定一个阈值,在每个方向找出sum小于阈值的m个点的位置坐标(m视情况而定);
4)对于步骤3)中的位置坐标,设水平方向上坐标最大和最小的两个点的坐标为x1,x2,竖直方向上坐标最大和最小的两个点的坐标为y1,y2
5)将上述步骤4)中四个点的坐标分别向两边扩大n个像素点(视情况而定),设xx1=x1-n,xx2=x2+n,yy1=y1-n,yy2=y2+n;
(6)由此可以获得聚焦评价函数的计算范围,即原图像中范围为xx1-xx2,yy1-yy2的图像。
本发明构思合理,能够快速、精确的给出焦点的位置,提高了PCR仪检测系统的精确度和对焦速度。

Claims (8)

1.一种基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,具体包括以下步骤:
(一)对焦模块设计
照明光源在一端,其发出的光线经生物芯片,再经过物镜进入相机,物镜起到对焦的作用,由自动三维平台控制物镜位置;
(二)对焦策略拟定
通过事先测量好焦点位置,经过BP神经网络进行训练获得稳定的映射,之后在对焦过程中,测量几个位置后确定其所属的函数类型,获得预先测量好的焦点位置;
(三)聚焦函数选择
使用超小波中的轮廓波,作为图像聚焦评价处理函数,其测量值作为神经网络的输入;
(四)图像检测区域选择
对图像进行水平和竖直方向的灰度值进行统计,得出一个直方图,得出需要检测的范围,确定一个大概坐标范围。
2.如权利要求1所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,所述步骤(二)中是使用BP神经网络来预测焦点,具体为:(1)测量固定位置的聚焦函数评价值,以及平均灰度值,曝光时间作为输入;(2)手动测量焦点位置作为输出,然后进行训练,来达到模拟这一映射的功能,之后使用一些的方法,向左右移动,检测是否处于焦点位置。
3.如权利要求1所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,所述BP网络结构如下:输入层为5个节点,隐含层为100个神经元,输出层为1个神经元;隐含层的激活函数为对数S形转移函数,输出层的激活函数为线性函数,训练函数为梯度下降函数,采用L-M优化算法;迭代次数为1500次,学习率为0.01;根据数字PCR仪的使用环境,输入层的5个输入参数分别为位置为s0时的聚焦评价值、位置为s1时的聚焦评价值、位置为s2时的聚焦评价值、平均灰度值和曝光时间。
4.如权利要求1所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,所述BP网络结构的训练步骤如下:
(1)选取100组不同的h,q组合,作为100个类别;
(2)对于每组类别,选取固定位置的三个p0,p1,p2,测量其聚焦评价值作为s0,s1,s2,测量曝光时间t0,t1,t2,平均灰度值d0,d1,d2
(3)计算s0,s1,s2的平均曝光时间t=(t0+t1+t2)/3,及平均灰度值d=(d0+d1+d2)/3;
(4)对于每组类别,测量其聚焦函数的图像,即移动镜片,测量其聚焦函数值,并找出其峰值的位置p3,聚焦评价值s3
(5)对于获得的100组s0,s1,s2,d,t,使用y=(x-min)/(max-min)进行归一化,其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y,归一化后s0,s1,s2,d,t作为输入向量,p3为输出向量;
(6)将此100组数据作为输入进行训练;
(7)训练过程按照BP网络训练步骤训练,具体步骤包括:①输入模式顺传播,即输入模式由输入层经隐含层向输出层传播计算;②输出误差逆传播,即输出的误差由输出层经隐含层传向输入层;③循环记忆训练,即所述模式顺传播与误差逆传播的计算过程反复交替循环进行;④学习结果判别,即判定全局误差是否趋向极小值或是否已达到设定的最大迭代次数。
5.如权利要求4所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于:所述①输入模式顺传播主要是利用输入模式求出它所对应的实际输出,确定输入向量X:
<mrow> <msub> <mi>X</mi> <mi>k</mi> </msub> <mo>=</mo> <mo>&amp;lsqb;</mo> <msubsup> <mi>x</mi> <mn>1</mn> <mi>k</mi> </msubsup> <mo>,</mo> <msubsup> <mi>x</mi> <mn>2</mn> <mi>k</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>x</mi> <mi>n</mi> <mi>k</mi> </msubsup> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
上式(1)中,k=1,2,…,m;m是学习模式对数(训练模式对数);n是输入层单元数。
确定期望输出向量Y:
<mrow> <msub> <mi>Y</mi> <mi>k</mi> </msub> <mo>=</mo> <mo>&amp;lsqb;</mo> <msubsup> <mi>y</mi> <mn>1</mn> <mi>k</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mn>2</mn> <mi>k</mi> </msubsup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msubsup> <mi>y</mi> <mi>q</mi> <mi>k</mi> </msubsup> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
上式(2)中,k=1,2,…,m;m是学习模式对数(训练模式对数);q为输出层单元数。
计算隐含层各神经元的激活值s:
<mrow> <msub> <mi>S</mi> <mi>j</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mi>j</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
上式(3)中,n是输入层单元数;w是输入层至隐含层的连接权值;θ是隐含层单元的阈值;j=1,2…p,p是隐含层单元数。
激活函数采用s型函数:
<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
计算隐含层j单元的输出值:将上面的激活值即公式(3)代入激活函数即公式(4)中可得隐含层j单元的输出值:
<mrow> <msub> <mi>b</mi> <mi>j</mi> </msub> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>(</mo> <mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>+</mo> <msub> <mi>&amp;theta;</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
阈值θ在学习过程中与权值w一样也不断地被修正。
计算输出层第t个单元的激活值o:
<mrow> <msub> <mi>o</mi> <mi>t</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>p</mi> </munderover> <mrow> <mo>(</mo> <msub> <mi>w</mi> <mrow> <mi>j</mi> <mi>t</mi> </mrow> </msub> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mi>t</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
计算输出层第t个单元的实际输出值c:
ct=ot (7)
上式(6)和(7)中,w是隐含层至输出层的权值;θ是输出层单元阈值;j=1,2…p,p是隐含层单元数;x为隐含层第j个节点的输出值;f是s型激活函数,t=1,2…,q,q为输出层单元数;
利用以上所述公式(1)-(7)即可计算出一个输入模式的顺传播过程;
所述②输出误差的逆传播:即在所述模式顺传播计算中得到了网络的实际输出值,当这些实际的输出值与希望的输出值不一样或者误差大于所限定的数值时,就要对网络进行校正;所述校正是从前往后进行的,计算时是从输出层到隐含层,再从隐含层到输入层;
输出层的校正误差:
<mrow> <msubsup> <mi>d</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>-</mo> <msubsup> <mi>c</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>o</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow> 2
上式(8)中,t=1,2,…,q,q是输出层单元数;k=1,2,…,m,m是训练(学习)模式对数;y是希望输出;c是实际输出;f’()是对输出函数的导数。
隐含层各单元的校正误差:
<mrow> <msubsup> <mi>e</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>q</mi> </munderover> <msub> <mi>w</mi> <mrow> <mi>j</mi> <mi>t</mi> </mrow> </msub> <msubsup> <mi>d</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <msup> <mi>f</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>s</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
上式(9)中,t=1,2,…,q,q是输出层单元数;j=1,2,…,p;p是隐含层单元数;k=1,2,…,m,m是训练(学习)模式对数。
对于输出层至隐含层连接权和输出层阈值的校正量:
<mrow> <msub> <mi>&amp;Delta;v</mi> <mrow> <mi>j</mi> <mi>t</mi> </mrow> </msub> <mo>=</mo> <msubsup> <mi>&amp;alpha;d</mi> <mi>t</mi> <mi>k</mi> </msubsup> <msubsup> <mi>b</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>&amp;Delta;&amp;gamma;</mi> <mi>t</mi> </msub> <mo>=</mo> <msubsup> <mi>&amp;alpha;d</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
上式(10)和(11)中,b是隐含层j单元的输出;d是输出层的校正误差;j=1,2…,p;t=1,2,…,q;k=1,2,…,m;α为输出层至隐含层学习率,α>0;
隐含层至输入层的校正量:
<mrow> <msub> <mi>&amp;Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msubsup> <mi>&amp;beta;e</mi> <mi>j</mi> <mi>k</mi> </msubsup> <msubsup> <mi>x</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>&amp;Delta;&amp;theta;</mi> <mi>j</mi> </msub> <mo>=</mo> <msubsup> <mi>&amp;beta;e</mi> <mi>j</mi> <mi>k</mi> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
上式(12)和(13)中,e是隐含层j单元的校正误差;x是标准输入,i=1,2,…,n,n是输入层单元数;β为隐含层至输入层学习率,0<β<1;
所述③循环记忆训练:即为使网络的输出误差趋向于极小值,对于BP网输入的每一组训练模式要经过数百次甚至上万次的循环记忆训练,使网络记住这一模式,这种循环记忆实际上就是反复重复上面介绍的输入模式顺传播和输出误差逆传播;
所述④学习结果的判别:即当每次循环记忆训练结束后进行学习结果的判别,以检查输出误差是否已经小到可以允许的程度,如果小到可以允许的程度,就结束整个学习过程,否则继续进行循环训练。
6.如权利要求4所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于:所述BP网络结构经训练后,对焦流程如下:
(1)驱动自动三维平台,使镜片移动到三个距离相等的位置,分别测得三个位置的聚焦评价值ss0,ss1,ss2,曝光时间tt0,tt1,tt2,平均灰度值dd0,dd1,dd2
(2)计算平均曝光时间tt=(tt0+tt1+tt2)/3,及平均灰度值dd=(dd0+dd1+dd2)/3;
(3)将ss0,ss1,ss2,tt,dd作为输入,经过神经网络计算到输出层,得到输出层的值c,c即为焦点位置预测坐标;
(4)驱动自动三维平台将透镜移动到c处;
(5)记当前位置为n,从当前位置n开始,将镜片向左和右分别移动三次相同的距离a,并测量聚焦评价值;如果遇到比当前值大的位置,记为n,并重复本步骤,直到两边评价值都比n小为止。
7.如权利要求1所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,所述步骤(三)聚焦函数选择中的所述轮廓波的变换方法为:先构建离散域,然后扩展到稀疏连续域,在每一层的拉普拉斯金字塔产生一个低通输出和一个带通输出,然后将带通输出经过方向滤波器组,输出小波系数,低通输出再次通过拉普拉斯金字塔,获得更多的系数,直到获得较好的图像细节;
所述轮廓波变换中的信号‘X’由通过一系列的低通和高通滤波器计算得出,所述低通和高通滤波器的计算结果需要计算轮廓系数,滤波器的输出和轮廓系数方程为:
<mrow> <msub> <mi>Y</mi> <mrow> <mi>l</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>&amp;lsqb;</mo> <mi>n</mi> <mo>&amp;rsqb;</mo> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mo>-</mo> <mi>K</mi> </mrow> <mi>K</mi> </munderover> <mi>x</mi> <mo>&amp;lsqb;</mo> <mi>k</mi> <mo>&amp;rsqb;</mo> <mi>g</mi> <mo>&amp;lsqb;</mo> <mn>2</mn> <mi>n</mi> <mo>-</mo> <mi>k</mi> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>Y</mi> <mrow> <mi>b</mi> <mi>a</mi> <mi>n</mi> <mi>d</mi> </mrow> </msub> <mo>&amp;lsqb;</mo> <mi>n</mi> <mo>&amp;rsqb;</mo> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mo>-</mo> <mi>K</mi> </mrow> <mi>K</mi> </munderover> <mi>x</mi> <mo>&amp;lsqb;</mo> <mi>k</mi> <mo>&amp;rsqb;</mo> <mi>h</mi> <mo>&amp;lsqb;</mo> <mn>2</mn> <mi>n</mi> <mo>-</mo> <mi>k</mi> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
上式(14)和(15)中n表示信号的下标,g表示低通滤波器系数,h表示高通滤波器系数;
对每一层图像进行变换之后,图像被分成{LL,LH,HL,HH}4个子带,LL为低低输入图像,LH为低高输入图像,HL为高低输入图像,HH为高高输入图像,由于图像边缘信息只存在高频子带中,所以只提取HH子带图像X参于聚焦函数计算;
经过测试,将第2层的HH子带和第3层的HH子带相加后,对图像的清晰度进行评价,聚焦评价函数为:
<mrow> <msub> <mi>g</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>X</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mi>n</mi> <mo>/</mo> <mn>2</mn> </mrow> <mi>n</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mi>m</mi> <mo>/</mo> <mn>2</mn> </mrow> <mi>m</mi> </munderover> <msub> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
<mrow> <msub> <mi>g</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mover> <mi>X</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mi>n</mi> <mo>/</mo> <mn>2</mn> </mrow> <mi>n</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mi>m</mi> <mo>/</mo> <mn>2</mn> </mrow> <mi>m</mi> </munderover> <msub> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>17</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
G=g2+g3 (18);
上式(16)、(17)和(18)中g2表示第二层的HH子带和,g3表示第三层的HH子带和,G表示聚焦评价函数值。
8.如权利要求1所述的基于神经网络的微滴式PCR仪自动对焦方法,其特征在于,所述图像检测区域选择的具体流程为:
1)从相机得到原图像的灰度图像;
2)统计水平和竖直方向上每行的灰度值累加和,记为一个数组sum;
3)对于水平方向和竖直方向,分别设定一个阈值,在每个方向找出sum小于阈值的m个点的位置坐标;
4)对于所述步骤3)中所述的位置坐标,设水平方向上坐标最大和最小的两个点的坐标为x1,x2,竖直方向上坐标最大和最小的两个点的坐标为y1,y2
5)将上述步骤4)中四个点的坐标分别向两边扩大n个像素点,设xx1=x1-n,xx2=x2+n,yy1=y1-n,yy2=y2+n;
6)获得聚焦评价函数的计算范围,即原图像中范围为xx1-xx2,yy1-yy2的图像。
CN201710742287.9A 2017-08-25 2017-08-25 一种基于神经网络的微滴式pcr仪自动对焦方法 Expired - Fee Related CN107329233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710742287.9A CN107329233B (zh) 2017-08-25 2017-08-25 一种基于神经网络的微滴式pcr仪自动对焦方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710742287.9A CN107329233B (zh) 2017-08-25 2017-08-25 一种基于神经网络的微滴式pcr仪自动对焦方法

Publications (2)

Publication Number Publication Date
CN107329233A true CN107329233A (zh) 2017-11-07
CN107329233B CN107329233B (zh) 2019-10-11

Family

ID=60228363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710742287.9A Expired - Fee Related CN107329233B (zh) 2017-08-25 2017-08-25 一种基于神经网络的微滴式pcr仪自动对焦方法

Country Status (1)

Country Link
CN (1) CN107329233B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875141A (zh) * 2018-05-24 2018-11-23 上海集成电路研发中心有限公司 一种基于神经网络模型确定芯片全掩模聚焦参数的方法
CN111147737A (zh) * 2019-12-11 2020-05-12 广东工业大学 一种基于rbf神经网络的自动对焦方法及装置
CN114866688A (zh) * 2022-04-02 2022-08-05 深圳市爱为物联科技有限公司 一种工地用安防变倍球机中自动聚焦快速收敛的方法
CN115184999A (zh) * 2022-07-06 2022-10-14 吉林大学 基于深度学习的Marchenko成像聚焦函数校正方法
TWI792582B (zh) * 2021-09-27 2023-02-11 海華科技股份有限公司 鏡頭對焦系統、鏡頭對焦方法以及圖表顯示結構

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101387734A (zh) * 2007-09-14 2009-03-18 三星电子株式会社 用于自动聚焦的方法和设备
US20150213599A1 (en) * 2014-01-25 2015-07-30 Pangea Diagnostics Ltd. Automated histological diagnosis of bacterial infection using image analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101387734A (zh) * 2007-09-14 2009-03-18 三星电子株式会社 用于自动聚焦的方法和设备
US20150213599A1 (en) * 2014-01-25 2015-07-30 Pangea Diagnostics Ltd. Automated histological diagnosis of bacterial infection using image analysis

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUOJIN CHEN ET AL: "Research on image autofocus system based on neural network", 《PROCEEDINGS OF SPIE》 *
郏东耀等: "基于小波神经网络的自动调焦方法研究", 《电子测量与仪器学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875141A (zh) * 2018-05-24 2018-11-23 上海集成电路研发中心有限公司 一种基于神经网络模型确定芯片全掩模聚焦参数的方法
CN111147737A (zh) * 2019-12-11 2020-05-12 广东工业大学 一种基于rbf神经网络的自动对焦方法及装置
TWI792582B (zh) * 2021-09-27 2023-02-11 海華科技股份有限公司 鏡頭對焦系統、鏡頭對焦方法以及圖表顯示結構
CN114866688A (zh) * 2022-04-02 2022-08-05 深圳市爱为物联科技有限公司 一种工地用安防变倍球机中自动聚焦快速收敛的方法
CN115184999A (zh) * 2022-07-06 2022-10-14 吉林大学 基于深度学习的Marchenko成像聚焦函数校正方法
CN115184999B (zh) * 2022-07-06 2024-04-19 吉林大学 基于深度学习的Marchenko成像聚焦函数校正方法

Also Published As

Publication number Publication date
CN107329233B (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
CN107329233B (zh) 一种基于神经网络的微滴式pcr仪自动对焦方法
CN106846463B (zh) 基于深度学习神经网络的显微图像三维重建方法及系统
CN108764006B (zh) 一种基于深度强化学习的sar图像目标检测方法
CN109102515A (zh) 一种基于多列深浅卷积神经网络的细胞计数方法
CN109598704B (zh) 一种基于bp神经网络的粪便显微图像清晰度评价方法
CN110781736A (zh) 基于双流网络将姿态和注意力相结合的行人重识别方法
CN111797920B (zh) 门控特征融合的深度网络不透水面遥感提取方法及系统
CN116612092A (zh) 一种基于改进的MobileViT网络的显微镜图像清晰度评价方法
CN115131503A (zh) 一种虹膜三维识别的健康监测方法及其系统
CN117237986A (zh) 一种基于改进YOLOv7模型的鱼类目标个体位置检测方法
CN111798404A (zh) 基于深度神经网络的虹膜图像质量评估方法及评估系统
Tuccillo et al. Deep learning for studies of galaxy morphology
Zhang et al. Automatic focusing method of microscopes based on image processing
CN118296949A (zh) 一种基于深度神经网络的piv流场压力预测方法及系统
Wang et al. ABC-NET: Avoiding Blocking Effect & Color Shift Network for Single Image Dehazing Via Restraining Transmission Bias
Mustafa et al. Evaluating convolution neural network optimization algorithms for classification of cervical cancer macro images
CN117152601A (zh) 一种基于动态感知区域路由的水下目标检测方法及系统
CN117788810A (zh) 一种无监督语义分割的学习系统
CN113657438B (zh) 一种热红外模式下vgg神经网络的排水管道病害检测方法
Pan et al. User-Independent, Accurate and Pixel-Wise DIC Measurements with a Task-Optimized Neural Network
CN116503593A (zh) 一种基于深度学习的视网膜oct图像积液分割方法
NL2029191B1 (en) Autonomous underwater vehicle -based method and system for counting fish resources in river
Rao et al. Image Classification of Ischemic Stroke Blood Clot Origin using Stacked EfficientNet-B0, VGG19 and ResNet-152
CN110942448B (zh) 一种基于卷积神经网络的定量相位图像识别方法
Zheng GPNRBNN: A robot image edge detection method based on Gaussian positive-negative radial basis neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20191011