CN108388874B - 基于图像识别与级联分类器的对虾形态参数自动测量方法 - Google Patents

基于图像识别与级联分类器的对虾形态参数自动测量方法 Download PDF

Info

Publication number
CN108388874B
CN108388874B CN201810180586.2A CN201810180586A CN108388874B CN 108388874 B CN108388874 B CN 108388874B CN 201810180586 A CN201810180586 A CN 201810180586A CN 108388874 B CN108388874 B CN 108388874B
Authority
CN
China
Prior art keywords
image
prawn
obtaining
segmentation
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810180586.2A
Other languages
English (en)
Other versions
CN108388874A (zh
Inventor
刘向荣
龚瑞
毛勇
金烨楠
柳娟
曾湘祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201810180586.2A priority Critical patent/CN108388874B/zh
Publication of CN108388874A publication Critical patent/CN108388874A/zh
Application granted granted Critical
Publication of CN108388874B publication Critical patent/CN108388874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像采集及识别技术领域,具体涉及基于图像识别与级联分类器的对虾形态参数自动测量方法,包括S1、采集多个对虾彩色图像作为样本;S2、并将各个样本进行训练后再进行分类,获得基于LBP特征的级联强分类器;S3、采集待测对虾彩色图像A经过归一化校正,得到归一化图像B;S4、将归一化图形进行图像分割,得到分割图像B;S5、将步骤S4得到的分割图像C进行标尺测量,得到测量图像D;S6、将步骤S5得到的测量图像D进行图像校正,得到校正图像E;S7、使用级联强分类器识别校正图像E,计算出待测对虾的形态参数。本发明通过上述算法,从而能够精准实现对虾形态参数的精准测量。能够提高测量精准度和测量效率。

Description

基于图像识别与级联分类器的对虾形态参数自动测量方法
技术领域
本发明涉及图像采集及识别技术领域,具体涉及基于图像识别与级联分类器的对虾形态参数自动测量方法。
背景技术
随着社会经济的高度发展,人们对对虾的需求量也持续加大,而对对虾的外部形态是辨识物种的重要依据,也是揭示对虾生长性能和健康程度的重要参考。我国拥有凡纳滨对虾、斑节对虾、日本囊对虾和中国对虾等多个对虾养殖品种,自1997年开始了对虾种业创新,2004年育成我国第一个对虾新品种”黄海1号”,目前已育成十多个具有优良经济性状的对虾新品种,如凡纳滨对虾快速生长新品种“桂海1号”、日本囊对虾快速生长新品种“闽海1号”等。然而,如何评价对虾种质创新进程中的选育效果,如何从形态上区分良种和未经选育的“土苗”,已成为对虾遗传育种研究中高度关注的重要问题。
多变量形态度量学方法常用来对不同物种、不同地理种群的虾类进行形态差异分析,为物种区分、良种选育和优良种质鉴定等提供理论依据。目前用于对虾体长等形态数据测量的器具主要是游标卡尺、圆规或直尺等,工作效率低、工作量巨大,特别是不同的测量者之间测量误差过大,导致不同来源的数据合并分析准确性较差。因而,依据不同世代的数据、不同地域的数据乃至同一地域不同测量者之间的数据开展遗传评定或联合育种将达不到应有的育种效果。另外,在对虾群体遗传学和对虾育种研究过程中,往往需要在家系或群体水平上开展对虾体长等形态参数的大样本测量分析。所以,急需要建立新的测量技术,统一测量标准,减少测量工作强度,提高测量效率和准确性。
研发物种形态参数的图像测量技术是近年来重要发展方向,目前具有中国专利申请201110344032.X基于机器视觉的南美白对虾病害识别方法,通过首先判断识别对象是不是所要的目标,通过对获取二值化处理之后的面积特征参数和进行边缘检测处理之后的边缘特征参数的提取,进而构造了所要的圆形度形状特征参数,并通过颜色和圆形度特征参数作为神经网络分类算法的训练参数和分类数据源,从而来进行虾的病害识别。但是该方法是通过获取图形的颜色特征参数及面积特征参数,并对目标区域的边缘图像的周长特征进行提取,获得目标区域周长和面积比值,来得到圆形度特征参数,将圆形度特征参数和颜色特征参数径神经网络分类算法训练后分类,获得识别结果。虽然其在图形发生旋转时,使得图像在旋转任意角度之后,不需要对外接矩形进行特征提取,解决图像的旋转带来的多个外接矩形参数提取的问题,但是该方法对通过对目标区域周长和面积的比值计算圆形度特征,再根据圆形度特征参数与颜色特征参数进行训练计算,其入神经网数据源的原始数据已经经过了两级计算过程,计算量大,误差成倍放大,因此其通过大量的数据源的神经网络训练,训练出的分类器误差也是非常大,该方法进行定性判断(是否病害)尚且可行,但是如果需要定量分析,则需要计算出具体的目标图形的客观参数值,则会导致较大误差无法适用,且由于两级计算带来的大量数据处理导致的测量效率较低。
发明内容
为此,需要提供基于图像识别与级联分类器的对虾形态参数自动测量方法,提升测量效率和测量的准确度,且能够对图像测量所获得的原始数据进行精准校正。
为实现上述目的,本发明提供了基于图像识别与级联分类器的对虾形态参数自动测量方法,包括以下步骤:
S1、采集多个对虾彩色图像作为样本,将样本通过机器视觉算法获得样本增强图像、特征测量点的区域截图及标注,完成样本各区域截图特征测量点参数的提取,并完成对样本各区域截图的命名及编号,构建统一坐标轴系统,并匹配各区域截图上特征测量点在统一坐标轴系统上的坐标值;所述区域截图包括对虾图像的头部、头胸甲部及尾部区域。
S2、并将各个样本特征测量点参数作为LBP特征算法的数据源,进行训练后再进行分类,获得基于LBP特征的级联强分类器,具体包括步骤:
S21、运用LBP特征原理进行运算,得到各区域截图的LBP纹理特征向量,具体包括以下步骤:
S211、首先将每一区域截图划分为16×16块小区域;
S212、分别比较每个小区域中的每一像素点(i,j)的灰度值I(i,j)与其相邻的8个像素的灰度值I(i-1,j-1)、I(i-1,j)、I(i-1,j+1)、I(i,j-1)、I(i,j+1)、I(i+1,j-1)、I(i+1,j)、I(i+1,j+1),若灰度值I(i-1,j-1)、I(i-1,j)、I(i-1,j+1)、I(i,j-1)、I(i,j+1)、I(i+1,j-1)、I(i+1,j)、I(i+1,j+1)均大于灰度值I(i,j),则标记该像素点(i,j)的位置为1,否则标记该像素点(i,j)的位置为0,每个小区域的3*3邻域内的8个点经比较产生8位二进制数,即得到该像素点(i,j)的LBP值;
S213、计算每个小区域的直方图,得到每个LBP值出现的频率,然后对该直方图进行归一化处理;
S214、将得到的每个小区域的统计直方图进行连接成为一个特征向量,得到对虾样本各区域截图的LBP纹理特征向量。
S22、训练样本后分类,构建分类器模型,具体方法如下:
S221、将对虾样本进行训练样本编号(x1,y1),...,(xi,yi),...,(xn,yn),其中xi表示第i个样本,yi=0表示为负样本,yi=1表示为正样本,n为训练样本总数;
S222、初始化训练样本的权重;
S223、第一次迭代,首先训练一个弱分类器,计算弱分类器的错误率;选取合适的阈值,使得误差最小;更新样本权重;
S224、经过T次循环后,得到T个弱分类器,按照评价每一个弱分类器的重要性的权重进行加权叠加,最终得到强分类器;
S23、分类器模型验证,获得基于LBP特征的级联强分类器,具体方法如下:
S231、进行多尺度的检测,多尺度检测机制一般有两种策略,一种是不改变搜索窗口的大小,而不断缩放图片,这种方法显然需要对每个缩放后的图片进行区域特征值的运算,效率不高,而另一种方法,是不断初始化搜索窗口size为训练时的图片大小,不断扩大搜索窗口,进行搜索,解决了第一种方法的弱势;
S232、级联强分类器的策略是,将若干个强分类器由简单到复杂排列,经过训练使每个强分类器都有较高检测率,而误识率可以放低。设K是一个级联检测器的层数,D是该级联分类器的检测率,F是该级联分类器的误识率,di是第i层强分类器的检测率,fi是第i层强分类器的误识率。如果要训练一个级联分类器达到给定的F值和D值,只需要训练出每层的d值和f值达到这样:
d^K=D,f^K=F
具体操作方法如下:
1)设定每层最小要达到的检测率d,最大误识率f,最终级联分类器的误识率Ft;
2)P=对虾训练样本,N=非对虾训练样本,D0=1.0,F0=1.0;
3)利用AdaBoost算法在P和N上训练具有ni个弱分类器的强分类器;
4)衡量当前级联分类器的检测率Di和误识率Fi;
5)降低第i层的强分类器阈值;
6)衡量当前级联分类器的检测率Di和误识率Fi;
S24、样本数自动增加与分类器模型开放式更新。新增的样本图片可以直接拿到以前的分类器模型中继续训练,而不是全部重新训练。
S3、采集待测对虾彩色图像A经过归一化校正,得到归一化图像B;
具体包括以下步骤:
S31、在标准光照采集环境采集对虾图像A,分别计算对虾图像A的实际像素宽度W与标准宽度WS的比值αs和对虾图像A的实际像素高度H与其标准高度Hs的比值αr:
Figure BDA0001588667600000041
Figure BDA0001588667600000042
其中,标准宽度WS通常意义下的取值为680,所述标准光照采集环境可为D65光源,色温为6500K。
S32、按下式调整对虾图像A的实际像素宽度W和高度H,得到归一化图像B:
Figure BDA0001588667600000043
Figure BDA0001588667600000044
其中,W、H为图像A的像素宽度与高度,Wd、Hd为图像B的像素宽度与高度,αs、αr为步骤S31所求得的比值。
S4、将归一化图形进行图像分割,得到分割图像B,具体方法如下:
S41、将归一化图像B转换到灰度图像fB1,通过最大类间方差法得到灰度图像fB1的分割阈值,利用二值化函数得到分割图像B1’,并对分割图像B1’运用形态学运算平滑连通域和高斯平滑,得到图像B1;具体步骤如下:
S411、将归一化图像B转换到灰度图像fB1;
S412、对于灰度图像fB1,设灰度图像fB1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fB1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000051
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000052
Figure BDA0001588667600000053
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fB1进行阈值分割,得分割图像B1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000054
其中,fB1(x,y)表示灰度空间图像fB1像素点的取值,T为阈值;
S413、对分割图像B1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像B2';图像B2'中的像素值g1(x,y)为:
g1(x,y)=erode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像B1’中的像素值,element定义为形态学运算中的结构元素;dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;bitwise_not定义为对图像的每一个像素点的取反操作。
S414、对图像B2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像B1;图像B1中的像素值g2(x,y)为:
g2(x,y)={g1(x-1,y-1)+g1(x-1,y+1)+g1(x+1,y-1)+g1(x+1,y+1)+[g1(x-1,y)+g1(x,y-1)+g1(x+1,y)+g1(x,y+1)]*2+g1(x,y)*4}/16
其中,g1(x,y)为图像B2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S42、将步骤S41得到的图像B1进行一次轮廓检测,然后根据轮廓面积大小去除一些噪音轮廓,并对去除之后的轮廓求得外接矩形,这个外接矩形的像素位置就是我们需要分割的图像位置,最后在图像B中分割相应位置得到分割图像C。具体步骤如下:
S421、将步骤S41得到的图像B1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S422、对S421中得到的每个连通域连接点(Si)计算其面积
Figure BDA0001588667600000064
与图像B1的面积areaB1的比例:area=areaSi/areaB1,删除面积比小于0.02的连通域连接点;否则将其加入到轮廓点的集合Set中;
S423、计算整个连通域轮廓点集合Set的外接矩形(包括了外接矩形左上角坐标(x0,y0)以及外接矩形的宽w和高h),在图像B中分割相应位置的外接矩形得到分割图像C。
S5、将步骤S4得到的分割图像C进行标尺测量,并抹去标尺,得到抹去标尺测量图像D;具体步骤如下:
S51、将分割图像C分别转换到灰度图像fC1(取RGB三个通道的某一个通道),通过最大类间方差法得到灰度图像fC1的分割阈值,然后利用二值化函数得到分割图像C1’,并对分割图像C1’运用形态学运算平滑连通域和高斯平滑运算,得到图像C1,具体步骤如下:
S511、将分割图像C转换到灰度图像fC1;
S512、对于灰度图像fC1,设灰度图像fC1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fC1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000061
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000062
Figure BDA0001588667600000063
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fC1进行阈值分割,得分割图像C1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000071
其中,fC1(x,y)表示灰度空间图像fC1像素点的取值,T为阈值;
S513、对分割图像C1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像C2';图像C2'中的像素值g1(x,y)为:
g1(x,y)=erode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像=C1’中的像素值,element定义为形态学运算中的结构元素;
dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;
bitwise_not定义为对图像的每一个像素点的取反操作。
S514、对图像C2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像C1;图像C1中的像素值g2(x,y)为:
g2(x,y)={g1(x-1,y-1)+g1(x-1,y+1)+g1(x+1,y-1)+g1(x+1,y+1)+[g1(x-1,y)+g1(x,y-1)+g1(x+1,y)+g1(x,y+1)]*2+g1(x,y)*4}/16
其中,g1(x,y)为图像C2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S52、将S51中得到的图像C1进行一次轮廓检测操作,然后使用多边形轮廓逼近函数来逼近轮廓,用一个多边形来近似表示一个轮廓,目的是减少轮廓的顶点数,方便我们寻找矩形标尺。如果说这个多边形是四边形,面积在一定阈值范围内,而且该多边形的四个角的余弦值足够小,则认为该多边形就是矩形,也就是说成功找到了矩形标尺,最后利用矩形的顶点坐标抹去该矩形标尺。具体步骤如下:
S521、将步骤S51中得到的图像C1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S522、对S521中得到的每个连通域连接点(Si)采用多边形轮廓逼近函数得到一个多边形(Sc),计算(Sc)的面积areaSc与图像C1的面积areaC1的比例area:area=areaSc/areaC1。接下来采用以下几个步骤判断(Sc)是否为矩形:
a)、判断(Sc)是否有四条边,如果是继续往下,否则的话判断下一个轮廓;
b)、判断area是否在0.2至0.8之间,如果是继续往下判断,否则的话判断下一个轮廓;
c)、判断(Sc)的四个角的余弦值是否足够小,如果是则认为找到矩形标尺并退出判断,否则的话判断下一个轮廓;
S523、对步骤S522找到的矩形标尺,知道其四个顶点在图中的坐标(分别为(x0,y0),(x0,y1),(x1,y0),(x1,y1))。根据下面的公式计算,得到抹去标尺的图像D并且记录标尺的宽WS=x1-x0和高HS=y1-y0;图像D中的像素值g(x,y)为:
Figure BDA0001588667600000081
S6、将步骤S5得到的测量图像D进行图像校正,得到校正图像E;具体方法如下:
S61、将图像D转换到灰度图像fD1,通过最大类间方差法得到灰度图像fD1的分割阈值,然后利用二值化函数得到分割图像D1’,并对分割图像D1’运用形态学运算平滑连通域和高斯平滑运算,得到图像D1;具体方法如下:
S611、将归一化图像D转换到灰度图像fD1;
S612、对于灰度图像fD1,设灰度图像fD1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fB1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000082
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000083
Figure BDA0001588667600000084
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fD1进行阈值分割,得分割图像D1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000085
其中,fC1(x,y)表示灰度空间图像fD1像素点的取值,T为阈值;
S613、对分割图像D1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像D2';图像D2'中的像素值g1(x,y)为:
g1(x,y)Cerode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像D1’中的像素值,element定义为形态学运算中的结构元素;
dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;
bitwise_not定义为对图像的每一个像素点的取反操作。
S614、对图像D2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像D1;图像D1中的像素值g2(x,y)为:
g2(x,y)={g1(x-1,y-1)+g1(x-1,y+1)+g1(x+1,y-1)+g1(x+1,y+1)+[g1(x-1,y)+g1(x,y-1)+g1(x+1,y)+g1(x,y+1)]*2+g1(x,y)*4}/16
其中,g1(x,y)为图像D2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S62、将步骤S61得到的图像D1进行一次轮廓检测操作,然后根据轮廓面积大小去除一些噪音轮廓,并对去除之后的轮廓求得最小外接矩形,这个最小外接矩形的倾斜角度就是图片校正的角度,最后把图像D旋转相应的角度得到校正图像E。具体步骤如下:
S621、将步骤S61得到的图像B1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S622、对步骤S621中得到的每个连通域连接点(Si)计算其面积
Figure BDA0001588667600000091
与图像B1的面积areaB1的比例:area=areaSi/areaB1,删除面积比小于0.02的连通域连接点;否则将其加入到轮廓点的集合Set中;
S623、计算整个连通域轮廓点集合Set的最小外接矩形,得到该最小外接矩形的倾斜角α,将图像D相应地旋转α角度(α>0顺时针旋转,α<0逆时针旋转)得到校正图像E。
S7、使用基于LBP特征的级联强分类器识别校正图像E,计算出待测对虾的形态参数。分别得到头部、头胸甲部、尾部在校正图像E的具体矩形位置P1、P2、P3。利用这些位置就可以得到头胸甲的坐标宽度、眼抦基部的坐标、第一腹节点的坐标和尾节末端的坐标。最好根据步骤S5中得到的矩形标尺的实际宽度、高度和坐标宽度、高度的比值得到实际的头胸甲长、头胸甲宽以及体长。具体步骤如下:
S71、利用训练完成的基于LBP特征的级联分类器来识别校正图像E,分别得到头部、头胸甲部、尾部在校正图像E的具体矩形位置P1、P2、P3。如果虾头在左侧,则P1、P2、P3右侧边的中点的坐标就是所求眼抦基部的坐标(x0,y0)、第一腹节点的坐标(x1,y1)和尾节末端的坐标(x2,y2),否则的话则相反。P2的高度其实就是头胸甲宽的坐标长度C。
S72、由步骤S5中的步骤S52可以得知矩形标尺的实际宽高(95.34mm*9.77mm)与坐标宽Ws高Hs,分别计算两者的宽比值αw以及高比值αh
Figure BDA0001588667600000101
Figure BDA0001588667600000102
S73、根据αw、αh求得实际的头胸甲长Cr、头胸甲宽Ch以及体长L:
Figure BDA0001588667600000103
Ch=C*αh
Figure BDA0001588667600000104
进一步的,步骤S1中,所述对虾彩色图像为包含有对虾、背景为浅色、不与对虾颜色相近、曝光均匀的图片。可以设置拍照设备的背景为浅色系,标尺为深色系,且不与对虾颜色相近。
区别于现有技术,上述技术方案具有以下有益效果:
1、本发明将图像测量技术与机器学习等人工智能技术相结合,图像测量时实现智能识别、智能测量和自动录入数据,从而极大提升测量效率和测量的准确度。能够实现图像测量所需特征测量点的准确识别,通过智能识别的适用算法能够实现对虾形态参数的自动测量,本发明的测量方法在进行训练样本采集过程中,对样本图片进行各区域截图,并构建统一坐标系统,将匹配各区域截图上特征测量点在统一坐标轴系统上的坐标值,基于统一坐标值能够实现对样本区域截图的精准溯源,从而作为分类器训练数据源的数据更为精准和统一,避免了多次运算对比后数据输入的误差级数放大问题,精准的数据源训练出处理能力更为强大和有效的分类器,而在待测端,同样采用待测对虾图片的区域截图进入分类器精准匹配,从而能够精准实现对虾形态参数的精准测量。本发明通过上述算法,能够提高测量精准度和测量效率。
2、本发明通过设定拍摄背景及拍摄采光环境参数,提高了智能识别特征测量点所需要的图像质量,特别增强了特征测量点的反差和可辨识性。
3、本发明能够对图像测量所获得的原始数据进行校正,当所拍摄对象稍微倾斜、弯曲时,原始测量数据能够得到自动精准校正。
4、本发明能够自动测量海量数据,并将测量数据自动录入到Excel,从而提高测量效率,起到“即拍即录”或者快速批量录入的效果。
附图说明
图1为本发明实施例的采集对虾彩色图像的拍摄装置示意图。
图2为本发明实验实例中的检测矩形图。
图3为本发明实验实例中的对虾三点图。
图4为本发明实验实例中的对虾校正后三点图。
图5为本发明实验实例中的对虾提成真实值-预测值关系散点图。
图6为本发明实验实例中的对虾头胸甲长真实值-预测值关系散点图。
图7为本发明实验实例中的对虾头胸甲宽真实值-预测值关系散点图。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
请参阅图1,本实施例的基于图像识别与级联分类器的对虾形态参数自动测量方法,该方法的主要特征是首先基于机器视觉算法原理进行对虾图像增强和特征测量点的提取,然后根据这些特征值训练得到强分类器,利用该强分类器可以获得对虾体长、头胸甲长及头胸甲宽等形态参数的原始数据,然后基于对虾轴对称的性质对摆放不正的图像进行旋转校正和数据校正,最后,用实现数据的自动测量及记录。它具有智能识别、智能测量和自动录入等优点,大幅减少了对虾形态参数测量的工作强度、减少了测量误差和提高了测量效率和测量准确性。本发明适用于对虾形态数据的测量研究之中,特别适用于大样本量的对虾群体遗传学分析和遗传育种研究之中。
本方法对于对虾图像的采集规范了拍摄条件与装置,参考图1的采集对虾彩色图像的拍摄装置示意图所示,该装置1拍摄背景2为浅色系,最佳为白色,拍出的照片背景色为白色,采用标尺2为深色系且不与对虾颜色相近,拍照装置是一固定的拍照平台。对于拍照环境采用标准光照采集环境采用D65光源,色温为6500K。
本实施例的基于图像识别与级联分类器的对虾形态参数自动测量方法,包括以下步骤:
S1、采集多个对虾彩色图像作为样本,将样本通过机器视觉算法获得样本增强图像、特征测量点的区域截图及标注,完成样本各区域截图特征测量点参数的提取,并完成对样本各区域截图的命名及编号,构建统一坐标轴系统,并匹配各区域截图上特征测量点在统一坐标轴系统上的坐标值;所述区域截图包括对虾图像的头部、头胸甲部及尾部区域。而对于对虾形态测量主要根据对虾的测定部位依据测定目标而定,主要有以下几项:
(1)体长:从眼柄基部到尾节末端
(2)头胸甲长:眼窝后缘连线中央到头胸甲中线后缘
(3)头胸甲宽:头胸甲最宽处
S2、并将各个样本特征测量点参数作为LBP特征算法的数据源,进行训练后再进行分类,获得基于LBP特征的级联强分类器,具体包括步骤:
S21、运用LBP特征原理进行运算,得到各区域截图的LBP纹理特征向量,具体包括以下步骤:
S211、首先将待测区域截图划分为16×16块小区域;
S212、分别比较每个小区域中的每一像素点(i,j)的灰度值I(i,j)与其相邻的8个像素的灰度值I(i-1,j-1)、I(i-1,j)、I(i-1,j+1)、I(i,j-1)、I(i,j+1)、I(i+1,j-1)、I(i+1,j)、I(i+1,j+1),若灰度值I(i-1,j-1)、I(i-1,j)、I(i-1,j+1)、I(i,j-1)、I(i,j+1)、I(i+1,j-1)、I(i+1,j)、I(i+1,j+1)均大于灰度值I(i,j),则标记该像素点(i,j)的位置为1,否则标记该像素点(i,j)的位置为0,每个小区域的3*3邻域内的8个点经比较产生8位二进制数,即得到该像素点(i,j)的LBP值;
S213、计算每个小区域的直方图,得到每个LBP值(本实施例中设定是十进制数LBP值)出现的频率,然后对该直方图进行归一化处理;
S214、将得到的每个小区域的统计直方图进行连接成为一个特征向量,得到对虾样本各区域截图的LBP纹理特征向量。
S22、训练样本后分类,构建分类器模型,具体方法如下:
S221、给定训练样本(x1,y1),...,(xi,yi),...,(xn,yn),其中xi表示第i个样本(头部、头胸甲部或尾部),yi=0表示为负样本,yi=1表示为正样本,n为训练样本总数;
S222、初始化训练样本的权重;
S223、第一次迭代,首先训练一个弱分类器,计算弱分类器的错误率;选取合适的阈值,使得误差最小;更新样本权重;
S224、经过T次循环后,得到T个弱分类器,按照评价每一个弱分类器的重要性的权重进行加权叠加,最终得到强分类器;
S23、分类器模型验证,获得基于LBP特征的级联强分类器,具体方法如下:
S231、进行多尺度的检测,多尺度检测机制一般有两种策略,一种是不改变搜索窗口的大小,而不断缩放图片,这种方法显然需要对每个缩放后的图片进行区域特征值的运算,效率不高,而另一种方法,是不断初始化搜索窗口size为训练时的图片大小,不断扩大搜索窗口,进行搜索,解决了第一种方法的弱势;
S232、级联强分类器的策略是,将若干个强分类器由简单到复杂排列,经过训练使每个强分类器都有较高检测率,而误识率可以放低。设K是一个级联检测器的层数,D是该级联分类器的检测率,F是该级联分类器的误识率,di是第i层强分类器的检测率,fi是第i层强分类器的误识率。如果要训练一个级联分类器达到给定的F值和D值,只需要训练出每层的d值和f值达到这样:
d^K=D,f^K=F
具体操作方法如下:
1)设定每层最小要达到的检测率d,最大误识率f,最终级联分类器的误识率Ft;
2)P=对虾训练样本,N=非对虾训练样本,D0=1.0,F0=1.0;
3)利用AdaBoost算法在P和N上训练具有ni个弱分类器的强分类器;
4)衡量当前级联分类器的检测率Di和误识率Fi;
5)降低第i层的强分类器阈值;
6)衡量当前级联分类器的检测率Di和误识率Fi;
S24、样本数自动增加与分类器模型开放式更新。新增的样本图片可以直接拿到以前的分类器模型中继续训练,而不是全部重新训练。
S3、采集待测对虾彩色图像A经过归一化校正,得到归一化图像B;
具体包括以下步骤:
S31、在标准拍照坏境下,并给予拍照平台底部一定的光源,采集对虾图像A,分别计算对虾图像A的实际像素宽度W与标准宽度WS的比值αs和对虾图像A的实际像素高度H与其标准高度Hs的比值αr:
Figure BDA0001588667600000141
Figure BDA0001588667600000142
其中,标准宽度WS通常意义下的取值为680,所述标准光照采集环境可为D65光源,色温为6500K。
S32、按下式调整源图像A的实际像素宽度W和高度H,得到归一化图像B:
Figure BDA0001588667600000143
Figure BDA0001588667600000144
其中,W、H为图像A的像素宽度与高度,Wd、Hd为图像B的像素宽度与高度,αs、αr为步骤S31所求得的比值。
S4、将归一化图形进行图像分割,得到分割图像B,具体方法如下:
S41、将归一化图像B转换到灰度图像fB1,按照最大类间方差法(参见文献)得到灰度图像fB1的分割阈值,然后利用二值化函数得到分割图像B1’,并对分割图像B1’运用形态学运算平滑连通域和高斯平滑,得到图像B1;具体步骤如下:
S411、将归一化图像B转换到灰度图像fB1;
S412、对于灰度图像fB1,设灰度图像fB1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fB1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000145
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000151
Figure BDA0001588667600000152
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fB1进行阈值分割,得分割图像B1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000153
其中,fB1(x,y)表示灰度空间图像fB1像素点的取值,T为阈值;
S413、对分割图像B1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像B2';图像B2'中的像素值g1(x,y)为:
g1(x,y)=erode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像B1’中的像素值,element定义为形态学运算中的结构元素;dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;bitwise_not定义为对图像的每一个像素点的取反操作。
S414、对图像B2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像B1;图像B1中的像素值g2(x,y)为:
g2(x,y)={g1(x-1,y-1)+g1(x-1,y+1)+g1(x+1,y-1)+g1(x+1,y+1)+[g1(x-1,y)+g1(x,y-1)+g1(x+1,y)+g1(x,y+1)]*2+g1(x,y)*4}/16
其中,g1(x,y)为图像B2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S42、将S41得到的图像B1进行一次轮廓检测操作,然后根据轮廓面积大小去除一些噪音轮廓,并对去除之后的轮廓求得外接矩形,这个外接矩形的像素位置就是我们需要分割的图像位置,最后在图像B中分割相应位置得到分割图像C。具体步骤如下:
S421、将步骤S41得到的图像B1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S422、对S421中得到的每个连通域连接点(Si)计算其面积
Figure BDA0001588667600000154
与图像B1的面积areaB1的比例:area=areaSi/areaB1,删除面积比小于0.02的连通域连接点;否则将其加入到轮廓点的集合Set中;
S423、计算整个连通域轮廓点集合Set的外接矩形(包括了外接矩形左上角坐标(x0,y0)以及外接矩形的宽w和高h),在图像B中分割相应位置的外接矩形得到分割图像C。
S5、将步骤S4得到的分割图像C进行标尺测量,并抹去标尺,得到抹去标尺测量图像D;具体步骤如下:
S51、将分割图像C分别转换到灰度图像fC1(取RGB三个通道的某一个通道),按照最大类间方差法(参见文献)得到灰度图像fC1的分割阈值,然后利用二值化函数得到分割图像C1’,并对分割图像C1’运用形态学运算平滑连通域和高斯平滑,得到图像C1,具体步骤如下:
S511、将分割图像C转换到灰度图像fC1;
S512、对于灰度图像fC1,设灰度图像fC1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fC1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000161
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000162
Figure BDA0001588667600000163
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fC1进行阈值分割,得分割图像C1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000164
其中,fC1(x,y)表示灰度空间图像fC1像素点的取值,T为阈值;
S513、对分割图像C1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像C2′;图像C2′中的像素值g1(x,y)为:
g1(x,y)=erode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像=C1’中的像素值,element定义为形态学运算中的结构元素;
dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;
bitwise_not定义为对图像的每一个像素点的取反操作。
S514、对图像C2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像C1;图像C1中的像素值g2(x,y)为:
Figure BDA0001588667600000171
其中,g1(x,y)为图像C2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S52、将S51中得到的图像C1进行一次轮廓检测操作,然后使用多边形轮廓逼近函数来逼近轮廓,用一个多边形来近似表示一个轮廓,目的是减少轮廓的顶点数,方便我们寻找矩形标尺。如果说这个多边形是四边形,面积在一定阈值范围内,而且该多边形的四个角的余弦值足够小,则认为该多边形就是矩形,也就是说成功找到了矩形标尺,最后利用矩形的顶点坐标抹去该矩形标尺。具体步骤如下:
S521、将步骤S51中得到的图像C1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S522、对S521中得到的每个连通域连接点(Si)采用多边形轮廓逼近函数得到一个多边形(Sc),计算(Sc)的面积areaSc与图像C1的面积areaC1的比例area:area=areaSc/areaC1。接下来采用以下几个步骤判断(Sc)是否为矩形:
a)、判断(Sc)是否有四条边,如果是继续往下,否则的话判断下一个轮廓;
b)、判断area是否在0.2至0.8之间,如果是继续往下判断,否则的话判断下一个轮廓;
c)、判断(Sc)的四个角的余弦值是否足够小,如果是则认为找到矩形标尺并退出判断,否则的话判断下一个轮廓;
S523、对步骤S522找到的矩形标尺,知道其四个顶点在图中的坐标(分别为(x0,y0),(x0,y1),(x1,y0),(x1,y1))。根据下面的公式计算,得到抹去标尺的图像D并且记录标尺的宽WS=x1-x0和高HS=y1-y0;图像D中的像素值g(x,y)为:
Figure BDA0001588667600000172
S6、将步骤S5得到的测量图像D进行图像校正,得到校正图像E;具体方法如下:
S61、将图像D转换到灰度图像fD1,按照最大类间方差法(参见文献)得到灰度图像fD1的分割阈值,然后利用二值化函数得到分割图像D1’,并对分割图像D1’运用形态学运算平滑连通域和高斯平滑,得到图像D1;具体方法如下:
S611、将归一化图像D转换到灰度图像fD1;
S612、对于灰度图像fD1,设灰度图像fD1的灰度G的取值范围G=[0,L-1],各灰度值出现的概率为Pi,阈值为T,阈值T对灰度空间图像fB1进行二值化后分成f0和f1:f0=[0,T],f1=[T+1,L-1],f0和f1的概率分别为
Figure BDA0001588667600000181
和α1=1-α0,平均灰度值分别为
Figure BDA0001588667600000182
Figure BDA0001588667600000183
则f0和f1的最大类间方差为:g2(T)=α00-μ)211-μ)2=α0α101)2,其中μ=∑iPi,求出g取最大值时的阈值T,对灰度空间图像fD1进行阈值分割,得分割图像D1’像素点的RGB取值fx,y(r,g,b):
Figure BDA0001588667600000184
其中,fC1(x,y)表示灰度空间图像fD1像素点的取值,T为阈值;
S613、对分割图像D1’运用形态学运算中的闭运算平滑连通域,根据下面两个公式依次计算,得到图像D2';图像D2'中的像素值g1(x,y)为:
g1(x,y)=erode(dilate(f1(x,y),element))
g1(x,y)=bitwise_not(g1(x,y))
其中,f1(x,y)为分割图像D1’中的像素值,element定义为形态学运算中的结构元素;
dilate定义为形态学运算中的膨胀操作;erode定义为形态学运算中的腐蚀操作;
bitwise_not定义为对图像的每一个像素点的取反操作。
S614、对图像D2'运用形态学的高斯平滑去除一些噪声点,根据下面的公式计算,得到图像D1;图像D1中的像素值g2(x,y)为:
Figure BDA0001588667600000185
其中,g1(x,y)为图像D2'中的像素值,x+1与x-1分别表示像素相对右移或者左移一个单位,y+1与y-1分别表示像素相对下移或者上移一个单位。
S62、将步骤S61得到的图像D1进行一次轮廓检测操作,然后根据轮廓面积大小去除一些噪音轮廓,并对去除之后的轮廓求得最小外接矩形,这个最小外接矩形的倾斜角度就是图片校正的角度,最后把图像D旋转相应的角度得到校正图像E。具体步骤如下:
S621、将步骤S61得到的图像B1进行一次轮廓检测操作,得到每个连通域的轮廓连接点(Si);
S622、对步骤S621中得到的每个连通域连接点(Si)计算其面积
Figure BDA0001588667600000193
与图像B1的面积areaB1的比例:area=areaSi/areaB1,删除面积比小于0.02的连通域连接点;否则将其加入到轮廓点的集合Set中;
S623、计算整个连通域轮廓点集合Set的最小外接矩形,得到该最小外接矩形的倾斜角α,将图像D相应地旋转α角度(α>0顺时针旋转,α<0逆时针旋转)得到校正图像E。
S7、使用基于LBP特征的级联强分类器识别校正图像E,计算出待测对虾的形态参数。分别得到头部、头胸甲部、尾部在校正图像E的具体矩形位置P1、P2、P3。利用这些位置就可以得到头胸甲的坐标宽度、眼抦基部的坐标、第一腹节点的坐标和尾节末端的坐标。最好根据步骤S5中得到的矩形标尺的实际宽度、高度和坐标宽度、高度的比值得到实际的头胸甲长、头胸甲宽以及体长。具体步骤如下:
S71、利用训练完成的基于LBP特征的级联分类器来识别校正图像E,分别得到头部、头胸甲部、尾部在校正图像E的具体矩形位置P1、P2、P3。如果虾头在左侧,则P1、P2、P3右侧边的中点的坐标就是所求眼抦基部的坐标(x0,y0)、第一腹节点的坐标(x1,y1)和尾节末端的坐标(x2,y2),否则的话则相反。P2的高度其实就是头胸甲宽的坐标长度C。
S72、由步骤S5中的步骤S52可以得知矩形标尺的实际宽高(95.34mm*9.77mm)与坐标宽Ws高Hs,分别计算两者的宽比值αw以及高比值αh
Figure BDA0001588667600000191
Figure BDA0001588667600000192
S73、根据αw、αh求得实际的头胸甲长Cr、头胸甲宽Ch以及体长L:
Figure BDA0001588667600000201
Ch=C*αh
Figure BDA0001588667600000202
进一步的,步骤S1中,所述对虾彩色图像为包含有对虾、背景为浅色、不与对虾颜色相近、曝光均匀的图片。可以设置拍照设备的背景为浅色系,标尺为深色系,且不与对虾颜色相近。
为了进一步验证本方法的有益效果,本发明还进行了实验实例验证:
首先通过计算机运行上述步骤S1-S5查找绿色矩形条,得知测量比例。参考图2所示,再经运行步骤S6,利用训练好的分类器分别得到尾节末端坐标、眼抦基部的坐标和第一腹节点的坐标,通过这三个点拟合出一条中轴线,如果该中轴线的斜率超过了某个阈值,则需旋转图片(倾斜校正),然后再测试一次得到校正后的数据。如图3所示,图3中的对虾的三点图中轴线有点斜,需要校正。通过步骤S7校正后则如图4所示,完成了最后根据测量比例得知虾的实际体长、头胸甲长、头胸甲宽。
实验实例测量误差分析:
本实验采用300只样本作为结果分析的标本,其中包括了日本囊对虾、凡纳滨对虾、刀额新对虾三个不同品种。事先人工对300只样本进行了测量,记为真实值;计算机视觉得到的值记为测量值。对两者进行模型拟合得到二者之间的关系如下:
(1)体长:
Figure BDA0001588667600000203
表1
Figure BDA0001588667600000204
Figure BDA0001588667600000211
表2
Figure BDA0001588667600000212
表3
Figure BDA0001588667600000213
表4
基于表1-表4计算得到的结果参考图5所示,显示了对虾体长真实值-预测值关系散点图。
(2)头胸甲长:
Figure BDA0001588667600000214
表5
Figure BDA0001588667600000215
Figure BDA0001588667600000221
表6
Figure BDA0001588667600000222
表7
Figure BDA0001588667600000223
表8
基于表5-表8计算得到的结果参考图6所示,对虾头胸甲长真实值-预测值关系散点图(3)头胸甲宽:
Figure BDA0001588667600000224
表9
Figure BDA0001588667600000225
Figure BDA0001588667600000231
表10
Figure BDA0001588667600000232
表11
Figure BDA0001588667600000233
表12
基于表9-表12计算得到的结果参考图7所示,对虾头胸甲宽真实值-预测值关系散点图。
通过上述分析结果可以看出体长、头胸甲长、头胸甲宽的真实值与预测值的相关系数分别为0.987、0.931、0.904(该值越接近1,两个变量之间的关系越紧密),说明该方法非常适用于大样本量的对虾群体遗传学分析和遗传育种研究之中。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括……”或“包含……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的要素。此外,在本文中,“大于”、“小于”、“超过”等理解为不包括本数;“以上”、“以下”、“以内”等理解为包括本数。
尽管已经对上述各实施例进行了描述,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改,所以以上所述仅为本发明的实施例,并非因此限制本发明的专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围之内。

Claims (9)

1.基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,包括以下步骤:
S1、采集多个对虾彩色图像作为样本,将样本通过机器视觉算法获得样本增强图像、特征测量点的区域截图及标注,完成样本各区域截图特征测量点参数的提取,并完成对样本各区域截图的命名及编号,构建统一坐标轴系统,并匹配各区域截图上特征测量点在统一坐标轴系统上的坐标值;
S2、并将各个样本特征测量点参数作为LBP特征算法的数据源,进行训练后再进行分类,获得基于LBP特征的级联强分类器;
S3、采集待测对虾彩色图像A经过归一化校正,得到归一化图像B;
S4、将归一化图形进行图像分割,得到分割图像C;
S5、将步骤S4得到的分割图像C进行标尺测量,并抹去标尺,得到抹去标尺测量图像D;
S6、将步骤S5得到的测量图像D进行图像校正,得到校正图像E;
S7、使用基于LBP特征的级联强分类器识别校正图像E,计算出待测对虾的形态参数。
2.根据权利要求1所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S2具体包括步骤:
S21、运用LBP特征原理进行运算,得到各区域截图的LBP纹理特征向量;
S22、训练样本后分类,构建分类器模型;
S23、分类器模型验证,获得基于LBP特征的级联强分类器。
3.根据权利要求2所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S3具体包括步骤:
S31、在标准光照采集环境下采集对虾图像A,分别计算对虾图像A的实际像素宽度W与标准宽度WS的比值αs和对虾图像A的实际像素高度H与其标准高度Hs的比值αr:
Figure FDA0002303626740000011
Figure FDA0002303626740000012
其中,标准宽度WS取值为680,所述标准光照采集环境为D65光源,色温为6500K;
S32、按下式调整对虾图像A的实际像素宽度W和高度H,得到归一化图像B:
Figure FDA0002303626740000021
Figure FDA0002303626740000022
其中,W、H为图像A的像素宽度与高度,Wd、Hd为图像B的像素宽度与高度,αs、αr为步骤S31所求得的比值。
4.根据权利要求3所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S4具体包括步骤:
S41、将归一化图像B转换到灰度图像fB1,通过最大类间方差法得到灰度图像fB1的分割阈值,利用二值化函数得到第一分割图像B1’,并对第一分割图像B1’运用形态学运算平滑连通域和高斯平滑,得到图像B1;
S42、将步骤S41得到的图像B1进行一次轮廓检测,然后根据轮廓面积大小去除噪音轮廓,求得去除噪音之后的轮廓的外接矩形,在图像B中分割该外接矩形所在的图形区域得到分割图像C。
5.根据权利要求4所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S5具体包括步骤:
S51、将分割图像C分别转换到灰度图像fC1,通过最大类间方差法得到灰度图像fC1的分割阈值,然后利用二值化函数得到分割图像C1’,并对分割图像C1’运用形态学运算平滑连通域和高斯平滑运算,得到图像C1;
S52、将S51中得到的图像C1进行一次轮廓检测,然后使用多边形轮廓逼近函数寻找矩形标尺,最后利用该矩形的顶点坐标抹去该矩形标尺。
6.根据权利要求5所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S6具体包括步骤:
S61、将图像D转换到灰度图像fD1,通过最大类间方差法得到灰度图像fD1的分割阈值,然后利用二值化函数得到分割图像D1’,并对分割图像D1’运用形态学运算平滑连通域和高斯平滑运算,得到图像D1;
S62、将步骤S61得到的图像D1进行一次轮廓检测,然后根据轮廓面积大小去除噪音轮廓,并求得去除噪音之后的轮廓的最小外接矩形,获取最小外接矩形的倾斜角度,把图像D旋转该倾斜角度得到校正图像E。
7.根据权利要求6所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S7具体包括步骤:
S71、利用训练完成的基于LBP特征的级联分类器来识别校正图像E,分别得到区域截图在校正图像E的具体矩形位置Pi,所述区域截图包括对虾图像的头部、头胸甲部及尾部区域,则头部、头胸甲部及尾部在校正图像E的具体矩形位置分别为P1、P2、P3,若虾头在左侧,则头部P1、头胸甲部P2、尾部P3右侧边的中点的坐标就是所求眼抦基部的坐标(x0,y0)、第一腹节点的坐标(x1,y1)和尾节末端的坐标(x2,y2),否则相反,P2的高度就是头胸甲宽的坐标长度C;
S72、由步骤S5中的步骤S52可以得知矩形标尺的实际宽W0和高H0与坐标宽Ws和高Hs,分别计算两者的宽比值αw以及高比值αh
Figure FDA0002303626740000031
Figure FDA0002303626740000032
S73、根据αw、αh求得实际的头胸甲长Cr、头胸甲宽Ch以及体长L:
Figure FDA0002303626740000033
Ch=C*αh
Figure FDA0002303626740000034
8.根据权利要求7所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述矩形标尺的实际宽W0为95.34mm,高H0为9.77mm。
9.根据权利要求1所述的基于图像识别与级联分类器的对虾形态参数自动测量方法,其特征在于,所述步骤S1中,所述对虾彩色图像为包含有对虾、背景为浅色、不与对虾颜色相近、曝光均匀的图片。
CN201810180586.2A 2018-03-05 2018-03-05 基于图像识别与级联分类器的对虾形态参数自动测量方法 Active CN108388874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810180586.2A CN108388874B (zh) 2018-03-05 2018-03-05 基于图像识别与级联分类器的对虾形态参数自动测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810180586.2A CN108388874B (zh) 2018-03-05 2018-03-05 基于图像识别与级联分类器的对虾形态参数自动测量方法

Publications (2)

Publication Number Publication Date
CN108388874A CN108388874A (zh) 2018-08-10
CN108388874B true CN108388874B (zh) 2020-03-31

Family

ID=63069899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810180586.2A Active CN108388874B (zh) 2018-03-05 2018-03-05 基于图像识别与级联分类器的对虾形态参数自动测量方法

Country Status (1)

Country Link
CN (1) CN108388874B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829465B (zh) * 2019-01-03 2023-03-24 上海交通大学 一种搜寻对虾最佳吸取位置和识别尾肢特征的方法
CN110738631A (zh) * 2019-08-26 2020-01-31 中国农业机械化科学研究院 一种基于图像的对虾外形信息检测方法和检测系统
CN110866931B (zh) * 2019-11-18 2022-11-01 东声(苏州)智能科技有限公司 图像分割模型训练方法及基于分类的强化图像分割方法
CN111521128A (zh) * 2020-04-15 2020-08-11 中国科学院海洋研究所 一种基于光学投影的贝类外部形态自动测量方法
CN112077018A (zh) * 2020-08-30 2020-12-15 哈尔滨工程大学 一种采用计算机视觉的海参大小筛选方法
CN112884761A (zh) * 2021-03-19 2021-06-01 东营市阔海水产科技有限公司 水产经济动物头部识别方法、终端设备及可读存储介质
CN112907651B (zh) * 2021-03-29 2022-04-26 山东捷瑞数字科技股份有限公司 基于语义分割网络的生蚝外部形态的测量方法
CN113052114A (zh) * 2021-04-02 2021-06-29 东营市阔海水产科技有限公司 死虾识别方法、终端设备及可读存储介质
CN113642847B (zh) * 2021-07-15 2023-08-04 中国农业大学 对虾质量的估算方法和装置
CN113610796A (zh) * 2021-08-02 2021-11-05 浙江省农业科学院 一种基于ai技术测定罗氏沼虾表型的方法
CN114612495A (zh) * 2022-03-24 2022-06-10 中国海洋大学三亚海洋研究院 一种凡纳滨对虾表型数据测定方法
CN114998565B (zh) * 2022-05-24 2024-06-07 中国农业大学 一种半成品虾的尺寸检测装置与方法
CN117765379A (zh) * 2024-01-25 2024-03-26 宏景科技股份有限公司 一种水下鱼类观测方法和水下鱼类观测机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510262A (zh) * 2009-03-17 2009-08-19 江苏大学 一种钢中析出粒子的自动测量及其形态分类方法
CN103186790A (zh) * 2011-12-27 2013-07-03 北京三星通信技术研究有限公司 对象检测系统和方法
CN106023151A (zh) * 2016-05-09 2016-10-12 厦门大学 一种开放环境下中医舌象目标检测方法
CN106295636A (zh) * 2016-07-21 2017-01-04 重庆大学 基于多特征融合级联分类器的消防通道车辆检测方法
EP3234913A1 (fr) * 2014-12-15 2017-10-25 Compagnie Générale des Etablissements Michelin Procede de detection de defaut sur une surface de pneumatique

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2686828A1 (en) * 2011-03-14 2014-01-22 The University Of Warwick Histology analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510262A (zh) * 2009-03-17 2009-08-19 江苏大学 一种钢中析出粒子的自动测量及其形态分类方法
CN103186790A (zh) * 2011-12-27 2013-07-03 北京三星通信技术研究有限公司 对象检测系统和方法
EP3234913A1 (fr) * 2014-12-15 2017-10-25 Compagnie Générale des Etablissements Michelin Procede de detection de defaut sur une surface de pneumatique
CN106023151A (zh) * 2016-05-09 2016-10-12 厦门大学 一种开放环境下中医舌象目标检测方法
CN106295636A (zh) * 2016-07-21 2017-01-04 重庆大学 基于多特征融合级联分类器的消防通道车辆检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Face Description with Local Binary Patterns:Application to Face Recognition;Timo Ahonen;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20061231;2037-2041页 *
RapidObjectDetectionusingaBoostedCascadeofSimpleFeatures;ViolaP;《IEEEComputer Society》;20011231;511-518页 *
基于局部二值模式的中值滤波检测算法;苏育挺;《计算机应用研究》;20160131;258-261页 *
日本囊对虾2种形态变异类型群体形态性状对体质量的影响效果分析;董宏标;《厦门大学学报》;20140331;289-296页 *

Also Published As

Publication number Publication date
CN108388874A (zh) 2018-08-10

Similar Documents

Publication Publication Date Title
CN108388874B (zh) 基于图像识别与级联分类器的对虾形态参数自动测量方法
CN109154978B (zh) 用于检测植物疾病的系统和方法
CN105956582B (zh) 一种基于三维数据的人脸识别系统
Xing et al. An automatic learning-based framework for robust nucleus segmentation
CN106295124B (zh) 多种图像检测技术综合分析基因子图相似概率量的方法
CN105930815B (zh) 一种水下生物检测方法和系统
CN105023008B (zh) 基于视觉显著性及多特征的行人再识别方法
CN107194937B (zh) 一种开放环境下中医舌象图像分割方法
Han et al. A novel computer vision-based approach to automatic detection and severity assessment of crop diseases
CN108629336B (zh) 基于人脸特征点识别的颜值计算方法
CN105335725A (zh) 一种基于特征融合的步态识别身份认证方法
CN111539911B (zh) 一种口呼吸面容识别方法、设备和存储介质
CN108509925B (zh) 一种基于视觉词袋模型的行人重识别方法
CN106023151A (zh) 一种开放环境下中医舌象目标检测方法
JP2007213377A (ja) 顔特徴点検出方法および装置並びにプログラム
CN108596195B (zh) 一种基于稀疏编码特征提取的场景识别方法
CN101996308A (zh) 人脸认证方法及系统、人脸模型训练方法及系统
CN109035254A (zh) 基于改进K-means聚类的运动鱼体阴影去除及图像分割方法
CN107239792A (zh) 一种基于二进制描述子的工件识别方法及装置
CN110991389A (zh) 判断目标行人在非重叠相机视角中出现的匹配方法
CN109993213A (zh) 一种用于服装部件图的自动识别方法
CN104200226B (zh) 基于机器学习的粒子滤波目标跟踪方法
CN108090913B (zh) 一种基于对象级Gauss-Markov随机场的图像语义分割方法
CN115527102A (zh) 基于轮廓关键点和注意力机制的鱼类种类识别方法及系统
CN109740426B (zh) 一种基于采样卷积的人脸关键点检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant