CN102319155B - 基于唇部检测与跟踪的智能轮椅控制方法 - Google Patents

基于唇部检测与跟踪的智能轮椅控制方法 Download PDF

Info

Publication number
CN102319155B
CN102319155B CN 201110142786 CN201110142786A CN102319155B CN 102319155 B CN102319155 B CN 102319155B CN 201110142786 CN201110142786 CN 201110142786 CN 201110142786 A CN201110142786 A CN 201110142786A CN 102319155 B CN102319155 B CN 102319155B
Authority
CN
China
Prior art keywords
texture
vector
image
shape
lip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN 201110142786
Other languages
English (en)
Other versions
CN102319155A (zh
Inventor
张毅
罗元
李敏
蔡军
谢颖
林海波
蒲兴成
刘全杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN 201110142786 priority Critical patent/CN102319155B/zh
Publication of CN102319155A publication Critical patent/CN102319155A/zh
Application granted granted Critical
Publication of CN102319155B publication Critical patent/CN102319155B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于唇部检测与跟踪的智能轮椅控制方法,涉及一种图像处理与智能轮椅控制相结合的基于唇部检测与跟踪的智能轮椅控制方法,本发明以智能轮椅为平台,建立了唇部轮廓检测与跟踪的数学模型,使用摄像头读取人脸部分图像;对唇部轮廓进行检测跟踪;对唇部运动序列进行特征提取,并在其中使用了鲁棒性良好的主动外观模型方法;运用隐马尔可夫模型对图像序列进行建模与识别;实现了通过唇读技术控制智能轮椅运动的方法,采用本发明的智能轮椅控制交互技术,可以使老年人或者有行动限制的残疾人通过自然语言实现对智能轮椅的基本控制,这种控制方法不需要智能轮椅的使用者学习机器语言,直接使用自然语言,实现了人机自然交互。

Description

基于唇部检测与跟踪的智能轮椅控制方法
技术领域
本发明涉及智能轮椅人机控制方法,特别涉及一种图像处理与智能轮椅控制相结合的基于唇部检测与跟踪的智能轮椅控制方法。
背景技术
联合国发表报告指出,在21世纪上半叶,老年人口将增加2.3倍,老年人口占总人口的比例将达到20%,全世界人口老龄化进程正在加快,今后50年内,60岁以上的人口比例预计将会翻一番。随着社会老龄化进程的加快以及由于各种灾难、疾病、工伤、交通事故等原因造成下肢损伤的残障人数的增加,为老年人和残疾人提供性能优越的代步工具已成为整个社会重点关注的问题之一。智能轮椅作为一种服务机器人,具有自主导航、避障、人机交互以及提供特种服务等多种功能,可以大大提高老年人和残疾人的日常生活和工作质量,使他们重新获得生活自理能力和融入社会成为可能。目前,世界各国的研究者都在广泛开展智能轮椅相关技术的研究。作为机器人技术的一种应用平台,智能轮椅上融合了机器人研究领域的多种技术,包括运动控制、机器视觉、模式识别、多传感器信息融合以及人机交互等等。经过20多年的研究和开发,智能轮椅的交互性、自主性以及安全性都得到了很大的发展。
因此急需一种直接使用自然语言来实现了人机自然交互控制,使老年人或者有行动限制的残疾人通过自然语言实现对智能轮椅的基本控制。
发明内容
有鉴于此,为了解决上述问题,本发明提出一种直接使用自然语言来实现了人机自然交互控制,使老年人或者有行动限制的残疾人通过自然语言实现对智能轮椅的基本控制;这种控制方法不需要智能轮椅的使用者学习机器语言。
本发明的目的是这样实现的:
本发明提供的基于唇部检测与跟踪的智能轮椅控制方法,包括以下步骤:
S1:输入通过摄像头获取的人脸图像序列;
S2:从人脸图像中分割出唇部轮廓;
S3:提取唇部轮廓图像特征;
S4:对唇部特征建模与识别;
S5:通过唇部图像识别结果来控制智能轮椅运动控制。
进一步,所述唇部轮廓分割采用主动外观模型法AAM,所述主动外观模型法AAM包括以下步骤:
S21:构建形状模型并通过获取唇部轮廓形状关键特征点来构建外形向量;
S22:构建纹理模型并建立纹理模型参数的变化之间的联系;
S23:将形状模型和纹理模型合理的结合起来,从而合成新图像;
进一步,所述S21中形状模型建立包括以下步骤:
S211:将每个外形样本的外形向量的重心平移至坐标原点,所述外形向量重心通过以下公式获得:
( x ‾ , y ‾ ) = ( 1 n Σ j = 1 n x j , 1 n Σ j = 1 n y j )
式中
Figure BDA0000064791760000022
表示外形向量的重心,(xj,yj)表示第j个外形向量的重心,n表示训练集中的样本个数;
S212:计算并归一化第一个外形样本的外形尺寸,把它作为外形样本的当前平均外形向量的初始估计
Figure BDA0000064791760000023
所述外形样本的外形尺寸通过以下公式计算:
R ( S ) = [ ( x j - x ‾ ) 2 + ( y j - y ‾ ) 2 ]
式中R(S)表示外形样本的外形尺寸;
S213:将选取的外形样本与当前平均外形向量对齐;
S214:计算所有对齐后的外形样本的平均外形向量,把它作为现有平均外形向量;
S215:计算当前平均外形向量和现有平均外形向量的距离,如果距离小于预设误差值ε,则跳转到S213;所述两个不同外形向量S1和S2之间的距离通过以下公式计算:
P d 2 = Σ j = 1 n | ( S 1 - S 2 ) 2 | = Σ j = 1 n | ( x j 1 - x j 2 ) 2 + ( y j 1 - y j 2 ) 2 |
式中
Figure BDA0000064791760000026
表示两个不同外形向量之间的距离;
S216:如果距离大于或等于预设误差值ε,则转入下一步S217;
S217:建立外形向量模型,所述外形向量模型通过以下公式建立:
S = S ‾ + P s b s
其中,为平均外形向量,矩阵Ps由外形向量S的协方差矩阵的特征向量构成的矩阵,向量bs为外形参数,bs的不同值代表了外形向量的不同变化,bs的各维元素值bsi是处于
Figure BDA0000064791760000033
范围内的值,其中λi是外形向量协方差矩阵的特征值;
进一步,所述S213中外形向量对齐包括以下步骤:
S2131:计算每个外形向量的重心;
S2132:缩放两个外形向量的尺寸;
S2133:重叠两个外形向量的重心;
S2134:旋转两个外形向量的角度;
进一步,所述S22中纹理模型建立包括以下步骤:
S221:建立外形样本和平均外形之间像素对应的纹理样本集;
S222:选择纹理样本集中一个纹理样本作为初始的平均纹理并对它进行标准的归一化处理;
S223:计算每一个纹理样本的方差、像素纹理平均,然后归一化,形成当前平均纹理;
所述方差通过以下公式进行计算:
σ = g image · g ‾
式中,gimage是从图像中获取的实际纹理样本;
所述像素纹理平均通过以下公式进行计算:
g ‾ = 1 m Σ i = 1 m g i
式中,σ表示方差,gi表示从图像中获取的实际纹理样本中的第i个像素,
Figure BDA0000064791760000037
表示平均纹理,m表示图像的像素点个数;
S224:计算归一化后的纹理样本的平均纹理,作为现有平均纹理,
g norm = g image - g ‾ σ
其中,gimage是从图像中获取的实际纹理样本,gnorm是归一化后的纹
Figure BDA0000064791760000041
为纹理样本,σ为方差;
S225:计算当前平均纹理和现有平均纹理之间的距离,如果距离小于预设值,则转入步骤2;
S226:如果距离大于或等于预设值,则转入下一步;
S227:建立纹理模型,所述纹理模型通过以下公式建立:
g = g ‾ + P g b g
其中
Figure BDA0000064791760000043
是归一化后的平均纹理,Pg是特征矩阵,bg是纹理模型参数,变化纹理模型参数bg中元素的值可以得到不同的纹理,分别变化向量bg的第一维元素bg0和第二维元素bg1,其它维元素值都保持为0时得到的不同纹理,bg的各维元素值bgi为处于范围内的值,其中λi是纹理协方差矩阵的特征值;
进一步,所述步骤S221中包括以下步骤:
S2211:将外形向量模型中的平均外形向量进行三角化剖分,形成平均人脸唇部三角形区域集合;
S2212:建立平均外形和外形样本三角形区域之间的对应关系,将训练集中的每个外形样本进行三角化剖分,通过对外形中每个三角形的变形实现整个人脸唇部图像向平均外形的变形;
S2213:建立三角形区域内部点集对应关系,通过以下公式进行:
p′=αp′1+βp′2+γp′3
式中,p(x,y)表示三角形区域T1中对应的点,p表示三角形区域T2中对应的点,P1(x1,y1),P2(x2,y2),P3(x3,y3)为三角形区域T1的三个项点,p′1(x′1,y′1),p′2(x′2,y′2),p′3(x′3,y′3)是三角形区域T2的顶点,且与P1(x1,y1),P2(x2,y2),P3(x3,y3)一一对应,
式中,系数(α,β,γ)通过解三角形区域T1内部点表达式获得:
x = α x 1 + β x 2 + γ x 3 y = α y 1 + β y 2 + γ y 3 α + β + γ = 1
其中0≤α,β,γ≤1;
进一步,所述步骤S4中的唇部图像识别包括以下步骤:
S41:首先对唇部图像进行预处理;
S42:标定唇部轮廓图像的特征位置;
S43:合成新的唇部轮廓图像;
S44:提取唇部轮廓图像特征;
S45:对唇部轮廓图像特征进行识别,
具体包括以下步骤:
S451:将嘴唇特征作为输入向量输入隐马尔科夫分类器;
S452:所述隐马尔科夫分类训练过程采用Baum-Welch算法进行;
S453:所述隐马尔科夫分类识别过程采用的是Viterbi算法;
进一步,所述步骤S43中的合成新的唇部轮廓图像包括以下步骤:
S431:从训练集中任选一幅标记好特征点的人脸图像作为原始图像,将原始图像的形状向量与平均人脸的形状向量对齐,设对齐后的形状向量为S0
S432:利用统计形状模型得到与该唇部图像相对性的形状参数;
S433:把原始图像的纹理向量变形到平均嘴唇上,并对变形后的纹理向量进行归一化处理,得到原始图像归一化形状无关的纹理向量g0
S434:利用统计纹理模型得到与该唇部图像相对应的纹理参数bg
S435:把bs和bg按照一定的权值结合生成参数b,进而通过统计外观模型得到原始图像的外观参数c;
S436:得到表现模型参数c后,利用公式生成新的图像的形状向量S1和归一化的形状无关的纹理向量g1
S437:对形状向量S1进行仿射变换,以消除对齐时对它的影响;
S438:将纹理向量g1变形到形状向量S1上,并对纹理值进行恢复处理,使其值的范围从归一化后的0-1,恢复到原始图像的真是灰度值的大小;
进一步,所述步骤S44中的特征提取是通过将主动外观模型法AAM获得的新图像与合成图像进行循环迭代,从而获得新图像的形状特征和纹理特征;具体包括以下步骤:
S441:学习灰度差向量δI和模型参数之差δc之间的关系,所述关系通过以下公式表示:δc=AδI,
其中,A表示,c表示当前模型参数,δc表示模型参数之差,δI表示灰度差值向量,δI的计算公式为:δI=It-Im,式中,It为当前图像的纹理向量,Im是由当前模型参数生成的纹理向量;
S442:生成模型参数变化与纹理向量差值对应关系的实例,利用训练得到的实例,在迭代过程中最小化Δ,Δ表示模型参数差值δI的绝对值,Δ=|δI|2
S443:通过对δc和δI进行多元线性回归分析并计算出A,
所述A的计算具体包括以下步骤:
S4431:通过以下公式计算出合成图像和目标图像之间的差值,并作为目标函数:
Δ=||δg||2=||gs-gm||2
其中,gs是目标图像根据当前形状s形变到平均形状得到的纹理向量,gm是根据当前外观参数c生成的纹理向量;
S4432:通过以下公式确定模型参数变化δc、仿射变换参数变化δθ与纹理差值向量δg之间的关系:
δc=Rcδg
δθ=Rθδg,
其中,θ为仿射变换参数(s,θ,tx,ty),s是缩放参数,θ是旋转参数,(tx,ty)是平移参数;
S4433:确定矩阵Rc和Rθ,通过逐个定量的调整c和θ中的每一个分量并记录每次调整后所生成的图像同当前形状所覆盖的图像的差异,然后利用多元线性回归来获得Rc和Rθ
具体包括以下步骤:
S44331:将模型参数c做一个定量的扰动δc;
S44332:更新当前的模型参数为c=c+δc;
S44333:由新的外观参数c计算新的形状向量s和归一化的纹理向量gm
S44334:根据形状向量s,用步骤S44331到S44333的方法得到纹理向量gs
S44335:计算纹理向量gs和gm之差:δg=gs-gm
S44336:改变模型参数δc,可分别得到相应的δg,通过对应矩阵δc和δg,应用多元线性回归分析得到Rc
S44337:通过步骤S44331-S44336,用多元线性回归分析得到Rθ
进一步,所述步骤S441中灰度差值的计算,包括以下步骤:
S4411:获取当前图像的模型参数c0
S4412:获取模型参数c0的改变量δc,满足以下公式:c=δc+c0,式中,c表示当前模型参数;
S4413:由当前模型参数c产生新的形状样本s和归一化的纹理样本gm
S4414:根据s对图像进行变形并且取其相应区域变形内的纹理向量gs
S4415:通过以下公式来计算纹理样本gm和纹理向量gs的差:
δg=gs-gm;式中,δg表示纹理样本和纹理向量的差;
S4416:改变模型参数δc和形状s的姿态参数(sx,sy,tx,ty),应用多元线性回归分析法分别得到对应的纹理向量gs,其中,(sx,sy,tx,ty)表示姿态参数,所述姿态参数是指缩放尺度和旋转角度。
本发明的优点在于:采用基于唇部检测与跟踪来控制轮椅,可以使老年人或者有行动限制的残疾人通过自然语言实现对智能轮椅的基本控制,这种控制方法不需要智能轮椅的使用者学习机器语言,直接使用自然语言,实现了人机自然交互。
本发明用主动外观模型AAM法提取自然语言唇部区域的轮廓和运用隐马尔可夫模型HMM来训练识别,最终实现唇部检测与跟踪对智能轮椅的运动控制,该方法是一种快速的、鲁棒性高的人唇部检测方法,能够从图像中准确定位到唇部关键部位的特征点,实现了唇部检测和跟踪对智能轮椅的运动控制。
本发明的其它优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其它优点可以通过下面的说明书,权利要求书,以及附图中所特别指出的结构来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为智能轮椅控制系统;
图2为基于唇部检测与跟踪的智能轮椅控制方法流程图;
图3为训练集中外形向量的对齐过程;
图4为外形模型的建立;
图5为对人脸唇部外形进行三角剖分;
图6为纹理模型;
图7为人脸唇部图像的标定;
图8为图像重构结果;
图9为不同人复杂背景下的检测结果1;
图10为不同人复杂背景下的检测结果2。
具体实施方式
以下将结合附图,对本发明的优选实施例进行详细的描述;应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
图1为智能轮椅控制系统,如图所示:包括通过摄像头获取图像序列、图像处理器和智能轮椅,本发明所用的图像处理过程采用台式计算机或者其他种类的计算机,还可以通过DSP或者其他微型处理器来完成,通过图像处理后产生控制命令,然后控制智能轮椅的移动。
图2为基于唇部检测与跟踪的智能轮椅控制方法流程图,如图所示:本发明提供的基于唇部检测与跟踪的智能轮椅控制方法,包括以下步骤:
S1:输入通过摄像头获取的人脸图像序列;
S2:从人脸图像中分割出唇部轮廓;
S3:提取唇部轮廓图像特征;
S4:对唇部特征建模与识别;
S5:通过唇部图像识别结果来控制智能轮椅运动控制。
作为上述实施例的进一步改进,所述唇部轮廓分割采用主动外观模型法AAM,所述主动外观模型法AAM包括以下步骤:
S21:构建形状模型并通过获取唇部轮廓形状关键特征点来构建外形向量;
S22:构建纹理模型并建立纹理模型参数的变化之间的联系;
S23:将形状模型和纹理模型合理的结合起来,从而合成新图像。
图3为训练集中外形向量的对齐过程,图4为外形模型的建立,如图所示,作为上述实施例的进一步改进,所述S21中形状模型建立包括以下步骤:
S211:将每个外形样本的外形向量的重心平移至坐标原点,所述外形向量重心通过以下公式获得:
( x ‾ , y ‾ ) = ( 1 n Σ j = 1 n x j , 1 n Σ j = 1 n y j )
式中
Figure BDA0000064791760000092
表示外形向量的重心,(xj,yj)表示第j个外形向量的重心,n表示训练集中的样本个数;
S212:计算并归一化第一个外形样本的外形尺寸,把它作为外形样本的当前平均外形向量的初始估计
Figure BDA0000064791760000093
所述外形样本的外形尺寸通过以下公式计算:
R ( S ) = [ ( x j - x ‾ ) 2 + ( y j - y ‾ ) 2 ]
式中R(S)表示;
S213:将选取的外形样本与当前平均外形向量对齐;
S214:计算所有对齐后的外形样本的平均外形向量,把它作为现有平均外形向量;
S215:计算当前平均外形向量和现有平均外形向量的距离,如果距离小于预设误差值ε,则跳转到S213;所述两个不同外形向量S1和S2之间的距离通过以下公式计算:
P d 2 = Σ j = 1 n | ( S 1 - S 2 ) 2 | = Σ j = 1 n | ( x j 1 - x j 2 ) 2 + ( y j 1 - y j 2 ) 2 |
式中
Figure BDA0000064791760000096
表示;
S216:如果距离大于或等于预设误差值ε,则转入下一步S217;
S217:建立外形向量模型,所述外形向量模型通过以下公式建立:
S = S ‾ + P s b s
其中,
Figure BDA0000064791760000098
为平均外形向量,矩阵Ps由外形向量S的协方差矩阵的特征向量构成的矩阵,向量bs为外形参数,bs的不同值代表了外形向量的不同变化,bs的各维元素值bsi是处于范围内的值,其中λi是外形向量协方差矩阵的特征值。
作为上述实施例的进一步改进,所述S213中外形向量对齐包括以下步骤:
S2131:计算每个外形向量的重心;
S2132:缩放两个外形向量的尺寸;
S2133:重叠两个外形向量的重心;
S2134:旋转两个外形向量的角度。
图5为对人脸唇部外形进行三角剖分;图6为纹理模型;如图所示,作为上述实施例的进一步改进,所述S22中纹理模型建立包括以下步骤:
S221:建立外形样本和平均外形之间像素对应的纹理样本集;
S222:选择纹理样本集中一个纹理样本作为初始的平均纹理
Figure BDA0000064791760000102
并对它进行标准的归一化处理;
S223:计算每一个纹理样本的方差、像素纹理平均,然后归一化,形成当前平均纹理;
所述方差通过以下公式进行计算:
σ = g image · g ‾
式中,gimage是从图像中获取的实际纹理样本;
所述像素纹理平均通过以下公式进行计算:
g ‾ = 1 m Σ i = 1 m g i
式中,σ表示方差,gi表示从图像中获取的实际纹理样本中的第i个像素,
Figure BDA0000064791760000105
表示平均纹理,m表示图像的像素点个数;
S224:计算归一化后的纹理样本的平均纹理,作为现有平均纹理,
g norm = g image - g ‾ σ
其中,gimage是从图像中获取的实际纹理样本,gnorm是归一化后的纹
Figure BDA0000064791760000107
为纹理样本,σ为方差;
S225:计算当前平均纹理和现有平均纹理之间的距离,如果距离小于预设值,则转入步骤2;
S226:如果距离大于或等于预设值,则转入下一步;
S227:建立纹理模型,所述纹理模型通过以下公式建立:
g = g ‾ + P g b g
其中
Figure BDA0000064791760000112
是归一化后的平均纹理,Pg是特征矩阵,bg是纹理模型参数,变化纹理模型参数bg中元素的值可以得到不同的纹理,分别变化向量bg的第一维元素bg0和第二维元素bg1,且其它维元素都保持为0时得到的不同纹理,bg的各维元素值bgi为处于
Figure BDA0000064791760000113
范围内的值,其中λi是纹理协方差矩阵的特征值。
作为上述实施例的进一步改进,所述步骤S221中包括以下步骤:
S2211:将外形向量模型中的平均外形向量进行三角化剖分,形成平均人脸唇部三角形区域集合;
S2212:建立平均外形和外形样本三角形区域之间的对应关系,将训练集中的每个外形样本进行三角化剖分,通过对外形中每个三角形的变形实现整个人脸唇部图像向平均外形的变形;
S2213:建立三角形区域内部点集对应关系,通过以下公式进行:
p′=αp′1+βp′2+γp′3
式中,p(x,y)表示三角形区域T1中对应的点,p′表示三角形区域T2中对应的点,P1(x1,y1),P2(x2,y2),P3(x3,y3)为三角形区域T1的三个项点,p′1(x′1,y′1),p′2(x′2,y′2),p′3(x′3,y′3)是三角形区域T2的顶点,且与P1(x1,y1),P2(x2,y2),P3(x3,y3)一一对应,
式中,系数(α,β,γ)通过解三角形区域T1内部点表达式获得:
x = α x 1 + β x 2 + γ x 3 y = α y 1 + β y 2 + γ y 3 α + β + γ = 1
其中0≤α,β,γ≤1。
图7为人脸唇部图像的标定;图8为图像重构结果;图9为不同人复杂背景下的检测结果1;图10为不同人复杂背景下的检测结果2,作为上述实施例的进一步改进,所述步骤S4中的唇部图像识别包括以下步骤:
S41:首先对唇部图像进行预处理;
S42:标定唇部轮廓图像的特征位置;
S43:合成新的唇部轮廓图像;
S44:提取唇部轮廓图像特征;
S45:对唇部轮廓图像特征进行识别。
作为上述实施例的进一步改进,所述步骤S43中的合成新的唇部轮廓图像包括以下步骤:
S431:从训练集中任选一幅标好特征点的人脸图像作为原始图像,将原始图像的形状向量与平均人脸的形状向量对齐,设对齐后的形状向量为S0
S432:利用统计形状模型得到与该唇部图像相对性的形状参数;
S433:把原始图像的纹理向量变形到平均嘴唇上,并对变形后的纹理向量进行归一化处理,得到原始图像归一化形状无关的纹理向量g0
S434:利用统计纹理模型得到与该唇部图想相对应的纹理参数bg
S435:把bs和bg按照一定的权值结合起来生成参数b,进而通过统计外观模型得到原始图像的外观参数c;
S436:得到表现模型参数c后,利用公式生成新的图像的形状向量S1和归一化的形状无关的纹理向量g1
S437:对形状向量S1进行仿射变换,以消除对齐时对它的影响;
S438:将纹理向量g1变形到形状向量S1上,并对纹理值进行恢复处理,使其值的范围从归一化后的0-1,恢复到原始图像的真是灰度值的大小。
作为上述实施例的进一步改进,所述步骤S44中的特征提取是通过将主动外观模型法AAM获得的新图像与合成图像进行循环迭代,从而获得新图像的形状特征和纹理特征;具体包括以下步骤:
S441:学习灰度差向量δI和模型参数之差δc之间的关系,所述关系通过以下公式表示:δc=AδI,
其中,A表示,c表示当前模型参数,δc表示模型参数之差,δI表示灰度差值向量,δI的计算公式为:δI=It-Im,式中,It为当前图像的纹理向量,Im是由当前模型参数生成的纹理向量;
S442:生成模型参数变化与纹理向量差值对应关系的实例,利用训练得到的实例,在迭代过程中最小化Δ,Δ表示模型参数差值δI的绝对值,Δ=|δI|2
S443:通过对δc和δI进行多元线性回归分析并计算出A。
作为上述实施例的进一步改进,所述步骤S441中灰度差值的计算,包括以下步骤:
S4411:获取当前图像的模型参数c0
S4412:获取模型参数c0的改变量δc,满足以下公式:c=δc+c0,式中,c表示当前模型参数;
S4413:由当前模型参数c产生新的形状样本s和归一化的纹理样本gm
S4414:根据s对图像进行变形并且取其相应区域变形内的纹理向量gs
S4415:通过以下公式来计算纹理样本gm和纹理向量gs的差:
δg=gs-gm;式中,δg表示;
S4416:改变模型参数δc和形状s的姿态参数(sx,sy,tx,ty),应用多元线性回归分析法分别得到对应的纹理向量gs
其中,(sx,ty,tx,ty)表示姿态参数,所述姿态参数是指缩放尺度和旋转角度,其中sx=scos(θ)表示,sy=ssin(θ)表示;tx表示,ty表示;
作为上述实施例的进一步改进,所述步骤S443中A的计算包括以下步骤:
S4431:通过以下公式计算出合成图像和目标图像之间的差值,并作为目标函数:
Δ=||δg||2=||gs-gm||2
其中,gs是目标图像根据当前形状s形变到平均形状得到的纹理向量,gm是根据当前外观参数c生成的纹理向量;
S4432:通过以下公式确定模型参数变化δc、仿射变换参数变化δθ与纹理差值向量δg之间的关系:
δc=Rcδg
δθ=Rθδg,
其中,θ为仿射变换参数(s,θ,tx,ty),s是缩放参数,θ是旋转参数,(tx,ty)是平移参数;
S4433:确定矩阵Rc和Rθ,通过逐个定量的调整c和θ中的每一个分量并记录每次调整后所生成的图像同当前形状所覆盖的图像的差异,然后利用多元线性回归来获得Rc和Rθ
作为上述实施例的进一步改进,所述步骤S4433中的多元线性回归分析,包括以下步骤:
S44331:将模型参数c做一个定量的扰动δc;
S44332:更新当前的模型参数为c=c+δc;
S44333:由新的外观参数c计算新的形状向量s和归一化的纹理向量gm
S44334:根据向量s,用步骤S44331到S44333的方法得到纹理向量gs
S44335:计算纹理向量gs和gm之差:δg=gs-gm
S44336:改变模型参数δc,可分别得到相应的δg,通过对应矩阵δc和δg,应用多元线性回归分析得到Rc
S44337:通过步骤S44331-S44336,用多元线性回归分析得到Rθ
作为上述实施例的进一步改进,所述步骤S45对唇部轮廓图像特征进行识别,包括以下步骤:
S45:将嘴唇特征作为输入向量输入隐马尔科夫分类器;
S45:所述隐马尔科夫分类训练过程采用Baum-Welch算法进行;
S45:所述隐马尔科夫分类识别过程采用的是Viterbi算法。
以上所述仅为本发明的优选实施例,并不用于限制本发明,显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:包括以下步骤:
S1:输入通过摄像头获取的人脸图像序列;
S2:从人脸图像中分割出唇部轮廓;
S3:提取唇部轮廓图像特征;
S4:对唇部特征建模与识别;
S5:通过唇部图像识别结果来控制智能轮椅运动控制;
所述唇部轮廓分割采用主动外观模型法AAM,所述主动外观模型法AAM包括以下步骤:
S21:构建形状模型并通过获取唇部轮廓形状关键特征点来构建外形向量;
S22:构建纹理模型并建立纹理模型参数的变化之间的联系;
S23:将形状模型和纹理模型合理的结合起来,从而合成新图像;
所述步骤S4中的唇部图像识别包括以下步骤:
S41:首先对唇部图像进行预处理;
S42:标定唇部轮廓图像的特征位置;
S43:合成新的唇部轮廓图像;
S44:提取唇部轮廓图像特征;
S45:对唇部轮廓图像特征进行识别,
具体包括以下步骤:
S451:将嘴唇特征作为输入向量输入隐马尔科夫分类器;
S452:所述隐马尔科夫分类训练过程采用Baum-Welch算法进行;
S453:所述隐马尔科夫分类识别过程采用的是Viterbi算法。
2.根据权利要求1所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述S21中形状模型建立包括以下步骤:
S211:将每个外形样本的外形向量的重心平移至坐标原点,所述外形向量重心通过以下公式获得:
( x ‾ , y ‾ ) = ( 1 n Σ j = 1 n x j , 1 n Σ j = 1 n y j )
式中
Figure FDA00002947620400012
表示外形向量的重心,(xj,yj)表示第j个外形向量的重心,n表示训练集中的样本个数;
S212:计算并归一化第一个外形样本的外形尺寸,把它作为外形样本的当前平均外形向量的初始估计
Figure FDA00002947620400021
所述外形样本的外形尺寸通过以下公式计算:
R ( S ) = [ ( x j - x ‾ ) 2 + ( y j + y ‾ ) 2 ]
式中R(S)表示外形样本的外形尺寸;
S213:将选取的外形样本与当前平均外形向量对齐;
S214:计算所有对齐后的外形样本的平均外形向量,把它作为现有平均外形向量;
S215:计算当前平均外形向量和现有平均外形向量的距离,如果距离小于预设误差值ε,则跳转到S213;所述两个不同外形向量S1和S2之间的距离通过以下公式计算:
P d 2 = Σ j = 1 n | ( S 1 - S 2 ) 2 | = Σ j = 1 n | ( x j 1 - x j 2 ) 2 + ( y j 1 - y j 2 ) 2 |
式中
Figure FDA00002947620400024
表示两个不同外形向量之间的距离;
S216:如果距离大于或等于预设误差值ε,则转入下一步S217;
S217:建立外形向量模型,所述外形向量模型通过以下公式建立:
S = S ‾ + P s b s
其中,
Figure FDA00002947620400026
为平均外形向量,矩阵Ps由外形向量S的协方差矩阵的特征向量构成的矩阵,向量bs为外形参数,bs的不同值代表了外形向量的不同变化,bs的各维元素值bsi是处于
Figure FDA00002947620400027
范围内的值,其中λi是外形向量协方差矩阵的特征值。
3.根据权利要求2所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述S213中外形向量对齐包括以下步骤:
S2131:计算每个外形向量的重心;
S2132:缩放两个外形向量的尺寸;
S2133:重叠两个外形向量的重心;
S2134:旋转两个外形向量的角度。
4.根据权利要求2所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述S22中纹理模型建立包括以下步骤:
S221:建立外形样本和平均外形之间像素对应的纹理样本集;
S222:选择纹理样本集中一个纹理样本作为初始的平均纹理
Figure FDA00002947620400031
并对它进行标准的归一化处理;
S223:计算每一个纹理样本的方差、像素纹理平均,然后归一化,形成当前平均纹理;
所述方差通过以下公式进行计算:
σ = g image · g ‾
式中,gimage是从图像中获取的实际纹理样本;
所述像素纹理平均通过以下公式进行计算:
g ‾ = 1 m Σ i = 1 m g i
式中,σ表示方差,gi表示从图像中获取的实际纹理样本中的第i个像素,
Figure FDA00002947620400033
表示平均纹理,m表示图像的像素点个数;
S224:计算归一化后的纹理样本的平均纹理,作为现有平均纹理,
g norm = g image - g ‾ σ
其中,gimage是从图像中获取的实际纹理样本,gnorm是归一化后的纹
Figure FDA00002947620400035
为纹理样本,σ为方差;
S225:计算当前平均纹理和现有平均纹理之间的距离,如果距离小于预设值,则转入步骤2;
S226:如果距离大于或等于预设值,则转入下一步;
S227:建立纹理模型,所述纹理模型通过以下公式建立:
g = g ‾ + P g b g
其中
Figure FDA00002947620400037
是归一化后的平均纹理,Pg是特征矩阵,bg是纹理模型参数,变化纹理模型参数bg中元素的值可以得到不同的纹理,分别变化向量bg的第一维元素bg0和第二维元素bg1,且其它维元素都保持为0时得到的不同纹理,bg的各维元素值bgi为处于
Figure FDA00002947620400038
范围内的值,其中λi是纹理协方差矩阵的特征值。
5.根据权利要求4所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述步骤S221中包括以下步骤:
S2211:将外形向量模型中的平均外形向量进行三角化剖分,形成平均人脸唇部三角形区域集合;
S2212:建立平均外形和外形样本三角形区域之间的对应关系,将训练集中的每个外形样本进行三角化剖分,通过对外形中每个三角形的变形实现整个人脸唇部图像向平均外形的变形;
S2213:建立三角形区域内部点集的对应关系,通过以下公式进行:
p'=αp'1+βp'2+γp'3
式中,p(x,y)表示三角形区域T1中对应的点,p'表示三角形区域T2中对应的点,P1(x1,y1),P2(x2,y2),P3(x3,y3)为三角形区域T1的三个项点,p'1(x'1,y'1),p'2(x'2,y'2),p'3(x'3,y'3)是三角形区域T2的顶点,且与P1(x1,y1),P2(x2,y2),P3(x3,y3)一一对应,
式中,系数(α,β,γ)通过解三角形区域T1内部点表达式获得:
x = αx 1 + βx 2 + γx 3 y = αy 1 + βy 2 + γy 3 α + β + γ = 1
其中0≤α,β,γ≤1。
6.根据权利要求5所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述步骤S43中的合成新的唇部轮廓图像包括以下步骤:
S431:从训练集中任选一幅标好特征点的人脸图像作为原始图像,将原始图像的形状向量与平均人脸的形状向量对齐,设对齐后的形状向量为S0
S432:利用统计形状模型得到与该唇部图像相对性的形状参数;
S433:把原始图像的纹理向量变形到平均嘴唇上,并对变形后的纹理向量进行归一化处理,得到原始图像归一化形状无关的纹理向量g0
S434:利用统计纹理模型得到与该唇部图像相对应的纹理参数bg
S435:把bs和bg按照一定的权值结合起来生成参数b,进而通过统计外观模型得到原始图像的外观参数c;
S436:得到表现模型参数c后,利用公式生成新的图像的形状向量S1和归一化的形状无关的纹理向量g1
S437:对形状向量S1进行仿射变换,以消除对齐时对它的影响;
S438:将纹理向量g1变形到形状向量S1上,并对纹理值进行恢复处理,使其值的范围从归一化后的0-1,恢复到原始图像的真是灰度值的大小。
7.根据权利要求6所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述步骤S44中的特征提取是通过将主动外观模型法AAM获得的新图像与合成图像进行循环迭代,从而获得新图像的形状特征和纹理特征;具体包括以下步骤:
S441:学习灰度差向量δI和模型参数之差δc之间的关系,所述关系通过以下公式表示:δc=AδI,
其中,A表示,c表示当前模型参数,δc表示模型参数之差,δI表示灰度差值向量,δI的计算公式为:δI=It-Im,式中,It为当前图像的纹理向量,Im是由当前模型参数生成的纹理向量;
S442:生成模型参数变化与纹理向量差值对应关系的实例,利用训练得到的实例,在迭代过程中最小化Δ,Δ表示模型参数差值δI的绝对值,Δ=|δI|2
S443:通过对δc和δI进行多元线性回归分析并计算出A,
所述A的计算具体包括以下步骤:
S4431:通过以下公式计算出合成图像和目标图像之间的差值,并作为目标函数:
Δ=||δg||2=||gs-gm||2
其中,gs是目标图像根据当前形状s形变到平均形状得到的纹理向量,gm是根据当前外观参数c生成的纹理向量;
S4432:通过以下公式确定模型参数变化δc、仿射变换参数变化δθ与纹理差值向量δg之间的关系:
δc=Rcδg
δθ=Rθδg,
其中,θ为仿射变换参数(s,θ,tx,ty),s是缩放参数,θ是旋转参数,(tx,ty)是平移参数;
S4433:确定矩阵Rc和Rθ,通过逐个定量的调整c和θ中的每一个分量并记录每次调整后所生成的图像同当前形状所覆盖的图像的差异,然后利用多元线性回归来获得Rc和Rθ
具体包括以下步骤:
S44331:将模型参数c做一个定量的扰动δc;
S44332:更新当前的模型参数为c=c+δc;
S44333:由新的外观参数c计算新的形状向量s和归一化的纹理向量gm
S44334:根据形状向量s,用步骤S44331到S44333的方法得到纹理向量gs
S44335:计算纹理向量gs和gm之差:δg=gs-gm
S44336:改变模型参数δc,可分别得到相应的δg,通过对应矩阵δc和δg,应用多元线性回归分析得到Rc
S44337:通过步骤S44331-S44336,用多元线性回归分析得到Rθ
8.根据权利要求7所述的基于唇部检测与跟踪的智能轮椅控制方法,其特征在于:所述步骤S441中灰度差值的计算,包括以下步骤:
S4411:获取当前图像的模型参数c0
S4412:获取模型参数c0的改变量δc,满足以下公式:c=δc+c0,式中,c表示当前模型参数;
S4413:由当前模型参数c产生新的形状样本s和归一化的纹理样本gm
S4414:根据s对图像进行变形并且取其相应区域变形内的纹理向量gs
S4415:通过以下公式来计算纹理样本gm和纹理向量gs的差:
δg=gs-gm;式中,δg表示纹理样本和纹理向量的差;
S4416:改变模型参数δc和形状s的姿态参数(sx,sy,tx,ty),应用多元线性回归分析法分别得到对应的纹理向量gs,其中,(sx,sy,tx,ty)表示姿态参数,所述姿态参数是指缩放尺度和旋转角度。
CN 201110142786 2011-05-30 2011-05-30 基于唇部检测与跟踪的智能轮椅控制方法 Active CN102319155B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110142786 CN102319155B (zh) 2011-05-30 2011-05-30 基于唇部检测与跟踪的智能轮椅控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110142786 CN102319155B (zh) 2011-05-30 2011-05-30 基于唇部检测与跟踪的智能轮椅控制方法

Publications (2)

Publication Number Publication Date
CN102319155A CN102319155A (zh) 2012-01-18
CN102319155B true CN102319155B (zh) 2013-07-03

Family

ID=45447087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110142786 Active CN102319155B (zh) 2011-05-30 2011-05-30 基于唇部检测与跟踪的智能轮椅控制方法

Country Status (1)

Country Link
CN (1) CN102319155B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425987B (zh) * 2013-09-03 2016-09-28 重庆邮电大学 基于双混合唇形特征提取的智能轮椅人机交互方法
CN104505089B (zh) * 2014-12-17 2018-05-18 福建网龙计算机网络信息技术有限公司 口语纠错方法及设备
CN106250829A (zh) * 2016-07-22 2016-12-21 中国科学院自动化研究所 基于唇部纹理结构的数字识别方法
CN106974780B (zh) * 2017-03-13 2018-06-29 邝子佳 基于差分航姿的智能轮椅控制方法
CN109389098B (zh) * 2018-11-01 2020-04-28 重庆中科云从科技有限公司 一种基于唇语识别的验证方法以及系统
CN109977811A (zh) * 2019-03-12 2019-07-05 四川长虹电器股份有限公司 基于嘴部关键位置特征检测实现免语音唤醒的系统及方法
CN113487542B (zh) * 2021-06-16 2023-08-04 成都唐源电气股份有限公司 一种接触网导线磨耗区域的提取方法
CN114550289B (zh) * 2022-02-16 2023-05-26 中山职业技术学院 一种行为识别方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
CN101889928A (zh) * 2010-07-27 2010-11-24 北京理工大学 一种基于头势识别技术的轮椅控制方法
CN101937268A (zh) * 2009-06-30 2011-01-05 索尼公司 基于视觉唇形识别的设备控制
CN102048621A (zh) * 2010-12-31 2011-05-11 重庆邮电大学 基于头势的智能轮椅的人机交互系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1147196A (ja) * 1997-08-06 1999-02-23 Fuji Heavy Ind Ltd 電動車椅子の走行制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
CN101937268A (zh) * 2009-06-30 2011-01-05 索尼公司 基于视觉唇形识别的设备控制
CN101889928A (zh) * 2010-07-27 2010-11-24 北京理工大学 一种基于头势识别技术的轮椅控制方法
CN102048621A (zh) * 2010-12-31 2011-05-11 重庆邮电大学 基于头势的智能轮椅的人机交互系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开平11-47196A 1999.02.23

Also Published As

Publication number Publication date
CN102319155A (zh) 2012-01-18

Similar Documents

Publication Publication Date Title
CN102319155B (zh) 基于唇部检测与跟踪的智能轮椅控制方法
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
Rabhi et al. Intelligent control wheelchair using a new visual joystick
US8165347B2 (en) Visual tracking eye glasses in visual head and eye tracking systems
EP3951643B1 (en) Gesture trajectory recognition method for a following robot, based on a histogram corresponding to a hand trajectory shape descriptor
CN101964064B (zh) 一种人脸比对方法
CN101673345B (zh) 基于形状先验的提取目标闭合轮廓的方法
CN104463100A (zh) 基于面部表情识别模式的智能轮椅人机交互系统及方法
Clever et al. 3d human pose estimation on a configurable bed from a pressure image
Meena A study on hand gesture recognition technique
KR20070026080A (ko) 화상 처리 장치 및 방법, 및 프로그램
CN109145852B (zh) 一种基于眼睛睁闭状态的驾驶员疲劳状态识别方法
CN101593365A (zh) 一种通用三维人脸模型的调整方法
Ho et al. A multi-view vision-based hand motion capturing system
CN114332136B (zh) 人脸属性数据标注方法、计算机设备及存储介质
CN105929947A (zh) 一种基于场景态势感知的人机交互方法
CN102663351A (zh) 基于条件外观模型的人脸特征点自动标定方法
Utaminingrum et al. Descending stairs and floors classification as control reference in autonomous smart wheelchair
CN112287857A (zh) 一种多视角异常步态识别方法
Chong et al. Movement prediction for a lower limb exoskeleton using a conditional restricted Boltzmann machine
US20060148323A1 (en) Facial feature analysis system
Yao et al. Rca: Ride comfort-aware visual navigation via self-supervised learning
Ganokratanaa et al. The vision-based hand gesture recognition using blob analysis
CN111222469A (zh) 一种由粗到精的人脸姿态量化估计方法
CN108256379A (zh) 一种基于瞳孔定位的眼睛姿势识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant