CN106934353B - 一种用于养老机器人的人脸识别及主动跟踪的方法 - Google Patents

一种用于养老机器人的人脸识别及主动跟踪的方法 Download PDF

Info

Publication number
CN106934353B
CN106934353B CN201710111741.0A CN201710111741A CN106934353B CN 106934353 B CN106934353 B CN 106934353B CN 201710111741 A CN201710111741 A CN 201710111741A CN 106934353 B CN106934353 B CN 106934353B
Authority
CN
China
Prior art keywords
face
image
particle
robot
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710111741.0A
Other languages
English (en)
Other versions
CN106934353A (zh
Inventor
王裕基
滕辉
刘华平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Aokai Information Technology Co ltd
Original Assignee
Beijing Aokai Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Aokai Information Technology Co ltd filed Critical Beijing Aokai Information Technology Co ltd
Priority to CN201710111741.0A priority Critical patent/CN106934353B/zh
Publication of CN106934353A publication Critical patent/CN106934353A/zh
Application granted granted Critical
Publication of CN106934353B publication Critical patent/CN106934353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

本发明的目的是提出一种用于养老机器人的人脸识别及主动跟踪的方法,属于计算机视觉领域。在利用灰度梯度直方图和支持向量机的实现人脸检测的基础上,利用卷积神经网络提取人脸图像特征实现人脸识别。并采用粒子滤波跟踪算法为机器人设计一种主动视觉系统,以便让养老机器人头部摄像机可以主动跟踪家庭成员的面部。当人脸偏转角度、俯仰角度过大时,养老机器人不能识别出人脸,摄像机依赖头部俯仰电机以及轮子电机实现2个自由度旋转,完成对目标的有效主动跟踪,确保目标始终在视场中。

Description

一种用于养老机器人的人脸识别及主动跟踪的方法
技术领域
本发明涉及一种用于养老机器人的人脸识别及主动跟踪的方法,属于计算机视觉领域。
背景技术
对于服务型机器人,视觉系统是机器人中的一个关键技术,为机器人感知外部环境提供视觉信息。
目前的家庭服务型机器人中,摄像机被大量应用,主要提供了人脸检测功能,并没有针对家庭成员建立有效的数据库,且摄像机不能有效跟踪家庭成员的面部,在人脸不能够被检测到的角度情况下,不能主动调整机器人头部视角以及机器人的正面方向。
现有的技术文献中,发明专利“一种用于智能机器人的人脸识别方法及系统”,公开号为CN201510145184.5,提出了一种面向机器人的人脸识别。该方法的缺点是,当人脸偏转角度、俯仰角度过大时,机器人不能识别出人脸,摄像机也不能有对目标实现有效的主动跟踪。另外,该方法摄像机保持不动,无法确保目标始终在视场中。
发明内容
本发明的目的是提出一种用于养老机器人的人脸识别及主动跟踪的方法,在利用卷积神经网络实现人脸识别的基础上,为机器人设计一种主动视觉系统,以便让养老机器人头部可以主动跟踪家庭成员的面部。
本发明提出的一种用于养老机器人的人脸识别及主动跟踪的方法,包括以下步骤:
(1)对养老机器人头部摄像机得到的图像进行人脸检测,得到人脸图像Tn'×n,具体包括以下几个步骤:
(1‐1)养老机器人头部摄像机获取图像I,对图像I进行灰度化,得到灰度图I';
(1‐2)对上述步骤得到的灰度图I'进行归一化,得到归一化后的图像I”,
Figure BDA0001234480270000021
其中,I'max为灰度图I'中最大像素值,I'min为灰度图I'中最小像素值,x,y分别为灰度图I'中的像素横纵坐标;
(1‐3)对上述步骤得到的归一化后的图像I”进行下采样,得到图像Mm×m,其中m=250;
(1‐4)利用基于灰度梯度直方图的支持向量机人脸检测模型对图像Mm×m进行检测,得到人脸检测区域;如果检测到人脸区域,记为R0,则进行下一步;否则重复过程(1‐1)~(1‐4);
(1‐5)设人脸的初始标准标记点为l0,提取步骤(1‐4)中检测到人脸区域的图像Mm×m的标记点l*,得到仿射矩阵
Figure BDA0001234480270000022
Figure BDA0001234480270000023
其中f为仿射变换函数;
(1‐6)根据步骤(1‐5)中得到的仿射矩阵
Figure BDA0001234480270000024
按照如下公式得到对齐之后的图像M′m×m
Figure BDA0001234480270000025
(1‐7)重复步骤(1‐4),得到人脸区域,记为R(x,y,w,h),其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(1‐8)截取上述步骤(1‐7)中的人脸区域R(x,y,w,h),得到人脸图像T;
(1‐9)将上述步骤(1‐8)得到的人脸图像T归一化,得到人脸图像T′n×n,其中,n=128;
(2)利用卷积神经网络对步骤(1‐9)中得到的人脸图像T′n×n进行特征提取,得到特征向量p;
(3)养老机器人头部摄像机对多个家庭成员建立人脸数据库,具体包括以下步骤:
(3‐1)重复步骤(1),提取每个家庭成员的人脸图像;
(3‐2)遍历(3‐1)中的所有家庭成员人脸图像,重复步骤(2),得到家庭成员特征矩阵P=[p1 p2…pN],其中,pi为第i个家庭成员的人脸特征向量,i=1,2,...,N,N为家庭成员人数;
(4)根据上述步骤(1)~(2)得到的的人脸图像的特征向量,记为p*,以及根据步骤(3)得到的家庭成员特征矩阵P,进行人脸识别,具体包括以下几个步骤;
(4‐1)计算当前图像的特征向量p*与家庭成员特征矩阵P=[p1 p2…pN]中的每一个特征的余弦距离,得到N个距离值dist:
Figure BDA0001234480270000031
其中,pi为第i个家庭成员的人脸特征向量,<p*,pi>为当前图像的特征向量p*和pi的内积,i=1,2,...,N,N为家庭成员人数;
(4‐2)将上述步骤得到的N个距离值dist从小到大排序,选取最小的距离值作为最终的识别结果,记为dist*
(4‐3)设一个阈值λ=0.3,如果dist*≤λ,那么将得到dist*的特征向量所对应的家庭成员作为最终识别结果,把步骤(1‐7)中得到的人脸区域R(x,y,w,h)作为最终的人脸区域;如果dist*>λ,当前图像无法识别;
(5)根据上述步骤得到的人脸区域R(x,y,w,h),养老机器人头部的摄像机主动跟踪该区域,具体包括以下步骤:
(5-1)按下式计算人脸区域R(x,y,w,h)的中心,记为O(x',y'),其中,x'为人脸区域中心的横坐标,y'为人脸区域中心的纵坐标,
x'=x+w/2
y'=y+h/2,
其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(5-2)计算人脸区域中心O(x',y')与摄像机成像平面的中心C(x0,y0)之间的欧式距离d,
Figure BDA0001234480270000041
设定距离阈值threshold,对距离d进行判断,若d>threshold,则向养老机器人发送一个调整指令,使养老机器人头部摄像机向使距离d减小的方向转动,直到d≤threshold,若d≤threshold,则机器人保持原来位姿;
(5-3)采用粒子滤波跟踪算法,养老机器人主动跟踪待人脸,具体步骤如下:
(5-3-1)养老机器人头部的摄像机获取待家庭成员的视频图像序列,重复上述步骤(1)~(4)对视频图像序列中t0时刻的图像进行人脸检测,得到人脸区域R,将该区域标标记为待跟踪的目标区域;
(5-3-2)根据(5-3-1)得到的待跟踪目标区域的中心为原点,产生一个粒子集
Figure BDA0001234480270000042
其中m为该集合中的粒子个数,m=1,...,M;设粒子集
Figure BDA0001234480270000043
中的粒子的运动服从正态分布,粒子集
Figure BDA0001234480270000044
中的每个粒子独立传播,得到t时刻的粒子集
Figure BDA0001234480270000045
和t+1时刻的粒子集
Figure BDA0001234480270000046
(5-3-3)设t0时刻粒子集
Figure BDA0001234480270000047
的参考直方图为
Figure BDA0001234480270000048
参考直方图q*共有L个灰度级,设t时刻粒子集
Figure BDA0001234480270000051
的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集
Figure BDA0001234480270000052
中的粒子,对t时刻粒子集
Figure BDA0001234480270000053
中的每个粒子独立传播后,得到的t+1时刻粒子集
Figure BDA0001234480270000054
进行观测,得到粒子集
Figure BDA0001234480270000055
中每个粒子区域的颜色直方图和参考直方图,计算粒子集
Figure BDA0001234480270000056
中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:
Figure BDA0001234480270000057
定义粒子权值为ω,使ω=D,N的取值为300;
(5-3-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):
Figure BDA0001234480270000058
其中,ωt+1是t+1时刻的每个粒子权值;
(5-3-5)将上述概率期望值E(xt+1)作为待跟踪目标在t+1时刻的存在概率最优估计,并将上述粒子集
Figure BDA0001234480270000059
中的存在概率最优粒子所覆盖的区域的中心作为待跟踪目标区域中心;
(5-3-6)重复上述步骤(5-3-2)~步骤(5-3-5),得到待跟踪目标在时刻t到下一时刻t+1的存在概率最优估计和待跟踪目标区域中心;
(5-3-7)重复步骤(5-2),使养老机器人头部的摄像机对准上述步骤(5-3-6)的待跟踪目标区域中心;
本发明的目的是提出一种用于养老机器人的人脸识别及主动跟踪的方法,具有以下优点:
1、本发明提出的一种用于养老机器人的人脸识别及主动跟踪的方法,采用深度学习提取家庭成员人脸特征进行识别;
2、本发明采用了粒子滤波跟踪算法,并通过控制养老机器人的头部电机和轮子电机,实现摄像机的主动跟踪,提高摄像机跟踪的鲁棒性。
附图说明
图1是本发明方法中摄像机控制模型示意图。
具体实施方式
本发明提出的一种用于养老机器人的人脸识别及主动跟踪的方法,包括以下步骤:
(1)对养老机器人头部摄像机得到的图像进行人脸检测,得到人脸图像Tn'×n,具体包括以下几个步骤:
(1‐1)养老机器人头部摄像机获取图像I,对图像I进行灰度化,得到灰度图I';
(1‐2)对上述步骤得到的灰度图I'进行归一化,得到归一化后的图像I”,
Figure BDA0001234480270000061
其中,I'max为灰度图I'中最大像素值,I'min为灰度图I'中最小像素值,x,y分别为灰度图I'中的像素横纵坐标;
(1‐3)对上述步骤得到的归一化后的图像I”进行下采样,得到图像Mm×m,其中m=250;
(1‐4)利用基于灰度梯度直方图的支持向量机人脸检测模型对图像Mm×m进行检测,得到人脸检测区域;如果检测到人脸区域,记为R0,则进行下一步;否则重复过程(1‐1)~(1‐4);
(1‐5)设人脸的初始标准标记点为l0,提取步骤(1‐4)中检测到人脸区域的图像Mm×m的标记点l*,得到仿射矩阵
Figure BDA0001234480270000062
Figure BDA0001234480270000063
其中f为仿射变换函数;
(1‐6)根据步骤(1‐5)中得到的仿射矩阵
Figure BDA0001234480270000064
按照如下公式得到对齐之后的图像M′m×m
Figure BDA0001234480270000065
(1‐7)重复步骤(1‐4),得到人脸区域,记为R(x,y,w,h),其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(1‐8)截取上述步骤(1‐7)中的人脸区域R(x,y,w,h),得到人脸图像T;
(1‐9)将上述步骤(1‐8)得到的人脸图像T归一化,得到人脸图像T′n×n,其中,n=128;
(2)利用卷积神经网络对步骤(1‐9)中得到的人脸图像T′n×n进行特征提取,得到特征向量p;
(3)养老机器人头部摄像机对多个家庭成员建立人脸数据库,具体包括以下步骤:
(3‐1)重复步骤(1),提取每个家庭成员的人脸图像;
(3‐2)遍历(3‐1)中的所有家庭成员人脸图像,重复步骤(2),得到家庭成员特征矩阵P=[p1 p2…pN],其中,pi为第i个家庭成员的人脸特征向量,i=1,2,...,N,N为家庭成员人数;
(4)根据上述步骤(1)~(2)得到的的人脸图像的特征向量,记为p*,以及根据步骤(3)得到的家庭成员特征矩阵P,进行人脸识别,具体包括以下几个步骤;
(4‐1)计算当前图像的特征向量p*与家庭成员特征矩阵P=[p1 p2…pN]中的每一个特征的余弦距离,得到N个距离值dist:
Figure BDA0001234480270000071
其中,pi为第i个家庭成员的人脸特征向量,<p*,pi>为当前图像的特征向量p*和pi的内积,i=1,2,...,N,N为家庭成员人数;
(4‐2)将上述步骤得到的N个距离值dist从小到大排序,选取最小的距离值作为最终的识别结果,记为dist*
(4‐3)设一个阈值λ=0.3,如果dist*≤λ,那么将得到dist*的特征向量所对应的家庭成员作为最终识别结果,把步骤(1‐7)中得到的人脸区域R(x,y,w,h)作为最终的人脸区域;如果dist*>λ,当前图像无法识别;
(5)根据上述步骤得到的人脸区域R(x,y,w,h),养老机器人头部的摄像机主动跟踪该区域,具体包括以下步骤:
(5-1)按下式计算人脸区域R(x,y,w,h)的中心,记为O(x',y'),其中,x'为人脸区域中心的横坐标,y'为人脸区域中心的纵坐标,
x'=x+w/2
y'=y+h/2,
其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(5-2)计算人脸区域中心O(x',y')与摄像机成像平面的中心C(x0,y0)之间的欧式距离d,如图1所示,
Figure BDA0001234480270000081
设定距离阈值threshold,对距离d进行判断,若d>threshold,则向养老机器人发送一个调整指令,使养老机器人头部摄像机向使距离d减小的方向转动,直到d≤threshold,若d≤threshold,则机器人保持原来位姿;
(5-3)采用粒子滤波跟踪算法,养老机器人主动跟踪待人脸,具体步骤如下:
(5-3-1)养老机器人头部的摄像机获取待家庭成员的视频图像序列,重复上述步骤(1)~(4)对视频图像序列中t0时刻的图像进行人脸检测,得到人脸区域R,将该区域标标记为待跟踪的目标区域;
(5-3-2)根据(5-3-1)得到的待跟踪目标区域的中心为原点,产生一个粒子集
Figure BDA0001234480270000082
其中m为该集合中的粒子个数,m=1,...,M;设粒子集
Figure BDA0001234480270000083
中的粒子的运动服从正态分布,粒子集
Figure BDA0001234480270000084
中的每个粒子独立传播,得到t时刻的粒子集
Figure BDA0001234480270000085
和t+1时刻的粒子集
Figure BDA0001234480270000086
(5-3-3)设t0时刻粒子集
Figure BDA0001234480270000091
的参考直方图为
Figure BDA0001234480270000092
参考直方图q*共有L个灰度级,设t时刻粒子集
Figure BDA0001234480270000093
的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集
Figure BDA0001234480270000094
中的粒子,对t时刻粒子集
Figure BDA0001234480270000095
中的每个粒子独立传播后,得到的t+1时刻粒子集
Figure BDA0001234480270000096
进行观测,得到粒子集
Figure BDA0001234480270000097
中每个粒子区域的颜色直方图和参考直方图,计算粒子集
Figure BDA0001234480270000098
中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:
Figure BDA0001234480270000099
定义粒子权值为ω,使ω=D,N的取值为300;
(5-3-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):
Figure BDA00012344802700000910
其中,ωt+1是t+1时刻的每个粒子权值;
(5-3-5)将上述概率期望值E(xt+1)作为待跟踪目标在t+1时刻的存在概率最优估计,并将上述粒子集
Figure BDA00012344802700000911
中的存在概率最优粒子所覆盖的区域的中心作为待跟踪目标区域中心;
(5-3-6)重复上述步骤(5-3-2)~步骤(5-3-5),得到待跟踪目标在时刻t到下一时刻t+1的存在概率最优估计和待跟踪目标区域中心;
(5-3-7)重复步骤(5-2),使养老机器人头部的摄像机对准上述步骤(5-3-6)的待跟踪目标区域中心。

Claims (1)

1.一种用于养老机器人的人脸识别及主动跟踪的方法,其特征在于该方法包括以下步骤:
(1)对养老机器人头部摄像机得到的图像进行人脸检测,得到人脸图像T'n×n,具体包括以下几个步骤:
(1-1)养老机器人头部摄像机获取图像I,对图像I进行灰度化,得到灰度图I';
(1-2)对上述步骤得到的灰度图I'进行归一化,得到归一化后的图像I”,
Figure FDA0002532621940000011
其中,I'max为灰度图I'中最大像素值,I'min为灰度图I'中最小像素值,x,y分别为灰度图I'中的像素横纵坐标;
(1-3)对上述步骤得到的归一化后的图像I”进行下采样,得到图像Mm×m,其中m=250;
(1-4)利用基于灰度梯度直方图的支持向量机人脸检测模型对图像Mm×m进行检测,得到人脸检测区域;如果检测到人脸区域,记为R,则进行下一步;否则重复过程(1-1)~(1-4);
(1-5)设人脸的初始标准标记点为l0,提取步骤(1-4)中检测到人脸区域R所对应的图像Mm×m的标记点l*,得到仿射矩阵
Figure FDA0002532621940000012
Figure FDA0002532621940000013
其中f为仿射变换函数;
(1-6)根据步骤(1-5)中得到的仿射矩阵
Figure FDA0002532621940000014
按照如下公式得到对齐之后的图像M'm×m
Figure FDA0002532621940000015
(1-7)重复步骤(1-4),对上述步骤得到的对齐之后的图像M'm×m进行人脸检测,得到人脸区域R(x,y,w,h),其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(1-8)截取上述步骤(1-7)中的人脸区域R(x,y,w,h),得到人脸图像T;
(1-9)将上述步骤(1-8)得到的人脸图像T归一化,得到人脸图像T'n×n,其中,n=128;
(2)利用卷积神经网络对步骤(1-9)中得到的人脸图像T'n×n进行特征提取,得到特征向量p*
(3)养老机器人头部摄像机对多个家庭成员建立人脸数据库,具体包括以下步骤:
(3-1)重复步骤(1),提取每个家庭成员的人脸图像;
(3-2)遍历(3-1)中的所有家庭成员人脸图像,重复步骤(2),得到家庭成员特征矩阵P=[p1 p2…pN],其中,pi为第i个家庭成员的人脸特征向量,i=1,2,...,N,N为家庭成员人数;
(4)根据上述步骤(1)~(2)得到的人脸图像的特征向量,记为p*,以及根据步骤(3)得到的家庭成员特征矩阵P,进行人脸识别,具体包括以下几个步骤;
(4-1)计算当前图像的特征向量p*与家庭成员特征矩阵P=[p1 p2…pN]中的每一个特征的余弦距离,得到N个距离值dist:
Figure FDA0002532621940000021
其中,pi为第i个家庭成员的人脸特征向量,<p*,pi>为当前图像的特征向量p*和pi的内积,i=1,2,...,N,N为家庭成员人数;
(4-2)将上述步骤得到的N个距离值dist从小到大排序,选取最小的距离值作为最终的识别结果,记为dist*
(4-3)设一个阈值λ=0.3,如果dist*≤λ,那么将得到dist*的特征向量所对应的家庭成员作为最终识别结果,把步骤(1-7)中得到的人脸区域R(x,y,w,h)作为最终的人脸区域;如果dist*>λ,当前图像无法识别;
(5)根据上述步骤得到的人脸区域R(x,y,w,h),养老机器人头部的摄像机主动跟踪该区域,具体包括以下步骤:
(5-1)按下式计算人脸区域R(x,y,w,h)的中心,记为O(x',y'),其中,x'为人脸区域中心的横坐标,y'为人脸区域中心的纵坐标,
Figure FDA00025326219400000317
其中,x,y为人脸区域R的初始坐标,w为人脸区域R的宽度,h为人脸区域R的高度;
(5-2)计算人脸区域中心O(x',y')与摄像机成像平面的中心C(x0,y0)之间的欧式距离d,
Figure FDA0002532621940000031
设定距离阈值threshold,对距离d进行判断,若d>threshold,则向养老机器人发送一个调整指令,使养老机器人头部摄像机向使距离d减小的方向转动,直到d≤threshold,若d≤threshold,则机器人保持原来位姿;
(5-3)采用粒子滤波跟踪算法,养老机器人主动跟踪待人脸,具体步骤如下:
(5-3-1)养老机器人头部的摄像机获取待家庭成员的视频图像序列,重复上述步骤(1)~(4)对视频图像序列中t0时刻的图像进行人脸检测,得到人脸区域R,将该区域标记为待跟踪的目标区域;
(5-3-2)根据(5-3-1)得到的待跟踪目标区域的中心为原点,产生一个粒子集
Figure FDA0002532621940000032
其中m为该集合中的粒子个数,m=1,...,M;设粒子集
Figure FDA0002532621940000033
中的粒子的运动服从正态分布,粒子集
Figure FDA0002532621940000034
中的每个粒子独立传播,得到t时刻的粒子集
Figure FDA0002532621940000035
和t+1时刻的粒子集
Figure FDA0002532621940000036
(5-3-3)设t0时刻粒子集
Figure FDA0002532621940000037
的参考直方图为
Figure FDA0002532621940000038
其中
Figure FDA0002532621940000039
为粒子集
Figure FDA00025326219400000310
中的粒子,参考直方图q*共有L个灰度级,设t时刻粒子集
Figure FDA00025326219400000311
的颜色直方图为qt(x)=qt(n;x),n=1,2...L,x为粒子集
Figure FDA00025326219400000312
中的粒子,对t时刻粒子集
Figure FDA00025326219400000313
中的每个粒子独立传播后,得到的t+1时刻粒子集
Figure FDA00025326219400000314
进行观测,得到粒子集
Figure FDA00025326219400000315
中每个粒子区域的颜色直方图qt+1(x)=qt+1(n;x),n=1,2...L,计算粒子集
Figure FDA00025326219400000316
中每个粒子区域的颜色直方图和参考直方图之间的巴氏距离D:
Figure FDA0002532621940000041
其中n=1,2...L,定义粒子权值为ω,使ω=D,N的取值为300;
(5-3-4)对上述粒子权值进行后验概率计算,得到t+1时刻粒子的存在概率期望值E(xt+1):
Figure FDA0002532621940000042
其中,ωt+1是t+1时刻的每个粒子权值;
(5-3-5)将上述概率期望值E(xt+1)作为待跟踪目标在t+1时刻的存在概率最优估计,并将上述粒子集
Figure FDA0002532621940000043
中的存在概率最优粒子所覆盖的区域的中心作为待跟踪目标区域中心;
(5-3-6)重复上述步骤(5-3-2)~步骤(5-3-5),得到待跟踪目标在时刻t到下一时刻t+1的存在概率最优估计和待跟踪目标区域中心;
(5-3-7)重复步骤(5-2),使养老机器人头部的摄像机对准上述步骤(5-3-6)的待跟踪目标区域中心。
CN201710111741.0A 2017-02-28 2017-02-28 一种用于养老机器人的人脸识别及主动跟踪的方法 Active CN106934353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710111741.0A CN106934353B (zh) 2017-02-28 2017-02-28 一种用于养老机器人的人脸识别及主动跟踪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710111741.0A CN106934353B (zh) 2017-02-28 2017-02-28 一种用于养老机器人的人脸识别及主动跟踪的方法

Publications (2)

Publication Number Publication Date
CN106934353A CN106934353A (zh) 2017-07-07
CN106934353B true CN106934353B (zh) 2020-08-04

Family

ID=59424143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710111741.0A Active CN106934353B (zh) 2017-02-28 2017-02-28 一种用于养老机器人的人脸识别及主动跟踪的方法

Country Status (1)

Country Link
CN (1) CN106934353B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108177146A (zh) * 2017-12-28 2018-06-19 北京奇虎科技有限公司 机器人头部的控制方法、装置及计算设备
CN108985232A (zh) * 2018-07-18 2018-12-11 平安科技(深圳)有限公司 人脸图像比对方法、装置、计算机设备及存储介质
CN109214273A (zh) * 2018-07-18 2019-01-15 平安科技(深圳)有限公司 人脸图像比对方法、装置、计算机设备及存储介质
CN111860366A (zh) * 2020-07-24 2020-10-30 兰州理工大学白银新材料研究院 一种远程控制的智能人脸识别防疫门禁系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268539A (zh) * 2014-10-17 2015-01-07 中国科学技术大学 一种高性能的人脸识别方法及系统
CN104647390A (zh) * 2015-02-11 2015-05-27 清华大学 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268993B2 (en) * 2013-03-13 2016-02-23 Futurewei Technologies, Inc. Real-time face detection using combinations of local and global features

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268539A (zh) * 2014-10-17 2015-01-07 中国科学技术大学 一种高性能的人脸识别方法及系统
CN104647390A (zh) * 2015-02-11 2015-05-27 清华大学 用于机械臂遥操作的多摄像机联合主动跟踪目标的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Tracking of a target person using face recognition by surveillance robot;Sachin Kansal et al.;《2012 International Conference on Communication, Information & Computing Technology (ICCICT)》;20121231;第1-6页 *
基于视频的人脸追踪与识别;赵飞飞;《中国优秀硕士学位论文全文数据库 信息科技辑》;20161115;第2016年卷(第11期);第I138-399页 *

Also Published As

Publication number Publication date
CN106934353A (zh) 2017-07-07

Similar Documents

Publication Publication Date Title
CN109784333B (zh) 基于点云带权通道特征的三维目标检测方法及系统
CN106934353B (zh) 一种用于养老机器人的人脸识别及主动跟踪的方法
CN111784747B (zh) 一种基于关键点检测和校正的车辆多目标跟踪系统及方法
CN112819094B (zh) 一种基于结构相似度度量的目标检测与识别方法
CN108108746B (zh) 基于Caffe深度学习框架的车牌字符识别方法
KR102462818B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
CN110866903B (zh) 基于霍夫圆变换技术的乒乓球识别方法
US20070291991A1 (en) Unusual action detector and abnormal action detecting method
CN106682641A (zh) 基于fhog‑lbph特征的图像行人识别方法
WO2023097931A1 (zh) 一种基于霍夫变换的车牌倾斜校正方法
CN108694356B (zh) 行人检测装置及方法、辅助驾驶系统
TWI415032B (zh) Object tracking method
CN108875623B (zh) 一种基于图像特征融合对比技术的人脸识别方法
CN111144207A (zh) 一种基于多模态信息感知的人体检测和跟踪方法
CN104036250A (zh) 视频行人检测与跟踪方法
CN109325472B (zh) 一种基于深度信息的人脸活体检测方法
CN111611907A (zh) 一种图像增强的红外目标检测方法
CN110991398A (zh) 一种基于改进步态能量图的步态识别方法及系统
CN111652033A (zh) 基于OpenCV的车道线检测方法
CN111428573B (zh) 一种复杂背景下的红外弱小目标检测虚警抑制方法
Wang et al. Unstructured road detection using hybrid features
CN111222447A (zh) 基于神经网络及多通道融合lbp特征的活体检测方法
CN104063682A (zh) 一种基于边缘分级和centrist特征的行人检测方法
CN108009480A (zh) 一种基于特征识别的图像人体行为检测方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Wang Yuji

Inventor after: Teng Hui

Inventor after: Liu Huaping

Inventor before: Wang Yuji

Inventor before: Teng Hui

Inventor before: Liu Huaping

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant