CN108564020B - 基于全景3d图像的微手势识别方法 - Google Patents

基于全景3d图像的微手势识别方法 Download PDF

Info

Publication number
CN108564020B
CN108564020B CN201810306498.2A CN201810306498A CN108564020B CN 108564020 B CN108564020 B CN 108564020B CN 201810306498 A CN201810306498 A CN 201810306498A CN 108564020 B CN108564020 B CN 108564020B
Authority
CN
China
Prior art keywords
image
images
morphological
coordinates
micro
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810306498.2A
Other languages
English (en)
Other versions
CN108564020A (zh
Inventor
雷涛
加小红
张宇啸
李云彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi University of Science and Technology
Original Assignee
Shaanxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi University of Science and Technology filed Critical Shaanxi University of Science and Technology
Priority to CN201810306498.2A priority Critical patent/CN108564020B/zh
Publication of CN108564020A publication Critical patent/CN108564020A/zh
Application granted granted Critical
Publication of CN108564020B publication Critical patent/CN108564020B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及基于全景3D图像的微手势识别方法,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。本发明主要解决模糊网格导致HoMG图像识别精度低的问题,能有效提高基于HoMG图像的微手势识别精度,可广泛应用于人机交互领域。

Description

基于全景3D图像的微手势识别方法
技术领域
本发明涉及模式识别技术领域,具体涉及一种基于全景3D图像的微手势识别方法。
背景技术
手势识别是人机交互的关键步骤,在机器视觉和虚拟现实中有着广泛的应用。目前,基于手势识别的算法大致可分为两类:一类是手套采集方法;一类是视觉识别方法;第一类方法利用手套上的多个传感器来记录手势数据,虽然识别准确度高,但由于手套上传感器的限制,导致手势内容相对单一,实用性较差。第二类方法则利用Kinect和RGB-D相机捕捉手势的深度信息,通过挖掘深度信息进行手势识别,由于视觉识别具有直观、方便等特点,所以基于视觉的手势识别算法越来越受到使用者的青睐。
传统的手势识别主要由三个步骤组成,即手势分割、特征提取和分类器选择,其中手势分割是为了确定手势的大致轮廓,减少复杂背景对后续处理的干扰。特征提取是为了去除冗余信息,利用目标特征来表示原始图像。最后选择合适的分类器对特征数据进行分类。特征描述子和分类器类型较多,需凭借经验选择恰当的特征描述子和分类器类型。
由于卷积神经网络(Convolutional Neural Network,CNN)能自动学习图像特征,所以CNN模型已广泛应用于图像分类和目标检测中。近年来,学者们提出了大量改进的CNN模型并将其应用于手势识别。其中,Arenas等人提出了基于区域的CNN手势识别方法,该方法能够实现不同背景下的动态手势识别,但不利于微手势的识别。
Figure BDA0001621119480000021
等人通过联合CNN模型和长短期记忆网络(Long Short-Term Memory,LSTM),提出了CNN+LSTM的手势识别算法,虽然该方法能获得更高的手势识别结果,但由于需要两级网络导致该方法的计算复杂度较高。针对Kinect和RGB-D相机不能捕获图像微小变化的问题,Liu等人利用全景3D成像系统创建了全景3D微手势图库(Holoscopic 3D Micro-Gesture,HoMG),全景3D成像系统是利用尺寸大小为28×28的微镜头阵列来采集信息,虽然每个镜头有效记录了手势的局部偏差,但也造成了HoMG图像中模糊网格的出现,由于模糊网格的干扰,导致传统的特征描述子和CNN模型难以有效提取图像特征,微手势识别精度较低。
发明内容
本发明的目的是提供一种基于全景3D图像的微手势识别方法,解决了现有技术中由于HoMG图库中模糊网格的干扰导致传统特征描述子和CNN模型不能有效提取图像特征的技术缺陷。
本发明所采用的技术方案为:
基于全景3D图像的微手势识别方法,其特征在于:
由以下步骤实现:
首先,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度;
其次,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓;
然后,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标;
最后,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。
具体包括以下步骤:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用快速模糊C均值聚类算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别。
步骤(2)具体由以下步骤实现:
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure BDA0001621119480000031
其中,Bh表示水平结构元素,Bh=ones(1,100),
Figure BDA0001621119480000032
表示形态学开运算,ξh表示形态学水平滤波结果;
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure BDA0001621119480000046
其中,Bv表示竖直结构元素,Bv=ones(100,1),
Figure BDA0001621119480000047
表示形态学开运算,ξv表示形态学竖直滤波结果。
步骤(3)具体由以下步骤实现:
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新快速模糊C均值聚类算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
Figure BDA0001621119480000041
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以
Figure BDA0001621119480000042
n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件
Figure BDA0001621119480000043
与目标函数构建一个新的函数,公式如下:
Figure BDA0001621119480000044
计算F函数极值对应的聚类中心vi,即
Figure BDA0001621119480000045
可得:
Figure BDA0001621119480000051
计算F函数极值对应的隶属度强度uij,即
Figure BDA0001621119480000052
可得:
Figure BDA0001621119480000053
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b);
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
步骤(4)具体由以下步骤实现:
形态学细化公式如下:
Figure BDA0001621119480000054
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,
Figure BDA0001621119480000055
表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l。
步骤(5)具体由以下步骤实现:
(a)首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标;
水平基准坐标的计算公式如下:
Figure BDA0001621119480000061
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标;
(b)竖直基准坐标的计算公式如下:
Figure BDA0001621119480000062
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标。
步骤(6)具体由以下步骤实现:
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像;
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像转换为9幅低分辨率的子图像。
本发明具有以下优点:
1、针对HoMG图像中模糊网格的问题,利用形态学滤波、FFCM算法以及形态学细化算法可快速重建多张子图像,不仅保留了HoMG图像的局部信息,而且克服了模糊网格对后续手势识别的干扰。
2、针对特征描述子与分类器较难匹配的问题,利用CNN模型避免了人工特征的选取,提高了微手势的识别精度。
附图说明
图1是本发明实现步骤的流程原理框图。
图2是本发明对黑色背景HoMG图像的重建过程。
图3是本发明对白色背景HoMG图像的重建过程。
图4是本发明对不同背景不同手势HoMG图像的重建结果。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明涉及一种基于全景3D图像的微手势识别方法,涉及形态学理论、模糊聚类算法和深度学习模型,可广泛应用于人机交互中的微手势识别。
由于HoMG图库中模糊网格的干扰,导致传统特征描述子和CNN模型不能有效提取图像特征,为了解决该问题,本发明首先利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度。其次通过快速模糊C均值聚类算法(Fast Fuzzy C-Means,FFCM)分割滤波图像,检测线条轮廓。然后根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标。最后利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。
具体实现步骤如下:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用FFCM算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别。
图1是本发明实现步骤的流程原理框图,针对HoMG图像的识别问题,本发明设计了一种基于全景3D图像的微手势识别方法,具体描述如下:
(1)输入HoMG图像f,分辨率为1920×1080;
(2)利用形态学滤波算法提升HoMG图像的水平和竖直线条,增强线条与背景的对比度。
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure BDA0001621119480000081
其中,Bh表示水平结构元素,Bh=ones(1,100),
Figure BDA0001621119480000082
表示形态学开运算,ξh表示形态学水平滤波结果,滤波结果不仅增强了水平线条与背景的对比度,而且避免了竖直线条对水平线条的干扰。
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure BDA0001621119480000083
其中,Bv表示竖直结构元素,Bv=ones(100,1),
Figure BDA0001621119480000096
表示形态学开运算,ξv表示形态学竖直滤波结果,滤波结果不仅增强了竖直线条与背景的对比度,而且避免了水平直线条对竖直线条的干扰。
为简化后续的公式表述,滤波后的图像(ξh和ξv)均由ξ表示;
(3)利用FFCM算法对滤波后的图像ξ进行线条分割,以检测水平和竖直线条。
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新FFCM算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
Figure BDA0001621119480000091
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以
Figure BDA0001621119480000092
n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件
Figure BDA0001621119480000093
与目标函数构建一个新的函数,公式如下:
Figure BDA0001621119480000094
计算F函数极值对应的聚类中心vi,即
Figure BDA0001621119480000095
可得:
Figure BDA0001621119480000101
计算F函数极值对应的隶属度强度uij,即
Figure BDA0001621119480000102
可得:
Figure BDA0001621119480000103
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b)。
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
(4)对于FFCM分割后的图像g,利用形态学细化算法准确定位水平和竖直线条。
形态学细化就是利用线条结构来表征图像中的连通区域,避免连通面积对坐标位置的干扰,形态学细化公式如下:
Figure BDA0001621119480000104
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,
Figure BDA0001621119480000105
表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l;
(5)利用线条间隔的最小方差确定水平和竖直的基准坐标。
(a)由于图像l为二值图像,所以通过检测线条索引值位置就可确定线条坐标,但由于HoMG图像中手势的干扰,可能导致部分线条缺失,针对该问题,本发明首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标。
水平基准坐标的计算公式如下:
Figure BDA0001621119480000111
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标。
(b)竖直基准坐标的计算公式如下:
Figure BDA0001621119480000112
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标;
(6)根据基准坐标,构建图像网格,通过提取每个网格中对应的中心像素以及其邻域像素重建多张清晰的子图像;
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像。
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像(1920×1080)转换为9幅低分辨率(66×38)的子图像。
(7)把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别;
本发明的效果可以通过以下实验进一步说明。
为了检测本发明对HoMG图像的优越性,通过两种不同背景的测试图像展示本发明的重建过程,如图2-3所示,其中图像的分辨率为1920×1080,仿真实验及相关测试均在CPU:Intel(R)Core(TM)i7-6700 3.40GHz,内存16GB的硬件环境和MATLAB R2016b的软件环境下完成。从图2-3可以看出,本发明能有效重建不同背景的HoMG图像,重建后的图像较为清晰,利于特征描述子和CNN模型的特征提取。图4则展示了不同背景不同手势的重建效果,利用多张重建图像来反映HoMG图像所蕴含的多角度信息。为了进一步说明本发明重建图像的有效性,利用传统算法对原始图像和重建图像进行识别,对于含有多张重建的子图像,则选用投票的形式来确定其微手势类别,识别精度如表1所示,从表1可得,重建图像的识别精度高于原始图像的识别精度,且随着重建子图像个数的增多,识别精度也在逐渐提升。由于重建子图像之间差异较小,CNN模型可忽略其对训练的影响,所以利用CNN模型对原始图像和单张重建图像进行测试,测试结果如表2所示,从表2可得,重建图像的识别精度明显优于原始图像的识别精度。从表1-2可得,重建图像更有利于微手势识别,为人机交互奠定了基础。
表1传统算法对原始图像和重建图像的识别精度
Figure BDA0001621119480000131
表2CNN模型对原始图像和重建图像的识别精度
Figure BDA0001621119480000132
本发明的内容不限于实施例所列举,本领域普通技术人员通过阅读本发明说明书而对本发明技术方案采取的任何等效的变换,均为本发明的权利要求所涵盖。

Claims (5)

1.基于全景3D图像的微手势识别方法,其特征在于:
由以下步骤实现:
首先,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度;
其次,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓;
然后,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标;
最后,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别;
具体包括以下步骤:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用快速模糊C均值聚类算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别;
步骤(5)具体由以下步骤实现:
(a)首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标;
水平基准坐标的计算公式如下:
Figure FDA0003067228230000021
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标;
(b)竖直基准坐标的计算公式如下:
Figure FDA0003067228230000022
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标。
2.根据权利要求1所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(2)具体由以下步骤实现:
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure FDA0003067228230000023
其中,Bh表示水平结构元素,Bh=ones(1,100),
Figure FDA0003067228230000024
表示形态学开运算,ξh表示形态学水平滤波结果;
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
Figure FDA0003067228230000034
其中,Bv表示竖直结构元素,Bv=ones(100,1),
Figure FDA0003067228230000035
表示形态学开运算,ξv表示形态学竖直滤波结果。
3.根据权利要求2所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(3)具体由以下步骤实现:
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新快速模糊C均值聚类算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
Figure FDA0003067228230000031
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以
Figure FDA0003067228230000032
n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件
Figure FDA0003067228230000033
与目标函数构建一个新的函数,公式如下:
Figure FDA0003067228230000041
计算F函数极值对应的聚类中心vi,即
Figure FDA0003067228230000042
可得:
Figure FDA0003067228230000043
计算F函数极值对应的隶属度强度uij,即
Figure FDA0003067228230000044
可得:
Figure FDA0003067228230000045
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b);
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
4.根据权利要求3所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(4)具体由以下步骤实现:
形态学细化公式如下:
Figure FDA0003067228230000046
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,
Figure FDA0003067228230000047
表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l。
5.根据权利要求4所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(6)具体由以下步骤实现:
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像;
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像转换为9幅低分辨率的子图像。
CN201810306498.2A 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法 Active CN108564020B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810306498.2A CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810306498.2A CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Publications (2)

Publication Number Publication Date
CN108564020A CN108564020A (zh) 2018-09-21
CN108564020B true CN108564020B (zh) 2021-07-13

Family

ID=63534402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810306498.2A Active CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Country Status (1)

Country Link
CN (1) CN108564020B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361382B (zh) * 2021-05-14 2024-02-02 沈阳工业大学 基于压缩相对轮廓特征点的手形识别方法
CN117558068B (zh) * 2024-01-11 2024-03-19 深圳市阿龙电子有限公司 基于多源数据融合的智能设备手势识别方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859382A (zh) * 2010-06-03 2010-10-13 复旦大学 一种基于最大稳定极值区域的车牌检测与识别的方法
CN101976335A (zh) * 2010-09-03 2011-02-16 浙江大学 基于改进c-v模型的遥感图路网提取方法
CN101980317A (zh) * 2010-09-03 2011-02-23 浙江大学 基于改进c-v模型的遥感图路网提取的交通流量预测方法
CN102096827A (zh) * 2011-01-18 2011-06-15 东华大学 一种基于尺度不变和向量机分类的异形纤维自动识别方法
CN102663406A (zh) * 2012-04-12 2012-09-12 中国海洋大学 一种基于显微图像的角毛藻和非角毛藻自动分类方法
CN103985108A (zh) * 2014-06-03 2014-08-13 北京航空航天大学 一种利用边界检测和多尺度形态学清晰度度量的多聚焦图像融合方法
CN104318546A (zh) * 2014-09-29 2015-01-28 中国农业大学 一种基于多尺度分析的温室田间植物叶片边缘提取方法及其系统
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN107357428A (zh) * 2017-07-07 2017-11-17 京东方科技集团股份有限公司 基于手势识别的人机交互方法及装置、系统
CN107862282A (zh) * 2017-11-07 2018-03-30 深圳市金城保密技术有限公司 一种手指静脉识别与安全认证方法及其终端及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859382A (zh) * 2010-06-03 2010-10-13 复旦大学 一种基于最大稳定极值区域的车牌检测与识别的方法
CN101976335A (zh) * 2010-09-03 2011-02-16 浙江大学 基于改进c-v模型的遥感图路网提取方法
CN101980317A (zh) * 2010-09-03 2011-02-23 浙江大学 基于改进c-v模型的遥感图路网提取的交通流量预测方法
CN102096827A (zh) * 2011-01-18 2011-06-15 东华大学 一种基于尺度不变和向量机分类的异形纤维自动识别方法
CN102663406A (zh) * 2012-04-12 2012-09-12 中国海洋大学 一种基于显微图像的角毛藻和非角毛藻自动分类方法
CN103985108A (zh) * 2014-06-03 2014-08-13 北京航空航天大学 一种利用边界检测和多尺度形态学清晰度度量的多聚焦图像融合方法
CN104318546A (zh) * 2014-09-29 2015-01-28 中国农业大学 一种基于多尺度分析的温室田间植物叶片边缘提取方法及其系统
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN107357428A (zh) * 2017-07-07 2017-11-17 京东方科技集团股份有限公司 基于手势识别的人机交互方法及装置、系统
CN107862282A (zh) * 2017-11-07 2018-03-30 深圳市金城保密技术有限公司 一种手指静脉识别与安全认证方法及其终端及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于KINECT的实时手势识别;鲍志强等;《激光与光电子学进展》;20180331(第3期);第225-230页 *

Also Published As

Publication number Publication date
CN108564020A (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
CN109961049B (zh) 一种复杂场景下香烟品牌识别方法
CN107316031B (zh) 用于行人重识别的图像特征提取方法
JP7026826B2 (ja) 画像処理方法、電子機器および記憶媒体
CN102332092B (zh) 一种基于视频分析的火焰检测方法
US8655070B1 (en) Tree detection form aerial imagery
WO2018145470A1 (zh) 一种图像检测方法和装置
Asi et al. A coarse-to-fine approach for layout analysis of ancient manuscripts
CN111445459A (zh) 一种基于深度孪生网络的图像缺陷检测方法及系统
CN105912999A (zh) 基于深度信息的人体行为识别方法
CN104881671B (zh) 一种基于2D‑Gabor的高分遥感影像局部特征提取方法
CN109325507B (zh) 结合超像素显著性特征与hog特征图像分类方法和系统
CN103473551A (zh) 基于sift算子的台标识别方法及系统
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN108764361B (zh) 基于集成学习的游梁式抽油机示功图的工况识别方法
CN106815578A (zh) 一种基于深度运动图‑尺度不变特征变换的手势识别方法
CN103886619A (zh) 一种融合多尺度超像素的目标跟踪方法
CN111723773A (zh) 遗留物检测方法、装置、电子设备及可读存储介质
CN105160305B (zh) 一种手指多模态特征融合方法
CN110751619A (zh) 一种绝缘子缺陷检测方法
WO2013075295A1 (zh) 低分辨率视频的服装识别方法及系统
CN108073940B (zh) 一种非结构化环境中的3d目标实例物体检测的方法
Shi et al. Adaptive graph cut based binarization of video text images
Stucker et al. Supervised outlier detection in large-scale MVS point clouds for 3D city modeling applications
CN110910497B (zh) 实现增强现实地图的方法和系统
CN108564020B (zh) 基于全景3d图像的微手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant