CN108564020A - 基于全景3d图像的微手势识别方法 - Google Patents

基于全景3d图像的微手势识别方法 Download PDF

Info

Publication number
CN108564020A
CN108564020A CN201810306498.2A CN201810306498A CN108564020A CN 108564020 A CN108564020 A CN 108564020A CN 201810306498 A CN201810306498 A CN 201810306498A CN 108564020 A CN108564020 A CN 108564020A
Authority
CN
China
Prior art keywords
image
coordinate
indicate
micro
gesture identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810306498.2A
Other languages
English (en)
Other versions
CN108564020B (zh
Inventor
雷涛
加小红
张宇啸
李云彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi University of Science and Technology
Original Assignee
Shaanxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi University of Science and Technology filed Critical Shaanxi University of Science and Technology
Priority to CN201810306498.2A priority Critical patent/CN108564020B/zh
Publication of CN108564020A publication Critical patent/CN108564020A/zh
Application granted granted Critical
Publication of CN108564020B publication Critical patent/CN108564020B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及基于全景3D图像的微手势识别方法,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。本发明主要解决模糊网格导致HoMG图像识别精度低的问题,能有效提高基于HoMG图像的微手势识别精度,可广泛应用于人机交互领域。

Description

基于全景3D图像的微手势识别方法
技术领域
本发明涉及模式识别技术领域,具体涉及一种基于全景3D图像的微手势识别方法。
背景技术
手势识别是人机交互的关键步骤,在机器视觉和虚拟现实中有着广泛的应用。目前,基于手势识别的算法大致可分为两类:一类是手套采集方法;一类是视觉识别方法;第一类方法利用手套上的多个传感器来记录手势数据,虽然识别准确度高,但由于手套上传感器的限制,导致手势内容相对单一,实用性较差。第二类方法则利用Kinect和RGB-D相机捕捉手势的深度信息,通过挖掘深度信息进行手势识别,由于视觉识别具有直观、方便等特点,所以基于视觉的手势识别算法越来越受到使用者的青睐。
传统的手势识别主要由三个步骤组成,即手势分割、特征提取和分类器选择,其中手势分割是为了确定手势的大致轮廓,减少复杂背景对后续处理的干扰。特征提取是为了去除冗余信息,利用目标特征来表示原始图像。最后选择合适的分类器对特征数据进行分类。特征描述子和分类器类型较多,需凭借经验选择恰当的特征描述子和分类器类型。
由于卷积神经网络(Convolutional Neural Network,CNN)能自动学习图像特征,所以CNN模型已广泛应用于图像分类和目标检测中。近年来,学者们提出了大量改进的CNN模型并将其应用于手势识别。其中,Arenas等人提出了基于区域的CNN手势识别方法,该方法能够实现不同背景下的动态手势识别,但不利于微手势的识别。等人通过联合CNN模型和长短期记忆网络(Long Short-Term Memory,LSTM),提出了CNN+LSTM的手势识别算法,虽然该方法能获得更高的手势识别结果,但由于需要两级网络导致该方法的计算复杂度较高。针对Kinect和RGB-D相机不能捕获图像微小变化的问题,Liu等人利用全景3D成像系统创建了全景3D微手势图库(Holoscopic 3D Micro-Gesture,HoMG),全景3D成像系统是利用尺寸大小为28×28的微镜头阵列来采集信息,虽然每个镜头有效记录了手势的局部偏差,但也造成了HoMG图像中模糊网格的出现,由于模糊网格的干扰,导致传统的特征描述子和CNN模型难以有效提取图像特征,微手势识别精度较低。
发明内容
本发明的目的是提供一种基于全景3D图像的微手势识别方法,解决了现有技术中由于HoMG图库中模糊网格的干扰导致传统特征描述子和CNN模型不能有效提取图像特征的技术缺陷。
本发明所采用的技术方案为:
基于全景3D图像的微手势识别方法,其特征在于:
由以下步骤实现:
首先,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度;
其次,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓;
然后,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标;
最后,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。
具体包括以下步骤:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用快速模糊C均值聚类算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别。
步骤(2)具体由以下步骤实现:
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
其中,Bh表示水平结构元素,Bh=ones(1,100),表示形态学开运算,ξh表示形态学水平滤波结果;
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
其中,Bv表示竖直结构元素,Bv=ones(100,1),表示形态学开运算,ξv表示形态学竖直滤波结果。
步骤(3)具体由以下步骤实现:
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新快速模糊C均值聚类算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件与目标函数构建一个新的函数,公式如下:
计算F函数极值对应的聚类中心vi,即可得:
计算F函数极值对应的隶属度强度uij,即可得:
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b);
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
步骤(4)具体由以下步骤实现:
形态学细化公式如下:
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l。
步骤(5)具体由以下步骤实现:
(a)首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标;
水平基准坐标的计算公式如下:
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标;
(b)竖直基准坐标的计算公式如下:
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标。
步骤(6)具体由以下步骤实现:
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像;
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像转换为9幅低分辨率的子图像。
本发明具有以下优点:
1、针对HoMG图像中模糊网格的问题,利用形态学滤波、FFCM算法以及形态学细化算法可快速重建多张子图像,不仅保留了HoMG图像的局部信息,而且克服了模糊网格对后续手势识别的干扰。
2、针对特征描述子与分类器较难匹配的问题,利用CNN模型避免了人工特征的选取,提高了微手势的识别精度。
附图说明
图1是本发明实现步骤的流程原理框图。
图2是本发明对黑色背景HoMG图像的重建过程。
图3是本发明对白色背景HoMG图像的重建过程。
图4是本发明对不同背景不同手势HoMG图像的重建结果。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明涉及一种基于全景3D图像的微手势识别方法,涉及形态学理论、模糊聚类算法和深度学习模型,可广泛应用于人机交互中的微手势识别。
由于HoMG图库中模糊网格的干扰,导致传统特征描述子和CNN模型不能有效提取图像特征,为了解决该问题,本发明首先利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度。其次通过快速模糊C均值聚类算法(Fast Fuzzy C-Means,FFCM)分割滤波图像,检测线条轮廓。然后根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标。最后利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。
具体实现步骤如下:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用FFCM算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别。
图1是本发明实现步骤的流程原理框图,针对HoMG图像的识别问题,本发明设计了一种基于全景3D图像的微手势识别方法,具体描述如下:
(1)输入HoMG图像f,分辨率为1920×1080;
(2)利用形态学滤波算法提升HoMG图像的水平和竖直线条,增强线条与背景的对比度。
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
其中,Bh表示水平结构元素,Bh=ones(1,100),表示形态学开运算,ξh表示形态学水平滤波结果,滤波结果不仅增强了水平线条与背景的对比度,而且避免了竖直线条对水平线条的干扰。
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
其中,Bv表示竖直结构元素,Bv=ones(100,1),表示形态学开运算,ξv表示形态学竖直滤波结果,滤波结果不仅增强了竖直线条与背景的对比度,而且避免了水平直线条对竖直线条的干扰。
为简化后续的公式表述,滤波后的图像(ξh和ξv)均由ξ表示;
(3)利用FFCM算法对滤波后的图像ξ进行线条分割,以检测水平和竖直线条。
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新FFCM算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件与目标函数构建一个新的函数,公式如下:
计算F函数极值对应的聚类中心vi,即可得:
计算F函数极值对应的隶属度强度uij,即可得:
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b)。
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
(4)对于FFCM分割后的图像g,利用形态学细化算法准确定位水平和竖直线条。
形态学细化就是利用线条结构来表征图像中的连通区域,避免连通面积对坐标位置的干扰,形态学细化公式如下:
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l;
(5)利用线条间隔的最小方差确定水平和竖直的基准坐标。
(a)由于图像l为二值图像,所以通过检测线条索引值位置就可确定线条坐标,但由于HoMG图像中手势的干扰,可能导致部分线条缺失,针对该问题,本发明首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标。
水平基准坐标的计算公式如下:
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标。
(b)竖直基准坐标的计算公式如下:
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标;
(6)根据基准坐标,构建图像网格,通过提取每个网格中对应的中心像素以及其邻域像素重建多张清晰的子图像;
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像。
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像(1920×1080)转换为9幅低分辨率(66×38)的子图像。
(7)把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别;
本发明的效果可以通过以下实验进一步说明。
为了检测本发明对HoMG图像的优越性,通过两种不同背景的测试图像展示本发明的重建过程,如图2-3所示,其中图像的分辨率为1920×1080,仿真实验及相关测试均在CPU:Intel(R)Core(TM)i7-6700 3.40GHz,内存16GB的硬件环境和MATLAB R2016b的软件环境下完成。从图2-3可以看出,本发明能有效重建不同背景的HoMG图像,重建后的图像较为清晰,利于特征描述子和CNN模型的特征提取。图4则展示了不同背景不同手势的重建效果,利用多张重建图像来反映HoMG图像所蕴含的多角度信息。为了进一步说明本发明重建图像的有效性,利用传统算法对原始图像和重建图像进行识别,对于含有多张重建的子图像,则选用投票的形式来确定其微手势类别,识别精度如表1所示,从表1可得,重建图像的识别精度高于原始图像的识别精度,且随着重建子图像个数的增多,识别精度也在逐渐提升。由于重建子图像之间差异较小,CNN模型可忽略其对训练的影响,所以利用CNN模型对原始图像和单张重建图像进行测试,测试结果如表2所示,从表2可得,重建图像的识别精度明显优于原始图像的识别精度。从表1-2可得,重建图像更有利于微手势识别,为人机交互奠定了基础。
表1传统算法对原始图像和重建图像的识别精度
表2CNN模型对原始图像和重建图像的识别精度
本发明的内容不限于实施例所列举,本领域普通技术人员通过阅读本发明说明书而对本发明技术方案采取的任何等效的变换,均为本发明的权利要求所涵盖。

Claims (7)

1.基于全景3D图像的微手势识别方法,其特征在于:
由以下步骤实现:
首先,利用形态学滤波算法提升HoMG图像中的水平和竖直线条,增强线条与背景的对比度;
其次,通过快速模糊C均值聚类算法分割滤波图像,检测线条轮廓;
然后,根据形态学细化算法准确定位线条位置,利用线条间隔的最小方差计算基准坐标,构建网格坐标;
最后,利用网格坐标重建多张清晰的子图像,把重建后的子图像作为CNN模型的输入数据,从而完成微手势识别。
2.根据权利要求1所述的基于全景3D图像的微手势识别方法,其特征在于:
具体包括以下步骤:
(1)输入HoMG图像f;
(2)对f进行水平和竖直形态学滤波,得到滤波后的图像为ξh和ξv
(3)利用快速模糊C均值聚类算法对ξh和ξv进行分割;
(4)对分割后的图像利用形态学细化算法准确定位线条位置;
(5)根据线条间隔的最小方差,确定基准坐标,构建网格坐标;
(6)利用网格坐标重建子图像;
(7)利用CNN模型对重建的子图像进行分类识别。
3.根据权利要求2所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(2)具体由以下步骤实现:
(a)利用水平结构元素对HoMG图像f进行形态学滤波,计算公式如下:
ξh=foBh
其中,Bh表示水平结构元素,Bh=ones(1,100),o表示形态学开运算,ξh表示形态学水平滤波结果;
(b)利用竖直结构元素对HoMG图像f进行形态学滤波,计算公式如下:
ξv=foBv
其中,Bv表示竖直结构元素,Bv=ones(100,1),o表示形态学开运算,ξv表示形态学竖直滤波结果。
4.根据权利要求3所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(3)具体由以下步骤实现:
(a)初始化:设聚类个数为c,模糊权重因子为m,最大迭代次数为T,迭代截止条件为η,随机化隶属度矩阵为U(0),初始迭代次数为t=1;
(b)迭代更新快速模糊C均值聚类算法的聚类中心vi和模糊隶属度强度uij,FFCM算法的目标函数为:
其中,c表示聚类个数,M表示图像ξ的灰度级个数,m表示模糊权重因子,rj表示图像中灰度值为j的像素数目,所以n为图像的像素个数,uij表示灰度值为j的像素相对于第i个聚类中心vi的隶属度强度,||ξj-vi||表示图像ξ中灰度值为j的像素与第i个聚类中心vi的欧氏距离;
利用约束条件与目标函数构建一个新的函数,公式如下:
计算F函数极值对应的聚类中心vi,即可得:
计算F函数极值对应的隶属度强度uij,即可得:
(c)如果{U(t)-U(t+1)}<η或者迭代次数t>T,算法截止,否则t=t+1,同时转向步骤(b);
(d)根据每个灰度值j所对应的最大隶属度类别,获取分割标签Cj,计算公式如下:
Cj=argi{max{uij}},i=1,2,L,c
利用标签Cj所对应的聚类中心vi,构建分割图像g。
5.根据权利要求4所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(4)具体由以下步骤实现:
形态学细化公式如下:
其中,THIN表示细化运算,B表示与前景和背景相匹配的结构元素对,表示击中-击不中变换,通过迭代细化可以将区域细化为最低限度的连通线条,经细化后的图像为l。
6.根据权利要求5所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(5)具体由以下步骤实现:
(a)首先选取图像l两侧宽度为100像素的区域用于坐标检测,其次根据每个区域内的平均索引值个数计算两侧坐标,然后利用线条间隔的最小方差确定基准坐标;
水平基准坐标的计算公式如下:
其中,lleft表示从图像l左侧区域获取的坐标,lright表示从图像l右侧区域获取的坐标,diff表示相邻坐标作差,var表示方差运算,通过选择最小方差的坐标,作为水平线条的基准坐标;
(b)竖直基准坐标的计算公式如下:
其中,lup表示从图像l上侧区域获取的坐标,ldown表示从图像l下侧区域获取的坐标,通过选择最小方差坐标,作为竖直线条的基准坐标。
7.根据权利要求6所述的基于全景3D图像的微手势识别方法,其特征在于:
步骤(6)具体由以下步骤实现:
(a)根据网格坐标,确定网格的中心位置,以每个网格的中心像素重建一幅大小为66×38的子图像;
(b)基于中心像素,以2像素为步长,获取中心像素的8邻域信息,利用该8邻域像素重建8张子图像,从而将1幅高分辨率的HoMG图像转换为9幅低分辨率的子图像。
CN201810306498.2A 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法 Active CN108564020B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810306498.2A CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810306498.2A CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Publications (2)

Publication Number Publication Date
CN108564020A true CN108564020A (zh) 2018-09-21
CN108564020B CN108564020B (zh) 2021-07-13

Family

ID=63534402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810306498.2A Active CN108564020B (zh) 2018-04-08 2018-04-08 基于全景3d图像的微手势识别方法

Country Status (1)

Country Link
CN (1) CN108564020B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361382A (zh) * 2021-05-14 2021-09-07 沈阳工业大学 基于压缩相对轮廓特征点的手形识别方法
CN117558068A (zh) * 2024-01-11 2024-02-13 深圳市阿龙电子有限公司 基于多源数据融合的智能设备手势识别方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859382A (zh) * 2010-06-03 2010-10-13 复旦大学 一种基于最大稳定极值区域的车牌检测与识别的方法
CN101976335A (zh) * 2010-09-03 2011-02-16 浙江大学 基于改进c-v模型的遥感图路网提取方法
CN101980317A (zh) * 2010-09-03 2011-02-23 浙江大学 基于改进c-v模型的遥感图路网提取的交通流量预测方法
CN102096827A (zh) * 2011-01-18 2011-06-15 东华大学 一种基于尺度不变和向量机分类的异形纤维自动识别方法
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control
CN102663406A (zh) * 2012-04-12 2012-09-12 中国海洋大学 一种基于显微图像的角毛藻和非角毛藻自动分类方法
CN103985108A (zh) * 2014-06-03 2014-08-13 北京航空航天大学 一种利用边界检测和多尺度形态学清晰度度量的多聚焦图像融合方法
CN104318546A (zh) * 2014-09-29 2015-01-28 中国农业大学 一种基于多尺度分析的温室田间植物叶片边缘提取方法及其系统
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN107357428A (zh) * 2017-07-07 2017-11-17 京东方科技集团股份有限公司 基于手势识别的人机交互方法及装置、系统
CN107862282A (zh) * 2017-11-07 2018-03-30 深圳市金城保密技术有限公司 一种手指静脉识别与安全认证方法及其终端及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859382A (zh) * 2010-06-03 2010-10-13 复旦大学 一种基于最大稳定极值区域的车牌检测与识别的方法
CN101976335A (zh) * 2010-09-03 2011-02-16 浙江大学 基于改进c-v模型的遥感图路网提取方法
CN101980317A (zh) * 2010-09-03 2011-02-23 浙江大学 基于改进c-v模型的遥感图路网提取的交通流量预测方法
US20120069168A1 (en) * 2010-09-17 2012-03-22 Sony Corporation Gesture recognition system for tv control
CN102096827A (zh) * 2011-01-18 2011-06-15 东华大学 一种基于尺度不变和向量机分类的异形纤维自动识别方法
CN102663406A (zh) * 2012-04-12 2012-09-12 中国海洋大学 一种基于显微图像的角毛藻和非角毛藻自动分类方法
CN103985108A (zh) * 2014-06-03 2014-08-13 北京航空航天大学 一种利用边界检测和多尺度形态学清晰度度量的多聚焦图像融合方法
CN104318546A (zh) * 2014-09-29 2015-01-28 中国农业大学 一种基于多尺度分析的温室田间植物叶片边缘提取方法及其系统
CN104680127A (zh) * 2014-12-18 2015-06-03 闻泰通讯股份有限公司 手势识别方法及系统
CN107357428A (zh) * 2017-07-07 2017-11-17 京东方科技集团股份有限公司 基于手势识别的人机交互方法及装置、系统
CN107862282A (zh) * 2017-11-07 2018-03-30 深圳市金城保密技术有限公司 一种手指静脉识别与安全认证方法及其终端及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鲍志强等: "基于KINECT的实时手势识别", 《激光与光电子学进展》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361382A (zh) * 2021-05-14 2021-09-07 沈阳工业大学 基于压缩相对轮廓特征点的手形识别方法
CN113361382B (zh) * 2021-05-14 2024-02-02 沈阳工业大学 基于压缩相对轮廓特征点的手形识别方法
CN117558068A (zh) * 2024-01-11 2024-02-13 深圳市阿龙电子有限公司 基于多源数据融合的智能设备手势识别方法
CN117558068B (zh) * 2024-01-11 2024-03-19 深圳市阿龙电子有限公司 基于多源数据融合的智能设备手势识别方法

Also Published As

Publication number Publication date
CN108564020B (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
Menze et al. Object scene flow for autonomous vehicles
Zhang et al. Semantic segmentation of urban scenes using dense depth maps
Li et al. Robust visual tracking based on convolutional features with illumination and occlusion handing
CN104574375B (zh) 结合彩色和深度信息的图像显著性检测方法
US20210118144A1 (en) Image processing method, electronic device, and storage medium
Tian et al. Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint
CN103295016B (zh) 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN104268539A (zh) 一种高性能的人脸识别方法及系统
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
Bešić et al. Dynamic object removal and spatio-temporal RGB-D inpainting via geometry-aware adversarial learning
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN106529520A (zh) 基于运动员号码识别的马拉松比赛照片管理方法
CN112699834A (zh) 交通标识检测方法、装置、计算机设备和存储介质
CN109711267A (zh) 一种行人重识别、行人运动轨迹生成方法及装置
Korah et al. Spatiotemporal inpainting for recovering texture maps of occluded building facades
CN111414938B (zh) 一种板式换热器内气泡的目标检测方法
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN109215047B (zh) 基于深海视频的运动目标检测方法和装置
CN109166172B (zh) 服装模型的构建方法、装置、服务器和存储介质
CN111325828A (zh) 一种基于三目相机的三维人脸采集方法及装置
CN108564020A (zh) 基于全景3d图像的微手势识别方法
CN107122714B (zh) 一种基于边缘约束的实时行人检测方法
Hu et al. Video surveillance face recognition by more virtual training samples based on 3D modeling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant