CN105913007A - 基于3d点云数据和表观特征的手势识别方法 - Google Patents

基于3d点云数据和表观特征的手势识别方法 Download PDF

Info

Publication number
CN105913007A
CN105913007A CN201610213678.7A CN201610213678A CN105913007A CN 105913007 A CN105913007 A CN 105913007A CN 201610213678 A CN201610213678 A CN 201610213678A CN 105913007 A CN105913007 A CN 105913007A
Authority
CN
China
Prior art keywords
gesture
fingers
angle
adjacent
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610213678.7A
Other languages
English (en)
Other versions
CN105913007B (zh
Inventor
种衍文
黄简峰
潘少明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201610213678.7A priority Critical patent/CN105913007B/zh
Publication of CN105913007A publication Critical patent/CN105913007A/zh
Application granted granted Critical
Publication of CN105913007B publication Critical patent/CN105913007B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本发明提供了一种基于3D点云数据和表观特征的手势识别方法,包括S1采集手势的3D点云数据;S2对3D点云数据进行阈值分割并进行灰度转换,得二值图像;S3预处理二值图像以去除二值图像中空洞及噪声点;S4基于二值图像提取手势的表观特征;S5根据手势库中手势样本和待识别手势的表观特征进行手势识别。本发明可同时满足手势识别的精度和时效的要求,具备一定的鲁棒性与普适性,实用性强。

Description

基于3D点云数据和表观特征的手势识别方法
技术领域
本发明属于人机交互技术领域,尤其涉及一种基于3D点云数据和表观特征的手势识别方法。
背景技术
与自然语言一样,手势语言也能表达出丰富的信息,并且手势语言更为直观、简洁。因此,手势语言成为实现人机交互的一个重要途径。手势识别则是利用手势语言进行人机交互的关键所在。
手势识别一般分为三个步骤过程:手势获取与分割、特征提取和手势识别。手势获取通常可以利用各种相机设备实现。而相机获取的场景往往很复杂,除了手势之外还有其他信息,因而需要进行手势分割,手势分割的意义是为了让有意义的区域与其他部分(例如背景)产生明显差异,从而得到具体手势的区域范围。为了高效进行手势识别,需要先进行特征提取,而手势特征包括很多种,不同手势具有各自不同的特征,将各种手势的特征提取出来,得到一个特征库,特征库是进行手势识别的基础。提取完手势特征之后即可进行手势识别,根据不同手势的不同特征,最终可识别出手势,解译出手势语言。
为了高效地进行人机交互,手势识别具有高精度、高速率等要求。传统手势识别方法大多是基于RGB图像实现。对于RGB图像,手势分割成为一项重要挑战,要从复杂多变的背景中分割出手势是十分困难的,固定的手势分割算法难以满足场景的变化,这严重影响手势特征的提取,使特征的稳定性较差,导致手势识别精度不理想。
近年来深度图像(Depth Image)逐渐用来进行手势识别。由于深度图像不仅包含场景的亮度信息,同时也包含场景中不同位置的距离信息,这为手势分割提供了极大的便利。基于深度图像,出现了很多手势识别方法,这些方法流程大都如下:先根据深度图像进行手势分割;选取大量的正负样本,利用相应的分类器(如支持向量机分类器SVM、adaboost分类器)进行特征训练,得到特征库;根据特征库进行待定手势的识别。而以上识别过程往往需要大量的训练样本,导致工作量巨大,并且训练过程也比较耗时,难以同时满足时效与精度的要求。
综合分析,目前手势识别存在以下问题:
(1)基于RGB图像的手势识别方法时效性好,但是鲁棒性和普适性较差,难以满足手势场景的变化,识别精度得不到保障;
(2)基于深度图像的手势识别方法识别精度高,但计算复杂度高且存储空间大,不易于硬件实现。
发明内容
针对现有技术存在的不足,本发明提供了一种基于3D点云数据和表观特征的手势识别方法,该方法可同时满足精度和时效要求,且易于实现。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于3D点云数据和表观特征的手势识别方法,包括:
S1采集手势的3D点云数据,3D点云数据包括各点的三维坐标(x,y,z);
S2对3D点云数据进行阈值分割并进行灰度转换,得二值图像;阈值分割中,考虑3D点云数据采集时手势与相机的相对位置关系,并通过实验调整确定手势区域的坐标范围,根据确定的坐标范围进行阈值分割,获得手势区域;
S3预处理二值图像以去除二值图像中空洞及噪声点;
S4基于二值图像提取手势的表观特征,表观特征包括伸出手指数、分布特征和相邻伸出手指间角度,本步骤具体为:
S4-1基于二值图像提取手势区域的中心点C;
S4-2构造辅助图形,辅助图形为以中心点C为圆心、rn为半径的K个共圆心的圆形,或为以中心点C为中心、对角线长2rn的K个共中心的正方形,正方形方向要保证中心点C(x0,y0)到同一正方形上所有点(xj,yj)的距离d相等,d定义为:d=|xj-x0|+|yj-y0|;D为手势区域边缘到中心点C的最大距离,n=1,2,3...K,8≤K≤12,所得辅助图形从内向外依次编号为辅助图形1、2......K;
S4-3辅助图形k1与手势区域的交点数即伸出手指数,辅助图形k1根据试验确定;
S4-4以辅助图形k2为手掌区域和伸出手指区域的边界,即辅助图形k2内和外的手势区域分别为手掌区域和伸出手指区域,手掌区域和伸出手指区域的面积比即分布特征R;辅助图形k2根据试验确定;
S4-5获得各伸出手指区域与辅助图形k1的相交区域的中心点C',中心点C'与中心点C的连线记为边,相邻边的夹角即相邻伸出手指间角度;若无相邻边,则不提取相邻伸出手指间角度;
S5根据手势库中手势样本和待识别手势的表观特征进行手势识别,本步骤具体为:
S5-1判断待识别手势的分布特征R大小,若0.7<R<1,则伸出手指数为0的手势样本为待识别手势的手势,手势识别完成;否则,执行子步骤S5-2;
S5-2与待识别手势伸出手指数N相同的手势样本即待识别手势的可能手势,若可能手势仅1个,该可能手势即待识别手势的手势,手势识别完成;否则,执行子步骤S5-3;
S5-3根据可能手势的相邻伸出手指间角度大小或各相邻伸出手指间角度间的大小关系以及形状,确定各可能手势对应的相邻伸出手指间角度或各相邻伸出手指间角度间的大小关系的范围,待识别手势的相邻伸出手指间角度或各相邻伸出手指间角度间的大小关系所落入范围对应的可能手势,即待识别手势的手势。
步骤S2中,采用下述公式进行阈值分割:
G={(x,y,z)|Minx<x<Maxx,Miny<y<Maxy,Minz<z<Maxz}
其中,G表示手势区域;Minx、Miny、Minz分别为x、y、z坐标范围的下限;Maxx、Maxy、Maxz分别为x、y、z坐标范围的上限。
步骤S3中,采用形态学中腐蚀和膨胀操作对二值图像进行预处理。
子步骤S4-1中,利用形态学中腐蚀操作提取手势区域中心点C。
子步骤S4-3和S4-5中,当K取10时,k1=6;同时,k2=5。
子步骤S5-3具体为:
若待识别手势的伸出手指数N为2,根据各可能手势的形状和相邻伸出手指间角度大小,确定各可能手势对应的相邻伸出手指间角度的范围,待识别手势的相邻伸出手指间角度落入范围所对应的可能手势,即待识别手势的手势。
子步骤S5-3具体为:
若待识别手势的伸出手指数N为3或4,根据各可能手势的形状和各相邻伸出手指间角度间的大小关系,确定各可能手势对应的各相邻伸出手指间角度间的大小关系的范围,待识别手势的各相邻伸出手指间角度间的大小关系落入范围所对应的可能手势,即待识别手势的手势。
与现有技术相比,本发明具有以下优点和有益效果:
(1)考虑到手势识别的精度要求,基于3D点云数据进行手势分割与特征提取,从而保证识别精度。
(2)考虑到手势识别的时效性,综合选取手势的多个表观特征进行手势识别,无需大量训练样本,计算复杂度小,简明高效,便于实现。
(3)对各种变化场景中手势识别效果良好,具备一定的鲁棒性与普适性,实用性强。
附图说明
图1是本发明具体实施方式的流程图;
图2是本发明具体实施方式中手势库示意图;
图3是本发明具体实施方式中基于决策树的手势识别示意图。
具体实施方式
下面将结合具体实施方式进一步说明本发明技术方案,本发明技术方案可采用计算机软件技术自动运行实现。
传统基于RGB图像的手势识别方法存在识别精度不高的问题,基于深度图像的手势识别方法中常用的特征训练算法具有计算复杂度高、样本量需求大等问题,导致时效性差,不利于实际应用。本发明基于3D点云数据进行手势识别,利用3D点云数据的距离信息,以提高手势识别精度;同时,选取可高效提取的表观特征进行手势识别,所提取的表观特征能够代表手势的典型特征,从而大大降低计算复杂度,使得手势识别的精度与速度都达到理想效果。
下面将以图2所示9种手势为例说明本发明具体实施方式,本具体实施中,以SwissRanger 4000相机采集手势的3D点云数据。
见图1,本发明基于相机坐标系进行,具体步骤如下:
S1采集图2所示手势库中各手势的3D点云数据,3D点云数据包括场景中各点的三维坐标(x,y,z),坐标原点为相机摄影中心。
本具体实施中,利用SwissRanger 4000相机采集3D点云数据。
S2对3D点云数据进行阈值分割并进行灰度转换,得各手势的二值图像。
本步骤进一步包括:
S2-1采用式(1)对3D点云数据进行阈值分割,提取手势区域G。
G={(x,y,z)|Minx<x<Maxx,Miny<y<Maxy,Minz<z<Maxz} (1)
式(1)中,G表示分割后的手势区域,Minx、Maxx分别为手势区域三维坐标x取值范围的下限和上限,Miny、Maxy分别为手势区域三维坐标y取值范围的下限和上限,Minz、Maxz分别为手势区域三维坐标z取值范围的下限和上限。
Minx、Maxx、Miny、Maxy、Minz、Maxz等坐标阈值用来提取3D点云数据中手势区域,这些坐标阈值与3D点云数据采集时手势与相机的相对位置关系有关,即,根据手势与相机的相对位置关系选择不同的Minx、Maxx、Miny、Maxy、Minz、Maxz值,基于选择的坐标阈值,进行步骤S3~S5,手势识别最佳效果对应的坐标阈值即确定的坐标阈值。本具体实施中,各坐标阈值确定为:Minx=-150mm,Maxx=150mm,Miny=-150mm,Maxy=150mm,Minz=200mm,Maxz=500mm。
S2-2进行灰度转换得二值图像,所得二值图像中手势区域灰度值为1,非手势区域灰度值为0。
S3预处理二值图像以去除二值图像中空洞及噪声点。
本具体实施中,采用形态学中腐蚀和膨胀操作对二值图像进行预处理。
S4基于二值图像提取手势的表观特征,所述表观特别包括伸出手指数、相邻的伸出手指间角度及手势区域的分布特征。
本步骤进一步包括:
S4-1基于二值图像提取手势区域中心点C。
提取手势区域中心点C为数字图像处理领域的常规技术,例如,可利用形态学中腐蚀操作提取手势区域中心点C。为便于理解,下面将手势区域中心点C的提取过程进行具体说明。
进行一次腐蚀操作过程中,若二值图像上目标点为边界点,则将该目标点灰度值设为0。若干次腐蚀后,二值图像边界不断向内部收缩,直到只留下少量目标点时停止腐蚀。本具体实施中,当留下目标点数少于8时停止腐蚀。这些留下目标点的中心点即手势区域中心点C。所述的目标点指二值图像中灰度值1的点。
S4-2根据手势区域中心点C做辅助图形。
根据手势区域边缘到中心点C的最大距离D定义由rn组成的序列r:
r n = n * D K - - - ( 2 )
式(2)中,n=1,2,3...K,K优选为8~12范围内自然数。
本具体实施方式中,K=10。
根据做辅助图形,辅助图形可以为圆形或正方形,具体为:
以手势区域中心点C为圆心,以rn为半径做10个共圆心的圆形,由内向外依次编号为辅助图形1、2、......10;或,以手势区域中心点C为中心,做对角线长2rn的10个共中心的正方形,由内向外依次编号为辅助图形1、2、......10。本发明中,正方形方向要保证中心点C(x0,y0)到同一正方形上所有点(xj,yj)的距离d相等,d定义为:d=|xj-x0|+|yj-y0|。
S4-3根据辅助图形与手势区域的相交情况确定伸出手指数N。
大量实验表明,辅助图形6与手势区域的交点数即伸出手指数N。
S4-4计算手势区域的分布特征。
分布特征用来描述伸出手指区域与手掌区域的面积关系。大量实验表明,辅助图形5可较好区分伸出手指区域与手掌区域,即,以辅助图形5为边界,位于辅助图形5内的手势区域可认为是手掌区域,其面积记为P1;位于辅助图形5外的手势区域可认为伸出手指区域,其面积记为P2,手势区域分布特征以R为:
R = P 1 P 2 - - - ( 3 )
S4-5根据辅助图形与手势区域的相交情况确定相邻伸出手指间角度Ai
本子步骤具体为:
分别获得各伸出手指区域与辅助图形6的相交区域的中心点C',中心点C'与中心点C连线记为边,相邻边的夹角即相邻伸出手指间角度Ai。若无相邻边,则不提取相邻伸出手指间角度。
S5基于提取的表观特征,利用决策树进行手势识别。
下面将以图2所示手势库为例,进一步说明手势识别的具体实施方式。
S5-1判断手势的分布特征R值大小,若0.7<R<1,则手势为手势库中手势9,手势识别完成;否则,执行子步骤S5-2;
S5-2判断手势的伸出手指数N值,若N=1或4或5,采用规则(4)识别手势;若N=2或3,则执行子步骤S5-3。
S5-3若N=2,判断手势的相邻伸出手指间角度大小,若0°<A1<45°,则手势为手势库中手势2;否则,为手势库中手势6。若N=3,判断手势的相邻伸出手指间角度大小,若0.3*A2<A1<0.8*A2,则手势为手势库中手势7;若0.3*A1<A2<0.8*A1,则手势为手势库中手势8;否则,手势为手势库中手势3。
实验表明,采用本发明方法可准确高效识别出图2手势库中9种手势。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明,并不用于限定本发明。本发明所属技术领域的技术人员可以对所描述的具体实施做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (7)

1.一种基于3D点云数据和表观特征的手势识别方法,其特征是,包括:
S1采集手势的3D点云数据,3D点云数据包括各点的三维坐标(x,y,z);
S2对3D点云数据进行阈值分割并进行灰度转换,得二值图像;阈值分割中,考虑3D点云数据采集时手势与相机的相对位置关系,并通过实验调整确定手势区域的坐标范围,根据确定的坐标范围进行阈值分割,获得手势区域;
S3预处理二值图像以去除二值图像中空洞及噪声点;
S4基于二值图像提取手势的表观特征,表观特征包括伸出手指数、分布特征和相邻伸出手指间角度,本步骤具体为:
S4-1基于二值图像提取手势区域的中心点C;
S4-2构造辅助图形,辅助图形为以中心点C为圆心、rn为半径的K个共圆心的圆形,或为以中心点C为中心、对角线长2rn的K个共中心的正方形,正方形方向要保证中心点C(x0,y0)到同一正方形上所有点(xj,yj)的距离d相等,d定义为:d=|xj-x0|+|yj-y0|;D为手势区域边缘到中心点C的最大距离,n=1,2,3...K,8≤K≤12,所得辅助图形从内向外依次编号为辅助图形1、2……K;
S4-3辅助图形k1与手势区域的交点数即伸出手指数,辅助图形k1根据试验确定;
S4-4以辅助图形k2为手掌区域和伸出手指区域的边界,即辅助图形k2内和外的手势区域分别为手掌区域和伸出手指区域,手掌区域和伸出手指区域的面积比即分布特征R;辅助图形k2根据试验确定;
S4-5获得各伸出手指区域与辅助图形k1的相交区域的中心点C',中心点C'与中心点C的连线记为边,相邻边的夹角即相邻伸出手指间角度;若无相邻边,则不提取相邻伸出手指间角度;
S5根据手势库中手势样本和待识别手势的表观特征进行手势识别,本步骤具体为:
S5-1判断待识别手势的分布特征R大小,若0.7<R<1,则伸出手指数为0的手势样本为待识别手势的手势,手势识别完成;否则,执行子步骤S5-2;
S5-2与待识别手势伸出手指数N相同的手势样本即待识别手势的可能手势,若可能手势仅1个,该可能手势即待识别手势的手势,手势识别完成;否则,执行子步骤S5-3;
S5-3根据可能手势的相邻伸出手指间角度大小或各相邻伸出手指间角度间的大小关系以及形状,确定各可能手势对应的相邻伸出手指间角度或各相邻伸出手指间角度间的大小关系的范围,待识别手势的相邻伸出手指间角度或各相邻伸出手指间角度间的大小关系所落入范围对应的可能手势,即待识别手势的手势。
2.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
步骤S2中,采用下述公式进行阈值分割:
G={(x,y,z)|Minx<x<Maxx,Miny<y<Maxy,Minz<z<Maxz}
其中,G表示手势区域;Minx、Miny、Minz分别为x、y、z坐标范围的下限;Maxx、Maxy、Maxz分别为x、y、z坐标范围的上限。
3.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
步骤S3中,采用形态学中腐蚀和膨胀操作对二值图像进行预处理。
4.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
子步骤S4-1中,利用形态学中腐蚀操作提取手势区域中心点C。
5.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
子步骤S4-3和S4-5中,当K取10时,k1=6;同时,k2=5。
6.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
子步骤S5-3具体为:
若待识别手势的伸出手指数N为2,根据各可能手势的形状和相邻伸出手指间角度大小,确定各可能手势对应的相邻伸出手指间角度的范围,待识别手势的相邻伸出手指间角度落入范围所对应的可能手势,即待识别手势的手势。
7.如权利要求1所述的基于3D点云数据和表观特征的手势识别方法,其特征是:
子步骤S5-3具体为:
若待识别手势的伸出手指数N为3或4,根据各可能手势的形状和各相邻伸出手指间角度间的大小关系,确定各可能手势对应的各相邻伸出手指间角度间的大小关系的范围,待识别手势的各相邻伸出手指间角度间的大小关系落入范围所对应的可能手势,即待识别手势的手势。
CN201610213678.7A 2016-04-07 2016-04-07 基于3d点云数据和表观特征的手势识别方法 Expired - Fee Related CN105913007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610213678.7A CN105913007B (zh) 2016-04-07 2016-04-07 基于3d点云数据和表观特征的手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610213678.7A CN105913007B (zh) 2016-04-07 2016-04-07 基于3d点云数据和表观特征的手势识别方法

Publications (2)

Publication Number Publication Date
CN105913007A true CN105913007A (zh) 2016-08-31
CN105913007B CN105913007B (zh) 2019-02-12

Family

ID=56745620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610213678.7A Expired - Fee Related CN105913007B (zh) 2016-04-07 2016-04-07 基于3d点云数据和表观特征的手势识别方法

Country Status (1)

Country Link
CN (1) CN105913007B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898736A (zh) * 2020-07-23 2020-11-06 武汉大学 基于属性感知的高效行人重识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150022A (zh) * 2013-03-25 2013-06-12 深圳泰山在线科技有限公司 手势识别方法及装置
CN103164696A (zh) * 2013-03-28 2013-06-19 深圳泰山在线科技有限公司 手势识别方法及装置
CN103177245A (zh) * 2013-03-25 2013-06-26 深圳泰山在线科技有限公司 手势识别方法及装置
CN103197761A (zh) * 2013-03-28 2013-07-10 深圳泰山在线科技有限公司 手势识别方法及装置
US20140359540A1 (en) * 2013-05-28 2014-12-04 The Boeing Company Ubiquitous natural user system for human-machine interaction
EP2980728A1 (en) * 2014-08-01 2016-02-03 Imersivo, S.L. Procedure for identifying a hand gesture

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150022A (zh) * 2013-03-25 2013-06-12 深圳泰山在线科技有限公司 手势识别方法及装置
CN103177245A (zh) * 2013-03-25 2013-06-26 深圳泰山在线科技有限公司 手势识别方法及装置
CN103164696A (zh) * 2013-03-28 2013-06-19 深圳泰山在线科技有限公司 手势识别方法及装置
CN103197761A (zh) * 2013-03-28 2013-07-10 深圳泰山在线科技有限公司 手势识别方法及装置
US20140359540A1 (en) * 2013-05-28 2014-12-04 The Boeing Company Ubiquitous natural user system for human-machine interaction
EP2980728A1 (en) * 2014-08-01 2016-02-03 Imersivo, S.L. Procedure for identifying a hand gesture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898736A (zh) * 2020-07-23 2020-11-06 武汉大学 基于属性感知的高效行人重识别方法

Also Published As

Publication number Publication date
CN105913007B (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
CN106980858B (zh) 一种语言文本检测与定位系统及应用该系统的语言文本检测与定位方法
CN103246891B (zh) 一种基于Kinect的中国手语识别方法
CN103632366B (zh) 一种椭圆目标的参数识别方法
CN104834922A (zh) 基于混合神经网络的手势识别方法
CN109190626A (zh) 一种基于深度学习的多路径特征融合的语义分割方法
CN105550691B (zh) 基于尺度空间的自适应山谷山脊线提取方法及系统
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN111046917B (zh) 基于深度神经网络的对象性增强目标检测方法
CN103279746B (zh) 一种基于支持向量机的人脸识别方法及系统
CN103295032B (zh) 基于空间Fisher向量的图像分类方法
CN103400109A (zh) 一种手绘草图离线识别与整形方法
CN104182748A (zh) 一种基于拆分匹配的汉字笔画自动提取方法
CN105138983A (zh) 基于加权部件模型和选择性搜索分割的行人检测方法
CN105117740A (zh) 字体识别方法及装置
CN108021878B (zh) 一种等高线负向地貌智能识别方法
CN106326335A (zh) 一种基于显著属性选择的大数据归类方法
CN105913007A (zh) 基于3d点云数据和表观特征的手势识别方法
Yao et al. Wrist recognition and the center of the palm estimation based on depth camera
CN107146215A (zh) 一种基于颜色直方图和凸包的显著性检测方法
CN103700084A (zh) 基于区域尺寸和弯曲度的化学分子结构图分割方法
CN106203456A (zh) 基于改进差分进化粒子群算法的煤尘重叠颗粒分离方法
CN106384127B (zh) 为图像特征点确定比较点对及二进制描述子的方法及系统
Wang et al. Multi-scale convolutional features network for semantic segmentation in indoor scenes
CN103902657A (zh) 一种基于草绘图的三维模型检索方法
KR20230065443A (ko) 포인트 클라우드 데이터 증강 방법 및 이를 이용하는 학습 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190212

Termination date: 20200407