CN112068705A - 一种基于手势识别的仿生机器鱼交互控制方法及系统 - Google Patents

一种基于手势识别的仿生机器鱼交互控制方法及系统 Download PDF

Info

Publication number
CN112068705A
CN112068705A CN202010966562.7A CN202010966562A CN112068705A CN 112068705 A CN112068705 A CN 112068705A CN 202010966562 A CN202010966562 A CN 202010966562A CN 112068705 A CN112068705 A CN 112068705A
Authority
CN
China
Prior art keywords
gesture
skin color
image
bionic robot
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010966562.7A
Other languages
English (en)
Inventor
汪明
常征
张宜阳
卫正
逯广浩
谢浩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Jianzhu University
Original Assignee
Shandong Jianzhu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Jianzhu University filed Critical Shandong Jianzhu University
Priority to CN202010966562.7A priority Critical patent/CN112068705A/zh
Publication of CN112068705A publication Critical patent/CN112068705A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • B63C11/52Tools specially adapted for working underwater, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/478Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Abstract

本公开提供了一种基于手势识别的仿生机器鱼交互控制方法及系统,所述方案包括获取手势:由视觉传感器等获取手势序列图像;手势识别:经过肤色检测,分割出手势图像;提取手势特征,建立手势库,训练SVM模型进行手势识别;手势控制:对若干手势动作进行编码,作为仿生机器鱼的控制指令,当手势识别完成之后,驱动机器鱼按照预定动作运动。

Description

一种基于手势识别的仿生机器鱼交互控制方法及系统
技术领域
本公开属于运动控制技术领域,尤其涉及一种基于手势识别的仿生机器鱼交互控制方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
近年来,随着陆地资源匮乏日益严重,人们越来越多的关注到丰富的海洋资源。由于原有的水下检测、作业、运载装置难以满足复杂水下作业任务的需求,因此加速了水下机器人的研发工作。仿生机器鱼作为鱼类推进机理和机器人技术的结合点,为研制新型的水下航行器提供了一种新思路,具有重要的研究价值和应用前景。
发明人发现,现有的仿生鱼通常多采用手动遥控设备或者语音设备进行控制,而仿生机器鱼往往会应用于娱乐应用场景中,单纯通过遥控设备无法给游客带来娱乐性的效果,且无法大量配备遥控设备;而语音控制对于环境嘈杂的娱乐环境显然也不适合;因此,在娱乐应用环境中,如何实现对仿生鱼有效控制,提高游客与仿生鱼之间的互动,是现有技术有待解决的问题。
发明内容
本公开为了解决上述问题,提供了一种基于手势识别的仿生机器鱼交互控制方法及系统,通过对获取的手势图像进行处理,通过手势识别实现嘈杂环境下机器鱼的运动控制。
根据本公开实施例的第一个方面,提供了一种基于手势识别的仿生机器鱼交互控制方法,包括:
获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;
将SVM模型的分类类别进行编码,并映射到不同的控制指令;
利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
进一步的,所述基于肤色的分割方法包括采用RGB颜色空间的阈值分割,再结合HSV空间肤色分布的聚类性,两者之间做与运算,实现肤色区域的提取;肤色的特征色调在RGB空间中,其RGB值符合R>G>B,为了提高分割方法的实时性,设置人类的肤色颜色空间HSV范围为:H(2,28),S(50,200)。
进一步的,所述基于肤色的分割方法还包括预先对采集到的手势图像进行二值化处理,获取肤色区域,根据原图像(x,y)处的H、S值和R、G、B值判断二值图(x,y)处的像素值;采用循环嵌套遍历图像的方式,判断原图像(x,y)处像素的对应分量是否满足条件,如果符合条件则零矩阵(x,y)处像素等于1;反之,则等于0。
进一步的,所述手势特征的提取包括对肤色检测后的图像进行轮廓提取,获取轮廓点坐标,对轮廓点坐标进行傅里叶描述子的提取,建立手势特征库。
根据本公开实施例的第二个方面,提供了一种基于手势识别的仿生机器鱼交互控制系统,包括:
图像采集模块,其用于获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
模型训练模块,其用于提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;将SVM模型的分类类别进行编码,并映射到不同的控制指令;
手势识别模块,其用于利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
根据本公开实施例的第三个方面,提供了一种仿生机器鱼,包括仿生机器鱼本体、存储器、处理器及存储在存储器上运行的计算机程序,所述处理器执行所述程序时实现上述的一种基于手势识别的仿生机器鱼交互控制方法。
根据本公开实施例的第四个方面,提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的一种基于手势识别的仿生机器鱼交互控制方法。
与现有技术相比,本公开的有益效果是:
(1)本公开所述方案利用手势识别控制解决人与机器鱼在场景应用中的交互问题,手势交互具有较强的抗干扰性,在噪声较大的场所,声音的传播会受到影响,但是基于手势的交流仍可以顺利进行,随着人工智能的发展,手势交互的发展也将得到巨大提高。
(2)本公开所述方案利用椭圆肤色检测模型实现对手势的检测,能够避免受到光照的影响,采用傅里叶算子进行手势特征提取,能够更好的进行手势识别,并建立手势特征库,对SVM模型进行训练保存,依靠训练好的SVM模型进行手势识别,最后实现仿生机器鱼的控制。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本公开实施例一中所述的手势示意图;
图2为本公开实施例一中所述的手势识别控制流程图;
图3为本公开实施例二中所述的基于手势识别的仿生机器鱼交互控制系统的控制框架。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一:
本实施例的目的是提供一种基于手势识别的仿生机器鱼交互控制方法。
一种基于手势识别的仿生机器鱼交互控制方法,包括:
获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;
将SVM模型的分类类别进行编码,并映射到不同的控制指令;
利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
进一步的,通过携带装配有摄像头的仿生机器鱼获取手势图像,并将手势序列图像通过仿生机器鱼自身处理器进行处理,或以无线传输的方式上传至工作站进行处理分析,本实施例中采用以无线传输的方式上传至工作站进行处理分析。
进一步的,所述基于肤色的分割方法通过对肤色颜色空间中的聚类特征,从背景图像中分割出肤色区域,用肤色特征来实现手势分割。
进一步的,采用RGB颜色空间的阈值分割,再结合HSV空间肤色分布的聚类性,两者之间做与运算,实现肤色区域的提取;肤色的特征色调在RGB空间中,其RGB值符合R>G>B,人类的肤色颜色空间HSV范围为:H(2,28),S(50,200),据此实现手势分割,有利于系统实时性的提高。
进一步的,对采集到的包含手势的图像进行二值化处理,获取肤色区域。根据原图像(x,y)处的H、S值和R、G、B值判断二值图(x,y)处的像素值。
进一步的,采用循环嵌套遍历图像的方式,判断原图像(x,y)处像素的对应分量是否满足条件,如果符合条件则零矩阵(x,y)处像素等于1;反之,则等于0。
此外,对于分割出的肤色图像会受到不同噪声的干扰,因此需要对图像进行预处理,加强图像的有用信息,滤除掉不需要的信息。
进一步的,对肤色区域图像进行中值滤波,采用中值滤波不仅可以去除噪声,而且可以保持图像的边缘特性,不会使图像产生明显的模糊。
进一步的,去除手势之外的肤色区域以及背景中的类肤色区域。若二值化后的肤色区域或类肤色区域占整幅图像面积低于0.06,那么这些区域不是手势区域,需要去除。
进一步的,针对二值化手势图像存在的边缘的毛刺和内部的空洞,可以结合膨胀、腐蚀等形态学处理去除。
进一步的,对肤色检测后的图像进行轮廓提取,获取轮廓点坐标,来提取手势区域。
进一步的,对轮廓点坐标进行傅里叶描述子的提取,建立手势特征库,实验表明基于物体轮廓坐标序列的傅里叶描述子具有最佳形状识别性能,同时取32项傅里叶算子的时候,基本可以还原手势形状。
进一步的,本实施例中利用采集好的五个手势(手势1-5)的样本库,计算手势库的特征并进行保存;具体的可根据实际情况对样本库中的手势类型进行扩展。
进一步的,利用已有的样本库训练SVM模型并保存,使用网格搜索法进行调参。
进一步的,通过对完成识别的1-5手势进行编码,作为仿生机器鱼的控制指令,设置每个手势编码与其控制程序间的映射关系,每当识别完一个手势,工作站执行对应的控制命令,通过无线传输的方式发送至仿生机器鱼,驱动仿生机器鱼运动,实现仿生机器鱼与人的友好交互。
本申请所述方法,通过装配有视觉传感器的仿生机器鱼获取手势图像,进行手势分割,从复杂背景中提取出手势区域;采用训练好SVM模型进行手势识别;对识别后的手势进行编码,设置对应的机器鱼运动命令,以无线传输的方式驱动机器鱼运动。
实施例二:
本实施例的目的是提供一种基于手势识别的仿生机器鱼交互控制系统。
一种基于手势识别的仿生机器鱼交互控制系统,包括:
图像采集模块,其用于获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
模型训练模块,其用于提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;将SVM模型的分类类别进行编码,并映射到不同的控制指令;
手势识别模块,其用于利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
进一步的,所述基于手势识别的仿生机器鱼交互控制系统还包括能够实时采集手势图像仿生机器鱼,所述仿生机器鱼的处理器内置实现所述基于手势识别的仿生机器鱼交互控制方法的程序。
实施例三:
本实施例的目的是提供一种电子设备。
一种电子设备,包括仿生鱼本体、存储器、处理器及存储在存储器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;
将SVM模型的分类类别进行编码,并映射到不同的控制指令;
利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
进一步的,所述仿生鱼本体包括图像采集装置,用于实时采集手势图像。
实施例四:
本实施例的目的是提供一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤,包括:
获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;
将SVM模型的分类类别进行编码,并映射到不同的控制指令;
利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
上述实施例提供的一种基于手势识别的仿生机器鱼交互控制方法及系统完全可以实现,具有广阔的应用前景。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。

Claims (10)

1.一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,包括:
获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;
将SVM模型的分类类别进行编码,并映射到不同的控制指令;
利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
2.如权利要求1所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,所述基于肤色的分割方法包括采用RGB颜色空间的阈值分割,再结合HSV空间肤色分布的聚类性,两者之间做与运算,实现肤色区域的提取;肤色的特征色调在RGB空间中,其RGB值符合R>G>B,为了提高分割方法的实时性,设置人类的肤色颜色空间HSV范围为:H取值为大于2且小于28,S取值为大于50且小于200。
3.如权利要求1所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,所述基于肤色的分割方法还包括预先对采集到的手势图像进行二值化处理,获取肤色区域,根据原图像像素点处的H、S值和R、G、B值判断二值图的像素点处的像素值;采用循环嵌套遍历图像的方式,判断原图像像素点处像素的对应分量是否满足条件,如果符合条件则零矩阵对应位置处像素等于1;反之,则等于0。
4.如权利要求3所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,针对二值化后的手势图像还需要进行膨胀、腐蚀处理,用于去除手势图像边缘的毛刺和内部的空洞。
5.如权利要求1所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,所述手势特征的提取包括对肤色检测后的图像进行轮廓提取,获取轮廓点坐标,对轮廓点坐标进行傅里叶描述子的特征提取,建立手势特征库。
6.如权利要求5所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,由于利用仿生机器鱼在水下拍摄的图像存在大量噪声,需要在进行轮廓提取前需要对肤色区域图像进行中值滤波,对手势轮廓的边缘特性进行有效保护。
7.如权利要求5所述的一种基于手势识别的仿生机器鱼交互控制方法,其特征在于,利用傅里叶描述子对轮廓点坐标进行特征提取时采用32项傅里叶算子。
8.一种基于手势识别的仿生机器鱼交互控制系统,其特征在于,包括:
图像采集模块,其用于获取人的手势图像,利用基于肤色的分割方法分割出手势区域;
模型训练模块,其用于提取手势特征构建手势特征库,并利用手势特征库中的样本对SVM模型进行训练;将SVM模型的分类类别进行编码,并映射到不同的控制指令;
手势识别模块,其用于利用训练好的SVM模型对实时采集的手势图像进行识别,根据识别类型控制仿生机器鱼的动作。
9.一种电子设备,包括仿生鱼本体、存储器、处理器及存储在存储器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的基于手势识别的仿生机器鱼交互控制方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的基于手势识别的仿生机器鱼交互控制方法。
CN202010966562.7A 2020-09-15 2020-09-15 一种基于手势识别的仿生机器鱼交互控制方法及系统 Pending CN112068705A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010966562.7A CN112068705A (zh) 2020-09-15 2020-09-15 一种基于手势识别的仿生机器鱼交互控制方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010966562.7A CN112068705A (zh) 2020-09-15 2020-09-15 一种基于手势识别的仿生机器鱼交互控制方法及系统

Publications (1)

Publication Number Publication Date
CN112068705A true CN112068705A (zh) 2020-12-11

Family

ID=73695758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010966562.7A Pending CN112068705A (zh) 2020-09-15 2020-09-15 一种基于手势识别的仿生机器鱼交互控制方法及系统

Country Status (1)

Country Link
CN (1) CN112068705A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113468986A (zh) * 2021-06-16 2021-10-01 武汉理工大学 一种基于手势识别的空调控制方法及系统
CN117290773A (zh) * 2023-10-13 2023-12-26 哈尔滨工业大学 一种基于智能数据手套的水陆两栖个性化手势识别方法及识别系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102339379A (zh) * 2011-04-28 2012-02-01 重庆邮电大学 手势识别方法及基于手势识别控制的智能轮椅人机系统
CN108614988A (zh) * 2016-12-09 2018-10-02 广东技术师范学院 一种复杂背景下的运动手势自动识别系统
CN108846359A (zh) * 2018-06-13 2018-11-20 新疆大学科学技术学院 一种基于皮肤颜色区域分割和机器学习算法相融合的手势识别方法及其应用
CN108983980A (zh) * 2018-07-27 2018-12-11 河南科技大学 一种移动机器人基本运动手势控制方法
CN109190496A (zh) * 2018-08-09 2019-01-11 华南理工大学 一种基于多特征融合的单目静态手势识别方法
CN109451634A (zh) * 2018-10-19 2019-03-08 厦门理工学院 基于手势控制电灯的方法及其智能电灯系统
CN109961010A (zh) * 2019-02-16 2019-07-02 天津大学 一种基于智能机器人的手势识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102339379A (zh) * 2011-04-28 2012-02-01 重庆邮电大学 手势识别方法及基于手势识别控制的智能轮椅人机系统
CN108614988A (zh) * 2016-12-09 2018-10-02 广东技术师范学院 一种复杂背景下的运动手势自动识别系统
CN108846359A (zh) * 2018-06-13 2018-11-20 新疆大学科学技术学院 一种基于皮肤颜色区域分割和机器学习算法相融合的手势识别方法及其应用
CN108983980A (zh) * 2018-07-27 2018-12-11 河南科技大学 一种移动机器人基本运动手势控制方法
CN109190496A (zh) * 2018-08-09 2019-01-11 华南理工大学 一种基于多特征融合的单目静态手势识别方法
CN109451634A (zh) * 2018-10-19 2019-03-08 厦门理工学院 基于手势控制电灯的方法及其智能电灯系统
CN109961010A (zh) * 2019-02-16 2019-07-02 天津大学 一种基于智能机器人的手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李公法等: "《机器人灵巧手的人机交互技术及其稳定控制》", 31 July 2020 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113468986A (zh) * 2021-06-16 2021-10-01 武汉理工大学 一种基于手势识别的空调控制方法及系统
CN117290773A (zh) * 2023-10-13 2023-12-26 哈尔滨工业大学 一种基于智能数据手套的水陆两栖个性化手势识别方法及识别系统
CN117290773B (zh) * 2023-10-13 2024-04-26 哈尔滨工业大学 一种基于智能数据手套的水陆两栖个性化手势识别方法及识别系统

Similar Documents

Publication Publication Date Title
CN110070033B (zh) 一种电力领域危险工作区域内安全帽佩戴状态检测方法
Malima et al. A fast algorithm for vision-based hand gesture recognition for robot control
CN112136505B (zh) 一种基于视觉选择注意机制的水果采摘顺序规划方法
CN103325126B (zh) 一种在尺度变化和遮挡情况下的视频目标跟踪方法
CN101635031B (zh) 小样本人物轮廓特征提取与识别方法
CN112068705A (zh) 一种基于手势识别的仿生机器鱼交互控制方法及系统
CN110321937B (zh) 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
CN108453739B (zh) 基于自动形状拟合的立体视觉定位机械臂抓取系统及方法
CN104268519A (zh) 基于模式匹配的图像识别终端及其识别方法
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
CN103198491A (zh) 室内的视觉定位方法
CN110222647B (zh) 一种基于卷积神经网络的人脸活体检测方法
CN108154496A (zh) 一种适用于电力作业机器人的电力设备外观变化识别方法
CN111860643B (zh) 基于调频模型的视觉模板匹配的鲁棒性提升方法
CN112183230A (zh) 自然梨园环境下梨子的识别与中心点定位方法
CN111462265A (zh) 一种多模态机器人智能绘画方法
Hu et al. Efficient face and gesture recognition techniques for robot control
Zhang et al. Text extraction from images captured via mobile and digital devices
CN113378799A (zh) 基于目标检测和姿态检测框架的行为识别方法及系统
CN107798296B (zh) 一种应用于复杂背景场景的快速运动手势识别方法
CN113158942A (zh) 一种运动人体行为检测的分割算法及装置
Kumar et al. Computer vision based Hand gesture recognition system
Nag et al. Generating Vectors from Images using Multi-Stage Edge Detection for Robotic Artwork
CN111950409B (zh) 一种道路标记线智能识别方法及系统
CN115409890B (zh) 基于msr和广义霍夫变换的自定义标志检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination