CN113377193A - 一种基于可靠手势识别的自动售货机交互方法及系统 - Google Patents

一种基于可靠手势识别的自动售货机交互方法及系统 Download PDF

Info

Publication number
CN113377193A
CN113377193A CN202110570676.4A CN202110570676A CN113377193A CN 113377193 A CN113377193 A CN 113377193A CN 202110570676 A CN202110570676 A CN 202110570676A CN 113377193 A CN113377193 A CN 113377193A
Authority
CN
China
Prior art keywords
hand
vending machine
gesture recognition
gesture
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110570676.4A
Other languages
English (en)
Inventor
顾友良
杨子龙
李观喜
张哲为
丁博文
程煜钧
张磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Ziweiyun Technology Co ltd
Original Assignee
Guangzhou Ziweiyun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Ziweiyun Technology Co ltd filed Critical Guangzhou Ziweiyun Technology Co ltd
Priority to CN202110570676.4A priority Critical patent/CN113377193A/zh
Publication of CN113377193A publication Critical patent/CN113377193A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/002Vending machines being part of a centrally controlled network of vending machines
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/006Details of the software used for the vending machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)

Abstract

本发明公开了一种基于可靠手势识别的自动售货机交互方法和系统,主要包括如下步骤:步骤1,设置不同的手势动作代表售货机不同的控制指令;步骤2,获取手势动作的判定结果,结合当前指令状态将手势识别结果转化为对应的控制指令;步骤3,将控制指令发送给自动售货机控制装置实现无接触式对自动售货机的控制。本发明提出基于图卷积(Graph Convolutional Networks)以及手部轨迹预测的可靠手势识别作为自动售货机的人机交互系统,不但能够解决于当前自动售货机接触式交互带来的安全卫生问题外,还能够极大提高基于语音或者传统的手势识别的算法精度让自动售货机更加智能。

Description

一种基于可靠手势识别的自动售货机交互方法及系统
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于可靠手势识别的自动售货机交互方法及系统。
背景技术
随着新零售行业的快速崛起,各种基于新零售衍生出来的创新型服务层出不穷。其中比较有代表性的自动售货机正如雨后春笋一般遍及人们生活的各个角落,在给人们提供了生活所需品的同时也极大的便利了人们的生活,改善了人们的生活方式。
当前市面上的自动售货机主要以按键或者可触摸屏的形式在购买者和机器之间建立沟通的桥梁。在当今新冠疫情爆发流行以及人们卫生安全意识不断提升的情况下这样的接触式人机交互方式也展现出了越来越多的缺点。其一、接触式的交互方式导致每个使用自动售货机人员都需要接触相关设备,增加了细菌、病毒等传染源传播的风险。其二、随着人工智能技术和虚拟现实技术的高速发展,人机交互模式必然是从接触式交互朝向非接触的方向发展,从而让用户拥有更加健康、卫生和便捷的交互方式。
当前主流非接触式的交互方式主要分为人体姿态识别交互、语音识别交互以及手势识别交互。自动售货机使用场景大部分是近场景,因此人体姿态识别交互方式不适用于该场景。而语音识别交互的方式在自动售货机的使用上有着的较大的局限性。这是由于自动售货机所处的场景环境复杂多样,极容易在使用过程中受到周围音频的影响导致语音识别的识别率和准确率大大降低,严重影响用户体验。因此在自动售货机上开发出一套可靠的非接触式交互方法和系统具有极大的需求背景以及实际意义。
在非接触式交互系统中手势识别不仅能够满足自动售货机场景的使用要求,同时相较于语音识别而言对环境变化的鲁棒性更强。当前手势识别主要通过手部的外观和光流或者通过手部关键点在指定时间步长的关节坐标来提取特征向量进行建模,然后通过分析其运动模式,识别手部动作。使用外观和光流的手势识别容易受到环境光线的变化影响,而使用手部关键点在在指定时间步长的关节坐标来提取特征向量的方式没有考虑手部各关键点在空间上的运动变化信息,导致手势识别算法能力有限。
发明内容
考虑到手部关键点组成的关节是以图的形式出现的,而不是类似图片那样的二维或者三维像素网格,因此本发明提出基于图卷积(Graph Convolutional Networks)的可靠手势识别作为自动售货机的人机交互系统。不但能够解决于当前自动售货机接触式交互带来的安全卫生问题外,还能够极大提高基于语音或者传统的手势识别的算法精度让自动售货机更加智能。
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明公开了一种基于可靠手势识别的自动售货机交互方法,包括如下步骤:
步骤1,设置不同的手势动作代表售货机不同的控制指令;
步骤2,获取手势动作的判定结果,结合当前指令状态将手势识别结果转化为对应的控制指令;
步骤3,将控制指令发送给自动售货机控制装置实现无接触式对自动售货机的控制。
本发明还公开了一种基于手势识别的自动售货机控制系统,所述系统包括:相互连接的手势识别装置、主控处理器和自动售货机控制装置,其中手势识别装置用于对采集的图片进行手势识别并将识别结果发送至主控处理器,所述手势识别装置包括:图片提取模块、手部动作识别模块以及手部姿态识别模块;主控处理器根据接收到的手势识别结果生成控制指令并发送至自动售货机控制装置;自动售货机控制装置根据具体的指令执行对应的操作实现对自动售货机的控制。
更进一步地,手势识别进一步包括:
步骤S1,手部图片样本采集,通过摄像机模组采集图片样本,利用手部检测算法检测当前图片中是否存在手,如果当前采集图片的画面中不存在手,则不进行任何后续算法的操作,当在采集图片中检测到手时,利用手部算法检测结果得到手部图片为后续的手势识别做准备;
步骤S2,手部关键点检测,利用基于深度学习的方法对所述步骤1中得到的手部图片进行手部关键点检测,得到当前手部所有的关键点坐标;
步骤S3,手势识别,使用基于深度学习的卷积神经网络可以对手部处于握拳、五指张开以及其他这三种状态进行分类,以判断当前手部姿态;
步骤S4:手势识别结果转为控制指令。在第三个过程中主控制器得到当前手势识别的结果,然后将当前手势识别结果对应的控制指令传给自动售货机控制系统;
步骤S5:自动售货机控制系统执行命令,自动售货机控制系统接收到主控制器传来的控制指令后,对控制指令进行解析,进行对应控制指令的执行。
更进一步地,所述步骤S3进一步包括:
对于手势动作的识别方法采用基于图卷积(GCN)同时结合手部检测框跟踪的方法进行判断;将帧内的关键点坐标以及帧间的关节连接坐标构建图,用作图卷积网络的输入,图卷积网络的输入可用一个5维矩阵(N,C,T,V,M)描述,其中N代表视频的数量;C代表人手部关节的特征,在手部动作识别中一个关节包含x,y,score三个特征;T代表关键帧的数量;V代表关节的数量;M代表一帧图片中的手的个数;当满足指定的帧数构建好网络的输入后,将输入传给基于图卷积的神经网络最终利用softmax函数对动作进行分类来识别当前手部动作,同时结合手部跟踪算法可得到当前手部在二维图像坐标中的一系列(x,y)坐标,对坐标点进行拟合可判断当前手部运动的轨迹,最终与图卷积的结果进行融合来对最终手部动作进行判定。
更进一步地,对手部运动轨迹的拟合主要过程为:首先计算出第1帧手部中心点的坐标(x1,y1),其次在手部运动的过程中不断利用检测以及跟踪算法得到第i帧手部中心点坐标(xi,yi),最后当满足指定的帧数(假设为N)后得到手部中心点坐标集合[(x1,y1),(x2,y2),...,(xn,yn)],利用最小二乘法进行曲线的拟合来判断当时手势的运动轨迹,最小二乘法模型如下:
Figure BDA0003082480150000031
其中,
Figure BDA0003082480150000032
Figure BDA0003082480150000033
为当前第i帧手部中心点坐标的x/y坐标实际值。
Figure BDA0003082480150000034
为第j帧预拟合曲线x坐标到y坐标的映射函数模型,利用最小二乘法可求解出预拟合曲线映射函数模型的对应参数,确定预拟合曲线从而能够实现对手部运动的轨迹进行判断。
更进一步地,所述步骤1进一步包括:手势动作与控制指令对应关系为:手部五指张开2秒表示开始指令;手部左右移动表示左右翻页指令;手部上下移动表示上下翻页指令;五指张开到握拳表示点击确认指令;手部握拳2秒表示结束指令。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在图中,在不同的视图中,相同的附图标记指定对应的部分。
图1为本发明基于手势识别自动售货机系统结构示意图;
图2为本发明一实施例中手部关键点在空间以及时间上的关系图;
图3为本发明一实施例的手势识别自动售货机工作流程图;
图4为本发明基于GCN手势识别网络总体流程图。
具体实施方式
实施例一
本发明提供的一种基于可靠手势识别的自动售货机交互方法主要包括:
(1)设置不同的手势动作代表售货机不同的控制指令,主要的手势动作与控制指令对应关系为:
手部五指张开2秒:开始指令
手部左右移动:左右翻页指令
手部上下移动:上下翻页指令
五指张开到握拳:点击确认指令
手部握拳2秒:结束指令
(2)获取手势动作的判定结果,结合当前指令状态将手势识别结果转化为对应的控制指令。
(3)将控制指令发送给自动售货机控制装置实现无接触式对自动售货机的控制。
同时本发明在解决现有技术缺陷的同时,提供了一种基于手势识别的自动售货机控制系统,其系统结构示意图见图1,主要包括:相互连接的手势识别装置、主控处理器和自动售货机控制装置。其中手势识别装置用于对采集的图片进行手势识别并将识别结果发送至主控处理器,主要包括:图片提取模块、手部动作识别模块以及手部姿态识别模块。主控处理器根据接收到的手势识别结果生成控制指令并发送至自动售货机控制装置。自动售货机控制装置根据具体的指令执行对应的操作实现对自动售货机的控制。
本发明提供的一种基于可靠手势识别的自动售货机交互方法和系统的主要工作流程图见图3,其中主要工作流程以下五个过程:
第一个过程:手部图片样本采集。通过摄像机模组采集图片样本,利用手部检测算法检测当前图片中是否存在手,如果当前采集图片的画面中不存在手,则不进行任何后续算法的操作。当在采集图片中检测到手时,利用手部算法检测结果得到手部图片为后续的手势识别做准备;
第二个过程:手部关键点检测。利用基于深度学习的方法对第一个过程中得到的手部图片进行手部关键点检测,得到当前手部所有的关键点坐标。
第三个过程:手势识别。手势识别对自动售货机的产品效果以及实际使用有着至关重要的影响。因此本发明提出基于卷积神经网络对手势状态(握拳、五指张开)进行分类,同时结合图卷积以及手部轨迹跟踪的手势识别方法识别手势动作(上下左右移动以及五指张开到握拳的动作),提高手势识别的准确度完善用户体验。
使用基于深度学习的卷积神经网络可以对手部处于握拳、五指张开以及其他这三种状态进行分类,以判断当前手部姿态。
对于手势动作的识别方法采用基于图卷积(GCN)同时结合手部检测框跟踪的方法进行判断。如图2所示,圆心符号代表手部每个关键点,手部关节之间的连接边缘是根据手部自然连接来定义的。帧间的边缘在连续帧之间连接相同的关节(短线)。这样可以将帧内的关键点坐标以及帧间的关节连接坐标构建图,用作图卷积网络的输入。图卷积网络的输入可用一个5维矩阵(N,C,T,V,M)描述。其中N代表视频的数量(对一个视频进行推理时该值为1);C代表人手部关节的特征,在手部动作识别中一个关节包含x,y,score三个特征;T代表关键帧的数量;V代表关节的数量,通常一个人的手部标注20个关节;M代表一帧图片中的手的个数,这里设置为1。当满足指定的帧数构建好网络的输入后,将输入传给基于图卷积的神经网络最终利用softmax函数对动作进行分类来识别当前手部动作。整体的网络动作识别流程见图4。同时结合手部跟踪算法可得到当前手部在二维图像坐标中的一系列(x,y)坐标,对坐标点进行拟合可判断当前手部运动的轨迹,最终与图卷积的结果进行融合来对最终手部动作进行判定。
上述的手部运动轨迹的拟合主要过程为:首先计算出第1帧手部中心点的坐标(x1,y1),其次在手部运动的过程中不断利用检测以及跟踪算法得到第i帧手部中心点坐标(xi,yi),最后当满足指定的帧数(假设为N)后得到手部中心点坐标集合[(x1,y1),(x2,y2),...,(xn,yn)],利用最小二乘法进行曲线的拟合来判断当时手势的运动轨迹,最小二乘法模型如下。
Figure BDA0003082480150000051
其中
Figure BDA0003082480150000052
Figure BDA0003082480150000053
为当前第i帧手部中心点坐标的x/y坐标实际值。
Figure BDA0003082480150000054
为第i帧预拟合曲线x坐标到y坐标的映射函数模型,利用最小二乘法可求解出预拟合曲线映射函数模型的对应参数,确定预拟合曲线从而能够实现对手部运动的轨迹进行判断。
第四个过程:手势识别结果转为控制指令。在第三个过程中主控制器得到当前手势识别的结果,然后将当前手势识别结果对应的控制指令传给自动售货机控制系统。
第五个过程:自动售货机控制系统执行命令。自动售货机控制系统接收到主控制器传来的控制指令后,对控制指令进行解析,进行对应控制指令的执行,从而可按照用户需求达到无接触式交互的目的。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。因此,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以下权利要求(包括所有等同物)旨在限定本发明的精神和范围。以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (6)

1.一种基于可靠手势识别的自动售货机交互方法,其特征在于,包括如下步骤:
步骤1,设置不同的手势动作代表售货机不同的控制指令;
步骤2,获取手势动作的判定结果,结合当前指令状态将手势识别结果转化为对应的控制指令;
步骤3,将控制指令发送给自动售货机控制装置实现无接触式对自动售货机的控制。
2.一种基于手势识别的自动售货机控制系统,其特征在于,所述系统包括:相互连接的手势识别装置、主控处理器和自动售货机控制装置,其中手势识别装置用于对采集的图片进行手势识别并将识别结果发送至主控处理器,所述手势识别装置包括:图片提取模块、手部动作识别模块以及手部姿态识别模块;主控处理器根据接收到的手势识别结果生成控制指令并发送至自动售货机控制装置;自动售货机控制装置根据具体的指令执行对应的操作实现对自动售货机的控制。
3.如权利要求1所述的一种基于可靠手势识别的自动售货机交互方法,其应用于权利要求2的系统中,其特征在于,手势识别进一步包括:
步骤S1,手部图片样本采集,通过摄像机模组采集图片样本,利用手部检测算法检测当前图片中是否存在手,如果当前采集图片的画面中不存在手,则不进行任何后续算法的操作,当在采集图片中检测到手时,利用手部算法检测结果得到手部图片为后续的手势识别做准备;
步骤S2,手部关键点检测,利用基于深度学习的方法对所述步骤1中得到的手部图片进行手部关键点检测,得到当前手部所有的关键点坐标;
步骤S3,手势识别,使用基于深度学习的卷积神经网络可以对手部处于握拳、五指张开以及其他这三种状态进行分类,以判断当前手部姿态;
步骤S4:手势识别结果转为控制指令,在第三个过程中主控制器得到当前手势识别的结果,然后将当前手势识别结果对应的控制指令传给自动售货机控制系统;
步骤S5:自动售货机控制系统执行命令,自动售货机控制系统接收到主控制器传来的控制指令后,对控制指令进行解析,进行对应控制指令的执行。
4.如权利要求3所述的一种基于可靠手势识别的自动售货机交互方法,其特征在于,所述步骤S3进一步包括:
对于手势动作的识别方法采用基于图卷积(GCN)同时结合手部检测框跟踪的方法进行判断;将帧内的关键点坐标以及帧间的关节连接坐标构建图,用作图卷积网络的输入,图卷积网络的输入可用一个5维矩阵(N,C,T,V,M)描述,其中N代表视频的数量;C代表人手部关节的特征,在手部动作识别中一个关节包含x,y,score三个特征;T代表关键帧的数量;V代表关节的数量;M代表一帧图片中的手的个数;当满足指定的帧数构建好网络的输入后,将输入传给基于图卷积的神经网络最终利用softmax函数对动作进行分类来识别当前手部动作,同时结合手部跟踪算法可得到当前手部在二维图像坐标中的一系列(x,y)坐标,对坐标点进行拟合可判断当前手部运动的轨迹,最终与图卷积的结果进行融合来对最终手部动作进行判定。
5.如权利要求4所述的一种基于可靠手势识别的自动售货机交互方法,其特征在于,对手部运动轨迹的拟合主要过程为:首先计算出第1帧手部中心点的坐标(x1,y1),其次在手部运动的过程中不断利用检测以及跟踪算法得到第i帧手部中心点坐标(xi,yi),最后当满足指定的帧数(假设为N)后得到手部中心点坐标集合[(x1,y1),(x2,y2),...,(xn,yn)],利用最小二乘法进行曲线的拟合来判断当时手势的运动轨迹,最小二乘法模型如下:
Figure FDA0003082480140000021
其中,
Figure FDA0003082480140000022
Figure FDA0003082480140000023
为当前第i帧手部中心点坐标的x/y坐标实际值。
Figure FDA0003082480140000024
为第i帧预拟合曲线x坐标到y坐标的映射函数模型,利用最小二乘法可求解出预拟合曲线映射函数模型的对应参数,确定预拟合曲线从而能够实现对手部运动的轨迹进行判断。
6.如权利要求3一种基于可靠手势识别的自动售货机交互方法,其特征在于,所述步骤1进一步包括:手势动作与控制指令对应关系为:手部五指张开2秒表示开始指令;手部左右移动表示左右翻页指令;手部上下移动表示上下翻页指令;五指张开到握拳表示点击确认指令;手部握拳2秒表示结束指令。
CN202110570676.4A 2021-05-25 2021-05-25 一种基于可靠手势识别的自动售货机交互方法及系统 Pending CN113377193A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110570676.4A CN113377193A (zh) 2021-05-25 2021-05-25 一种基于可靠手势识别的自动售货机交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110570676.4A CN113377193A (zh) 2021-05-25 2021-05-25 一种基于可靠手势识别的自动售货机交互方法及系统

Publications (1)

Publication Number Publication Date
CN113377193A true CN113377193A (zh) 2021-09-10

Family

ID=77571874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110570676.4A Pending CN113377193A (zh) 2021-05-25 2021-05-25 一种基于可靠手势识别的自动售货机交互方法及系统

Country Status (1)

Country Link
CN (1) CN113377193A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113918017A (zh) * 2021-10-11 2022-01-11 厦门顶尖电子有限公司 一种基于识别秤秤台的指令输入方法
CN114926905A (zh) * 2022-05-31 2022-08-19 江苏濠汉信息技术有限公司 基于带手套的手势识别的电缆附件工序判别方法和系统
CN117850579A (zh) * 2023-09-06 2024-04-09 山东依鲁光电科技有限公司 一种基于人体姿态的无接触控制系统与方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177245A (zh) * 2013-03-25 2013-06-26 深圳泰山在线科技有限公司 手势识别方法及装置
CN106778141A (zh) * 2017-01-13 2017-05-31 北京元心科技有限公司 基于手势识别的解锁方法、装置及移动终端
US20200103980A1 (en) * 2012-12-13 2020-04-02 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US20200273042A1 (en) * 2017-08-07 2020-08-27 SmartComm Electronics Pte. Ltd. Vending machine
CN112686111A (zh) * 2020-12-23 2021-04-20 中国矿业大学(北京) 基于注意力机制多视角自适应网络的交警手势识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200103980A1 (en) * 2012-12-13 2020-04-02 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
CN103177245A (zh) * 2013-03-25 2013-06-26 深圳泰山在线科技有限公司 手势识别方法及装置
CN106778141A (zh) * 2017-01-13 2017-05-31 北京元心科技有限公司 基于手势识别的解锁方法、装置及移动终端
US20200273042A1 (en) * 2017-08-07 2020-08-27 SmartComm Electronics Pte. Ltd. Vending machine
CN112686111A (zh) * 2020-12-23 2021-04-20 中国矿业大学(北京) 基于注意力机制多视角自适应网络的交警手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
国家体育总局编: "田径", 人民体育出版社, pages: 367 - 376 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113918017A (zh) * 2021-10-11 2022-01-11 厦门顶尖电子有限公司 一种基于识别秤秤台的指令输入方法
CN113918017B (zh) * 2021-10-11 2024-05-03 厦门顶尖电子有限公司 一种基于识别秤秤台的指令输入方法
CN114926905A (zh) * 2022-05-31 2022-08-19 江苏濠汉信息技术有限公司 基于带手套的手势识别的电缆附件工序判别方法和系统
CN114926905B (zh) * 2022-05-31 2023-12-26 江苏濠汉信息技术有限公司 基于带手套的手势识别的电缆附件工序判别方法和系统
CN117850579A (zh) * 2023-09-06 2024-04-09 山东依鲁光电科技有限公司 一种基于人体姿态的无接触控制系统与方法

Similar Documents

Publication Publication Date Title
CN113377193A (zh) 一种基于可靠手势识别的自动售货机交互方法及系统
Xu A real-time hand gesture recognition and human-computer interaction system
WO2017129149A1 (zh) 基于多模态输入进行交互的方法和设备
Turk et al. Perceptual interfaces
CN112148128B (zh) 一种实时手势识别方法、装置及人机交互系统
CN109933206B (zh) 一种基于Leap Motion的手指无接触绘图方法及系统
CN107357428A (zh) 基于手势识别的人机交互方法及装置、系统
CN110008839B (zh) 一种自适应手势识别的智能手语交互系统及方法
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
CN114265498B (zh) 一种多模态手势识别和视觉反馈机制结合的方法
CN114821753B (zh) 一种基于视觉图像信息的眼动交互系统
CN112784926A (zh) 一种手势交互的方法和系统
CN107346207B (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
CN113961067B (zh) 基于深度学习的非接触式涂鸦绘制方法与识别交互系统
Adhikari et al. A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform.
Rehman et al. Two hand gesture based 3d navigation in virtual environments
CN107390881A (zh) 一种手势控制方法
Vyas et al. Gesture recognition and control
CN110413106B (zh) 一种基于语音和手势的增强现实输入方法及系统
Dhamanskar et al. Human computer interaction using hand gestures and voice
KR20230093191A (ko) 오차 종류별 관절 인식 방법, 서버
Choondal et al. Design and implementation of a natural user interface using hand gesture recognition method
CN109582136B (zh) 三维窗口手势导航方法、装置、移动终端及存储介质
Shree et al. A Virtual Assistor for Impaired People by using Gestures and Voice
CN112308041A (zh) 一种基于视觉的无人平台手势控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210910

RJ01 Rejection of invention patent application after publication