CN105320248A - 空中手势输入方法及装置 - Google Patents

空中手势输入方法及装置 Download PDF

Info

Publication number
CN105320248A
CN105320248A CN201410243499.9A CN201410243499A CN105320248A CN 105320248 A CN105320248 A CN 105320248A CN 201410243499 A CN201410243499 A CN 201410243499A CN 105320248 A CN105320248 A CN 105320248A
Authority
CN
China
Prior art keywords
gesture
gestures
images
framed user
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410243499.9A
Other languages
English (en)
Other versions
CN105320248B (zh
Inventor
赵波
胡佳文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen TCL New Technology Co Ltd
Original Assignee
Shenzhen TCL New Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen TCL New Technology Co Ltd filed Critical Shenzhen TCL New Technology Co Ltd
Priority to CN201410243499.9A priority Critical patent/CN105320248B/zh
Priority to EP14893908.5A priority patent/EP3153943A4/en
Priority to PCT/CN2014/093810 priority patent/WO2015184760A1/zh
Priority to US15/015,148 priority patent/US20160154469A1/en
Publication of CN105320248A publication Critical patent/CN105320248A/zh
Application granted granted Critical
Publication of CN105320248B publication Critical patent/CN105320248B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种空中手势输入方法及装置。本发明实施例检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;根据获取的所述手势图像中指尖的位置,生成书写轨迹;检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。本发明实施例通过采集用户的手势图像生成书写轨迹,再对书写轨迹进行文字识别,使用户只需在空中通过手势就能实现文字输入,且该输入方式简单易行、适用于包括电视在内的多数电子产品。

Description

空中手势输入方法及装置
技术领域
本发明涉及计算机应用和模式识别技术领域,尤其涉及空中手势输入方法及装置。
背景技术
目前广泛使用的文字输入方式包括:键盘、触屏、手写板等。其中,键盘和手写板等输入方式需要借助特定的输入设备(如键盘、手写板等)才能实现文字的输入,对输入设备的依赖性强。而触屏的输入方式虽然不需要借助特定的输入设备,但是对于电视、计算机等不具有触摸屏的电子产品,触屏的输入方式显然不适用。因此,提供一种方便、简单且适于更多电子设备使用的输入方法非常必要。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供空中手势输入方法及装置,旨在实现在空中通过手势即可进行文字的输入。
为实现上述目的,本发明实施例提供的空中手势输入方法,包括以下步骤:
检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
根据获取的所述手势图像中指尖的位置,生成书写轨迹;
检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
优选地,所述获取每一帧所述手势图像中指尖的位置的步骤包括:
将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
确定所述手轮廓的重心;
查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置。
优选地,所述根据获取的所述手势图像中指尖的位置,生成书写轨迹的步骤包括:
以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
优选地,所述检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置的步骤之前包括:
采集第一帧用户命令手势和第二帧用户命令手势;
根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
优选地,所述根据所述单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型的步骤包括:
计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
计算所述第二帧用户命令手势与所述单手张开的样本图像的第三相似性值,并计算所述第二帧用户命令手势与所述单手握拳的样本图像的第四相似性值,基于所述第三相似性值和所述第四相似性值判断所述第二帧用户命令手势是单手张开还是单手握拳。
优选地,所述根据第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写的命令的步骤包括:
在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令。
本发明实施例进一步提供的空中手势输入装置,包括:
获取模块,用于检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
生成模块,用于根据获取的所述手势图像中指尖的位置,生成书写轨迹;
识别模块,用于检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
优选地,所述获取模块包括:
二值化单元,用于将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
重心确定单元,用于确定所述手轮廓的重心;
获取单元,用于查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置;
所述生成模块包括:
生成单元,用于以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
优选地,所述装置还包括:
采集模块,用于采集第一帧用户命令手势和第二帧用户命令手势;
判断模块,用于根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
触发模块,用于根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
优选地,所述判断模块包括:
第一计算单元,用于计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
第二计算单元,用于计算所述第二帧用户命令手势与所述单手张开的样本图像的第三相似性值,并计算所述第二帧用户命令手势与所述单手握拳的样本图像的第四相似性值,基于所述第三相似性值和所述第四相似性值判断所述第二帧用户命令手势是单手张开还是单手握拳;
所述触发模块包括:
触发单元,用于在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令。
本发明实施例检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;根据获取的所述手势图像中指尖的位置,生成书写轨迹;检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。本发明实施例通过采集用户的手势图像生成书写轨迹,再对书写轨迹进行文字识别,使用户只需在空中通过手势就能实现文字输入,且该输入方式简单易行、适用于包括电视在内的多数电子产品。
附图说明
图1为本发明空中手势输入方法第一实施例的流程示意图;
图2为本发明空中手势输入方法第二实施例的流程示意图;
图3为本发明空中手势输入方法第三实施例的流程示意图;
图4为本发明空中手势输入装置第一实施例的功能模块示意图;
图5为本发明空中手势输入装置第二实施例的功能模块示意图;
图6为本发明空中手势输入装置第三实施例的功能模块示意图;
图7为图6空中手势输入装置中判断模块的功能单元示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种空中手势输入方法。
参照图1,图1为本发明空中手势输入方法第一实施例的流程示意图。
第一实施例中,所述方法包括以下步骤:
步骤S01,检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
装置在检测到开始书写命令时,响应开始书写命令并开始采集手势图像,例如,装置在检测到开始书写命令时,提供悬浮输入框供用户对准悬浮输入框进行手势输入,同时装置开启采集设备(如摄像头、相机等),采集设备连续的拍摄手势图像并同时对所述手势图像进行保存,其中,所述手势图像可以是一段影像,也可以是多张连续的图片。
建立一个二维坐标系(下称坐标系),例如,以悬浮输入框的一端点为原点建立一个二维坐标系,采集到的手势图像均落在此二维坐标系中。在装置采集手势图像的同时,或者在装置采集完所有的手势图像后,每一帧手势图像中都包括用户的手轮廓,装置根据每一帧手势图像中的手轮廓获取指尖的位置并保存。指尖的位置即指手势图像中手轮廓的指尖在坐标系中的坐标值。装置获取手势图像中指尖的位置的方法包括对手势图像中手轮廓进行图像分析,根据图像分析的结果确定指尖的位置。
步骤S02,根据获取的所述手势图像中指尖的位置,生成书写轨迹;
用户通常是用单指或者双指进行手势输入,即使用户使用多个手指进行手势输入,其指尖运动的轨迹完全可以表示输入的文字的笔画,装置将手势图像中指尖的位置作为定位点,装置每获取一个指尖的位置,则同步生成书写轨迹,或者,在装置获取了所有手势图像中指尖的位置后,一次生成书写轨迹。生成书写轨迹的方法包括将所述手势图像中指尖在坐标系中的点依次连接起来。
步骤S03,检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
装置检测到结束书写命令时,响应结束书写命令,对生成的书写轨迹进行文字识别,文字识别可以通过OCR(OpticalCharacterRecognition,光学字符识别)方法实现,或者直接通过模板匹配法、几何特征抽取法等方法实现。
本实施例检测到开始书写命令时,采集手势图像,获取每一帧手势图像中指尖的位置;根据获取的手势图像中指尖的位置,生成书写轨迹;检测到结束书写命令时,对生成的书写轨迹进行文字识别,获得书写轨迹对应的文字。本实施例通过采集用户的手势图像生成书写轨迹,再对该书写轨迹进行文字识别,使用户只需在空中通过手势就能实现文字输入,且此输入方式简单易行、适用于包括电视在内的多数电子产品。
参照图2,图2为本发明空中手势输入方法第二实施例的流程示意图。
本实施例与第一实施例的区别在于,本实施例在第一实施例的基础上,所述获取每一帧所述手势图像中指尖的位置的步骤包括:
步骤S11,将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
步骤S12,确定所述手轮廓的重心;
步骤S13,查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置。
装置基于历史数据设定肤色阈值,或者,装置基于用户侧技术人员触发的设置指令设定肤色阈值。装置基于肤色阈值将每一帧手势图像进行二值化处理,且所述手势图像中的手轮廓,即将每一帧手势图像上的像素点的灰度值设置为0或255,进行完二值化处理的手势图像呈现黑白效果。
装置获取进行完二值化处理的手势图像中的手轮廓,例如,将手势图像中相邻8个相邻像素点全部为白点的像素点设为背景点,反之则设为轮廓点,提取所有轮廓点即为手轮廓。装置获取手势图像中的手轮廓后,确定手轮廓的重心,即确定手轮廓的重心在坐标系中的坐标值。确定手轮廓的重心的方法包括:在手轮廓上设置若干个虚拟点,计算手轮廓区域内所有点与手轮廓上每一个虚拟点的距离和,确定手轮廓区域内所有点与手轮廓上每一个虚拟点的距离和最小的点为重心。
装置在确定了每一帧手势图像的手轮廓的重心后,获取手轮廓上与手轮廓的重心距离最远的点,将该点设为指尖的位置。
本实施例将每一帧手势图像进行二值化处理,且获取手势图像中的手轮廓使手势图像呈现黑白效果,再确定手轮廓的重心,因此能准确的确定手轮廓的重心位置;另外,装置获取手轮廓上与手轮廓的重心距离最远的点并将该点设为指尖的位置,因此能准确的定位指尖的位置,也能使生成的书写轨迹更精准。
请再次参照图2,本发明一优选实施例中,所述根据获取的所述手势图像中指尖的位置,生成书写轨迹的步骤包括:
以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
将手势图像中每一帧按照采集的时间先后顺序进行排序,装置在获取了第一帧和第二帧手势图像中指尖的位置之后,开始同步生产书写轨迹,首先将第二帧手势图像中指尖在坐标系中的点与第一帧手势图像中指尖在坐标系中的点连接,生成一段直线或者曲线,在每获取一帧手势图像中的指尖位置后,将该指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连,最后,生成由多段直线或曲线组成的书写轨迹。本实施例优选将所述由多段直线或曲线组成的书写轨迹进行拟合,使最后得到的书写轨迹平滑。
本实施例在装置获取手势图像中指尖的位置的同时,同步生成书写轨迹,这有利于提高识别手势输入文字的效率,用户在结束手势输入后可以很快的识别出输入的文字。
请再次参照图2,本发明一优选实施例中,所述将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓的步骤之前包括:对每一帧手势图像进行预处理。
所述预处理包括:对手势图像进行光照校正和降噪处理。
光照校正处理主要是对手势图像中夹杂的变化信息(如光照变化、角度变化等)的处理,可采用的方法包括:Gamma校正(伽马校正)、图像亮度非线性变换、直方图均衡化、最高亮度点光照补偿等。其中,Gamma校正和图像亮度非线性变换通过对手势图像像素点的非线性调整,能去除原始手势图像中的一些无关的变化信息;直方图均衡化和最高亮度点光照补偿是一种针对图像对比度调整的方法,能增强图像局部对比度。
降噪处理主要是对原始图像中的噪声信息进行滤除,手势图像中典型的噪声有高斯噪声、椒盐噪声、加性噪声等,可采用的方法包括:均值滤波、中值滤波和高斯滤波等。
本实施例通过对手势图像进行预处理,从而提高手势图像的信噪比、抑制手势图像的背景噪声,能够最真实的还原手势图像的原始图像信息,排除采集设备及背景等对手势图像的影响。
请再次参照图2,本发明一优选实施例中,所述将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓的步骤之前包括:
对每一帧手势图像进行高斯模糊处理,并将手势图像从RGB(Red、Green、Blue,红、绿、蓝)色度空间转换为HSV(Hue、Saturation、Value,色调、饱和度、亮度)色度空间。
本实施例对手势图像进行高斯模糊能减少手势图像的图像噪声以及降低手势图像的细节层次。本实施例将手势图像从RGB色度空间转换为HSV色度空间,有利于进行手势图像的二值化处理时,对手势图像的色度的调整。
请再次参照图2,本发明一优选实施例中,所述获取所述手势图像中的手轮廓的步骤之前包括:对进行完二值化处理的每一帧手势图像进行形态学处理。
所述形态学处理是对手势图像进行膨胀和腐蚀,其中膨胀能够填补一些凹洞,腐蚀可以消除一些凸起,最终让手势图像中线条的边缘更加平滑。
本实施例将手势图像进行形态学处理使手势图像中线条的边缘更加平滑,有利于识别和提取手势图像中的手轮廓。
参照图3,图3为本发明空中手势输入方法第三实施例的流程示意图。
本实施例与第一实施例及第二实施例的区别在于,本实施例在第一实施例和第二实施例的基础上,所述检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置的步骤之前还包括:
步骤S04,采集第一帧用户命令手势和第二帧用户命令手势;
步骤S05,根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
步骤S06,根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
装置可提供单独的命令手势悬浮输入框供用户输入命令手势,即装置提供两个悬浮输入框分别供用户输入命令手势和手势图像;装置也可以仅提供一个悬浮输入框既供用户输入命令手势和也供用户输入手势图像。
装置采集用户两帧命令手势,分别为第一帧用户命令手势和第二帧用户命令手势。根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型,其中,所述单手张开的样本和单手握拳的样本均是在用户初次使用该手势输入方法时采集并保存在装置中的,装置分别将第一帧用户命令手势和第二种用户命令手势和所述单手张开的样本图像和单手握拳的样本图像进行对比,分别判断第一帧用户命令手势和第二帧用户命令手势的类型,即判断第一帧用户命令手势和第二帧用户命令手势是单手张开还是单手握拳。装置根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令,即用户仅需使用手势就能控制触发开始书写命令。
在一些实施例中,装置也可以根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发结束书写命令,即用户仅需使用手势就能控制触发结束书写命令。
在一些实施例中,装置可以提供语音识别器供用户通过语音控制触发开始书写命令和结束书写命令,装置也可以提供控制按键供用户通过按键控制触发开始书写命令和结束书写命令。
本实施例采集第一帧用户命令手势和第二帧用户命令手势;根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。相较于现有技术,本实施例可供用户用手势控制触发开始书写命令,方便了用户使用。
请再次参照图3,本发明一优选实施例中,所述根据所述单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型的步骤包括:
计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
装置根据下面公式计算第一帧用户命令手势与单手张开的样本图像的第一相似性值:
D 1 = Σ x = 0 , y = 0 x = m , y = n | A ( x , y ) - F 1 ( x , y ) |
其中,D1为第一相似性值,A(x,y)表示第一帧用户命令手势中手轮廓在坐标系中的曲线方程,F1(x,y)表示单手张开的样本图像中手轮廓在坐标系中的曲线方程,m和n分别为第一帧用户命令手势的图像的宽和高,第一帧用户命令手势的图像和单手张开的样本图像的宽和高相同。
装置根据下面公式计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值:
D 2 = Σ x = 0 , y = 0 x = m , y = n | A ( x , y ) - F 2 ( x , y ) |
其中,D2为第二相似性值,A(x,y)表示第一帧用户命令手势中手轮廓在坐标系中的曲线方程,F2(x,y)表示单手握拳的样本图像中手轮廓在坐标系中的曲线方程,m和n分别为第一帧用户命令手势的图像的宽和高,第一帧用户命令手势的图像和单手握拳的样本图像的宽和高相同。
当D1小于D2时,所述第一帧用户命令手势为单手张开;当D1大于D2时,所述第一帧用户命令手势为单手握拳;当D1等于D2时,返回重新执行采集第一帧用户命令手势和第二帧用户命令手势的步骤。
装置同样依据上述方法判断第二帧用户命令手势的类型,在此不作赘述。
本实施例通过计算第一相似性值和第二相似性值能准确的判断第一帧用户命令手势和第二帧用户命令手势是单手张开还是单手握拳。
在一些实施例中,在所述根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型的步骤之前,还包括:对第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像进行二值化处理,且分别获取所述第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像的手轮廓。
本实施例有利于精确获取第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像在坐标系中的曲线方程。
请再次参照图3,本发明一优选实施例中,所述根据第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写的命令的步骤包括:
装置在检测到第一帧用户命令手势为单手张开,且第二帧用户命令手势为单手握拳时,触发开始书写的命令。
本领域技术人员可以理解的,装置还可以设定在所述第一帧用户命令手势为单手握拳,且所述第二帧用户命令手势为单手张开时,触发开始书写的命令。
本领域技术人员可以理解的,装置还可以设定在所述第一帧用户命令手势为单手握拳,且所述第二帧用户命令手势为单手张开时,或者,在在第一帧用户命令手势为单手张开,且第二帧用户命令手势为单手握拳时,触发结束书写的命令。
本实施例通过设定在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令,相较于只根据一帧用户命令手势触发开始书写命令或者结束书写命令,本实施例的方法不会因错误判断用户命令手势的类型而错误的触发开始书写命令或结束书写命令。
本发明进一步提供一种空中手势输入装置。
参照图4,图4为本发明空中手势输入装置第一实施例的功能模块示意图。
所述装置包括:
获取模块01,用于检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
获取模块01在检测到开始书写命令时,响应开始书写命令并开始采集手势图像,例如,获取模块01在检测到开始书写命令时,提供悬浮输入框供用户对准悬浮输入框进行手势输入,同时获取模块01开启采集设备(如摄像头、相机等),采集设备连续的拍摄手势图像并同时对所述手势图像进行保存,其中,所述手势图像可以是一段影像,也可以是多张连续的图片。
建立一个二维坐标系(下称坐标系),例如,以悬浮输入框的一端点为原点建立一个二维坐标系,采集到的手势图像均落在此二维坐标系中。在获取模块01采集手势图像的同时,或者在获取模块01采集完所有的手势图像后,每一帧手势图像中都包括用户的手轮廓,获取模块01根据每一帧手势图像中的手轮廓获取指尖的位置并保存。指尖的位置即指手势图像中手轮廓的指尖在坐标系中的坐标值。获取模块01获取手势图像中指尖的位置的方法包括对手势图像中手轮廓进行图像分析,根据图像分析的结果确定指尖的位置。
生成模块02,用于根据获取的所述手势图像中指尖的位置,生成书写轨迹;
用户通常是用单指或者双指进行手势输入,即使用户使用多个手指进行手势输入,其指尖运动的轨迹完全可以表示输入的文字的笔画,装置将手势图像中指尖的位置作为定位点,获取模块01每获取一个指尖的位置,生成模块02同步生成书写轨迹,或者,在获取模块01获取了所有手势图像中指尖的位置后,生成模块02一次生成书写轨迹。生成书写轨迹的方法包括将所述手势图像中指尖在坐标系中的点依次连接起来。
识别模块03,用于检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
识别模块03检测到结束书写命令时,响应结束书写命令,对生成的书写轨迹进行文字识别,文字识别可以通过OCR(OpticalCharacterRecognition,光学字符识别)方法实现,或者直接通过模板匹配法、几何特征抽取法等方法实现。
本实施例获取模块01检测到开始书写命令时,采集手势图像,获取每一帧手势图像中指尖的位置;生成模块02根据获取的手势图像中指尖的位置,生成书写轨迹;识别模块03检测到结束书写命令时,对生成的书写轨迹进行文字识别,获得书写轨迹对应的文字。本实施例通过采集用户的手势图像生成书写轨迹,再对该书写轨迹进行文字识别,使用户只需在空中通过手势就能实现文字输入,且此输入方式简单易行、适用于包括电视在内的多数电子产品。
参照图5,图5为本发明空中手势输入装置第二实施例的功能模块示意图。
本实施例与第一实施例的区别在于,本实施例在第一实施例的基础上,所述获取模块01包括:
二值化单元11,用于将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
重心确定单元12,用于确定所述手轮廓的重心;
获取单元13,用于查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置。
二值化单元11基于历史数据设定肤色阈值,或者,二值化单元11基于用户侧技术人员触发的设置指令设定肤色阈值。二值化单元11基于肤色阈值将每一帧手势图像进行二值化处理,且所述手势图像中的手轮廓,即将每一帧手势图像上的像素点的灰度值设置为0或255,进行完二值化处理的手势图像呈现黑白效果。
二值化单元11获取进行完二值化处理的手势图像中的手轮廓,例如,将手势图像中相邻8个相邻像素点全部为白点的像素点设为背景点,反之则设为轮廓点,提取所有轮廓点即为手轮廓。二值化单元11获取手势图像中的手轮廓后,重心确定单元12确定手轮廓的重心,即确定手轮廓的重心在坐标系中的坐标值。重心确定单元12确定手轮廓的重心的方法包括:在手轮廓上设置若干个虚拟点,计算手轮廓区域内所有点与手轮廓上每一个虚拟点的距离和,确定手轮廓区域内所有点与手轮廓上每一个虚拟点的距离和最小的点为重心。
重心确定单元12在确定了每一帧手势图像的手轮廓的重心后,获取单元13获取手轮廓上与手轮廓的重心距离最远的点,将该点设为指尖的位置。
本实施例二值化单元11将每一帧手势图像进行二值化处理,且获取手势图像中的手轮廓使手势图像呈现黑白效果,再确定手轮廓的重心,因此重心确定单元12能准确的确定手轮廓的重心位置;另外,获取单元13获取手轮廓上与手轮廓的重心距离最远的点并将该点设为指尖的位置,因此能准确的定位指尖的位置,也能使生成的书写轨迹更精准。
请再次参照图5,本发明一优选实施例中,所述生成模块02包括:
生成单元(图中未示出),用于以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
将手势图像中每一帧按照采集的时间先后顺序进行排序,生成单元在获取了第一帧和第二帧手势图像中指尖的位置之后,开始同步生产书写轨迹,首先将第二帧手势图像中指尖在坐标系中的点与第一帧手势图像中指尖在坐标系中的点连接,生成一段直线或者曲线,在每获取一帧手势图像中的指尖位置后,将该指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连,最后,生成由多段直线或曲线组成的书写轨迹。本实施例优选生成单元将所述由多段直线或曲线组成的书写轨迹进行拟合,使最后得到的书写轨迹平滑。
本实施例在获取模块01获取手势图像中指尖的位置的同时,生成单元同步生成书写轨迹,这有利于提高识别手势输入文字的效率,用户在结束手势输入后可以很快的识别出输入的文字。
请再次参照图5,本发明一优选实施例中,所述获取模块01包括:预处理单元(图中未示出),用于对每一帧手势图像进行预处理。
所述预处理包括:对手势图像进行光照校正和降噪处理。
光照校正处理主要是对手势图像中夹杂的变化信息(如光照变化、角度变化等)的处理,可采用的方法包括:Gamma校正(伽马校正)、图像亮度非线性变换、直方图均衡化、最高亮度点光照补偿等。其中,Gamma校正和图像亮度非线性变换通过对手势图像像素点的非线性调整,能去除原始手势图像中的一些无关的变化信息;直方图均衡化和最高亮度点光照补偿是一种针对图像对比度调整的方法,能增强图像局部对比度。
降噪处理主要是对原始图像中的噪声信息进行滤除,手势图像中典型的噪声有高斯噪声、椒盐噪声、加性噪声等,可采用的方法包括:均值滤波、中值滤波和高斯滤波等。
本实施例通过预处理单元对手势图像进行预处理,从而提高手势图像的信噪比、抑制手势图像的背景噪声,能够最真实的还原手势图像的原始图像信息,排除采集设备及背景等对手势图像的影响。
请再次参照图5,本发明一优选实施例中,所述获取模块01包括:
色度空间转换单元(图中未示出),用于对每一帧手势图像进行高斯模糊处理,并将手势图像从RGB(Red、Green、Blue,红、绿、蓝)色度空间转换为HSV(Hue、Saturation、Value,色调、饱和度、亮度)色度空间。
本实施例色度空间转换单元对手势图像进行高斯模糊能减少手势图像的图像噪声以及降低手势图像的细节层次。本实施例色度空间转换单元将手势图像从RGB色度空间转换为HSV色度空间,有利于进行手势图像的二值化处理时,对手势图像的色度的调整。
请再次参照图5,本发明一优选实施例中,所述获取模块01包括:
形态学单元(图中未示出):用于所述形态学处理是对手势图像进行膨胀和腐蚀,其中膨胀能够填补一些凹洞,腐蚀可以消除一些凸起,最终让手势图像中线条的边缘更加平滑。
本实施例形态学单元将手势图像进行形态学处理使手势图像中线条的边缘更加平滑,有利于识别和提取手势图像中的手轮廓。
参照图6,图6为本发明空中手势输入装置第三实施例的功能模块示意图。
本实施例与第一实施例及第二实施例的区别在于,本实施例在第一实施例和第二实施例的基础上,所述装置还包括:
采集模块04,用于采集第一帧用户命令手势和第二帧用户命令手势;
判断模块05,用于根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
触发模块06,用于根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
采集模块04可提供单独的命令手势悬浮输入框供用户输入命令手势,即采集模块04提供两个悬浮输入框分别供用户输入命令手势和手势图像;采集模块04也可以仅提供一个悬浮输入框既供用户输入命令手势和也供用户输入手势图像。
采集模块04采集用户两帧命令手势,分别为第一帧用户命令手势和第二帧用户命令手势。判断模块05根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型,其中,所述单手张开的样本和单手握拳的样本均是在用户初次使用该手势输入方法时采集并保存在装置中的,判断模块05分别将第一帧用户命令手势和第二种用户命令手势和所述单手张开的样本图像和单手握拳的样本图像进行对比,分别判断第一帧用户命令手势和第二帧用户命令手势的类型,即判断第一帧用户命令手势和第二帧用户命令手势是单手张开还是单手握拳。触发模块06根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令,即用户仅需使用手势就能控制触发开始书写命令。
在一些实施例中,判断模块05也可以根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发结束书写命令,即用户仅需使用手势就能控制触发结束书写命令。
在一些实施例中,触发模块06可以提供语音识别器供用户通过语音控制触发开始书写命令和结束书写命令,装置也可以提供控制按键供用户通过按键控制触发开始书写命令和结束书写命令。
本实施例采集模块04采集第一帧用户命令手势和第二帧用户命令手势;判断模块05根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;触发模块06根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。相较于现有技术,本实施例可供用户用手势控制触发开始书写命令,方便了用户使用。
参照图7,图7为图6空中手势输入装置中判断模块05的功能单元示意图。
本发明一优选实施例中,所述判断模块05包括:
第一计算单元51,用于计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
第二计算单元52,用于计算所述第二帧用户命令手势与所述单手张开的样本图像的第三相似性值,并计算所述第二帧用户命令手势与所述单手握拳的样本图像的第四相似性值,基于所述第三相似性值和所述第四相似性值判断所述第二帧用户命令手势是单手张开还是单手握拳。
第一计算单元51根据下面公式计算第一帧用户命令手势与单手张开的样本图像的第一相似性值:
D 1 = Σ x = 0 , y = 0 x = m , y = n | A ( x , y ) - F 1 ( x , y ) |
其中,D1为第一相似性值,A(x,y)表示第一帧用户命令手势中手轮廓在坐标系中的曲线方程,F1(x,y)表示单手张开的样本图像中手轮廓在坐标系中的曲线方程,m和n分别为第一帧用户命令手势的图像的宽和高,第一帧用户命令手势的图像和单手张开的样本图像的宽和高相同。
第一计算单元51根据下面公式计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值:
D 2 = Σ x = 0 , y = 0 x = m , y = n | A ( x , y ) - F 2 ( x , y ) |
其中,D2为第二相似性值,A(x,y)表示第一帧用户命令手势中手轮廓在坐标系中的曲线方程,F2(x,y)表示单手握拳的样本图像中手轮廓在坐标系中的曲线方程,m和n分别为第一帧用户命令手势的图像的宽和高,第一帧用户命令手势的图像和单手握拳的样本图像的宽和高相同。
当D1小于D2时,所述第一帧用户命令手势为单手张开;当D1大于D2时,所述第一帧用户命令手势为单手握拳;当D1等于D2时,返回重新执行采集第一帧用户命令手势和第二帧用户命令手势的步骤。
第二计算单元52同样依据上述方法判断第二帧用户命令手势的类型,在此不作赘述。
本实施例通过第一计算单元51和第二计算单元52计算第一相似性值和第二相似性值能准确的判断第一帧用户命令手势和第二帧用户命令手势是单手张开还是单手握拳。
在一些实施例中,在所述在一些实施例中,所述获取模块01还包括:处理单元(图中未示出),用于对第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像进行二值化处理,且分别获取所述第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像的手轮廓。
本实施例有利于精确获取第一帧用户命令手势、第二帧用户命令手势、单手张开的样本图像和单手握拳的样本图像在坐标系中的曲线方程。
请再次参照图7,本发明一优选实施例中,所述触发模块06包括:
触发单元(图中未示出),用于在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令。
触发单元在第一帧用户命令手势为单手张开,且第二帧用户命令手势为单手握拳时,触发开始书写的命令。
本领域技术人员可以理解的,触发单元还可以设定在所述第一帧用户命令手势为单手握拳,且所述第二帧用户命令手势为单手张开时,触发开始书写的命令。
本领域技术人员可以理解的,触发单元还可以设定在所述第一帧用户命令手势为单手握拳,且所述第二帧用户命令手势为单手张开时,或者,在在第一帧用户命令手势为单手张开,且第二帧用户命令手势为单手握拳时,触发结束书写的命令。
本实施例通过触发单元设定在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令,相较于只根据一帧用户命令手势触发开始书写命令或者结束书写命令,本实施例的方法不会因错误判断用户命令手势的类型而错误的触发开始书写命令或结束书写命令。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种空中手势输入方法,其特征在于,包括以下步骤:
检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
根据获取的所述手势图像中指尖的位置,生成书写轨迹;
检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
2.如权利要求1所述的空中手势输入方法,其特征在于,所述获取每一帧所述手势图像中指尖的位置的步骤包括:
将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
确定所述手轮廓的重心;
查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置。
3.如权利要求1或2所述的空中手势输入方法,其特征在于,所述根据获取的所述手势图像中指尖的位置,生成书写轨迹的步骤包括:
以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
4.如权利要求1或2所述的空中手势输入方法,其特征在于,所述检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置的步骤之前包括:
采集第一帧用户命令手势和第二帧用户命令手势;
根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
5.如权利要求4所述的空中手势输入方法,其特征在于,所述根据所述单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型的步骤包括:
计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
计算所述第二帧用户命令手势与所述单手张开的样本图像的第三相似性值,并计算所述第二帧用户命令手势与所述单手握拳的样本图像的第四相似性值,基于所述第三相似性值和所述第四相似性值判断所述第二帧用户命令手势是单手张开还是单手握拳。
6.如权利要求4所述的空中手势输入方法,其特征在于,所述根据第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写的命令的步骤包括:
在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令。
7.一种空中手势输入装置,其特征在于,包括:
获取模块,用于检测到开始书写命令时,采集手势图像,获取每一帧所述手势图像中指尖的位置;
生成模块,用于根据获取的所述手势图像中指尖的位置,生成书写轨迹;
识别模块,用于检测到结束书写命令时,对生成的所述书写轨迹进行文字识别,获得所述书写轨迹对应的文字。
8.如权利要求7所述的空中手势输入装置,其特征在于,所述获取模块包括:
二值化单元,用于将每一帧手势图像进行二值化处理,且获取所述手势图像中的手轮廓;
重心确定单元,用于确定所述手轮廓的重心;
获取单元,用于查找所述手轮廓内与所述手轮廓的重心距离最远的点,该点为指尖的位置;
所述生成模块包括:
生成单元,用于以第二帧手势图像中指尖的位置为起始点,每获取一帧手势图像中指尖的位置,将所述指尖的位置所在的点与前一帧手势图像中指尖的位置所在的点相连。
9.如权利要求7或8所述的空中手势输入装置,其特征在于,所述装置还包括:
采集模块,用于采集第一帧用户命令手势和第二帧用户命令手势;
判断模块,用于根据存储的单手张开的样本图像和单手握拳的样本图像判断所述第一帧用户命令手势和第二帧用户命令手势的类型;
触发模块,用于根据所述第一帧用户命令手势和第二帧用户命令手势的类型,触发开始书写命令。
10.如权利要求9所述的空中手势输入装置,其特征在于,所述判断模块包括:
第一计算单元,用于计算所述第一帧用户命令手势与所述单手张开的样本图像的第一相似性值,并计算所述第一帧用户命令手势与所述单手握拳的样本图像的第二相似性值,根据所述第一相似性值和所述第二相似性值判断所述第一帧用户命令手势是单手张开还是单手握拳;
第二计算单元,用于计算所述第二帧用户命令手势与所述单手张开的样本图像的第三相似性值,并计算所述第二帧用户命令手势与所述单手握拳的样本图像的第四相似性值,基于所述第三相似性值和所述第四相似性值判断所述第二帧用户命令手势是单手张开还是单手握拳;
所述触发模块包括:
触发单元,用于在所述第一帧用户命令手势为单手张开,且所述第二帧用户命令手势为单手握拳时,触发开始书写的命令。
CN201410243499.9A 2014-06-03 2014-06-03 空中手势输入方法及装置 Active CN105320248B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201410243499.9A CN105320248B (zh) 2014-06-03 2014-06-03 空中手势输入方法及装置
EP14893908.5A EP3153943A4 (en) 2014-06-03 2014-12-15 Air gesture input method and apparatus
PCT/CN2014/093810 WO2015184760A1 (zh) 2014-06-03 2014-12-15 空中手势输入方法及装置
US15/015,148 US20160154469A1 (en) 2014-06-03 2016-02-04 Mid-air gesture input method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410243499.9A CN105320248B (zh) 2014-06-03 2014-06-03 空中手势输入方法及装置

Publications (2)

Publication Number Publication Date
CN105320248A true CN105320248A (zh) 2016-02-10
CN105320248B CN105320248B (zh) 2018-12-07

Family

ID=54766021

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410243499.9A Active CN105320248B (zh) 2014-06-03 2014-06-03 空中手势输入方法及装置

Country Status (4)

Country Link
US (1) US20160154469A1 (zh)
EP (1) EP3153943A4 (zh)
CN (1) CN105320248B (zh)
WO (1) WO2015184760A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106293387A (zh) * 2016-07-27 2017-01-04 上海与德通讯技术有限公司 应用程序的控制方法及系统
CN107015645A (zh) * 2017-03-24 2017-08-04 广州幻境科技有限公司 一种基于手势的文字输入方法
CN107261498A (zh) * 2017-06-08 2017-10-20 深圳市乃斯网络科技有限公司 终端基于手势的游戏控制方法及系统
CN107562203A (zh) * 2017-09-14 2018-01-09 北京奇艺世纪科技有限公司 一种输入方法及装置
CN107662867A (zh) * 2016-07-29 2018-02-06 奥的斯电梯公司 乘客运输机的梯级滚轮监测和维修操作人员监测
CN108345867A (zh) * 2018-03-09 2018-07-31 南京邮电大学 面向智能家居场景的手势识别方法
CN109344793A (zh) * 2018-10-19 2019-02-15 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN110990238A (zh) * 2019-11-13 2020-04-10 南京航空航天大学 基于视频拍摄的非侵入式可视化测试脚本自动录制方法
CN111382598A (zh) * 2018-12-27 2020-07-07 北京搜狗科技发展有限公司 一种识别方法、装置和电子设备
CN113253837A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 空中书写方法、装置、线上直播系统和计算机设备
CN113867521A (zh) * 2020-06-30 2021-12-31 京东方科技集团股份有限公司 一种基于手势视觉识别的手写输入方法、装置及电子设备
CN114415830A (zh) * 2021-12-31 2022-04-29 科大讯飞股份有限公司 隔空输入方法及设备、计算机可读存储介质
WO2024065345A1 (zh) * 2022-09-29 2024-04-04 京东方科技集团股份有限公司 隔空手势编辑方法、装置、显示系统及介质

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
WO2019079757A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
WO2019084876A1 (zh) * 2017-11-02 2019-05-09 深圳市柔宇科技有限公司 针对写字评分系统的判定方法、系统及装置
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) * 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
CN112789577B (zh) 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
EP3886693A4 (en) 2018-11-27 2022-06-08 Facebook Technologies, LLC. METHOD AND DEVICE FOR AUTOCALIBRATION OF A PORTABLE ELECTRODE SENSING SYSTEM
US10739864B2 (en) * 2018-12-31 2020-08-11 International Business Machines Corporation Air writing to speech system using gesture and wrist angle orientation for synthesized speech modulation
WO2020251385A1 (en) * 2019-06-14 2020-12-17 Ringcentral, Inc., (A Delaware Corporation) System and method for capturing presentation gestures
CN111639573B (zh) * 2020-05-22 2023-07-07 广州宇中网络科技有限公司 基于orb算法的手势识别方法、存储介质及电子设备
CN111695475B (zh) * 2020-06-03 2023-06-27 浙江工业大学 一种基于nmi智能控制家用电器的方法
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060013484A1 (en) * 2004-07-15 2006-01-19 Hitachi, Ltd. Character recognition method, method of processing correction history of character data, and character recognition system
CN200997126Y (zh) * 2006-12-30 2007-12-26 汉王科技股份有限公司 数码图像采集式手写输入装置
CN102508547A (zh) * 2011-11-04 2012-06-20 哈尔滨工业大学深圳研究生院 基于计算机视觉的手势输入法构建方法及系统
CN102778947A (zh) * 2008-06-10 2012-11-14 联发科技股份有限公司 电子设备及无接触控制电子设备的方法
CN103577843A (zh) * 2013-11-22 2014-02-12 中国科学院自动化研究所 一种空中手写字符串识别方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8055066B2 (en) * 2008-04-16 2011-11-08 Omnivision Technologies, Inc. Apparatus, system, and method for skin tone detection in a CMOS image sensor
US8620024B2 (en) * 2010-09-17 2013-12-31 Sony Corporation System and method for dynamic gesture recognition using geometric classification
US8902198B1 (en) * 2012-01-27 2014-12-02 Amazon Technologies, Inc. Feature tracking for device input
US8819812B1 (en) * 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
JP6064464B2 (ja) * 2012-09-10 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム
US9076257B2 (en) * 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
CN103093196B (zh) * 2013-01-14 2014-08-27 大连理工大学 一种基于手势的汉字交互输入与识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060013484A1 (en) * 2004-07-15 2006-01-19 Hitachi, Ltd. Character recognition method, method of processing correction history of character data, and character recognition system
CN200997126Y (zh) * 2006-12-30 2007-12-26 汉王科技股份有限公司 数码图像采集式手写输入装置
CN102778947A (zh) * 2008-06-10 2012-11-14 联发科技股份有限公司 电子设备及无接触控制电子设备的方法
CN102508547A (zh) * 2011-11-04 2012-06-20 哈尔滨工业大学深圳研究生院 基于计算机视觉的手势输入法构建方法及系统
CN103577843A (zh) * 2013-11-22 2014-02-12 中国科学院自动化研究所 一种空中手写字符串识别方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106293387A (zh) * 2016-07-27 2017-01-04 上海与德通讯技术有限公司 应用程序的控制方法及系统
CN107662867A (zh) * 2016-07-29 2018-02-06 奥的斯电梯公司 乘客运输机的梯级滚轮监测和维修操作人员监测
CN107015645A (zh) * 2017-03-24 2017-08-04 广州幻境科技有限公司 一种基于手势的文字输入方法
CN107261498A (zh) * 2017-06-08 2017-10-20 深圳市乃斯网络科技有限公司 终端基于手势的游戏控制方法及系统
CN107562203A (zh) * 2017-09-14 2018-01-09 北京奇艺世纪科技有限公司 一种输入方法及装置
CN108345867A (zh) * 2018-03-09 2018-07-31 南京邮电大学 面向智能家居场景的手势识别方法
WO2020078017A1 (zh) * 2018-10-19 2020-04-23 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN109344793A (zh) * 2018-10-19 2019-02-15 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
US11423700B2 (en) 2018-10-19 2022-08-23 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and computer readable storage medium for recognizing aerial handwriting
CN111382598A (zh) * 2018-12-27 2020-07-07 北京搜狗科技发展有限公司 一种识别方法、装置和电子设备
CN111382598B (zh) * 2018-12-27 2024-05-24 北京搜狗科技发展有限公司 一种识别方法、装置和电子设备
CN110990238A (zh) * 2019-11-13 2020-04-10 南京航空航天大学 基于视频拍摄的非侵入式可视化测试脚本自动录制方法
CN113867521A (zh) * 2020-06-30 2021-12-31 京东方科技集团股份有限公司 一种基于手势视觉识别的手写输入方法、装置及电子设备
CN113867521B (zh) * 2020-06-30 2024-01-23 京东方科技集团股份有限公司 一种基于手势视觉识别的手写输入方法、装置及电子设备
CN113253837A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 空中书写方法、装置、线上直播系统和计算机设备
CN114415830A (zh) * 2021-12-31 2022-04-29 科大讯飞股份有限公司 隔空输入方法及设备、计算机可读存储介质
WO2024065345A1 (zh) * 2022-09-29 2024-04-04 京东方科技集团股份有限公司 隔空手势编辑方法、装置、显示系统及介质

Also Published As

Publication number Publication date
EP3153943A1 (en) 2017-04-12
US20160154469A1 (en) 2016-06-02
WO2015184760A1 (zh) 2015-12-10
EP3153943A4 (en) 2018-01-17
CN105320248B (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN105320248A (zh) 空中手势输入方法及装置
US10372226B2 (en) Visual language for human computer interfaces
CN112287866B (zh) 一种基于人体关键点的人体动作识别方法及装置
Deshpande et al. Real time text detection and recognition on hand held objects to assist blind people
CN101937286B (zh) 光笔轨迹识别系统和方法
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN104361326A (zh) 一种判别活体人脸的方法
CN103824091B (zh) 一种用于智能交通系统的车牌识别方法
CN112287868B (zh) 一种人体动作识别方法及装置
CN106599028A (zh) 一种基于视频图像处理的书本内容搜索匹配方法
CN106503651B (zh) 一种手势图像的提取方法及系统
CN112287867B (zh) 一种多摄像头的人体动作识别方法及装置
CN103218603A (zh) 一种人脸自动标注方法及系统
WO2016019673A1 (zh) 虚拟键盘系统及其键入方法
CN105426816A (zh) 一种处理人脸图像的方法及装置
CN104932683A (zh) 一种基于视觉信息的游戏体感控制方法
Meng et al. An extended HOG model: SCHOG for human hand detection
CN103699876B (zh) 一种基于线阵ccd图像识别车号的方法及装置
CN106778813A (zh) 深度图像的自适应聚类分割算法
CN108614988A (zh) 一种复杂背景下的运动手势自动识别系统
Wang et al. A novel real time hand detection based on skin-color
Patel Point Pattern Matching algorithm for recognition of 36 ASL gestures
KR101408344B1 (ko) 얼굴 검출 장치
CN103176603A (zh) 计算机手势输入系统
CN102129569A (zh) 基于多尺度对比特征的对象检测设备和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant