CN103150019B - 一种手写输入系统及方法 - Google Patents

一种手写输入系统及方法 Download PDF

Info

Publication number
CN103150019B
CN103150019B CN201310078298.3A CN201310078298A CN103150019B CN 103150019 B CN103150019 B CN 103150019B CN 201310078298 A CN201310078298 A CN 201310078298A CN 103150019 B CN103150019 B CN 103150019B
Authority
CN
China
Prior art keywords
hand
track
written
module
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310078298.3A
Other languages
English (en)
Other versions
CN103150019A (zh
Inventor
罗松
王洪智
桑农
刘乐元
刘国华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN GUOHUA IDENTIFICATION TECHNOLOGY DEVELOPMENT Co Ltd
Original Assignee
SHENZHEN GUOHUA IDENTIFICATION TECHNOLOGY DEVELOPMENT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN GUOHUA IDENTIFICATION TECHNOLOGY DEVELOPMENT Co Ltd filed Critical SHENZHEN GUOHUA IDENTIFICATION TECHNOLOGY DEVELOPMENT Co Ltd
Priority to CN201310078298.3A priority Critical patent/CN103150019B/zh
Publication of CN103150019A publication Critical patent/CN103150019A/zh
Application granted granted Critical
Publication of CN103150019B publication Critical patent/CN103150019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种手写输入系统,包括图像采集模块,采集用户动作图像并输出给目标跟踪模块;目标跟踪模块,对用户动作图像进行处理,识别并跟踪目标对象;手写状态管理模块,将目标对象与手写输入动作模板比对,根据比对结果启动或关闭手写输入功能;轨迹采集模块,采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块;轨迹归一化模块,将笔画轨迹进行归一化处理并发送给字符识别模块;字符识别模块,从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串。本发明还提出一种手写输入方法。本发明实现有效区分非接触式手写输入产生的笔画,实现易用快捷的非接触式手写输入。

Description

一种手写输入系统及方法
技术领域
本发明涉及手势识别技术,更具体地说,涉及一种手写输入系统及方法。
背景技术
信息输入是人们在与计算机系统进行交互的一个非常重要的过程,字符的输入在信息输入中占了很大的比例。在各种字符输入方式中,手写识别将用户在手写设备上书写产生的有序轨迹信息化转化为字符内码,实际上是手写轨迹的坐标序列到字符的内码的一个映射过程,是人机交互最自然、最方便的手段之一。
随着智能手机、平板电脑等智能设备的普及,手写识别越来越被人们所常用。以近两年来出现的智能电视为例,智能电视一般指配备了高性能芯片,具有全开放式平台,搭载了操作系统的电视。智能电视可由用户自行安装第三方服务商提供的应用程序,通过此类应用程序对电视的功能进行扩展,用户还可以通过网络进行信息浏览和网络社交。不同于配置了触摸屏的智能手机和平板电脑,由于电视用户的观看环境和条件,一般的智能电视是不配置触摸屏的,因此实现电视用户高效的输入字符或字符串成为亟待解决的问题。。
发明内容
本发明要解决的技术问题在于,提出一种手写输入系统及方法。
本发明解决其技术问题所采用的技术方案是提供一种手写输入系统,包括图像采集模块,采集用户动作图像并输出给目标跟踪模块; 目标跟踪模块,对用户动作图像进行处理,识别并跟踪目标对象;手写状态管理模块,将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能;轨迹采集模块,在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块;轨迹归一化模块,将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块;字符识别模块,从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入。
优选地,上述手写输入系统与至少一基于机器视觉的手势识别系统配合工作;预设模板数据中包括启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板;手写状态管理模块将目标对象与预设模板数据比对,若目标对象与手写输入动作模板一致则切换到手写状态,手写状态管理模块启动手写输入功能;若目标对象与某手势控制动作模板一致则切换到手势控制状态,手势识别系统执行与手势控制动作模板对应的控制指令。
优选地,手写输入系统还包括显示设备,在手写状态下,手写输入系统控制显示设备,向用户显示至少一手写轨迹映射区域;目标跟踪模块跟踪目标对象,将目标对象的笔画轨迹发送给显示设备显示给用户,供用户参考以将输入一字符或字符串的笔画轨迹限定在一手写轨迹映射区域中。
优选地,上述显示设备显示一手写轨迹映射区域;预设手写输入停顿时长;当轨迹采集模块检测到目标对象静止时间超过预设的手写输入停顿时长,则认为用户完成第一字符或第一字符串的输入,开始输入第二字符或第二字符串;轨迹采集模块采集手写轨迹映射区域内第二字符或第二字符串的笔画轨迹;轨迹采集模块将手写轨迹映射区域中采集到的笔画轨迹作为第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块。
优选地,上述显示设备显示二手写轨迹映射区域,分别对应二字符或二字符串;当轨迹采集模块检测到用户将目标对象从第一手写轨迹映射区域移动至第二手写轨迹映射区域中,则认为用户完成在第一手写轨迹映射区域中的第一字符或第一字符串的输入,开始输入第二字符或第二字符串;轨迹采集模块采集第二手写轨迹映射区域的笔画轨迹;轨迹采集模块将第一手写轨迹映射区域中采集到的笔画轨迹作为第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块。
优选地,上述手写输入系统还包括轨迹归一化模块将笔画轨迹归一化处理为预设的标准宽度和预设的标准高度,将笔画轨迹的重心和预设的标准中心对齐。
优选地,上述笔画轨迹为至少一离散的运动特征点;轨迹归一化模块对至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标。
本发明还提出一种手写输入方法基于包括图像采集模块、目标跟踪模块、手写状态管理模块、轨迹采集模块、轨迹归一化模块和字符识别模块的手写输入系统实现手写输入,包括:图像采集模块采集用户动作图像并输出给目标跟踪模块的步骤;目标跟踪模块对用户动作图像进行处理,识别并跟踪目标对象的步骤;手写状态管理模块将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能的步骤;轨迹采集模块在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块的步骤;轨迹归一化模块将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块的步骤;字符识别模块从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入的步骤。
优选地,上述手写输入系统与至少一基于机器视觉的手势识别系统配合工作还包括:预设启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板的步骤;手写状态管理模块将目标对象与预设模板数据比对,若目标对象与手写输入动作模板一致则切换到手写状态,手写状态管理模块启动手写输入功能的步骤;若目标对象与某手势控制动作模板一致则切换到手势控制状态,手势识别系统执行与手势控制动作模板对应的控制指令的步骤。
优选地,轨迹归一化模块将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块的步骤包括:上述笔画轨迹为至少一离散的运动特征点,轨迹归一化模块对至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标的步骤;轨迹归一化模块将笔画轨迹归一化处理为预设的标准宽度和预设的标准高度,将笔画轨迹的重心和预设的标准中心对齐的步骤;将笔画轨迹发送给字符识别模块的步骤。
本发明解决了基于机器视觉的非接触式手写识别的问题,实现有效区分非接触式手写输入产生的笔画,实现易用快捷的非接触式手写输入,为用户提供更好的使用体验同时提高字符或字符串的识别准确率和识别效率。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明一实施例手写输入系统1的模块结构示意图;
图2是本发明一实施例手写输入流程示意图;
图3是本发明一实施例手写输入系统1的工作关系示意图;
图4是本发明一实施例的手写输入动作模板示意图;
图5是本发明一实施例手写输入系统1的模块结构示意图;
图6是本发明一实施例显示设备17的显示效果示意图;
图7是本发明一实施例显示设备17的显示效果示意图;
图8是本发明一实施例笔画轨迹示意图;
图9是本发明一实施例量化方向和局部笔画方向示意图;
图10是本发明一实施例8个标准方向的特征图示意图;
图11是本发明一实施例手写输入详细流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1示出的手写输入系统1的模块结构示意图,及图2示出的手写输入流程示意图。手写输入系统1包括图像采集模块11,采集用户动作图像并输出给目标跟踪模块;目标跟踪模块12,对用户动作图像进行处理,识别并跟踪目标对象;手写状态管理模块13,将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能;轨迹采集模块14,在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块15;轨迹归一化模块15,将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块16;和字符识别模块16,提取笔画轨迹并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入。
本实施例的手写输入系统1基于机器视觉的非接触式手写识别技术,其基本原理是采集目标对象的笔画轨迹,其中目标对象可以是用户手部、右手食指或身体某部位,笔画轨迹可以是离散的运动特征点的坐标,也可以是连续的运动路线。将目标对象的笔画轨迹进行轨迹归一化处理和分析,识别出用户输入的字符或字符串。其中字符指用户输入的中文、外文、数字、符号等单个字符,例如“湖”、“南”、“卫”、“视”四个字符。而字符串指用户输入的多个字符组成的字符串,例如“HNTV”、“CCTV”等字符串。本实施例可作为智能电视等智能设备字符输入的解决方案,使得智能设备的用户不需手持任何外设,也不需在触摸屏上进行触摸,只需在空中写字即可完成对智能设备的手写输入。
基于上述实施例,本发明提出,智能设备除了采用本发明提供的手写输入系统以实现手写输入外,还可以采用基于机器视觉的手势识别系统接收用户的操作指令,执行操作指令以实现多种功能。
参照图3示出的手写输入系统1的工作关系示意图,本实施例提出,手写输入系统1与至少一基于机器视觉的手势识别系统2配合工作。
预设模板数据中包括启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板;图像采集模块11将采集到的用户动作图像发送给目标跟踪模块12,由其识别并跟踪目标对象;手写状态管理模块13再将目标对象与预设模板数据比对,若目标对象与手写输入动作模板一致则切换到手写状态,手写状态管理模块13启动手写输入功能;若目标对象与某手势控制动作模板一致则切换到手势控制状态,手势识别系统2执行与手势控制动作模板对应的控制指令。
以智能电视为例,手势识别系统2可采集用户通过手势、图像和/或声音等形式发出的操作指令,执行包括但不限于播放电视信号、换台、关机、语音控制等多种操作指令。
本实施例可对用户的动作进行训练以达到最佳效果。例如智能电视向用户播放预先设置的人机交互内容,引导用户按照图4所示的手写输入动作模板做出动作:将右手抬起至图像采集模块11的可感应范围内,食指伸直并自然弯曲除食指外的其他四只手指。图像采集模块11将采集到的用户动作图像发送给目标跟踪模块12,由其识别并跟踪目标对象即用户的右手食指;手写状态管理模块13再将目标对象与预设模板数据比对,根据比对结果提示用户修正动作,直到其动作符合预设的手写输入动作模板。又如智能电视向用户播放人机交互内容,引导用户将右手自然放置嘴边做喊话状的动作,直到其动作符合预设的与“开始语音遥控”控制指令类型相应的手势控制动作模板。
参照图5示出的手写输入系统1的模块结构示意图,本发明还提出一实施例,手写输入系统1还包括显示设备17。显示设备17可以是如图5(a)示出的手写输入系统1专用的显示设备,也可以是如图5(b)示出的具有手写输入系统1的智能设备的显示设备。仍以智能电视为例,智能电视的显示设备可作为手写输入系统1的显示设备,显示手写输入系统1发出的信息。手写输入系统1也可以自设专用显示设备,根据手写输入系统1的控制显示信息。
在手写状态下,手写输入系统1控制显示设备17,向用户显示至少一手写轨迹映射区域;目标跟踪模块12跟踪目标对象,将目标对象的笔画轨迹发送给显示设备17显示给用户,供用户参考以将输入一字符或字符串的笔画轨迹限定在一手写轨迹映射区域中。
参照图6示出的显示设备17的显示效果示意图,显示设备17显示一手写轨迹映射区域A1。预设手写输入停顿时长为2秒。用户用右手食指在空中写字过程中,当轨迹采集模块14检测到目标对象静止时间超过预设的手写输入停顿时长,则认为用户完成第一字符或第一字符串的输入,开始输入第二字符或第二字符串,轨迹采集模块14采集手写轨迹映射区域A1内第二字符或第二字符串的笔画轨迹。轨迹采集模块14将静止之前在手写轨迹映射区域A1中采集到的笔画轨迹作为第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块15。
本实施例还可预设手写输入停顿动作模板如握拳动作。用户用右手食指在空中写字过程中,当轨迹采集模块14检测到目标对象从手写输入动作模板切换为手写输入停顿动作模板,则认为用户完成第一字符或第一字符串的输入。本实施例还可设置其他方式完成用户输入两个字符或两个字符串的识别,将采集到的笔画轨迹按照单个字符或单个字符串为单位区分。
参照图7示出的显示设备17的显示效果示意图,显示设备17显示多个手写轨迹映射区域,分别对应多个字符或字符串。
本实施例以二个手写轨迹映射区域为例。当轨迹采集模块14检测到用户将目标对象从第一手写轨迹映射区域A1移动至第二手写轨迹映射区域A2中,则认为用户完成在第一手写轨迹映射区域A1中的第一字符或第一字符串的输入,开始输入第二字符或第二字符串。轨迹采集模块14采集第二手写轨迹映射区域A2的笔画轨迹。轨迹采集模块14将第一手写轨迹映射区域A1中采集到的笔画轨迹作为第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块15。
本发明又提出一实施例,轨迹归一化模块15将轨迹采集模块14采集到笔画轨迹按照预设规则进行平滑处理,以减少用户输入字符过程中的抖动对字符识别效果的影响。具体来说,设笔画轨迹采用至少一离散的运动特征点,轨迹归一化模块15对至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标。
设用户输入某字符的笔画轨迹为一个坐标点序列{(xi,yi)|i=1,…,n},其中n为坐标点的个数。分别从每一个坐标点(xi,yi)到下一个点(xi+1,yi+1)连成直线即得到了用户输入整个字符的笔画。由于在书写过程中用户手部的抖动使得笔画轨迹可能不平滑,影响字符识别效果。为此轨迹归一化模块15对运动特征点做平滑处理。一种平滑处理的方法是对每一个点的坐标(xi,yi),采用下式的三点坐标的加权平均值来代替原坐标值:
如此完成对运动特征点的平滑处理。
本发明又提出,轨迹归一化模块15对笔画轨迹进行归一化处理,使得不同用户书写的不同字符大小基本相同,减少不同字符尺寸差别对字符识别效果的影响,便于字符识别模块16识别。具体做法如下:
首先轨迹归一化模块15根据运动特征点的坐标绘制二值图像f(x,y)作为笔画图像,其中运动特征点所在点的像素值为1,其余点像素值为0。然后轨迹归一化模块15将笔画图像归一化处理为预设的标准宽度和预设的标准高度,将笔画图像的重心和预设的标准中心对齐。具体做法为采用下式计算笔画图像的中心(xc,yc)和二阶矩μ20, μ02。
根据二阶矩,采用下式估计笔画图像的宽度W1和高度H1
将笔画图像的尺寸归一化处理到预设的标准宽度W2=40和高度H2=40,且笔画图像的重心(xc,yc)和标准中心(W2/2,H2/2)对齐,相应的计算公式为:
其中(xi,yi)为运动特征点的坐标,(x′i,y′i)为归一化后运动特征点的坐标。经归一化处理得到的运动特征点的坐标点序列为{(x′i,y′i)|i=1,…,n},轨迹归一化模块15将归一化处理得到的坐标点序列发送给字符识别模块16。
结合图8示出的笔画轨迹示意图,其中8(a)为用户输入的笔画轨迹;8(b)为平滑处理得到的笔画轨迹;8(c)为归一化处理得到的笔画轨迹。
本实施例的归一化处理可沿笔画图像的左上角对齐,也可沿笔画图像的中心对齐,或以其他预设方式对齐。
轨迹归一化模块15可以对平滑处理后的笔画轨迹进行归一化处理,也可不经平滑处理,直接对将轨迹采集模块14采集到笔画轨迹进行归一化处理。
本发明进一步提出,字符识别模块16根据轨迹归一化模块15输出的笔画轨迹,提取字符或字符串完整的轨迹特征,该轨迹特征表示成特征矢量。字符识别模块16用预设的分类器对特征矢量分类,将该特征矢量与预设的字库特征进行比对,根据比对结果选取字符或字符串,完成字符识别过程。
特征提取采用字符识别中常用的局部笔画方向直方图特征。提取方法如下:预先将方向角的范围[0,360]量化为8个标准方向,对应的角度分别为0, 45, 90, 135, 180,225, 270, 315. 每个标准方向分别预设一幅大小为W2×H2的特征图像,全部像素的初始值为0。对每一对相邻坐标点(x′i,y′i)和(x′i+1,y′i+1)连成的直线,计算其方向角θ。如果θ正好等于一个标准方向,则在该标准方向的特征图像中(x′i,y′i)到(x′i+1,y′i+1)直线经过的像素点的值加1。否则θ介于两个标准方向之间,这时对两个标准方向特征图中(x′i,y′i)到(x′i+1,y′i+1)直线经过的像素点的值分别加a和b。如图9所示的量化方向和局部笔画方向示意图,其中实线箭头表示8个标准的量化方向,虚线箭头表示一个局部笔画方向。局部笔画方向θ介于两个标准方向1和2之间,且到方向1和2的角度分别为α和β,则
处理完笔画轨迹中所有的相邻坐标点对(x′i,y′i)和(x′i+1,y′i+1)之后,得到了8个标准方向、大小为W2×H2的特征图,参见图10。分别将每个特征图均匀划分为N×N个区域,计算每个区域中像素值之和,得到N×N个特征值。总共得到8×N×N个特征值,表示成一个特征矢量,输入分类器进行分类。N取值一般在5到8之间。当字符为阿拉伯数字或英文字母时N取值为5;当字符包括结构复杂的汉字时N取值为8。
字符识别模块16对特征矢量进行分类需要使用预设的分类器。本系统预先采集一些训练样本,每个训练样本均是一个手写字符或字符串的笔画轨迹。例如可将“湖”、“南”、“卫”、“视”四个字符的笔画轨迹分别作为一训练样本,也可将“HNTV”、“CCTV”等字符串的笔画轨迹分别作为一训练样本。本实施例提出可采用最近原型分类器,每个原型是一个特征矢量,分类规则是计算输入特征矢量(从笔画轨迹提取的轨迹特征)到每个原型之间的欧式距离,距离最小的原型所对应的类别就是输入字符或字符串的类别,据此选取字符或字符串作为识别结果。原型分类器中,每个类别可以有一个原型或多个原型,确定原型矢量值的过程称为原型学习。原型学习可选用多种方法,本实施例提出可采用一种简单的方法即均值法,取一个类别所有训练样本特征矢量的均值作为该类别的原型。对一个类别训练样本的特征矢量进行聚类可以得到多个原型。通过判别学习对原型矢量进行调整,可以提高原型分类器的分类正确率。该判别学习算法可采用学习矢量量化(Learning VectorQuantization, LVQ)等多种现有技术实现。
参照图2示出的手写输入流程示意图,本发明还提出一种手写输入方法,基于包括图像采集模块11、目标跟踪模块12、手写状态管理模块13、轨迹采集模块14、轨迹归一化模块15和字符识别模块16的手写输入系统1实现手写输入,包括:
步骤S1、图像采集模块11采集用户动作图像并输出给目标跟踪模块12;
步骤S2、目标跟踪模块12对用户动作图像进行处理,识别并跟踪目标对象;
步骤S3、手写状态管理模块13将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能;
步骤S4、轨迹采集模块14在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块15;
步骤S5、轨迹归一化模块15将笔画轨迹按照预设规则进行归一化,并发送给字符识别模块16;
步骤S6、字符识别模块16从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入。
参照图11所示的手写输入详细流程示意图,本发明提出手写输入系统1与至少一基于机器视觉的手势识别系统2配合工作。本方法包括:
步骤S0、预设启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板;
步骤S1、图像采集模块11采集用户动作图像并输出给目标跟踪模块12;
步骤S2、目标跟踪模块12对用户动作图像进行处理,识别并跟踪目标对象;
步骤S31、手写状态管理模块13将目标对象与预设模板数据比对,若目标对象与手写输入动作模板一致则进行步骤S32;若目标对象与某手势控制动作模板一致则进行步骤S33;否则返回步骤S1;
步骤S32、手写状态管理模块13切换到手写状态,启动手写输入功能;
步骤S33、切换到手势控制状态,手势识别系统2执行与手势控制动作模板对应的控制指令;
步骤S41、显示设备17显示多个手写轨迹映射区域,分别对应多个字符或字符串;
步骤S42、目标跟踪模块12跟踪目标对象,将目标对象的笔画轨迹发送给显示设备17;
步骤S43、显示设备17在第一手写轨迹映射区域A1中向用户显示采集到的笔画轨迹,供用户参考以将输入第一字符或第一字符串的笔画轨迹限定在第一手写轨迹映射区域A1中;
步骤S44、轨迹采集模块14在手写状态下采集第一手写轨迹映射区域A1中目标对象的笔画轨迹,当轨迹采集模块14检测到用户将目标对象从第一手写轨迹映射区域A1移动至第二手写轨迹映射区域A2中,则进行步骤S45;否则返回步骤S42,继续采集第一手写轨迹映射区域A1中目标对象的笔画轨迹;
步骤S45、轨迹采集模块14认为用户完成在第一手写轨迹映射区域A1中的第一字符或字符串的输入,开始输入第二字符或第二字符串;
步骤S46、轨迹采集模块14采集第二手写轨迹映射区域A2中目标对象的笔画轨迹;
步骤S47、轨迹采集模块14将第一手写轨迹映射区域A1中采集到的第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块15;
步骤S5、轨迹归一化模块15将笔画轨迹按照预设规则进行归一化,并发送给字符识别模块16;
步骤S61、字符识别模块16根据轨迹归一化模块15输出的笔画轨迹,提取单个字符或字符串完整的轨迹特征,该轨迹特征表示成特征矢量;
步骤S62、字符识别模块16用预设的分类器对特征矢量分类,将该特征矢量与预设的字库特征进行比对,根据比对结果选取字符或字符串,完成单个字符或字符串的识别过程;
步骤S7、轨迹采集模块14继续跟踪目标对象轨迹,循环进行S41至S62等步骤,直至手写状态管理模块13发现目标对象与手写输入动作模板不一致,或手写输入系统1接收到来自用户的完成手写输入的指令,则结束手写输入流程。
基于上述各实施例,本发明提出采用一组离散的运动特征点作为笔画轨迹,则步骤S5、轨迹归一化模块15将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块16具体包括:
步骤S51、轨迹归一化模块15对至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标;
步骤S52、将运动特征点的坐标绘制成为笔画图像;
步骤S53、将笔画图像归一化处理为预设的标准宽度和预设的标准高度,将笔画图像的重心和预设的标准中心对齐;
步骤S54、将笔画归一化处理后的一组运动特征点发送给字符识别模块16。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种手写输入系统,用于实现非接触式书写输入,其特征在于,包括:
图像采集模块,采集用户动作图像并输出给目标跟踪模块;
目标跟踪模块,对用户动作图像进行处理,识别并跟踪目标对象;所述目标对象为用户身体部位;
手写状态管理模块,将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能;
轨迹采集模块,在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块;所述笔画轨迹为离散的运动特征点的坐标;
轨迹归一化模块,将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块;
字符识别模块,从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入;
显示设备,在手写状态下,所述手写输入系统控制所述显示设备,向用户显示至少一手写轨迹映射区域;以及
目标跟踪模块跟踪目标对象,将目标对象的笔画轨迹发送给所述显示设备显示给用户,供用户参考以将输入一字符或字符串的笔画轨迹限定在一手写轨迹映射区域中;
轨迹采集模块预设手写输入停顿时长;
当轨迹采集模块检测到目标对象静止时间超过预设的手写输入停顿时长,则认为用户完成第一字符或第一字符串的输入,开始输入第二字符或第二字符串;轨迹采集模块采集所述手写轨迹映射区域内第二字符或第二字符串的笔画轨迹;轨迹采集模块将所述手写轨迹映射区域中采集到的笔画轨迹作为第一字符或第一字符串的运动特征点发送给轨迹归一化模块。
2.如权利要求1所述的一种手写输入系统,其特征在于:
所述手写输入系统与至少一基于机器视觉的手势识别系统配合工作;
预设模板数据中包括启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板;
手写状态管理模块将目标对象与预设模板数据比对,若目标对象与所述手写输入动作模板一致则切换到手写状态,所述手写状态管理模块启动手写输入功能;若目标对象与某手势控制动作模板一致则切换到手势控制状态,所述手势识别系统执行与所述手势控制动作模板对应的控制指令。
3.如权利要求1所述的一种手写输入系统,其特征在于:
所述显示设备显示二手写轨迹映射区域,分别对应二字符或二字符串;
当轨迹采集模块检测到用户将目标对象从第一手写轨迹映射区域移动至第二手写轨迹映射区域中,则认为用户完成在第一手写轨迹映射区域中的第一字符或第一字符串的输入,开始输入第二字符或第二字符串;
轨迹采集模块采集第二手写轨迹映射区域的笔画轨迹;
轨迹采集模块将第一手写轨迹映射区域中采集到的笔画轨迹作为第一字符或第一字符串的笔画轨迹发送给轨迹归一化模块。
4.如权利要求1至3任意一项所述的一种手写输入系统,其特征在于,还包括:
所述轨迹归一化模块将所述笔画轨迹归一化处理为预设的标准宽度和预设的标准高度,将所述笔画轨迹的重心和预设的标准中心对齐。
5.如权利要求4所述的一种手写输入系统,其特征在于:
轨迹归一化模块对所述至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标。
6.一种手写输入方法,基于权利要求1所述的手写输入系统实现手写输入,用于实现非接触式书写输入,包括:
图像采集模块采集用户动作图像并输出给目标跟踪模块的步骤;
目标跟踪模块对用户动作图像进行处理,识别并跟踪目标对象的步骤;
手写状态管理模块将目标对象与预设的手写输入动作模板比对,根据比对结果切换手写状态,启动或关闭手写输入功能的步骤;
轨迹采集模块在手写状态下采集目标对象的笔画轨迹,以字符或字符串为单位将笔画轨迹发送给轨迹归一化模块的步骤;
轨迹归一化模块将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块的步骤;
字符识别模块从笔画轨迹中提取轨迹特征并将其与预设字库特征进行比对,根据比对结果选取字符或字符串,完成手写输入的步骤。
7.如权利要求6所述的一种手写输入方法,其特征在于,所述手写输入系统与至少一基于机器视觉的手势识别系统配合工作,还包括:
预设启动手写输入功能的手写输入动作模板和分别与不同的控制指令类型对应的至少一手势控制动作模板的步骤;
手写状态管理模块将目标对象与预设模板数据比对,若目标对象与所述手写输入动作模板一致则切换到手写状态,所述手写状态管理模块启动手写输入功能的步骤;
若目标对象与某手势控制动作模板一致则切换到手势控制状态,所述手势识别系统执行与所述手势控制动作模板对应的控制指令的步骤。
8.如权利要求6或7所述的一种手写输入方法,其特征在于,所述轨迹归一化模块将笔画轨迹按照预设规则进行归一化处理,并发送给字符识别模块的步骤包括:
所述笔画轨迹为至少一离散的运动特征点,所述轨迹归一化模块对所述至少一运动特征点的坐标分别进行加权平均,得到平滑处理后的坐标的步骤;
所述轨迹归一化模块将所述笔画轨迹归一化处理为预设的标准宽度和预设的标准高度,将所述笔画轨迹的重心和预设的标准中心对齐的步骤;
将所述笔画轨迹发送给字符识别模块的步骤。
CN201310078298.3A 2013-03-12 2013-03-12 一种手写输入系统及方法 Active CN103150019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310078298.3A CN103150019B (zh) 2013-03-12 2013-03-12 一种手写输入系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310078298.3A CN103150019B (zh) 2013-03-12 2013-03-12 一种手写输入系统及方法

Publications (2)

Publication Number Publication Date
CN103150019A CN103150019A (zh) 2013-06-12
CN103150019B true CN103150019B (zh) 2016-12-28

Family

ID=48548145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310078298.3A Active CN103150019B (zh) 2013-03-12 2013-03-12 一种手写输入系统及方法

Country Status (1)

Country Link
CN (1) CN103150019B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951832A (zh) * 2017-02-28 2017-07-14 广东数相智能科技有限公司 一种基于手写字符识别的验证方法及装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108762577A (zh) 2011-10-18 2018-11-06 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
CN104571603B (zh) * 2013-10-10 2018-02-27 北京壹人壹本信息科技有限公司 一种空中手写系统及手写笔
CN104598289B (zh) * 2013-10-31 2018-04-27 联想(北京)有限公司 一种识别方法及一种电子设备
CN103558927A (zh) * 2013-11-21 2014-02-05 广州视声电子实业有限公司 一种3d手势控制方法和装置
CN103577843B (zh) * 2013-11-22 2016-06-22 中国科学院自动化研究所 一种空中手写字符串识别方法
CN103839047B (zh) * 2013-12-30 2017-12-29 华为技术有限公司 一种人体运动轨迹的识别方法及装置
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US9652669B2 (en) * 2014-09-16 2017-05-16 Lenovo (Singapore) Pte. Ltd. Reflecting handwriting attributes in typographic characters
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10095402B2 (en) * 2014-10-01 2018-10-09 Qeexo, Co. Method and apparatus for addressing touch discontinuities
KR20160062566A (ko) * 2014-11-25 2016-06-02 삼성전자주식회사 필기 문자를 보정하는 디바이스 및 방법
CN104461321B (zh) * 2014-12-10 2017-10-13 上海卓易科技股份有限公司 一种手势输入指令的方法和装置
CN104951083A (zh) * 2015-07-21 2015-09-30 石狮市智诚通讯器材贸易有限公司 一种远距离手势输入法及输入系统
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN106778720B (zh) * 2016-11-23 2020-05-22 武汉工程大学 一种对手写过程数字化记录和电子化重建的系统及方法
CN109992124A (zh) * 2018-01-02 2019-07-09 北京搜狗科技发展有限公司 输入方法、装置和机器可读介质
CN108271078A (zh) * 2018-03-07 2018-07-10 康佳集团股份有限公司 通过手势识别的语音唤醒方法、智能电视及存储介质
CN109189314B (zh) * 2018-08-13 2022-01-21 广东小天才科技有限公司 手写设备的书写引导方法、装置、设备及介质
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
CN109271909A (zh) * 2018-09-03 2019-01-25 广东小天才科技有限公司 笔迹识别方法、装置、终端与存储介质
CN109460151B (zh) * 2018-11-13 2020-04-10 江西师范大学 手形输入法
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101320291A (zh) * 2008-07-11 2008-12-10 华南理工大学 一种基于可见光检测的虚拟文字识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101320291A (zh) * 2008-07-11 2008-12-10 华南理工大学 一种基于可见光检测的虚拟文字识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Novel Vision based Finger-writing Character Recognition System;Lianwen Jin;《Proceedings of the 18th International Conference on Pattern Recognition》;20061231;第1-4页 *
基于计算机视觉的手写输入法研究;邓俊;《万方数据企业知识服务平台》;20111130;第3页第5段,第19页第2段,第24页至第25页第5段,第28页第2段,第43页倒数第2段,第44页第1段、图5.5 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951832A (zh) * 2017-02-28 2017-07-14 广东数相智能科技有限公司 一种基于手写字符识别的验证方法及装置

Also Published As

Publication number Publication date
CN103150019A (zh) 2013-06-12

Similar Documents

Publication Publication Date Title
CN103150019B (zh) 一种手写输入系统及方法
CN102200834B (zh) 面向电视控制的指尖鼠标交互方法
CN101344816B (zh) 基于视线跟踪和手势识别的人机交互方法及装置
CN108227912A (zh) 设备控制方法和装置、电子设备、计算机存储介质
CN108052884A (zh) 一种基于改进残差神经网络的手势识别方法
CN109597485B (zh) 一种基于双指角域特征的手势交互系统及其工作方法
CN106598227A (zh) 基于Leap Motion和Kinect的手势识别方法
US20200387230A1 (en) Gesture detection method, gesture processing device, and computer readable storage medium
CN102402289B (zh) 一种基于机器视觉的手势鼠标识别方法
CN107992792A (zh) 一种基于加速度传感器的空中手写汉字识别系统及方法
KR20200130440A (ko) 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을 실행하기 위한 모바일 디바이스(method for identifying an object within an image and mobile device for executing the method)
CN102508547A (zh) 基于计算机视觉的手势输入法构建方法及系统
CN102854982A (zh) 一种识别自定义手势轨迹的方法
CN103577843A (zh) 一种空中手写字符串识别方法
CN102520790A (zh) 一种基于图像传感模块的字符输入方法、装置及终端
CN105912126B (zh) 一种手势运动映射到界面的增益自适应调整方法
CN106502390B (zh) 一种基于动态3d手写数字识别的虚拟人交互系统及方法
CN110472506A (zh) 一种基于支持向量机和神经网络优化的手势识别方法
CN106503619B (zh) 基于bp神经网络的手势识别方法
CN109558855A (zh) 一种基于手掌轮廓特征与模版匹配法相结合的空间手势识别方法
Meng et al. An extended HOG model: SCHOG for human hand detection
Xu et al. Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction
CN103186241B (zh) 一种交互桌面触点左右手识别方法
CN112199015B (zh) 智能交互一体机及其书写方法、装置
Chiang et al. Recognizing arbitrarily connected and superimposed handwritten numerals in intangible writing interfaces

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant