CN101408814A - 姿态确定装置及方法 - Google Patents

姿态确定装置及方法 Download PDF

Info

Publication number
CN101408814A
CN101408814A CNA2008101786001A CN200810178600A CN101408814A CN 101408814 A CN101408814 A CN 101408814A CN A2008101786001 A CNA2008101786001 A CN A2008101786001A CN 200810178600 A CN200810178600 A CN 200810178600A CN 101408814 A CN101408814 A CN 101408814A
Authority
CN
China
Prior art keywords
attitude
input
point coordinate
time
definite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2008101786001A
Other languages
English (en)
Inventor
登内洋次郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN101408814A publication Critical patent/CN101408814A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

一种姿态确定装置,以时序输入点坐标;每次输入点坐标时,确定由输入该点坐标之前输入的点坐标和该点坐标输入形成的输入轨迹是否满足存储单元中存储的姿态的轨迹特征,以便当输入轨迹满足姿态的轨迹特征时,输出该姿态的识别信息;每次输入点坐标时,确定在输入该点坐标之前的预定时间中输入的点坐标和该点坐标输入是否在预定距离内处于静止状态;以及当确定姿态之一之后确定为静止状态时确定姿态的重复,以便输出该姿态的识别信息。

Description

姿态确定装置及方法
相关申请的交叉引用
本申请基于并请求于2007年10月4日提交的在先日本专利申请第2007-261273号的优先权的权益,在此引入其全文以供参考。
发明背景
1.发明领域
本发明涉及用于根据其轨迹确定姿态(gesture)的姿态确定装置。
2.相关技术描述
诸如通过手指或笔操作的计算机或便携式电话的电子设备具有姿态确定功能,其接收表示手指或笔的姿态轨迹的敲击(stroke)(例如,书写),并根据诸如输入敲击的形状、方向和大小的信息确定对应的姿态。姿态确定功能可以根据确定的姿态的类型向电子设备输入诸如指针移动、光标移动、字符删除、或插入空格或行返回的命令。这些命令通常是连续重复性输入。然而,常规姿态确定装置不便于连续输入。
在例如JP-A 2002-203208(KOKAI)中,姿态确定对每次敲击是必须的。因此,如图1所示,用户必须重复性的多次输入相同形状的姿态。
在JP-A H9-230993(KOKAI)中描述的循环姿态允许用户无限次的连续输入命令。然而,因为只使用两个命令类型,即顺时针和逆时针命令,所以该方法不适于输入三类或更多的命令。
使用JP-A 2004-94964(KOKAI)中所述的边缘移动功能,即使当手指达到触摸板的边缘时,指针也能连续移动直到用户移开手指。这允许即使当手指已达到触摸板的边缘时用户也能连续移动指针。该功能不能确定手指保持静止,但能确定手指位于触摸板的边缘,并执行特殊的指针移动处理。另外,将手指从中心部分移动到触摸板的边缘的一系列操作有时不能连续输入相同的指针移动命令。例如,如图2A所示,指针向左上角移动。当手指已到达左边缘时,指针向左边移动。
如上所述,由于表示姿态轨迹的敲击形状或重复次数是有限的,因此常规上不易于重复输入相同姿态。
考虑到上述问题做出本发明,其目的在于提供一种姿态确定装置和方法,其允许用户轻松重复输入相同姿态,而不限制表示姿态轨迹的敲击形状或重复次数。
附图概述
图1是解释常规姿态确定方法的示意图;
图2A和2B是解释常规姿态确定方法的示意图;
图3是应用根据实施例的姿态确定装置的确定单元的配置示例框图,以及使用该确定单元的整个便携信息终端装置的配置示例框图;
图4是解释图3所示的确定单元的处理操作概要的流程图;
图5是表示对应于在八个方向上的光标移动操作的八种姿态的轨迹(敲击)的示意图;
图6是解释姿态确定单元的处理操作的流程图;
图7是解释静止确定单元和姿态重复确定单元的处理操作的流程图;
图8A和8B是表示确定为姿态重复的轨迹的详细示例示意图;
图9是表示在位置坐标检测平面上姿态重复确定区域的示意图;
图10是表示图3所示的第二存储单元中存储的姿态编码和命令的示例的示意图。
发明内容
根据本发明实施例,姿态确定装置包括:存储单元,其用于为多个姿态的每个姿态存储确定该姿态必需的轨迹特征和姿态的识别信息;
以时序输入点坐标;
每次输入点坐标时,确定由输入该点坐标之前输入的点坐标和该点坐标输入形成的输入轨迹是否满足存储单元中存储的姿态之一的轨迹特征,以便当输入轨迹满足姿态之一的轨迹特征时,输出该姿态之一的识别信息;
每次输入点坐标时,确定多个点坐标的集合是否在预定距离内处于静止状态,所述多个点坐标的集合包括在输入该点坐标之前的预定时间中输入的点坐标和该点坐标输入;以及
当确定姿态之一之后确定为静止状态时,确定该姿态之一的重复,以便输出该姿态之一的识别信息。
本发明的详细描述
图3所示的便携信息终端装置是诸如由手指或笔操作的PDA或写字板PC的便携信息终端装置。图3所示的便携信息终端装置大致包括:确定单元100,输入单元101,诸如写字板或触摸板,具有例如位置坐标检测面(例如写字板面),用于检测表示笔或手指的姿态轨迹的时序坐标数据,处理单元102,接收确定单元100确定的姿态的识别信息(姿态编码)并执行对应于姿态编码的命令,以及显示器103。
确定单元100包括:轨迹信息输入单元1,姿态确定单元2,静止确定单元3,姿态重复确定单元4以及第一存储单元5。
输入单元101按时序检测点坐标,以检测表示由用户使用笔或手指输入的姿态轨迹(敲击或书写)的时序坐标数据,并将该数据输入到确定单元100的轨迹信息输入单元1。
对该情形,输入单元101以预定时间间隔检测例如表示笔或手指在写字板上的书写的点坐标,并将该数据输入到确定单元100的轨迹信息输入单元1。
代表书写的坐标数据可以表示为下面给出的时序数据:
P1(X[1],Y[1]),...Pi(X[i],Y[i]),...Pk(X[k],Y[k])
其中Pi是在输入单元101的坐标输入面上的写入点,X[i]和Y[i]是Pi的X和Y坐标。轨迹,即姿态书写(敲击),表示为预定间隔的敲击。每个点坐标表示每次笔尖或指尖的位置。在如下解释中,Y坐标的正方向设为向下,X坐标的正方向设为向右。
接下来将参考图4中的流程图描述图3中所示的确定单元100的处理操作的要点。
输入单元101检测表示笔尖或指尖的姿态轨迹的写入点的坐标,并以预定时间间隔将其输入到轨迹信息输入单元1(步骤S101)。
每次输入写入点的坐标时,姿态确定单元2根据由输入的写入点和之前输入的写入点形成的输入轨迹(输入敲击)的特征,诸如方向、长度和形状等,确定输入敲击是否表示一种姿态(步骤S102)。一旦确定输入敲击表示一种姿态,姿态确定单元2向处理单元102输出识别信息,即表示姿态类型的姿态编码(步骤S105)。姿态确定单元2的确定结果也以写入点坐标输入的时间间隔输出到姿态重复确定单元4。即使当姿态确定单元2确定输入敲击不表示姿态时,表示姿态的信息也可以输出到姿态重复确定单元4。
第一存储单元5为多个不同姿态中的每一个来存储确定姿态必要的输入敲击的特征(例如,输入敲击的方向、长度和形状的状态)和姿态的识别信息(姿态编码)。
每次输入一个写入点时,姿态确定单元2将该输入的写入点和之前输入的写入点所形成的输入敲击的方向、长度和形状与第一存储单元5中存储的每个姿态的特征进行比较,借此检查输入敲击是否满足任一个姿态的特征。当输入敲击满足第一存储单元5中存储的任何一个姿态的特征时,姿态确定单元2确定输入敲击表示姿态,并输出姿态编码。
每次以预定时间间隔输入写入点的坐标时,静止确定单元3也要确定输入敲击在输入时间是否处于静止状态(步骤S103)。静止状态表示其中输入的写入点在预定距离内静止预定长时间(T)或更长时间的状态。
每次以预定时间间隔输入写入点的坐标时,姿态重复确定单元4都根据静止确定单元3的确定结果和姿态确定单元2的确定结果来确定是否发出指示要重复在当前时间之前由姿态确定单元2确定的姿态。更具体的,当输入敲击位于静止状态,并且姿态确定单元2已经确定了输入时间前的姿态,姿态重复确定单元4确定要重复输入时间前由姿态确定单元2确定的多个姿态的最后一个(步骤S104)。
如果在步骤S104姿态重复确定单元4确定要重复该姿态,处理进行到步骤S105以向处理单元102输出输入时间之前由姿态确定单元2确定的多个姿态的最后一个的识别信息(姿态编码)。
每次写入点坐标被输出到轨迹信息输入单元1,就执行步骤S101至S105中的上述处理。
下面通过示例确定对应于在八个方向,即向上、向下、向左、向右和向右上、右下、左上和左下角移动鼠标指针或光标的光标移动操作的命令的姿态进行描述。
图5表示对应于八个方向的光标移动操作的八个姿态的轨迹(敲击)。在八个方向的光标移动操作的每一个被分配一种姿态,该姿态在所需光标移动方向画出轨迹。
使用八个方向的姿态示例,参考图6中的流程图描述当输入写入点Pi(X[i],Y[i])时姿态确定单元2的处理操作(图4中的步骤S102和S105)。注意时间i被表示为在检测到笔尖或指尖在输入单元101的位置坐标检测面上的触摸之后直到移开笔尖或指尖期间,以预定时间间隔检测的写入点的数目。
检测到笔尖或指尖在输入单元101的输入面上的触摸的时间被设置为时间i=1(步骤S1)。
当笔尖或指尖触摸到输入单元101的位置坐标检测面时,输入单元101检测的写入点的坐标数据Pi(X[i],Y[i])=P1(X[1],Y[1])被输入到轨迹信息输入单元1(步骤S2)。此时,时间i是“1”(步骤S3)。因此,处理进行到步骤S4,以将该写入点设置为用于确定姿态的输入敲击的开始点(X0,Y0)。即,(X0,Y0)=(X[1],Y[1])(步骤S4)。
处理进行到步骤S5以获取从开始点(X0,Y0)至输入的写入点Pi(X[i],Y[i])的输入敲击的X和Y坐标的差Dx和Dy。
Dx=X[i]-X0
Dy=Y[i]-Y0
处理进行到步骤S6。如果Dx和Dy满足第一存储单元5中存储的任何一个姿态的特征,并且输入敲击被确定为一种姿态,那么该姿态的识别信息被输出到处理单元102和姿态重复确定单元4作为时间i的姿态确定结果。然后,处理进行到步骤S8。
如果Dx和Dy不满足第一存储单元5中存储的任何姿态特征,那么输入敲击不会被确定为时间i的姿态,而且处理进行到步骤S7。注意,表示输入敲击没有被确定为时间i的姿态的姿态确定结果被输出到姿态重复确定单元4。
因为当前时间i是“1”,并且输入敲击没有被确定为姿态,因此处理从步骤S6进行到步骤S7。
当在步骤S7下一个写入点输入时间i=2时,处理返回到步骤S2以输入第二写入点的坐标数据P2(X[2],Y[2])。处理进行到步骤S3。在步骤S3,时间i是“2”。处理进行到步骤S5以获取从开始点(X0,Y0)到写入点P2的输入敲击的X和Y坐标的差Dx和Dy。处理进行到步骤S6。如果根据Dx和Dy输入敲击没有被确定为姿态,则处理进行到步骤S7。然后,重复步骤S2到S6。
在时间i=k,输入写入点Pk(X[k],Y[k])(步骤S1和S2)。处理从步骤S3进行到步骤S5以获取从开始点(X0,Y0)=(X[1],Y[1])到写入点Pk的输入敲击的X和Y坐标的差Dx和Dy。
在步骤S6,检测Dx和Dy是否满足第一存储单元5中存储的任何一个姿态的特征。
第一存储单元5提前存储确定对应每个如下姿态的姿态所需的输入敲击的特征(输入敲击的条件),诸如方向和长度。
这里Y坐标的正方向设为向下,X坐标的正方向设为向右。H是姿态确定的预定阈值。
如果-Dy>H,上姿态
如果Dy>H,下姿态
如果-Dx>H,左姿态
如果Dx>H,右姿态
如果√2/2(Dx-Dy)>H,右上姿态
如果√2/2(Dx+Dy)>H,右下姿态
如果√2/2(-Dx+Dy)>H,左下姿态
如果√2/2(-Dx-Dy)>H,左上姿态
在步骤S6,将从开始点(X0,Y0)到写入点Pk的输入敲击的Dx和Dy与对应于第一存储单元5中存储的各个姿态的条件相比,并搜索输入敲击的Dx和Dy满足其条件的姿态。
如果输入敲击的Dx和Dy只满足一个姿态的条件,则输入敲击被确定为该姿态。姿态的识别信息作为时间k的姿态确定结果输出到处理单元102和姿态重复确定单元4。然后,处理进行到步骤S8。
如果输入敲击的Dx和Dy满足多个姿态的条件,则多个姿态中其条件对输入敲击的Dx和Dy具有最高满足级的一个姿态被选择,并被获取作为确定结果。例如,在上面条件中,选择其左手侧具有最高值的姿态。
在步骤S8,将用于确定姿态的输入敲击的开始点(X0,Y0)更新为写入点Pk的坐标数据。更具体的,(X0,Y0)=(X[k],Y[k])(步骤S8)。此后,处理进行到步骤S7,然后到步骤S2,以输入下个写入点(在时间i=k+1)的坐标数据Pk+1(X[k+1],Y[k+1])。
从那时起,每次以预定时间间隔输入写入点Pi时都重复步骤S2到S8的处理,直到笔尖或指尖离开输入面以完成一次敲击的输入。
当笔尖或指尖已离开输入面以完成一次敲击的输入时,再次检测笔尖或指尖在输入单元101的输入面上的触摸,开始另一敲击的输入,处理从步骤S1开始。
下面参考图7描述由静止确定单元3和姿态重复确定单元4执行的姿态重复确定处理(图4中的步骤S103、S104和S105)。
每次轨迹信息输入单元1输入一个写入点,静止确定单元3就确定该书写在输入时间是否处于静止状态。更具体的,当在时间i借助轨迹信息输入单元1输入写入点Pi时(步骤S11),静止确定单元3确定书写在输入时间i是否处于静止状态(步骤S12)。
例如,静止确定单元3在写入点坐标在从时间i-T到时间i之间位于预定距离内的条件下确定书写在时间i处于静止状态。即,
当满足i-T<=k,以及l<=i的所有值k和l满足
|X[k]-X[l]|<Sx,|Y[k]-Y[l]|<Sy时,
静止确定单元3确定书写在时间i位于静止状态。在这种情况下,Sx和Sy是用于确定静止状态的x-和y-方向阈值,T是用于确定静止状态的预定时间,即静止时间。
如果静止确定单元3在步骤S12确定书写在时间i位于静止状态,那么处理进行到步骤S13。否则(如果没有满足上述条件),处理返回到步骤S11以执行下个写入点的处理。
在步骤S13,姿态重复确定单元4使用静止确定单元3的静止确定结果和姿态确定单元2的姿态确定结果确定是否在时间i指示姿态的重复,即是否要重复该姿态。
姿态重复表示将输入敲击看作与之前刚刚确定的姿态相同,并输出该姿态的姿态编码。
当静止确定单元3确定输入敲击在时间i位于静止状态(姿态重复确定条件1)时,并且姿态确定单元2已确定时间i之前(例如,从时间i=1到i)的姿态(姿态重复确定条件2),姿态重复确定单元4通过重复由姿态确定单元2在时间i之前确定的多个姿态的最后一个来确定执行姿态重复。也就是说,姿态重复确定单元4确定重复在由静止确定单元3确定的静止状态之前刚刚确定的那个姿态。
如果姿态重复确定单元4在步骤S13确定在时间i执行姿态重复,那么处理进行到步骤S14,以向处理单元102输出由姿态确定单元2在时间i之前确定的多个姿态的最后一个的识别信息(姿态编码)。
如果在步骤S13确定姿态确定单元2还没有确定时间i之前(例如,时间i=1到i之间)的任何姿态,那么处理返回到步骤S11。
假设用户在输入单元101的位置坐标检测面上输入图8A所示的轨迹。在图8A中,当在时间i=k,k+2,k+4和k+6输入写入点时,书写由图6中的处理确定为左上姿态。然后,在i=k+10确定静止状态,并由图7所示的过程确定姿态重复。因为左上姿态是紧邻i=k+10之前确定的一个,当确定静止状态时,从i=k+10确定用于重复左上姿态的姿态重复。
假设用户在输入单元101的位置坐标检测面上输入图8B所示的轨迹。在图8B中,当在时间i=k,k+2和k+4输入写入点时,书写由图6中的处理确定为左上姿态。当在时间i=k+6,k+8和k+10输入写入点时,书写被确定为右上姿态。然后,在i=k+12确定静止状态,并由图7所示的过程确定姿态重复。因为右上姿态是紧邻i=k+12之前确定的一个,当确定静止状态时从i=k+12确定用于重复右上姿态的姿态重复。
如图9所示,可以在轨迹信息输入单元1的位置坐标检测面(书写输入区域),诸如写字板面上提供姿态重复确定区域。在图9中,在位置坐标检测面的外围部分(图9中的阴影部分)提供姿态重复确定区域。然而,本发明不限于此。姿态重复确定区域可以提供在位置坐标检测面的中心、在左右侧的外围部分、在上侧的外围部分或下侧的外围部分。可以在位置坐标检测面的任何部分提供姿态重复确定区域。
当提供姿态重复确定区域时,为了确定时间i的姿态重复,除了上述姿态重复确定条件,即(姿态重复确定条件1)和(姿态重复确定条件2),满足第三姿态重复确定条件是必要的,即从时间i-T到时间i输入的所有写入点的坐标,或者它们之中的一些(例如在时间i的写入点输入)位于姿态重复确定区域内。更具体的,添加如下(姿态重复确定条件3)。
(姿态重复确定条件3)时间i的坐标(X[i],Y[i])位于姿态重复确定区域内。
写入点在小区域内静止预定时间(静止时间T)或更长时间不仅因为姿态重复而且因为书写时的简单延迟。
当提供姿态重复确定区域,并添加(姿态重复确定条件3)时,姿态重复确定单元能正确确定静止状态的发生是因为姿态重复或因为书写时的简单延迟。
如上所述,处理单元102的编码转换单元11将从确定单元100的姿态确定单元2或姿态重复确定单元4输出的姿态编码转换为与该姿态编码对应的命令。
处理单元102的第二储存单元12存储互相对应的姿态编码和命令。
编码转换单元11在第二存储单元12中搜索对应于从确定单元100输出的姿态编码的命令,并在处理单元102内输出获取的命令。处理单元102根据命令在显示器103上显示处理结果。结果,当确定单元100输出表示例如“上姿态”的姿态编码时,显示器103上显示的光标在屏幕上向上移动。
如果连续确定左上姿态,并接着确定姿态重复,那么显示器103上显示的光标在该时间期间在屏幕上连续向左上角移动。
确定单元100可以包括编码转换单元11和第二存储单元12,以便编码转换单元11将从姿态确定单元2或姿态重复确定单元4输出的姿态编码转换为命令并将该命令输出到处理单元102。
如上所述,根据上面实施例,在笔尖或指尖接触输入单元101的位置坐标检测面并检测一次敲击开始点的坐标之后,每次输入表示一次敲击的姿态轨迹的时序点坐标直到笔尖或指尖离开位置坐标检测面,姿态确定单元2就比较由输入点坐标和之前输入的点坐标形成的输入轨迹(输入敲击)的特征量和第一存储单元5中存储的每个姿态轨迹的特征。当输入轨迹的特征量满足第一存储单元5中存储的多个姿态的任何一个轨迹的特征时,姿态被确定为对应于输入轨迹的姿态,并输出该姿态的识别信息。
另一方面,每次输入点坐标时,静止确定单元3确定是否出现静止状态,在该状态中包括输入点坐标和从输入点坐标的时间到预定时间的那些点坐标的多个点坐标静止在预定距离内。当确定静止状态,并在该时间之前已确定姿态时,姿态重复确定单元4确定要重复姿态(姿态重复)并输出该姿态的识别信息。
当通过向输入单元101输入一次敲击做出一个姿态时,可以在敲击中途多个阶段确定姿态。因此可能在书写一次敲击期间多次连续输入(相同或多个不同)姿态。因此,可以连续输入相同或多个不同的命令。此外,当写入点在一个点静止预定时间(静止时间T)时,可以重复地多次(在写入点静止期间)输入对应于之前刚刚确定的姿态的命令。
根据实施例,可能实施姿态重复功能,允许用户轻松连续重复指示诸如经常连续执行的光标移动或一个字符删除等的操作(命令)。
在上面实施例中,第一存储装置中存储的每个姿态的轨迹特征包括确定姿态所需的输入敲击的方向、长度等的条件。然而,本发明不限于此,并可以使用输入敲击图样。
在上面实施例中,敲击形状不限,并可以从一个敲击中确定姿态而不依赖于其形状。甚至可以在敲击期间的多个阶段确定姿态。因此,如果能以预定时间间隔获取代表轨迹的点坐标,就可以识别出姿态而不依赖于其形状。
如上所述,根据本发明,在书写一次敲击期间中途至少一次确定姿态之后,该写入点在一个点被保持静止预定时间(静止时间T)。这允许用户发出指示重复之前刚刚确定的姿态。因此有可能通过输入一次敲击的姿态来轻松连续输入命令而不限制重复次数。
本发明的实施例中所述的本发明的方法(确定单元100的单元的功能)可以保存在诸如磁盘(例如,软盘或硬盘)、光盘(例如CD-ROM或DVD)、或半导体存储器的记录介质中,并分布为由计算机执行的程序。

Claims (11)

1.一种姿态确定装置,包括:
存储单元,用于为多个姿态的每个姿态存储确定姿态必需的轨迹特征和姿态的识别信息;
输入单元,被配置为以时序输入点坐标;
姿态确定单元,被配置为在每次输入点坐标时,确定由输入该点坐标之前输入的点坐标和从所述输入单元输入的该点坐标所形成的输入轨迹是否满足所述存储单元中存储的姿态之一的轨迹特征,以便当输入轨迹满足姿态之一的轨迹特征时输出该姿态之一的识别信息;
静止确定单元,被配置为每次输入点坐标时,确定多个点坐标的集合是否在预定距离内处于静止状态,所述多个点坐标的集合包括在输入该点坐标之前的预定时间中输入的点坐标和从所述输入单元输入的该点坐标;以及
重复确定单元,被配置为在确定姿态之一之后确定静止状态之时,确定姿态之一的重复,以便输出该姿态之一的识别信息。
2.根据权利要求1的装置,其中所述重复确定单元确定在确定静止状态之前刚刚确定的姿态之一的重复。
3.根据权利要求1的装置,其中:
所述输入单元输入在位置坐标检测面上检测的点坐标,以及
当点坐标的集合的全部或部分在位置坐标检测面的预定区域内保持静止时,重复确定单元确定所述姿态之一的重复。
4.根据权利要求3的装置,其中所述区域提供在位置坐标检测面的外围部分。
5.根据权利要求1的装置,其中所述存储单元中存储的每个姿态轨迹的特征是确定姿态必需的条件。
6.一种姿态确定方法,包括:
在存储单元中为多个姿态的每个姿态存储确定姿态必需的轨迹特征和姿态的识别信息;
以时序输入点坐标;
每次输入点坐标时,确定由输入点坐标之前输入的点坐标和该点坐标输入形成的输入轨迹是否满足所述存储单元中存储的姿态之一的轨迹特征,以便当输入轨迹满足姿态之一的轨迹特征时,输出该姿态之一的识别信息;
每次输入点坐标时,确定多个点坐标的集合是否在预定距离内处于静止状态,所述多个点坐标的集合包括在输入该点坐标之前的预定时间中输入的点坐标和该点坐标输入;以及
在确定姿态之一之后确定为静止状态时,确定姿态之一的重复,以便输出该姿态之一的识别信息。
7.根据权利要求6的方法,其中所述确定重复的步骤确定在确定静止状态之前刚刚确定的姿态之一的重复。
8.根据权利要求6的方法,其中:
所述输入点坐标的步骤输入在位置坐标检测面上检测的点坐标,以及
当所述点坐标的集合的全部或部分在位置坐标检测面的预定区域内保持静止时,所述确定重复的步骤确定姿态之一的重复。
9.根据权利要求8的方法,其中所述区域提供在位置坐标检测面的外围部分。
10.根据权利要求6的方法,其中所述存储单元中存储的每个姿态轨迹的特征都是确定姿态所需的条件。
11.一种在计算机可读存储介质中存储的程序,当由计算机执行时导致执行如下步骤,包括:
在存储单元中为多个姿态的每个姿态存储用于确定姿态必须的轨迹特征和姿态的识别信息;
以时序输入点坐标;
每次输入点坐标时,确定由输入点坐标之前输入的点坐标和该点坐标输入形成的输入轨迹是否满足所述存储单元中存储的姿态之一的轨迹特征,以便当输入轨迹满足姿态之一的轨迹特征时,输出姿态之一的识别信息;
每次输入点坐标时,确定多个点坐标的集合是否在预定距离内处于静止状态,所述多个点坐标的集合包括在输入该点坐标之前的预定时间中输入的点坐标和该点坐标输入;以及
当确定姿态之一之后确定为静止状态时,确定姿态之一的重复,以便输出该姿态之一的识别信息。
CNA2008101786001A 2007-10-04 2008-10-06 姿态确定装置及方法 Pending CN101408814A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP261273/2007 2007-10-04
JP2007261273A JP2009093291A (ja) 2007-10-04 2007-10-04 ジェスチャー判定装置及び方法

Publications (1)

Publication Number Publication Date
CN101408814A true CN101408814A (zh) 2009-04-15

Family

ID=40260438

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2008101786001A Pending CN101408814A (zh) 2007-10-04 2008-10-06 姿态确定装置及方法

Country Status (4)

Country Link
US (1) US20090090567A1 (zh)
EP (1) EP2045699A3 (zh)
JP (1) JP2009093291A (zh)
CN (1) CN101408814A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853133A (zh) * 2010-05-31 2010-10-06 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
CN102141877A (zh) * 2010-01-29 2011-08-03 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
CN103488296A (zh) * 2013-09-25 2014-01-01 华为软件技术有限公司 体感交互手势控制方法及装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
KR101496844B1 (ko) * 2008-07-28 2015-02-27 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그 구동 방법
US9501694B2 (en) * 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
KR20100114572A (ko) * 2009-04-16 2010-10-26 삼성전자주식회사 터치스크린을 구비한 단말기의 컨텐츠 표시 방법 및 장치
KR101094636B1 (ko) 2009-05-21 2011-12-20 팅크웨어(주) 제스처 기반 사용자 인터페이스 시스템 및 그 방법
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20110019105A1 (en) * 2009-07-27 2011-01-27 Echostar Technologies L.L.C. Verification of symbols received through a touchpad of a remote control device in an electronic system to allow access to system functions
KR20110021062A (ko) * 2009-08-25 2011-03-04 삼성전자주식회사 컴퓨터시스템 및 그 제어방법
US20120169643A1 (en) * 2009-09-09 2012-07-05 Sharp Kabushiki Kaisha Gesture determination device and method of same
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8554280B2 (en) * 2010-03-23 2013-10-08 Ebay Inc. Free-form entries during payment processes
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
JP5701714B2 (ja) * 2011-08-05 2015-04-15 株式会社東芝 ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
KR101457116B1 (ko) * 2011-11-07 2014-11-04 삼성전자주식회사 음성 인식 및 모션 인식을 이용한 전자 장치 및 그의 제어 방법
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US9146662B2 (en) * 2012-04-12 2015-09-29 Unify Gmbh & Co. Kg Method for controlling an image on a display
JP5565886B2 (ja) * 2012-08-17 2014-08-06 Necシステムテクノロジー株式会社 入力装置、入力方法、及びプログラム
US20140118281A1 (en) * 2012-10-26 2014-05-01 Cirque Corporation DETERMINING WHAT INPUT TO ACCEPT BY A TOUCH SENSOR AFTER INTENTIONAL AND ACCIDENTAL LIFT-OFF and SLIDE-OFF WHEN GESTURING OR PERFORMING A FUNCTION
TW201443762A (zh) * 2013-05-06 2014-11-16 You-He Zhang 多點觸控裝置的操作方法
WO2015001622A1 (ja) * 2013-07-02 2015-01-08 富士通株式会社 入力装置、入力制御方法、及び入力制御プログラム
US20150169217A1 (en) * 2013-12-16 2015-06-18 Cirque Corporation Configuring touchpad behavior through gestures
CN105342299B (zh) * 2015-12-10 2017-06-09 成都小爱未来智慧科技有限公司 智能水杯的触控电路
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
CN110716648B (zh) * 2019-10-22 2021-08-24 上海商汤智能科技有限公司 手势控制方法和装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61235932A (ja) * 1985-04-12 1986-10-21 Ricoh Co Ltd 情報処理装置
US5327161A (en) * 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JP3280559B2 (ja) 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
JP3607440B2 (ja) * 1996-12-03 2005-01-05 日本電気株式会社 ジェスチャー認識方法
KR100595917B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3974359B2 (ja) * 2000-10-31 2007-09-12 株式会社東芝 オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム
JP4261145B2 (ja) * 2001-09-19 2009-04-30 株式会社リコー 情報処理装置、情報処理装置の制御方法、その方法をコンピュータに実行させるためのプログラム
US7256773B2 (en) * 2003-06-09 2007-08-14 Microsoft Corporation Detection of a dwell gesture by examining parameters associated with pen motion
US20060007174A1 (en) * 2004-07-06 2006-01-12 Chung-Yi Shen Touch control method for a drag gesture and control module thereof
JP4658544B2 (ja) * 2004-09-03 2011-03-23 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP4394062B2 (ja) * 2005-10-28 2010-01-06 アルプス電気株式会社 パッド型入力装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102141877A (zh) * 2010-01-29 2011-08-03 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
CN102141877B (zh) * 2010-01-29 2013-11-13 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
CN101853133A (zh) * 2010-05-31 2010-10-06 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
WO2011150607A1 (zh) * 2010-05-31 2011-12-08 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
CN101853133B (zh) * 2010-05-31 2013-03-20 中兴通讯股份有限公司 一种自动识别手势的方法及移动终端
CN103488296A (zh) * 2013-09-25 2014-01-01 华为软件技术有限公司 体感交互手势控制方法及装置
CN103488296B (zh) * 2013-09-25 2016-11-23 华为软件技术有限公司 体感交互手势控制方法及装置

Also Published As

Publication number Publication date
JP2009093291A (ja) 2009-04-30
EP2045699A2 (en) 2009-04-08
EP2045699A3 (en) 2012-05-30
US20090090567A1 (en) 2009-04-09

Similar Documents

Publication Publication Date Title
CN101408814A (zh) 姿态确定装置及方法
JP4560062B2 (ja) 筆跡判定装置、方法およびプログラム
CN103064626B (zh) 一种触屏终端及其实现复选功能的方法
US9811193B2 (en) Text entry for electronic devices
US9727149B2 (en) Stylus settings
US7932895B2 (en) Control of an electronic device using a gesture as an input
CN102541304B (zh) 姿势识别
US8957868B2 (en) Multi-touch text input
CN101833532B (zh) 手写输入数学式的修正装置及修正方法
US20170109917A1 (en) Method and device for erasing a writing path on an infrared electronic white board, and a system for writing on an infrared electronic white board
CN102246126A (zh) 基于手势的编辑模式
CN101382869A (zh) 使用触摸屏输入韩文字符的方法和设备
CN102272699A (zh) 手势检测分区
US20110289462A1 (en) Computing Device Magnification Gesture
CN104808930A (zh) 一种操作元素控制方法
CN103329071A (zh) 字符输入装置及字符输入方法
CN103019610A (zh) 对象选择方法及终端
JP2014186530A (ja) 入力装置および携帯端末装置
CN105739810A (zh) 移动电子装置与用户界面显示方法
CN101794182B (zh) 一种用于触摸式输入的方法和设备
KR100698309B1 (ko) 포인팅디바이스를 이용한 애플리케이션 실행 방법, 장치 및애플리케이션 실행 프로그램을 기록한 컴퓨터로 읽을 수있는 매체
CN102053769A (zh) 数据选取与显示方法及系统
CN104820550A (zh) 一种终端
CN103605460A (zh) 一种手势识别方法和相关终端
US9996215B2 (en) Input device, display control method, and integrated circuit device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20090415