CN106527917B - 一种用于屏幕交互系统的多指触控操作的识别方法 - Google Patents

一种用于屏幕交互系统的多指触控操作的识别方法 Download PDF

Info

Publication number
CN106527917B
CN106527917B CN201610849672.9A CN201610849672A CN106527917B CN 106527917 B CN106527917 B CN 106527917B CN 201610849672 A CN201610849672 A CN 201610849672A CN 106527917 B CN106527917 B CN 106527917B
Authority
CN
China
Prior art keywords
finger
contacts
finger contact
touch operation
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610849672.9A
Other languages
English (en)
Other versions
CN106527917A (zh
Inventor
田启川
谭登峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zen Ai Technology Co ltd
Original Assignee
Beijing Zen Ai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zen Ai Technology Co ltd filed Critical Beijing Zen Ai Technology Co ltd
Priority to CN201610849672.9A priority Critical patent/CN106527917B/zh
Publication of CN106527917A publication Critical patent/CN106527917A/zh
Application granted granted Critical
Publication of CN106527917B publication Critical patent/CN106527917B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Abstract

本发明提供了一种用于屏幕交互系统的多指触控操作的识别方法,包括如下步骤:开启近红外激光器,让光幕平行于屏幕,并完成手指触点位置的几何校准;用近红外摄像头采集图像;分割出全部的手指触点;记录全部的手指触点,并标记手指触点ID和初始化所述全部的手指触点出现的次数为1;依据最小距离和运动估计进行手指触点ID的标记和跟踪,更新手指触点轨迹的结束位置和手指触点出现次数自增加1;当某一ID的手指触点离开屏幕时,结束对当前标记ID手指触点的跟踪;当全部的手指触点均离开屏幕时,进行多指触控操作的识别;返回反映当前触控操作的参数,将全部的手指触点清零。本发明提供的识别方法,使得对多指触控操作的识别变得方便。

Description

一种用于屏幕交互系统的多指触控操作的识别方法
技术领域
本发明属于人机交互的技术领域,具体涉及一种用于屏幕交互系统的多指触控操作的识别方法。
背景技术
现有的基于近红外光的屏幕触控人机交互系统中,由于多指触控具有其操作直观性好、交互方式自然的特点,备受人机交互领域青睐。在交互过程中,系统依赖于多手指的手指触点进行动作识别,而识别系统又无法获知手指触点来自左右哪只手,如果不进行标记和跟踪,是无法确定手指触点的起止位置的,从而无法进行动作识别,难以实现正确的操作任务,影响用户体验。
发明内容
本发明提供了一种用于屏幕交互系统的多指触控操作的识别方法,使得对多指触控操作的识别变得方便,提高了用户触控的体验效果。
本发明提供了一种用于屏幕交互系统的多指触控操作的识别方法,包括如下步骤:
S1:开启近红外激光器,让光幕平行于屏幕,并完成手指触点位置的几何校准;
S2:用近红外摄像头采集全部的手指触点的图像;
S3:分割出全部的手指触点;
S4:记录全部的手指触点,并标记手指ID和初始化所述全部的手指触点出现的次数为1;
S5:再次采集全部的手指触点的图像,依据最小距离和运动估计进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现的次数自增加1;
S6:当某一ID的手指触点离开屏幕时,结束对当前标记ID触点的跟踪;
S7:当全部的手指触点均离开屏幕时,进行多指触控操作的识别,具体的识别过程包括如下步骤:
a)根据全部的手指触点的起始位置对手指触点进行分类,根据全部的手指触点的结束位置对全部的手指触点进行分类;
b)判断起始时刻在同一类中的手指触点是否结束时仍在同一类中,若在同一类中,那么进行关联,否则删除这些手指触点;
c)选择在两类中出现次数最多的两个触控手指,如果起始位置和结束位置处的X方向的相对变化量ΔX和Y方向的相对变化量ΔY都小于某一设定阈值T,那么认为无有效操作,否则在X方向的动作幅度较大时,即当ΔX>T,ΔY<T时表示在X方向有缩放操作,在X方向的缩放比例系数为Xscale=|ΔX2/ΔX1|,Yscale=1.0,如果Xscale>1.0,表示多指触控操作为X方向的放大操作,如果Xscale<1.0,表示多指触控操作为X方向的缩小操作;在Y方向的动作幅度较大时,即当ΔX<T,ΔY>T时表示在Y方向有缩放操作,在Y方向的缩放比例系数为Yscale=|ΔY2/ΔY1|,Xscale=1.0,如果Yscale>1.0,表示多指触控操作为Y方向的放大操作,如果Yscale<1.0,表示多指触控操作为Y方向的缩小操作;两个方向变化均大时,即当ΔX>T,ΔY>T时根据|ΔR2/ΔR1|来计算缩放比例系数Xscale和Yscale,即Xscale=Yscale=|ΔR2/ΔR1|,如果Xscale>1.0,Yscale>1.0,表示多指触控操作为X方向和Y方向同时缩放操作;
其中设置两手中的一个手指触点的起始位置坐标为(X11,Y11),手指触点的结束位置坐标为(X12,Y12),设置另一个手指触点的起始位置坐标为(X21,Y21),手指触点的结束位置坐标为(X22,Y22),即起始时两手的手指触点位置差为ΔX1=|X21-X11|,ΔY1=|Y21-Y11|,结束时两手的手指触点位置差为ΔX2=|X22-X12|,ΔY2=|Y22-Y12|,
Figure BDA0001119954190000021
Figure BDA0001119954190000022
如果手指触点只能归为一类,即不是两个手的操作,那么识别为单手操作即拖动操作,此时的移动距离用dx和dy来表示,其中dx和dy分别表示手指在X方向和Y方向移动的距离;
其中dx=X12-X11,dy=Y12-Y11,假设屏幕的左上角为坐标原点,若dx>0,表示手指触点向右拖动|dx|,若dx<0,表示手指触点向左拖动指,若dy>0,表示手指触点向下拖动,若dy<0,表示手指触点向上拖动;
S8:返回反映当前触控操作的参数,然后将全部的手指触点清零,返回步骤S2。
优选的,所述的步骤S3具体为:
采用K匀值聚类方法分割出全部的手指触点。
优选的,所述的步骤S5具体为:
依据最小距离和轨迹方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
优选的,所述的步骤S5具体为:
依据最小距离和速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
优选的,所述的步骤S5具体为:
依据最小距离和加速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
由上面的技术方案可知,本发明提供的用于屏幕交互系统的多指触控操作的识别方法,是通过手指在屏幕上的触控操作实现对窗口大小的控制和位置的控制;降低了对触控操作的苛刻要求,依据最小距离和运动估计实现了屏幕上手指触点的起始位置和终止位置的定位问题;提高了用于屏幕交互系统的触控操作的识别率,减少了对多指触控操作的误识别,解决了屏幕交互系统的自然交互问题,提高了屏幕交互系统的抗干扰能力和稳定性。
附图说明
图1为本发明实施例提供的一种用于屏幕交互系统的多指触控操作的识别方法的流程图;
图2为本发明实施例提供的一种用于屏幕交互系统的多指触控操作的识别方法的流程图。
具体实施方式
以下结合具体实施方式进一步详细说明本发明的技术方案。应当理解,此处描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供了一种用于屏幕交互系统的多指触控操作的识别方法,如图1所示,包括如下步骤:
S1:开启近红外激光器,让光幕平行于屏幕,并完成手指触点位置的几何校准;
S2:用近红外摄像头采集全部的手指触点的图像;
S3:分割出全部的手指触点;
S4:记录全部的手指触点,并标记手指ID和初始化所述全部的手指触点出现的次数为1;
S5:再次采集全部的手指触点的图像,依据最小距离和运动估计进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1;
S6:当某一ID的手指触点离开屏幕时,结束对当前标记ID触点的跟踪;
S7:当全部的手指触点均离开屏幕时,进行多指触控操作的识别,具体的识别过程包括如下步骤:
a)根据全部的手指触点的起始位置对手指触点进行分类,根据全部的手指触点的结束位置对全部的手指触点进行分类;
b)判断起始时刻在同一类中的手指触点是否结束时仍在同一类中,若在同一类中,那么进行关联,否则删除这些手指触点;
c)选择在两类中出现次数最多的两个触控手指,如果起始位置和结束位置处的X方向的相对变化量ΔX和Y方向的相对变化量ΔY都小于某一设定阈值T,那么认为无有效操作,否则在X方向的动作幅度较大时,即当ΔX>T,ΔY<T时表示在X方向有缩放操作,在X方向的缩放比例系数为Xscale=|ΔX2/ΔX1|,Yscale=1.0,如果Xscale>1.0,表示多指触控操作为X方向的放大操作,如果Xscale<1.0,表示多指触控操作为X方向的缩小操作;在Y方向的动作幅度较大时,即当ΔX<T,ΔY>T时表示在Y方向有缩放操作,在Y方向的缩放比例系数为Yscale=|ΔY2/ΔY1|,Xscale=1.0,如果Yscale>1.0,表示多指触控操作为Y方向的放大操作,如果Yscale<1.0,表示多指触控操作为Y方向的缩小操作;两个方向变化均大时,即当ΔX>T,ΔY>T时根据|ΔR2/ΔR1|来计算缩放比例系数Xscale和Yscale,即Xscale=Yscale=|ΔR2/ΔR1|,如果Xscale>1.0,Yscale>1.0,表示多指触控操作为X方向和Y方向同时缩放操作;
其中设置两手中的一个手指触点的起始位置坐标为(X11,Y11),手指触点的结束位置坐标为(X12,Y12),设置另一个手指触点的起始位置坐标为(X21,Y21),手指触点的结束位置坐标为(X22,Y22),即起始时两手的手指触点位置差为ΔX1=|X21-X11|,ΔY1=|Y21-Y11|,结束时两手的手指触点位置差为ΔX2=|X22-X12|,ΔY2=|Y22-Y12|,
Figure BDA0001119954190000041
Figure BDA0001119954190000042
如果手指触点只能归为一类,即不是两个手的操作,那么识别为单手操作即拖动操作,此时的移动距离用dx和dy来表示,其中dx和dy分别表示手指在X方向和Y方向移动的距离;
其中dx=X12-X11,dy=Y12-Y11,假设屏幕的左上角为坐标原点,若dx>0,表示手指触点向右拖动|dx|,若dx<0,表示手指触点向左拖动指,若dy>0,表示手指触点向下拖动,若dy<0,表示手指触点向上拖动;
S8:返回反映当前触控操作的参数,然后将全部的手指触点清零,返回步骤S2。
由上面的技术方案可知,本发明提供的用于屏幕交互系统的多指触控操作的识别方法,是通过手指在屏幕上的触控操作实现对屏幕窗口大小的控制和位置的控制;降低了对触控操作的苛刻要求,依据最小距离和运动估计实现了屏幕上手指触点的起始位置和终止位置的定位问题;提高了用于屏幕交互系统的多指触控操作的识别率,减少了对多指触控操作的误识别。
优选的,所述的步骤S3具体为采用K匀值聚类方法分割出全部的手指触点,如图2所示,本发明实施例提供了一种用于屏幕交互系统的多指触控操作的识别方法,包括如下步骤:
S21:开启近红外激光器,让光幕平行于屏幕,并完成手指触点位置的几何校准;
S22:用近红外摄像头采集全部的手指触点的图像;
S23:采用K均值聚类方法分割出全部的手指触点;
S24:记录全部的手指触点,并标记手指ID和初始化所述全部的手指触点出现的次数为1;
S25:再次采集全部的手指触点的图像,依据最小距离和运动估计进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1;
S26:当某一ID的手指触点离开屏幕时,结束对当前标记ID触点的跟踪;
S27:当全部的手指触点均离开屏幕时,进行多指触控操作的识别,具体的识别过程包括如下步骤:
a)根据全部的手指触点的起始位置对手指触点进行分类,根据全部的手指触点的结束位置对全部的手指触点进行分类;
b)判断起始时刻在同一类中的手指触点是否结束时仍在同一类中,若在同一类中,那么进行关联,否则删除这些手指触点;
c)选择在两类中出现次数最多的两个触控手指,如果起始位置和结束位置处的X方向的相对变化量ΔX和Y方向的相对变化量ΔY都小于某一设定阈值T,那么认为无有效操作,否则在X方向的动作幅度较大时,即当ΔX>T,ΔY<T时表示在X方向有缩放操作,在X方向的缩放比例系数为Xscale=|ΔX2/ΔX1|,Yscale=1.0,如果Xscale>1.0,表示多指触控操作为X方向的放大操作,如果Xscale<1.0,表示多指触控操作为X方向的缩小操作;在Y方向的动作幅度较大时,即当ΔX<T,ΔY>T时表示在Y方向有缩放操作,在Y方向的缩放比例系数为Yscale=|ΔY2/ΔY1|,Xscale=1.0,如果Yscale>1.0,表示多指触控操作为Y方向的放大操作,如果Yscale<1.0,表示多指触控操作为Y方向的缩小操作;两个方向变化均大时,即当ΔX>T,ΔY>T时根据|ΔR2/ΔR1|来计算缩放比例系数Xscale和Yscale,即Xscale=Yscale=|ΔR2/ΔR1|,如果Xscale>1.0,Yscale>1.0,表示多指触控操作为X方向和Y方向同时缩放操作;
其中设置两手中的一个手指触点的起始位置坐标为(X11,Y11),手指触点的结束位置坐标为(X12,Y12),设置另一个手指触点的起始位置坐标为(X21,Y21),手指触点的结束位置坐标为(X22,Y22),即起始时两手的手指触点位置差为ΔX1=|X21-X11|,ΔY1=|Y21-Y11|,结束时两手的手指触点位置差为ΔX2=|X22-X12|,ΔY2=|Y22-Y12|,
Figure BDA0001119954190000051
Figure BDA0001119954190000052
如果手指触点只能归为一类,即不是两个手的操作,那么识别为单手操作即拖动操作,此时的移动距离用dx和dy来表示,其中dx和dy分别表示手指在X方向和Y方向移动的距离;
其中dx=X12-X11,dy=Y12-Y11,假设屏幕的左上角为坐标原点,若dx>0,表示手指触点向右拖动|dx|,若dx<0,表示手指触点向左拖动指,若dy>0,表示手指触点向下拖动,若dy<0,表示手指触点向上拖动;
S28:返回反映当前触控操作的参数,然后将全部的手指触点清零,返回步骤S2。
其中步骤S23是采用K均值聚类方法分割出全部的手指触点,具体的聚类方法为:
将起始时在同一类且结束时也在同一类的手指触点归为一类,将起始时不在一类但结束时在一类或者起始时在一个类,但结束时不在一个类的手指触点作为无效手指触点去除,取两类手指触点中持续时间最长的手指触点作为中心手指触点,由中心手指触点的起始位置和结束位置计算伸缩比例或者平移距离。
关于手指触点的分类问题可以用其他方法取代。如系统聚类方法或者距离分类法,都可以完成手指触点的分类任务。
优选的,所述的步骤S5具体为:
依据最小距离和轨迹方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
优选的,所述的步骤S5具体为:
依据最小距离和速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
优选的,所述的步骤S5具体为:
依据最小距离和加速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
手指触点的标记与跟踪在手指触点出现时进行标记赋予新的ID,在跟踪时也可以通过卡尔曼运动跟踪算法保证手指触点的远动轨迹不会跟错,也可根据别的算法完成。
也可用分级固定比例缩放的方法来计算上述的变缩放比例系数。
综上所述,本发明提供的用于屏幕交互系统的多指触控操作的识别方法,解决了以下的技术问题:多指手指触点的标记和跟踪问题;屏幕窗口伸缩比例和平移大小受手指触点位置太敏感的问题;屏幕窗口在多指触控操作时存在的抖动问题;使用者和屏幕自然交互中的多指触控问题。
以上的实施方式均为本发明的优选实施方式,并非因此限制本发明的专利保护范围。任何本发明所属的技术领域的技术人员,在不脱离本发明所公开的精神和范围的前提下,对本发明的内容所做的等效结构与等效步骤的变换均落入本发明要求保护的专利范围之内。

Claims (5)

1.一种用于屏幕交互系统的多指触控操作的识别方法,其特征在于,包括如下步骤:
S1:开启近红外激光器,让光幕平行于屏幕,并完成手指触点位置的几何校准;
S2:用近红外摄像头采集全部的手指触点的图像;
S3:分割出全部的手指触点;
S4:记录全部的手指触点,并标记手指ID和初始化所述全部的手指触点出现的次数为1;
S5:再次采集全部的手指触点的图像,依据最小距离和运动估计进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1;
S6:当某一ID的手指触点离开屏幕时,结束对当前标记ID触点的跟踪;
S7:当全部的手指触点均离开屏幕时,进行多指触控操作的识别,具体的识别过程包括如下步骤:
a)根据全部的手指触点的起始位置对手指触点进行分类,根据全部的手指触点的结束位置对全部的手指触点进行分类;
b)判断起始时刻在同一类中的手指触点是否结束时仍在同一类中,若在同一类中,那么进行关联,否则删除这些手指触点;
c)选择在两类中出现次数最多的两个触控手指,如果起始位置和结束位置处的X方向的相对变化量ΔX和Y方向的相对变化量ΔY都小于某一设定阈值T,那么认为无有效操作,否则在X方向的动作幅度较大时,即当ΔX>T,ΔY<T时表示在X方向有缩放操作,在X方向的缩放比例系数为Xscale=|ΔX2/ΔX1|,Yscale=1.0,如果Xscale>1.0,表示多指触控操作为X方向的放大操作,如果Xscale<1.0,表示多指触控操作为X方向的缩小操作;在Y方向的动作幅度较大时,即当ΔX<T,ΔY>T时表示在Y方向有缩放操作,在Y方向的缩放比例系数为Yscale=|ΔY2/ΔY1|,Xscale=1.0,如果Yscale>1.0,表示多指触控操作为Y方向的放大操作,如果Yscale<1.0,表示多指触控操作为Y方向的缩小操作;两个方向变化均大时,即当ΔX>T,ΔY>T时根据|ΔR2/ΔR1|来计算缩放比例系数Xscale和Yscale,即Xscale=Yscale=|ΔR2/ΔR1|,如果Xscale>1.0,Yscale>1.0,表示多指触控操作为X方向和Y方向同时缩放操作;
其中设置两手中的一个手指触点的起始位置坐标为(X11,Y11),手指触点的结束位置坐标为(X12,Y12),设置另一个手指触点的起始位置坐标为(X21,Y21),手指触点的结束位置坐标为(X22,Y22),即起始时两手的手指触点位置差为ΔX1=|X21-X11|,ΔY1=|Y21-Y11|,结束时两手的手指触点位置差为ΔX2=|X22-X12|,ΔY2=|Y22-Y12|,
Figure FDA0001119954180000011
Figure FDA0001119954180000012
如果手指触点只能归为一类,即不是两个手的操作,那么识别为单手操作即拖动操作,此时的移动距离用dx和dy来表示,其中dx和dy分别表示手指在X方向和Y方向移动的距离;
其中dx=X12-X11,dy=Y12-Y11,假设屏幕的左上角为坐标原点,若dx>0,表示手指触点向右拖动|dx|,若dx<0,表示手指触点向左拖动,若dy>0,表示手指触点向下拖动,若dy<0,表示手指触点向上拖动;
S8:返回反映当前触控操作的参数,然后将全部的手指触点清零,返回步骤S2。
2.根据权利要求1所述的识别方法,其特征在于,所述的步骤S3具体为:
采用K均值聚类方法分割出全部的手指触点。
3.根据权利要求1所述的识别方法,其特征在于,所述的步骤S5具体为:
依据最小距离和轨迹方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
4.根据权利要求1所述的识别方法,其特征在于,所述的步骤S5具体为:
依据最小距离和速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
5.根据权利要求1所述的识别方法,其特征在于,所述的步骤S5具体为:
依据最小距离和加速度方向进行手指ID的标记和跟踪,更新该手指触点轨迹的结束位置和手指触点出现次数自增加1。
CN201610849672.9A 2016-09-23 2016-09-23 一种用于屏幕交互系统的多指触控操作的识别方法 Active CN106527917B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610849672.9A CN106527917B (zh) 2016-09-23 2016-09-23 一种用于屏幕交互系统的多指触控操作的识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610849672.9A CN106527917B (zh) 2016-09-23 2016-09-23 一种用于屏幕交互系统的多指触控操作的识别方法

Publications (2)

Publication Number Publication Date
CN106527917A CN106527917A (zh) 2017-03-22
CN106527917B true CN106527917B (zh) 2020-09-29

Family

ID=58344224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610849672.9A Active CN106527917B (zh) 2016-09-23 2016-09-23 一种用于屏幕交互系统的多指触控操作的识别方法

Country Status (1)

Country Link
CN (1) CN106527917B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273020A (zh) * 2017-04-28 2017-10-20 北京建筑大学 多指触控操作识别方法和设备
CN109656457B (zh) * 2017-10-10 2021-10-29 北京仁光科技有限公司 多指触控方法、装置、设备及计算机可读存储介质
CN109656393A (zh) * 2017-10-10 2019-04-19 北京仁光科技有限公司 多指触点的跟踪方法、装置、设备及计算机可读存储介质
CN108196728A (zh) * 2017-12-18 2018-06-22 嘉兴仁光乌镇科技有限公司 调节件、检测红外光幕的方法、产生红外光幕的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566899A (zh) * 2009-05-27 2009-10-28 清华大学 一种基于线阵激光的多点触发方法及其系统
CN101611373A (zh) * 2007-01-05 2009-12-23 苹果公司 利用触摸敏感设备控制、操纵和编辑媒体文件的姿态
CN102693025A (zh) * 2011-03-21 2012-09-26 中国科学院软件研究所 一种多点触摸交互系统的触摸手识别方法
WO2013044450A1 (en) * 2011-09-27 2013-04-04 Motorola Mobility, Inc. Gesture text selection
CN104407746A (zh) * 2014-12-01 2015-03-11 湖北印象光电信息产业有限公司 一种基于红外光电技术的多点触摸系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201234223A (en) * 2011-02-01 2012-08-16 Novatek Microelectronics Corp Moving point gesture determination method, touch control chip, touch control system and computer system
CN102855025B (zh) * 2011-12-08 2015-06-17 西南科技大学 一种基于视觉注意模型的光学多点触控触点检测方法
US9430066B2 (en) * 2012-10-17 2016-08-30 Perceptive Pixel, Inc. Input classification for multi-touch systems
CN103823583B (zh) * 2012-11-16 2018-02-27 腾讯科技(深圳)有限公司 一种多点触摸信息的处理方法及装置
CN102938060A (zh) * 2012-12-07 2013-02-20 上海电机学院 动态手势识别系统及方法
CN103207709A (zh) * 2013-04-07 2013-07-17 布法罗机器人科技(苏州)有限公司 一种多点触摸系统及方法
CN105808023B (zh) * 2016-03-14 2019-01-29 青岛海信电器股份有限公司 一种触摸点的识别方法及红外触控装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101611373A (zh) * 2007-01-05 2009-12-23 苹果公司 利用触摸敏感设备控制、操纵和编辑媒体文件的姿态
CN101566899A (zh) * 2009-05-27 2009-10-28 清华大学 一种基于线阵激光的多点触发方法及其系统
CN102693025A (zh) * 2011-03-21 2012-09-26 中国科学院软件研究所 一种多点触摸交互系统的触摸手识别方法
WO2013044450A1 (en) * 2011-09-27 2013-04-04 Motorola Mobility, Inc. Gesture text selection
CN104407746A (zh) * 2014-12-01 2015-03-11 湖北印象光电信息产业有限公司 一种基于红外光电技术的多点触摸系统

Also Published As

Publication number Publication date
CN106527917A (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
CN106527917B (zh) 一种用于屏幕交互系统的多指触控操作的识别方法
RU2711029C2 (ru) Классификация касаний
CN106575170B (zh) 在触摸敏感设备中执行触摸动作的方法
CN109710071B (zh) 一种屏幕控制方法和装置
KR101761050B1 (ko) 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
EP2941756B1 (en) Rendering augmented reality based on foreground object
US7692627B2 (en) Systems and methods using computer vision and capacitive sensing for cursor control
CN102063618B (zh) 互动系统中的动态手势识别方法
KR102347248B1 (ko) 터치 제스쳐 인식 방법 및 장치
US20130050076A1 (en) Method of recognizing a control command based on finger motion and mobile device using the same
TW201303788A (zh) 圖像分割方法以及圖像分割系統
TWI431538B (zh) 基於影像之動作手勢辨識方法及系統
TWI571772B (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
JP2015072534A (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN112949512B (zh) 一种动态手势识别方法、手势交互方法及交互系统
CN103793056A (zh) 基于距离向量的空中手势漫游控制方法
US20140105453A1 (en) Gesture identification with natural images
US20150309583A1 (en) Motion recognizing method through motion prediction
US8749488B2 (en) Apparatus and method for providing contactless graphic user interface
JP6033061B2 (ja) 入力装置およびプログラム
Araki et al. Real-time both hands tracking using camshift with motion mask and probability reduction by motion prediction
WO2015049934A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2015191250A (ja) 情報処理装置、及びその制御方法、プログラム、記録媒体
KR20140011921A (ko) 동작 인식을 사용하여 디바이스의 동작 모드를 제어하는 장치 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220331

Address after: 1610, 16th floor, 101-2-16th floor, building 21, Rongda Road, Chaoyang District, Beijing 100012

Patentee after: Zhongguancun Technology Leasing Co.,Ltd.

Address before: 100084 2nd floor, east area, Shangdi science and technology complex building, No. 22, Shangdi Information Road, Haidian District, Beijing

Patentee before: BEIJING ZEN-AI TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240311

Address after: Room 02-A177, 2nd Floor, Building B, No. 22 Xinxin Road, Haidian District, Beijing, 100084

Patentee after: BEIJING ZEN-AI TECHNOLOGY Co.,Ltd.

Country or region after: China

Address before: 1610, 16th floor, 101-2-16th floor, building 21, Rongda Road, Chaoyang District, Beijing 100012

Patentee before: Zhongguancun Technology Leasing Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right