CN108089773A - 一种基于景深投影的触控识别方法、装置及投影部件 - Google Patents

一种基于景深投影的触控识别方法、装置及投影部件 Download PDF

Info

Publication number
CN108089773A
CN108089773A CN201810064022.2A CN201810064022A CN108089773A CN 108089773 A CN108089773 A CN 108089773A CN 201810064022 A CN201810064022 A CN 201810064022A CN 108089773 A CN108089773 A CN 108089773A
Authority
CN
China
Prior art keywords
touch
control
interference characteristic
depth
characteristic region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810064022.2A
Other languages
English (en)
Other versions
CN108089773B (zh
Inventor
陈维亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rongcheng goer Technology Co.,Ltd.
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN201810064022.2A priority Critical patent/CN108089773B/zh
Publication of CN108089773A publication Critical patent/CN108089773A/zh
Application granted granted Critical
Publication of CN108089773B publication Critical patent/CN108089773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

本发明公开了一种基于景深投影的触控识别方法,包括:利用景深模组数据提取实景图像中触控干扰特征区域;标记触控干扰特征区域的时间;当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;将实景图像与背景图像进行做差处理,得到做差图像;对做差图像执行触控识别处理,并根据触控识别结果执行触控操作;该方法能够识别景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验;本发明公开了一种景深数据获取装置、投影部件、终端设备及计算机可读存储介质,具有上述有益效果。

Description

一种基于景深投影的触控识别方法、装置及投影部件
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于景深投影的触控识别方法、装置、投影部件、终端设备及计算机可读存储介质。
背景技术
目前,用户可以利用景深图像进行投影图像的手势识别,从而对操作系统进行操作。在实际使用过程中利用景深数据进行手势识别时,经常会遇到这样的情形:由于景深投影面比垂直投影面要大一些,且景深投影面是用红外进行扫描的,是不可见的。所以用户会经常出现将手体或者其他物体如茶杯等放入景深投影面的现象,或者是用户在交互的时候,习惯性的将胳膊放在了垂直投影区域。上述现象将使基于景深投影的触控识别算法检测到此位置有交互触控,造成误操作。因此,如何减少误操作,是本领域技术人员需要解决的技术问题。
发明内容
本发明的目的是提供一种基于景深投影的触控识别方法、装置、投影部件、终端设备及计算机可读存储介质,能够识别景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验。
为解决上述技术问题,本发明提供一种基于景深投影的触控识别方法,所述方法包括:
利用景深模组数据提取实景图像中触控干扰特征区域;
标记所述触控干扰特征区域的时间;
当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;
将所述实景图像与所述背景图像进行做差处理,得到做差图像;
对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
可选的,利用景深模组数据提取实景图像中触控干扰特征区域,包括:
计算所述景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
比较所述边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为所述触控干扰特征区域。
可选的,计算所述景深模组数据的二阶梯度,包括:
利用计算所述景深模组数据的二阶梯度;其中,gradient1(i,j)为一阶梯度。
可选的,标记所述触控干扰特征区域的时间,包括:
判断所述触控干扰特征区域是否第一次出现;
若不是,则将触控干扰特征区域对应的时间增加预设值;
若是,则将触控干扰特征区域对应的时间设置为预设值。
可选的,所述方法还包括:
判断所述背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;
若不存在,则将对应的触控干扰特征区域从所述背景图像中删除。
可选的,将所述实景图像与所述背景图像进行做差处理,得到做差图像之前,还包括:
利用景深模组数据提取背景图像中触控干扰特征区域,并将所述触控干扰特征区域保存到背景图像中。
本发明还提供一种基于景深投影的触控识别装置,所述装置包括:
触控干扰特征区域获取模块,用于利用景深模组数据提取实景图像中触控干扰特征区域;
时间标记模块,用于标记所述触控干扰特征区域的时间;
背景图像获取模块,用于当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;
做差模块,用于将所述实景图像与所述背景图像进行做差处理,得到做差图像;
触控模块,用于对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
可选的,所述触控干扰特征区域获取模块,包括:
边缘位置获取单元,用于计算所述景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
触控干扰特征区域获取单元,用于比较所述边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为所述触控干扰特征区域。
可选的,所述边缘位置获取单元具体为:
利用计算所述景深模组数据的二阶梯度的单元;其中,gradient1(i,j)为一阶梯度。
可选的,所述时间标记模块,包括:
判断单元,用于判断所述触控干扰特征区域是否第一次出现;
时间标记单元,用于若不是,则将所述触控干扰特征区域对应的时间增加预设值;若是,则将所述触控干扰特征区域对应的时间设置为所述预设值。
可选的,所述装置还包括:
背景图像更新模块,用于判断所述背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;若不存在,则将对应的触控干扰特征区域从所述背景图像中删除。
可选的,所述装置还包括:
背景图像处理模块,用于利用景深模组数据提取背景图像中触控干扰特征区域,并将所述触控干扰特征区域保存到背景图像中。
本发明还提供一种投影部件,包括:景深模组、垂直投影模组、发光部件以及处理器;其中,
所述处理器,用于利用景深模组数据提取实景图像中触控干扰特征区域;标记所述触控干扰特征区域的时间;当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;将所述实景图像与所述背景图像进行做差处理,得到做差图像;对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
本发明还提供一种终端设备,包括:如上述所述的投影部件。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述所述基于景深投影的触控识别方法的步骤。
本发明所提供的本发明公开了一种基于景深投影的触控识别方法,包括:利用景深模组数据提取实景图像中触控干扰特征区域;标记触控干扰特征区域的时间;当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;将实景图像与背景图像进行做差处理,得到做差图像;对做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
可见,该方法从实景图像中确定满足时间条件的触控干扰特征区域作为背景图像,并将实景图像与背景图像进行做差处理,从而将实景图像中的触控干扰区域去除;即能够去除景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验;本发明还提供了一种景深数据获取装置、投影部件、终端设备及计算机可读存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例所提供的基于景深投影的触控识别方法的流程图;
图2为本发明实施例所提供的具有遮挡物时景深模组数据的示意图;
图3为本发明实施例所提供的二阶梯度计算结果的示意图;
图4为本发明实施例所提供的触控干扰特征区域选择原理示意图;
图5为本发明实施例所提供的触控干扰特征区域示意图;
图6为本发明实施例所提供的另一触控干扰特征区域示意图;
图7为本发明实施例所提供的标记触控干扰特征区域的时间的结果示意图;
图8为本发明实施例所提供的基于景深投影的触控识别装置的结构框图;
图9为本发明实施例所提供的投影部件的结构示意图。
具体实施方式
本发明的核心是提供一种基于景深投影的触控识别方法,能够可以减少误操作;本发明的另一核心是提供一种基于景深投影的触控识别装置、投影部件、终端设备及计算机可读存储介质。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例的执行主体包含景深模组和垂直投影模组,其交互方式为,垂直投影模组与后台相连接,投影出后台提供的数据。例如垂直投影模组与安卓手机相连接,通过垂直投影模组可以将安卓APP投影出来,用户可以用手指在桌面上进行相应的操作。
实际中利用景深数据进行触控识别(例如手势识别)时,经常会碰见这样的情形:由于景深模组投影面比垂直投影面要大一些,且景深模组投影面是用红外进行扫描的,是不可见的,所以用户会经常出现将手体或者其他物体如茶杯等放入景深投影面的现象,这将使基于景深投影的触控识别算法检测到此位置有交互触控,造成误操作;还有一个常见情形用户在交互的时候,习惯性的将胳膊放在了垂直投影区域,也会检测到此位置有交互触控,造成误操作。
本实施例通过引入时间概念,能够将实景图像中满足时间条件的触控干扰特征区域去除,即使得以往技术中难以解决的类似于茶杯问题,手臂问题等干扰区域的问题得到较好的解决,增加了用户的体验感。具体请参考图1,图1为本发明实施例所提供的基于景深投影的触控识别方法的流程图;该方法可以包括:
S100、利用景深模组数据提取实景图像中触控干扰特征区域;
具体的,由于景深模组数据反映了景深模组投影面到投影部件之间的距离,因此当该区域内存在茶杯、胳膊或者其他物体,就会造成这些部位对应的景深模组数据发生变化。即出现遮挡物体时,该区域对应的景深模组数据即表示了遮挡物到投影部件之间的距离,很明显该距离会小于没有遮挡物遮挡该区域时,投影面到投影部件的距离。例如请参考图2,图2是白色矩形区域为景深模组图像投影区域,当在其右下角有一个茶杯(黑色圆形区域),这时就会对景深模组数据产生较大影响,需要强调的是景深模组数据的意义是桌面上的点到景深模组的距离,所以当有手体进入时,测得的距离将会是景深模组到手体的距离,这显然小于景深模组到桌面的距离。所以图2中,当右下角有一个水杯,则水杯区域由于受到阻挡,由景深模组测得的数据在该区域将会变小。因此,本实施例可以根据景深模组数据提取实景图像中触控干扰特征区域。本实施例并不限定具体的提取实景图像中触控干扰特征区域的方法,只要能够通过景深模组数据的变化确定具有遮挡物的区域(即触控干扰特征区域)即可。例如可以通过二阶求导的方法提取。本实施例并不限定具体使用的算法,用户可以根据各种算法对应的硬件需求,计算时长等条件进行选取。
本实施例为了提高计算效率,简化算法。优选的,利用景深模组数据提取实景图像中触控干扰特征区域可以包括:
计算景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
本实施例之所以选择使用二阶梯度即二阶导数的形式,而不是一阶导数原因是:一阶导数反应的是整个面的倾斜情况,而二阶导数反应的是整个面的最值点情况。简单的说,对于一个倾斜的平面,一阶导数值即为此斜面的倾斜度,而二阶导数则反应了倾斜度的倾斜度,即原数据的坑坑洼洼。即通过二阶求导可以确定触控干扰特征区域的边缘位置。
优选的,计算景深模组数据的二阶梯度可以包括:
利用计算景深模组数据的二阶梯度;
具体的,其中,data(i,j)为景深模组数据,gradient1(i,j)为基于景深模组数据的一阶梯度,gradient2(i,j)为基于景深模组数据的二阶梯度,以图2为例其gradient2结果如图3所示,在图3中只有茶杯边缘是较大数值,其余位置都为0,由此可以找到茶杯边缘位置,即触控干扰特征区域的边缘位置。
比较边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为触控干扰特征区域。
其中,经过上一个步骤仅仅是确定了触控干扰特征区域的边缘位置,但是触控干扰特征区域的边缘位置对应的那个区域才是触控干扰特征区域呢,请参考图4,以图4为例说明上述过程。从gradient2中得到一行数据,此数据是带有茶杯边缘位置的,具体如图4上部分所示,在二阶梯度数据中,最边上的数据是边界点即两端数据是边界点,中部黑色方块对应的数据点是二阶梯度较大的点即茶杯的边界位置点,下面要确定的是底茶杯在边界位置点的左侧还是右侧。将利用图4下部分进行解决,图4上部分与图4下部分是相同的坐标位置点,不同的是下图的数据点来自原始景深数据即data,由图4下部分可以看出,以茶杯边界点坐标为分界线,茶杯区域data值小,非茶杯区域data值大,由此可以得到图2中的茶杯区域为坐下角部分,即触控干扰特征区域。即根据其坐标和对应的data值作为特征提取即触控干扰特征区域。
下面以胳膊为例说明上述触控干扰特征区域确定过程。请参考5,表示在左下角用户将一个胳膊伸进了景深投影区域,利用上述过程也可以得到该区域点的坐标即对应的data值,进而可以提取到左下角区域为触控干扰特征区域。当同时具有左下角的胳膊和右下角的茶杯时,提取触控干扰特征区域后的示意图可以参考图6。
S110、标记触控干扰特征区域的时间;
S120、当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;
具体的,步骤S110和步骤S120的主要目的是为了从提取到的触控干扰特征区域中排出正常用户交互时对应的区域。例如当用户需要用手指在垂直投影模组的投影面进行触控操作时,也会采集到相应区域对应的景深模组数据变小。即按照上述步骤S100也会将该区域作为触控干扰特征区域。但是很明显其不是,而是用户的正常操作。因此为了保证用户的正常操作能够被识别。本实施例需要区分遮挡物和触控物体(例如手指)。本实施例并不对触控物体和遮挡物的具体种类进行限定。例如只要是系统规定的能够实现触控操作的物体都可以是触控物体(例如用户手指等),不是系统规定的能够实现触控操作的物体都可以是遮挡物(例如茶杯、胳膊等)。
由于正常用户需要出发一个操作时,触控物体停留在投影面的时间不长(因为触控操作执行完就会离开),但是遮挡物则停留时间很长(因为遮挡物不会自己移出投影面,只有在用户意识到其为遮挡物时才会被移开)。因此本实施例可以通过时间来区分两者。进而只选取满足时间条件的触控干扰特征区域作为背景图像进行后续处理。即触控干扰特征区域的时间超过预设时间阈值将其作为背景看待,而不进行相应交互操作。即用户误进入景深模组投影区域的手体和茶杯将不会进行相应的检测,也就不会有相应的操作反馈,即将用户的误操作消除掉,提高体验效果。
本实施例并不限定预设时间阈值的具体数值,可以由用户进行设定和修改。当然其也可以是帧数数值,通过帧数数值来表示时间。例如所用投影部件是奥比中光的,采集每帧图像大约需要33ms,可以选取100帧作为阈值,相当于100*33ms=3.3s即若该特征在3.3s内都为改变,则将其作为背景图像,进行后续处理,需要强调的是,若某些特征区域若还没有达到阈值,不作为背景图像进行处理。
本实施例也不限定标记触控干扰特征区域的时间的方式。例如可以通过记录该触控干扰特征区域连续出现的帧数确定触控干扰特征区域的时间。例如所用投影部件是奥比中光的,采集每帧图像大约需要33ms,而对于算法而言是对每幅图像一帧一帧处理的,所以本实施例可以采用计帧的形式。结果如图7所示,右下角特征持续13帧仍未改变,左下角持续4帧没有改变。
优选的,标记触控干扰特征区域的时间可以包括:
判断所述触控干扰特征区域是否第一次出现;
若不是,则将触控干扰特征区域对应的时间增加预设值;
若是,则将触控干扰特征区域对应的时间设置为预设值。
具体的,本实施例并不限定预设值的数值,例如可以是一帧图像对应的时间。若不是,则证明其连续出现很有可能就是遮挡物对应的区域,因此将触控干扰特征区域对应的时间增加预设值后作为该区域对应的新的时间。例如当用户选择用帧数记录时间时,若不是,则确定该触控干扰特征区域对应的帧数,并将该帧数加1,作为该触控干扰特征区域对应的时间对应的帧数。若是,则证明该触控干扰特征区域是第一次出现,其很有可能是触控物体,因此需要记录其时间,但是此时并不会将其保存在背景图像中。当得到触控干扰特征区域时,则开始计时,由于每个触控干扰特征区域得到的时间不同,所以计时的开始时间是不同的。
S130、将实景图像与背景图像进行做差处理,得到做差图像;
具体的,通过做差处理可以将背景图像从实景图像中去除,因此得到的做差图像即不存在背景图像的干扰,即将遮挡物给去除掉。相当于不对其进行触控检测,使其没有交互作用。因此利用做差图像进行后续处理,可以提高触控识别结果,减少误操作,从而提高用户体验。
本实施例并不限定具体的做差处理的方式,用户可以根据实际情况选择合适的算法执行该步骤。
S140、对做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
具体的,该步骤执行触控识别处理。本实施例并不限定具体的触控识别处理的算法。用户可以根据实际情况选择合适的算法。当然也可以使用现有技术中的触控识别算法。
基于上述技术方案,本发明实施例提供的基于景深投影的触控识别方法,该方法从实景图像中确定满足时间条件的触控干扰特征区域作为背景图像,并将实景图像与背景图像进行做差处理,从而将实景图像中的触控干扰区域去除;即能够去除景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验。
基于上述实施例,本实施例还可以包括:
判断背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;
若不存在,则将对应的触控干扰特征区域从背景图像中删除。
具体的,由于遮挡物不一定就会在本次使用投影部件时一直存在于景深模组投影面中,因此为了保证得到的背景图像的可靠性,需要及时对背景图像进行更新。即在每一次提取实景图像中的触控干扰特征区域后,要判断背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中,若不存在,则将对应的触控干扰特征区域从背景图像中删除。若存在,可以继续执行后续步骤。例如当背景图像中存在图6中右下角区域,但是实景图像中中并没有提取到该区域,则可以证明右下角的茶杯已经被用户移出,因此右下角不存在干扰即不会对后续操作带来影响,此时需要将其从背景图像中删除。
进一步,在判断背景图像中各触控干扰特征区域是否存在实景图像中触控干扰特征区域中时,由于当触控干扰特征区域出现平移时,不能认为触控干扰特征区域发生改变。比如用户将胳膊放进了景深模组投影区域,但是他并没有意识到,随着用户的操作,胳膊会有相应的水平移动,但是其仍然为遮挡物。为了避免触控干扰特征区域出现平移时而将其移出的情况,本实施例中可以当背景图像中各触控干扰特征区域与实景图像中触控干扰特征区域重合度大于阈值时,即可以认定为存在。本实施例并不限定阈值的具体数值。此时为了后续做差处理更加准确,可以直接将实景图像中触控干扰特征区域替换背景图像中对应的触控干扰特征区域。
进一步,当触控干扰特征区域data值减少时,不能认为触控干扰特征区域发生改变。比如当一个茶杯放在了景深模组投影区域,而用户并没有意识到,仍然将手从茶杯上方伸进景深模组投影区域进行交互操作,这个过程中,由于手又遮挡了茶杯会造成该区域某些data值减小。因此只有在触控干扰特征区域data值增大时,认为是触控干扰特征区域改变了。这是因为当触控干扰特征区域对应的物体从此区域移开时,由于没有了遮挡,景深模组将可以直接测得模组到桌面的距离,即此位置的data值增大。
基于上述技术方案,本发明实施例提供的基于景深投影的触控识别方法,该方法从实景图像中确定满足时间条件的触控干扰特征区域作为背景图像,并将实景图像与背景图像进行做差处理,从而将实景图像中的触控干扰区域去除;即能够去除景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验。并能够及时对背景图像进行更新,提高触控识别的可靠性。
基于上述任意实施例,本实施例将实景图像与背景图像进行做差处理,得到做差图像之前,还可以包括:
利用景深模组数据提取背景图像中触控干扰特征区域,并将触控干扰特征区域保存到背景图像中。
具体的,为了进一步减少误操作,本实施例中利用景深模组数据提取背景图像中触控干扰特征区域,并将触控干扰特征区域保存到背景图像中。可以看到当每一次开始使用投影部件进行投影时,若景深模组投影区域存在遮挡物时,则一般情况下会一直存在,若此时还需要对其计时的话,那么在预定时间阈值内,还遮挡物对应的触控干扰特征区域将不会被清除,因此需要对该触控干扰特征区域进行触控识别,从而还会在短时间内造成误操作。因此,为了进一步提高用户体验,减少误操作。本实施例中在背景图像中提取到的触控干扰特征区域不需要计时,直接可以保存到背景图像中。
因此本实施例区分对待触控干扰特征区域,对于来自背景图像的触控干扰特征区域,就算没有达到预设时间阈值也要作为背景看待;对于来自实景图像的触控干扰特征区域,没有达到预设时间阈值时,不能作为背景图像处理,而应该作为正常的触控进行检测(如用户按住某个按键不放的操作)。
基于上述技术方案,本发明实施例提供的基于景深投影的触控识别方法,该方法从实景图像中确定满足时间条件的触控干扰特征区域作为背景图像,并将实景图像与背景图像进行做差处理,从而将实景图像中的触控干扰区域去除;即能够去除景深模组数据中非用户触控操作对应的数据,可以减少误操作,提高用户体验。并能够进一步提高用户体验,减少误操作。
下面对本发明实施例提供的基于景深投影的触控识别装置、投影部件、终端设备及计算机可读存储介质进行介绍,下文描述的基于景深投影的触控识别装置、投影部件、终端设备及计算机可读存储介质与上文描述的基于景深投影的触控识别方法可相互对应参照。
请参考图8,图8为本发明实施例所提供的基于景深投影的触控识别装置的结构框图;该装置可以包括:
触控干扰特征区域获取模块100,用于利用景深模组数据提取实景图像中触控干扰特征区域;
时间标记模块200,用于标记触控干扰特征区域的时间;
背景图像获取模块300,用于当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;
做差模块400,用于将实景图像与背景图像进行做差处理,得到做差图像;
触控模块500,用于对做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
基于上述实施例,触控干扰特征区域获取模块100可以包括:
边缘位置获取单元,用于计算景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
触控干扰特征区域获取单元,用于比较边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为触控干扰特征区域。
基于上述实施例,边缘位置获取单元具体为:
利用计算景深模组数据的二阶梯度的单元;其中,gradient1(i,j)为一阶梯度。
基于上述任意实施例,时间标记模块200可以包括:
判断单元,用于判断所述触控干扰特征区域是否第一次出现;
时间标记单元,用于若不是,则将所述触控干扰特征区域对应的时间增加预设值;若是,则将所述触控干扰特征区域对应的时间设置为所述预设值。
基于上述任意实施例,该装置还可以包括:
背景图像更新模块,用于判断背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;若不存在,则将对应的触控干扰特征区域从背景图像中删除。
基于上述任意实施例,该装置还可以包括:
背景图像处理模块,用于利用景深模组数据提取背景图像中触控干扰特征区域,并将触控干扰特征区域保存到背景图像中。
需要说明的是,基于上述任意实施例,所述装置可以是基于可编程逻辑器件实现的,可编程逻辑器件包括FPGA,CPLD,单片机等。
本发明实施例还提供一种投影部件,其可以包括:景深模组、垂直投影模组、发光部件以及处理器;其中,
处理器,用于利用景深模组数据提取实景图像中触控干扰特征区域;标记触控干扰特征区域的时间;当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;将实景图像与背景图像进行做差处理,得到做差图像;对做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
其中,本实施例并不对发光部件进行限定,例如发光部件可以是LED。
进一步,基于上述实施例,该投影部件还可以包括TF卡槽、辅助扬声器以及状态指示器等。具体可以参考图9。
具体的,本实施例并不对上述投影部件进行限定,例如可以是可交互的投影灯。
本发明实施例还提供一种终端设备,其可以包括:上述任意实施例的投影部件。
具体的,本实施例并不对上述终端设备进行限定,例如可以是手机。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现利用景深模组数据提取实景图像中触控干扰特征区域;标记触控干扰特征区域的时间;当时间超过预设时间阈值,则将触控干扰特征区域保存到背景图像中;将实景图像与背景图像进行做差处理,得到做差图像;对做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种基于景深投影的触控识别方法、装置、投影部件、终端设备及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (15)

1.一种基于景深投影的触控识别方法,其特征在于,所述方法包括:
利用景深模组数据提取实景图像中触控干扰特征区域;
标记所述触控干扰特征区域的时间;
当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;
将所述实景图像与所述背景图像进行做差处理,得到做差图像;
对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
2.根据权利要求1所述的方法,其特征在于,利用景深模组数据提取实景图像中触控干扰特征区域,包括:
计算所述景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
比较所述边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为所述触控干扰特征区域。
3.根据权利要求2所述的方法,其特征在于,计算所述景深模组数据的二阶梯度,包括:
利用
计算所述景深模组数据的二阶梯度;其中,gradient1(i,j)为一阶梯度。
4.根据权利要求1所述的方法,其特征在于,标记所述触控干扰特征区域的时间,包括:
判断所述触控干扰特征区域是否第一次出现;
若不是,则将触控干扰特征区域对应的时间增加预设值;
若是,则将触控干扰特征区域对应的时间设置为预设值。
5.根据权利要求1所述的方法,其特征在于,还包括:
判断所述背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;
若不存在,则将对应的触控干扰特征区域从所述背景图像中删除。
6.根据权利要求1-5任一项所述的方法,其特征在于,将所述实景图像与所述背景图像进行做差处理,得到做差图像之前,还包括:
利用景深模组数据提取背景图像中触控干扰特征区域,并将所述触控干扰特征区域保存到背景图像中。
7.一种基于景深投影的触控识别装置,其特征在于,所述装置包括:
触控干扰特征区域获取模块,用于利用景深模组数据提取实景图像中触控干扰特征区域;
时间标记模块,用于标记所述触控干扰特征区域的时间;
背景图像获取模块,用于当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;
做差模块,用于将所述实景图像与所述背景图像进行做差处理,得到做差图像;
触控模块,用于对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
8.根据权利要求7所述的装置,其特征在于,所述触控干扰特征区域获取模块,包括:
边缘位置获取单元,用于计算所述景深模组数据的二阶梯度,并根据二阶梯度确定触控干扰特征区域的边缘位置;
触控干扰特征区域获取单元,用于比较所述边缘位置两侧区域对应的景深模组数据,并选取景深模组数据较小的一侧区域作为所述触控干扰特征区域。
9.根据权利要求8所述的装置,其特征在于,所述边缘位置获取单元具体为:
利用
计算所述景深模组数据的二阶梯度的单元;其中,gradient1(i,j)为一阶梯度。
10.根据权利要求7所述的装置,其特征在于,所述时间标记模块,包括:
判断单元,用于判断所述触控干扰特征区域是否第一次出现;
时间标记单元,用于若不是,则将所述触控干扰特征区域对应的时间增加预设值;若是,则将所述触控干扰特征区域对应的时间设置为所述预设值。
11.根据权利要求7所述的装置,其特征在于,还包括:
背景图像更新模块,用于判断所述背景图像中各触控干扰特征区域是否均存在实景图像中触控干扰特征区域中;若不存在,则将对应的触控干扰特征区域从所述背景图像中删除。
12.根据权利要求7-11任一项所述的装置,其特征在于,还包括:
背景图像处理模块,用于利用景深模组数据提取背景图像中触控干扰特征区域,并将所述触控干扰特征区域保存到背景图像中。
13.一种投影部件,其特征在于,包括:景深模组、垂直投影模组、发光部件以及处理器;其中,
所述处理器,用于利用景深模组数据提取实景图像中触控干扰特征区域;标记所述触控干扰特征区域的时间;当所述时间超过预设时间阈值,则将所述触控干扰特征区域保存到背景图像中;将所述实景图像与所述背景图像进行做差处理,得到做差图像;对所述做差图像执行触控识别处理,并根据触控识别结果执行触控操作。
14.一种终端设备,其特征在于,包括:如权利要求13所述的投影部件。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于景深投影的触控识别方法的步骤。
CN201810064022.2A 2018-01-23 2018-01-23 一种基于景深投影的触控识别方法、装置及投影部件 Active CN108089773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810064022.2A CN108089773B (zh) 2018-01-23 2018-01-23 一种基于景深投影的触控识别方法、装置及投影部件

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810064022.2A CN108089773B (zh) 2018-01-23 2018-01-23 一种基于景深投影的触控识别方法、装置及投影部件

Publications (2)

Publication Number Publication Date
CN108089773A true CN108089773A (zh) 2018-05-29
CN108089773B CN108089773B (zh) 2021-04-30

Family

ID=62182601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810064022.2A Active CN108089773B (zh) 2018-01-23 2018-01-23 一种基于景深投影的触控识别方法、装置及投影部件

Country Status (1)

Country Link
CN (1) CN108089773B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429348A (zh) * 2020-03-20 2020-07-17 中国铁建重工集团股份有限公司 一种图像生成方法、装置、系统及可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1950722A (zh) * 2004-07-30 2007-04-18 松下电工株式会社 个体检测器和共入检测设备
CN102023740A (zh) * 2009-09-23 2011-04-20 比亚迪股份有限公司 一种触控装置的动作识别方法
CN104182968A (zh) * 2014-08-05 2014-12-03 西北工业大学 宽基线多阵列光学探测系统模糊动目标分割方法
CN104793784A (zh) * 2015-03-23 2015-07-22 中国科学技术大学先进技术研究院 一种基于深度数据的模拟触摸操作系统及操作方法
US20160163054A1 (en) * 2011-01-31 2016-06-09 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
CN106610757A (zh) * 2016-08-26 2017-05-03 北京数科技有限公司 一种投影触控方法、装置及设备
CN107102803A (zh) * 2017-04-27 2017-08-29 努比亚技术有限公司 一种图片显示方法、设备和计算机可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1950722A (zh) * 2004-07-30 2007-04-18 松下电工株式会社 个体检测器和共入检测设备
CN102023740A (zh) * 2009-09-23 2011-04-20 比亚迪股份有限公司 一种触控装置的动作识别方法
US20160163054A1 (en) * 2011-01-31 2016-06-09 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
CN104182968A (zh) * 2014-08-05 2014-12-03 西北工业大学 宽基线多阵列光学探测系统模糊动目标分割方法
CN104793784A (zh) * 2015-03-23 2015-07-22 中国科学技术大学先进技术研究院 一种基于深度数据的模拟触摸操作系统及操作方法
CN106610757A (zh) * 2016-08-26 2017-05-03 北京数科技有限公司 一种投影触控方法、装置及设备
CN107102803A (zh) * 2017-04-27 2017-08-29 努比亚技术有限公司 一种图片显示方法、设备和计算机可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429348A (zh) * 2020-03-20 2020-07-17 中国铁建重工集团股份有限公司 一种图像生成方法、装置、系统及可读存储介质

Also Published As

Publication number Publication date
CN108089773B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN104571693B (zh) 信息处理方法及电子设备
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
WO2014127697A1 (en) Method and terminal for triggering application programs and application program functions
US8934673B2 (en) Image processing method and apparatus for detecting target
US11386717B2 (en) Fingerprint inputting method and related device
KR20100138602A (ko) 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
EP2787416A1 (en) Information operation display system, display program, and display method
CN104978133A (zh) 一种用于智能终端的截屏方法和装置
US20130154947A1 (en) Determining a preferred screen orientation based on known hand positions
CN109391833B (zh) 一种智能电视的语音控制方法及智能电视
JP6455186B2 (ja) 指先位置推定装置、指先位置推定方法、及び、プログラム
CN106406701B (zh) 一种防止触控终端误操作的方法、系统及触控终端
US10126940B2 (en) Touch zones on a soft keyboard
CN111957040A (zh) 遮挡位置的检测方法、装置、处理器及电子装置
US10269136B2 (en) System and method for processing depth images which capture an interaction of an object relative to an interaction plane
CN106681636A (zh) 一种防误触的方法、装置及移动终端
WO2015131590A1 (zh) 一种控制黑屏手势处理的方法及终端
CN113505707A (zh) 吸烟行为检测方法、电子设备及可读存储介质
WO2016145873A1 (zh) 误操作识别方法和装置
US20140232672A1 (en) Method and terminal for triggering application programs and application program functions
CN106484614A (zh) 一种核对图片处理效果的方法、装置及移动终端
CN109740430B (zh) 指纹录入方法及相关设备
CN108089773A (zh) 一种基于景深投影的触控识别方法、装置及投影部件
CN107688426A (zh) 选中目标物体的方法和装置
CN107480499B (zh) 触屏设备工作中的儿童锁控制方法、装置及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210728

Address after: 264300 No. 699, Jiangjun South Road, Rongcheng City, Weihai City, Shandong Province

Patentee after: Rongcheng goer Technology Co.,Ltd.

Address before: 266100 Room 308, Beizhai Street Investment Service Center, Laoshan District, Qingdao City, Shandong Province

Patentee before: GOERTEK TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right