CN108089772A - 一种投影触控方法和装置 - Google Patents
一种投影触控方法和装置 Download PDFInfo
- Publication number
- CN108089772A CN108089772A CN201810035500.7A CN201810035500A CN108089772A CN 108089772 A CN108089772 A CN 108089772A CN 201810035500 A CN201810035500 A CN 201810035500A CN 108089772 A CN108089772 A CN 108089772A
- Authority
- CN
- China
- Prior art keywords
- touch
- point
- distance
- projection
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种投影触控方法和装置。所述方法包括:在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离;在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;根据所述触控区域确定所述触控物体的触控点;在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。本发明能够提高投影触控的准确性。
Description
技术领域
本发明涉及投影技术领域,特别涉及一种投影触控方法和装置。
背景技术
随着电子装置朝向多功能化发展,传统的按键式操作界面或触摸屏式交互界面已渐渐无法满足使用者的需求。在此情形下,交互式技术便开始蓬勃发展,支持投影触控的投影设备越来越受到关注。
目前,投影设备主要基于红外线的深度视觉方法进行触控物体的定位和识别,这种方法需要投影设备的投影面为绝对平面,若投影面有凹凸不平,投影设备可能无法准确识别触控动作,造成误判,影响用户体验。
发明内容
本发明提供了一种投影触控方法和装置,以解决现有投影触控技术中投影触控准确度低的问题。
为达到上述目的,本发明的技术方案是这样实现的:
一方面,本发明提供了一种投影触控方法,应用于投影设备,所述投影设备投射不可见激光至投影面,所述不可见激光形成的不可见激光区域覆盖所述投影面,所述方法包括:
在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,所述投影距离指示所述投影点在投影面上的位置;
在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;
根据所述触控区域确定所述触控物体的触控点;
在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。
另一方面,本发明提供了一种投影触控装置,应用于投影设备,所述投影设备投射不可见激光至投影面,所述不可见激光形成的不可见激光区域覆盖所述投影面,所述装置包括:
投影距离更新单元,用于在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,所述投影距离指示所述投影点在投影面上的位置;
触控区域确定单元,用于在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;
触控点确定单元,用于根据所述触控区域确定所述触控物体的触控点;
触控动作响应单元,用于在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。
本发明的有益效果是:本发明一方面在投影设备的投影深度发生变化时,通过接收投影面对不可见激光的反射光,更新投影面上各个投影点的投影距离,利用更新后的投影距离计算触控点的投影深度,避免投影设备的投影深度发生变化时,无法准确识别触控物体,将触控物体的触控动作误判;另一方面,在发生触控物体的触控动作时,通过对投影距离发生变化的区域进行分析,确定触控物体的触控点,基于触控点的投影深度与预设距离的关系响应触控动作,提高投影触控的准确性。
附图说明
图1为投影设备的示意图;
图2为投影设备的工作原理示意图;
图3为本发明实施例提供的投影触控方法的流程图;
图4为本发明实施例提供的投影效果示意图;
图5为本发明实施例提供的手指操作投影面的示意图;
图6为本发明实施例提供的手指的触控区域分布示意图;
图7为本发明实施例提供的手指指尖模型示意图;
图8为本发明实施例提供的投影角度侧视图;
图9为本发明实施例提供的投影角度俯视图;
图10为本发明实施例提供的手指的投影角度侧视图;
图11为本发明实施例提供的手指的投影角度俯视图;
图12为本发明实施例提供的投影触控装置的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为提高投影触控的准确性,本发明实施例提供了一种投影触控方法和装置,本发明实施例所提供的投影触控方法和装置应用于投影设备。
为便于了解本发明实施例的投影触控方案,本发明实施例首先对投影设备的组成和工作原来进行说明。
图1为投影设备的示意图,本实施例的投影设备主要包括激光接收器、PCBA、显示模组和光学组件四个部分。PCBA(Printed Circuit Board+Assembly,装配印刷电路板)用于产生图像信号以及对于接收的激光信号进行分析计算,以检测触控物体的动作。与PCBA相连的显示模组用于将图像信号转化为激光信号,并通过与之相连的光学组件改变发射角度,投影出来。激光接收器用于接收返回的激光信号,并将其转化为电信号给PCBA。
在投影设备工作时,如图2所示,PCBA首先发送原始图像的电信号到显示模组,显示模组将电信号转化为激光信号后,一方面通过光学组件将部分激光信号发射到投影面,另一方面通过内部镜片将部分激光信号反射到激光接收器。投影面漫反射返回的激光,传送到激光接收器,通过计算发送与接收信号的时间差来确定投影距离。当触控物体对投影面进行操作时,会导致被触控物体拦截的激光信号所对应的投影距离产生动态变化,从而检测触控物体的各种触控动作。
其中,本实施例的投影设备在利用显示模组将电信号转换为激光信号时,可以将原始图像的电信号转换为可见激光信号,并在可见激光信号中叠加不可见激光信号,通过光学组件投射激光信号,其中可见激光形成投影画面于实体平面,即形成了投影面,不可见激光形成的不可见激光区域覆盖该投影区域。对于该可见激光与不可见激光,通过光学设计的方法将它们和束,实现信号叠加,使得投影面上显示的投影画面中的每个像素,除了具有可见激光元素之外,还叠加了一个不可见激光元素,也就是说,投影画面中的每个像素包含可见激光及不可见激光两个部分。
图3为本发明实施例提供的投影触控方法的流程图,如图3所示,本实施例的方法包括:
S310,在投影设备的投影深度发生变化时,根据接收投影面对不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,投影距离指示投影点在投影面上的位置。
本实施例在投影设备的摆放角度或投影面的平整程度发生变化时,通过接收投影面对不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离。
如图4所示,当投影设备投射的不可见激光到达实体平面进而被该实体平面反射时,就形成了该不可见激光的反射光。投影设备的PCBA基于激光测距原理,首先进行发送和接收激光信号的匹配,匹配成功后计算传送时延,从而得到投影距离。
由于投影面中的每个投影点位置包含可见激光及不可见激光两个部分,所以每个投影点位置对应的反射光是对应于该投影点包含的可见激光的,也就是说,该反射光是与包含可见激光的投影点位置一一对应的。因此,本实施例利用投影距离指示投影点在投影面上的位置。其中,本实施例的不可见激光可以为红外激光。
S320,在接收到触控物体对不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域。
本实施例在接收到触控物体对不可见激光的反射光时,根据更新后各个投影点的投影距离确定发生变化的投影距离。
当触控物体对投影面进行触控操作时,将导致部分投影点所对应的投影距离变短,被遮挡的部分往往呈片状分布,且相互之间有部分投影点的投影距离不变。因此,本实施例基于该分布规律对各个片状区域的投影距离进行核对,确定触控物体的触控区域。
需要说明的是,本实施例确定的触控物体的触控区域可以为一个或多个。进一步需要说明的是,本实施例的触控物体在投影面上映射为一个或多个点;示例性的,本实施例的触控物体可以为真实用户的手部、脚部等部位,如手部的每个手指可以映射为投影面上的一个点;本实施例的触控物体也可以为具有不可见激光反射能力的反射物体,如反射笔。
S330,根据触控区域确定触控物体的触控点。
本实施例可以根据预设策略确定触控区域的所述触控物体的触控点,本实施例的触控点表征触控物体关键点。如当触控物体为手部时,触控点为手部的手指或手指弯曲时关节的反射点。
S340,在触控点的投影深度小于预设距离时,响应触控物体的触控操作,投影深度指示触控点相对于投影面的距离。
为了避免投影面的凹凸性对投影触控的准确性造成不良影响,计算出触控物体的各个触摸点与投影面之间的距离后,可以将该距离与该预设距离进行比较,以判定触控动作是否有效,在根据比较结果进行触控操作。
其中,该预设距离可以根据实际操作需要及用户习惯进行设定,由于一般触控物体本身是具有一定厚度,所以可以进一步根据所使用的触控物体进行设定,例如,可以设置为1厘米、1.5厘米等,在此不做具体限定。当判断出该距离小于该预设距离时,说明触控物体对应的触控动作是有效的,那么便可以响应该触控动作。该触控动作可能为点击、滑动、长按以及双击等触控动作,在此不做具体限定。
而判断出该距离不小于该预设距离时,说明该触控动作是无效的,很可能为误操作,不响应任何操作。
本实施例一方面在投影设备的投影深度发生变化时,通过接收投影面对不可见激光的反射光,更新投影面上各个投影点的投影距离,利用更新后的投影距离计算触控点的投影深度,避免投影设备的投影深度发生变化时,无法准确识别触控物体,将触控物体的触控动作误判;另一方面,在发生触控物体的触控动作时,通过对投影距离发生变化的区域进行分析,确定触控物体的触控点,基于触控点的投影深度与预设距离的关系响应触控动作,提高投影触控的准确性。
当触控物体对投影面进行触控操作时,如图5所示,图5示出手指对投影面进行操作时,将导致部分投影点所对应的投影距离变短,被遮挡的部分往往呈片状分布,且相互之间有部分投影点的投影距离不变。因此,本实施例基于该分布规律对各个片状区域的投影距离进行核对,确定触控物体的触控区域。
在本发明的一个实施例中,根据发生变化的投影距离确定触控物体对不可见激光的反射点在投影面上的位置,根据反射点在投影面上的位置,进行预设形状区域识别,得到触控物体的一个或多个触控区域,每个触控区域包括一个或多个反射点。
如图6所示,图6示出的投影面划分为13*13个区域,字母标记为行,数字标记为列,则中指指尖对应的触控区域为H6区域,食指指尖对应的触控区域为I4区域。图6仅仅示例性示出单手的两个手指指尖对应的触控区域,实际应用中,触控物体也可为双手手指,单手可能出现手指指尖对应三至五个触控区域的情况。
以图6所示的手指对投影面进行操作为例,根据手指对不可见激光的反射光可以确定发生变化的投影距离为H6区域和I4区域的投影距离,根据发生变化的投影距离获得食指和中指的反射点的位置,即获得食指和中指的全部反射点在投影面上的坐标,可以现有的边缘检测算法,基于反射点的坐标进行预设形状区域识别,如进行环形、方形等形状的区域识别,得到相应于食指和中指的两个触控区域。
在确定触控物体的触控区域之后,根据反射点在投影面上的位置,从每个触控区域内提取满足预设条件的反射点;根据所提取的反射点的投影距离,确定所提取的反射点的投影深度;根据所提取的反射点的投影深度与预设距离的关系,确定触控物体的触控点。
以图6示出的触控物体为手指为例,中指指尖对应的H6触控区域中,获取中指指尖的全部反射点在投影面上的位置,即反射点在投影面上的坐标,可以对H6触控区域的全部反射点中单一坐标最大最小的点进行提取;假设H6触控区域的全部反射点的坐标依次(1,2)、(1,5)、(2,3)、(3,4)、(4,5)、
(5,5),则需要提取(1,2)、(1,5)、(4,5)和(5,5)四个反射点,所提取的四个反射点包含指尖或手指弯曲时关节的反射点。也可以基于反射点进行曲线拟合,基于反射点在曲线上的斜率进行反射点提取,在此不做具体限定。
在提取出满足预设条件的反射点之后,获得所提出的反射点的投影深度,将投影深度小于预设距离的反射点确定为目标点;根据目标点的不可见激光的出射角度和投影距离,获取目标点的边缘点和触控物体的倾斜角度;根据边缘点和倾斜角度确定触控物体的触控点。
其中,本实施例根据下述方法确定反射点的投影深度:
根据投影点的投影距离和不可见激光的出射角度,分别计算投影点相对于投影设备的垂直距离和投影点相对于投影设备的水平距离,水平距离指示反射点在投影面上的位置;
根据反射点的投影距离和不可见激光的出射角度,分别计算反射点相对于投影设备的垂直距离和反射点相对于投影设备的水平距离;
根据反射点的水平距离确定反射点对应的投影点,根据反射点的垂直距离和反射点对应的投影点的垂直距离,确定反射点的投影深度。
参考图4,本实施例的投影设备的激光出射角度和出射距离为已知值,设第i行、第j列的出射路径与投影面垂线的锐角夹角为θij,投影距离为lij参考图7,投影面上的投影点与投影设备(即投影面上的投影点与投影设备的发射器中心点)的垂直距离为:hij=lij*cosθij,水平距离为dij=lij*sinθij。若本实施例在投影设备的投影深度发生变化时,没有更新投影点的投影距离,则参考图7,计算得到投影点的垂直距离hij与投影设备到投影面的实际距离h不相等。
本实施例的水平距离指示反射点在投影面上的位置。示例性的,如图8所示,第i行、第j列出射激光在投影面上的映射与投影设备之间的锐角夹角αij为已知值,投影点在投影面上的纵向映射距离为dij*sinαij,横向映射距离为dij*cosαij,将投影面中各个投影点的投影距离lij、垂直距离hij、横向及纵向映射距离进行配对存储。
以图6中食指为例,对于任一束投影距离改变的不可见激光被食指遮挡后被投影设备的激光接收器所接收,根据激光测距方法计算得到食指的任一反射点的投影距离为l′ij,参考图9,根据上述方法计算得到该食指反射点与投影设备的垂直距离为:h′ij=l′ij*cosθij,水平距离为d′ij=l′ij*sinθij。参考图10,该食指反射点投影面上的纵向映射距离为d′ij*sinαij,横向映射距离为d′ij*cosαij。
而后通过根据该食指反射点的纵向映射距离和横向映射距离匹配映射点,参考图9,以食指指尖的反射点为例,根据食指指尖的反射点的纵向映射距离和横向映射距离匹配到食指指尖对应的投影点为P,即食指指尖的反射点的纵向映射距离和横向映射距离与投影点P的纵向映射距离和横向映射距离对应相同。那么,食指指尖的反射点的投影深度为投影点P的垂直距离与该反射点的垂直距离的差值。
以触摸物体为手指为例,参考图6,对于提取出的满足预设条件的反射点,根据上述方法计算各个反射点的投影深度,对于H6触控区域和I4触控区域,将所提出的满足预设条件的反射点的投影深度小于预设距离的反射点分别作为中指指尖和食指指尖的目标点,获取与目标点坐标增幅在一定范围内的边缘点和目标点的激光出射角度、投影距离,根据边缘点和目标点的激光出射角度、投影距离对指尖建模。
参考图11,根据激光出射角度及投影距离获取目标点的边缘点,对指尖进行整体建模,若获得的边缘点分别为图11中的A点和B点,通过与AB两点距离相同的特征来确定指尖,通过手指指尖的倾斜角度确定与指尖呈一定距离的触控点,即图11中的C点为手指指尖的触控点,C点到投影面的垂直点即为手指与投影面的接触点。通过前面所述的距离计算方法,获得C点的投影深度,将该点的投影深度与预设距离进行比较,当该点的投影深度小于预设距离时,确定指尖已接触投影面,响应手指的触控动作,如触发投影面中的画面变化和/或扬声器发声等操作,本发明实施例对此不具体限定。
与本发明实施例提供的投影触控方法相对应的,本发明实施例还提供了投影触控装置。
图12为本发明实施例提供的投影触控装置的结构框图,如图12所示,本实施例的装置包括:
投影距离更新单元121,用于在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,所述投影距离指示所述投影点在投影面上的位置;
触控区域确定单元122,用于在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;
触控点确定单元123,用于根据所述触控区域确定所述触控物体的触控点;
触控动作响应单元124,用于在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。
在本实施例的一个实现方案中,触控区域确定单元122,用于根据发生变化的投影距离确定所述触控物体对所述不可见激光的反射点在所述投影面上的位置;根据所述反射点在所述投影面上的位置,进行预设形状区域识别,得到所述触控物体的一个或多个触控区域,每个触控区域包括一个或多个反射点。
在本实施例的另一个实现方案中,触控点确定单元123包括:
反射点提取模块,用于根据反射点在所述投影面上的位置,从每个触控区域内提取满足预设条件的反射点;
投影深度计算模块,用于根据所提取的反射点的投影距离,确定所提取的反射点的投影深度;
触控点确定模块,用于根据所提取的反射点的投影深度与所述预设距离的关系,确定所述触控物体的触控点。
其中,触控点确定模块,具体用于将投影深度小于所述预设距离的反射点确定为目标点;根据所述目标点的不可见激光的出射角度和投影距离,获取所述目标点的边缘点和所述触控物体的倾斜角度;根据所述边缘点和所述倾斜角度确定所述触控物体的触控点。
投影深度计算模块,具体用于根据投影点的投影距离和不可见激光的出射角度,分别计算所述投影点相对于所述投影设备的垂直距离和所述投影点相对于所述投影设备的水平距离,所述水平距离指示反射点在投影面上的位置;根据反射点的投影距离和不可见激光的出射角度,分别计算所述反射点相对于所述投影设备的垂直距离和所述反射点相对于所述投影设备的水平距离;根据所述反射点的水平距离确定所述反射点对应的投影点;根据所述反射点的垂直距离和所述反射点对应的投影点的垂直距离,确定所提取的反射点的投影深度。
本发明装置实施例的各单元的具体工作方式可以参见本发明的方法实施例,在此不再赘述。
为了便于清楚描述本发明实施例的技术方案,在发明的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种投影触控方法,其特征在于,应用于投影设备,所述投影设备投射不可见激光至投影面,所述不可见激光形成的不可见激光区域覆盖所述投影面,所述方法包括:
在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,所述投影距离指示所述投影点在投影面上的位置;
在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;
根据所述触控区域确定所述触控物体的触控点;
在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。
2.根据权利要求1所述的方法,其特征在于,所述根据发生变化的投影距离确定触控物体的触控区域,包括:
根据发生变化的投影距离确定所述触控物体对所述不可见激光的反射点在所述投影面上的位置;
根据所述反射点在所述投影面上的位置,进行预设形状区域识别,得到所述触控物体的一个或多个触控区域,每个触控区域包括一个或多个反射点。
3.根据权利要求2所述的方法,其特征在于,所述根据所述触控区域确定所述触控物体的触控点,包括:
根据反射点在所述投影面上的位置,从每个触控区域内提取满足预设条件的反射点;
根据所提取的反射点的投影距离,确定所提取的反射点的投影深度;
根据所提取的反射点的投影深度与所述预设距离的关系,确定所述触控物体的触控点。
4.根据权利要求3所述的方法,其特征在于,所述根据所提取的反射点的投影深度与所述预设距离的关系,确定所述触控物体的触控点,包括:
将投影深度小于所述预设距离的反射点确定为目标点;
根据所述目标点的不可见激光的出射角度和投影距离,获取所述目标点的边缘点和所述触控物体的倾斜角度;
根据所述边缘点和所述倾斜角度确定所述触控物体的触控点。
5.根据权利要求3所述的方法,其特征在于,所述根据所提取的反射点的投影距离,确定所提取的反射点的投影深度,包括:
根据投影点的投影距离和不可见激光的出射角度,分别计算所述投影点相对于所述投影设备的垂直距离和所述投影点相对于所述投影设备的水平距离,所述水平距离指示反射点在投影面上的位置;
根据反射点的投影距离和不可见激光的出射角度,分别计算所述反射点相对于所述投影设备的垂直距离和所述反射点相对于所述投影设备的水平距离;
根据所述反射点的水平距离确定所述反射点对应的投影点;
根据所述反射点的垂直距离和所述反射点对应的投影点的垂直距离,确定所提取的反射点的投影深度。
6.一种投影触控装置,其特征在于,应用于投影设备,所述投影设备投射不可见激光至投影面,所述不可见激光形成的不可见激光区域覆盖所述投影面,所述装置包括:
投影距离更新单元,用于在投影设备的投影深度发生变化时,根据接收投影面对所述不可见激光的反射光,更新投影面上各个投影点相对于投影设备的投影距离,所述投影距离指示所述投影点在投影面上的位置;
触控区域确定单元,用于在接收到触控物体对所述不可见激光的反射光时,确定发生变化的投影距离,根据发生变化的投影距离确定触控物体的触控区域;
触控点确定单元,用于根据所述触控区域确定所述触控物体的触控点;
触控动作响应单元,用于在所述触控点的投影深度小于预设距离时,响应所述触控物体的触控操作,所述投影深度指示所述触控点相对于投影面的距离。
7.根据权利要求6所述的装置,其特征在于,所述触控区域确定单元,用于根据发生变化的投影距离确定所述触控物体对所述不可见激光的反射点在所述投影面上的位置;根据所述反射点在所述投影面上的位置,进行预设形状区域识别,得到所述触控物体的一个或多个触控区域,每个触控区域包括一个或多个反射点。
8.根据权利要求7所述的装置,其特征在于,所述触控点确定单元包括:
反射点提取模块,用于根据反射点在所述投影面上的位置,从每个触控区域内提取满足预设条件的反射点;
投影深度计算模块,用于根据所提取的反射点的投影距离,确定所提取的反射点的投影深度;
触控点确定模块,用于根据所提取的反射点的投影深度与所述预设距离的关系,确定所述触控物体的触控点。
9.根据权利要求8所述的装置,其特征在于,所述触控点确定模块,用于将投影深度小于所述预设距离的反射点确定为目标点;根据所述目标点的不可见激光的出射角度和投影距离,获取所述目标点的边缘点和所述触控物体的倾斜角度;根据所述边缘点和所述倾斜角度确定所述触控物体的触控点。
10.根据权利要求8所述的装置,其特征在于,投影深度计算模块,用于根据投影点的投影距离和不可见激光的出射角度,分别计算所述投影点相对于所述投影设备的垂直距离和所述投影点相对于所述投影设备的水平距离,所述水平距离指示反射点在投影面上的位置;根据反射点的投影距离和不可见激光的出射角度,分别计算所述反射点相对于所述投影设备的垂直距离和所述反射点相对于所述投影设备的水平距离;根据所述反射点的水平距离确定所述反射点对应的投影点;根据所述反射点的垂直距离和所述反射点对应的投影点的垂直距离,确定所提取的反射点的投影深度。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810035500.7A CN108089772B (zh) | 2018-01-15 | 2018-01-15 | 一种投影触控方法和装置 |
PCT/CN2018/099935 WO2019136989A1 (zh) | 2018-01-15 | 2018-08-10 | 一种投影触控方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810035500.7A CN108089772B (zh) | 2018-01-15 | 2018-01-15 | 一种投影触控方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108089772A true CN108089772A (zh) | 2018-05-29 |
CN108089772B CN108089772B (zh) | 2021-04-20 |
Family
ID=62182149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810035500.7A Active CN108089772B (zh) | 2018-01-15 | 2018-01-15 | 一种投影触控方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108089772B (zh) |
WO (1) | WO2019136989A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110012329A (zh) * | 2019-03-19 | 2019-07-12 | 青岛海信电器股份有限公司 | 一种显示设备中触控事件的响应方法及显示设备 |
WO2019136989A1 (zh) * | 2018-01-15 | 2019-07-18 | 歌尔科技有限公司 | 一种投影触控方法和装置 |
CN110502129A (zh) * | 2019-08-29 | 2019-11-26 | 王国梁 | 交互控制系统 |
CN110888287A (zh) * | 2018-08-20 | 2020-03-17 | Bsh家用电器有限公司 | 具有手操作的输入装置的家用器具 |
CN112732162A (zh) * | 2021-03-30 | 2021-04-30 | 北京芯海视界三维科技有限公司 | 投影交互方法、装置、系统及计算机存储介质 |
CN114756162A (zh) * | 2021-01-05 | 2022-07-15 | 成都极米科技股份有限公司 | 触控系统及方法、电子设备及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102799317A (zh) * | 2012-07-11 | 2012-11-28 | 联动天下科技(大连)有限公司 | 智能互动投影系统 |
CN103186292A (zh) * | 2011-12-30 | 2013-07-03 | 华新丽华股份有限公司 | 输入侦测投影装置及其输入侦测方法 |
US20150077399A1 (en) * | 2013-09-17 | 2015-03-19 | Funai Electric Co., Ltd. | Spatial coordinate identification device |
CN105589607A (zh) * | 2016-02-14 | 2016-05-18 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
CN106610757A (zh) * | 2016-08-26 | 2017-05-03 | 北京数科技有限公司 | 一种投影触控方法、装置及设备 |
CN107562288A (zh) * | 2017-08-31 | 2018-01-09 | 广东美的制冷设备有限公司 | 基于红外触控装置的响应方法、红外触控装置和介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108089772B (zh) * | 2018-01-15 | 2021-04-20 | 潍坊歌尔电子有限公司 | 一种投影触控方法和装置 |
-
2018
- 2018-01-15 CN CN201810035500.7A patent/CN108089772B/zh active Active
- 2018-08-10 WO PCT/CN2018/099935 patent/WO2019136989A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186292A (zh) * | 2011-12-30 | 2013-07-03 | 华新丽华股份有限公司 | 输入侦测投影装置及其输入侦测方法 |
CN102799317A (zh) * | 2012-07-11 | 2012-11-28 | 联动天下科技(大连)有限公司 | 智能互动投影系统 |
US20150077399A1 (en) * | 2013-09-17 | 2015-03-19 | Funai Electric Co., Ltd. | Spatial coordinate identification device |
CN105589607A (zh) * | 2016-02-14 | 2016-05-18 | 京东方科技集团股份有限公司 | 触控系统、触控显示系统和触控交互方法 |
CN106610757A (zh) * | 2016-08-26 | 2017-05-03 | 北京数科技有限公司 | 一种投影触控方法、装置及设备 |
CN107562288A (zh) * | 2017-08-31 | 2018-01-09 | 广东美的制冷设备有限公司 | 基于红外触控装置的响应方法、红外触控装置和介质 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019136989A1 (zh) * | 2018-01-15 | 2019-07-18 | 歌尔科技有限公司 | 一种投影触控方法和装置 |
CN110888287A (zh) * | 2018-08-20 | 2020-03-17 | Bsh家用电器有限公司 | 具有手操作的输入装置的家用器具 |
CN110888287B (zh) * | 2018-08-20 | 2022-07-22 | Bsh家用电器有限公司 | 具有手操作的输入装置的家用器具 |
CN110012329A (zh) * | 2019-03-19 | 2019-07-12 | 青岛海信电器股份有限公司 | 一种显示设备中触控事件的响应方法及显示设备 |
CN110012329B (zh) * | 2019-03-19 | 2021-06-04 | 海信视像科技股份有限公司 | 一种显示设备中触控事件的响应方法及显示设备 |
CN110502129A (zh) * | 2019-08-29 | 2019-11-26 | 王国梁 | 交互控制系统 |
CN114756162A (zh) * | 2021-01-05 | 2022-07-15 | 成都极米科技股份有限公司 | 触控系统及方法、电子设备及计算机可读存储介质 |
CN114756162B (zh) * | 2021-01-05 | 2023-09-05 | 成都极米科技股份有限公司 | 触控系统及方法、电子设备及计算机可读存储介质 |
CN112732162A (zh) * | 2021-03-30 | 2021-04-30 | 北京芯海视界三维科技有限公司 | 投影交互方法、装置、系统及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019136989A1 (zh) | 2019-07-18 |
CN108089772B (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108089772A (zh) | 一种投影触控方法和装置 | |
US10511778B2 (en) | Method and apparatus for push interaction | |
CN105745606B (zh) | 基于图像识别触摸敏感表面的目标触摸区域 | |
KR102335132B1 (ko) | 하나의 단일 감지 시스템을 이용하는 멀티 모드 제스처 기반의 상호작용 시스템 및 방법 | |
CN105026983B (zh) | 提供眼睛注视校准的头戴式显示器及其控制方法 | |
US9367651B2 (en) | 3D wearable glove scanner | |
CN104102343B (zh) | 交互式输入系统和方法 | |
US10209881B2 (en) | Extending the free fingers typing technology and introducing the finger taps language technology | |
EP1611503B1 (en) | Auto-aligning touch system and method | |
KR101560308B1 (ko) | 가상 필기 입력을 위한 방법 및 전자 장치 | |
US8971565B2 (en) | Human interface electronic device | |
US20060028457A1 (en) | Stylus-Based Computer Input System | |
US20120019485A1 (en) | Information processing apparatus and control method thereof | |
CN101375297A (zh) | 交互式输入系统 | |
US20180329492A1 (en) | Parallax correction for touch-screen display | |
US11640198B2 (en) | System and method for human interaction with virtual objects | |
TW201108071A (en) | Display with an optical sensor | |
CN107077200A (zh) | 基于反射的控件激活 | |
US20190243456A1 (en) | Method and device for recognizing a gesture, and display device | |
US20150253932A1 (en) | Information processing apparatus, information processing system and information processing method | |
US20130120361A1 (en) | Spatial 3d interactive instrument | |
US20230168746A1 (en) | User interface method system | |
WO2016099175A1 (ko) | 스타일러스 펜의 기울기 정보를 이용하는 디지타이저 | |
CN108021238A (zh) | 新概念盲打键盘 | |
CN109089090A (zh) | 投影触控系统及其校正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |