CN107818585B - 用户手指位置信息的确定方法及装置、投影仪、投影系统 - Google Patents
用户手指位置信息的确定方法及装置、投影仪、投影系统 Download PDFInfo
- Publication number
- CN107818585B CN107818585B CN201710891114.3A CN201710891114A CN107818585B CN 107818585 B CN107818585 B CN 107818585B CN 201710891114 A CN201710891114 A CN 201710891114A CN 107818585 B CN107818585 B CN 107818585B
- Authority
- CN
- China
- Prior art keywords
- image
- area
- live
- depth
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 23
- 230000002452 interceptive effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种用户手指位置信息的确定方法及装置、投影仪、投影系统,该方法包括:获取投影仪的景深模组生成的背景图像;在投影仪的位置发生变化的情况下,获取景深模组生成的第一实景图像;从第一实景图像中确定第一区域和第二区域;从背景图像中确定第三区域和第四区域;对第一区域、第二区域、第三区域和第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;利用每一行对应的四个平均距离值,得到第一实景图像中其他区域中每一行各图像点对应的距离值,并利用第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;利用第一实景图像和新的背景图像,确定用户手指的位置信息。
Description
技术领域
本发明涉及投影仪技术领域,更具体地,涉及一种用户手指位置信息的确定方法及装置、投影仪、投影系统。
背景技术
投影仪是一种可以将图像或视频投射到幕布上的设备,可以通过不同的接口同计算机、VCD、DVD、游戏机、DV等相连接播放相应的视频信号。目前,交互式投影仪成为发展趋势。
交互式投影仪包括有投影模组和景深模组。投影模组用于将图像或视频投射到平面物体上。景深模组也可在平面物体上形成投影面。景深模组用于测量景深模组的投影面的各投影点到景深模组的距离。当用户手部未与投影模组投放到平面物体上的投影面进行交互时,景深模组根据测量得到的景深模组的投影面上的各投影点到景深模组的距离生成背景图像。当用户手部与投影模组投放到平面物体上的投影面进行交互时,景深模组根据测量得到的景深模组的投影面上的各投影点到景深模组的距离生成实景图像。将用户手部未与投影面进行交互时背景图像中各点对应的距离,与用户手部与投影面进行交互时实景图像中各点对应的距离进行相减,得到深度图像。通过该深度图像可以得到用户手部的信息,例如,用户手部的位置信息,进而可以根据用户手部的信息执行后续的操作。
上述操作中,在得到深度图像之前,需要背景图像和实景图像相匹配,即交互式投影仪必须固定不动。若交互式投影仪有轻微的抖动时,得到的背景图像和实景图像会不匹配,这样使得由背景图像和实景图像得到的深度图像不准确,进而使得利用深度图像得到的用户手部的信息也不准确,最终可能影响用户与交互式投影仪的交互。
发明内容
本发明的一个目的是提供一种用户手指位置信息的确定方法的新技术方案。
根据本发明的第一方面,提供了一种用户手指位置信息的确定方法,包括:
获取投影仪的景深模组生成的背景图像,其中,所述背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的;
在所述投影仪的位置发生变化的情况下,获取所述景深模组生成的第一实景图像,其中,所述第一实景图像为在所述用户手部与所述投影面进行交互的情况下生成的,其中,所述背景图像和所述第一实景图像为利用所述景深模组的投影面上各投影点到所述景深模组的距离生成的;
从所述第一实景图像中确定第一区域和第二区域,其中,所述第一区域和所述第二区域不包含所述用户手部对应的图像,所述第一区域和所述第二区域的行数与所述第一实景图像的行数相同,且相对于所述第一实景图像的中心线对称;
从所述背景图像中确定第三区域和第四区域,其中,所述第三区域所在所述背景图像的位置与所述第一区域所在所述第一实景图像的位置相同,所述第四区域所在背景图像的位置与所述第二区域所在所述第一实景图像的位置相同;
对所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;
利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,并利用所述第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;
对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息。
可选地,利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,包括:
基于以下计算式,得到所述投影仪的位置变化前后,所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的位置信息,
其中,i1代表所述第一区域中各行图像点中位于中心的图像点的横向坐标值;i2代表所述第二区域中各行图像点中位于中心的图像点的横向坐标值;i3代表所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的横向坐标值;B1、B2、A1、A2分别代表所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离的平均距离值;
基于以下任一计算式,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,
其中,所述in代表所述背景图像和所述第一实景图像中对应的其他区域中位于同一行的图像点的横向坐标值,所述An代表所述背景图像中对应的其他区域中的图像点对应的距离值,所述Bn代表所述第一实景图像中其他区域中的图像点对应的距离值。
可选地,所述方法还包括:
在所述用户手部与所述投影面进行交互的情况下,利用设置在所述投影仪的传感器,判断所述投影仪的位置是否发生变化。
可选地,所述方法还包括:
在所述投影仪的位置未发生变化的情况下,获取所述景深模组生成的第二实景图像,其中,所述第二实景图像为利用所述景深模组投放到所述用户手部和所述平面物体上的各投影点到所述景深模组的距离生成的;
对所述第二实景图像和所述背景图像进行处理,得到第二深度图像,并从所述第二深度图像中确定用户手指的位置信息。
可选地,所述第一深度图像为所述第一实景图像和所述新的背景图像记录的对应的各图像点的距离进行相减处理后得到的图像;
对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息,包括:
将所述第一深度图像均匀划分为多个区域,并计算每个区域的饱和率,其中,饱和率为单个区域内的位于预设的深度阈值范围内的点数量与单个区域内的点的总数量之比;
选取出饱和率超过预设的饱和率阈值的区域,并将饱和率超过预设的饱和率阈值的区域作为包含有用户手指的目标区域;
从目标区域中确定用户的手指的位置信息。
根据本发明的第二方面,提供了一种用户手指位置信息的确定装置,包括:
获取模块,用于获取投影仪的景深模组生成的背景图像,其中,所述背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的;
所述获取模块,还用于在所述投影仪的位置发生变化的情况下,获取所述景深模组生成的第一实景图像,其中,所述第一实景图像为在所述用户手部与所述投影面进行交互的情况下生成的,其中,所述背景图像和所述第一实景图像为利用所述景深模组的投影面上各投影点到所述景深模组的距离生成的;
确定模块,用于从所述第一实景图像中确定第一区域和第二区域,其中,所述第一区域和所述第二区域不包含所述用户手部对应的图像,所述第一区域和所述第二区域的行数与所述第一实景图像的行数相同,且相对于所述第一实景图像的中心线对称;
所述确定模块,还用于从所述背景图像中确定第三区域和第四区域,其中,所述第三区域所在所述背景图像的位置与所述第一区域所在所述第一实景图像的位置相同,所述第四区域所在背景图像的位置与所述第二区域所在所述第一实景图像的位置相同;
距离值处理模块,用于对所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;
背景图像生成模块,用于利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,并利用所述第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;
位置信息确定模块,用于对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息。
可选地,所述背景图像生成模块还用于:
基于以下计算式,得到所述投影仪的位置变化前后,所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的位置信息,
其中,i1代表所述第一区域中各行图像点中位于中心的图像点的横向坐标值;i2代表所述第二区域中各行图像点中位于中心的图像点的横向坐标值;i3代表所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的横向坐标值;B1、B2、A1、A2分别代表所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离的平均距离值;
基于以下任一计算式,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,
其中,所述in代表所述背景图像和所述第一实景图像中对应的其他区域中位于同一行的图像点的横向坐标值,所述An代表所述背景图像中对应的其他区域中的图像点对应的距离值,所述Bn代表所述第一实景图像中其他区域中的图像点对应的距离值。
根据本发明的第三方面,提供了一种用户手指位置信息的确定装置,其特征在于,包括存储器和处理器,所述存储器用于存储指令,所述指令用于控制所述处理器进行操作以执行根据上述任一项所述的用户手指位置信息的确定方法。
根据本发明的第四方面,提供了一种投影仪,其特征在于,包括:投影模组、景深模组和如上所述的用户手指位置信息的确定装置。
根据本发明的第五方面,提供了一种投影系统,包括:投影仪和终端设备,其中,所述投影仪与所述终端设备建立通信连接,所述投影仪包括投影模组和景深模组,所述终端设备包括如上所述的用户手指位置信息的确定装置。
本发明提供的用户手指位置信息的确定方法及装置、投影仪、投影系统,实现了用户与投影仪的交互,并且本发明生成的背景图像与第一景深图像相互匹配,进而避免了现有技术中背景图像和实景图像不匹配导致的检测得到的用户手部信息不准确的问题,提升了用户与交互式投影仪的交互体验。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1示出了根据本发明一个实施例的用户手指位置信息的确定方法的处理流程图。
图2示出的根据本发明一个实施例的投影模组对应的投影面和景深模组对应的投影面的示意图。
图3示出了根据本发明一个实施例的第一实景图像的示意图。
图4示出了根据本发明一个实施例的第一实景图像中其他区域中各图像点对应的距离的计算示意图。
图5示出了根据本发明一个实施例的用户手指位置信息的确定方法的另一种处理流程图。
图6示出了根据本发明一个实施例的用户手指位置信息的确定装置的结构示意图。
图7示出了根据本发明一个实施例的用户手指位置信息的确定装置的另一种结构示意图。
图8示出了根据本发明一个实施例的投影系统的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例中,用户可以与交互式投影仪投放到平面物体上的投影面进行交互,例如,通过用户的手指触碰该投影面,实现用户与投影面的交互。以点菜为例,交互式投影仪可以将菜单对应的图像投放到平面物体上,用户通过触碰投放到平面物体上的菜单,完成点菜操作。需要说明的是,在用户与投影面进行交互时,需要确定用户手指的位置信息,进而利用用户的手指的位置信息执行后续操作。
本发明实施例涉及的景深模组和投影模组均为交互式投影仪的组成部件。
该交互式投影仪可与终端设备建立连接。终端设备可为台式电脑、笔记本电脑、平板电脑、智能手机、VCD、DVD中任一种。投影模组用于将交互式投影仪外接的终端设备的提供的图像或者视频投放到平面物体上。此处涉及的平面物体可为幕布、墙壁或者桌面任一种。
景深模组通过红外扫描的方式,测量得到景深模组的投影面上的各投影点到景深模组的距离。在用户手部未与投影模组投放到平面物体上的投影面交互时,景深模组的投影面上的各投影点均位于平面物体上。在用户手部与投影模组投放到平面物体上的投影面交互时,景深模组的投影面的各投影点一部分位于平面物体上,一部分位于用户手部上。景深模组对应的投影面大于投影模组投放到平面物体上的投影面,这样能够保证完整地捕获到用户手部与投影模组投放到平面物体上的投影面的交互信息。
景深模组生成的景深图像为带有颜色的图像。景深图像中各点显示的不同颜色代表景深模组的投影面上的各投影点到景深模组的不同距离。景深模组根据预设的投影点到景深模组的距离值与图像中点的颜色的对应关系,将测量得到的其投影面上的各投影点到景深模组的距离转化为带有相应颜色的点,然后再利用这些带有颜色的点生成景深图像。
本发明的一个实施例提供了一种用户手指位置信息的确定方法。图1示出了根据本发明一个实施例的用户手指位置信息的确定方法的处理流程图。参见图1,该方法至少包括步骤S101至步骤S107。
步骤S101,获取投影仪的景深模组生成的背景图像,其中,背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的。
步骤S102,在投影仪的位置发生变化的情况下,获取景深模组生成的第一实景图像,其中,第一实景图像为在用户手部与投影面进行交互的情况下生成的,其中,背景图像和第一实景图像为利用景深模组的投影面上各投影点到景深模组的距离生成的。
图2示出了根据本发明一个实施例的投影模组的投影面和景深模组的投影面的示意图。参见图2,较大的方形区域代表投影模组的投影面,较小的方形区域代表景深模组的投影面。在投影仪安装后,未发生任何位置的变化时,在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下,较大的方形区域中各投影点到景深模组的距离生成背景图像。当投影仪的位置相对于其安装位置发生变化时,在用户手部与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下,较大的方形区域中各投影点到景深模组的距离生成第一实景图像。当投影仪的位置相对于其安装位置未发生变化时,在用户手部与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下,较大的方形区域中各投影点到景深模组的距离生成第二实景图像。
本发明的一个实施例中,投影仪设置有传感器,该传感器用于感测投影仪的位置是否发生变化。
步骤S103,从第一实景图像中确定第一区域和第二区域,其中,第一区域和第二区域不包含用户手部对应的图像,第一区域和第二区域的行数与第一实景图像的行数相同,且相对于第一实景图像的中心线对称。
参见图2,利用虚线框1对应的区域中各投影点到景深模组的距离生成的图像,为从第一实景图像中确定出的第一区域对应的图像。利用虚线框2对应的区域中各投影点到景深模组的距离生成的图像,为从第一实景图像中确定出的第二区域对应的图像。
图3示出了根据本发明一个实施例的第一实景图像的示意图。以第一实景图像的左上角的图像点作为原点O,以第一实景图像的长度方向作为X轴方向,以第一实景图像的宽度方向作为Y轴方向,设立二维坐标系。参见图3,第一区域是按照从左到右的顺序从第一实景图像的第一列图像点开始,截取的多列图像点组成的区域。第二区域是按照从右到左的顺序,从第一实景图像的最后一列图像点开始,截取的多列图像点组成的区域。
步骤S104,从背景图像中确定第三区域和第四区域,其中,第三区域所在背景图像的位置与第一区域所在第一实景图像的位置相同,第四区域所在背景图像的位置与第二区域所在第一实景图像的位置相同。
背景图像、第一实景图像和第二实景图像均具有相同的图像大小,即背景图像、第一实景图像和第二实景图像中每一行具有相同的图像点数,背景图像、第一实景图像和第二实景图像中每一列具有相同的图像点数。
例如,第一区域包括第一实景图像中第一列至第五列对应的图像点,那么,第三区域包括背景图像中第一列至第五列对应的图像点;第二区域包括第一实景图像中倒数第五列至最后一列对应的图像点,那么,第四区域包括背景图像中倒数第五列至最后一列对应的图像点。
步骤S105,对第一区域、第二区域、第三区域和第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值。
参见图3,第一实景图像包含有jm行图像点和in列图像点。第一区域和第二区域包含有jm行图像点和ix列图像点,其中,x<n。以第一区域和第二区域中第5行图像点为例,计算第一区域中第5行图像点对应的距离值的平均距离值,以及第二区域中第5行图像点对应的距离值的平均距离值。相应地,对背景图像中的第三区域和第四区域中的第5行图像点进行相同的处理,得到第三区域中第5行图像点对应的距离值的平均距离值,以及第四区域中第5行图像点对应的距离值的平均距离值。
步骤S106,利用每一行对应的四个平均距离值,得到第一实景图像中其他区域中每一行各图像点对应的距离值,并利用第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像。
本发明的一个实施例中,基于以下计算式(1),得到投影仪的位置变化前后,背景图像和第一实景图像中各行中图像点对应的距离为发生变化的图像点的位置信息,参见图4,
其中,i1代表第一区域中各行图像点中位于中心的图像点的横向坐标值;i2代表第二区域中各行图像点中位于中心的图像点的横向坐标值;i3代表背景图像和第一实景图像中各行中图像点对应的距离未发生变化的图像点的横向坐标值;B1、B2、A1、A2分别代表第一区域、第二区域、第三区域和第四区域中位于同一行的各图像点对应的距离的平均距离值。
然后,基于以下计算式(2)或者计算式(3),得到第一实景图像中其他区域中每一行各图像点对应的距离值,参见图4,
其中,in代表背景图像和第一实景图像中对应的其他区域中位于同一行的图像点的横向坐标值,An代表背景图像中对应的其他区域中的图像点对应的距离值,Bn代表第一实景图像中其他区域中的图像点对应的距离值。
以第一区域和第二区域中某一行图像点为例,例如,第5行,i1代表第一区域中第5行图像点中位于中心的图像点的横向坐标值;i2代表第二区域中第5行图像点中位于中心的图像点的横向坐标值;B1、B2、A1、A2分别代表第一区域、第二区域、第三区域和第四区域中位于第5行的各图像点对应的距离的平均距离值。基于上述计算式(1),得到i3。然后,基于计算式(2)或者计算式(3),得到第一实景图像中其他区域的第5行各图像点对应的距离值。需要说明地是,第一实景图像中其他区域为第一实景图像中除去第一区域和第二区域之后对应的区域。
步骤S107,对第一实景图像和新的背景图像进行处理,得到第一深度图像,并从第一深度图像中确定用户手指的位置信息。
本发明的一个实施例中,首先,将深度图像均匀划分为多个区域,并计算每个区域的饱和率,其中,饱和率为单个区域内的位于预设的深度阈值范围内的点数量与单个区域内的点的总数量之比。本发明实施例涉及的深度阈值范围可根据用户的手指的厚度而定,优选为0-30mm。然后,根据各个区域的饱和率,从各个区域中选取出饱和率超过预设的饱和率阈值的区域,并将饱和率超过预设的饱和率阈值的区域作为包含有用户手指的目标区域。最后,从目标区域中确定用户的手指的位置信息。
本发明的一个实施例中,在用户手部与投影面进行交互的情况下,参见图5,用户手指位置信息的确定方法还包括:步骤S108,利用设置在投影仪的传感器,判断投影仪的位置是否发生变化。
在判断结果为投影仪的位置发生变化的情况下,执行上述步骤S102。
在判断结果为投影仪的位置未发生变化的情况下,执行步骤S109,获取景深模组生成的第二实景图像,其中,第二实景图像为利用景深模组投放到用户手部和平面物体上的各投影点到景深模组的距离生成的。接着,执行步骤S110,对第二实景图像和背景图像进行处理,得到第二深度图像,并从第二深度图像中确定用户手指的位置信息。
从第二深度图像中确定用户手指的位置信息的操作与上述从第一深度图像中确定用户手指的位置信息的操作相同,在此,不做过多赘述。
基于同一发明构思,本发明提供了一种用户手指位置信息的确定装置。图6示出了根据本发明一个实施例的用户手指位置信息的确定装置的结构示意图。参见图6,该装置至少包括:获取模块610,用于获取投影仪的景深模组生成的背景图像,其中,背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的;获取模块610,还用于在投影仪的位置发生变化的情况下,获取景深模组生成的第一实景图像,其中,第一实景图像为在用户手部与投影面进行交互的情况下生成的,其中,背景图像和第一实景图像为利用景深模组的投影面上各投影点到景深模组的距离生成的;确定模块620,用于从第一实景图像中确定第一区域和第二区域,其中,第一区域和第二区域不包含用户手部对应的图像,第一区域和第二区域的行数与第一实景图像的行数相同,且相对于第一实景图像的中心线对称;确定模块620,还用于从背景图像中确定第三区域和第四区域,其中,第三区域所在背景图像的位置与第一区域所在第一实景图像的位置相同,第四区域所在背景图像的位置与第二区域所在第一实景图像的位置相同;距离值处理模块630,用于对第一区域、第二区域、第三区域和第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;背景图像生成模块640,用于利用每一行对应的四个平均距离值,得到第一实景图像中其他区域中每一行各图像点对应的距离值,并利用第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;位置信息确定模块650,用于对第一实景图像和新的背景图像进行处理,得到第一深度图像,并从第一深度图像中确定用户手指的位置信息。
本发明的一个实施例中,背景图像生成模块640还用于:基于上述计算式(1),得到投影仪的位置变化前后,背景图像和第一实景图像中各行中图像点对应的距离未发生变化的图像点的位置信息,然后,基于上述计算式(2)或者计算式(3),得到第一实景图像中其他区域中每一行各图像点对应的距离值。
图7示出了根据本发明一个实施例的用户手指位置信息的确定装置的另一种结构示意图。参见图7,该用户手指位置信息的确定装置至少包括存储器720和处理器710。存储器720用于存储指令,该指令用于控制处理器710进行操作以执行根据上述本发明任一实施例提供的用户手指位置信息的确定方法。
基于同一发明构思,本发明提供了一种投影仪。该投影仪至少包括:投影模组景深模组和上述本发明任一实施例提供的用户手指位置信息的确定装置。
基于同一发明构思,本发明提供了一种投影系统。图8示出了根据本发明一个实施例的投影系统的结构示意图。参见图8,投影系统包括投影仪800和终端设备900。投影仪800与终端设备900建立通信连接。投影仪800包括投影模组810和景深模组820。终端设备900包括上述本发明任一实施例提供的用户手指位置信息的确定装置910。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (8)
1.一种用户手指位置信息的确定方法,其特征在于,包括:
获取投影仪的景深模组生成的背景图像,其中,所述背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的;
在所述投影仪的位置发生变化的情况下,获取所述景深模组生成的第一实景图像,其中,所述第一实景图像为在所述用户手部与所述投影面进行交互的情况下生成的,其中,所述背景图像和所述第一实景图像为利用所述景深模组的投影面上各投影点到所述景深模组的距离生成的;
从所述第一实景图像中确定第一区域和第二区域,其中,所述第一区域和所述第二区域不包含所述用户手部对应的图像,所述第一区域和所述第二区域的行数与所述第一实景图像的行数相同,且相对于所述第一实景图像的中心线对称;
从所述背景图像中确定第三区域和第四区域,其中,所述第三区域所在所述背景图像的位置与所述第一区域所在所述第一实景图像的位置相同,所述第四区域所在背景图像的位置与所述第二区域所在所述第一实景图像的位置相同;
对所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;
利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,并利用所述第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;
对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息;
其中,利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,包括:
基于以下计算式,得到所述投影仪的位置变化前后,所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的位置信息,
其中,i1代表所述第一区域中各行图像点中位于中心的图像点的横向坐标值;i2代表所述第二区域中各行图像点中位于中心的图像点的横向坐标值;i3代表所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的横向坐标值;B1、B2、A1、A2分别代表所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离的平均距离值;
基于以下任一计算式,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,
其中,所述in代表所述背景图像和所述第一实景图像中对应的其他区域中位于同一行的图像点的横向坐标值,所述An代表所述背景图像中对应的其他区域中的图像点对应的距离值,所述Bn代表所述第一实景图像中其他区域中的图像点对应的距离值。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述用户手部与所述投影面进行交互的情况下,利用设置在所述投影仪的传感器,判断所述投影仪的位置是否发生变化。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述投影仪的位置未发生变化的情况下,获取所述景深模组生成的第二实景图像,其中,所述第二实景图像为利用所述景深模组投放到所述用户手部和所述平面物体上的各投影点到所述景深模组的距离生成的;
对所述第二实景图像和所述背景图像进行处理,得到第二深度图像,并从所述第二深度图像中确定用户手指的位置信息。
4.根据权利要求1所述的方法,其特征在于,所述第一深度图像为所述第一实景图像和所述新的背景图像记录的对应的各图像点的距离进行相减处理后得到的图像;
对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息,包括:
将所述第一深度图像均匀划分为多个区域,并计算每个区域的饱和率,其中,饱和率为单个区域内的位于预设的深度阈值范围内的点数量与单个区域内的点的总数量之比;
选取出饱和率超过预设的饱和率阈值的区域,并将饱和率超过预设的饱和率阈值的区域作为包含有用户手指的目标区域;
从目标区域中确定用户的手指的位置信息。
5.一种用户手指位置信息的确定装置,其特征在于,包括:
获取模块,用于获取投影仪的景深模组生成的背景图像,其中,所述背景图像为在用户手部未与投影仪的投影模组投放到平面物体上的投影面进行交互的情况下生成的;
所述获取模块,还用于在所述投影仪的位置发生变化的情况下,获取所述景深模组生成的第一实景图像,其中,所述第一实景图像为在所述用户手部与所述投影面进行交互的情况下生成的,其中,所述背景图像和所述第一实景图像为利用所述景深模组的投影面上各投影点到所述景深模组的距离生成的;
确定模块,用于从所述第一实景图像中确定第一区域和第二区域,其中,所述第一区域和所述第二区域不包含所述用户手部对应的图像,所述第一区域和所述第二区域的行数与所述第一实景图像的行数相同,且相对于所述第一实景图像的中心线对称;
所述确定模块,还用于从所述背景图像中确定第三区域和第四区域,其中,所述第三区域所在所述背景图像的位置与所述第一区域所在所述第一实景图像的位置相同,所述第四区域所在背景图像的位置与所述第二区域所在所述第一实景图像的位置相同;
距离值处理模块,用于对所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离进行处理,得到每一行对应的四个平均距离值;
背景图像生成模块,用于利用每一行对应的四个平均距离值,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,并利用所述第一实景图像中其他区域中各图像点对应的距离,生成新的背景图像;
所述背景图像生成模块还用于:
基于以下计算式,得到所述投影仪的位置变化前后,所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的位置信息,
其中,i1代表所述第一区域中各行图像点中位于中心的图像点的横向坐标值;i2代表所述第二区域中各行图像点中位于中心的图像点的横向坐标值;i3代表所述背景图像和所述第一实景图像中各行中图像点对应的距离未发生变化的图像点的横向坐标值;B1、B2、A1、A2分别代表所述第一区域、所述第二区域、所述第三区域和所述第四区域中位于同一行的各图像点对应的距离的平均距离值;
基于以下任一计算式,得到所述第一实景图像中其他区域中每一行各图像点对应的距离值,
其中,所述in代表所述背景图像和所述第一实景图像中对应的其他区域中位于同一行的图像点的横向坐标值,所述An代表所述背景图像中对应的其他区域中的图像点对应的距离值,所述Bn代表所述第一实景图像中其他区域中的图像点对应的距离值;
位置信息确定模块,用于对所述第一实景图像和所述新的背景图像进行处理,得到第一深度图像,并从所述第一深度图像中确定用户手指的位置信息。
6.一种用户手指位置信息的确定装置,其特征在于,包括存储器和处理器,所述存储器用于存储指令,所述指令用于控制所述处理器进行操作以执行根据权利要求1至4中任一项所述的用户手指位置信息的确定方法。
7.一种投影仪,其特征在于,包括:投影模组、景深模组和如权利要求6所述的用户手指位置信息的确定装置。
8.一种投影系统,其特征在于,包括:投影仪和终端设备,其中,所述投影仪与所述终端设备建立通信连接,所述投影仪包括投影模组和景深模组,所述终端设备包括如权利要求6所述的用户手指位置信息的确定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710891114.3A CN107818585B (zh) | 2017-09-27 | 2017-09-27 | 用户手指位置信息的确定方法及装置、投影仪、投影系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710891114.3A CN107818585B (zh) | 2017-09-27 | 2017-09-27 | 用户手指位置信息的确定方法及装置、投影仪、投影系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107818585A CN107818585A (zh) | 2018-03-20 |
CN107818585B true CN107818585B (zh) | 2020-05-29 |
Family
ID=61606947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710891114.3A Active CN107818585B (zh) | 2017-09-27 | 2017-09-27 | 用户手指位置信息的确定方法及装置、投影仪、投影系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107818585B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102306065A (zh) * | 2011-07-20 | 2012-01-04 | 无锡蜂巢创意科技有限公司 | 交互式光感触摸微型投影系统的实现方法 |
CN102799318A (zh) * | 2012-08-13 | 2012-11-28 | 深圳先进技术研究院 | 一种基于双目立体视觉的人机交互方法及系统 |
CN102999152A (zh) * | 2011-09-09 | 2013-03-27 | 康佳集团股份有限公司 | 一种手势动作识别方法和系统 |
CN103488972A (zh) * | 2013-09-09 | 2014-01-01 | 西安交通大学 | 基于深度信息的指尖检测方法 |
CN103500010A (zh) * | 2013-09-29 | 2014-01-08 | 华南理工大学 | 一种视频人手指尖定位方法 |
US9189068B2 (en) * | 2011-03-14 | 2015-11-17 | Lg Electronics Inc. | Apparatus and a method for gesture recognition |
GB2537142A (en) * | 2015-04-09 | 2016-10-12 | Nokia Technologies Oy | An arrangement for image segmentation |
CN106774850A (zh) * | 2016-11-24 | 2017-05-31 | 深圳奥比中光科技有限公司 | 一种移动终端及其交互控制方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295546B2 (en) * | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US9477303B2 (en) * | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9019267B2 (en) * | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
-
2017
- 2017-09-27 CN CN201710891114.3A patent/CN107818585B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9189068B2 (en) * | 2011-03-14 | 2015-11-17 | Lg Electronics Inc. | Apparatus and a method for gesture recognition |
CN102306065A (zh) * | 2011-07-20 | 2012-01-04 | 无锡蜂巢创意科技有限公司 | 交互式光感触摸微型投影系统的实现方法 |
CN102999152A (zh) * | 2011-09-09 | 2013-03-27 | 康佳集团股份有限公司 | 一种手势动作识别方法和系统 |
CN102799318A (zh) * | 2012-08-13 | 2012-11-28 | 深圳先进技术研究院 | 一种基于双目立体视觉的人机交互方法及系统 |
CN103488972A (zh) * | 2013-09-09 | 2014-01-01 | 西安交通大学 | 基于深度信息的指尖检测方法 |
CN103500010A (zh) * | 2013-09-29 | 2014-01-08 | 华南理工大学 | 一种视频人手指尖定位方法 |
GB2537142A (en) * | 2015-04-09 | 2016-10-12 | Nokia Technologies Oy | An arrangement for image segmentation |
CN106774850A (zh) * | 2016-11-24 | 2017-05-31 | 深圳奥比中光科技有限公司 | 一种移动终端及其交互控制方法 |
Non-Patent Citations (3)
Title |
---|
Finger detection and hand posture recognition based on depth information;Stergios Poularakis et al.;《2014 IEEE International Conference on Acoustic, Speech and Signal Processing(ICASSP)》;20140714;全文 * |
基于Kinect深度信息的手势提取与识别研究;邓瑞等;《计算机应用研究》;20130430;第30卷(第4期);全文 * |
基于Kinect深度信息的手势识别;郑斌珏;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140915(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107818585A (zh) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110647834B (zh) | 人脸和人手关联检测方法及装置、电子设备和存储介质 | |
JP7262659B2 (ja) | 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体 | |
CN109064390B (zh) | 一种图像处理方法、图像处理装置及移动终端 | |
CN108347657B (zh) | 一种显示弹幕信息的方法和装置 | |
CN108604379A (zh) | 用于确定图像中的区域的系统及方法 | |
CN108200416B (zh) | 投影设备中投影图像的坐标映射方法、装置及投影设备 | |
US9767853B2 (en) | Touch screen video scrolling | |
CN107798700B (zh) | 用户手指位置信息的确定方法及装置、投影仪、投影系统 | |
CN110460827B (zh) | 振镜工作状态的确定方法、装置及计算机存储介质 | |
CN113273321A (zh) | 显示器定位系统 | |
CN103608761A (zh) | 输入设备、输入方法以及记录介质 | |
CN108986117B (zh) | 视频图像分割方法及装置 | |
CN112541960A (zh) | 三维场景的渲染方法、装置及电子设备 | |
CN109743566A (zh) | 一种用于识别vr视频格式的方法与设备 | |
CN108227919B (zh) | 用户手指位置信息的确定方法及装置、投影仪、投影系统 | |
CN112146576A (zh) | 尺寸测量方法及其装置 | |
CN109873980B (zh) | 视频监控方法、装置及终端设备 | |
CN107818584B (zh) | 用户手指位置信息的确定方法及装置、投影仪、投影系统 | |
CN113271807A (zh) | 保护罩装置 | |
CN111105440B (zh) | 视频中目标物体的跟踪方法、装置、设备及存储介质 | |
CN105094614B (zh) | 图像显示方法及装置 | |
CN107818585B (zh) | 用户手指位置信息的确定方法及装置、投影仪、投影系统 | |
CN109766530B (zh) | 图表边框的生成方法、装置、存储介质和电子设备 | |
KR102640871B1 (ko) | 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법 | |
CN115396741A (zh) | 全景视频的播放方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |