CN111506200A - 一种基于体感互动控制投影的系统和方法 - Google Patents

一种基于体感互动控制投影的系统和方法 Download PDF

Info

Publication number
CN111506200A
CN111506200A CN202010463954.1A CN202010463954A CN111506200A CN 111506200 A CN111506200 A CN 111506200A CN 202010463954 A CN202010463954 A CN 202010463954A CN 111506200 A CN111506200 A CN 111506200A
Authority
CN
China
Prior art keywords
projection
projector
gesture
somatosensory
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010463954.1A
Other languages
English (en)
Other versions
CN111506200B (zh
Inventor
王昊洁
胡博
沈燕
谈荣胜
范全枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ruijie Network Science & Technology Co ltd
Original Assignee
Shanghai Ruijie Network Science & Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ruijie Network Science & Technology Co ltd filed Critical Shanghai Ruijie Network Science & Technology Co ltd
Priority to CN202010463954.1A priority Critical patent/CN111506200B/zh
Publication of CN111506200A publication Critical patent/CN111506200A/zh
Application granted granted Critical
Publication of CN111506200B publication Critical patent/CN111506200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)

Abstract

本发明公开了一种基于体感互动控制投影的系统和方法,涉及体感互动技术领域。本发明的系统包括机柜、升降机构、投影仪;投影仪的一外侧部安装有3D体感摄像头和深度摄像头,投影仪实时接收来自投影源输入设备的投影数据并与控制主机电性相连;控制主机用于调控投影仪的投影面,存储手势识别模型数据、投影面识别点定位图数据、投影源操作动作控制命令数据,读取经3D体感摄像头抓取的手势识别图形进行处理,识别手势识别结果并调取控制命令。本发明解决了投影成像后观看者与投影内容之间的互动问题,让观众能够直接通过手势动作直接与投影或全息投影进行互动,不需要直接接触于投影源输入设备进行控制投影的内容,直接与投影进行互动。

Description

一种基于体感互动控制投影的系统和方法
技术领域
本发明属于体感互动技术领域,特别是涉及一种基于体感互动控制投影的系统和一种基于体感互动控制投影的方法。
背景技术
随着现代技术的发展,投影设备的功能也愈发的完善,投影设备又叫做投影仪或者投影机,是通过数字光化处理技术或LCD液晶成像技术将图像或视频投射或反射至屏幕上的设备,可以通过不同的信号源,如计算机、手机、平板、笔记本、PC端等接入相应的图形和视频信号,实时播放。投影仪广泛的应用于教育、上午、工程、家用等场所。
体感技术,使人们能够直接地使用肢体动作与周边的装置或环境产生互动,且无需使用任何复杂的控制设备。例如体感游戏可以不用任何控制器,使用肢体动作控制游戏里的玩家,让用户更真实的遨游于游戏的海洋之中。现有的传感技术,主要包括图像传感技术,比如微软的颜色和深度感应镜头Kinect;距离传感技术,比如红外接近传感器、超声波距离传感器技术等。若将投影技术与体感技术相结合便能产生高效的高技术的操控体验,但是目前的投影控制任需要借助红外、激光灯投射介质进行实现,如专利公开号为201521140065.2,名称为一种激光感应互动装置,且现有的技术中,针对投影互动,仅限于激光笔代替鼠标点击屏幕,其应用效果和需求远远满足不了社会的需要,如何在高通用性,用户可自定义的技术条件下,实用手势控制投影来控制投影源设备的投影输出动作,提高用户的使用体验是需要解决的问题,因此,针对以上问题,提供一种基于体感互动控制投影的系统和方法具有重要意义。
发明内容
本发明解决了投影成像后观看者与投影内容之间的互动问题,让观众能够直接通过手势动作直接与投影或全息投影进行互动,不需要直接接触于投影源输入设备进行控制投影的内容,直接与投影进行互动。
为解决上述技术问题,本发明是通过以下技术方案实现的:
本发明的一种基于体感互动控制投影的系统,包括机柜、垂直设置于机柜上表面的升降机构、安装于升降机构上的投影仪;所述升降机构采用丝杆升降机构,包括垂直设置于机柜上部的投影面台上的立柱、连接于立柱顶部与底部之间的丝杆以及转动连接于丝杆底端的伺服电机;所述投影仪的外壳背部设置有与丝杆转动配合进行升降的滚珠螺母,所述投影仪的一外侧部安装有3D体感摄像头以及深度摄像头,所述投影仪、3D体感摄像头、深度摄像头的投向面正对于投影面台并与之垂直,所述3D体感摄像头用于获取手势图形数据,所述深度摄像头用于对投影仪投向投影面台的触控面进行定位;所述投影面台的表面设置有用于定位的带有颜色标识的定位识别点;
所述机柜外侧部安装有投影源输入设备、内部设置有控制主机和电源模块;
所述投影仪实时接收来自投影源输入设备的投影数据并与控制主机电性相连;所述3D体感摄像头、深度摄像头、伺服电机、电源模块分别与控制主机电性相连;
所述控制主机用于调控投影仪的投影面,存储手势识别模型数据、投影面识别点定位图数据、投影源操作动作控制命令数据,读取经3D体感摄像头抓取的手势识别图形进行处理,识别手势识别结果并调取控制命令。
进一步地,所述控制主机包括总控制器以及与总控制器电性相连的手势识别模块、存储器、伺服电机控制器、接口电路,所述总控制器采用微处理器或CPU。
进一步地,所述手势识别模块采用ATK-PAJ7620手势识别模块,用于对3D体感摄像头抓取后的经总控制器进行图像处理的手势图像进行检测,并与存储器中存储的经模型训练的手势样本模型进行比对识别。
进一步地,所述存储器中还存储有与各手势样本模型相匹配的投影源操作动作控制命令数据,以及用于投影面台的触控面定位图形数据。
进一步地,所述伺服电机控制器用于根据深度摄像头对投影面台上触控面的定位情况控制伺服电机带动丝杆对投影仪进行升降动作。
利用该系统进行的一种基于体感互动控制投影的方法,包括如下步骤:
S01、按照搭建结构安装基于体感互动控制投影的系统,并在投影面台的触控面上根据投影源的视频或投影内容做好定位识别点,同时对获取的可识别触控图形总互动区A经主机图像引擎进行分割形成左识别互动区B和右识别互动区C;
S02、通过大量模型学习和训练获得并建立完备的针对不同手势的手势识别模型数据库并存储于存储器中,将各所述手势根据触发条件不同分配至可识别触控图形总互动区A、左识别互动区B和右识别互动区C,所述手势包括但不限于:握拳、触摸、双击、移动、点击;
S03、将存储器中各手势识别模型与存储器中存储的投影源操作动作控制命令数据相关联,所述投影仪同步反馈手势的动作对应的控制操作,所述投影源操作动作控制命令数据包括但不限于不识别、选中、双击、拖动、单击、右击;
S04、根据接入不同的投影源输入设备对可识别触控图形总互动区A、左识别互动区B和右识别互动区C进行调试,对手势识别模型数据库和投影源操作动作控制命令数据进行调试和补充;
S05、调试完毕后使该基于体感互动控制投影的系统投入工作和运行。
本发明相对于现有技术的优点包括:
本发明解决了投影成像后观看者与投影内容之间的互动问题,让观众能够直接通过手势动作直接与投影或全息投影进行互动,不需要直接接触于投影源输入设备进行控制投影的内容,直接与投影进行互动,本发明的基于体感互动控制投影的系统通用性强,能够适宜不同输入源设备的操控使用,根据需要设定不同投影互动面和互动感应区,无需任何触发点发射设备便可实现精准识别互动操作,具有深度识别能力,根据使用的需要进行实时的更新操控手势与输入源设备的操控命令之间的关联,实现高精准,高通用性的投影互动体验。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的一种基于体感互动控制投影的系统的系统外部整体结构示意图;
图2为图1中投影仪与3D体感摄像头的结构形成一体的结构右视图;
图3为图1中投影面台上触摸互动区的划分图;
图4为本发明的一种基于体感互动控制投影的系统的系统的框架图;
图5为本发明的一种基于体感互动控制投影的系统的方法的步骤图;
图6为本发明实施例的各手势对应的操作动作控制命令分配图;
附图中,各标号所代表的部件列表如下:
1-机柜,101-投影面台,1011-定位识别点,102-万向移动轮,2-立柱,201-限位滑轨,202-丝杆,203-伺服电机,3-投影仪,301-滚珠螺母,302-限位滑块,4-3D体感摄像头,5-深度摄像头,6-投影源输入设备,7-控制主机,8-电源模块。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“垂直”、“上表面”、“上部”、“底端”、“外侧部”、“背部”、“表面”等指示方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的组件或元件必须具有特定的方位,以特定的方位构造和操作,因此不能理解为对本发明的限制。
请参阅图1-4所示,本发明的一种基于体感互动控制投影的系统,包括机柜1、垂直设置于机柜1上表面的升降机构、安装于升降机构上的投影仪3;升降机构采用丝杆升降机构,包括垂直设置于机柜1上部的投影面台101上的立柱2、连接于立柱2顶部与底部之间的丝杆202以及转动连接于丝杆202底端的伺服电机203,机柜1的底部设置有万向移动轮102,立柱2的外侧部竖直设置有两限位滑轨201,投影仪的背部对称设置有两与限位滑轨201滑动配合的限位滑块302;
投影仪3的外壳背部设置有与丝杆202转动配合进行升降的滚珠螺母301,投影仪3的一外侧部安装有3D体感摄像头4以及深度摄像头5,投影仪3、3D体感摄像头4、深度摄像头5的投向面正对于投影面台101并与之垂直,3D体感摄像头4用于获取手势图形数据,深度摄像头5用于对投影仪3投向投影面台101的触控面进行定位;投影面台101的表面设置有用于定位的带有颜色标识的定位识别点1011;
机柜1外侧部安装有投影源输入设备6、内部设置有控制主机7和电源模块8,投影源输入设备6包括手机、平板、触摸、笔记本、PC机;投影仪3采用全息投影仪或普通投影仪,深度摄像头5采用D415型深度摄像头,用于采集投影面台101的触控面的图像数据,并通过定位识别点1011进行定位;
投影仪3实时接收来自投影源输入设备6的投影数据并与控制主机7电性相连;3D体感摄像头4、深度摄像头5、伺服电机203、电源模块8分别与控制主机7电性相连;
控制主机7用于调控投影仪的投影面,存储手势识别模型数据、投影面识别点定位图数据、投影源操作动作控制命令数据,读取经3D体感摄像头4抓取的手势识别图形进行处理,识别手势识别结果并调取控制命令。
其中,控制主机7包括总控制器以及与总控制器电性相连的手势识别模块、存储器、伺服电机控制器、接口电路,所述总控制器采用微处理器或CPU,接口电路用于连接总控制器与投影仪。
其中,手势识别模块采用ATK-PAJ7620手势识别模块,用于对3D体感摄像头4抓取后的经总控制器进行图像处理的手势图像进行检测,并与存储器中存储的经模型训练的手势样本模型进行比对识别。
其中,存储器中还存储有与各手势样本模型相匹配的投影源操作动作控制命令数据,以及用于投影面台101的触控面定位图形数据。
其中,伺服电机控制器用于根据深度摄像头5对投影面台101上触控面的定位情况控制伺服电机203带动丝杆202对投影仪3进行升降动作。
如图5-6所示,利用该系统进行的一种基于体感互动控制投影的方法,包括如下步骤:
S01、按照搭建结构安装基于体感互动控制投影的系统,并在投影面台101的触控面上根据投影源的视频或投影内容做好定位识别点1011,同时对获取的可识别触控图形总互动区A经主机图像引擎进行分割形成左识别互动区B和右识别互动区C;
S02、通过大量模型学习和训练获得并建立完备的针对不同手势的手势识别模型数据库并存储于存储器中,将各手势根据触发条件不同分配至可识别触控图形总互动区A、左识别互动区B和右识别互动区C,手势包括但不限于:握拳—基于五指握拳、触摸—基于五指张开、双击—基于两指并拢伸出、移动—基于三指并拢伸出、点击—基于一指伸出;
S03、将存储器中各手势识别模型与存储器中存储的投影源操作动作控制命令数据相关联,投影仪3同步反馈手势的动作对应的控制操作,相应时间低于0.1s,对于眼睛来说,该操作是同步的,投影源操作动作控制命令数据包括但不限于不识别、选中、双击、拖动、单击、右击;
如图6所示,默认以握拳方式进入至互动区,经手势识别后不触发投影源操作动作控制命令,即不关联投影源操作动作控制命令数据;以伸开五指的方式进入至互动区,经手势识别后触发投影源中选中操作动作控制命令;以双指伸开手势进入互动区,经手势识别后触发投影源中双击操作动作控制命令;以三指伸开手势进入互动区,在左识别互动区B和右识别互动区C之间有所区别,当伸入至左识别互动区B,触发投影源中左移操作动作控制命令,当伸入至右识别互动区C,触发投影源中右移操作动作控制命令;以单指伸入至互动区,在左识别互动区B和右识别互动区C之间有所区别,当伸入至左识别互动区B,触发投影源中左单击操作动作控制命令,当伸入至右识别互动区B,触发投影源中右单击操作动作控制命令;
S04、根据接入不同的投影源输入设备6对可识别触控图形总互动区A、左识别互动区B和右识别互动区C进行调试,包括设置不同面积和不同划分的区域与对应的操作动作控制命令进行绑定,包括划分上互动区或下互动区以及中间互动区;对手势识别模型数据库和投影源操作动作控制命令数据进行调试和补充,包括补充以胳膊整体、头部或双手的手势动作的手势识别和对应的控制命令等;
S05、调试完毕后使该基于体感互动控制投影的系统投入工作和运行。
本发明相对于现有技术的优点包括:
本发明解决了投影成像后观看者与投影内容之间的互动问题,让观众能够直接通过手势动作直接与投影或全息投影进行互动,不需要直接接触于投影源输入设备进行控制投影的内容,直接与投影进行互动,本发明的基于体感互动控制投影的系统通用性强,能够适宜不同输入源设备的操控使用,根据需要设定不同投影互动面和互动感应区,无需任何触发点发射设备便可实现精准识别互动操作,具有深度识别能力,根据使用的需要进行实时的更新操控手势与输入源设备的操控命令之间的关联,实现高精准,高通用性的投影互动体验。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (6)

1.一种基于体感互动控制投影的系统,包括机柜(1)、垂直设置于机柜(1)上表面的升降机构、安装于升降机构上的投影仪(3);所述升降机构采用丝杆升降机构,包括垂直设置于机柜(1)上部的投影面台(101)上的立柱(2)、连接于立柱(2)顶部与底部之间的丝杆(202)以及转动连接于丝杆(202)底端的伺服电机(203),其特征在于:
所述投影仪(3)的外壳背部设置有与丝杆(202)转动配合进行升降的滚珠螺母(301),所述投影仪(3)的一外侧部安装有3D体感摄像头(4)以及深度摄像头(5),所述投影仪(3)、3D体感摄像头(4)、深度摄像头(5)的投向面正对于投影面台(101)并与之垂直,所述3D体感摄像头(4)用于获取手势图形数据,所述深度摄像头(5)用于对投影仪(3)投向投影面台(101)的触控面进行定位;所述投影面台(101)的表面设置有用于定位的带有颜色标识的定位识别点(1011);
所述机柜(1)外侧部安装有投影源输入设备(6)、内部设置有控制主机(7)和电源模块(8);
所述投影仪(3)实时接收来自投影源输入设备(6)的投影数据并与控制主机(7)电性相连;所述3D体感摄像头(4)、深度摄像头(5)、伺服电机(203)、电源模块(8)分别与控制主机(7)电性相连;
所述控制主机(7)用于调控投影仪的投影面,存储手势识别模型数据、投影面识别点定位图数据、投影源操作动作控制命令数据,读取经3D体感摄像头(4)抓取的手势识别图形进行处理,识别手势识别结果并调取控制命令。
2.根据权利要求1所述的一种基于体感互动控制投影的系统,所述控制主机(7)包括总控制器以及与总控制器电性相连的手势识别模块、存储器、伺服电机控制器、接口电路,所述总控制器采用微处理器或CPU。
3.根据权利要求2所述的一种基于体感互动控制投影的系统,其特征在于,所述手势识别模块采用ATK-PAJ7620手势识别模块,用于对3D体感摄像头(4)抓取后的经总控制器进行图像处理的手势图像进行检测,并与存储器中存储的经模型训练的手势样本模型进行比对识别。
4.根据权利要求3所述的一种基于体感互动控制投影的系统,其特征在于,所述存储器中还存储有与各手势样本模型相匹配的投影源操作动作控制命令数据,以及用于投影面台(101)的触控面定位图形数据。
5.根据权利要求2所述的一种基于体感互动控制投影的系统,其特征在于,所述伺服电机控制器用于根据深度摄像头(5)对投影面台(101)上触控面的定位情况控制伺服电机(203)带动丝杆(202)对投影仪(3)进行升降动作。
6.如权利要求1-5任一项所述的利用该系统进行的一种基于体感互动控制投影的方法,其特征在于,包括如下步骤:
S01、按照搭建结构安装基于体感互动控制投影的系统,并在投影面台(101)的触控面上根据投影源的视频或投影内容做好定位识别点(1011),同时对获取的可识别触控图形总互动区A经主机图像引擎进行分割形成左识别互动区B和右识别互动区C;
S02、通过大量模型学习和训练获得并建立完备的针对不同手势的手势识别模型数据库并存储于存储器中,将各所述手势根据触发条件不同分配至可识别触控图形总互动区A、左识别互动区B和右识别互动区C,所述手势包括但不限于:握拳、触摸、双击、移动、点击;
S03、将存储器中各手势识别模型与存储器中存储的投影源操作动作控制命令数据相关联,所述投影仪(3)同步反馈手势的动作对应的控制操作,所述投影源操作动作控制命令数据包括但不限于不识别、选中、双击、拖动、单击、右击;
S04、根据接入不同的投影源输入设备(6)对可识别触控图形总互动区A、左识别互动区B和右识别互动区C进行调试,对手势识别模型数据库和投影源操作动作控制命令数据进行调试和补充;
S05、调试完毕后使该基于体感互动控制投影的系统投入工作和运行。
CN202010463954.1A 2020-05-27 2020-05-27 一种基于体感互动控制投影的系统和方法 Active CN111506200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010463954.1A CN111506200B (zh) 2020-05-27 2020-05-27 一种基于体感互动控制投影的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010463954.1A CN111506200B (zh) 2020-05-27 2020-05-27 一种基于体感互动控制投影的系统和方法

Publications (2)

Publication Number Publication Date
CN111506200A true CN111506200A (zh) 2020-08-07
CN111506200B CN111506200B (zh) 2023-06-23

Family

ID=71876985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010463954.1A Active CN111506200B (zh) 2020-05-27 2020-05-27 一种基于体感互动控制投影的系统和方法

Country Status (1)

Country Link
CN (1) CN111506200B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223344A (zh) * 2021-05-25 2021-08-06 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示系统
CN113870683A (zh) * 2021-10-19 2021-12-31 武汉润林果达科技有限公司 一种建筑工程设计用于区域规划模拟沙盘

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2010206671A (ja) * 2009-03-05 2010-09-16 Seiko Epson Corp プロジェクターおよびプロジェクターシステム
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2010206671A (ja) * 2009-03-05 2010-09-16 Seiko Epson Corp プロジェクターおよびプロジェクターシステム
CN103914152A (zh) * 2014-04-11 2014-07-09 周光磊 三维空间中多点触控与捕捉手势运动的识别方法与系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张凯等: "基于Kinect的投影互动控制系统设计", 《自动化应用》 *
杨云涛等: "非接触式人体三维测量系统的研究", 《计算机测量与控制》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113223344A (zh) * 2021-05-25 2021-08-06 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示系统
CN113223344B (zh) * 2021-05-25 2022-08-23 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示系统
CN113870683A (zh) * 2021-10-19 2021-12-31 武汉润林果达科技有限公司 一种建筑工程设计用于区域规划模拟沙盘

Also Published As

Publication number Publication date
CN111506200B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
US20220334646A1 (en) Systems and methods for extensions to alternative control of touch-based devices
US7519223B2 (en) Recognizing gestures and using gestures for interacting with software applications
CN107665042B (zh) 增强的虚拟触摸板和触摸屏
CN102549527B (zh) 用于便携式有形交互的系统
US9658695B2 (en) Systems and methods for alternative control of touch-based devices
KR101652535B1 (ko) 차량 인터페이스를 위한 제스처 기반 제어 시스템
Garber Gestural technology: Moving interfaces in a new direction [technology news]
Hsieh et al. Novel Haar features for real-time hand gesture recognition using SVM
CN103164022B (zh) 多指触摸方法和装置、便携式终端设备
Prätorius et al. DigiTap: an eyes-free VR/AR symbolic input device
US20110250929A1 (en) Cursor control device and apparatus having same
JP2020067999A (ja) ジェスチャー認識に基づく仮想ユーザー・インターフェース対話の方法および関係した装置
CN111506200A (zh) 一种基于体感互动控制投影的系统和方法
Geer Will gesture recognition technology point the way?
US11886643B2 (en) Information processing apparatus and information processing method
CN106200900A (zh) 基于识别区域在视频中触发虚拟现实交互的方法及系统
JPH0784714A (ja) コマンド処理装置
Hosoi et al. VisiCon: a robot control interface for visualizing manipulation using a handheld projector
WO2019134606A1 (zh) 终端的控制方法、装置、存储介质及电子设备
US20220050528A1 (en) Electronic device for simulating a mouse
CN111522447B (zh) 显示切换方法、显示终端、电子设备和存储介质
TWI696092B (zh) 可根據現實物件創建虛擬物件並為虛擬物件賦予預設互動特性之頭戴式顯示系統、相關方法以及相關電腦可讀取記錄媒體
CN203217524U (zh) 基于球形显示的多点触摸系统
Vasanthagokul et al. Virtual Mouse to Enhance User Experience and Increase Accessibility
US20190235710A1 (en) Page Turning Method and System for Digital Devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant