CN110609616A - 一种具有智能交互功能的立体投影沙盘系统 - Google Patents

一种具有智能交互功能的立体投影沙盘系统 Download PDF

Info

Publication number
CN110609616A
CN110609616A CN201910542180.9A CN201910542180A CN110609616A CN 110609616 A CN110609616 A CN 110609616A CN 201910542180 A CN201910542180 A CN 201910542180A CN 110609616 A CN110609616 A CN 110609616A
Authority
CN
China
Prior art keywords
scene
gesture
information
control system
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910542180.9A
Other languages
English (en)
Other versions
CN110609616B (zh
Inventor
杜国铭
李祝强
冯大志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Top Technology Co Ltd
Original Assignee
Harbin Top Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Top Technology Co Ltd filed Critical Harbin Top Technology Co Ltd
Priority to CN201910542180.9A priority Critical patent/CN110609616B/zh
Publication of CN110609616A publication Critical patent/CN110609616A/zh
Application granted granted Critical
Publication of CN110609616B publication Critical patent/CN110609616B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种具有智能交互功能的立体投影沙盘系统,所述沙盘系统包括信息显示系统与智能交互控制系统;所述信息显示系统用于显示场景信息和场景数据信息,所述智能交互控制系统包括平面手势控制系统与空间手势控制系统,所述平面手势控制系统用于控制顶层场景数据信息,所述空间手势控制系统用于控制底层场景信息。本发明所述系统能够将场景数据信息浮于场景上方,不仅产生了立体效果同时避免了相互遮挡,分层显示使得信息展示更加清楚明朗。同时设计了相应的智能交互手势可以实现多人分别对场景与场景数据信息同时进行独立控制,丰富了虚拟沙盘的展示效果与智能交互性。

Description

一种具有智能交互功能的立体投影沙盘系统
技术领域
本发明属于智能交互技术领域,特别是涉及一种具有智能交互功能的立体投影沙盘系统。
背景技术
沙盘作为一种形象直观的展示方式被广泛应用于各种场景的展示中,常见的沙盘有军事沙盘、地形沙盘以及建筑沙盘等。传统的实物沙盘存在制作复杂、场景切换难度大、无法显示动态效果以及对于大范围场景展示时尺寸受限等弊端。
随着图像图形技术的发展,逐渐衍生出利用计算机技术生成三维模型,并通过投影或电子显示屏进行展示的虚拟沙盘。虚拟沙盘相较于传统沙盘可以做到场景切换简单、显示动态效果等优点,同时可以显示场景中的一些关键信息与数据,并可以进行一些简单的交互操作。由于虚拟沙盘的场景显示与关键信息显示在同一界面会产生相互遮挡,当场景复杂时会使展示界面显得凌乱,同时很难对场景和关键信息进行独立的操作。然而沙盘除了直观的展示效果以外,还应具有丰富的场景及关键信息操作功能,但现有的虚拟沙盘交互功能过于简单,使得沙盘在信息展示时效果大打折扣。
发明内容
本发明目的是为了解决现有的技术问题,提出了一种具有智能交互功能的立体投影沙盘系统。
本发明是通过以下技术方案实现的,本发明提出一种具有智能交互功能的立体投影沙盘系统,所述沙盘系统包括信息显示系统与智能交互控制系统;所述信息显示系统用于显示场景信息和场景数据信息,所述信息显示系统中的投影仪和投影膜用于显示底层的场景信息,所述信息显示系统中的透明液晶显示屏用于显示顶层的场景数据信息,所述透明液晶显示屏与投影膜之间留有间距,同时场景数据信息采用半透明效果;所述智能交互控制系统包括平面手势控制系统与空间手势控制系统,所述平面手势控制系统用于控制顶层场景数据信息,所述空间手势控制系统用于控制底层场景信息。
进一步地,所述场景信息由3D游戏引擎Unity绘制,首先将外部场景数据导入到Unity中实现了场景的3D建模,并利用OpenGL和DirectX对模型进行渲染完成3D场景的绘制。
进一步地,所述平面手势控制系统中的红外边框固定于透明液晶显示屏四周,红外边框的尺寸与透明液晶显示屏一致,所述红外边框用于提供触点的坐标信息,从而使得所述平面手势控制系统根据获得的坐标信息进行平面手势识别。
进一步地,所述平面手势包括单击、双击、拖动和放大缩小手势。
进一步地,所述平面手势识别具体流程为:
步骤a、对红外边框任一坐标位置触点信息进行检查;
步骤b、判断是否有触点信息出现,如果有执行步骤c,如果没有执行步骤a;
步骤c、判断所述触点信息是否是单点,如果是则执行步骤d,如果不是则判断当前手势为放大缩小手势;
步骤d、对所述触点信息状态进行判断;
步骤e、判断所述触点信息是否持续出现,如果是则判定为拖动手势,如果不是则执行步骤f;
步骤f、判断预定时间间隔内且预设范围内是否再次出现触点信息,如果是则判定为双击手势,如果不是则判定为单击手势。
进一步地,所述空间手势控制系统的空间手势采集设备为摄像头,所述空间手势控制系统包括基于肤色的手部检测模块、基于凸包的手型识别模块以及基于动态轨迹的手势识别模块。
进一步地,所述空间手势包括底层场景的放大与缩小以及场景的移动;场景的放大与缩小是两手掌伸平,两手掌远离为放大,靠近为缩小;场景的移动为单手手掌伸平,进行移动,并通过握拳完成场景的移动。
进一步地,所述基于肤色的手部检测模块用于将摄像头采集到的RGB图像转换至YCrCb空间中,通过肤色阈值分割提取出手部图像并转换成二值图像,再基于二值图像提取出手部的边缘轮廓完成手部检测。
进一步地,所述基于凸包的手型识别模块具体操作步骤为:首先对手部轮廓提取凸包,计算凸包中每个缺陷的深度,删除深度最小的缺陷同时找到剩余缺陷中的最大深度,判定每个缺陷深度与最大深度的比值与预设阈值的大小,当比值大于该阈值时,则认为是一个有效的凸包缺陷,最后统计有效的凸包缺陷的个数从而确定当前手型。
进一步地,所述基于动态轨迹的手势识别模块具体操作为:在确定手型后,计算手部轮廓的外接矩形,并计算外接矩形的中心,以该中心的运动轨迹来表示手势的运动轨迹,并根据运动轨迹来进行动态的手势识别。
本发明所带来的有益效果:
本发明采用分层显示技术将场景(山脉地形、楼盘等)与场景数据信息(高度、植被覆盖情况、户型图等)进行分层独立显示,场景数据信息浮于场景上方,不仅产生了立体效果同时避免了相互遮挡,分层显示使得信息展示更加清楚明朗。同时设计了相应的智能交互手势可以实现多人分别对场景与场景数据信息同时进行独立控制,丰富了虚拟沙盘的展示效果与智能交互性。
附图说明
图1为本发明所述具有智能交互功能的立体投影沙盘系统结构图;
图2为基于凸包的手型识别示意图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
结合图1,本发明提出一种具有智能交互功能的立体投影沙盘系统,所述沙盘系统包括信息显示系统与智能交互控制系统;所述信息显示系统用于显示场景信息和场景数据信息,所述信息显示系统中的投影仪和投影膜用于显示底层的场景信息,所述信息显示系统中的透明液晶显示屏用于显示顶层的场景数据信息,为了呈现出场景数据信息浮于场景上方的效果,所述透明液晶显示屏与投影膜之间留有间距,所述间距优选为1cm,同时场景数据信息采用半透明效果;为了实现对虚拟沙盘各信息同时独立控制,所述智能交互控制系统包括平面手势控制系统与空间手势控制系统,所述平面手势控制系统用于控制顶层场景数据信息,所述空间手势控制系统用于控制底层场景信息,同时根据沙盘常见展示功能的需求对空间手势进行了定制化的设计。
所述场景信息由3D游戏引擎Unity绘制,首先将外部场景数据导入到Unity中实现了场景的3D建模,并利用OpenGL和DirectX对模型进行渲染完成3D场景的绘制。
所述平面手势控制系统中的红外边框固定于透明液晶显示屏四周,红外边框的尺寸与透明液晶显示屏一致,所述红外边框用于提供触点的坐标信息,从而使得所述平面手势控制系统根据获得的坐标信息进行平面手势识别。所述平面手势包括单击、双击、拖动和放大缩小手势。
单击手势:
当红外边框某一坐标位置触点信息从无——有——无变化时,说明该坐标位置发生了单击动作,并通过通信协议发送出去用于控制透明液晶显示屏,单击手势主要用于控制场景数据信息的弹出与隐藏。
双击手势:
当红外边框某一坐标位置触点信息从无——有——无——有——无变化时,说明该坐标位置发生了双击动作,双击动作主要用于控制场景数据信息的打开与关闭。
拖动手势:
当红外边框中触点信息持续出现并且无消失时,说明是拖动手势,同时拖动的轨迹由连续的触点坐标给出,当触点信息消失时,说明拖动手势结束。
放大缩小手势:
当红外边框中同时持续出现多个触点信息,且触点信息呈现两组相反的运动趋势时,该手势为放大缩小手势,当两组触点各自中心之间的距离逐渐变大时为放大手势,反之为缩小手势。
所述平面手势识别具体流程为:
步骤a、对红外边框任一坐标位置触点信息进行检查;
步骤b、判断是否有触点信息出现,如果有执行步骤c,如果没有执行步骤a;
步骤c、判断所述触点信息是否是单点,如果是则执行步骤d,如果不是则判断当前手势为放大缩小手势;
步骤d、对所述触点信息状态进行判断;
步骤e、判断所述触点信息是否持续出现,如果是则判定为拖动手势,如果不是则执行步骤f;
步骤f、判断预定时间间隔内且预设范围内是否再次出现触点信息,如果是则判定为双击手势,如果不是则判定为单击手势。所述预定时间间隔优选为0.5s,预设范围优选为0-5mm。
由于信息的分层显示,若单独采用平面手势进行上下层信息的控制将会增加操作手势的复杂性,因此采用空间手势进行底层场景信息的控制,所述空间手势控制系统的空间手势采集设备为摄像头,该摄像头为普通RGB摄像头。所述空间手势控制系统包括基于肤色的手部检测模块、基于凸包的手型识别模块以及基于动态轨迹的手势识别模块。
所述空间手势包括底层场景的放大与缩小以及场景的移动;场景的放大与缩小是两手掌伸平,两手掌远离为放大,靠近为缩小;场景的移动为单手手掌伸平,进行移动,并通过握拳完成场景的移动。
所述基于肤色的手部检测模块用于将摄像头采集到的RGB图像转换至YCrCb空间中,正常黄种人的Cr分量大约在133至173之间,Cb分量大约在77至127之间,通过肤色阈值分割提取出手部图像并转换成二值图像,再基于二值图像提取出手部的边缘轮廓完成手部检测。
所述基于凸包的手型识别模块具体操作步骤为:首先对手部轮廓提取凸包,计算凸包中每个缺陷的深度,删除深度最小的缺陷同时找到剩余缺陷中的最大深度,判定每个缺陷深度与最大深度的比值与预设阈值的大小,通常各个手指之间的缺陷深度比较接近,本发明中设定阈值为0.8,当比值大于该阈值时,则认为是一个有效的凸包缺陷,最后统计有效的凸包缺陷的个数从而确定当前手型。如图2所示,当手掌张开时有效凸包个数为4个。
手型识别的另一个目的是为了区分空间手势与平面手势,当虚拟沙盘同时由两人分别控制底层场景信息与顶层场景数据信息时,由于平面手势多为点击与单指滑动操作,因此与空间手势的凸包数目是不同的,根据凸包特征识别的结果空间手势中的手型为数字5手势(手掌伸开)而底层平面手势为数字1手势(手掌握拳,食指伸直),同时采用跟踪算法对数字5手势进行跟踪,即使在上下手势出现短暂的相互重合时也可以估计出空间手势的运动轨迹,从而去除空间手势与平面手势同时操作时的相互干扰,既实现场景信息与场景数据信息的独立控制,又可以同时多人操作。
所述基于动态轨迹的手势识别模块具体操作为:在确定手型后,计算手部轮廓的外接矩形,并计算外接矩形的中心,以该中心的运动轨迹来表示手势的运动轨迹,并根据运动轨迹来进行动态的手势识别。
所述空间手势识别具体流程为:首先进行手部检测,进行手部轮廓的提取,判断当前是否有手,其次进行凸包缺陷的检测从而确定当前手掌伸开的个数,如果确定为两个手掌同时伸开,则判断双手外接矩形中心间的距离从而确定当前是放大或缩小手势;如果确定当前仅有一个手掌伸开,则判断手掌是否进行握拳手势,如果是则重新进行手部检测,如果不是则判断单个手掌外接矩形中心移动方向及坐标从而完成场景的移动。
以上对本发明所提出的一种具有智能交互功能的立体投影沙盘系统,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种具有智能交互功能的立体投影沙盘系统,其特征在于:所述沙盘系统包括信息显示系统与智能交互控制系统;所述信息显示系统用于显示场景信息和场景数据信息,所述信息显示系统中的投影仪和投影膜用于显示底层的场景信息,所述信息显示系统中的透明液晶显示屏用于显示顶层的场景数据信息,所述透明液晶显示屏与投影膜之间留有间距,同时场景数据信息采用半透明效果;所述智能交互控制系统包括平面手势控制系统与空间手势控制系统,所述平面手势控制系统用于控制顶层场景数据信息,所述空间手势控制系统用于控制底层场景信息。
2.根据权利要求1所述的系统,其特征在于:所述场景信息由3D游戏引擎Unity绘制,首先将外部场景数据导入到Unity中实现了场景的3D建模,并利用OpenGL和DirectX对模型进行渲染完成3D场景的绘制。
3.根据权利要求1或2所述的系统,其特征在于:所述平面手势控制系统中的红外边框固定于透明液晶显示屏四周,红外边框的尺寸与透明液晶显示屏一致,所述红外边框用于提供触点的坐标信息,从而使得所述平面手势控制系统根据获得的坐标信息进行平面手势识别。
4.根据权利要求3所述的系统,其特征在于:所述平面手势包括单击、双击、拖动和放大缩小手势。
5.根据权利要求4所述的系统,其特征在于:所述平面手势识别具体流程为:
步骤a、对红外边框任一坐标位置触点信息进行检查;
步骤b、判断是否有触点信息出现,如果有执行步骤c,如果没有执行步骤a;
步骤c、判断所述触点信息是否是单点,如果是则执行步骤d,如果不是则判断当前手势为放大缩小手势;
步骤d、对所述触点信息状态进行判断;
步骤e、判断所述触点信息是否持续出现,如果是则判定为拖动手势,如果不是则执行步骤f;
步骤f、判断预定时间间隔内且预设范围内是否再次出现触点信息,如果是则判定为双击手势,如果不是则判定为单击手势。
6.根据权利要求1所述的系统,其特征在于:所述空间手势控制系统的空间手势采集设备为摄像头,所述空间手势控制系统包括基于肤色的手部检测模块、基于凸包的手型识别模块以及基于动态轨迹的手势识别模块。
7.根据权利要求6所述的系统,其特征在于:所述空间手势包括底层场景的放大与缩小以及场景的移动;场景的放大与缩小是两手掌伸平,两手掌远离为放大,靠近为缩小;场景的移动为单手手掌伸平,进行移动,并通过握拳完成场景的移动。
8.根据权利要求7所述的系统,其特征在于:所述基于肤色的手部检测模块用于将摄像头采集到的RGB图像转换至YCrCb空间中,通过肤色阈值分割提取出手部图像并转换成二值图像,再基于二值图像提取出手部的边缘轮廓完成手部检测。
9.根据权利要求8所述的系统,其特征在于:所述基于凸包的手型识别模块具体操作步骤为:首先对手部轮廓提取凸包,计算凸包中每个缺陷的深度,删除深度最小的缺陷同时找到剩余缺陷中的最大深度,判定每个缺陷深度与最大深度的比值与预设阈值的大小,当比值大于该阈值时,则认为是一个有效的凸包缺陷,最后统计有效的凸包缺陷的个数从而确定当前手型。
10.根据权利要求9所述的系统,其特征在于:所述基于动态轨迹的手势识别模块具体操作为:在确定手型后,计算手部轮廓的外接矩形,并计算外接矩形的中心,以该中心的运动轨迹来表示手势的运动轨迹,并根据运动轨迹来进行动态的手势识别。
CN201910542180.9A 2019-06-21 2019-06-21 一种具有智能交互功能的立体投影沙盘系统 Active CN110609616B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910542180.9A CN110609616B (zh) 2019-06-21 2019-06-21 一种具有智能交互功能的立体投影沙盘系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910542180.9A CN110609616B (zh) 2019-06-21 2019-06-21 一种具有智能交互功能的立体投影沙盘系统

Publications (2)

Publication Number Publication Date
CN110609616A true CN110609616A (zh) 2019-12-24
CN110609616B CN110609616B (zh) 2020-04-10

Family

ID=68890986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910542180.9A Active CN110609616B (zh) 2019-06-21 2019-06-21 一种具有智能交互功能的立体投影沙盘系统

Country Status (1)

Country Link
CN (1) CN110609616B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640201A (zh) * 2020-06-11 2020-09-08 浙江商汤科技开发有限公司 虚拟沙盘展示的控制方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201535853U (zh) * 2009-04-01 2010-07-28 黄振强 交互式沙盘系统
CN103607582A (zh) * 2005-07-27 2014-02-26 赛达克雷斯特合伙公司 为多维显示器捕获并放映画面图像的系统、装置和方法
CN104050859A (zh) * 2014-05-08 2014-09-17 南京大学 可交互数字化立体沙盘系统
CN106228922A (zh) * 2016-07-26 2016-12-14 江苏前景信息科技有限公司 多视角三维地景立体数字化全息沙盘系统
US20170206702A1 (en) * 2016-01-15 2017-07-20 Industry Academy Cooperation Foundation Of Sejong University Stereo 3d navigation apparatus and saliency-guided camera parameter control method thereof
CN107479706A (zh) * 2017-08-14 2017-12-15 中国电子科技集团公司第二十八研究所 一种基于HoloLens的战场态势信息构建与交互实现方法
CN107589628A (zh) * 2017-09-11 2018-01-16 大连海事大学 一种基于手势识别的全息投影装置及其工作方法
CN107862652A (zh) * 2017-11-22 2018-03-30 北京星球时空科技有限公司 一种鸟瞰图生成方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103607582A (zh) * 2005-07-27 2014-02-26 赛达克雷斯特合伙公司 为多维显示器捕获并放映画面图像的系统、装置和方法
CN201535853U (zh) * 2009-04-01 2010-07-28 黄振强 交互式沙盘系统
CN104050859A (zh) * 2014-05-08 2014-09-17 南京大学 可交互数字化立体沙盘系统
US20170206702A1 (en) * 2016-01-15 2017-07-20 Industry Academy Cooperation Foundation Of Sejong University Stereo 3d navigation apparatus and saliency-guided camera parameter control method thereof
CN106228922A (zh) * 2016-07-26 2016-12-14 江苏前景信息科技有限公司 多视角三维地景立体数字化全息沙盘系统
CN107479706A (zh) * 2017-08-14 2017-12-15 中国电子科技集团公司第二十八研究所 一种基于HoloLens的战场态势信息构建与交互实现方法
CN107589628A (zh) * 2017-09-11 2018-01-16 大连海事大学 一种基于手势识别的全息投影装置及其工作方法
CN107862652A (zh) * 2017-11-22 2018-03-30 北京星球时空科技有限公司 一种鸟瞰图生成方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640201A (zh) * 2020-06-11 2020-09-08 浙江商汤科技开发有限公司 虚拟沙盘展示的控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN110609616B (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
WO2020216008A1 (zh) 图像处理方法、装置、存储介质及设备
US8286102B1 (en) System and method for image processing using multi-touch gestures
CN103530613B (zh) 一种基于单目视频序列的目标人手势交互方法
US20180224948A1 (en) Controlling a computing-based device using gestures
US8860675B2 (en) Drawing aid system for multi-touch devices
WO2021213067A1 (zh) 物品显示方法、装置、设备及存储介质
CN107403436A (zh) 一种基于深度图像的人物轮廓快速检测与跟踪方法
Tang et al. GrabAR: Occlusion-aware grabbing virtual objects in AR
CN110070551A (zh) 视频图像的渲染方法、装置和电子设备
CN110069125B (zh) 虚拟对象的控制方法和装置
CN108628455B (zh) 一种基于触摸屏手势识别的虚拟沙画绘制方法
CN103106038B (zh) 基于草图手势及弧形摘要时间轴的视频交互方法和系统
JP2014029656A (ja) 画像処理装置および画像処理方法
CN106971370B (zh) 一种基于图片作为背景画平面矢量图的系统及方法
CN110609616B (zh) 一种具有智能交互功能的立体投影沙盘系统
CN104820584B (zh) 一种面向层次化信息自然操控的3d手势界面的构建方法及系统
CN112488059B (zh) 一种基于深度学习模型级联的空间手势控制方法
CN111831123B (zh) 一种适用于桌面混合现实环境的手势交互方法及系统
Hartanto et al. Real time hand gesture movements tracking and recognizing system
CN104123008B (zh) 一种基于静态手势的人机交互方法及系统
Chen et al. Interactive sand art drawing using kinect
CN108255352A (zh) 一种投影交互系统中多点触摸实现方法及系统
Fujiwara et al. Interactions with a line-follower: An interactive tabletop system with a markerless gesture interface for robot control
Wang et al. A real-time vision-based hand gesture interaction system for virtual EAST
CN103558948A (zh) 一种应用在虚拟光学键盘人机交互方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant