CN111352541A - 投影式控制系统 - Google Patents

投影式控制系统 Download PDF

Info

Publication number
CN111352541A
CN111352541A CN202010126718.0A CN202010126718A CN111352541A CN 111352541 A CN111352541 A CN 111352541A CN 202010126718 A CN202010126718 A CN 202010126718A CN 111352541 A CN111352541 A CN 111352541A
Authority
CN
China
Prior art keywords
projection
user
module
control system
rotating body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010126718.0A
Other languages
English (en)
Inventor
陶龙
徐鹤还
章昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Honyar Electrical Co Ltd
Hangzhou Hongyan Intelligent Technology Co Ltd
Original Assignee
Hangzhou Honyar Electrical Co Ltd
Hangzhou Hongyan Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Honyar Electrical Co Ltd, Hangzhou Hongyan Intelligent Technology Co Ltd filed Critical Hangzhou Honyar Electrical Co Ltd
Priority to CN202010126718.0A priority Critical patent/CN111352541A/zh
Publication of CN111352541A publication Critical patent/CN111352541A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及一种投影式控制系统,该投影式控制系统包括:投影模块,被配置为投射可视化操作界面;采集模块,被配置为采集用户在可视化操作界面内的操作的深度位置及平面位置;以及识别处理模块,耦接到投影模块和采集模块,被配置为接收采集模块采集的信号,基于采集的信号识别用户的操作并执行对应的功能。

Description

投影式控制系统
技术领域
本发明一般涉及电工电器附件技术,具体涉及一种投影式的智能控制系统。
背景技术
目前,家庭用户通过电器附件(例如开关面板)输入控制指令给耦接每一面板的受控电器设备,例如,为了丰富操控功能和体验而采用可视图标触摸的方式,这些控制面板局限于安装规格和位置小型化,显示或固定通用按键的控制本身存在控制区域较小,不便于观察且控制方式单一的问题。
发明内容
根据本发明的一些实施例,提供了一种投影控制系统,包括:投影模块,被配置为投射可视化操作界面;采集模块,被配置为采集用户在所述可视化操作界面内的操作的深度位置及平面位置;以及识别处理模块,耦接到所述投影模块和所述采集模块,被配置为接收所述采集模块采集的信号,基于采集的信号识别用户的操作并执行对应的功能。
根据本发明的一些实施例,提供了一种投影控制的方法,包括:投射可视化操作界面;采集用户在所述可视化操作界面内的操作的深度位置及平面位置;以及接收采集的信号,基于采集的信号识别用户的操作,并执行对应的功能。
根据本发明的一些实施例,提供了一种用于投影控制的非瞬态存储介质,其上存储有程序,当所述程序由计算机执行时,使所述计算机执行如上所述的方法。
根据本发明的一些实施例,提供了一种投影控制的装置,包括存储程序的非瞬态存储介质和处理器,其特征在于,当所述程序由处理器执行时,使所述处理器执行如上所述的方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的控制框图;
图2是本发明实施例的使用示意图;
图3是本发明实施例另一角度的使用示意图;
图4是本发明实施例1的结构示意图;
图5是本发明实施例1另一角度的结构示意图;
图6是本发明实施例2的结构示意图;
图7是本发明实施例2另一角度的结构示意图;
图8是本发明实施例3的结构示意图;
图9是本发明实施例3的使用示意图;
图10是本发明实施例3另一角度的结构示意图;
图11是本发明实施例另一角度的使用示意图。
图12是本发明实施例4的投影单元在旋转体上的三维坐标图;
图13是本发明实施例4的投影单元在旋转体上的三维坐标图沿着z轴的截面;
图14是本发明的实施例的方法的流程图。
附图标记说明:1-面板,10-旋动体,11-采集部件,12-卡扣,20-主体,21-投影部件,211-连接件,22-安装槽,23-转动件,24-螺纹,100-可视化操作界面,101-第一交互项目,102-第二交互项目,103-第三交互项目,200-触敏界面,2-建筑面,3-用户。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
针对现有技术的不足,本发明公开一种投影式控制系统,能够解决现有控制面板控制方式单一和操控空间受限的问题。本发明提供投影式的控制系统可包括用于投射可视化操作界面(通常情况下,操作界面是虚拟的)的投影部件、用于采集用户在该可视化操作界面内操作位置和操作手势的采集部件以及分别耦接投影部件和采集部件的识别处理部件。其中,可通过识别处理部件接收该采集部件发送的信号并控制投影部件投射的内容,所述采集部件包括第一采集元件和第二采集元件,第一采集元件采集用户在可视化操作界面内的深度位置变化并发送深度位置变化信号至识别处理部件进行识别和处理,第二采集元件采集用户在可视化操作界面内的平面位置并发送平面位置信号或平面位置变化信号至识别处理部件进行识别和处理。
进一步的,所述识别处理部件被配置为,当识别处理部件接收到深度位置变化信号或/和平面位置变化信号时,执行深度位置变化信号或/和平面位置变化信号所代表的函数操作。识别处理部件能够对深度位置变化信号、平面位置变化信号进行单独处理,也可以对深度位置变化信号和平面位置变化信号组成的信号进行处理,能够识别用户的多种操作手势。
进一步的,所述识别处理部件被配置为,当识别处理部件接收到平面位置信号时,执行平面位置信号所代表的函数操作。对用户的操作位置进行识别和定位,并执行对应位置的功能,用户无需操作实体界面也能够实现与实体界面相同的功能。
进一步的,所述投影部件包括发射元件,发射元件发射光源信号,第一采集元件采集被反射的光源信号并发送光源信号至识别处理部件进行识别和处理。光源信号可为激光信号,通过激光反射的方式定位用户的操作位置,定位精准、快速,受外界环境影响小。
进一步的,所述识别处理部件被配置为,当识别处理部件接收到光源信号时,识别光源信号对应的平面位置信号并执行平面位置信号所代表的函数操作。通过识别光源信号并对用户的操作位置进行识别和定位,并执行对应位置的功能,定位精准、快速,受外界环境影响小,用户无需操作实体界面也能够实现与实体界面相同的功能。
进一步的,还包括反馈部件,所述反馈部件与识别处理部件耦接,用于向用户发出反馈信息。通过反馈部件向用户发出反馈信息,用户在不依靠任何其他物理设备的情况下可以执行操作手势,也无需接收任何触觉反馈,能够适应不同人群的需求和不同环境的要求。
进一步的,所述识别处理部件被配置为,当识别处理部件接收到深度位置变化信号或平面位置信号或平面位置变化信号时,向反馈部件发送指令信号。识别处理部件能够识别用户不同的操作手势和操作位置,并根据不同的操作手势和操作位置控制反馈部件发出不同的反馈信息。
进一步的,还包括捕捉部件,所述捕捉部件与识别处理部件耦接,用于捕捉用于控制的场景信息并发送场景信号至识别处理部件进行识别和处理。通过捕捉部件识别用户的场景信息,能够自动与用户的使用环境进行匹配,无需手动设置,使得使用过程更加智能,并且能够使用大多数使用环境。所述捕捉部件和所述采集部件可以为同一部件或不同部件。
进一步的,所述识别处理部件被配置为,当识别处理部件接收到场景信号时,向投影部件发送与场景信号匹配的可视化操作界面信号。投射处的可视化操作界面与用户的使用环境相匹配,用户可以直接操作和控制,省去了手动设置步骤,提高了用户使用的舒适度。
本发明公开一种投影式控制系统,通过投影的方式投射出可视化操作界面,能够通过用户操作所投影的图形中显示的不同图案实现功能输入,投影区域的大小能够根据用户的需求进行增大或减小,便于用户操作使用;通过建立坐标系的方式对用户在可视化操作界面内的操作位置和操作过程进行跟踪、记录和分析,使得识别更精准、反馈更快速,提升用户在使用过程的舒适度。
实施例1
如图1至图5所示,本发明实施例所述投影式控制系统,包括安装在建筑面2内的面板1,面板1包括主体20和旋动体10,旋动体10安装在主体20的安装槽22内,旋动体10的边沿安装有与主体20连接的转动件23,转动件23可为一转轴,旋动体10通过转动件23在主体20上沿旋动体10的边沿转动,旋动体10可沿图6中旋转体10的下边沿转动,旋动体10也可沿图7中旋转体10的侧边沿转动。
主体20上安装有用于向建筑面2投射可视化操作界面100的投影部件21、用于采集用户3在可视化操作界面100内操作位置和操作手势的采集部件11、分别耦接投影部件21和采集部件11的识别处理部件,识别处理部件接收采集部件11发送的信号并控制投影部件21投射的内容,投影部件21包括能够向建筑面9投射图案的图案投影元件,图案投影元件所投射的图案的所在位置和大小尺寸是可根据需要或用户的动作进行调整和变化的。
采集部件11安装旋动体10上,采集部件11可为一摄像头,通过摄像头捕捉用户3的操作位置,并发送平面位置信号至识别处理部件进行识别,识别处理部件执行平面位置信号对应的函数操作。旋动体10通过转动调整采集部件11的采集方向,使采集部件11的采集方向朝向可视化操作界面100。投影部件21安装在主体20上,投影部件21通过连接件211与主体20连接,连接件211可为一转轴,能够帮助投影部件21微调投影方向,使得投影部件21的投射方向和采集部件11的采集方向相同,从而采集部件11能够采集到用户3在可视化操作界面100内的操作。例如,采集部件11可以在约120°的角度范围内捕捉用户3在可视化操作界面100内的操作。这里的角度范围仅仅出于示例的目的,不应理解为对本发明的限制。
面板1安装有捕捉部件,捕捉部件可为一摄像头,摄像头捕捉用户3身边的家居设备或家用电器,例如灯、电视机或厨卫设备等,捕捉部件与识别处理部件耦接,用于捕捉用于控制的场景信息并发送场景信号至识别处理部件进行识别,识别处理部件控制投影部件21投射与场景信息对应的可视化操作界面100,使得可视化操作界面100上的第一交互项目101、第二交互项目102、第三交互项目103分别和灯、电视机或厨卫设备等一一对应。所述捕捉部件和所述采集部件可以为同一部件或不同部件。
面板1安装有反馈部件,反馈部件与识别处理部件耦接,用于在识别处理部件接识别到用户3在可视化操作界面100内发生操作时向用户3发出反馈信息。用户3的手指或操作指针(诸如笔)不一定必须接触建筑面2便可获得一个反馈信息。也就是说,当用户2与可视化操作界面100交互时,无需接收任何触觉反馈,反馈部件产生的反馈可以是灯泡发出的灯光或扬声器发出的声音的形式。
实施例2
本实施例与实施例1的区别在于,如图6和图7所示,投影部件21设在旋动体10上,投影部件21内的图案投影元件与投影部件21均安装在旋动体10的表面上,无论旋动件10是否旋转,或者旋动件旋转的角度如何,投影部件21的投射方向和采集部件11的采集方向都相同,在旋动件10发生旋转时,只会影响投影部件21在建筑面2内投射的方位。
其他未描述结构参照实施例1。
实施例3
本实施例与实施例1的区别在于,如图8至图10所示,旋动体10的外周侧壁上设有用于旋动体10沿旋动体10周向转动的螺纹24,旋动体10通过螺纹24与主体20通过旋转的方式可拆卸连接。旋动体10的外周侧壁上还安装有卡扣12,在旋动体10向主体20转动安装的过程中进行定位,确定最大旋入量。
在旋动体10旋转的过程中,旋动体10至少旋转360°的角度,投影部件21和采集部件11均安装在旋动体上外周侧壁上,投影部件21和采集部件11间隔设置,投影部件21的投射方向和采集部件11的采集方向相同。投影部件21能够向建筑面2内主体20周围360°的角度范围内投射可视化操作界面100,能够满足多人同时操作的需求。
旋动体10的端面安装有触敏界面200,触敏界面200可为一触控显示屏,触敏界面200与识别处理部件耦接,触敏界面200用于用户3输入用户信息并发送用户信息至识别处理部件。用户3能够通过触敏界面200对本发明实施例所述投影式控制系统进行设置和调整,或者在出现故障时进行简单的检查和维护。
其他未描述结构参照实施例1。
实施例4
本实施例与实施例1的区别在于,如图1至图3所示,投影部件21包括能够向建筑面9投射图案的图案投影元件和能够发射激光或者红外线的发射元件,图案投影元件所投射的图案的所在位置和大小尺寸是可根据需要或用户的动作进行调整和变化的。采集部件11可为一摄像头,通过摄像头捕捉用户3的操作位置或者接收发射元件发射的激光或者红外线,并发送平面位置信号至识别处理部件进行识别,识别处理部件执行位置信号对应的函数操作。
其他未描述结构参照实施例1。
本实施例与实施例1的区别在于,如图1所示,采集部件11包括第一采集元件和第二采集元件,第一采集元件可为一红外发射接收器,第二采集元件可为一摄像头。
如图11所示,在以上任何实施例中,识别处理部件被配置为将可视化操作界面100标记为具有坐标X方向和Y方向的二维区域,第二采集元件通过直接捕捉用户3的操作(例如点触动作)的位置,或者接收用户3所反射的光源信号,光源信号可以为激光或者红外光,以此识别用户3在可视化操作界面100内的平面位置的坐标函数(xc,yc),同时可视化操作界面100还具有坐标Z方向的第三维区域,第一采集元件采集用户3在Z轴方向上操作手势而产生的深度变量hc,采集部件11采集用户3在可视化操作界面100内的操作位置并产生识别参数P:
P=f(xc,yc,hc,xb,yb)(1)
其中(xb,yb)为用户3在该二维区域内的位置坐标。
识别处理部件接收识别参数P并进行识别,以判断用户3在可视化操作界面100内产生的诸如横向移动或向建筑面9按压组件101的手势,识别处理部件执行动识别参数P对应的函数操作。识别处理部件接收识别参数P后也可以将识别参数P发送至云服务器进行分析和处理。
对于图8~10示出的比较复杂的实施例来说,针对旋转体可建立如图12所示三维直角坐标系,其中旋转体的轴线与z轴重合,并指向面板外部;旋转体的底面与xOy平面重合,其中上底面的半径为rup,下底面的半径为rdown,旋转体的高度为H。在xOy平面内,假设投影单元的出射光束中心线与xOy平面的夹角为β;第1个投影单元投射出的投影按键的中心点B1在x轴上;第n个投影单元投射出的投影按键的中心点Bn绕z轴逆时针旋转角αn,其中投影按键中心点的半径,即OBn的长度表示为R′(αn),则第n个投影单元在旋转体上的三维坐标可表示为(xn,yn,zn),满足如下关系式:
Figure BDA0002394618150000091
如图13所示,当投影按键中心点Bn在xOy平面内的轨迹为一个半径R0′的圆形时,即R′(αn)=R0′,则所有投影单元在旋转体上的高度均为
Figure BDA0002394618150000092
进一步,当旋转体为圆柱体,即rdown=rup=r时,投影单元的坐标可表示为
Figure BDA0002394618150000093
当投影按键中心点Bn在xOy平面内的轨迹为一个绕z轴旋转的等距螺旋线。假设等距螺旋线的螺距为S,内圈第一个投影按键的中心点B1的半径为R0′,则第n个投影按键中心点的半径可表示为:
Figure BDA0002394618150000094
进一步,当旋转体为圆柱体,即rdown=rup=r时,投影单元的坐标可表示为
Figure BDA0002394618150000095
即投影单元在圆柱体的坐标随αn变化其轨迹为一圆柱螺旋线,其中螺距为Stanβ。
当投影按键中心点轨迹为其他规则图形时,只需确定投影按键中心点Bn的以角度αn为自变量的半径函数R′(αn),代入式(1),即可计算出对应投影单元的位置。
如图14所示,本发明公开了一种投影控制的方法,包括:在1410处,投射可视化操作界面;在1420处,采集用户在所述可视化操作界面内的操作的深度位置及平面位置;以及在1430处,接收采集的信号,基于采集的信号识别用户的操作,并执行对应的功能。
在一种实施方式中,该方法还包括根据用户的动作调整所述可视化操作界面。
在一种实施方式中,该方法还包括捕捉投影式控制系统所在的环境,以及基于要控制的环境的信号,投射包括与要控制的环境对应的图案的可视化操作界面。
在一种实施方式中,该方法还包括当识别出用户在所述可视化操作界面内的操作时,向用户发出反馈信息。
在一种实施方式中,该方法还包括接收用户通过触敏界面输入的信息。
在一种实施方式中,该方法还包括在投影过程中发射光源信号以及投射所述可视化操作界面的图案,所述图案的位置和大小能够调整和变化。
在一种实施方式中,该方法还包括利用由用户反射的光源信号,获取深度位置。
在一种实施方式中,该方法还包括将平面位置及深度位置发送至云服务器以进行分析和处理。
综上所述,本发明公开一种投影式控制的系统和方法,通过投影的方式投射出可视化操作界面,能够通过用户操作所投影的图形中显示的不同图案实现功能输入,投影区域的大小能够根据用户的需求进行增大或减小,便于用户操作使用;通过建立坐标系的方式对用户在可视化操作界面内的操作位置和操作过程进行跟踪、记录和分析,使得识别更精准、反馈更快速,提升用户在使用过程的舒适度。
可能以许多方式来实现本发明的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和系统。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员应该理解,可在不脱离本发明的范围和精神的情况下,对以上实施例进行修改。本发明的范围由所附权利要求来限定。

Claims (10)

1.一种投影控制系统,包括:
投影模块,被配置为投射可视化操作界面;
采集模块,被配置为采集用户在所述可视化操作界面内的操作的深度位置及平面位置;以及
识别处理模块,耦接到所述投影模块和所述采集模块,被配置为接收所述采集模块采集的信号,基于采集的信号识别用户的操作并执行对应的功能。
2.如权利要求1所述的投影控制系统,其中,所述识别处理模块能够根据用户的动作调整所述可视化操作界面。
3.如权利要求1所述的投影控制系统,其中,所述采集模块还被配置为捕捉投影控制系统所在的环境,并且所述识别处理模块基于来自所述采集模块的要控制的环境的信号,控制所述投影模块投射包括与要控制的环境对应的图案的可视化操作界面。
4.如权利要求1所述的投影控制系统,其中,所述投影控制系统还包括反馈模块,所述反馈模块耦接到所述识别处理模块,被配置为当所述识别处理模块识别出用户在所述可视化操作界面内的操作时向用户发出反馈信息。
5.如权利要求1所述的投影控制系统,其中,所述投影模块将所述可视化操作界面投射在建筑面上,所述投影控制系统还包括安装在所述建筑面上的面板,所述面板包括主体和能够转动地连接到所述主体的旋动体,其中:
所述投影模块和所述识别处理模块安装在所述面板上,以及
所述采集模块安装在所述旋动体上,所述旋动体通过转动调整所述采集模块的采集方向。
6.如权利要求5所述的投影控制系统,其中,所述投影模块设置在所述主体或者所述旋动体上。
7.如权利要求5所述的投影控制系统,其中,所述旋动体通过螺纹连接到所述主体,所述投影模块和所述采集模块在所述旋动体的外周侧壁上间隔设置。
8.如权利要求7所述的投影控制系统,其中,所述旋动体的端面安装有触敏界面,所述触敏界面耦接到所述识别处理模块,被配置为供用户输入信息,并且将用户输入的信息发送到所述识别处理模块。
9.如权利要求1所述的投影控制系统,其中,所述投影模块包括图案投影元件和发射元件,所述发射元件发射光源信号,所述图案投影元件投射所述可视化操作界面的图案,所述图案的位置和大小能够调整和变化。
10.一种投影控制的方法,包括:
投射可视化操作界面;
采集用户在所述可视化操作界面内的操作的深度位置及平面位置;以及
接收采集的信号,基于采集的信号识别用户的操作,并执行对应的功能。
CN202010126718.0A 2020-02-28 2020-02-28 投影式控制系统 Pending CN111352541A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010126718.0A CN111352541A (zh) 2020-02-28 2020-02-28 投影式控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010126718.0A CN111352541A (zh) 2020-02-28 2020-02-28 投影式控制系统

Publications (1)

Publication Number Publication Date
CN111352541A true CN111352541A (zh) 2020-06-30

Family

ID=71195812

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010126718.0A Pending CN111352541A (zh) 2020-02-28 2020-02-28 投影式控制系统

Country Status (1)

Country Link
CN (1) CN111352541A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170026612A1 (en) * 2015-07-20 2017-01-26 Microsoft Technology Licensing, Llc Projection unit
CN106713880A (zh) * 2016-12-02 2017-05-24 北京数科技有限公司 一种便携式智能投影系统
CN106897688A (zh) * 2017-02-21 2017-06-27 网易(杭州)网络有限公司 交互式投影装置、控制交互式投影的方法和可读存储介质
CN107807538A (zh) * 2017-11-30 2018-03-16 南京物联传感技术有限公司 一种智能家居的虚拟投影开关系统及工作方法
CN109597531A (zh) * 2018-12-11 2019-04-09 哈尔滨拓博科技有限公司 一种基于平面手势操作的照明设备控制装置及控制系统
CN110531843A (zh) * 2018-05-24 2019-12-03 富泰华工业(深圳)有限公司 电子装置及电子装置的操作控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170026612A1 (en) * 2015-07-20 2017-01-26 Microsoft Technology Licensing, Llc Projection unit
CN106713880A (zh) * 2016-12-02 2017-05-24 北京数科技有限公司 一种便携式智能投影系统
CN106897688A (zh) * 2017-02-21 2017-06-27 网易(杭州)网络有限公司 交互式投影装置、控制交互式投影的方法和可读存储介质
CN107807538A (zh) * 2017-11-30 2018-03-16 南京物联传感技术有限公司 一种智能家居的虚拟投影开关系统及工作方法
CN110531843A (zh) * 2018-05-24 2019-12-03 富泰华工业(深圳)有限公司 电子装置及电子装置的操作控制方法
CN109597531A (zh) * 2018-12-11 2019-04-09 哈尔滨拓博科技有限公司 一种基于平面手势操作的照明设备控制装置及控制系统

Similar Documents

Publication Publication Date Title
CN106030495B (zh) 利用单个感测系统的基于多模式姿势的交互系统及方法
TWI423096B (zh) 具可觸控投影畫面之投影系統
CA2862446C (en) Interactive input system and method
CN103929603B (zh) 图像投影设备、图像投影系统及控制方法
US20130135260A1 (en) Camera-based multi-touch interaction and illumination system and method
CN101794171A (zh) 基于红外光运动捕捉的无线感应交互系统
US20090115722A1 (en) Apparatus and method for tracking a light pointer
JP2011054165A (ja) 対話システムのためのジェスチャ認識方法および対話システム
US11435856B2 (en) Information processing device, information processing method, and program
EP2208112A2 (en) Apparatus and method for tracking a light pointer
CN111107406A (zh) 一种显示终端的控制方法、装置和存储介质
JP2006268582A (ja) ジェスチャによる情報機器の制御方法および制御システム
JP2020135096A (ja) 表示方法、表示装置、及び、インタラクティブプロジェクター
Kim et al. Vision based laser pointer interaction for flexible screens
CN201369027Y (zh) 一种红外激光笔遥指虚拟触摸系统
CN111352541A (zh) 投影式控制系统
KR20130110309A (ko) 반사부를 이용한 터치인식 시스템
JP4687820B2 (ja) 情報入力装置及び情報入力方法
KR100601001B1 (ko) 자이로와 초음파를 이용한 컴퓨터 입력장치
US9239635B2 (en) Method and apparatus for graphical user interface interaction on a domed display
WO2001046941A1 (en) Method and apparatus for vision-based coupling between pointer actions and projected images
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
KR100511044B1 (ko) 카메라를 이용한 포인팅장치
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger
CN116165908A (zh) 一种智能家居系统手势控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination