CN109407900A - 一种交互方法、装置及系统 - Google Patents
一种交互方法、装置及系统 Download PDFInfo
- Publication number
- CN109407900A CN109407900A CN201811176384.7A CN201811176384A CN109407900A CN 109407900 A CN109407900 A CN 109407900A CN 201811176384 A CN201811176384 A CN 201811176384A CN 109407900 A CN109407900 A CN 109407900A
- Authority
- CN
- China
- Prior art keywords
- equipment
- instruction
- scene
- sent
- demonstration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提出了一种交互方法,涉及人机交互领域。所述方法包括:接收第二设备发送的第一指令;识别当前第一设备演示场景;当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。本发明还对应的提出了交互装置及系统。本发明通过接收演讲人员操作演示设备的指令,然后结合当前触摸设备所显示的演示场景进行有区别的显示。并且,通过演示设备与触摸设备之间的远程交互使演讲人员进行演示,使得在演讲过程当中,演讲人员能够清楚的将所要讲解的内容清晰的演示给听众。不会出现模糊或者看不清楚演示光标的情况。
Description
技术领域
本申请涉及人机交互领域,尤其涉及一种交互方法、装置及系统。
背景技术
光学影像式电子白板主要应用于教育和办公,由于其互动性非常好,因此很受用户青睐,现有光学影像式触摸屏其中一个技术通常包括摄像头模块、光源和回归反射条,摄像头采集拍摄到的亮度信息,进行分析,因不透光的介质遮挡光路,因此可以识别遮挡物所在的角度方向,对触摸物进行位置识别。
目前在使用光学影像式电子白板进行教学和办公过程中,演讲人员往往会从远处对其他人员进行讲解,这时就需要一种具有指示功能的装置能够清楚的让听讲人员了解演讲人员所讲的内容在屏幕上的具体位置。由此,出现了具有红外激光指示的笔或者教具。但是这种由红外激光进行指示的方式会受多方面的干扰而影响指示效果。例如,如果显示屏或周围环境的亮度过高,那么红外激光打在屏幕上的光点就会相对较暗,无法轻易的看到。而且,如果演讲人员演讲的位置与屏幕存在比较大的角度,那么红外激光打在屏幕上的光点也会相对较暗,同样影响指示效果。
发明内容
为解决上述技术问题之一,本发明提供了一种交互方法、装置及系统。
本发明实施例第一方面提供了一种交互方法,所述方法包括:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
优选地,所述方法还包括:
当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
优选地,所述方法还包括:
接收第二设备发送的第四指令;
根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。
优选地,所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
优选地,所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
本发明实施例第二方面提供了一种交互装置,所述交互装置包括处理器,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
优选地,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
优选地,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第四指令;
根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。
优选地,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
优选地,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
本发明实施例第三方面提供了一种交互系统,所述系统包括第一设备、第二设备和如本发明实施例第二方面所述的交互装置,所述交互装置用于接收第二设备发送的指令,并根据所述第二设备发送的指令生成第一设备可执行的指令。
本发明的有益效果如下:
本发明通过接收演讲人员操作演示设备的指令,然后结合当前触摸设备所显示的演示场景进行有区别的显示。并且,通过演示设备与触摸设备之间的远程交互使演讲人员进行演示,使得在演讲过程当中,演讲人员能够清楚的将所要讲解的内容清晰的演示给听众。不会出现模糊或者看不清楚演示光标的情况。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例1所述的一种交互方法的流程图;
图2为本发明实施例2所述的另一种交互方法的流程图;
图3为本发明实施例3所述的一种交互装置的原理图;
图4为本发明实施例4所述的另一种交互装置的原理图;
图5为本发明实施例5所述的交互系统的原理图。
具体实施方式
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1
如图1所示,本实施例提出了一种交互方法,所述方法包括:
S101、接收第二设备发送的第一指令;
S102、识别当前第一设备演示场景;
S103、当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
具体的,本实施例中所述的第二设备为书写设备,例如书写笔。而本实施例中第一设备可以为常规的触摸设备,该第二设备能够在第一设备的屏幕上进行书写。即第一设备只是单纯的作为可为第二设备提供触摸的设备,用户可使用第二设备在第一设备的屏幕上进行书写,在第一设备中嵌入有能够分析计算第二设备在第一设备的屏幕上运动的轨迹,从而在第一设备上反映出与第二设备运动一致的笔迹。
在所述第二设备上设置有可供用户操作的按键,该按键连接有处理器。当用户按下该按键时,处理器就会生成能够表示用户按下该按键的指令,即第一指令。该第一指令表示用户想要通过第二设备来控制第一设备中的光标或者指针。由此可见,本实施例所提出的第二设备不仅仅是作为纯粹的书写工具,还可以作为能够使用户与第一设备进行远程交互的交互工具。
在接收到用户通过按键生成的第一指令后,对第一设备当前的演示场景进行识别。在本实施例中,第一设备的演示场景可以分为两种场景,第一场景是作为课件演示的场景,例如通过ppt、word等办公软件的场景;第二场景是文件选择的场景,例如桌面、文件夹等场景。在日常生活工作中,当使用电子显示设备时,我们很明显的会发现在上述两种场景中进行指针或光标操作时会有所不同,尤其在演讲过程中会有显著的区别。比如在ppt场景下,光标或者指针的主要作用一般是引导听众对演讲人员的演讲内容进行观看,而在桌面场景下,光标或者指针的主要作用一般只是通过演讲人员的移动来进行定位,没有引导听众的作用。
当识别到当前第一设备演示场景为第一场景时,在此之前已经接收到了用户通过第二设备发送过来的第一指令,因此,可根据该第一指令生成可供第一设备执行的第二指令。
具体的,当用户按下第二设备上的按键时,生成第一指令,表示用户已经在第二设备上执行了按键操作,第一设备的演示场景为第一场景时,会在第一设备的屏幕上出现相应的指示标志。举例来说,当用户进行演讲时,需要对ppt的内容进行演示,为了能够更好的引导听众,用户可以按下第二设备上的某一个功能按键,该功能按键可以使第一设备的屏幕上显示出指示标志,例如一个红点或者某一形状的图案等等。这样,当演讲人员需要对演讲的内容进行着重讲解时,可以通过将该红点显示在屏幕中需要强调的内容上,听众也可以在屏幕上看到这个红点,便于在演讲人员演讲过程中对演讲内容的理解。
以上是通过用户的按键操作使指示标志在第一设备的屏幕上进行显示的过程,但是,在实际应用中,演讲人员的演讲过程和演讲内容是连续的,因此,指示标志往往也是随着演讲人员的演讲过程而移动的。针对于这一情况,本实施例所述方法还包括:接收第二设备发送的第四指令,根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。由此,当需要对指示标志进行移动时,用户可通过控制第二设备的运动方向来调整指示标志在第一设备的屏幕中的显示位置。
具体的,本实施例中所述的第二设备的运动轨迹可以与第一设备屏幕中的指示标志的运动轨迹相关联。具体的实现方式有很多,举例来说,可以在第二设备中设置运动传感器,然后由运动传感器来感知第二设备的运动轨迹,然后将第二设备的运动轨迹以指令的形式进行发送,然后再通过对该指令进行解析,对应到第一设备屏幕中的指示标志,进而实现指示标志与第二设备的关联运动。其中,运动传感器的选取可采用加速度传感器、陀螺仪等器件实现。
进一步的,本实施例所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
具体的,在本实施例中,用户按键的操作可以是持续的,也可以是断续的。也就是说,用户可以通过长按第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中,并在长按的过程中对指示标志的位置进行控制;也可以只按一下第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中,从而锁定第二设备和指示标志的运动关联,对指示标志的位置进行控制。相应的,如果用户想让指示标志消失的话,可以直接松开按键,此时,处理器将用户松开按键的操作转换成停止指令,然后令第一设备屏幕上的指示标志消失。或者可以再按一次按键,相当于第一次按键的目的是启动指示标志,第二次按键的目的则是关闭指示标志。无论哪种方式,都可以通过用户的操作来实现指示标志的出现或消失。
实施例2
如图2所示,本实施例提出了另一种交互方法,所述方法包括:
S201、接收第二设备发送的第一指令;
S202、识别当前第一设备演示场景;
S203、当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
具体的,实施例1中所提出的交互方法是针对当第一设备演示场景为第一场景时的交互过程,在上面也提及了,第一设备的演示场景还可以为第二场景,也就是只是简单的文件选择的场景,例如桌面或文件夹界面等。针对于这种场景,演讲人员无需对听众进行引导,但是演讲人员自身仍然要给自己一个指示标志来进行文件选择以及光标或指针移动的操作。基于此,本实施例提出了如上所述的交互方法。
本实施例所述的交互方法同样可以通过在第二设备上设置可供用户操作的按键来实现。其第一指令的生成以及第一设备演示场景的识别过程与实施例1所述的过程类似,在此不再进行赘述。
当识别到当前第一设备演示场景为第二场景时,在此之前已经接收到了用户通过第二设备发送过来的第一指令,因此,可根据该第一指令生成可供第一设备执行的第三指令。
具体的,当用户按下第二设备上的按键时,生成第一指令,表示用户已经在第二设备上执行了按键操作,第一设备的演示场景为第二场景时,如果在第一设备中已经存在光标或者指针或者其他指示标志的话,那么可以将本实施例所述的第二设备与第一设备中已经存在的指示标志关联起来。如果在第一设备中没有指示标志的话,那么可以在用户执行按键操作后在第一设备的屏幕中生成一个与第二设备相关联的指示标志,例如箭头、红点或者某一形状的图案等等。这样,当演讲人员需要在第二场景进行相关操作时,演讲人员可以以第一设备上的指示标志作为指引从而进行后续的操作。
以上是通过用户的按键操作使指示标志在第一设备的屏幕上与第二设备相关联或进行显示的过程。在实际应用过程中,演讲人员往往要通过指示标志的移动来确定自己所需要选择的文件或程序。因此,本实施例所述方法还包括:接收第二设备发送的第四指令,根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。由此,当需要对指示标志进行移动时,用户可通过控制第二设备的运动方向来调整指示标志在第一设备的屏幕中的显示位置。该过程与实施例1中对指示标志进行移动操作的过程是完全相同的,只是针对不同场景而已,在此也不再进行赘述。
进一步的,本实施例所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
具体的,在本实施例中,用户按键的操作可以是持续的,也可以是断续的。也就是说,用户可以通过长按第二设备上的按键的方式对指示标志的位置进行控制,也可以只按一下第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中或者将第一设备中已经存在的指示标志与第二设备相关联,然后对指示标志的位置进行控制。相应的,如果用户想让指示标志消失或者断开指示标志与第二设备之间的关联的话,可以直接松开按键,此时,处理器将用户松开按键的操作转换为停止指令,然后令第一设备屏幕上的指示标志消失或者断开已经存在的指示标志与第二设备之间的关联。或者可以再按一次按键,相当于第一次按键的目的是显示或连接指示标志,第二次按键的目的则是关闭或断开指示标志。无论哪种方式,都可以通过用户的操作来实现指示标志的出现、消失或与第二设备的关联通断。
实施例3
如图3所示,本实施例提出了一种交互装置,所述交互装置包括处理器,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
具体的,本实施例中所述的第二设备为书写设备,例如书写笔。而本实施例中第一设备可以为常规的触摸设备,该第二设备能够在第一设备的屏幕上进行书写。即第一设备只是单纯的作为可为第二设备提供触摸的设备,用户可使用第二设备在第一设备的屏幕上进行书写,在第一设备中嵌入有能够分析计算第二设备在第一设备的屏幕上运动的轨迹,从而在第一设备上反映出与第二设备运动一致的笔迹。
在所述第二设备上设置有可供用户操作的按键,该按键连接有处理器。当用户按下该按键时,处理器就会生成能够表示用户按下该按键的指令,即第一指令。该第一指令表示用户想要通过第二设备来控制第一设备中的光标或者指针。由此可见,本实施例所提出的第二设备不仅仅是作为纯粹的书写工具,还可以作为能够使用户与第一设备进行远程交互的交互工具。
在接收到用户通过按键生成的第一指令后,对第一设备当前的演示场景进行识别。在本实施例中,第一设备的演示场景可以分为两种场景,第一场景时作为课件演示的场景,例如通过ppt、word等办公软件的场景;第二场景是文件选择的场景,例如桌面、文件夹等场景。在日常生活工作中,当使用电子显示设备时,我们很明显的会发现在上述两种场景中进行指针或光标操作时会有所不同,尤其在演讲过程中会有显著的区别。比如在ppt场景下,光标或者指针的主要作用一般是引导听众对演讲人员的演讲内容进行观看,而在桌面场景下,光标或者指针的主要作用一般只是通过演讲人员的移动来进行定位,没有引导听众的作用。
当识别到当前第一设备演示场景为第一场景时,在此之前已经接收到了用户通过第二设备发送过来的第一指令,因此,可根据该第一指令生成可供第一设备执行的第二指令。
具体的,当用户按下第二设备上的按键时,生成第一指令,表示用户已经在第二设备上执行了按键操作,第一设备的演示场景为第一场景时,会在第一设备的屏幕上出现相应的指示标志。举例来说,当用户进行演讲时,需要对ppt的内容进行演示,为了能够更好的引导听众,用户可以按下第二设备上的某一个功能按键,该功能按键可以使第一设备的屏幕上显示出指示标志,例如一个红点或者某一形状的图案等等。这样,当演讲人员需要对演讲的内容进行着重讲解时,可以通过该红点显示在屏幕中需要强调的内容上,听众也可以在屏幕上看到这个红点,便于在演讲人员演讲过程中对演讲内容的理解。
以上是通过用户的按键操作使指示标志在第一设备的屏幕上进行显示的过程,但是,在实际应用中,演讲人员的演讲过程和演讲内容是连续的,因此,指示标志往往也是随着演讲人员的演讲过程而移动的。针对于这一情况,本实施例所述交互装置中的处理器还可以执行:接收第二设备发送的第四指令,根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备的操作。由此,当需要对指示标志进行移动时,用户可通过控制第二设备的运动方向来调整指示标志在第一设备的屏幕中的显示位置。
具体的,本实施例中所述的第二设备的运动轨迹可以与第一设备屏幕中的指示标志的运动轨迹相关联。具体的实现方式有很多,举例来说,可以在第二设备中设置运动传感器,然后由运动传感器来感知第二设备的运动轨迹,然后将第二设备的运动轨迹以指令的形式进行发送,然后再通过对该指令进行解析,对应到第一设备屏幕中的指示标志,进而实现指示标志与第二设备的关联运动。其中,运动传感器的选取可采用加速度传感器、陀螺仪等器件实现。
进一步的,本实施例所述交互装置中的处理器还可以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
具体的,在本实施例中,用户按键的操作可以是持续的,也可以是断续的。也就是说,用户可以通过长按第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中,并在长按的过程中对指示标志的位置进行控制;也可以只按一下第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中,从而锁定第二设备和指示标志的运动关联,对指示标志的位置进行控制。相应的,如果用户想让指示标志消失的话,可以直接松开按键,此时,处理器将用户松开按键的操作转换成停止指令,然后令第一设备屏幕上的指示标志消失。或者可以再按一次按键,相当于第一次按键的目的是启动指示标志,第二次按键的目的则是关闭指示标志。无论哪种方式,都可以通过用户的操作来实现指示标志的出现或消失。
实施例4
如图4所示,本实施例提出了另一种交互装置,所述装置包括处理器,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
具体的,实施例3中所提出的交互装置是针对当第一设备演示场景为第一场景时的交互过程,在上面也提及了,第一设备的演示场景还可以为第二场景,也就是只是简单的文件选择的场景,例如桌面或文件夹界面等。针对于这种场景,演讲人员无需对听众进行引导,但是演讲人员自身仍然要给自己一个指示标志来进行文件选择以及光标或指针移动的操作。基于此,本实施例提出了如上所述的交互装置。
本实施例所述的交互装置同样可以通过在第二设备上设置可供用户操作的按键来实现。其第一指令的生成以及第一设备演示场景的识别过程与实施例3所述的过程类似,在此不再进行赘述。
当识别到当前第一设备演示场景为第二场景时,在此之前已经接收到了用户通过第二设备发送过来的第一指令,因此,可根据该第一指令生成可供第一设备执行的第三指令。
具体的,当用户按下第二设备上的按键时,生成第一指令,表示用户已经在第二设备上执行了按键操作,第一设备的演示场景为第二场景时,如果在第一设备中已经存在光标或者指针或者其他指示标志的话,那么可以将本实施例所述的第二设备与第一设备中已经存在的指示标志关联起来。如果在第一设备中没有指示标志的话,那么可以在用户执行按键操作后在第一设备的屏幕中生成一个与第二设备相关联的指示标志,例如箭头、红点或者某一形状的图案等等。这样,当演讲人员需要在第二场景进行相关操作时,演讲人员可以以第一设备上的指示标志作为指引从而进行后续的操作。
以上是通过用户的按键操作使指示标志在第一设备的屏幕上与第二设备相关联或进行显示的过程。在实际应用过程中,演讲人员往往要通过指示标志的移动来确定自己所需要选择的文件或程序。因此,本实施例所述交互装置中处理器还可以执行:接收第二设备发送的第四指令,根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备的操作。由此,当需要对指示标志进行移动时,用户可通过控制第二设备的运动方向来调整指示标志在第一设备的屏幕中的显示位置。该过程与实施例1中对指示标志进行移动操作的过程是完全相同的,只是针对不同场景而已,在此也不再进行赘述。
进一步的,本实施例所述交互装置中的处理器还可以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
具体的,在本实施例中,用户按键的操作可以是连续的,也可以是断续的。也就是说,用户可以通过长按第二设备上的按键的方式对指示标志的位置进行控制,也可以只按一下第二设备上的按键的方式,使指示标志出现在第一设备的屏幕中或者将第一设备中已经存在的指示标志与第二设备相关联,然后对指示标志的位置进行控制。相应的,如果用户想让指示标志消失或者断开指示标志与第二设备之间的关联的话,可以直接松开按键,此时,第二设备中的处理器将用户松开按键的操作转换为停止指令,然后由交互装置的处理器下达令第一设备屏幕上指示标志消失或断开已经存在的指示标志与第二设备之间的关联的指令。或者可以再按一次按键,相当于第一次按键的目的是显示或连接指示标志,第二次按键的目的则是关闭或断开指示标志。无论哪种方式,都可以通过用户的操作来实现指示标志的出现、消失或与第二设备的关联通断。
实施例5
如图5所示,本实施例提出了一种交互系统,该交互系统包括第一设备、第二设备和交互装置,所述交互装置用于接收第二设备发送的指令,并根据所述第二设备发送的指令生成第一设备可执行的指令。该交互装置的具体交互过程可参照实施例3或4所述的内容,在此不再进行赘述。
本实施例通过接收演讲人员操作演示设备的指令,然后结合当前触摸设备所显示的演示场景进行有区别的显示。并且,通过演示设备与触摸设备之间的远程交互使演讲人员进行演示,使得在演讲过程当中,演讲人员能够清楚的将所要讲解的内容清晰的演示给听众。不会出现模糊或者看不清楚演示光标的情况。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (11)
1.一种交互方法,其特征在于,所述方法包括:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
2.根据权利要求1所述的方法,所述方法还包括:
当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
接收第二设备发送的第四指令;
根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
6.一种交互装置,其特征在于,所述交互装置包括处理器,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第一指令;
识别当前第一设备演示场景;
当第一设备演示场景为第一场景时,根据所述第一指令生成第二指令,并将所述第二指令发送至第一设备。
7.根据权利要求6所述的装置,其特征在于,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
当第一设备演示场景为第二场景时,根据所述第一指令生成第三指令,并将所述第三指令发送至第一设备。
8.根据权利要求6或7所述的装置,其特征在于,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的第四指令;
根据所述第四指令生成运动轨迹,并将所述运动轨迹发送至第一设备。
9.根据权利要求6所述的装置,其特征在于,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成消失指令,并将所述消失指令发送至第一设备。
10.根据权利要求7所述的装置,其特征在于,所述处理器配置有处理器可执行的操作指令,以执行如下操作:
接收第二设备发送的停止指令;
根据所述停止指令生成断开指令,并将所述断开指令发送至第一设备。
11.一种交互系统,其特征在于,所述系统包括第一设备、第二设备和如权利要求6至10任一项所述的交互装置,所述交互装置用于接收第二设备发送的指令,并根据所述第二设备发送的指令生成第一设备可执行的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811176384.7A CN109407900A (zh) | 2018-10-10 | 2018-10-10 | 一种交互方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811176384.7A CN109407900A (zh) | 2018-10-10 | 2018-10-10 | 一种交互方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109407900A true CN109407900A (zh) | 2019-03-01 |
Family
ID=65466271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811176384.7A Pending CN109407900A (zh) | 2018-10-10 | 2018-10-10 | 一种交互方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109407900A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110456952A (zh) * | 2019-06-27 | 2019-11-15 | 北京科加触控技术有限公司 | 一种动作执行方法、装置及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101902465A (zh) * | 2010-05-17 | 2010-12-01 | 北京天纵网联科技有限公司 | 一种用于多方网络交互的光标笔式提问方法 |
CN201804317U (zh) * | 2009-12-18 | 2011-04-20 | 贾颖 | 一种用于交互式电子白板的电子笔 |
CN104461163A (zh) * | 2014-12-26 | 2015-03-25 | 广州华欣电子科技有限公司 | 一种触控识别方法、触摸屏及书写笔 |
CN105468206A (zh) * | 2014-09-04 | 2016-04-06 | 华为技术有限公司 | 交互演示方法和设备 |
CN105607763A (zh) * | 2014-11-14 | 2016-05-25 | 苹果公司 | 具有惯性传感器的触控笔 |
CN206497439U (zh) * | 2016-11-26 | 2017-09-15 | 黄淮学院 | 一种手写汉字快速识别和输入仪 |
US20180088696A1 (en) * | 2016-03-01 | 2018-03-29 | Boe Technology Group Co., Ltd. | Display screen, touch pen and display module |
-
2018
- 2018-10-10 CN CN201811176384.7A patent/CN109407900A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201804317U (zh) * | 2009-12-18 | 2011-04-20 | 贾颖 | 一种用于交互式电子白板的电子笔 |
CN101902465A (zh) * | 2010-05-17 | 2010-12-01 | 北京天纵网联科技有限公司 | 一种用于多方网络交互的光标笔式提问方法 |
CN105468206A (zh) * | 2014-09-04 | 2016-04-06 | 华为技术有限公司 | 交互演示方法和设备 |
CN105607763A (zh) * | 2014-11-14 | 2016-05-25 | 苹果公司 | 具有惯性传感器的触控笔 |
CN104461163A (zh) * | 2014-12-26 | 2015-03-25 | 广州华欣电子科技有限公司 | 一种触控识别方法、触摸屏及书写笔 |
US20180088696A1 (en) * | 2016-03-01 | 2018-03-29 | Boe Technology Group Co., Ltd. | Display screen, touch pen and display module |
CN206497439U (zh) * | 2016-11-26 | 2017-09-15 | 黄淮学院 | 一种手写汉字快速识别和输入仪 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110456952A (zh) * | 2019-06-27 | 2019-11-15 | 北京科加触控技术有限公司 | 一种动作执行方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11132063B2 (en) | Information processing apparatus for interactively performing work based on input content in extended work space | |
US11694565B2 (en) | Virtual and augmented reality instruction system | |
JP6251957B2 (ja) | 表示装置、頭部装着型表示装置および表示装置の制御方法 | |
CN103092432A (zh) | 人机交互操作指令的触发控制方法和系统及激光发射装置 | |
JP2008118301A (ja) | 電子黒板システム | |
KR20160081855A (ko) | 스마트 펜 및 이를 이용한 증강현실 구현 시스템 | |
CN1952851A (zh) | 一种实现交互显示的电子装置和方法 | |
CN110069101A (zh) | 一种穿戴式计算设备和一种人机交互方法 | |
CN208027318U (zh) | 一种可划线的幻灯片遥控笔 | |
CN114647315A (zh) | 基于博物馆导览ar眼镜的人机交互方法 | |
JP2017182109A (ja) | 表示システム、情報処理装置、プロジェクター及び情報処理方法 | |
CN109407900A (zh) | 一种交互方法、装置及系统 | |
CN106200900B (zh) | 基于识别区域在视频中触发虚拟现实交互的方法及系统 | |
CN110717993A (zh) | 一种分体式ar眼镜系统的交互方法、系统及介质 | |
Prilla | " I simply watched where she was looking at" Coordination in Short-term Synchronous Cooperative Mixed Reality | |
JP6540426B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
CN112612358A (zh) | 基于视觉识别和语音识别的人与大屏多模态自然交互方法 | |
CN100462900C (zh) | 用于与显示系统进行交互操作的方法及设备 | |
TW202016904A (zh) | 實物教學投影系統及方法 | |
CN109407886A (zh) | 一种远程交互方法、装置及系统 | |
JP7007852B2 (ja) | 遠隔力覚誘導システム、マスター装置及びスレーブ装置、並びにプログラム | |
JP2018018315A (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
US20180267757A1 (en) | System and method for interacting with media displays | |
KR20050086154A (ko) | 영상인식 프리젠테이션 시스템 및 방법 | |
CN219435407U (zh) | 一种人机互动教学系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190301 |
|
WD01 | Invention patent application deemed withdrawn after publication |