CN114115691A - 电子设备及其交互方法、介质 - Google Patents
电子设备及其交互方法、介质 Download PDFInfo
- Publication number
- CN114115691A CN114115691A CN202111254214.8A CN202111254214A CN114115691A CN 114115691 A CN114115691 A CN 114115691A CN 202111254214 A CN202111254214 A CN 202111254214A CN 114115691 A CN114115691 A CN 114115691A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- screen
- electronic equipment
- mobile phone
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及一种电子设备及其交互方法、介质,该交互方法应用于第一电子设备和第二电子设备,方法包括:第一电子设备检测到第一电子设备从第一姿态位置转换为第二姿态位置,并向第二电子设备发送第一姿态位置信息和第二姿态位置信息;第二电子设备根据接收的第一姿态位置信息和第二姿态位置信息,改变第二电子设备屏幕上目标对象的位置;第二电子设备根据作用于第一电子设备的触控操作的信息,在目标对象显示对应的操作结果。本申请的实施例,能够简化用户使用第一电子设备作为触控板的操作过程,避免了用户还需要借助其他电子设备,来调整第二电子设备的屏幕中的目标对象的位置,提高了用户体验。
Description
技术领域
本申请实施例涉及智能终端领域,尤其涉及一种电子设备及其交互方法、介质。
背景技术
在网络会议、教学等过程中,用户可以将电脑屏幕中的显示内容分享给参与者。以用户向参与者展示电脑屏幕中的图片为例,如果用户需要对正在展示的图片进行说明,可以打开操作系统下的写字板应用或者画图应用,在写字板应用内通过键盘输入文字,或者在画图应用内用鼠标操作画笔进行书写。
对于用户来说,键盘输入文字和鼠标操作画笔进行书写的方式,往往操作较为繁琐,因此,图1a示出了一种电子设备之间交互的场景图,电子设备200用于展示图片2011,用户通过电子设备100和电子设备300对图片2011的姿态位置进行调整并进行文字说明。以电子设备100为手机100,电子设备200为电脑200,电子设备300为鼠标300为例,手机100作为触控板,用户通过手机100进行文字输入,以实现对电脑200屏幕中展示的图片2011进行说明。如果用户还需要对电脑200屏幕中展示的图片2011的姿态位置进行调整,例如:对处于水平位置的图片2011进行旋转,如图1b所示,则用户需要使用鼠标300选中图片2011进行旋转;如果用户需要重复对图片2011的姿态位置进行调整并进行文字说明,则用户需要在手机100和鼠标300之间重复切换使用,这样增加了用户操作的繁琐度,且用户体验较差。
发明内容
本申请的目的在于提供一种电子设备及其交互方法、介质。
本申请的第一方面提供了一种交互方法,应用于第一电子设备和第二电子设备,方法包括:第二电子设备与第一电子设备建立通信连接;第一电子设备检测到第一电子设备从第一姿态位置转换为第二姿态位置,并向第二电子设备发送第一姿态位置信息和第二姿态位置信息;第二电子设备根据第一姿态位置信息和第二姿态位置信息,改变第二电子设备显示屏上目标对象的位置;第一电子设备检测到作用于第一电子设备的屏幕上的触控操作,并向第二电子设备发送触控操作的信息;第二电子设备根据触控操作的信息,在目标对象显示对应的操作结果。
即在本申请的实施例中,第一电子设备可以是手机,第二电子设备可以是电脑,手机与电脑通信连接;通过通信连接,手机可以与电脑建立输入对应关系,即,映射关系,通过输入对应关系除了可以实现手机作为触控板,对电脑实现图案或文字输入,还可以实现手机与电脑的屏幕的目标对象(如:部分显示区域或者全屏显示区域)之间的位置的映射;例如:手机与电脑的屏幕中显示的应用窗口之间的映射。在需要调整电脑的屏幕中的显示区域的位置(即,显示区域的姿态位置)时,可以通过调整手机的姿态位置,电脑可以根据获取的调整前后的手机的姿态位置变化信息,相应地调整电脑的屏幕中的显示区域的位置。在本申请的实施例中,这里的触控操作可以是用户作用于手机的屏幕的勾画操作、书写操作,所述触控操作信息可以是勾画操作、书写操作对应的在手机的屏幕上的轨迹,操作结果可以轨迹形成的勾画痕迹对应的图案、标记或文字输入对应的文字。本申请的实施例,能够简化用户使用手机作为触控板的操作过程,避免了用户还需要借助其他电子设备,如:鼠标,来调整电脑的屏幕中的显示区域的姿态位置,提高了用户体验。
在上述第一方面的一种可能的实现中,第一电子设备从第一姿态位置转换为第二姿态位置的转换包括横向移动、竖向移动以及旋转中的任一种。
即在本申请的实施例中,第一电子设备的初始位置可以是横向平放与桌面。
在上述第一方面的一种可能的实现中,第一电子设备从第一姿态位置转换为第二姿态位置具有第一变化幅度,第二电子设备屏幕上目标对象的位置的改变具有的第二变化幅度,并且
第一电子设备具有第一尺寸,第二电子设备屏幕上的目标对象具有第二尺寸,并且
第一变化幅度和第二变化幅度之间的比值,与第一尺寸和第二尺寸之间的比值相关。
即在本申请的实施例中,第一尺寸可以是第一电子设备的屏幕的大小。第二尺寸可以是第二电子设备屏幕上的部分显示区域或者全屏显示区域的大小。例如:第一尺寸和第二尺寸之间的比值可以是1:2。也就是说,若第一电子设备从第一姿态位置转换为第二姿态位置的第一变化幅度为1厘米,则第二电子设备屏幕上部分显示区域或者全屏显示区域的第二变化幅度为2厘米。
在上述第一方面的一种可能的实现中,转换为横向移动或者竖向移动,并且
第一电子设备从第一姿态位置转换为第二姿态位置的横向移动距离或者竖向移动距离,大于第二电子设备屏幕上目标对象的横向移动距离或者竖向移动距离。
即在本申请的实施例中,通过将第一电子设备进行横向移动或者竖向移动,即改变第一电子设备的姿态位置,相应地,第二电子设备屏幕上部分显示区域或者全屏显示区域也会产生横向移动或者竖向移动,即第二电子设备屏幕上部分显示区域或者全屏显示区域的姿态位置也发生改变。
在上述第一方面的一种可能的实现中,转换为旋转,并且第一电子设备从第一姿态位置转换为第二姿态位置的旋转角度,与第二电子设备屏幕上目标对象的旋转角度相同。
即在本申请的实施例中,将第一电子设备进行旋转产生的旋转角度可以与第二电子设备屏幕上部分显示区域或者全屏显示区域的旋转角度相同。
在上述第一方面的一种可能的实现中,目标对象为第二电子设备上的第一应用的第一应用窗口;并且
第二电子设备与第一电子设备建立通信连接,包括:
第二电子设备上的第一应用的第一应用窗口于第一电子设备建立输入对应关系。
即在本申请的实施例中,第一电子设备可以作为第二电子设备的触控板,用户通过第一电子设备对第二电子设备的应用进行文字或者图案输入。
在上述第一方面的一种可能的实现中,第二电子设备上的第一应用的第一应用窗口与第一电子设备建立输入对应关系之前,方法还包括:第二电子设备提示用户从多个应用窗口中选择建立输入对应关系的应用窗口。
即在本申请的实施例中,第二电子设备的屏幕中可以显示多个应用窗口,第一电子设备可以选择与其中的第一应用的第一应用窗口建立输入对应关系。
在上述第一方面的一种可能的实现中,触控操作包括用户在第一电子设备的屏幕上的勾画操作和书写操作中的至少一种;并且
操作结果包括与勾画操作、书写操作分别对应的勾画痕迹和文字输入中的一种。
即在本申请的实施例中,勾画痕迹可以是用户在第一电子设备的屏幕中通过勾画操作形成的图案,如:横线、竖线、各种线条形成的图案、标记;文字输入以是用户在第一电子设备的屏幕中通过书写操作形成的文字,例如:各种语言的文字,数字。
在上述第一方面的一种可能的实现中,触控操作包括用户在第一电子设备的屏幕上的指关节操作;并且
操作结果为生成的部分显示区域或者全屏显示区域的截图。
在上述第一方面的一种可能的实现中,触控操作包括用户在第一电子设备的屏幕上的点击操作;并且
操作结果为将部分显示区域放大显示或缩小显示。
即在本申请的实施例中,第二电子设备可以响应于用户在第一电子设备的屏幕上执行的手势操作,显示与手势操作对应的结果。如:用户在第一电子设备的屏幕上执行了指关节敲击,第二电子设备响应于指关节敲击,将第二电子设备的部分显示区域或者全屏显示区域的截图。再如:第二电子设备话可以响应于指关节敲击或者点击操作,将第二电子设备的部分显示区域放大或缩小,或者将全屏显示区域缩小。
本申请的第二方面提供了一种交互方法,应用于第一电子设备和第二电子设备,其特征在于,方法包括:
第二电子设备与第一电子设备建立通信连接;
第二电子设备从第一电子设备接收第一姿态位置信息和第二姿态位置信息,第一姿态位置信息和第二姿态位置信息表示第一电子设备从第一姿态位置转换为第二姿态位置;
第二电子设备根据第一姿态位置信息和第二姿态位置信息,改变第二电子设备屏幕上目标对象的位置;
第二电子设备从第一电子设备接收触控操作的信息,触控操作的信息表示作用于第一电子设备的屏幕上的触控操作;
第二电子设备根据触控操作的信息,在目标对象显示对应的操作结果。
本申请的第三方面提供了一种电子设备,其特征在于,包括:
存储器,存储器中存储有指令,和
处理器,用于读取并执行存储器中的指令,以使得电子设备执行前述第一方面提供的交互方法。
本申请的第四方面提供了一种计算机可读存储介质,其特征在于,计算机可读存储介质中包含有指令,
当指令被电子设备的控制器执行时使电子设备实现前述第一方面提供的交互方法。
附图说明
图1a和图1b根据本申请的实施例示出了一种电子设备之间交互的场景示意图;
图2根据本申请的实施例示出了另一种电子设备之间交互的场景示意图;
图3根据本申请的实施例示出了一种电子设备的结构示意图;
图4根据本申请的实施例示出了一种电子设备的软件结构框图;
图5根据本申请的实施例示出了一种电子设备的交互方法的流程示意图;
图6根据本申请的实施例示出了一种手机100开启/关闭触控交互服务的示意图;
图7根据本申请的实施例示出了一种用户在多个应用中选择一个应用与手机100建立映射关系的示意图;
图8根据本申请的实施例示出了一种电脑200根据用户在手机100执行的触控操作显示操作结果的示意图;
图9根据本申请的实施例示出了一种电脑200根据用户在手机100执行的触控操作显示操作结果的示意图;
图10a和图10b根据本申请的实施例示出了一种电脑200根据用户在手机100执行的手势操作显示操作结果的示意图;
图11a和图11b根据本申请的实施例示出了一种电脑200根据用户在手机100执行的手势操作显示操作结果的示意图;
图12根据本申请的实施例示出了一种电脑200根据用户对手机100执行的姿态位置的调整显示操作结果的示意图;
图13a和图13b根据本申请的实施例示出了一种姿态位置调整的示意图;
图14a和图14b根据本申请的实施例示出了一种电脑200根据用户在手机100执行的手势操作显示操作结果的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
本申请实施例包括但不限于一种电子设备及其交互方法、介质。为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例的实施方式作进一步地详细描述。
为了解决图1a和图1b所示的场景中,在用户对展示的图片2011进行姿态位置调整以及文字说明的过程中,用户需要反复在手机100和鼠标300之间重复切换使用的问题,图2示出了本申请实施例提供的电子设备之间进行交互的场景示例。在图2中,仍然以电子设备100为手机100,电子设备200为电脑200进行说明,手机100可以通过无线网络(WirelessFidelity,WiFi)与电脑200建立通信连接。完成通信连接后,手机100和电脑200分别启动触控交互服务,手机100的屏幕的显示区域与电脑200的屏幕的显示区域,如:电脑200的屏幕的图片应用201打开的图片2011,建立映射关系,使得电脑200的屏幕的显示区域的姿态位置可以随着手机100的姿态位置的变化而变化。例如:手机100的初始位置为横向平放于桌面上,当手机100逆时针旋转30度后,图片应用201打开的图片2011也会随之逆时针旋转30度。
如上所述,在本申请实施例中,通过将手机100的屏幕与电脑200的屏幕的显示区域之间建立映射关系,使得用户对手机100执行的姿态位置的改变也可以作用于电脑200的屏幕的显示区域,使得电脑200的屏幕的显示区域随着手机100的姿态位置的变化而变化,例如,这里的姿态位置可以包括:手机100以及电脑200的屏幕的显示区域呈水平位置,垂直位置或者斜向位置。其中,电脑200的屏幕的显示区域可以是电脑200的屏幕的应用程序的应用窗口,或者是电脑200的屏幕的应用程序的显示内容。同时,用户在手机100的屏幕执行的触控操作的结果还可以作用于电脑200的屏幕的显示区域。通过本申请实施例的电子设备的交互方法,能够简化用户使用电子设备作为触控板的操作过程,提高了用户体验。
可以理解的是,本申请实施例的电子设备100可以是具有触摸屏的任何电子设备,例如,包括但不限于:平板计算机、手机、移动电子邮件设备、便携式游戏机、便携式音乐播放器、读取器设备、头戴式显示器等各种终端设备。此外,电子设备100也可以是可穿戴电子设备,例如可以是智能手表、手环、首饰或眼镜等,或者作为手表、手环、首饰或眼镜等的一部分。
图3示出了适用于本申请的一种电子设备100的结构示意图,可以理解,图3所示的结构也可以是各种电子设备。如图3所示,电子设备100可以包括处理器110、无线通信模块120、移动通信模块130、电源模块140、音频模块150、接口模块160、摄像头170、存储器180、传感器模块190、按键101以及显示屏102等。
应当理解的是,图3所示的硬件结构仅是一个示例。本申请实施例的电子设备100可以具有比图3中所示更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图3中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
其中,处理器110可以包括一个或多个处理单元。例如,处理器110可以包括应用处理器(Application Processor,AP),和基带处理器等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
无线通信模块120可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。例如,电子设备100可以通过蓝牙与电子设备200进行通信。
移动通信模块130可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。
电源模块140用于处理器110,存储器180,显示屏102,摄像头170等供电。
音频模块150用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。
接口模块160可以是符合USB标准规范的接口,具体可以是Mini USB接口,MicroUSB接口,USB Type C接口等。接口模块160可以用于电子设备100与电子设备200之间传输数据,通过接口模块160将电子设备100的姿态位置的变化以及用户在电子设备100的显示屏102上执行的触控操作发送给电子设备200。
摄像头170用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件把光信号转换成电信号,之后将电信号传递给ISP(Image SignalProcessing,图像信号处理)转换成数字图像信号。
存储器180可以称为存储区域,用于存储计算机可执行程序代码,所述可执行程序代码包括指令。存储器180可以包括存储程序区和存储数据区。
传感器模块190中的陀螺仪传感器可以用于获取电子设备100的姿态位置的变化。
按键101可以包括音量键、开/关机键等。
显示屏102可以是电容触控显示屏。电子设备100通过显示屏102,以及应用处理器等实现显示功能。
电子设备100可以通过显示屏102获取用户在显示屏102执行的触控操作。
图4是本申请一些实施例公开的第一电子设备的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图4所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
如图4所示,应用程序框架层可以包括:触控交互服务,视图系统,资源服务。
触控交互服务可以是上文描述的触控交互服务,用于建立电子设备100与电子设备200之间的触控交互,将用户在电子设备100的屏幕上执行的触控操作用于电子设备200的屏幕,使得用户可以通过在电子设备100来控制电子设备200。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
资源服务为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
在通过图3和图4介绍完电子设备100的硬件和软件结构后,下面通过图5对本申请实施例提供的电子设备的交互方法进行详细说明。为了便于说明,下文以电子设备100为手机100、电子设备200为电脑200为例进行说明。
S501:手机100与电脑200建立通信连接。
例如,手机100可以通过、蓝牙、WIFI、或NFC等无线通信方式与电脑200通信连接。在一些实施例中,手机100也可以通过有线通信方式与平板电脑200通信连接,例如,手机100通过数据线以及通用串行总线(Universal Serial Bus,USB)接口与电脑200通信连接。
在一些本申请实施例中,手机100例如可以通过以下方式确定存在通信连接的电脑200:手机100确定有与手机100连接的电脑200;或者,确定有与手机100进行无线或者有线连接的电脑200。当手机100与电脑200处于同一局域网时,或者当电脑200与手机100登录同一用户账户时,可以认为手机100与电脑200进行无线连接,即认为存在通信连接的电脑200。
S502:手机100和电脑200分别启动触控交互服务。
以手机100为例,触控交互服务可以作为手机100的系统服务,也就是触控交互服务1001(可以命名为TouchInteractiveService)运行在手机100的软件系统的框架层(Framework层)。在另一个本申请的实施例中,触控交互服务还可以作为手机100的一个应用程序,也就是触控交互应用(可以命名为TouchInteractiveApp)运行在手机100的软件系统的应用程序层。可以理解,在手机100启动触控交互服务后,手机100可以处于息屏的状态。
在一个本申请的实施例中,如图6所示,手机100可以通过在自身的操作系统的系统设置里配置触控交互服务的开启/关闭的选项1011。用户可以通过点击该开启/关闭的选项1011实现开启/关闭触控交互服务。
在一个本申请的实施例中,手机100还可以将触控交互服务设置为手机100的自动启动项,在手机100与电脑200建立通信连接时,手机100自动启动触控交互服务。
在一个本申请的实施例中,电脑200也可以采用与手机100相似的方法,将触控交互服务设置为电脑200的系统服务或者是电脑200的应用程序。在手机100与电脑200建立通信连接后,通过手动或者自动启动的方式启动触控交互服务。
S503:电脑200启动图片应用201打开图片2011。
电脑200可以响应于用户通过鼠标点击电脑200的桌面(user interface,UI)中的图片2011,电脑200接收到用户点击操作的指令后,电脑200启动图片应用201打开图片2011。
在本申请实施例中,电脑200还可以启动多个应用程序,电脑200的屏幕中可以显示多个应用程序的应用窗口。如图7所示,电脑200可以启动图片应用201和文档应用202,电脑200的屏幕可以同时显示多个应用窗口,如:将图片应用201和文档应用202的应用窗口同时显示在电脑200的屏幕中。
S504:手机100的屏幕的显示区域与图片应用201建立映射关系。
在通过步骤S502,手机100和电脑200分别启动了触控交互服务,在本申请的实施例中,电脑200的屏幕内可以提示用户选择一个应用程序的应用窗口与手机100的屏幕的显示区域建立映射关系,这里的映射关系也可以称为输入对应关系。如图7所示,电脑200的屏幕内可以提示如:“请选择一个应用程序建立触控交互”,以图片应用201为例,用户可以通过电脑200的鼠标在图片应用201的应用窗口内执行一个点击鼠标左键的操作,电脑200响应于该点击操作,将图片应用201的应用窗口和手机100的屏幕的显示区域建立映射关系。
在本申请实施例中,在手机100的屏幕的显示区域与图片应用201的应用窗口建立了映射关系后,电脑200还可以通过等比例缩放的方式调整手机100的屏幕的显示区域和图片应用201的应用窗口,使得用户在手机100的屏幕的显示区域的各个位置执行的触控操作的结果可以作用在图片应用201的应用窗口的相对应的位置,也就是说,作用于图片应用201打开的图片2011。
在本申请实施例中,步骤S504中的图片应用201的应用窗口可以在电脑200的屏幕中全屏显示,也就是图片应用201打开的图片2011在电脑200的屏幕中全屏显示,在手机100的屏幕的显示区域与图片应用201的应用窗口建立映射关系时,手机100的屏幕的显示区域与图片应用201的应用窗口的等比例缩放可以根据手机100的屏幕的尺寸和电脑200的屏幕的尺寸的比例来确定。例如,手机100的屏幕的尺寸可以是6寸,也就是手机100的屏幕的长可以是13.5厘米,宽可以是7.5厘米,电脑200的屏幕的尺寸可以是6寸,也就是电脑200的屏幕的长可以是50厘米,宽可以是30厘米。手机100的屏幕的长与电脑200的屏幕的长的比例是1:4,手机100的屏幕的宽与电脑200的屏幕的宽的比例是1:4,也就是说,手机100与电脑200之间的等比例缩放为1:4。
这时,用户在手机100的屏幕中距底边3厘米,距左侧边3厘米的位置,执行了一个横向左滑动的触控操作,该横向左滑动的触控操作在手机100的屏幕的轨迹是1厘米,相应地,电脑200可以通过与手机100的通信连接,获取横向左滑动的触控操作的起始位置(距底边3厘米,距左侧边3厘米)以及横向左滑动的触控操作的轨迹(1厘米),电脑200可以根据手机100与电脑200之间的等比例缩放(1:4),在电脑200的屏幕中图片应用201打开的图片2011中,距电脑200的底边12厘米,距左侧边12厘米的位置开始向左显示长度为4厘米的横线。
在另一个本申请实施例中,步骤S504中的图片应用201的应用窗口也可以在电脑200的屏幕中的部分显示区域,也就是局部区域显示。在手机100的屏幕的显示区域与图片应用201的应用窗口建立映射关系时,手机100的屏幕的显示区域与图片应用201的应用窗口的等比例缩放可以根据手机100的屏幕的尺寸和电脑200的屏幕中的局部区域的尺寸的比例来确定。例如:手机100的屏幕的尺寸可以是6寸,也就是手机100的屏幕的长可以是13.5厘米,宽可以是7.5厘米,电脑200的屏幕中的局部区域的长可以是28厘米,宽可以是15厘米,手机100与电脑200的屏幕中的局部区域之间的等比例缩放为1:2。
S505:电脑200检测到用户在手机100的屏幕执行的触控操作,将触控操作的结果作用于电脑200的图片应用201。
在设置完手机100的屏幕的显示区域与图片应用201的应用窗口的映射关系后,用户可以在手机100的屏幕内执行不同的触控操作,相应地,图片应用201的应用窗口内会显示与触控操作对应的操作结果。
在本申请实施例中,用户在手机100的屏幕内执行的触控操作可以是勾画操作,操作结果可以是电脑200显示与勾画操作对应的图案。如图8所示,用户可以在在手机100的屏幕中执行了一个横向左滑动的触控操作,例如:该横向左滑动的触控操作在手机100的屏幕的轨迹是1厘米,相应地,电脑200可以通过与手机100的通信连接,获取横向左滑动的触控操作的起始位置以及横向左滑动的触控操作的轨迹(1厘米),电脑200可以根据手机100与电脑200之间的等比例缩放(例如:1:5),在电脑200的屏幕中图片应用201打开的图片2011的相对位置(相对于左滑动的触控操作的起始位置)显示与横向左滑动的触控操作对应的操作结果(例如:一条长度为5厘米的横线20111)。
在本申请实施例中,用户在手机100的屏幕内执行的触控操作可以是书写操作,操作结果可以是电脑200显示与书写操作对应的文字。如图9所示,用户在电脑200启动图片应用201打开图片2011,用户还将手机100的屏幕与电脑200的屏幕中的显示区域401之间建立映射关系。这里的显示区域401可以是电脑200的屏幕中的局部显示区域,也可以是电脑200启动的文档应用202的应用窗口。用户在手机100的屏幕内执行了文字输入的触控操作,相应地,如图9所示,电脑200的显示区域401会呈现用户输入的文字,用于对电脑200启动图片应用201打开图片2011进行说明。
在另一个本申请的实施例中,电脑200也可以将如图9显示的显示区域401进行保存,例如,在用户通过手机100完成在电脑200的显示区域401内呈现文字、标记或者勾画的显示内容后,电脑200可以以图片的方式,保存显示区域401内的显示内容;或者,电脑200还可以将显示区域401设置于图片应用201打开的图片2011内,作为图片2011的一个图层,与图片2011一起保存。
可以理解,用户在手机100的屏幕内执行的触控操作还可以是如:双指按压/双指下滑、三指按压/三指下滑书的手势操作,电脑200的存储区域内可以预先设置有手势操作的类型与操作结果的对应关系,例如:用户在手机100的屏幕内执行的双指按压对应的操作结果可以是电脑200显示翻页效果;用户在手机100的屏幕内执行的三指按压的操作结果可以是退出触控交互服务。上述手势操作的类型与操作结果的对应关系都是示例性的,手势操作的类型与操作结果可以是任意设置的,本申请实施例对此并不做限定。
在本申请实施例中,以用户在手机100的屏幕内执行的触控操作是双指按压的手势操作为例,双指按压的手势操作的操作结果可以是电脑200显示与双指按压对应的翻页效果。如图10a所示,用户在电脑200启动图片应用201打开图片2011以及文档应用202,当用户在手机100的屏幕内执行了双指按压的手势操作后,电脑200可以通过与手机100的通信连接,获取双指按压的类型,通过预先设置的手势操作的类型与操作结果的对应关系,电脑200可以在图片应用201的应用窗口显示翻页效果,如图10b所示,图片应用201的应用窗口显示图片2012。
在本申请实施例中,以用户在手机100的屏幕内执行的触控操作是三指按压的手势操作为例,三指按压的手势操作的操作结果可以是电脑200退出触控交互服务。如图11a所示,当用户在手机100的屏幕内执行了三指按压的手势操作后,电脑200可以通过与手机100的通信连接,获取三指按压的类型,通过预先设置的手势操作的类型与操作结果的对应关系,电脑200可以退出触控交互服务,同时,如图11b所示,手机100也退出触控交互服务,手机100的屏幕可以从息屏的状态改变为亮屏的状态,如:显示手机100的锁屏界面。
S506:电脑200检测到手机100的姿态位置的变化,根据手机100的姿态位置的变化调整图片应用201打开的图片2011的姿态位置。
在本申请实施例中,手机100的姿态位置可以是手机100平放于桌面上时,手机100的位置,如:横向位置,竖向位置,斜向位置。可以理解,这里的横向放置可以是手机100的默认姿态位置。手机100的姿态位置也可以是手机100相对于电脑200的屏幕的姿态位置,如:手机100的默认姿态位置为横向放置于桌面上,同时,手机100与电脑200的屏幕保持平行。如图12所示,用户可以将手机100逆时针旋转30度,相应地,电脑200屏幕中的电脑200打开的图片应用201也会逆时针旋转30度。
在本申请的实施例中,手机100可以通过陀螺仪传感器可以将手机100设置于二维坐标系中,在手机100平放于桌面上时,手机100通过陀螺仪传感器获取手机100的初始的姿态位置;如果用户调整了手机的姿态位置,手机100通过陀螺仪传感器可以获取调整后的手机100的姿态位置,并计算出姿态位置的变化,电脑200可以实时地获取手机100的姿态位置的变化,来调整图片应用201打开的图片2011的姿态位置。如图13a所示,手机100的默认姿态位置为横向放置,这时,位于二维坐标系中,手机100的默认姿态位置可以是,手机100的两个侧边与X轴平行,手机100的顶边和底边与Y轴平行。在用户将手机100逆时针旋转30度后,如图13b所示,手机100的手机100的两个侧边与X轴的夹角a变为30度,这时,手机100可以确定姿态位置的变化为手机100逆时针旋转30度。
可以理解,在另一个本申请的实施例中,在手机100获取了姿态位置的变化后,手机100也可以实时地将姿态位置的变化发送给电脑200,电脑200根据手机100的姿态位置的变化来实时地调整图片应用201打开的图片2011的姿态位置。
可以理解,在另一个本申请的实施例中,上述步骤S503中的图片2011可以是用户通过手机100拍摄后发送给电脑200,电脑200通过图片应用201打开图片2011。在手机100和电脑200建立通信连接,并分别启动了触控交互服务后,用户可以在电脑200启动图片应用201;用户打开手机100的摄像头拍摄了照片2011;手机100将照片发送给电脑200;电脑200通过图片应用201打开图片2011。
可以理解,在另一个本申请的实施例中,上述步骤S505和S506之间没有先后顺序,在手机100的屏幕与电脑200的图片应用201之间建立的映射关系后,用户还可以先将手机100逆时针旋转30度后,使得图片应用201打开的图片2011也相应地逆时针旋转30度;再在手机100的屏幕内执行触控操作,来对图片应用201打开的图片201进行修改或者标记。
上述图5所描述的步骤S501至S506示出一种在电子设备100执行了触控操作,该触控操作的结果可以作用于电子设备200的屏幕中的应用程序,以及通过调整电子设备100的位置姿态进而调整电子设备200的屏幕中的应用程序的位置姿态的交互方法。下面通过图14a和图14b对另一本申请实施例的电子设备100和电子设备200之间的交互方法进行详细说明。本申请实施例图14中的电子设备的交互方案可以通过电子设备100和电子设备200的处理器执行相关程序来实现。
在本申请实施例中,如图14a所示,在手机100和电脑200建立通信连接,并分别启动了触控交互服务;用户在电脑200启动图片应用201打开图片2011,并将手机100的屏幕与电脑200的图片应用201之间建立映射关系;用户在手机100的屏幕内执行了一个指关节敲击的触控操作,相应地,电脑200可以在存储区域中(如:硬盘中)预先设置有响应指关节敲击的触控操作的执行指令,在电脑200通过与手机100之间的通信连接,检测到用户的指关节敲击的触控操作后,电脑200响应指关节敲击的触控操作的执行指令可以是,电脑200的图片应用201打开的图片2011会呈现放大的显示效果。
可以理解,在另一个本申请的实施例中,如图14b所示,手机100的屏幕与电脑200的图片应用201之间建立映射关系后,用户在手机100的屏幕内执行了一个指关节敲击的触控操作,电脑200可以通过与手机100的通信连接,获取指关节敲击的类型,通过在存储区域预先设置的触控操作与操作结果的对应关系,例如:指关节敲击的触控操作对应截图并保存的操作结果,响应该指关节敲击的触控操作将电脑200的屏幕的当前显示界面截图,或者,电脑200将图片应用201的应用窗口截图。在电脑200获取了截图后,如图14b所示,电脑200可以将截图保存在电脑200的默认文件目录中,如:电脑200的图库,并在电脑200的屏幕中提示用户截图成功,并显示保存截图的文件目录的路径。
可以理解,在另一个本申请的实施例中,手机100的屏幕与电脑200的图片应用201之间建立映射关系后,用户在手机100的屏幕内执行了一个指关节敲击的触控操作,相应地,电脑200可以响应该指关节敲击的触控操作将电脑200的屏幕的当前显示界面,或者,将图片应用201的应用窗口复制,并提示用户选择一个文件目录进行保存。
可以理解的是,本申请实施例示意的结构并不构成对手机100的具体限定。在本申请另一些实施例中,手机100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
通过以上实施方式的描述,所属领域的技术人员可以了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种交互方法,应用于第一电子设备和第二电子设备,其特征在于,所述方法包括:
所述第二电子设备与所述第一电子设备建立通信连接;
所述第一电子设备检测到所述第一电子设备从第一姿态位置转换为第二姿态位置,并向所述第二电子设备发送第一姿态位置信息和第二姿态位置信息;
第二电子设备根据所述第一姿态位置信息和所述第二姿态位置信息,改变所述第二电子设备显示屏上目标对象的位置;
所述第一电子设备检测到作用于所述第一电子设备的屏幕上的触控操作,并向所述第二电子设备发送所述触控操作的信息;
所述第二电子设备根据所述触控操作的信息,在所述目标对象显示对应的操作结果。
2.根据权利要求1所述的方法,其特征在于,所述第一电子设备从第一姿态位置转换为第二姿态位置的转换包括横向移动、竖向移动以及旋转中的任一种。
3.根据权利要求2所述的方法,其特征在于,所述第一电子设备从第一姿态位置转换为第二姿态位置具有第一变化幅度,所述第二电子设备屏幕上所述目标对象的位置的改变具有的第二变化幅度,并且
所述第一电子设备具有第一尺寸,所述第二电子设备屏幕上的所述目标对象具有第二尺寸,并且
所述第一变化幅度和第二变化幅度之间的比值,与所述第一尺寸和所述第二尺寸之间的比值相关。
4.根据权利要求2所述的方法,其特征在于,所述转换为横向移动或者竖向移动,并且
所述第一电子设备从第一姿态位置转换为第二姿态位置的横向移动距离或者竖向移动距离,大于所述第二电子设备屏幕上所述目标对象的横向移动距离或者竖向移动距离。
5.根据权利要求2所述的方法,其特征在于,所述转换为旋转,并且
所述第一电子设备从第一姿态位置转换为第二姿态位置的旋转角度,与所述第二电子设备屏幕上所述目标对象的旋转角度相同。
6.根据权利要求1所述的方法,其特征在于,所述目标对象为所述第二电子设备上的第一应用的第一应用窗口;并且
所述第二电子设备与所述第一电子设备建立通信连接,包括:
所述第二电子设备上的第一应用的第一应用窗口于所述第一电子设备建立输入对应关系。
7.根据权利要求6所述的方法,其特征在于,所述第二电子设备上的第一应用的第一应用窗口与所述第一电子设备建立所述输入对应关系之前,所述方法还包括:
所述第二电子设备提示用户从多个应用窗口中选择建立所述输入对应关系的应用窗口。
8.根据权利要求1所述的方法,其特征在于,所述触控操作包括用户在所述第一电子设备的屏幕上的勾画操作和书写操作中的至少一种;并且
所述操作结果包括与所述勾画操作、书写操作分别对应的勾画痕迹和文字输入中的一种。
9.根据权利要求1所述的方法,其特征在于,所述触控操作包括用户在所述第一电子设备的屏幕上的指关节操作;并且
所述操作结果为生成的所述目标对象的截图。
10.根据权利要求1所述的方法,其特征在于,所述触控操作包括用户在所述第一电子设备的屏幕上的点击操作;并且
所述操作结果为将所述目标对象放大显示或缩小显示。
11.一种交互方法,应用于第一电子设备和第二电子设备,其特征在于,所述方法包括:
所述第二电子设备与所述第一电子设备建立通信连接;
所述第二电子设备从第一电子设备接收第一姿态位置信息和第二姿态位置信息,所述第一姿态位置信息和所述第二姿态位置信息表示所述第一电子设备从第一姿态位置转换为第二姿态位置;
所述第二电子设备根据所述第一姿态位置信息和所述第二姿态位置信息,改变所述第二电子设备屏幕上目标对象的位置;
所述第二电子设备从第一电子设备接收触控操作的信息,所述触控操作的信息表示作用于所述第一电子设备的屏幕上的所述触控操作;
所述第二电子设备根据所述触控操作的信息,在所述目标对象显示对应的操作结果。
12.一种电子设备,其特征在于,包括:
存储器,所述存储器中存储有指令,和
处理器,用于读取并执行所述存储器中的指令,以使得所述电子设备执行如权利要求1-10中任意一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包含有指令,
当所述指令被电子设备的控制器执行时使电子设备实现权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111254214.8A CN114115691B (zh) | 2021-10-27 | 2021-10-27 | 电子设备及其交互方法、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111254214.8A CN114115691B (zh) | 2021-10-27 | 2021-10-27 | 电子设备及其交互方法、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114115691A true CN114115691A (zh) | 2022-03-01 |
CN114115691B CN114115691B (zh) | 2023-07-07 |
Family
ID=80376980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111254214.8A Active CN114115691B (zh) | 2021-10-27 | 2021-10-27 | 电子设备及其交互方法、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114115691B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024022052A1 (zh) * | 2022-07-26 | 2024-02-01 | 京东方科技集团股份有限公司 | 显示终端的控制方法、系统、显示设备以及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010006382A1 (en) * | 1999-12-22 | 2001-07-05 | Sevat Leonardus Hendricus Maria | Multiple window display system |
US20120032901A1 (en) * | 2010-08-06 | 2012-02-09 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接口交互的方法和系统 |
CN103561220A (zh) * | 2013-10-28 | 2014-02-05 | 三星电子(中国)研发中心 | 一种电视终端及其多屏显示和控制的方法 |
CN104765584A (zh) * | 2014-01-03 | 2015-07-08 | 三星电子株式会社 | 用户终端装置及其控制方法 |
US20170109118A1 (en) * | 2015-10-20 | 2017-04-20 | Motorola Mobility Llc | Content monitoring window for wearable electronic devices |
US20190138172A1 (en) * | 2016-05-04 | 2019-05-09 | Samsung Electronics Co., Ltd. | Method for controlling external device by electronic device, and electronic device therefor |
US20200089336A1 (en) * | 2017-03-16 | 2020-03-19 | Adrian WESTAWAY | Physically Navigating a Digital Space Using a Portable Electronic Device |
CN111142674A (zh) * | 2019-12-31 | 2020-05-12 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
CN112383664A (zh) * | 2020-10-15 | 2021-02-19 | 华为技术有限公司 | 一种设备控制方法、第一终端设备及第二终端设备 |
CN112527222A (zh) * | 2019-09-19 | 2021-03-19 | 华为技术有限公司 | 一种信息处理方法及电子设备 |
-
2021
- 2021-10-27 CN CN202111254214.8A patent/CN114115691B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010006382A1 (en) * | 1999-12-22 | 2001-07-05 | Sevat Leonardus Hendricus Maria | Multiple window display system |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接口交互的方法和系统 |
US20120032901A1 (en) * | 2010-08-06 | 2012-02-09 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
CN103561220A (zh) * | 2013-10-28 | 2014-02-05 | 三星电子(中国)研发中心 | 一种电视终端及其多屏显示和控制的方法 |
CN104765584A (zh) * | 2014-01-03 | 2015-07-08 | 三星电子株式会社 | 用户终端装置及其控制方法 |
US20170109118A1 (en) * | 2015-10-20 | 2017-04-20 | Motorola Mobility Llc | Content monitoring window for wearable electronic devices |
US20190138172A1 (en) * | 2016-05-04 | 2019-05-09 | Samsung Electronics Co., Ltd. | Method for controlling external device by electronic device, and electronic device therefor |
US20200089336A1 (en) * | 2017-03-16 | 2020-03-19 | Adrian WESTAWAY | Physically Navigating a Digital Space Using a Portable Electronic Device |
CN112527222A (zh) * | 2019-09-19 | 2021-03-19 | 华为技术有限公司 | 一种信息处理方法及电子设备 |
CN111142674A (zh) * | 2019-12-31 | 2020-05-12 | 联想(北京)有限公司 | 一种控制方法及电子设备 |
CN112383664A (zh) * | 2020-10-15 | 2021-02-19 | 华为技术有限公司 | 一种设备控制方法、第一终端设备及第二终端设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024022052A1 (zh) * | 2022-07-26 | 2024-02-01 | 京东方科技集团股份有限公司 | 显示终端的控制方法、系统、显示设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114115691B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2021240136B2 (en) | Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments | |
CN106201305B (zh) | 电子装置及其控制方法 | |
WO2019046597A1 (en) | GRAPHIC USER SYSTEMS, METHODS AND INTERFACES FOR INTERACTING WITH ENHANCED AND VIRTUAL REALITY ENVIRONMENTS | |
US11770600B2 (en) | Wide angle video conference | |
US11158057B2 (en) | Device, method, and graphical user interface for processing document | |
EP3686723A1 (en) | User terminal device providing user interaction and method therefor | |
US20230109787A1 (en) | Wide angle video conference | |
EP4002107A1 (en) | Data binding method, apparatus, and device of mini program, and storage medium | |
EP4024186A1 (en) | Screenshot method and terminal device | |
US20140176600A1 (en) | Text-enlargement display method | |
CN112230914B (zh) | 小程序的制作方法、装置、终端及存储介质 | |
KR20150028127A (ko) | 디스플레이 장치 및 그 제어 방법 | |
CN113805745A (zh) | 一种悬浮窗的控制方法及电子设备 | |
US10614633B2 (en) | Projecting a two-dimensional image onto a three-dimensional graphical object | |
CN114115691B (zh) | 电子设备及其交互方法、介质 | |
US20240064395A1 (en) | Wide angle video conference | |
JP2016038728A (ja) | 画像表示装置、画像表示装置の制御方法、及びプログラム | |
JP2007066081A (ja) | 電子会議装置及び電子会議装置制御プログラム | |
KR20220057388A (ko) | Ar 버츄얼 단말 및 그의 제어 방법 | |
KR20180058697A (ko) | 디스플레이 장치 및 그 제어 방법 | |
CN114143580B (zh) | 一种显示设备及手柄操控图案显示方法 | |
KR20180028249A (ko) | 사용자 단말 장치 및 그 제어 방법 | |
CN114546228A (zh) | 表情图像发送方法、装置、设备及介质 | |
KR20200105467A (ko) | 학습장치 및 학습 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |