CN112328156A - 输入设备的控制方法、装置和电子设备 - Google Patents
输入设备的控制方法、装置和电子设备 Download PDFInfo
- Publication number
- CN112328156A CN112328156A CN202011264876.9A CN202011264876A CN112328156A CN 112328156 A CN112328156 A CN 112328156A CN 202011264876 A CN202011264876 A CN 202011264876A CN 112328156 A CN112328156 A CN 112328156A
- Authority
- CN
- China
- Prior art keywords
- operation mode
- input device
- hand
- user
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种输入设备的控制方法、装置和电子设备,属于通信技术领域,能够解决当用户需要在电子设备上执行其他操作时,只能在电子设备上外接其他设备,如此,会使得用户的操作步骤较为繁琐的问题。该方法应用于穿戴式设备,该穿戴式设备与输入设备连接,输入设备支持平面操作模式和立体操作模式,该方法包括:穿戴式设备采集手部参数;手部参数用于表征用户在使用输入设备的过程中用户的手部运动状态;穿戴式设备确定输入设备与手部参数对应的目标操作模式;穿戴式设备向输入设备发送控制指令,控制指令用于控制输入设备在上述目标操作模式下运行;其中,目标操作模式为平面操作模式或立体操作模式。
Description
技术领域
本申请属于通信技术领域,具体涉及一种输入设备的控制方法、装置和电子设备。
背景技术
随着电子设备技术的发展,越来越多功能的电子设备(例如,手机、电脑,增强现实眼镜(Augmented Reality,AR))可供人们使用。其中,外接输入设备技术的发展大大丰富了用户使用电子设备的场景和使用体验。
在相关技术中,以外接输入设备为鼠标为例,鼠标是用户常常会使用的外接输入设备,用户可以通过在平面上拖动鼠标,使得电子设备接收用户需要的定位操作及输入操作。
然而,由于鼠标仅具备定位操作及输入操作的功能,功能较为单一,当用户需要在电子设备上执行其他操作时,只能在电子设备上外接其他设备,如此,会使得用户的操作步骤较为繁琐。
发明内容
本申请实施例的目的是提供一种输入设备的控制方法、装置和电子设备,能够解决当用户需要在电子设备上执行其他操作时,只能在电子设备上外接其他设备,如此,会使得用户的操作步骤较为繁琐的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种输入设备的控制方法,该方法应用于穿戴式设备,上述穿戴式设备与输入设备连接,上述输入设备支持平面操作模式和立体操作模式,该方法包括:穿戴式设备采集手部参数;上述手部参数用于表征用户在使用上述输入设备的过程中所述用户的手部运动状态;穿戴式设备确定上述述输入设备与所述手部参数对应的目标操作模式;穿戴式设备向上述输入设备发送控制指令,上述控制指令用于控制上述输入设备在上述目标操作模式下运行,其中,上述目标操作模式为平面操作模式或立体操作模式。
第二方面,本申请实施例提供了一种输入设备的控制装置,上述装置包括采集模块、确定模块和发送模块;上述采集模块,用于采集手部参数,上述手部参数用于表征用户在使用所述输入设备的过程中所述用户的手部运动状态;上述确定模块,用于确定上述输入设备与上述采集模块采集的所述手部参数对应的目标操作模式;上述发送模块,用于向上述输入设备发送控制指令,所述控制指令用于控制所述输入设备在所述确定模块确定的所述目标操作模式下运行,其中,上述目标操作模式为平面操作模式或立体操作模式。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法。
在本申请实施例中,穿戴式设备与输入设备连接,该输入设备支持平面操作模式和立体操作模式,穿戴式设备可以先采集用于表征用户使用输入设备的过程中手部运动状态的手部参数,然后,确定输入设备与该手部参数对应的目标操作模式,在确定输入设备的目标操作模式后,向输入设备发送用于控制输入设备在目标从操作模式下运行的控制指令。如此,由于输入设备具备多种操作模式,同时可以根据穿戴式设备发送的控制指令维持或者改变其正在进行的操作模式,因此,丰富了输入设备的使用场景和使用功能,从而帮助用户节省输入设备的数量,继而提高用户使用输入设备的效率。
附图说明
图1是本申请实施例提供的一种输入设备的控制方法的流程示意图之一;
图2为本申请实施例提供的一种输入设备的控制方法的流程示意图之二;
图3为本申请实施例提供的一种输入设备的控制装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图之一;
图5为本申请实施例提供的一种电子设备的结构示意图之二。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面对本申请实施例中出现的名词“鼠标手柄”进行说明:
鼠标手柄是同时集成有鼠标功能和手柄功能的输入设备,属于电子设备的外接设备。其中,电子设备可以为手机、电脑、增强现实(Augmented Reality,AR)眼镜等。该鼠标手柄与电子设备之间可以通过无线连接方式(例如,蓝牙连接)连接,也可以通过有线连接方式连接。
由于鼠标手柄兼具多种功能和模式,因此,该鼠标手柄可以自身具备切换不同功能和模式的切换硬件配件,用户通过控制切换硬件配件切换鼠标手柄的功能和模式,用户还可以通过与其连接的电子设备控制该鼠标手柄切换功能和模式。需要说明的是,鼠标手柄可以兼具上述两种切换方式,用户在使用时任选一种方式完成功能和模式的切换。
可以理解的是,鼠标手柄在开启至手柄模式时,该鼠标手柄可以单一启动手柄功能,也可以同时启动手柄功能及鼠标功能,也即用户在使用鼠标手柄的手柄功能的同时,可以同时使用鼠标功能。
鼠标手柄的不同功能通常可以在应用的不同场景下使用,例如,在平面操作场景下,通常使用鼠标模式,也即平面操作模式,在立体操作场景下,例如,用户在空中挥舞该鼠标手柄,通常开启手柄模式,也即立体操作模式。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的输入设备的控制方法进行详细地说明。
在相关技术中,电子设备具备各种各样的外接输入设备,不同的外接输入设备具备不同的功能,当特定的外接输入设备与电子设备连接时,可以操控电子设备完成不同的操作。在众多外接输入设备中,鼠标和手柄为用户常常会使用的两种外接设备。当用户使用鼠标时,用户可以通过在平面上拖动鼠标,使得电子设备接收用户需要的定位操作及输入操作,当用户使用手柄时,用户可以通过对手柄的触控输入进而控制电子设备完成相应的控制操作。然而,当用户需要从使用鼠标的场景切换至使用手柄的场景时,用户需要再外接手柄,并使用手柄完成输入。由上述过程可以看出,用户在使用不同输入设备时,需要重新输入设备并更换当前使用的输入设备。由此,会使得用户的操作步骤较为繁琐。
为了解决上述问题,在本申请中使用的是一种兼具多种操作模式的输入设备,在使用该兼具多种操作模式的输入设备的过程中,若用户需要切换输入设备的不同操作模式,在本申请实施例中,可以利用与该输入设备连接的穿戴式设备先采集用于表征用户使用输入设备的过程中手部运动状态的手部参数,然后,该穿戴式设备可以确定输入设备与该手部参数对应的目标操作模式,在确定输入设备的目标操作模式后,向输入设备发送用于控制输入设备在目标从操作模式下运行的控制指令。如此,由于输入设备具备多种操作模式,同时可以根据穿戴式设备发送的控制指令维持或者改变其正在进行的操作模式,因此,丰富了输入设备的使用场景和使用功能,从而帮助用户节省输入设备的数量,继而提高用户使用输入设备的效率。
本实施例提供一种输入设备的控制方法,如图1所示,本实施例应用于穿戴式设备,上述穿戴式设备与输入设备连接,上述输入设备支持平面操作模式和立体操作模式,该输入设备的控制方法包括以下步骤301至步骤303:
步骤301:穿戴式设备采集手部参数。
在本申请实施例中,上述手部参数用于表征用户在使用上述输入设备的过程中上述用户的手部运动状态。
示例性的,上述用户可以握持输入设备并利用手指对输入设备执行输入,从而使用上述输入设备。
示例性的,上述手部运动状态可以为手部肌肉的运动状态,还可以为手指的运动状态,本申请实施例对此不作限定。
可选的,在本申请实施例中,上述手部参数包括以下任一项:上述用户的手部生理参数,上述用户的手部运动参数。
示例性的,上述手部生理参数用于指示上述用户在使用上述输入设备的过程中上述用户的手指运动范围。
示例性的,上述手部生理参数可以为用于还是手部生理情况的数据信息,该数据信息可以用于告知穿戴式设备和/或输入设备用户的手部运动情况。其中,上述生理参数可以为肌肉运动参数。
在一种示例中,上述手指运动范围可以用于指示用户运动的具体手指。
例1,用户单手具备5个手指,从大拇指至小拇指依次编号为手指1、手指2、手指3、手指4和手指5,当用户的食指和中指处于运动状态时,手部生理参数为指示手指2和手指3处于运动状态的数据信息。
示例性的,上述手部运动参数用于表征用户使用上述输入设备的过程中的手部运动姿态。
在一种示例中,上述手部运动姿态可以用于指示用户手部整体运动的姿势和运动的范围。例如,用户手部是在X-Y-Z三轴空间中运动,还是在X-Y两轴空间中运动。
如此,电子设备可以通过采集多种类型的参数,从而在后续步骤中通过多种方式确定手部参数对应的的目标操作模式,从而增强确定目标操作模式的准确性。
可以理解的,上述手部参数可以为任意时间点的参数,还可以为预定时间段内的参数,例如,5秒内的手部参数。如此,可以提高手部参数对应用户手部实际运动情况的正确率。
在本申请实施例中,上述输入设备与穿戴式设备的连接方式可以为无线连接,例如,蓝牙连接、WiFi连接;还可以为有线连接,本申请实施例对此不作限定。
在本申请实施例中,上述输入设备可以为具备多种模式和/或功能的电子设备。该电子设备可以为其他电子设备的外接输入设备,通过对该输入设备执行控制操作,从而控制其他电子设备执行与控制操作相对应的操作。
在本申请实施例中,上述输入设备可以支持平面操作模式和立体操作模式。
示例性的,上述平面操作模式是指:用户在平面空间操作输入设备。以三维立体空间为X-Y-Z三轴构成的空间为例,当输入设备为平面操作模式时,其仅在上述X-Y-Z三轴中的任意两轴平面上执行操作,也即该输入设备的操作方向仅包含两轴对应的方向,例如,该输入设备在X-Y轴平面上执行操作,或者在Y-Z轴平面上执行操作。
示例性的,上述立体操作模式是指:用户在立体空间操作输入设备。以三维立体空间为X-Y-Z三轴构成的空间为例,当输入设备为平面操作模式时,该输入设备在X-Y-Z三轴构成的空间内执行操作,也即该输入设备的操作方向包含有上述三轴对应的方向。
在一种示例中,上述输入设备可以为同时具备鼠标功能和手柄功能的设备。例如,鼠标手柄,其中,该鼠标手柄的详细信息可以参照前述描述,此处不再赘述。
在本申请实施例中,上述穿戴式设备可以为电子腕带式设备,例如,电子手环、电子手表,还可以为具备摄像功能的设备,例如,具备摄像功能的电子手表,还可以为具备监测用户生理参数传感器的穿戴式设备,例如,具备监测用户肌肉运动参数的电子手环,还可以为其他穿戴式设备,例如,AR眼镜,本申请实施例对此不作限定。
在本申请实施例中,上述穿戴式设备可以根据设备本身特性的不同,采用多种方式采集手部参数。
在一种示例中,上述穿戴式设备可以通过使用摄像功能采集手部参数。例如,穿戴式设备通过摄像头采集用户各个手指的运动状态,从而确定用户的手指运动范围;还可以通过摄像头采集用户手部的运动姿势,如用户手部在空间的X-Y-Z三轴方向上挥舞,从而确定手部运动姿态。
在一种示例中,上述穿戴式设备可以通过使用采集生理参数的传感器采集手部参数。例如,穿戴式设备通过传感器采集用户腕部的肌肉运动参数,从而根据肌肉运动参数确认用户手部运动的手指,然后确定用户的手指运动范围。
在一种示例中,上述穿戴式设备可以通过惯性监测(Inertial MeasurementUnit,IMU)设备采集手部参数。例如,穿戴式设备通过惯性监测技术监测手部的运动情况。
可以理解的是,上述穿戴式设备采集手部参数可以为周期性采集,也可以为连续性采集,用户可以通过自定义方式调整上述采集方式。其中,当穿戴式设备为周期性采集时,还可以通过自定义的方式设定采集周期。例如,用户可以设定采集周期为每15秒采集一次手部参数。
进一步的,由于上述手部参数可以为预定时间段内的参数,因此,上述穿戴式设备采集手部参数的过程可以为持续预定时间段的操作过程。其中,上述预定时间段可以为穿戴式设备预设的,也可以为用户自定义设置的。
步骤302:穿戴式设备确定上述输入设备与上述手部参数对应的目标操作模式。
在本申请实施例中,上述目标操作模式为平面操作模式或立体操作模式。
在本申请实施例中,上述目标操作模式可以为穿戴式设备可以预设的,也可以为用户自定义设置的,本申请实施例对此不作限定。
在一种示例中,手部参数为用户的手部生理参数,则穿戴式设备可以预设手指运动范围与操作模式之间的对应关系。
例2,结合上述例1,当手部生理参数用于指示手指运动范围时,可以预设手指2和手指3预定时间段内持续运动对应平面操作模式,手指2至手指4预定时间段内持续运动对应立体操作模式。
步骤303:穿戴式设备向上述输入设备发送控制指令。
在本申请实施例中,上述控制指令用于控制上述输入设备在上述目标操作模式下运行。
在本申请实施例中,上述控制指令可以为输入设备能够读取并执行的数据信息。
示例1:假设穿戴式设备为具备监控用户腕部肌肉参数的电子手环,手部参数为肌肉运动参数,输入设备为鼠标手柄,鼠标手柄与电子手环之间蓝牙连接。则用户在腕部佩戴该电子手环,手部握持使用鼠标手柄的过程中,该电子手环周期性的监测用户的手部运动状态。在监测用户的手部运动状态的过程中,每15秒采集一次用户的肌肉运动参数(即上述手部参数),每次采集过程持续5秒。在采集完该肌肉运动参数后,肌肉运动参数指示用户手部的手指2至手指4的肌肉持续运动,则电子手环将根据该肌肉运动参数确定用户的手部实际状态,即用户手部的手指2至手指4处于运动状态,则该电子手环备确定鼠标手柄为与该手部运动状态相对应的立体操作模式(即上述目标操作模式)。然后,电子手环将向鼠标手柄蓝牙传输包含立体操作模式的信息(即上述控制指令),则鼠标手柄将在立体操作模式下运行。
本申请实施例提供的输入设备的控制方法,穿戴式设备与输入设备连接,该输入设备支持平面操作模式和立体操作模式,穿戴式设备可以先采集用于表征用户使用输入设备的过程中手部运动状态的手部参数,然后,确定输入设备与该手部参数对应的目标操作模式,在确定输入设备的目标操作模式后,向输入设备发送用于控制输入设备在目标从操作模式下运行的控制指令。如此,由于输入设备具备多种操作模式,同时可以根据穿戴式设备发送的控制指令维持或者改变其正在进行的操作模式,因此,丰富了输入设备的使用场景和使用功能,从而帮助用户节省输入设备的数量,继而提高用户使用输入设备的效率。
可选的,在本申请实施例中,上述手部参数包括手腕处运动参数,不同的手腕处运动参数对应不同的手腕处运动状态。在此基础上,在本申请实施例提供的输入设备的控制方法中,在上述手腕处运动状态为平面运动状态的情况下,上述目标操作模式为平面操作模式,在上述手腕处运动状态为立体运动状态的情况下,上述目标操作模式为立体操作模式。
示例性的,上述手腕处运动参数可以为手腕处肌肉运动参数,还可以为手腕处的空间运动参数。
在一种示例中,当上述手腕处运动参数为手腕处肌肉运动参数时,穿戴式设备可以通过监测手腕处肌肉运动情况,获取处于运动状态的肌肉范围参数。例3,手腕处肌肉包含5个部分,可以获取具体哪几个部分的肌肉处于运动状态的参数信息。
在一种示例中,当上述手腕处运动参数为手腕处的空间运动参数时,穿戴式设备可以通过监测手腕处的运动情况,获取手腕处的运动范围参数。例4,穿戴式设备可以通过获取手腕处运动的速度与加速度,获取手腕处运动的方向和距离,进而获取手腕处的运动范围参数。
示例性的,上述手腕处运动状态包含以下任一项:平面运动状态和立体运动状态。
在一种示例中,上述平面运动状态可以为手腕处在两轴平面上的运动状态。例如,手腕处处于在X-Y轴平面上的运动状态,或者手腕处保持在X-Z轴平面上的运动状态。
在一种示例中,上述立体运动状态可以为手腕处在三轴空间上的运动状态。例如,手腕处处于在X-Y-Z三轴空间上的运动状态。
需要说明的是,上述手腕处运动状态可以为手腕处在瞬时时间的运动状态,也可以为手腕处在一段时间段内的运动状态,上述确定运动状态的时间参数可以为用户自定义的,也可以为穿戴式设备自定义的,本申请实施例对此不作限定。
示例性的,不同的手腕处运动参数对应不同的手腕处运动状态。
在一种示例中,当手腕处运动参数为手腕处肌肉运动参数时,可以通过该手腕处肌肉运动参数确定与其匹配的手腕运动状态。例5:结合上述例3,上述手腕处肌肉运动参数指示手腕处第二部分和第三部分在一段时间内持续运动,则可以确定这段时间内手腕处运动状态为平面运动状态。
在一种示例中,当手腕处运动参数为手腕处的空间运动参数时,可以通过该手腕处空间运动参数确定与其匹配的手腕运动状态。例6:结合上述例4,上述手腕处空间运动参数指示手腕处在三轴空间在一段时间内保持持续运动,则可以确定这段时间内手腕处运动状态为空间运动状态。
示例性的,上述目标操作模式、平面操作模式和立体操作模式可以参数前述描述,此处不再赘述。
如此,穿戴式设备可以根据手腕处的运动参数确定手腕处运动状态,进而确定最终的目标操作模式,从而丰富了穿戴式设备确定输入设备的操作模式的方式方法,进而可以进一步提高穿戴式设备的工作效率,提升用户体验。
可选的,在本申请实施例中,在上述输入设备处于平面操作模式的情况下,上述输入设备用于控制目标设备显示的目标对象在二维空间中移动;在上述输入设备处于立体操作模式的情况下,上述输入设备用于控制目标设备显示的目标对象在三维空间中移动。
示例性的,上述平面操作模式和立体操作模式可以参照前述描述,此处不再赘述。
示例性的,上述目标设备可以为任意电子设备,例如,平板电脑、手机、AR眼镜等。
示例性的,上述目标对象可以为输入设备在目标设备中输入的内容。例如,当输入设备为鼠标时,目标对象为光标;当上述输入设备为手柄时,目标对象可以为手柄对应的方向指示标识或者操作指示标识。
示例性的,上述二维空间是指视觉效果上的二维空间或者使用场景上的二维空间,相应的,上述三维空间是指视觉效果上述三维空间或者使用场景上的三维空间。
可以理解的是,在相关技术中,不同的应用可以根据实际应用需求,在创建该应用时即为引用设置视觉场景或者使用场景,例如,沉浸式视频应用需要用户在通过该应用观看视频时有沉浸式观感,则在创建时,可以将该应用设计为能够展示视觉三维效果的视频的应用,又例如,文档编辑应用需要用户在二维平面上观看,则在创建该应用时,可以将该应用设计为视觉上观感为二维平面效果的应用。
需要说明的是,不同操作模式对应的目标对象的形式可以相同,也可以不同,具体的,以适应该操作模式下的二维空间或者三维空间为宜。
示例2:以该输入设备为鼠标手柄为例,假设目标设备为电脑,当该鼠标手柄处于平面操作模式的情况下,启动该鼠标手柄的鼠标功能,该鼠标手柄用于控制电脑显示光标(即上述目标对象)在二维平面(即上述二维空间)中移动;当该鼠标手柄处于立体操作模式的情况下,启动该鼠标手柄的手柄功能,该鼠标手柄用于控制电脑显示方向控件和操控控件(即上述目标对象)在三维空间中移动。
如此,输入设备可以根据使用模式的不同,控制该输入设备对应的目标对象在不同类型的空间中显示,方便用户在不同操作模式下使用输入设备,提高用户使用输入设备的效率和使用体验。
可选的,在本申请实施例中,上述输入设备为鼠标手柄。在此基础上,在本申请实施例提供的输入设备的控制方法中,在上述平面操作模式下,上述控制指令用于控制上述鼠标手柄执行鼠标功能;在上述立体操作模式下,上述控制指令用于控制上述鼠标手柄执行手柄功能。
示例性的,上述鼠标手柄的描述可以参照前述描述,此处不再赘述。
可选的,在本申请实施例中,在上述步骤302中,本申请实施例提供的输入设备的控制方法可以包括如下步骤302a:
步骤302a:输入设备的控制装置在上述手部参数在预设时间内的变化值小于目标阈值的情况下,确定上述鼠标手柄的目标操作模式为平面操作模式。
示例性的,上述预设时间和目标阈值可以为穿戴式设备预设的,也可以为用户自定义的,本申请实施例对此不作限定。
示例性的,上述目标阈值可以为:穿戴式设备预定运动方向对应的数值,可以为穿戴式设备预定运动范围对应的数值,也可以为穿戴式设备预定运动方向和穿戴式设备预定运动范围的结合,本申请实施例对此不作限定。
在一种示例中,当上述预设时间和目标阈值可以为穿戴式设备预设的时,上述预设时间和目标阈值可以根据穿戴式设备结合用户一段时间内的手部运动习惯,不断做出调整。例如,当目标阈值用于指示运动范围时,上述预设时间和目标阈值穿戴式设备在出厂时为5秒和0.8米,也即手部持续5秒在半径0.8米范围内,则可以确定当前鼠标手柄的目标操作模式为平面操作模式,对应运行鼠标功能。二在用户A使用一段时间后,通过监测分析,得出处于鼠标模式下时,大部分时间用户A的运动范围0.6米,大于0.6米时,目标操作模式为立体操作模式,对应手柄功能,则此时,穿戴式设备将自动将预设时间和目标阈值更新为5秒和0.6米,以便于适应用户的实际需求。
如此,在输入设备为鼠标手柄时,可以根据在预设时间内的变化值小于目标阈值更加准确、真实的确定出用户的实际使用需求,提高确定操作模式的准确度,增强用户的使用体验。
可选的,在本申请实施例中,在所述手部参数包括手部运动参数的情况下,上述步骤301之后,本申请实施例提供的输入设备的控制方法,包括如下步骤304和步骤305:
步骤304:在手部运动参数大于预定阈值的情况下,穿戴式设备启动深度姿态判断模式。
步骤305:在目标预定时间段内,采集手部运动参数。
示例性的,上述深度姿态判断模式会触发穿戴式设备对用户手部运动状态在目标运动时间段内进行监测。
其中,上述目标预定时间段可以为穿戴式设备预设的,也可以为用户自定义的,本申请实施例对此不作限定。
示例性的,上述预定阈值可以为穿戴式设备预定运动方向对应的数值,可以为穿戴式设备预定运动范围对应的数值,也可以为穿戴式设备预定运动方向和穿戴式设备预定运动范围的结合,本申请实施例对此不作限定。
示例性的,上述手部运动参数可以参照前述描述,此处不再赘述。
示例3:假设穿戴式设备为具备惯性监测单元的电子手环,手部参数为手部运动惯性参数,输入设备为鼠标手柄,鼠标手柄与电子手环之间蓝牙连接。则用户在腕部佩戴该电子手环,手部握持使用鼠标手柄的过程中,该电子手环周期性的监测用户的手部运动状态。在监测用户的手部运动状态的过程中,每15秒采集一次用户的手部运动惯性参数(即上述手部参数)。在采集完该手部惯性参数后,该手部惯性参数的参数数值大于预设阈值,则该电子手环启动深度姿态判断模式,在该模式下,电子手环将在5秒内(即上述目标预定时间段)持续监测手部运动状态,若在5秒内,手部惯性参数指示用户的手部在X-Y-Z三轴上均有运动,则该电子手环确定鼠标手柄为与该手部运动姿态相对应的立体操作模式(即上述目标操作模式)。然后,电子手环将向鼠标手柄蓝牙传输包含立体操作模式的信息(即上述控制指令),则鼠标手柄将在立体操作模式下运行。
如此,穿戴式设备在通过手部运动参数监测手部运动状态时,可以仅监测任意时间点的手部运动状态,在手部运动状态超出预设阈值的情况下,再开启深度姿态判断模式,从而减少穿戴式设备的实际监测时长,进而可以节约穿戴式设备使用的资源。
可选的,在本申请实施例中,在上述手部参数包括手部运动参数的情况下,在上述步骤302中,本申请实施例提供的输入设备的控制方法包括如下步骤302b:
步骤302b:穿戴式设备确定上述输入设备与上述手部运动姿态相匹配的目标操作模式。
示例性的,上述目标操作模式可以为穿戴式设备可以预设的,也可以为用户自定义设置的,本申请实施例对此不作限定。
在一种示例中,手部运动参数为用户的手部运动姿态,则穿戴式设备可以预设手部运动姿态与操作模式之间的对应关系。
示例4:结合上述示例1,用户在腕部佩戴该电子手环,手部握持使用鼠标手柄的过程中,该电子手环周期性的监测用户的手部运动状态。在监测用户的手部运动状态的过程中,每15秒采集一次用户的手部运动惯性参数(即上述手部参数),每次采集过程持续5秒。在采集完该手部运动惯性参数后,手部运动惯性参数指示用户手部的持续在X-Y轴方向上运动,则电子手环将根据该手部运动惯性参数确定用户的手部运动姿态,即用户手部持续在平面运动,则该电子手环备确定鼠标手柄为与该手部运动姿态相对应的平面操作模式(即上述目标操作模式)。然后,电子手环将向鼠标手柄蓝牙传输包含平面操作模式的信息(即上述控制指令),则鼠标手柄将在平面操作模式下运行。
如此,穿戴式设备可以对用户手部运动姿态进行监测,从而获取用户使用输入设备时的目标操作模式,进而在节省外接输入设备数量的同时,无需手动切换操作模式,简化用户使用输入设备的操作步骤。
本实施例还提供另一种输入设备的控制方法,如图2所示,本实施例应用于输入设备,上述输入设备与穿戴式设备连接,上述输入设备支持平面操作模式和立体操作模式,该输入设备的控制方法包括以下步骤401至步骤403:
步骤401:输入设备获取上述穿戴式设备采集的手部参数。
在本申请实施例中,上述手部参数用于表征用户在使用上述输入设备的过程中上述用户的手部运动状态。
在本申请实施例中,输入设备可以通过无线接收的方式获取手部参数,也可以通过蓝牙接收的方式获取手部参数,本申请实施例对不作限定。
步骤402:输入设备确定该输入设备与上述手部参数对应的目标操作模式。
步骤403:输入设备控制该输入设备在上述目标操作模式下运行。
在本申请实施例中,上述步骤402和步骤403的内容可以参照前述步骤302和步骤303的描述此处不再赘述。
需要说明的是,由于执行主体的变化,输入设备中可以包含手部参数与操作模式的对应关系表,进而输入设备在获取手部参数后,可以具备自行确定该输入设备与手部参数对应的目标操作模式以及控制该输入设备在上述目标操作模式下运行的功能。
示例5:假设穿戴式设备为具备监控用户腕部肌肉参数的电子手环,手部参数为肌肉运动参数,输入设备为鼠标手柄,鼠标手柄与电子手环之间蓝牙连接。则用户在腕部佩戴该电子手环,手部握持使用鼠标手柄的过程中,鼠标手柄获取由该电子手环发送的周期性监测用户的手部运动状态的肌肉运动参数。鼠标手柄根据上述肌肉运动参数(即上述手部参数),确定用户的手部实际状态,即用户手部的手指2至手指4处于运动状态,则该鼠标手柄确定了其操作模式为与该手部运动状态相对应的立体操作模式(即上述目标操作模式)。然后,鼠标手柄将在立体操作模式下运行。
本申请实施例提供的输入设备的控制方法,应用于输入设备,该输入设备与穿戴式设备连接,且输入设备支持平面操作模式和立体操作模式,该输入设备可以自动获取穿戴式设备采集的用于表征用户在使用输入设备的过程中手部运动状态的手部参数,然后输入设备与该手部参数对应的目标操作模式,最后控制输入设备在该目标操作模式下运行。如此,在输入设备包含多种操作模式的情况下,输入设备可以利用穿戴式设备采集的手部参数自行判断当前用户需要输入设备执行的操作模式,从而及时调整或者维持输入设备的操作模式。进而在减少外接输入设备数量的同时,增强了操作模式判断的便捷性,提高了用户体验度。
可选的,在本申请实施例中,上述手部参数包括以下任一项:上述用户的手部生理参数,上述用户的手部运动参数;其中,上述手部生理参数用于指示上述用户在使用上述输入设备的过程中上述用户的手指运动范围;上述手部运动参数用于表征用户使用上述输入设备的过程中的目标手部运动姿态。
示例性的,上述关于手部参数的描述可以参照前述描述,此处不再赘述。
可选的,在本申请实施例中,在上述手部参数包括手部运动参数的情况下,上述步骤402中,本申请实施例提供的输入设备的控制方法包括如下步骤402a:
步骤402a:输入设备确定上述输入设备与上述目标手部运动姿态相匹配的目标操作模式。
示例性的,上述关于步骤402a的描述可以参照前述关于302b的描述,此处不再赘述。
示例6:结合上述示例5,用户在腕部佩戴该电子手环,手部握持使用鼠标手柄的过程中,鼠标手柄获取由该电子手环发送的周期性监测用户的手部运动状态的手部运动惯性参数(即上述手部运动采纳数)。若手部运动惯性参数指示用户手部的持续在X-Y轴方向上运动,则鼠标手柄将根据该手部运动惯性参数确定用户的手部运动姿态,即用户手部持续在平面运动,则该是鼠标手柄确定其操作模式为与该手部运动姿态相对应的平面操作模式(即上述目标操作模式)。然后,则鼠标手柄将在平面操作模式下运行。
如此,输入设备可以自动获取穿戴式设备对用户手部运动姿态进行监测的数据,从而确定用户使用输入设备时的目标操作模式,进而在节省外接输入设备数量的同时,无需手动切换操作模式,简化用户使用输入设备的操作步骤。
需要说明的是,本申请实施例提供的输入设备的控制方法,执行主体可以为输入设备的控制装置,或者该输入设备的控制装置中的用于执行输入设备的控制方法的控制模块。本申请实施例中以输入设备的控制装置执行输入设备的控制方法为例,说明本申请实施例提供的输入设备的控制装置。
图3为实现本申请实施例提供的输入设备的控制装置的可能的结构示意图。如图3所示,上述装置600包括采集模块601、确定模块602和发送模块603;上述采集模块601,用于采集手部参数,上述手部参数用于表征用户在使用上述输入设备的过程中上述用户的手部运动状态;上述确定模块602,用于确定上述输入设备与上述采集模块601采集的上述手部参数对应的目标操作模式;上述发送模块603,用于向上述输入设备发送控制指令,上述控制指令用于控制上述输入设备在上述确定模块602确定的上述目标操作模式下运行;其中,上述目标操作模式为平面操作模式或立体操作模式。
本申请实施例提供的输入设备的控制装置,输入设备的控制装置与输入设备连接,该输入设备支持平面操作模式和立体操作模式,输入设备的控制装置可以先采集用于表征用户使用输入设备的过程中手部运动状态的手部参数,然后,确定输入设备与该手部参数对应的目标操作模式,在确定输入设备的目标操作模式后,向输入设备发送用于控制输入设备在目标从操作模式下运行的控制指令。如此,由于输入设备具备多种操作模式,同时可以根据输入设备的控制装置发送的控制指令维持或者改变其正在进行的操作模式,因此,丰富了输入设备的使用场景和使用功能,从而帮助用户节省输入设备的数量,继而提高用户使用输入设备的效率。
可选的,在本申请实施例中,上述手部参数包括以下任一项:上述用户的手部生理参数,上述用户的手部运动参数;其中,上述手部生理参数用于指示上述用户在使用上述输入设备的过程中上述用户的手指运动范围;上述手部运动参数用于表征用户使用上述输入设备的过程中的目标手部运动姿态。
可选的,在本申请实施例中,上述手部参数包括手腕处运动参数,不同的手腕处运动参数对应不同的手腕处运动状态;在上述手腕处运动状态为平面运动状态的情况下,上述目标操作模式为平面操作模式,在上述手腕处运动状态为立体运动状态的情况下,上述目标操作模式为立体操作模式。
可选的,在本申请实施例中,在上述输入设备处于平面操作模式的情况下,上述输入设备用于控制目标设备显示的目标对象在二维空间中移动;在上述输入设备处于立体操作模式的情况下,上述输入设备用于控制目标设备显示的目标对象在三维空间中移动。
可选的,在本申请实施例中,上述输入设备为鼠标手柄;在上述平面操作模式下,上述控制指令用于控制上述鼠标手柄执行鼠标功能;在上述立体操作模式下,上述控制指令用于控制上述鼠标手柄执行手柄功能。
可选的,在本申请实施例中,上述确定模块,具体用于在上述手部参数在预设时间内的变化值小于目标阈值的情况下,确定上述鼠标手柄的目标操作模式为平面操作模式。
本申请实施例中的输入设备的控制装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的输入设备的控制装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的输入设备的控制装置能够实现图1至图2的方法实施例实现的各个过程,为避免重复,这里不再赘述。
需要说明的是,如图3所示,输入设备的控制装置600中一定包括的模块用实线框示意,如采集模块601。
可选的,如图4所示,本申请实施例还提供一种电子设备800,包括处理器801,存储器802,存储在存储器802上并可在所述处理器801上运行的程序或指令,该程序或指令被处理器801执行时实现上述输入设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图5为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、以及处理器110等部件。其中,用户输入单元107包括:触控面板1071和其他输入设备1072,显示单元106包含显示面板1061,输入单元104包括图像处理器1041和麦克风1042,存储器109可用于存储软件程序(如,操作系统、至少一个功能所需的应用程序)以及各种数据。
本领域技术人员可以理解,电子设备100还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图5中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,当电子设备100为穿戴式设备时,上述穿戴式设备与输入设备连接,上述输入设备支持平面操作模式和立体操作模式,处理器110,用于采集手部参数;上述手部参数用于表征用户在使用上述输入设备的过程中上述用户的手部运动状态;处理器110,还用于确定上述输入设备与上述手部参数对应的目标操作模式;射频单元101,用于向上述输入设备发送控制指令,上述控制指令用于控制上述输入设备在上述目标操作模式下运行;其中,上述目标操作模式为平面操作模式或立体操作模式。
本申请实施例提供的穿戴式设备,该穿戴式设备与输入设备连接,该输入设备支持平面操作模式和立体操作模式,穿戴式设备可以先采集用于表征用户使用输入设备的过程中手部运动状态的手部参数,然后,确定输入设备与该手部参数对应的目标操作模式,在确定输入设备的目标操作模式后,向输入设备发送用于控制输入设备在目标从操作模式下运行的控制指令。如此,由于输入设备具备多种操作模式,同时可以根据穿戴式设备发送的控制指令维持或者改变其正在进行的操作模式,因此,丰富了输入设备的使用场景和使用功能,从而帮助用户节省输入设备的数量,继而提高用户使用输入设备的效率。
上述处理器110,具体用于在上述手部参数在预设时间内的变化值小于目标阈值的情况下,确定上述鼠标手柄的目标操作模式为平面操作模式。
应理解的是,本申请实施例中,输入单元104可以包括图形处理器(GraphicsProcessing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元106可包括显示面板1061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板1061。用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器109可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述输入设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述输入设备的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (14)
1.一种输入设备的控制方法,其特征在于,应用于穿戴式设备,所述穿戴式设备与输入设备连接,所述输入设备支持平面操作模式和立体操作模式,所述方法包括:
采集手部参数;所述手部参数用于表征用户在使用所述输入设备的过程中所述用户的手部运动状态;
确定所述输入设备与所述手部参数对应的目标操作模式;
向所述输入设备发送控制指令,所述控制指令用于控制所述输入设备在所述目标操作模式下运行;
其中,所述目标操作模式为平面操作模式或立体操作模式。
2.根据权利要求1所述的方法,其特征在于,所述手部参数包括以下任一项:所述用户的手部生理参数,所述用户的手部运动参数;
其中,所述手部生理参数用于指示所述用户在使用所述输入设备的过程中所述用户的手指运动范围;所述手部运动参数用于表征用户使用所述输入设备的过程中的手部运动姿态。
3.根据权利要求1所述的方法,其特征在于,所述手部参数包括手腕处运动参数,不同的手腕处运动参数对应不同的手腕处运动状态;
在所述手腕处运动状态为平面运动状态的情况下,所述目标操作模式为平面操作模式,在所述手腕处运动状态为立体运动状态的情况下,所述目标操作模式为立体操作模式。
4.根据权利要求1所述的方法,其特征在于,在所述输入设备处于平面操作模式的情况下,所述输入设备用于控制目标设备显示的目标对象在二维空间中移动;在所述输入设备处于立体操作模式的情况下,所述输入设备用于控制目标设备显示的目标对象在三维空间中移动。
5.根据权利要求1所述的方法,其特征在于,所述输入设备为鼠标手柄;在所述平面操作模式下,所述控制指令用于控制所述鼠标手柄执行鼠标功能;在所述立体操作模式下,所述控制指令用于控制所述鼠标手柄执行手柄功能。
6.根据权利要求5所述的方法,其特征在于,
所述确定所述输入设备与所述手部参数对应的目标操作模式,包括:
在所述手部参数在预设时间内的变化值小于目标阈值的情况下,确定所述鼠标手柄的目标操作模式为平面操作模式。
7.一种输入设备的控制装置,其特征在于,所述装置包括采集模块、确定模块和发送模块;
所述采集模块,用于采集手部参数,所述手部参数用于表征用户在使用所述输入设备的过程中所述用户的手部运动状态;
所述确定模块,用于确定所述输入设备与所述采集模块采集的所述手部参数对应的目标操作模式;
所述发送模块,用于向所述输入设备发送控制指令,所述控制指令用于控制所述输入设备在所述确定模块确定的所述目标操作模式下运行;
其中,所述目标操作模式为平面操作模式或立体操作模式。
8.根据权利要求7所述的装置,其特征在于,所述手部参数包括以下任一项:所述用户的手部生理参数,所述用户的手部运动参数;
其中,所述手部生理参数用于指示所述用户在使用所述输入设备的过程中所述用户的手指运动范围;所述手部运动参数用于表征用户使用所述输入设备的过程中的手部运动姿态。
9.根据权利要求7所述的装置,其特征在于,所述手部参数包括手腕处运动参数,不同的手腕处运动参数对应不同的手腕处运动状态;
在所述手腕处运动状态为平台运动状态的情况下,所述目标操作模式为平面操作模式,在所述手腕处运动状态为立体运动状态的情况下,所述目标操作模式为立体操作模式。
10.根据权利要求7所述的装置,其特征在于,在所述输入设备处于平面操作模式的情况下,所述输入设备用于控制目标设备显示的目标对象在二维空间中移动;在所述输入设备处于立体操作模式的情况下,所述输入设备用于控制目标设备显示的目标对象在三维空间中移动。
11.根据权利要求7所述的装置,其特征在于,所述输入设备为鼠标手柄;在所述平面操作模式下,所述控制指令用于控制所述鼠标手柄执行鼠标功能;在所述立体操作模式下,所述控制指令用于控制所述鼠标手柄执行手柄功能。
12.根据权利要求11所述的装置,其特征在于,
所述确定模块,具体用于在所述采集模块采集的所述手部参数在预设时间内的变化值小于目标阈值的情况下,确定所述鼠标手柄的目标操作模式为平面操作模式。
13.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1-6任一项所述的输入设备的控制方法的步骤。
14.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-6任一项所述的输入设备的控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011264876.9A CN112328156B (zh) | 2020-11-12 | 2020-11-12 | 输入设备的控制方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011264876.9A CN112328156B (zh) | 2020-11-12 | 2020-11-12 | 输入设备的控制方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112328156A true CN112328156A (zh) | 2021-02-05 |
CN112328156B CN112328156B (zh) | 2022-05-17 |
Family
ID=74318421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011264876.9A Active CN112328156B (zh) | 2020-11-12 | 2020-11-12 | 输入设备的控制方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328156B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359262A (zh) * | 2008-09-10 | 2009-02-04 | 北京超多维科技有限公司 | 一种2d-3d可切换鼠标 |
CN102722240A (zh) * | 2011-05-18 | 2012-10-10 | 北京大学深圳研究生院 | 一种文字信息输入系统、手写输入设备及方法 |
US20130265218A1 (en) * | 2012-02-24 | 2013-10-10 | Thomas J. Moscarillo | Gesture recognition devices and methods |
CN103744608A (zh) * | 2014-01-20 | 2014-04-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105138136A (zh) * | 2014-09-15 | 2015-12-09 | 北京至感传感器技术研究院有限公司 | 手势识别装置、手势识别方法及手势识别系统 |
CN105511609A (zh) * | 2015-11-30 | 2016-04-20 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN106648153A (zh) * | 2016-12-23 | 2017-05-10 | 重庆墨希科技有限公司 | 一种具有鼠标功能的智能手环 |
CN107741782A (zh) * | 2017-09-20 | 2018-02-27 | 国网山东省电力公司泰安供电公司 | 一种设备虚拟漫游方法和装置 |
CN109960404A (zh) * | 2019-02-15 | 2019-07-02 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN110515462A (zh) * | 2019-08-27 | 2019-11-29 | 安徽华米信息科技有限公司 | 一种智能可穿戴设备中应用的控制方法、装置 |
CN110928432A (zh) * | 2019-10-24 | 2020-03-27 | 中国人民解放军军事科学院国防科技创新研究院 | 指环鼠标、鼠标控制装置及鼠标控制系统 |
CN111178142A (zh) * | 2019-12-05 | 2020-05-19 | 浙江大学 | 一种基于时空上下文学习的手部姿态估计方法 |
CN111371943A (zh) * | 2018-12-25 | 2020-07-03 | 珠海格力电器股份有限公司 | 终端桌面显示方法、装置、存储介质及设备 |
-
2020
- 2020-11-12 CN CN202011264876.9A patent/CN112328156B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359262A (zh) * | 2008-09-10 | 2009-02-04 | 北京超多维科技有限公司 | 一种2d-3d可切换鼠标 |
CN102722240A (zh) * | 2011-05-18 | 2012-10-10 | 北京大学深圳研究生院 | 一种文字信息输入系统、手写输入设备及方法 |
US20130265218A1 (en) * | 2012-02-24 | 2013-10-10 | Thomas J. Moscarillo | Gesture recognition devices and methods |
CN103744608A (zh) * | 2014-01-20 | 2014-04-23 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105138136A (zh) * | 2014-09-15 | 2015-12-09 | 北京至感传感器技术研究院有限公司 | 手势识别装置、手势识别方法及手势识别系统 |
CN105511609A (zh) * | 2015-11-30 | 2016-04-20 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
CN106648153A (zh) * | 2016-12-23 | 2017-05-10 | 重庆墨希科技有限公司 | 一种具有鼠标功能的智能手环 |
CN107741782A (zh) * | 2017-09-20 | 2018-02-27 | 国网山东省电力公司泰安供电公司 | 一种设备虚拟漫游方法和装置 |
CN111371943A (zh) * | 2018-12-25 | 2020-07-03 | 珠海格力电器股份有限公司 | 终端桌面显示方法、装置、存储介质及设备 |
CN109960404A (zh) * | 2019-02-15 | 2019-07-02 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN110515462A (zh) * | 2019-08-27 | 2019-11-29 | 安徽华米信息科技有限公司 | 一种智能可穿戴设备中应用的控制方法、装置 |
CN110928432A (zh) * | 2019-10-24 | 2020-03-27 | 中国人民解放军军事科学院国防科技创新研究院 | 指环鼠标、鼠标控制装置及鼠标控制系统 |
CN111178142A (zh) * | 2019-12-05 | 2020-05-19 | 浙江大学 | 一种基于时空上下文学习的手部姿态估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112328156B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10814220B2 (en) | Method for controlling display of electronic device using multiple controllers and device for the same | |
WO2020030065A1 (zh) | 应用程序的显示适配方法、装置、设备及存储介质 | |
CN111917918B (zh) | 基于增强现实的事件提醒管理方法、装置以及存储介质 | |
CN111176764B (zh) | 显示控制方法和终端设备 | |
CN110604579A (zh) | 一种数据采集方法、装置、终端及存储介质 | |
CN112817453A (zh) | 虚拟现实设备和虚拟现实场景中物体的视线跟随方法 | |
CN112817443A (zh) | 基于手势的显示界面控制方法、装置、设备及存储介质 | |
CN113209601A (zh) | 界面显示方法、装置、电子设备及存储介质 | |
CN113963108A (zh) | 基于混合现实的医学图像协同方法、装置及电子设备 | |
CN113190141A (zh) | 显示方法和电子设备 | |
CN112328156B (zh) | 输入设备的控制方法、装置和电子设备 | |
CN112328155B (zh) | 输入设备的控制方法、装置和电子设备 | |
CN110052030B (zh) | 虚拟角色的形象设置方法、装置及存储介质 | |
CN114115544B (zh) | 人机交互方法、三维显示设备及存储介质 | |
CN111813280B (zh) | 显示界面的控制方法、装置、电子设备及可读存储介质 | |
CN110717993A (zh) | 一种分体式ar眼镜系统的交互方法、系统及介质 | |
CN115480639A (zh) | 人机交互系统、人机交互方法、可穿戴设备及头显设备 | |
CN109643182A (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 | |
CN114415920A (zh) | 参数调整方法、装置、电子设备和可读存储介质 | |
WO2020166140A1 (ja) | ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム | |
CN112565597A (zh) | 显示方法和装置 | |
CN111898353A (zh) | 表格展示方法、装置及介质 | |
JP5247907B1 (ja) | データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム | |
CN117742551A (zh) | 显示控制方法及其装置 | |
CN113641275A (zh) | 界面控制方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |