CN113138665A - 一种基于智能手表的智能设备指向操控方法及系统 - Google Patents
一种基于智能手表的智能设备指向操控方法及系统 Download PDFInfo
- Publication number
- CN113138665A CN113138665A CN202110360407.5A CN202110360407A CN113138665A CN 113138665 A CN113138665 A CN 113138665A CN 202110360407 A CN202110360407 A CN 202110360407A CN 113138665 A CN113138665 A CN 113138665A
- Authority
- CN
- China
- Prior art keywords
- watch
- intelligent
- user
- smart
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 claims description 10
- 210000003811 finger Anatomy 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010079 rubber tapping Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 4
- 210000003813 thumb Anatomy 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 1
- 230000006870 function Effects 0.000 abstract description 10
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于智能手表的智能设备指向操控方法及系统。该方法包括:利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备;基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别;基于用户执行的手势类别,向被指向的智能设备发送相应的手势操控命令。本发明能够在不改动智能手表的软件及硬件的前提下拓展智能手表的功能,实现对智能家居等智能设备的指向操控并改善了用户与智能设备的交互体验。
Description
技术领域
本发明涉及智能设备交互技术领域,更具体地,涉及一种基于智能手表的智能设备指向操控方法及系统。
背景技术
目前,随着虚拟现实(VR)、人工智能技术逐渐受到追捧,智能手表、手环逐渐成为可穿戴领域的主流。与此同时,随着5G时代的来临,智能家居领域的市场前景更加广阔,目前控制智能家居的主要手段是通过手机或者语音助手进行控制,但用户在家中并不是随身携带手机,复杂指令难以通过语音进行控制,因此用户和智能家居之间的交互体验不佳和操作复杂等问题也成为了研究的热点问题。
发明内容
本发明的目的是克服上述现有技术的缺陷,提供一种基于智能手表的智能设备指向操控方法及系统,通过扩展智能手表的功能来改善用户和智能设备之间的交互体验。
根据本发明的第一方面,提供了一种基于智能手表的智能设备指向操控方法。该方法包括以下步骤:
利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备;
基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别;
基于用户执行的手势类别,向被指向的智能设备发送相应的手势操控命令。
根据本发明的第二方面,提供一种基于智能手表的智能设备指向操控系统。该系统包括:
定位模块:用于利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备;
手势识别模块:用于基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别;
设备控制模块:用于基于用户执行的手势类别,向被指向的智能设备发送相应的手势操控命令。
与现有技术相比,本发明的优点在于,能够在不改动智能手表的软件/硬件的前提下拓展智能手表的功能,实现对智能家居等智能设备的指向手势操控,丰富了智能手表的应用场景。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本发明一个实施例的基于智能手表的智能设备指向操控方法的流程图;
图2是根据本发明一个实施例的基于智能手表的智能设备指向操控方法的过程示意;
图3是根据本发明一个实施例的陀螺仪坐标矫正流程图;
图4是根据本发明一个实施例的欧拉角示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
结合图1和图2所示,本发明所提供的基于智能手表的智能设备指向操控方法包括以下步骤。
S1,基于定位基站和智能手表内置的麦克风、扬声器以及惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备。
具体地,步骤S1包括以下步骤:
S11,基于定位基站和智能手表内置的麦克风和扬声器,定位手表在空间中的三维位置。
S12,基于智能手表内置的IMU(惯性传感器)传感器,估计手表的方位;
S13,基于步骤S11和S12测量到的手表三维位置和方位,定位用户所指向的设备。
例如,定位基站包含一个麦克风阵列和一个扬声器,在步骤S11中,定位手表的三维坐标包括以下步骤:
S111,智能手表和定位基站分别发射一段0.1秒的超声波信号。
例如,智能手表发射频率从17kHz增加到23kHz的Chirp波信号,定位基站发射频率从23kHz减少到17kHz的Chirp波信号。
S112,智能手表和定位基站分别检测两次超声波信号的到达时间,使用双向双边测距方法测量智能手表与定位基站的距离d。
S113,定位基站计算麦克风阵列上不同麦克风检测到手表端发射信号的时间差,基于该时间差及步骤S112测量的距离d,遍历空间所有坐标,寻找与测量的时间差和距离d误差最小的坐标,该坐标即为智能手表的三维坐标。
在一个实施例中,步骤S13中包括以下步骤:
S131,记手表三维坐标为(x,y,z),手表方位为(θy,θz),其中θy为手表俯仰角,θz为手表偏航角;
S133,记空间中的第n个智能设备的坐标为(xn,yn,zn),n是智能设备索引,例如n取正整数,表示为n=1,2,3等。
S2,基于智能手表内置的惯性传感器,检测和识别用户执行的手势。
具体地,步骤S2包括以下步骤:
S21,基于智能手表IMU传感器,识别例如向上、向下、向左、向右和手臂旋转五种免训练手势;
S22,基于智能手表IMU传感器,识别例如拇指敲击食指、拇指敲击中指和响指三种基于训练的手势;
S23,基于智能手表IMU传感器,跟踪手臂在空间中的二维运动轨迹。
在一个实施例中,步骤S21包括以下步骤:
S211,采集智能手表上的加速度计和陀螺仪传感器的信号;
S212,利用加速度计信号估计设备的倾斜角并对陀螺仪信号进行坐标修正;
S213,利用基于角速度方向改变的手势信号检测算法检测用户手势信号的起始点和结束点;
S214,对检测到的手势信号提取相关手势特征并判断手势的合法性,若手势合法,则将其分类到对应的手势类别并将分类结果输出,若手势不合法,则认为当前检测到的手势信号为非法信号。
本发明的进一步技术方案是:参见图3和图4所示,步骤S212包括以下步骤:
步骤S2120,初始化倾斜角θ为0,并计算cosθ和sinθ;
S2121,采集加速度计X、Y、Z轴数据并记为ax、ay、az,采集陀螺仪X、Y、Z轴数据并记为gx、gy、gz;
本发明的进一步技术方案是:步骤S213包括以下步骤:
S2131,对陀螺仪每个轴的数据均进行降噪并记录t时刻降噪后的数据为p(t);
例如,对陀螺仪每个轴分别使用滑动均值窗口平滑信号,滑动均值窗口长度大小设置为0.2秒;判断平滑信号是否小于设定的噪音阈值,若是,则将该信号值设置为0,若否,保持原值不变。
S2132,判断检测起始点阶段是否p(t)≠0且p(t-1)=0,若是,则进入下一步,若否,则继续检测起始点;
S2133,判断检测结束点阶段陀螺仪速度方向是否发生变化,即p(t)*p(t-1)≤0且p(t)、p(t-1)不同时为0,若是,则记手势信号结束点为e,并进入下一步,若否,则继续检测结束点;
S2134,判断检测是否需要与其他轴的信号检测信息合并,若是,则发生手势信息合并,不将当前轴检测到的手势信息传递出去,若否,则将手势信息传递出去。
例如,步骤S2134中检测到起始点相同,且当前轴检测到的手势信号绝对值最大值小于其他轴检测到的手势信号绝对值最大值,或者两个轴对手势信号的检测区域重叠率超过一定阈值,重叠率计算方法为其他轴检测到的手势长度除以当前轴检测到的手势长度时,合并当前手势信息到其他轴。
本发明的进一步技术方案是:步骤S214包括以下步骤:
S2141,对陀螺仪每个轴分别提取手势特征并根据特征信息将手势信号分类到特定的手势;
S2142,判断手势与设定的五种手势是否匹配,若匹配,则分类结果输出,若不匹配,则认为当前检测到的手势信号为非法信号。
在一个实施例中,步骤S22包括以下步骤:
S221,使用异常检测算法检测敲击和响指信号;
S222,对检测到的信号应用z-score算法预处理;
S222,在初始化训练模型阶段,将S222处理后的数据用于训练反向传播神经网络模型;在使用阶段,基于已训练的模型对信号进行分类。
在一个实施例中,步骤S23中包括以下步骤:
S231、采集智能手表上的加速度计和陀螺仪传感器的信号;
S232、利用加速度计信号估计设备的倾斜角并对陀螺仪信号进行坐标修正,修正方法同步骤S212;
S233、利用矫正后的陀螺仪信号数据计算智能手表不同方向的旋转角度并估算当前坐标点(x,y)。
例如,具体包括:设置陀螺仪数据两次采样时间间隔长度dt;对矫正后的陀螺仪角速度信号数据在时间上积分:其中,θy为俯仰角,θz为偏航角。将(cx*θy,cy*θz)作为用户在二维垂直坐标系的估计运动距离,其中cx和cy为灵敏度控制系数,可根据实际使用需要进行调整。
S3,基于检测到的手势,向被指向的智能设备发送相应的手势操控命令。
综上,所检测到的手势即表征了向上、向下、向左、向右和手臂旋转等五种免训练的手臂指向类别,并融合了用户敲击的类别,进而利用检测到的手势可以向被指向的智能设备发送操控命令。其中手势类别和操控指令类别之间的对应关系可预先设定,智能设备包括但不限于智能家居中的电视、冰箱、音响设备、智能摄影头、智能门窗等。
相应地,本发明还提供一种基于智能手表的智能设备指向操控系统,用于实现上述方法的一个方面或多个方面。例如,该系统包括:
手表定位模块,用于利用智能手表麦克风和扬声器以及定位基站进行手表的室内定位,从而获取手表在室内的三维坐标;
手表方位估计模块,用于利用智能手表内置的IMU传感器,估计当前手表的方位;
设备选择模块,用于利用基于智能手表的三维坐标和方位,定位所指向的智能设备;
手势识别模块,用于检测和识别用户执行的手势;
设备操控模块,用于根据用户执行的手势,向被指向的智能设备发送相应的手势操控指令。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++、Python等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于智能手表的智能设备指向操控方法,包括以下步骤:
利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备;
基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别;
基于用户执行的手势类别,向被指向的智能设备发送相应的手势操控命令。
2.根据权利要求1所述的方法,其特征在于,所述利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备包括:
基于定位基站和智能手表内置的麦克风和扬声器,定位智能手表在空间中的三维位置,该定位基站包含麦克风阵列和扬声器;
基于智能手表内置的惯性传感器,估计智能手表的方位;
根据获得的智能手表的三维位置和方位,定位用户所指向的智能设备。
4.根据权利要求1所述的方法,其特征在于,所述基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别包括:
基于智能手表的惯性传感器,识别用户手臂的转向类型;
基于智能手表的惯性传感器采集用户敲击和响指信号,并利用经训练的神经网络模型识别用户手势的敲击类型;
基于智能手表的惯性传感器,跟踪手臂在空间中的二维运动轨迹。
5.根据权利要求4所述的方法,其特征在于,所述基于智能手表的惯性传感器采集用户敲击和响指信号,并利用经训练的神经网络模型识别用户手势的敲击类型包括:
使用异常检测算法检测用户敲击和响指信号;
对检测到的信号应用z-score算法预处理;
将预处理后的信号输入经训练的神经网络模型,获得信号对应的分类。
6.根据权利要求5所述的方法,其特征在于,所述使用异常检测算法检测用户敲击和响指信号包括:
采集智能手表内置的加速度计和陀螺仪的X、Y、Z三轴的数据;
对加速度计的Z轴数据使用高通滤波器进行滤波;
滤波后的Z轴数据应用异常检测算法检测敲击信号位置;
基于检测到的敲击信号位置,截取加速度计和陀螺仪的X、Y、Z轴数据作为敲击信号位置的信号。
7.根据权利要求4所述的方法,其特征在于,所述用户手臂的转向类型包括向上、向下、向左、向右和手臂旋转,所述用户手势的敲击类型包括拇指敲击食指、拇指敲击中指和响指。
8.一种基于智能手表的智能设备指向操控系统,包括:
定位模块:用于利用定位基站和智能手表内置的麦克风、扬声器和惯性传感器,定位佩戴智能手表的用户手臂所指向的智能设备;
手势识别模块:用于基于智能手表内置的惯性传感器,检测和识别用户执行的手势类别;
设备控制模块:用于基于用户执行的手势类别,向被指向的智能设备发送相应的手势操控命令。
9.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现根据权利要求1至7中任一项所述方法的步骤。
10.一种计算机设备,包括存储器和处理器,在所述存储器上存储有能够在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110360407.5A CN113138665A (zh) | 2021-04-02 | 2021-04-02 | 一种基于智能手表的智能设备指向操控方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110360407.5A CN113138665A (zh) | 2021-04-02 | 2021-04-02 | 一种基于智能手表的智能设备指向操控方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113138665A true CN113138665A (zh) | 2021-07-20 |
Family
ID=76810454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110360407.5A Pending CN113138665A (zh) | 2021-04-02 | 2021-04-02 | 一种基于智能手表的智能设备指向操控方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113138665A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103344959A (zh) * | 2013-07-22 | 2013-10-09 | 乾行讯科(北京)科技有限公司 | 一种超声定位系统和具有定位功能的电子装置 |
CN107067695A (zh) * | 2017-05-15 | 2017-08-18 | 深圳市冠旭电子股份有限公司 | 一种智能遥控方法、系统及智能遥控器 |
US20170239560A1 (en) * | 2016-02-23 | 2017-08-24 | Mediatek Inc. | Position tracking ring, band or bracelet and virtual reality system |
CN206573709U (zh) * | 2016-11-21 | 2017-10-20 | 北京凌宇智控科技有限公司 | 一种超声波及信号接收装置、定位设备和定位系统 |
CN107896508A (zh) * | 2015-04-25 | 2018-04-10 | 肖泉 | 可以作为多个目标/端点(设备)和的整合点的以人为中心的“设备的超ui”体系结构的方法和设备,以及面向“模块化”通用控制器平台以及输入设备虚拟化的具有动态上下文意识的手势输入的相关方法/系统 |
CN109870984A (zh) * | 2018-12-26 | 2019-06-11 | 浙江大学 | 一种基于可穿戴设备的多家电控制方法 |
CN111026314A (zh) * | 2019-10-25 | 2020-04-17 | 华为终端有限公司 | 控制显示设备的方法及便携设备 |
-
2021
- 2021-04-02 CN CN202110360407.5A patent/CN113138665A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103344959A (zh) * | 2013-07-22 | 2013-10-09 | 乾行讯科(北京)科技有限公司 | 一种超声定位系统和具有定位功能的电子装置 |
CN107896508A (zh) * | 2015-04-25 | 2018-04-10 | 肖泉 | 可以作为多个目标/端点(设备)和的整合点的以人为中心的“设备的超ui”体系结构的方法和设备,以及面向“模块化”通用控制器平台以及输入设备虚拟化的具有动态上下文意识的手势输入的相关方法/系统 |
US20170239560A1 (en) * | 2016-02-23 | 2017-08-24 | Mediatek Inc. | Position tracking ring, band or bracelet and virtual reality system |
CN206573709U (zh) * | 2016-11-21 | 2017-10-20 | 北京凌宇智控科技有限公司 | 一种超声波及信号接收装置、定位设备和定位系统 |
CN107067695A (zh) * | 2017-05-15 | 2017-08-18 | 深圳市冠旭电子股份有限公司 | 一种智能遥控方法、系统及智能遥控器 |
CN109870984A (zh) * | 2018-12-26 | 2019-06-11 | 浙江大学 | 一种基于可穿戴设备的多家电控制方法 |
CN111026314A (zh) * | 2019-10-25 | 2020-04-17 | 华为终端有限公司 | 控制显示设备的方法及便携设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10402984B2 (en) | Monitoring | |
US11429189B2 (en) | Monitoring | |
US10838508B2 (en) | Apparatus and method of using events for user interface | |
CN110322500A (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
US10540543B2 (en) | Human-computer-interaction through scene space monitoring | |
WO2012154832A2 (en) | Object tracking | |
EP3115870B1 (en) | Monitoring | |
US20220265168A1 (en) | Real-time limb motion tracking | |
JP2023503942A (ja) | ビデオにオブジェクトを表示する方法、装置、電子機器、及びコンピュータ読み取り可能な記憶媒体 | |
US20150185851A1 (en) | Device Interaction with Self-Referential Gestures | |
US10776631B2 (en) | Monitoring | |
CN111797873A (zh) | 场景识别方法、装置、存储介质及电子设备 | |
US10551195B2 (en) | Portable device with improved sensor position change detection | |
US10082936B1 (en) | Handedness determinations for electronic devices | |
CN113138665A (zh) | 一种基于智能手表的智能设备指向操控方法及系统 | |
Maidi et al. | Interactive media control using natural interaction-based Kinect | |
Khanum et al. | Smart Presentation Control by Hand Gestures Using computer vision and Google’s Mediapipe | |
KR101558094B1 (ko) | 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법 | |
US20240103634A1 (en) | Motion Mapping for Continuous Gestures | |
Villaroman et al. | Improving accuracy in face tracking user interfaces using consumer devices | |
Miller | Walking assistant-A mobile aid for the visually-impaired | |
CN114253397A (zh) | 一种基于耳戴式惯性传感器的智能设备交互系统 | |
Wu | Recognition of Human Motion and Form |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210720 |