CN104503589B - 体感识别系统及其识别方法 - Google Patents
体感识别系统及其识别方法 Download PDFInfo
- Publication number
- CN104503589B CN104503589B CN201510002727.8A CN201510002727A CN104503589B CN 104503589 B CN104503589 B CN 104503589B CN 201510002727 A CN201510002727 A CN 201510002727A CN 104503589 B CN104503589 B CN 104503589B
- Authority
- CN
- China
- Prior art keywords
- human body
- action
- unit
- position information
- motion trace
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种用于识别人体动作的体感识别系统及其识别方法。该体感识别系统包括:获取装置,用于获取人体部位的动作第一运动轨迹数据;可穿戴在所述人体部位上的可穿戴装置,用于获取所述人体部位的动作的第二运动轨迹数据;和处理装置,用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。以上体感识别系统及其识别方法可提高体感识别精度。
Description
技术领域
本发明实施例涉及体感识别领域,尤其涉及一种用于识别人体动作的体感识别系统及其识别方法。
背景技术
目前,随着体感识别技术的不断发展,体感识别已越来越多地应用到人们的日常生活中。体感识别主要是指识别人体在移动中的位置,例如头部、手臂、脚的位置,然后利用所获取的位置数据借助辅助设备实现人对机器的操控,例如应用于游戏、电视机操控、办公等环境。以电视体感游戏为例,当人们在看电视的时候可以轻松进行游戏,并且利用电视作为载体,实现了更好的人机互动效果。
然而,在主流体感识别系统中,大部分通过摄像头捕获人体动作,参与者需要站在摄像头正前方以提取准确的图像数据。然而,上述方法存在一定误差,例如当人体的动作发生在Z(相对于摄像头,例如上-下方向)、Y(例如左-右方向)、X(例如前-后方向)三个方向上时,由于摄像头对Z方向的变化不敏感,导致与摄像头相平行的Z方向上容易出现误判。特别是识别对象为手臂时,如果手臂被身体遮挡时,则现有体感识别系统将无法获取手部的位置,从而无法准确获取人体动作信息。
发明内容
根据本发明第一方面,提供一种用于识别人体动作的体感识别系统,包括:获取装置,构造为用于获取人体部位的动作的第一运动轨迹数据;可穿戴在所述人体部位上的可穿戴装置,构造为用于获取所述人体部位的动作的第二运动轨迹数据;和处理装置,构造为用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
根据本发明第二方面,提供一种采用上述体感识别系统的体感识别方法,包括:获取人体部位的动作的第一运动轨迹数据;获取由穿戴在所述人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;以及比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1示意了根据本发明实施例的体感识别系统的简化示意图;
图2示意了根据本发明实施例的体感识别系统的框图;
图3示意了根据本发明另一实施例的体感识别系统的框图;和
图4示意了根据本发明实施例的体感识别系统的工作流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”或者“一”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的元件或者物件及其等同,并不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
总地来说,本发明实施例提供一种可识别人体动作的体感识别系统及采用该体感识别系统的识别方法。如图1所示,该体感识别系统可实现为包括例如手环的可穿戴在人体上的物品,以及集成了获取装置和处理装置(还可有输出装置)的体感识别设备。本文中的“人体动作”指的是希望被体感识别系统识别的人体部位的运动,所述人体部位包括但不限于手、上肢、下肢、头部和脚。“可穿戴物品”包括可穿在人体上的物品,包括但不限于衣服、裤子、鞋、袜子、手套等,以及可佩戴在人体上的物品,包括但不限于手环、手表、戒指、眼镜、头巾、帽子等,还包括安装在以上物品上的饰品或挂件,比如纽扣、眼镜等。
实施例1
本实施例提供一种体感识别系统1,如图2所示,包括获取装置10、可穿戴在人体部位上的可穿戴装置20和处理装置30。获取装置10用于获取人体部位的动作的第一运动轨迹数据。可穿戴装置20用于获取人体部位的动作的第二运动轨迹数据。处理装置30与获取装置10和可穿戴装置20相通信,用于比较第一运动轨迹数据和第二运动轨迹数据,并且根据比较结果判断人体部位的动作。下面对各个装置做更详细描述。
获取装置10可包括至少一个摄像头,用于捕获人体的静态图像或运动视频。例如,该获取装置10包括两个以上摄像头。
处理装置30可包括动作识别单元302,与获取装置10相连接,用于从该第一运动轨迹数据提取该人体部位的第一位置信息。动作识别单元302例如采用双目立体视觉技术、光飞行时间(Time of flight,TOF)技术、结构光等技术来识别或提取人体位置信息。该动作识别单元302与获取装置10相连接,对接收到的图像或视频进行识别和分析,获得反映人体部位所在位置的第一位置信息,该第一位置信息例如为三维坐标数据(x1,y1,z1)。然后,动作识别单元302将该第一位置信息发送给动作判断单元306。在一个示例中,获取装置10和动作识别单元302可集成在一起。
处理装置30还可包括第一无线传输单元304和动作判断单元306。第一无线传输单元304用于接收来自可穿戴装置20的第二运动轨迹数据并且将其发送给动作判断单元306。动作判断单元306的一端与动作识别单元302相连接,接收第一位置信息;另一端与第一无线传输单元304相连接,接收来自第一无线传输单元304的第二运动轨迹数据并且从该第二运动轨迹数据中提取可穿戴装置20的第二位置信息,然后,比较第一位置信息和第二位置信息,根据比较结果判断人体部位的位置。第二位置信息例如为三轴空间坐标数据。
可穿戴装置20可包括设置在载体中的数据采集单元202和第二无线传输单元204。数据采集单元202用于采集第二运动轨迹数据。该数据采集单元202例如包括传感器。该传感器例如是加速度计、磁力计或陀螺仪等。第二无线传输单元204与数据采集单元202相连接,用于接收第二运动轨迹数据并且将其发送到第一无线传输单元304。第一无线传输单元和第二无线传输单元例如为蓝牙、红外或射频装置,从而实现无线通信,并且不妨碍人体的移动。当然,可穿戴装置还包括其他单元,例如方便穿戴者观看数据或信息的显示单元(未示出),和/或诸如按钮的输入单元(未示出)。第一、第二无无线传输单元兼具发送和接收数据或信息的功能。
可穿戴装置20例如以可穿戴物品为载体。载体可为穿着或佩戴在人体上的物品,例如手表、戒指、眼镜、头罩、衣物、裤子、鞋等,从而为了随着人体运动而移动。例如,载体典型为固态的,以便将数据采集单元202、第二无线传输单元204等安装或嵌入其中。为了使穿戴时更舒适,载体优选为柔性的,即由柔性材料制成,使载体可环绕在人体的四肢上,比如塑料的手环、脚环和臂环。织物质地的手套、帽子、运动头巾等也可以作为载体使用。
相比于已知的体感识别技术,本发明实施例利用可穿戴在人体上的可穿戴装置提供了第二运动轨迹数据,由于该第二运动轨迹数据同样反映了人体部位的运动轨迹数据,通过将其与第一运动轨迹数据进行比较,可获得更准确的位置信息,从而提高了体感识别精度。
进一步地,为了便于数据的比较,在比较第一位置信息和第二位置信息之前,动作判断单元306还对第二位置信息进行归一化处理,该归一化处理包括:存储在人体部位初始静止时由动作识别单元302识别的初始第一位置信息,然后在人体部位移动时,将第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。这样,当人体部位移动时,归一化的第二位置信息可与实时获得的第一位置信息在相同坐标系中进行比较。当第一位置信息与归一化的第二位置信息的差值在阈值范围内时,以第一位置信息与归一化的第二位置信息的平均值作为人体部位的位置;当第一位置信息与归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
图3示出了上述体感识别系统1的一种变型。与体感识别系统1的不同之处在于,体感识别系统1’还包括输出装置40,其与处理装置30相连接,用于输出与人体部位的动作相对应的指令;该输出装置40例如为显示器。处理装置30还包括第一控制单元308,其与动作判断单元306相连接,用于根据所判断的人体部位的位置变化查找相应的动作指令,并且将该动作指令发送给输出装置。可穿戴装置20还包括第二控制单元206,用于归零数据采集单元202。当人体部位处于初始静止时,对数据采集单元202执行归零操作。这样,当人体部位移动时,可将通过数据采集单元202获得的第二位置信息叠加到由摄像头获得的第一位置信息上,从而有利于完成前述的归一化操作。例如,以可穿戴装置为手环为例,可事先将摄像头(即获取装置10)的坐标系中的某一位置设定为零点位置,当手环到达该零点位置时,输出装置(例如显示器)可变色或闪动,从而提示用户可通过第二控制单元206对数据采集单元202进行归零操作。此零点位置可设定为摄像头可识别区域内的任意点。
下面结合图4,以可穿戴装置20为佩戴在手部的手环为例描述体感识别系统1’的工作原理。在体感识别系统1开启时,手环处于静止状态,手环位于获取装置10(例如摄像头)可捕获区域内的A点(xA,yA,zA)(即由动作识别单元302识别的手部坐标)上。假设该A点为零点位置,则处理装置30存储坐标值xA,yA和zA,与此同时,第二控制单元206对数据采集单元202执行归零操作,使其获得的手环坐标为(0,0,0)。随着手部开始移动,可产生一系列空间坐标。例如,手环向靠近摄像头方向移动时,x坐标为负值,向远离摄像头方向移动时,x坐标为正值;相对于摄像头,手环向右移动,y坐标正值,手环向左移动,y坐标为负值;手环向上移动,z坐标为正值,手环向下移动,z坐标为负值。假设当手环移动到B点时,通过摄像头采集的手部坐标为(xB,yB,zB),而通过数据采集单元202获得的手环坐标为(x,y,z),那么处理装置30将x,y,z分别与xA,yA,zA叠加,从而得到归一化的手环坐标:(xA+x,yA+y,zA+z)。接下来,将该手环坐标(xA+x,yA+y,zA+z)与手部坐标(xB,yB,zB)进行比较,如果各方向坐标均在某一阈值范围内,则以平均值((xA+x+xB)/2,(yA+y+yB)/2,(zA+z+zB)/2)为手部的最终位置;如果超出该阈值范围,则以手环坐标(xA+x,yA+y,zA+z)为手部的最终位置。由于手部运动由一系列手部的位置变化构成,因此,处理装置30可根据手部的位置变化确定手部动作,从而查找出与该动作相对应的动作指令,并发送至输出装置40。
为了判断得更精确,在一个示例中,如果手环坐标(xA+x,yA+y,zA+z)与手部坐标(xB,yB,zB)的差值超出阈值范围,则再次获取手环和手部数据进行判定;若二者的差值连续n(可设定,如10)次均超出阈值范围,则以手环计算出的坐标为准。
在上述体感识别系统中,当人体动作发生变化或者人体的某部位发生移动时,通过获取装置得到人体部位的第一运动轨迹数据,通过可穿戴装置获取人体部位的第二运动轨迹数据,然后通过比较该第一和第二运动轨迹数据确定人体的动作。相比于现有体感识别技术,本实施例利用随人体部位移动实时感测的可穿戴装置提供了更准确的位置信息,从而提高了体感识别精度。
实施例2
本实施例提供一种采用上述体感识别系统1的体感识别方法,包括以下步骤:
获取人体部位的第一运动轨迹数据;
获取由可穿戴在人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;
比较第一运动轨迹数据和第二运动轨迹数据,并且根据比较结果判断人体部位的动作。
在上述方法中,比较第一运动轨迹数据和第二运动轨迹数据的步骤可包括:
从第一运动轨迹数据获取该人体部位的第一位置信息,以及从第二运动轨迹数据获取可穿戴装置的第二位置信息,比较该第一位置信息和该第二位置信息。
在一个示例中,为了便于数据的比较,在比较所述第一位置信息和所述第二位置信息之前,方法还包括:
归一化第二位置信息,其中归一化包括:存储在人体部位静止时的初始第一位置信息,然后在人体部位移动时,将第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
此时,比较第一位置信息和归一化的第二位置信息,当第一位置信息与归一化的第二位置信息的差值在阈值范围内时,以第一位置信息与归一化的第二位置信息的平均值作为人体部位的位置;当第一位置信息与归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
在本实施例中,第一位置信息和第二位置信息例如为三轴空间坐标数据。获取第一运动轨迹数据的步骤与获取第二运动轨迹数据的步骤可同时进行。由于本实施例中实现以上各个步骤的装置或单元与实施例1相同,此处不再赘述。
在上述体感识别方法中,当人体动作发生变化或者人体的某部位发生移动时,通过获取装置得到人体部位的第一运动轨迹数据,通过可穿戴装置获取人体部位的第二运动轨迹数据,然后通过比较该第一和第二运动轨迹数据确定人体的动作。相比于现有体感识别技术,本实施例利用随人体部位移动实时感测的可穿戴装置提供了更准确的位置信息,从而提高了体感识别精度。
在本发明以上实施例中,输出装置并非必要的,可穿戴装置上的输入或输出装置也是可选的,本领域技术人员可以在需要时增加以上配置,然而这些都不影响本发明的目的。
以上仅是本发明的示范性实施方式,而非用于限制本发明的保护范围,本发明的保护范围由所附的权利要求确定。
Claims (18)
1.一种用于识别人体动作的体感识别系统,包括:
获取装置,构造为用于获取人体部位的动作的第一运动轨迹数据;
可穿戴在所述人体部位上的可穿戴装置,构造为用于获取所述人体部位的动作的第二运动轨迹数据;和
处理装置,构造为用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作;
其中所述处理装置包括动作识别单元、第一无线传输单元和动作判断单元,
所述动作识别单元与所述获取装置相连接,构造为用于从该第一运动轨迹数据识别所述人体部位的第一位置信息;
所述第一无线传输单元构造为用于接收来自所述可穿戴装置的第二运动轨迹数据并且将其发送给所述动作判断单元;
所述动作判断单元与所述动作识别单元相连接,构造为用于接收所述第一位置信息,并且与所述第一无线传输单元相连接,构造为用于接收来自所述第一无线传输单元的第二运动轨迹数据并且从该第二运动轨迹数据中提取所述可穿戴装置的第二位置信息,比较所述第一位置信息和所述第二位置信息,以及根据比较结果判断所述人体部位的位置;其中所述动作判断单元还构造为用于在比较所述第一位置信息和所述第二位置信息之前,归一化所述第二位置信息,该归一化包括:存储在人体部位静止时由所述动作识别单元识别的初始第一位置信息,然后在人体部位移动时,将所述第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
2.根据权利要求1所述的体感识别系统,其中所述第一位置信息和所述第二位置信息均为三轴空间坐标数据。
3.根据权利要求1所述的体感识别系统,其中比较所述第一位置信息和所述第二位置信息,并且根据比较结果判断所述人体部位的位置包括:
比较所述第一位置信息和所述归一化的第二位置信息,当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围内时,以所述第一位置信息与所述归一化的第二位置信息的平均值作为人体部位的位置;当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围外时,以归一化的第二位置信息作为人体部位的位置。
4.根据权利要求1所述的体感识别系统,其中所述可穿戴装置包括数据采集单元和第二无线传输单元;
所述数据采集单元构造为用于采集所述第二运动轨迹数据;
所述第二无线传输单元与所述数据采集单元相连接,构造为用于接收所述第二运动轨迹数据并且将其发送给所述第一无线传输单元。
5.根据权利要求4所述的体感识别系统,其中所述可穿戴装置还包括将所述数据采集单元和第二无线传输单元设置在其中的载体,其为可穿在人体上的物品、可佩戴在人体上的物品或安装在所述物品上的装饰品。
6.根据权利要求4所述的体感识别系统,其中所述可穿戴装置还包括第二控制单元,所述第二控制单元构造为用于归零所述数据采集单元。
7.根据权利要求4所述的体感识别系统,其中所述数据采集单元包括传感器。
8.根据权利要求7所述的体感识别系统,其中所述传感器为加速度计、磁力计或陀螺仪。
9.根据权利要求4所述的体感识别系统,其中所述第一无线传输单元和所述第二无线传输单元为蓝牙、红外或射频装置。
10.根据权利要求1所述的体感识别系统,还包括输出装置,构造为用于输出与所述人体部位的动作相对应的指令。
11.根据权利要求10所述的体感识别系统,其中所述处理装置还包括第一控制单元,其与动作判断单元相连接,构造为用于根据所判断的人体部位的位置的变化查找相应的指令,并且将该指令发送给所述输出装置。
12.根据权利要求1至11任一项所述的体感识别系统,其中所述获取装置包括至少一个摄像头。
13.一种采用权利要求1所述的体感识别系统的体感识别方法,包括:
获取人体部位的动作的第一运动轨迹数据;
获取由穿戴在所述人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;以及
比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
14.根据权利要求13所述的体感识别方法,其中比较所述第一运动轨迹数据和所述第二运动轨迹数据包括:
从所述第一运动轨迹数据获取该人体部位的第一位置信息,从所述第二运动轨迹数据获取所述可穿戴装置的第二位置信息,以及比较该第一位置信息和第二位置信息。
15.根据权利要求14所述的体感识别方法,其中在比较所述第一位置信息和所述第二位置信息之前,所述方法还包括:
归一化所述第二位置信息,其中所述归一化包括:存储在人体部位静止时的初始第一位置信息,然后在人体部位移动时,将所述第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
16.根据权利要求15所述的体感识别方法,其中比较所述第一位置信息和所述第二位置信息,并且根据比较结果判断所述人体部位的位置包括:
比较第一位置信息和所述归一化的第二位置信息,当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围内时,以所述第一位置信息与所述归一化的第二位置信息的平均值作为人体部位的位置;当所述第一位置信息与所述归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
17.根据权利要求15所述的体感识别方法,所述第一位置信息和第二位置信息均为三轴空间坐标数据。
18.根据权利要求13至17任一项所述的体感识别方法,还包括:
输出与所述人体部位的动作相对应的指令。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510002727.8A CN104503589B (zh) | 2015-01-05 | 2015-01-05 | 体感识别系统及其识别方法 |
US14/600,321 US9557810B2 (en) | 2015-01-05 | 2015-01-20 | Somatosensory recognition system and recognition method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510002727.8A CN104503589B (zh) | 2015-01-05 | 2015-01-05 | 体感识别系统及其识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104503589A CN104503589A (zh) | 2015-04-08 |
CN104503589B true CN104503589B (zh) | 2018-02-16 |
Family
ID=52944991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510002727.8A Active CN104503589B (zh) | 2015-01-05 | 2015-01-05 | 体感识别系统及其识别方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9557810B2 (zh) |
CN (1) | CN104503589B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104958897A (zh) * | 2015-06-25 | 2015-10-07 | 郭斌 | 一种运动轨迹和运动速度采集装置和系统 |
CN106371559B (zh) * | 2015-08-11 | 2019-09-10 | 北京智谷睿拓技术服务有限公司 | 交互方法、交互装置及用户设备 |
US10353473B2 (en) * | 2015-11-19 | 2019-07-16 | International Business Machines Corporation | Client device motion control via a video feed |
CN105741861B (zh) * | 2016-02-05 | 2017-12-15 | 京东方科技集团股份有限公司 | 智能播放系统、方法、可穿戴设备、主体单元和播放单元 |
CN105912117B (zh) * | 2016-04-12 | 2019-05-07 | 北京锤子数码科技有限公司 | 运动状态捕捉方法和系统 |
CN106055099A (zh) * | 2016-05-25 | 2016-10-26 | 北京行云时空科技有限公司 | 基于虚拟现实系统的差分定位方法和装置 |
CN106125908A (zh) * | 2016-06-14 | 2016-11-16 | 上海锡月科技有限公司 | 一种动作捕捉校准系统 |
CN105824432A (zh) * | 2016-06-14 | 2016-08-03 | 上海锡月科技有限公司 | 一种动作捕捉系统 |
CN107688791A (zh) * | 2017-09-04 | 2018-02-13 | 北京京东金融科技控股有限公司 | 显示内容控制方法及装置、系统、存储介质和电子设备 |
CN110134246A (zh) * | 2019-05-22 | 2019-08-16 | 联想(北京)有限公司 | 交互控制方法、装置及电子设备 |
CN111282261B (zh) * | 2020-01-22 | 2023-08-08 | 京东方科技集团股份有限公司 | 人机交互方法及装置、体感游戏设备 |
CN115170773A (zh) * | 2022-05-24 | 2022-10-11 | 上海锡鼎智能科技有限公司 | 一种基于元宇宙的虚拟课堂动作交互系统和方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104094196A (zh) * | 2012-01-09 | 2014-10-08 | 索夫特克尼特科软件公司 | 用于增强的基于姿势的交互的系统和方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200907764A (en) * | 2007-08-01 | 2009-02-16 | Unique Instr Co Ltd | Three-dimensional virtual input and simulation apparatus |
CN101694693A (zh) * | 2009-10-16 | 2010-04-14 | 中国科学院合肥物质科学研究院 | 基于加速度传感器人体运动识别系统及方法 |
US9146624B2 (en) * | 2012-02-08 | 2015-09-29 | Google Technology Holdings LLC | Method for managing screen orientation of a portable electronic device |
US9746926B2 (en) * | 2012-12-26 | 2017-08-29 | Intel Corporation | Techniques for gesture-based initiation of inter-device wireless connections |
CN103839047B (zh) * | 2013-12-30 | 2017-12-29 | 华为技术有限公司 | 一种人体运动轨迹的识别方法及装置 |
-
2015
- 2015-01-05 CN CN201510002727.8A patent/CN104503589B/zh active Active
- 2015-01-20 US US14/600,321 patent/US9557810B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104094196A (zh) * | 2012-01-09 | 2014-10-08 | 索夫特克尼特科软件公司 | 用于增强的基于姿势的交互的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160195920A1 (en) | 2016-07-07 |
US9557810B2 (en) | 2017-01-31 |
CN104503589A (zh) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104503589B (zh) | 体感识别系统及其识别方法 | |
CN103345064B (zh) | 一种集成3d识别的帽子及帽子的3d识别方法 | |
CN104756045B (zh) | 用于跟踪由关节连接的身体部位的可佩戴传感器 | |
CN105190483B (zh) | 检测用至少两个控制对象执行的手势 | |
US20180356636A1 (en) | Information processing apparatus, information processing method, and program | |
CN106575437A (zh) | 信息处理装置、信息处理方法以及程序 | |
US10395404B2 (en) | Image processing device for composite images, image processing system and storage medium | |
WO2018005069A1 (en) | Augmenting a moveable entity with a hologram | |
CN106030610A (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
US10453265B1 (en) | Method and device for the virtual try-on of garments based on augmented reality with multi-detection | |
US20170116479A1 (en) | Information display method and information display terminal | |
CN107617201A (zh) | 用于自动配置传感器的方法、电子设备和记录介质 | |
CN106975218B (zh) | 基于多个可穿戴设备控制体感游戏的方法及装置 | |
US20240053942A1 (en) | Interactive headgear | |
CN110096152A (zh) | 身体部位的空间定位方法、装置、设备及存储介质 | |
US20190339768A1 (en) | Virtual reality interaction system and method | |
CN105225270A (zh) | 一种信息处理方法及电子设备 | |
Wahl et al. | WISEglass: Smart eyeglasses recognising context | |
CN102867112A (zh) | 一种应用在基于Kinect的三维仿真试衣中的人体姿态跟踪方法 | |
CN116597512A (zh) | 基于双流自适应图神经网络的多模态动作识别方法及系统 | |
JP2012079348A (ja) | 人物特定装置、人物特定方法及び人物特定プログラム | |
CN105279354A (zh) | 用户可融入剧情的情境建构系统 | |
Kempfle et al. | Quaterni-On: Calibration-free Matching of Wearable IMU Data to Joint Estimates of Ambient Cameras | |
CN108803861A (zh) | 一种交互方法、设备及系统 | |
US20230120092A1 (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |