CN104503589A - 体感识别系统及其识别方法 - Google Patents

体感识别系统及其识别方法 Download PDF

Info

Publication number
CN104503589A
CN104503589A CN201510002727.8A CN201510002727A CN104503589A CN 104503589 A CN104503589 A CN 104503589A CN 201510002727 A CN201510002727 A CN 201510002727A CN 104503589 A CN104503589 A CN 104503589A
Authority
CN
China
Prior art keywords
human body
information
action
primary importance
place information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510002727.8A
Other languages
English (en)
Other versions
CN104503589B (zh
Inventor
牟鑫鑫
赵星星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201510002727.8A priority Critical patent/CN104503589B/zh
Priority to US14/600,321 priority patent/US9557810B2/en
Publication of CN104503589A publication Critical patent/CN104503589A/zh
Application granted granted Critical
Publication of CN104503589B publication Critical patent/CN104503589B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供一种用于识别人体动作的体感识别系统及其识别方法。该体感识别系统包括:获取装置,用于获取人体部位的动作第一运动轨迹数据;可穿戴在所述人体部位上的可穿戴装置,用于获取所述人体部位的动作的第二运动轨迹数据;和处理装置,用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。以上体感识别系统及其识别方法可提高体感识别精度。

Description

体感识别系统及其识别方法
技术领域
本发明实施例涉及体感识别领域,尤其涉及一种用于识别人体动作的体感识别系统及其识别方法。
背景技术
目前,随着体感识别技术的不断发展,体感识别已越来越多地应用到人们的日常生活中。体感识别主要是指识别人体在移动中的位置,例如头部、手臂、脚的位置,然后利用所获取的位置数据借助辅助设备实现人对机器的操控,例如应用于游戏、电视机操控、办公等环境。以电视体感游戏为例,当人们在看电视的时候可以轻松进行游戏,并且利用电视作为载体,实现了更好的人机互动效果。
然而,在主流体感识别系统中,大部分通过摄像头捕获人体动作,参与者需要站在摄像头正前方以提取准确的图像数据。然而,上述方法存在一定误差,例如当人体的动作发生在Z(相对于摄像头,例如上-下方向)、Y(例如左-右方向)、X(例如前-后方向)三个方向上时,由于摄像头对Z方向的变化不敏感,导致与摄像头相平行的Z方向上容易出现误判。特别是识别对象为手臂时,如果手臂被身体遮挡时,则现有体感识别系统将无法获取手部的位置,从而无法准确获取人体动作信息。
发明内容
根据本发明第一方面,提供一种用于识别人体动作的体感识别系统,包括:获取装置,构造为用于获取人体部位的动作的第一运动轨迹数据;可穿戴在所述人体部位上的可穿戴装置,构造为用于获取所述人体部位的动作的第二运动轨迹数据;和处理装置,构造为用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
根据本发明第二方面,提供一种采用上述体感识别系统的体感识别方法,包括:获取人体部位的动作的第一运动轨迹数据;获取由穿戴在所述人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;以及比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1示意了根据本发明实施例的体感识别系统的简化示意图;
图2示意了根据本发明实施例的体感识别系统的框图;
图3示意了根据本发明另一实施例的体感识别系统的框图;和
图4示意了根据本发明实施例的体感识别系统的工作流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”或者“一”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的元件或者物件及其等同,并不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
总地来说,本发明实施例提供一种可识别人体动作的体感识别系统及采用该体感识别系统的识别方法。如图1所示,该体感识别系统可实现为包括例如手环的可穿戴在人体上的物品,以及集成了获取装置和处理装置(还可有输出装置)的体感识别设备。本文中的“人体动作”指的是希望被体感识别系统识别的人体部位的运动,所述人体部位包括但不限于手、上肢、下肢、头部和脚。“可穿戴物品”包括可穿在人体上的物品,包括但不限于衣服、裤子、鞋、袜子、手套等,以及可佩戴在人体上的物品,包括但不限于手环、手表、戒指、眼镜、头巾、帽子等,还包括安装在以上物品上的饰品或挂件,比如纽扣、眼镜等。
实施例1
本实施例提供一种体感识别系统1,如图2所示,包括获取装置10、可穿戴在人体部位上的可穿戴装置20和处理装置30。获取装置10用于获取人体部位的动作的第一运动轨迹数据。可穿戴装置20用于获取人体部位的动作的第二运动轨迹数据。处理装置30与获取装置10和可穿戴装置20相通信,用于比较第一运动轨迹数据和第二运动轨迹数据,并且根据比较结果判断人体部位的动作。下面对各个装置做更详细描述。
获取装置10可包括至少一个摄像头,用于捕获人体的静态图像或运动视频。例如,该获取装置10包括两个以上摄像头。
处理装置30可包括动作识别单元302,与获取装置10相连接,用于从该第一运动轨迹数据提取该人体部位的第一位置信息。动作识别单元302例如采用双目立体视觉技术、光飞行时间(Time of flight,TOF)技术、结构光等技术来识别或提取人体位置信息。该动作识别单元302与获取装置10相连接,对接收到的图像或视频进行识别和分析,获得反映人体部位所在位置的第一位置信息,该第一位置信息例如为三维坐标数据(x1,y1,z1)。然后,动作识别单元302将该第一位置信息发送给动作判断单元306。在一个示例中,获取装置10和动作识别单元302可集成在一起。
处理装置30还可包括第一无线传输单元304和动作判断单元306。第一无线传输单元304用于接收来自可穿戴装置20的第二运动轨迹数据并且将其发送给动作判断单元306。动作判断单元306的一端与动作识别单元302相连接,接收第一位置信息;另一端与第一无线传输单元304相连接,接收来自第一无线传输单元304的第二运动轨迹数据并且从该第二运动轨迹数据中提取可穿戴装置20的第二位置信息,然后,比较第一位置信息和第二位置信息,根据比较结果判断人体部位的位置。第二位置信息例如为三轴空间坐标数据。
可穿戴装置20可包括设置在载体中的数据采集单元202和第二无线传输单元204。数据采集单元202用于采集第二运动轨迹数据。该数据采集单元202例如包括传感器。该传感器例如是加速度计、磁力计或陀螺仪等。第二无线传输单元204与数据采集单元202相连接,用于接收第二运动轨迹数据并且将其发送到第一无线传输单元304。第一无线传输单元和第二无线传输单元例如为蓝牙、红外或射频装置,从而实现无线通信,并且不妨碍人体的移动。当然,可穿戴装置还包括其他单元,例如方便穿戴者观看数据或信息的显示单元(未示出),和/或诸如按钮的输入单元(未示出)。第一、第二无无线传输单元兼具发送和接收数据或信息的功能。
可穿戴装置20例如以可穿戴物品为载体。载体可为穿着或佩戴在人体上的物品,例如手表、戒指、眼镜、头罩、衣物、裤子、鞋等,从而为了随着人体运动而移动。例如,载体典型为固态的,以便将数据采集单元202、第二无线传输单元204等安装或嵌入其中。为了使穿戴时更舒适,载体优选为柔性的,即由柔性材料制成,使载体可环绕在人体的四肢上,比如塑料的手环、脚环和臂环。织物质地的手套、帽子、运动头巾等也可以作为载体使用。
相比于已知的体感识别技术,本发明实施例利用可穿戴在人体上的可穿戴装置提供了第二运动轨迹数据,由于该第二运动轨迹数据同样反映了人体部位的运动轨迹数据,通过将其与第一运动轨迹数据进行比较,可获得更准确的位置信息,从而提高了体感识别精度。
进一步地,为了便于数据的比较,在比较第一位置信息和第二位置信息之前,动作判断单元306还对第二位置信息进行归一化处理,该归一化处理包括:存储在人体部位初始静止时由动作识别单元302识别的初始第一位置信息,然后在人体部位移动时,将第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。这样,当人体部位移动时,归一化的第二位置信息可与实时获得的第一位置信息在相同坐标系中进行比较。当第一位置信息与归一化的第二位置信息的差值在阈值范围内时,以第一位置信息与归一化的第二位置信息的平均值作为人体部位的位置;当第一位置信息与归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
图3示出了上述体感识别系统1的一种变型。与体感识别系统1的不同之处在于,体感识别系统1’还包括输出装置40,其与处理装置30相连接,用于输出与人体部位的动作相对应的指令;该输出装置40例如为显示器。处理装置30还包括第一控制单元308,其与动作判断单元306相连接,用于根据所判断的人体部位的位置变化查找相应的动作指令,并且将该动作指令发送给输出装置。可穿戴装置20还包括第二控制单元206,用于归零数据采集单元202。当人体部位处于初始静止时,对数据采集单元202执行归零操作。这样,当人体部位移动时,可将通过数据采集单元202获得的第二位置信息叠加到由摄像头获得的第一位置信息上,从而有利于完成前述的归一化操作。例如,以可穿戴装置为手环为例,可事先将摄像头(即获取装置10)的坐标系中的某一位置设定为零点位置,当手环到达该零点位置时,输出装置(例如显示器)可变色或闪动,从而提示用户可通过第二控制单元206对数据采集单元202进行归零操作。此零点位置可设定为摄像头可识别区域内的任意点。
下面结合图4,以可穿戴装置20为佩戴在手部的手环为例描述体感识别系统1’的工作原理。在体感识别系统1开启时,手环处于静止状态,手环位于获取装置10(例如摄像头)可捕获区域内的A点(xA,yA,zA)(即由动作识别单元302识别的手部坐标)上。假设该A点为零点位置,则处理装置30存储坐标值xA,yA和zA,与此同时,第二控制单元206对数据采集单元202执行归零操作,使其获得的手环坐标为(0,0,0)。随着手部开始移动,可产生一系列空间坐标。例如,手环向靠近摄像头方向移动时,x坐标为负值,向远离摄像头方向移动时,x坐标为正值;相对于摄像头,手环向右移动,y坐标正值,手环向左移动,y坐标为负值;手环向上移动,z坐标为正值,手环向下移动,z坐标为负值。假设当手环移动到B点时,通过摄像头采集的手部坐标为(xB,yB,zB),而通过数据采集单元202获得的手环坐标为(x,y,z),那么处理装置30将x,y,z分别与xA,yA,zA叠加,从而得到归一化的手环坐标:(xA+x,yA+y,zA+z)。接下来,将该手环坐标(xA+x,yA+y,zA+z)与手部坐标(xB,yB,zB)进行比较,如果各方向坐标均在某一阈值范围内,则以平均值((xA+x+xB)/2,(yA+y+yB)/2,(zA+z+zB)/2)为手部的最终位置;如果超出该阈值范围,则以手环坐标(xA+x,yA+y,zA+z)为手部的最终位置。由于手部运动由一系列手部的位置变化构成,因此,处理装置30可根据手部的位置变化确定手部动作,从而查找出与该动作相对应的动作指令,并发送至输出装置40。
为了判断得更精确,在一个示例中,如果手环坐标(xA+x,yA+y,zA+z)与手部坐标(xB,yB,zB)的差值超出阈值范围,则再次获取手环和手部数据进行判定;若二者的差值连续n(可设定,如10)次均超出阈值范围,则以手环计算出的坐标为准。
在上述体感识别系统中,当人体动作发生变化或者人体的某部位发生移动时,通过获取装置得到人体部位的第一运动轨迹数据,通过可穿戴装置获取人体部位的第二运动轨迹数据,然后通过比较该第一和第二运动轨迹数据确定人体的动作。相比于现有体感识别技术,本实施例利用随人体部位移动实时感测的可穿戴装置提供了更准确的位置信息,从而提高了体感识别精度。
实施例2
本实施例提供一种采用上述体感识别系统1的体感识别方法,包括以下步骤:
获取人体部位的第一运动轨迹数据;
获取由可穿戴在人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;
比较第一运动轨迹数据和第二运动轨迹数据,并且根据比较结果判断人体部位的动作。
在上述方法中,比较第一运动轨迹数据和第二运动轨迹数据的步骤可包括:
从第一运动轨迹数据获取该人体部位的第一位置信息,以及从第二运动轨迹数据获取可穿戴装置的第二位置信息,比较该第一位置信息和该第二位置信息。
在一个示例中,为了便于数据的比较,在比较所述第一位置信息和所述第二位置信息之前,方法还包括:
归一化第二位置信息,其中归一化包括:存储在人体部位静止时的初始第一位置信息,然后在人体部位移动时,将第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
此时,比较第一位置信息和归一化的第二位置信息,当第一位置信息与归一化的第二位置信息的差值在阈值范围内时,以第一位置信息与归一化的第二位置信息的平均值作为人体部位的位置;当第一位置信息与归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
在本实施例中,第一位置信息和第二位置信息例如为三轴空间坐标数据。获取第一运动轨迹数据的步骤与获取第二运动轨迹数据的步骤可同时进行。由于本实施例中实现以上各个步骤的装置或单元与实施例1相同,此处不再赘述。
在上述体感识别方法中,当人体动作发生变化或者人体的某部位发生移动时,通过获取装置得到人体部位的第一运动轨迹数据,通过可穿戴装置获取人体部位的第二运动轨迹数据,然后通过比较该第一和第二运动轨迹数据确定人体的动作。相比于现有体感识别技术,本实施例利用随人体部位移动实时感测的可穿戴装置提供了更准确的位置信息,从而提高了体感识别精度。
在本发明以上实施例中,输出装置并非必要的,可穿戴装置上的输入或输出装置也是可选的,本领域技术人员可以在需要时增加以上配置,然而这些都不影响本发明的目的。
以上仅是本发明的示范性实施方式,而非用于限制本发明的保护范围,本发明的保护范围由所附的权利要求确定。

Claims (20)

1.一种用于识别人体动作的体感识别系统,包括:
获取装置,构造为用于获取人体部位的动作的第一运动轨迹数据;
可穿戴在所述人体部位上的可穿戴装置,构造为用于获取所述人体部位的动作的第二运动轨迹数据;和
处理装置,构造为用于比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
2.根据权利要求1所述的体感识别系统,其中所述处理装置包括动作识别单元、第一无线传输单元和动作判断单元,
所述动作识别单元与所述获取装置相连接,构造为用于从该第一运动轨迹数据识别所述人体部位的第一位置信息;
所述第一无线传输单元构造为用于接收来自所述可穿戴装置的第二运动轨迹数据并且将其发送给所述动作判断单元;
所述动作判断单元与所述动作识别单元相连接,构造为用于接收所述第一位置信息,并且与所述第一无线传输单元相连接,构造为用于接收来自所述第一无线传输单元的第二运动轨迹数据并且从该第二运动轨迹数据中提取所述可穿戴装置的第二位置信息,比较所述第一位置信息和所述第二位置信息,以及根据比较结果判断所述人体部位的位置。
3.根据权利要求2所述的体感识别系统,其中所述第一位置信息和所述第二位置信息均为三轴空间坐标数据。
4.根据权利要求3所述的体感识别系统,其中所述动作判断单元还构造为用于在比较所述第一位置信息和所述第二位置信息之前,归一化所述第二位置信息,该归一化包括:存储在人体部位静止时由所述动作识别单元识别的初始第一位置信息,然后在人体部位移动时,将所述第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
5.根据权利要求4所述的体感识别系统,其中比较所述第一位置信息和所述第二位置信息,并且根据比较结果判断所述人体部位的位置包括:
比较所述第一位置信息和所述归一化的第二位置信息,当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围内时,以所述第一位置信息与所述归一化的第二位置信息的平均值作为人体部位的位置;当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围外时,以归一化的第二位置信息作为人体部位的位置。
6.根据权利要求2所述的体感识别系统,其中所述可穿戴装置包括数据采集单元和第二无线传输单元;
所述数据采集单元构造为用于采集所述第二运动轨迹数据;
所述第二无线传输单元与所述数据采集单元相连接,构造为用于接收所述第二运动轨迹数据并且将其发送给所述第一无线传输单元。
7.根据权利要求6所述的体感识别系统,其中所述可穿戴装置还包括将所述数据采集单元和第二无线传输单元设置在其中的载体,其为可穿在人体上的物品、可佩戴在人体上的物品或安装在所述物品上的装饰品。
8.根据权利要求6所述的体感识别系统,其中所述可穿戴装置还包括第二控制单元,所述第二控制单元构造为用于归零所述数据采集单元。
9.根据权利要求6所述的体感识别系统,其中所述数据采集单元包括传感器。
10.根据权利要求9所述的体感识别系统,其中所述传感器为加速度计、磁力计或陀螺仪。
11.根据权利要求6所述的体感识别系统,其中所述第一无线传输单元和所述第二无线传输单元为蓝牙、红外或射频装置。
12.根据权利要求1所述的体感识别系统,还包括输出装置,构造为用于输出与所述人体部位的动作相对应的指令。
13.根据权利要求12所述的体感识别系统,其中所述处理装置还包括第一控制单元,其与动作判断单元相连接,构造为用于根据所判断的人体部位的位置的变化查找相应的指令,并且将该指令发送给所述输出装置。
14.根据权利要求1至13任一项所述的体感识别系统,其中所述获取装置包括至少一个摄像头。
15.一种采用权利要求1所述的体感识别系统的体感识别方法,包括:
获取人体部位的动作的第一运动轨迹数据;
获取由穿戴在所述人体部位上的可穿戴装置记录的所述人体部位的动作的第二运动轨迹数据;以及
比较所述第一运动轨迹数据和所述第二运动轨迹数据,并且根据比较结果判断所述人体部位的动作。
16.根据权利要求15所述的体感识别方法,其中比较所述第一运动轨迹数据和所述第二运动轨迹数据包括:
从所述第一运动轨迹数据获取该人体部位的第一位置信息,从所述第二运动轨迹数据获取所述可穿戴装置的第二位置信息,以及比较该第一位置信息和第二位置信息。
17.根据权利要求16所述的体感识别方法,其中在比较所述第一位置信息和所述第二位置信息之前,所述方法还包括:
归一化所述第二位置信息,其中所述归一化包括:存储在人体部位静止时的初始第一位置信息,然后在人体部位移动时,将所述第二位置信息与所存储的初始第一位置信息相加,从而得到归一化的第二位置信息。
18.根据权利要求17所述的体感识别方法,其中比较所述第一位置信息和所述第二位置信息,并且根据比较结果判断所述人体部位的位置包括:
比较第一位置信息和所述归一化的第二位置信息,当所述第一位置信息与所述归一化的第二位置信息的差值在阈值范围内时,以所述第一位置信息与所述归一化的第二位置信息的平均值作为人体部位的位置;当所述第一位置信息与所述归一化的第二位置信息的差值超出阈值范围时,以归一化的第二位置信息作为人体部位的位置。
19.根据权利要求17所述的体感识别方法,所述第一位置信息和第二位置信息均为三轴空间坐标数据。
20.根据权利要求15至19任一项所述的体感识别方法,还包括:
输出与所述人体部位的动作相对应的指令。
CN201510002727.8A 2015-01-05 2015-01-05 体感识别系统及其识别方法 Active CN104503589B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510002727.8A CN104503589B (zh) 2015-01-05 2015-01-05 体感识别系统及其识别方法
US14/600,321 US9557810B2 (en) 2015-01-05 2015-01-20 Somatosensory recognition system and recognition method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510002727.8A CN104503589B (zh) 2015-01-05 2015-01-05 体感识别系统及其识别方法

Publications (2)

Publication Number Publication Date
CN104503589A true CN104503589A (zh) 2015-04-08
CN104503589B CN104503589B (zh) 2018-02-16

Family

ID=52944991

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510002727.8A Active CN104503589B (zh) 2015-01-05 2015-01-05 体感识别系统及其识别方法

Country Status (2)

Country Link
US (1) US9557810B2 (zh)
CN (1) CN104503589B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104958897A (zh) * 2015-06-25 2015-10-07 郭斌 一种运动轨迹和运动速度采集装置和系统
CN105741861A (zh) * 2016-02-05 2016-07-06 京东方科技集团股份有限公司 智能播放系统、方法、可穿戴设备、主体单元和播放单元
CN105824432A (zh) * 2016-06-14 2016-08-03 上海锡月科技有限公司 一种动作捕捉系统
CN105912117A (zh) * 2016-04-12 2016-08-31 北京锤子数码科技有限公司 运动状态捕捉方法和系统
CN106055099A (zh) * 2016-05-25 2016-10-26 北京行云时空科技有限公司 基于虚拟现实系统的差分定位方法和装置
CN106125908A (zh) * 2016-06-14 2016-11-16 上海锡月科技有限公司 一种动作捕捉校准系统
CN106371559A (zh) * 2015-08-11 2017-02-01 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
CN107688791A (zh) * 2017-09-04 2018-02-13 北京京东金融科技控股有限公司 显示内容控制方法及装置、系统、存储介质和电子设备
CN110134246A (zh) * 2019-05-22 2019-08-16 联想(北京)有限公司 交互控制方法、装置及电子设备
CN115170773A (zh) * 2022-05-24 2022-10-11 上海锡鼎智能科技有限公司 一种基于元宇宙的虚拟课堂动作交互系统和方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
CN111282261B (zh) * 2020-01-22 2023-08-08 京东方科技集团股份有限公司 人机交互方法及装置、体感游戏设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101694693A (zh) * 2009-10-16 2010-04-14 中国科学院合肥物质科学研究院 基于加速度传感器人体运动识别系统及方法
US20130201219A1 (en) * 2012-02-08 2013-08-08 Motorola Mobility, Inc. Method for Managing Screen Orientation of a Portable Electronic Device
CN103839047A (zh) * 2013-12-30 2014-06-04 华为技术有限公司 一种人体运动轨迹的识别方法及装置
US20140176436A1 (en) * 2012-12-26 2014-06-26 Giuseppe Raffa Techniques for gesture-based device connections
CN104094196A (zh) * 2012-01-09 2014-10-08 索夫特克尼特科软件公司 用于增强的基于姿势的交互的系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200907764A (en) * 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101694693A (zh) * 2009-10-16 2010-04-14 中国科学院合肥物质科学研究院 基于加速度传感器人体运动识别系统及方法
CN104094196A (zh) * 2012-01-09 2014-10-08 索夫特克尼特科软件公司 用于增强的基于姿势的交互的系统和方法
US20130201219A1 (en) * 2012-02-08 2013-08-08 Motorola Mobility, Inc. Method for Managing Screen Orientation of a Portable Electronic Device
US20140176436A1 (en) * 2012-12-26 2014-06-26 Giuseppe Raffa Techniques for gesture-based device connections
CN103839047A (zh) * 2013-12-30 2014-06-04 华为技术有限公司 一种人体运动轨迹的识别方法及装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104958897A (zh) * 2015-06-25 2015-10-07 郭斌 一种运动轨迹和运动速度采集装置和系统
CN106371559A (zh) * 2015-08-11 2017-02-01 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
CN105741861A (zh) * 2016-02-05 2016-07-06 京东方科技集团股份有限公司 智能播放系统、方法、可穿戴设备、主体单元和播放单元
CN105912117A (zh) * 2016-04-12 2016-08-31 北京锤子数码科技有限公司 运动状态捕捉方法和系统
CN105912117B (zh) * 2016-04-12 2019-05-07 北京锤子数码科技有限公司 运动状态捕捉方法和系统
CN106055099A (zh) * 2016-05-25 2016-10-26 北京行云时空科技有限公司 基于虚拟现实系统的差分定位方法和装置
CN105824432A (zh) * 2016-06-14 2016-08-03 上海锡月科技有限公司 一种动作捕捉系统
CN106125908A (zh) * 2016-06-14 2016-11-16 上海锡月科技有限公司 一种动作捕捉校准系统
CN107688791A (zh) * 2017-09-04 2018-02-13 北京京东金融科技控股有限公司 显示内容控制方法及装置、系统、存储介质和电子设备
WO2019041982A1 (zh) * 2017-09-04 2019-03-07 北京京东金融科技控股有限公司 显示内容控制方法及装置、系统、存储介质和电子设备
CN110134246A (zh) * 2019-05-22 2019-08-16 联想(北京)有限公司 交互控制方法、装置及电子设备
CN115170773A (zh) * 2022-05-24 2022-10-11 上海锡鼎智能科技有限公司 一种基于元宇宙的虚拟课堂动作交互系统和方法

Also Published As

Publication number Publication date
US9557810B2 (en) 2017-01-31
CN104503589B (zh) 2018-02-16
US20160195920A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
CN104503589A (zh) 体感识别系统及其识别方法
Henpraserttae et al. Accurate activity recognition using a mobile phone regardless of device orientation and location
CN103676604B (zh) 手表及其运行方法
CN109313497A (zh) 用于六自由度混合现实输入的惯性控制器的模块化扩展
CN104756045A (zh) 用于跟踪由关节连接的身体部位的可佩戴传感器
CN104731307B (zh) 一种体感动作识别方法及人机交互装置
CN105046215B (zh) 不受个体佩戴位置和佩戴方式影响的姿态行为识别方法
CN110134245A (zh) 一种基于eog和姿态传感器的眼控装置以及眼控方法
CN107617201A (zh) 用于自动配置传感器的方法、电子设备和记录介质
CN106950927B (zh) 一种控制智能家居的方法和智能穿戴设备
CN108646915A (zh) 结合三维视线跟踪和脑机接口控制机械臂抓取物体的方法和系统
CN205082751U (zh) 一种具有传感器的鞋
CN104049752A (zh) 基于人体的交互方法及交互装置
CN104914936B (zh) 一种电子系统及其控制方法
CN103458051A (zh) 体感网及基于体感网的居家行为感知方法
CN111259755A (zh) 数据关联方法、装置、设备及存储介质
CN104573459B (zh) 交互方法、交互装置及用户设备
CN105708427A (zh) 一种智能关爱对戒、系统和使用方法
CN105554263A (zh) 一种具有提示功能的智能穿戴设备和使用方法
CN110673721A (zh) 基于视觉与意念信号协同控制的机器人看护系统
CN102867112A (zh) 一种应用在基于Kinect的三维仿真试衣中的人体姿态跟踪方法
CN203000939U (zh) 一种基于动作识别技术的人体步态分析系统
CN107450672A (zh) 一种高识别率的腕式智能装置
CN212623993U (zh) 一种智能交互笔及虚拟现实系统
CN109645968A (zh) 一种智能感应手环

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant