CN110263723A - 室内空间的姿态识别方法、系统、介质、设备 - Google Patents

室内空间的姿态识别方法、系统、介质、设备 Download PDF

Info

Publication number
CN110263723A
CN110263723A CN201910544388.4A CN201910544388A CN110263723A CN 110263723 A CN110263723 A CN 110263723A CN 201910544388 A CN201910544388 A CN 201910544388A CN 110263723 A CN110263723 A CN 110263723A
Authority
CN
China
Prior art keywords
information
posture
gesture recognition
instruction
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910544388.4A
Other languages
English (en)
Inventor
王森
戈敏娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910544388.4A priority Critical patent/CN110263723A/zh
Publication of CN110263723A publication Critical patent/CN110263723A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种室内空间的姿态识别方法、系统、介质、设备,包括:第一空间定位信息获取步骤:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;第一姿态识别步骤:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态。本发明能够实现高精度、智能的实时目标空间姿态识别和实时多目标的姿态交互关系识别;结合目标的实时生理参数,用来实现人和目标的智能指导和交互。

Description

室内空间的姿态识别方法、系统、介质、设备
技术领域
本发明涉及姿态识别领域,具体地,涉及室内空间的姿态识别方法、系统、介质、设备。
背景技术
随着技术的进步和市场的发展,人们的工作和生活中越来越多的依赖于智能设备,例如,游戏/娱乐设备、监控设备、各种智能设备、智能分娩导乐设备等。对于此类设备,能够准确分析、识别用户的姿态动作,以观察、监控用户、或者与用户交互是非常重要的,对用户姿态的识别无疑将具有广泛的应用前景。人体姿态识别主要分为基于计算机视角的识别和基于运动捕获技术的识别,基本上都是基于高精度视频捕捉,运动加速度、角速度等传感器实现的,需要开发新的低成本的、准确度高的姿态识别方法。
另一方面,现有姿态识别技术有着广泛的应用,包括影视制作、运动分析、游戏娱乐、智能监控等,但是尚未见到在智能导乐系统中应用姿态识别技术形成独特的智能导乐产品,以实现对产妇和其陪产者的实时姿态和姿态交互准确识别,对产妇和其陪产者与产房内的多个设备设施的空间姿态交互进行精确识别,达到更好的,更准确有效的智能分娩导乐效果。
专利文献CN104392204B公开了一种姿态识别方法及姿态识别装置,包括:获取目标对象所在的目标空间的空间湿度分布信息;至少根据所述空间湿度分布信息,识别所述目标对象至少一时刻的姿态。本申请各实施例的方法及装置通过目标对象所在空间的湿度分布信息识别目标对象的姿态,无法同时实现高精度的空间定位和实时姿态判断,更不论结合生理参数判断用户实时状态。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种室内空间的姿态识别方法、系统、介质、设备。
根据本发明提供的室内空间的姿态识别方法,包括:第一空间定位信息获取步骤:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;第一姿态识别步骤:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态;或者,包括:待识别信息获取步骤:获取待识别信息;待识别信息处理步骤:根据所述待识别信息,得到待处理姿态信息;其中,所述待处理姿态信息包括第一姿态信息;智能导乐处理步骤:根据所述待处理姿态信息、生理参数信息,输出智能导乐的交互信息。
优选地,还包括:第二空间定位信息获取步骤:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;第二姿态识别步骤:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;姿态交互识别步骤:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
优选地,还包括:位置获取步骤:根据第一空间定位信息,获取第一平面定位信息,其中,所述第一平面定位信息指示第一目标的平面位置;环境交互步骤:根据所述第一姿态信息、第一平面定位信息,生成第一环境控制信息,其中,所述第一环境控制信息指示环境要素与第一目标进行交互。
优选地,还包括:智能交互步骤:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
根据本发明提供的一种室内空间的姿态识别系统,包括:第一空间定位信息获取模块:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;第一姿态识别模块:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态;或者,包括:待识别信息获取模块:获取待识别信息;待识别信息处理模块:根据所述待识别信息,得到待处理姿态信息,其中,所述待处理姿态信息包括第一姿态信息;智能导乐处理模块:根据所述待处理姿态信息、生理参数信息,输出智能导乐的交互信息。
优选地,还包括:第二空间定位信息获取模块:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;第二姿态识别模块:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;姿态交互识别模块:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
优选地,还包括:位置获取模块:根据第一空间定位信息,获取第一平面定位信息,其中,所述第一平面定位信息指示第一目标的平面位置;环境交互模块:根据所述第一姿态信息、第一平面定位信息,生成第一环境控制信息,其中,所述第一环境控制信息指示环境要素与第一目标进行交互。
优选地,还包括:智能交互模块:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现所述的方法的步骤。
根据本发明提供的一种室内空间的姿态识别设备,包括:所述的存储有室计算机程序的计算机可读存储介质;或者,包括:所述的室内空间的姿态识别系统。
与现有技术相比,本发明具有如下的有益效果:
1、能够同时实现高精度的空间定位、实时姿态识别和多目标间姿态交互的识别;
2、能够结合生理参数判断用户实时状态;
3、能够实现基于实时姿态识别和姿态交互识别的智能导乐能力,实现更准确和优化的智能导乐功能。
3、方法合理,适用性强,应用广泛。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为室内空间的姿态识别方法的流程示意图。
图2为室内空间的姿态识别系统的结构示意图
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的室内空间的姿态识别方法,包括:第一空间定位信息获取步骤:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;第一姿态识别步骤:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态。或者,包括:待识别信息获取步骤:获取待识别信息;待识别信息处理步骤:根据所述待识别信息,得到待处理姿态信息;其中,所述待处理姿态信息包括第一姿态信息;智能导乐处理步骤:根据所述待处理姿态信息、生理参数信息,输出智能导乐的交互信息。
第一空间定位信息即为定位标签反馈的三维空间位置信息,具体地,在一个实施例中,室内空间布置UWB定位系统实现高精度室内空间三维定位功能,包括多个室内定位基站和多个定位标签,在此空间内,可以对任一个定位标签进行高精度的空间三维坐标定位。具体的,在一个实施例中,产房内装备数个定位基站用于进行室内空间的三维立体定位,产房的内各个设备,如产床,瑜伽球,沙发等上均配置定位标签。产妇的四肢上,陪伴者的四肢上均配置穿戴式定位标签手环,这样可实现产妇在产房内高精度定位,并根据四肢的定位计算出人体的动作行为和姿态,如此可以获得:产房内物体的空间定位和相对位置关系(每个物体至少配一个定位标签);产房内人空间定位和相对位置关系(每个人至少配一个定位标签);产房内人和物体之间的相对位置关系(每个人和物体都至少配一个定位标签);产房内人的动作和姿势分析(每个人四肢至少各配一个定位标签)。从而可以更准确的结合产妇产程实时产程进展和产妇实时情绪状态,实现更准确的分娩导乐指导。
待识别信息可以是空间位置、视频图像信息、运动捕获信息等,待识别信息处理步骤即通过空间定位技术、视频图像识别技术、运动姿态捕获技术获取待处理的姿态信息。然后,根据待处理的姿态信息和生理参数信息,获取姿态信息和生理参数信息智能交互信息。具体地,在一个实施例中,利用视频图像识别技术获取产妇的图像,将获取的产妇的图像输入到处理器中,处理器将获取的产妇图像与数据库中的图像信息相对比,从而识别出产妇的姿态类型,例如产妇的蹲坐位、仰卧位、侧卧位、站立位、胸膝位,截石位等姿态,从而输出待处理姿态信息,再结合生理参数信息,例如心率参数、血压相关参数、心率变异性参数、皮肤电相关参数、呼吸相关参数、肢体运动参数等,通过处理器的分析、运算,得到产妇的姿态信息和生理参数信息智能交互信息,从而更好地实现智能导乐的目的。
第一空间定位信息为产妇佩戴的多个定位传感器(定位标签)所反馈信息,例如腕关节、肘关节、肩关节、踝关节、肩关节、髋关节定位标签,所反馈的空间三维定位坐标。这些定位标签均在产妇活动关节,产妇每一时刻的身体姿态皆能被定位标签的精确空间三维坐标反馈,即产妇在室内空间的姿态信息转化为佩戴在其多个解剖部位的空间坐标。定位标签也可以不一定佩戴在活动关节处。在第一姿态识别步骤中,第一姿态信息即为定位标签的空间定位信息。这定位标签反馈的定位信息与数据库中存储信息比对、转换的某一目标的姿态识别信息,具体地,在一个实施例中,数据库中存储有大量的产妇姿态细节信息、产妇姿态识别信息,先将定位标签反馈的定位信息和数据库中产妇姿态细节信息对比,从而测算出产妇的姿态,产妇姿态识别信息与产妇的具体姿态,例如产妇的蹲坐位、仰卧位、侧卧位、站立位、胸膝位,截石位等姿态形成一一对应的映射关系。如此,产妇的姿态将被识别。在一个变化的实施例中,所述的产妇可以变化为陪产者、一体化产床、分娩球、分娩凳和沙发等设备设施,如在一体化产床的电动床面的四个角上及中间电动变形铰链处分别放置定位标签,可以实现床面在产房内的实时姿态识别。
优选地,还包括:第二空间定位信息获取步骤:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;第二姿态识别步骤:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;姿态交互识别步骤:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
本发明优选地并不满足于单个个体的姿态识别,而是旨在得到“人与人”、“人与物”的精确姿态、形态或者位置之间的关系,从而实现智能地判断“人与人”、“人与物”之间的精确交互关系,从而智能地指导人的各种行为。此处的第二空间定位信息和第一空间定位信息所对应的主体相区别。具体的,在一个实施例中,所述第二空间定位信息为陪产者佩戴的多个定位标签,例如手环、脚环,所反馈的空间三维定位坐标,而所述第一空间定位信息为产妇佩戴的多个定位标签所反馈的信息,例如手环、脚环,所反馈的空间三维定位坐标。如前文实施例所述的那样,产妇和陪产者的实时动作姿态将被识别。当产妇、陪产者的姿态被识别后,姿态交互识别步骤将实现两者交互关系的识别。具体地,在一个实施例中,陪产者和产妇跳慢舞以缓解产妇紧张焦虑的心情,则产妇和陪产者面对面站立,陪产者双手放在产妇腰部,产妇双臂环绕陪产者脖颈的姿态交互将被识别出来。在一个变化的实施例中,产妇以某种姿态,例如仰卧、侧卧、半跪的方式与某种形态的物体,例如展开的一体化产床、沙发、分娩球,发生接触时的姿态交互关系,将被识别出来。
优选地,还包括:智能交互步骤:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
生成环境控制信息指示环境要素与目标进行交互;
生成指导指令指示目标进行何种动作行为;评估目标是否按照指令执行或指令执行是否符合标准。
此处所述的智能交互信息即为给予目标的反馈信息。所述的生成环境控制信息指示环境要素与目标进行交互,具体地,在一个实施例中,一体化产床床面四个角上的定位标签的定位空间信息与数据库比对后,识别为一体化产床处于非变形的平放状态,产妇肢体上的定位标签的定位空间信息与数据库比对后,识别为侧卧位,且产妇和一体化产床的姿态交互关系为产妇侧卧于平放状态的一体化产床上,此时,智能导乐系统可以播放正念呼吸音乐,控制产房环境灯光调暗或控制产房灯光明暗节律与产妇正念呼吸节律进行一致律动,诱导产妇正确呼吸,诱导产妇进一步放松精神。
所述的生成指导指令指示目标进行何种动作行为,具体地,在一个实施例中,识别的姿态交互信息为产妇坐于分娩球上,而陪产者坐于陪护沙发上,则智能导乐系统发出指令,例如红色警告灯亮起,语音提醒产妇注意分娩球上注意安全,活动幅度不宜大,语音提醒陪产者应当在产妇身边保护,防止产妇意外滑落,语音讲解坐分娩球为什么能促进产程进展。
所述的评估目标是否按照指令执行或指令执行是否符合标准,具体地,在一个实施例中,识别的姿态交互信息为产妇位于一体化产床上已经超过30分钟,且产程进展和产妇生理状态均良好,则智能导乐系统发出指令,提醒陪产者应当帮助产妇下床走动、散步或坐分娩球,分娩凳等,鼓励陪产者陪伴产妇多进行运动,通过运动促进产程进展。发出指令后,通过识别产妇的姿态变化,及产妇姿态和产房内其他设备设施的空间姿态交互关系,可以判断产妇和陪产者是否按照指令执行。
本发明还可以结合生理参数获取分析、图像处理技术实现环境与人之间更加智能的互动。具体地,在一个实施例中,陪产者的按摩姿态、产妇的生理参数和脸部表情被识别,例如,陪产者的按摩力度过大,则产妇呼吸急促,产妇双眉紧锁,表现出生气的表情,陪产者将被语音告知按摩姿态亟需调整。
本发明的应用场景并非只局限于产房,在变化例中,体操练习者练习体操的动作姿态变化过程可以被精确识别出来,与数据库里的标准姿态变化过程进行比对,提醒体操练习者练习姿态是否正确,在哪些动作过程中有怎样的动作执行偏差,环境要素同样会根据练习动作与目标姿态动作的吻合程度,将会做出某种改变,例如红色警报灯亮起、语音提示,从而指导体操练习者。
本领域技术人员可以将本发明提供的室内空间的姿态识别方法,理解为本发明提供的室内空间的姿态识别统的一个实施例。即,所述室内空间的姿态识别系统可以通过执行所述室内空间的姿态识别方法的步骤流程实现。
根据本发明提供的一种室内空间的姿态识别系统,包括:第一空间定位信息获取模块:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;第一姿态识别模块:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态。
优选地,还包括:第二空间定位信息获取模块:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;第二姿态识别模块:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;姿态交互识别模块:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
优选地,还包括:位置获取模块:根据第一空间定位信息,获取第一平面定位信息,其中,所述第一平面定位信息指示第一目标的平面位置;环境交互模块:根据所述第一姿态信息、第一平面定位信息,生成第一环境控制信息,其中,所述第一环境控制信息指示环境要素与第一目标进行交互。
优选地,还包括:智能交互模块:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
生成环境控制信息指示环境要素与目标进行交互;
生成指导指令指示目标进行何种动作行为;评估目标是否按照指令执行或指令执行是否符合标准。
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现所述的方法的步骤。
根据本发明提供的一种室内空间的姿态识别设备,包括:所述的存储有室计算机程序的计算机可读存储介质;或者,包括:所述的室内空间的姿态识别系统。
与现有技术相比,本发明能够同时实现高精度的空间定位和实时姿态判断;能够结合生理参数判断用户实时状态;本发明方法合理,适用性强,应用广泛。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (10)

1.一种室内空间的姿态识别方法,其特征在于,包括:
第一空间定位信息获取步骤:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;
第一姿态识别步骤:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态;
或者,包括:
待识别信息获取步骤:获取待识别信息;
待识别信息处理步骤:根据所述待识别信息,得到待处理姿态信息;其中,所述待处理姿态信息包括第一姿态信息;
智能导乐处理步骤:根据所述待处理姿态信息、生理参数信息,输出智能导乐的交互信息。
2.根据权利要求1所述的室内空间的姿态识别方法,其特征在于,还包括:
第二空间定位信息获取步骤:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;
第二姿态识别步骤:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;
姿态交互识别步骤:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
3.根据权利要求1所述的室内空间的姿态识别方法,其特征在于,还包括:
位置获取步骤:根据第一空间定位信息,获取第一平面定位信息,其中,所述第一平面定位信息指示第一目标的平面位置;
环境交互步骤:根据所述第一姿态信息、第一平面定位信息,生成第一环境控制信息,其中,所述第一环境控制信息指示环境要素与第一目标进行交互。
4.根据权利要求1所述的室内空间的姿态识别方法,其特征在于,还包括:
智能交互步骤:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
其中,生成环境控制信息指示环境要素与目标进行交互;
生成指导指令指示目标进行何种动作行为,并且评估目标是否按照指令执行或指令执行是否符合标准;
所述室内空间的姿态识别方法还包括:获取目标的姿态信息和姿态交互信息,输出智能导乐的交互信息。
5.一种室内空间的姿态识别系统,其特征在于,包括:
第一空间定位信息获取模块:获取多个第一空间定位信息,其中,第一空间定位信息指示第一传感器的空间位置;
第一姿态识别模块:根据所述多个第一空间定位信息,获取第一姿态信息,其中,所述第一姿态信息指示第一目标的姿态;
或者,包括:
待识别信息获取模块:获取待识别信息;
待识别信息处理模块:根据所述待识别信息,得到待处理姿态信息;其中,所述待处理姿态信息包括第一姿态信息;
智能导乐处理模块:根据所述待处理姿态信息、生理参数信息,输出智能导乐的交互信息。
6.根据权利要求1所述的室内空间的姿态识别系统,其特征在于,还包括:
第二空间定位信息获取模块:获取多个第二空间定位信息,其中,第二空间定位信息指示第二传感器的空间位置;
第二姿态识别模块:根据所述多个第二空间定位信息,获取第二姿态信息,其中,所述第二姿态信息指示第二目标的姿态;
姿态交互识别模块:根据所述第一姿态信息、第二姿态信息,获取姿态交互信息,其中,所述姿态交互信息指示所述第一目标的姿态与第二目标的姿态之间的交互关系。
7.根据权利要求1所述的室内空间的姿态识别系统,其特征在于,还包括:
位置获取模块:根据第一空间定位信息,获取第一平面定位信息,其中,所述第一平面定位信息指示第一目标的平面位置;
环境交互模块:根据所述第一姿态信息、第一平面定位信息,生成第一环境控制信息,其中,所述第一环境控制信息指示环境要素与第一目标进行交互。
8.根据权利要求1所述的室内空间的姿态识别系统,其特征在于,还包括:
智能交互模块:根据如下任一种或任多种信息,输出智能交互信息:
-第一姿态信息;
-姿态交互信息;
-第一环境控制信息;
-生成环境控制信息;
-生成指导指令;
其中,生成环境控制信息指示环境要素与目标进行交互;
生成指导指令指示目标进行何种动作行为,并且评估目标是否按照指令执行或指令执行是否符合标准;
所述室内空间的姿态识别方法还包括:获取目标的姿态信息和姿态交互信息,输出智能导乐的交互信息。
9.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
10.一种室内空间的姿态识别设备,其特征在于,包括:权利要求9所述的存储有计算机程序的计算机可读存储介质;或者,包括:权利要求5至8中任一项所述的室内空间的姿态识别系统。
CN201910544388.4A 2019-06-21 2019-06-21 室内空间的姿态识别方法、系统、介质、设备 Pending CN110263723A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910544388.4A CN110263723A (zh) 2019-06-21 2019-06-21 室内空间的姿态识别方法、系统、介质、设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910544388.4A CN110263723A (zh) 2019-06-21 2019-06-21 室内空间的姿态识别方法、系统、介质、设备

Publications (1)

Publication Number Publication Date
CN110263723A true CN110263723A (zh) 2019-09-20

Family

ID=67920482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910544388.4A Pending CN110263723A (zh) 2019-06-21 2019-06-21 室内空间的姿态识别方法、系统、介质、设备

Country Status (1)

Country Link
CN (1) CN110263723A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110215591A (zh) * 2019-06-21 2019-09-10 王森 生理节律引导方法、系统、介质及设备
CN114095525A (zh) * 2020-07-31 2022-02-25 荣耀终端有限公司 一种设备控制方法、装置和电子设备
CN114145742A (zh) * 2021-11-16 2022-03-08 上海瑞微数字科技有限公司 基于肌电信号的产妇状态识别的导乐方法和系统及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104856684A (zh) * 2015-04-10 2015-08-26 深圳市虚拟现实科技有限公司 运动目标采集方法和系统
CN105082150A (zh) * 2015-08-25 2015-11-25 国家康复辅具研究中心 一种基于用户情绪及意图识别的机器人人机交互方法
CN105224952A (zh) * 2015-10-08 2016-01-06 南京邮电大学 基于最大间隔马尔可夫网模型的双人交互行为识别方法
CN106020440A (zh) * 2016-05-05 2016-10-12 西安电子科技大学 一种基于体感交互的京剧教学系统
CN106529467A (zh) * 2016-11-07 2017-03-22 南京邮电大学 基于多特征融合的群体行为识别方法
CN107491735A (zh) * 2017-07-20 2017-12-19 浙江工业大学 人类行为识别的标签和交互关系联合学习方法
CN108280436A (zh) * 2018-01-29 2018-07-13 深圳市唯特视科技有限公司 一种基于堆叠递归单元的多级残差网络的动作识别方法
CN109011508A (zh) * 2018-07-30 2018-12-18 三星电子(中国)研发中心 一种智能教练系统及方法
CN109671118A (zh) * 2018-11-02 2019-04-23 北京盈迪曼德科技有限公司 一种虚拟现实多人交互方法、装置及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104856684A (zh) * 2015-04-10 2015-08-26 深圳市虚拟现实科技有限公司 运动目标采集方法和系统
CN105082150A (zh) * 2015-08-25 2015-11-25 国家康复辅具研究中心 一种基于用户情绪及意图识别的机器人人机交互方法
CN105224952A (zh) * 2015-10-08 2016-01-06 南京邮电大学 基于最大间隔马尔可夫网模型的双人交互行为识别方法
CN106020440A (zh) * 2016-05-05 2016-10-12 西安电子科技大学 一种基于体感交互的京剧教学系统
CN106529467A (zh) * 2016-11-07 2017-03-22 南京邮电大学 基于多特征融合的群体行为识别方法
CN107491735A (zh) * 2017-07-20 2017-12-19 浙江工业大学 人类行为识别的标签和交互关系联合学习方法
CN108280436A (zh) * 2018-01-29 2018-07-13 深圳市唯特视科技有限公司 一种基于堆叠递归单元的多级残差网络的动作识别方法
CN109011508A (zh) * 2018-07-30 2018-12-18 三星电子(中国)研发中心 一种智能教练系统及方法
CN109671118A (zh) * 2018-11-02 2019-04-23 北京盈迪曼德科技有限公司 一种虚拟现实多人交互方法、装置及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈野: ""基于可穿戴传感器数据的人体动作识别方法的研究"", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110215591A (zh) * 2019-06-21 2019-09-10 王森 生理节律引导方法、系统、介质及设备
CN114095525A (zh) * 2020-07-31 2022-02-25 荣耀终端有限公司 一种设备控制方法、装置和电子设备
CN114095525B (zh) * 2020-07-31 2023-07-21 荣耀终端有限公司 一种设备控制方法、装置、电子设备和存储介质
CN114145742A (zh) * 2021-11-16 2022-03-08 上海瑞微数字科技有限公司 基于肌电信号的产妇状态识别的导乐方法和系统及设备

Similar Documents

Publication Publication Date Title
US20220338761A1 (en) Remote Training and Practicing Apparatus and System for Upper-Limb Rehabilitation
Slyper et al. Action capture with accelerometers
JP6938542B2 (ja) 組込みセンサと外界センサとを組み合わせる多関節トラッキングのための方法およびプログラム製品
ES2705526T3 (es) Plataforma de comunicación ponible
US11679300B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
CN110263723A (zh) 室内空间的姿态识别方法、系统、介质、设备
Schönauer et al. Full body interaction for serious games in motor rehabilitation
EP2726164B1 (en) Augmented-reality range-of-motion therapy system and method of operation thereof
US20210349529A1 (en) Avatar tracking and rendering in virtual reality
JP2019514448A (ja) 患者の動きを追跡するシステムおよび方法
CN111091732B (zh) 一种基于ar技术的心肺复苏指导器及指导方法
JP2015061579A (ja) 動作情報処理装置
Mead et al. An architecture for rehabilitation task practice in socially assistive human-robot interaction
JP2015109937A (ja) 動作情報処理装置
Obdržálek et al. Real-time human pose detection and tracking for tele-rehabilitation in virtual reality
CN109829451A (zh) 生物体动作识别方法、装置、服务器及存储介质
JP4025230B2 (ja) 疼痛治療支援装置及び仮想空間に幻肢画像を動画的に表示する方法
US11179065B2 (en) Systems, devices, and methods for determining an overall motion and flexibility envelope
CN109172994A (zh) 一种裸眼3d影像拍摄显示系统
CN106308811A (zh) 一种可穿戴智能健康监测系统
Komizunai et al. An interactive endotracheal suctioning simulator which exhibits vital reactions: ESTE-SIM
Muras et al. A taxonomy of pervasive healthcare systems
Soltani-Zarrin et al. Reference path generation for upper-arm exoskeletons considering scapulohumeral rhythms
US20190117129A1 (en) Systems, devices, and methods for determining an overall strength envelope
Morales et al. Patient-tailored assistance: A new concept of assistive robotic device that adapts to individual users

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination