CN112381048A - 基于多用户同步检测的3d体态检测分析系统及方法 - Google Patents
基于多用户同步检测的3d体态检测分析系统及方法 Download PDFInfo
- Publication number
- CN112381048A CN112381048A CN202011380313.6A CN202011380313A CN112381048A CN 112381048 A CN112381048 A CN 112381048A CN 202011380313 A CN202011380313 A CN 202011380313A CN 112381048 A CN112381048 A CN 112381048A
- Authority
- CN
- China
- Prior art keywords
- user
- posture
- data
- analysis
- walking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 87
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 230000001360 synchronised effect Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000007405 data analysis Methods 0.000 claims abstract description 9
- 238000013075 data extraction Methods 0.000 claims abstract description 4
- 230000007613 environmental effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000005021 gait Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000005284 excitation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Abstract
本发明涉及体态分析技术领域,具体为基于多用户同步检测的3D体态检测分析系统及方法,该系统包括采集机器人、中心控制器以及显示器,中心控制器与采集机器人以及显示器均数据连接;中心控制器包括:体态数据提取模块,用于识别人体骨骼数据;用户分析数据生成模块,用于构建每个用户的用户体态数据;辅助信息生成模块,用于构建辅助人员体态数据;数据分析模块,根据每一位用户的用户体态数据以及对应的辅助人员体态数据生成体态分析结果。本申请的基于多用户同步检测的3D体态检测分析系统及方法,能够对多个用户进行同步检测,提高检测效率;并能够对辅助人员进行同步采集和分析,利用辅助人员的信息来提高分析结果的准确性。
Description
技术领域
本发明涉及体态分析技术领域,具体为一种基于多用户同步检测的3D体态检测分析系统及方法。
背景技术
人体体态可以反应人体的健康状况,对人体体态的分析可以判断人体各部分肌肉、关节等的健康状态或康复情况,为康复诊疗、运动健身、效果评定、辅具选择等提供依据。
步态分析是人体体态分析中最常见的一种分析方式,通过现代测量技术对人类行走时身体各部分,特别是下肢的运动和受力情况进行动态的量化分析,步态分析可用于一般正常人的行进间步态周期的动作解析,更常见于临床上对步行功能进行系统评价的有效手段,是康复评定的重要组成部分(如中风后指导康复治疗和康复评估)。
传统的步态分析由医务人员通过目测的方法观察病人的行走过程,然后根据所得印象或按照一定观察项目逐项评价的结果,凭借其丰富的临床经验得出初步分析结论。但这种方法只能定性,不能定量。随着科技的发展,目前越来越多的步态分析借助辅助设备进行记录和分析,现有的一些方式是通过设置跑步机和摄像机,让用户在跑步机上行走,由摄像机进行体态数据的采集。这种方式下,每次仅能够对一个用户进行检测,检测效率低,并且无法处理需要他人辅助行走的情况,如待分析的用户需要在他人搀扶下才能行走的情况下,现有的分析系统和分析方式无法进行有效或准确的分析处理。同时现有的方式对摄像头的数量、拍摄质量、分辨率均有较高要求,存在成本高、数据处理量大、检测不准确等问题。
发明内容
本发明意在提供一种基于多用户同步检测的3D体态检测分析系统及方法,能够对多个用户进行同步检测,效率高;并能够对辅助人员进行同步采集和分析,利用辅助人员的信息来提高分析结果的准确性。通过设置采集机器人,可以灵活的对用户体态进行多角度、全方位的采集,可以提高设备部署的灵活度,提高分析结果的准确度,降低部署成本。
本申请提供如下技术方案:
基于多用户同步检测的3D体态检测分析系统,包括采集机器人、中心控制器以及显示器,所述中心控制器与采集机器人以及显示器均数据连接;
所述采集机器人用于采集场景内目标人员的行走体态数据;所述目标人员包括至少一个用户以及若干辅助人员;
所述中心控制器包括:
机器人控制模块,用于控制采集机器人移动并采集目标人员的行走体态数据;
体态数据提取模块,用于根据采集机器人采集的用户和辅助人员的行走体态数据识别人体骨骼数据;
用户分析数据生成模块,根据用户的人体骨骼数据构建每个用户的用户体态数据;
辅助信息生成模块,用于根据每个用户对应的辅助人员的人体骨骼数据构建辅助人员体态数据;
数据分析模块,根据每一位用户的用户体态数据以及对应的辅助人员体态数据生成体态分析结果;
所述显示器用于显示用户体态数据、辅助人员体态数据以及体态分析结果。
进一步,所述中心控制器还包括:人员类型识别模块,所述人员类型识别模块用于根据目标人员的行走体态数据识别目标人员的类型,所述类型包括用户和辅助人员两类。
进一步,所述中心控制器还包括关联模块,所述关联模块用于根据人员类型识别模块的识别结果,将用户和对应辅助人员进行关联。
进一步,所述数据分析模块包括特征提取模块和体态分析模型,特征提取模块用于根据用户体态数据以及辅助人员体态数据提取分析特征,所述体态分析模型用于根据输入的分析特征,输出体态分析结果。
进一步,所述中心控制器还包括路径规划模块,用于对采集机器人的行走路径以及采集方向进行规划,所述机器人控制模块用于根据路径规划模块的规划结果对采集机器人进行控制。
进一步,还包括输入装置,用于输入用户行走路线,所述中心控制器还包括:
用户行走路线获取模块,用于获取输入装置输入的用户行走路线。
场景扫描模块,用于检测当前场景的环境数据;
场景构建模块,用于根据环境数据构建检测场景;所述显示器还用于显示检测场景;
路径规划模块用于根据环境数据以及用户行走路线,规划采集机器人的行走路径以及采集方向。
进一步,本发明还公开了一种基于多用户同步检测的3D体态检测分析方法,使用了上述的基于多用户同步检测的3D体态检测分析系统,该方法包括:
S100:通过采集机器人采集场景内所有用户以及辅助人员的行走体态信息;
S200:将采集机器人采集到的目标用户进行分组,并识别各个组内的目标人员的类型,并将同一组内的辅助人员与用户进行关联;
S300:根据用户的行走体态信息提取生成用户体态数据;
S400:根据辅助人员的行走体态信息提取生成辅助人员体态数据;
S500:根据每个用户的用户体态数据以及关联的辅助人员体态数据生成体态分析结果。
进一步,所述S100具体包括:
S101:扫描当前场景的环境数据并根据环境数据构建检测场景;
S102:获取用户行走路线;
S103:根据检测场景以及用户行走路线规划采集机器人的行走路径以及采集方向;
S104:采集机器人根据规划出的行走路径以及采集方向调节自身位置以及采集方向并采集用户和辅助人员的行走体态信息。
本发明技术方案的有益效果为:
本发明技术方案,能够对多个用户进行同步检测,效率高。并能够对辅助人员进行同步采集和分析,提取辅助人员的行走体态数据并生成辅助人员体态数据,在生成分析结果时,不仅考虑用户体态数据,还会将辅助人员体态数据作为辅助数据来进行分析,可以提高分析结果的准确性。
通过设置采集机器人,基于场景以及用户行走线路生成采集机器人的行走路径,并根据路径规划的结果控制采集机器人的位置和角度,可以使得采集机器人对用户体态进行多角度、全方位的采集,基于骨骼跟踪技术构建人体3D体态数据,既可以提高设备部署的灵活度,降低部署成本,又可以提高分析结果的准确度。
附图说明
图1为本申请基于多用户同步检测的3D体态检测分析系统实施例一中的逻辑框图。
具体实施方式
下面通过具体实施方式对本申请技术方案进行进一步详细说明:
实施例一
如图1所示,本实施例公开的一种基于多用户同步检测的3D体态检测分析系统,包括采集机器人、中心控制器、输入装置以及显示器,中心控制器与采集机器人以及显示器均数据连接;
采集机器人用于采集场景内目标人员的行走体态数据;本实施例中,目标人员分为用户以及辅助人员两类,用户至少为一个,辅助人员可以为若干个。本实施例中,采集机器人包括行走机构、驱动机构以及采集机构,驱动机构用于驱动行走机构行走,采集机构包括云台,驱动结构还用于驱动云台调节方向,云台上设有3D结构光摄像头,本实施例中,行走机构包括四个行走轮,驱动结构包括行走驱动电机和舵机,所述行走驱动电机用于驱动行走轮行走,所述舵机用于调整前轮的方向,驱动结构还包括云台电机,云台电机包括X方向电机和Y方向电机,用于在两个维度上调节3D结构光摄像头的采集方向。采集机器人设置多个,本实施例中,采集机器人共设置三个。
中心控制器包括:
用户行走路线获取模块,用于获取输入装置输入的用户行走路线;输入装置为键盘、鼠标、触摸屏中的一种或多种。
场景扫描模块,用于检测当前场景的环境数据;本实施例中,场景扫描模块包括测距模块,环境数据包括场景尺寸和场景内障碍物数据,测距模块用于检测当前场景的场景尺寸和障碍物,测距模块可以采用激光传感器、超声波传感器等。
场景构建模块,用于根据环境数据构建检测场景;显示器用于显示检测场景;本实施例中,输入装置为触摸屏,通过触摸屏直接在场景上画出用户的行走路线,操作简单。
路径规划模块,用于根据环境数据以及用户行走路线,规划采集机器人的行走路径以及采集方向。本实施例中,路径规划时,首先根据场景尺寸和场景内障碍物的数据,将采集机器人分成两组,分别位于用户行走路线的两侧,然后为每个机器人划分拍摄角度范围,根据拍摄角度范围判断机器人的位置以及方向是否需要调整,进而确定每个机器人在实际采集过程中位置点的变化,形成采集机器人的行走路径,本实施例中,主要将采集机器人设置在行走路线的两侧,根据用户行走速度,三个采集机器人将360度分成三份,分别负责120度内的体态数据采集,为了保持各自120度范围内的视野,随着用户的移动,需要对采集机器人的位置进行调整,即可根据预估的用户的位置来预估机器人的位置和方向,进而规划出机器人的行走路径。
机器人控制模块,用于控制采集机器人移动并采集目标人员的行走体态数据。
人员分组模块,用于根据目标人员之间的距离以及各个目标人员的体态姿势进行聚类分析,划分为多个组。
人员类型识别模块,人员类型识别模块用于根据目标人员的行走体态数据识别目标人员的类型。
关联模块,关联模块用于根据人员类型识别模块的识别结果,将一个组内的用户和辅助人员进行关联。
体态数据提取模块,用于根据采集机器人采集的用户和辅助人员的行走体态数据识别人体骨骼数据。用户分析数据生成模块,根据用户的人体骨骼数据构建每个用户的用户体态数据;辅助信息生成模块,用于根据每个用户对应的辅助人员的人体骨骼数据构建辅助人员体态数据;本实施例中,采用基于kinect的骨骼追踪技术进行人体骨骼数据的获取以及用户体态数据和辅助人员体态数据的构建。
数据分析模块,根据每一位用户的用户体态数据以及对应的辅助人员体态数据生成体态分析结果;
本实施例中,数据分析模块包括特征提取模块和基于AI的体态分析模型,特征提取模块用于根据人体3D体态数据提取分析特征,分析特征包括步频、抬腿高度、头侧倾角度等,体态分析模型按照分析对象划分为多种类型,如颈椎分析模型、腰椎分析模型、盆骨分析模型、腿型分析模型等,分别用于对用户颈椎、腰椎、盆骨、腿型等进行分析,本实施例中,体态分析模型基于BP神经网络分析模型,包括输入层、隐层和输出层,本实施例中,以用户基础数据、用户日常症状以及用户的分析特征作为输入层的输入,而输出是对应的数据的预测;本实施例使用了以下公式来确定隐层节点的数量:其中l为隐层的节点数,n为输入层的节点数,m为输出层的节点数,a为1至10之间的一个数。BP神经网络通常采用Sigmoid可微函数和线性函数作为网络的激励函数。本实施例中,采用tansig函数作为隐层神经元的激励函数。预测模型选取S型对数函数tansig作为输出层神经元的激励函数,采用已有的数据作为样本对进行训练。
显示器用于显示用户体态数据、辅助人员体态数据以及体态分析结果。
本实施例中还公开了一种基于多用户同步检测的3D体态检测分析方法,使用了上述的基于多用户同步检测的3D体态检测分析系统,该方法包括:
S100:通过采集机器人采集场景内所有用户以及辅助人员的行走体态信息;
S200:将采集机器人采集到的目标用户进行分组,并识别各个组内的目标人员的类型,并将同一组内的辅助人员与用户进行关联;
S300:根据用户的行走体态信息提取生成用户体态数据;
S400:根据辅助人员的行走体态信息提取生成辅助人员体态数据;
S500:根据每个用户的用户体态数据以及关联的辅助人员体态数据生成体态分析结果。
S100具体包括:
S101:扫描当前场景的环境数据并根据环境数据构建检测场景;
S102:获取用户行走路线;
S103:根据检测场景以及用户行走路线规划采集机器人的行走路径以及采集方向;
S104:采集机器人根据规划出的行走路径以及采集方向调节自身位置以及采集方向并采集用户和辅助人员的行走体态信息。
实施例二
本实施例与实施例一的区别在于,本实施例中,数据分析模块还包括时间分析模块、原因分析模块以及调整建议模块,还包括用户终端,所述用户终端与中心控制器网络连接,用户终端用于上传历史影像资料数据至中心控制器,所述时间分析模块包括程度分析模块、影像分析模块以及综合分析模块,所述影像分析模块用于对用户上传的历史影像资料数据中的照片、视频进行图像分析,获取其中用户的体态情况,判断用户在各个时期照片或视频中的体态是否有问题,得到用户产生体态问题的时间,程度分析模块用于根据数据分析模块分析出的用户体态问题的严重程度推算用户产生体态问题的时间,所述综合分析模块用于根据程度分析模块和影像分析模块的分析结果生成用户产生体态问题的时间。所述原因分析模块用于根据用户体态问题获取体态问题产生的原因列表,并结合用户产生体态问题的时间以及对应的历史影像资料数据,从原因列表中选择与用户情况最接近的原因。所述调整建议模块用于根据用户的体态问题以及对应的原因生成改善建议。
还包括二次采集模块,所述二次采集模块用于根据用户位置,让路径规划模块规划采集机器人至用户位置的路径,二次采集模块用于提醒用户执行指定动作或改善建议并控制采集机器人对用户进行影像采集,二次采集模块还用于根据采集结果对原因和改善建议进行验证。并根据验证结果调整改善建议。由于同一种体态问题可能会对于多种原因,而且不同人员的体质不同,通用的改善建议并非适合每个人。通过本实施例的技术方案,可以在发现用户体态问题的基础上,判断用户产生体态问题的时间,进而找出用户产生体态问题的原因,可以根据原因提成针对性的改善建议,并通过再次控制采集机器人进行二次影像资料采集来验证改善建议的有效性,可以确保改善建议适用于当前用户。
以上的仅是本发明的实施例,该发明不限于此实施案例涉及的领域,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (8)
1.基于多用户同步检测的3D体态检测分析系统,其特征在于:包括采集机器人、中心控制器以及显示器,所述中心控制器与采集机器人以及显示器均数据连接;
所述采集机器人用于采集场景内目标人员的行走体态数据;所述目标人员包括至少一个用户以及若干辅助人员;
所述中心控制器包括:
机器人控制模块,用于控制采集机器人移动并采集目标人员的行走体态数据;
体态数据提取模块,用于根据采集机器人采集的用户和辅助人员的行走体态数据识别人体骨骼数据;
用户分析数据生成模块,根据用户的人体骨骼数据构建每个用户的用户体态数据;
辅助信息生成模块,用于根据每个用户对应的辅助人员的人体骨骼数据构建辅助人员体态数据;
数据分析模块,根据每一位用户的用户体态数据以及对应的辅助人员体态数据生成体态分析结果;
所述显示器用于显示用户体态数据、辅助人员体态数据以及体态分析结果。
2.根据权利要求1所述的基于多用户同步检测的3D体态检测分析系统,其特征在于:所述中心控制器还包括:人员类型识别模块,所述人员类型识别模块用于根据目标人员的行走体态数据识别目标人员的类型,所述类型包括用户和辅助人员两类。
3.根据权利要求2所述的基于多用户同步检测的3D体态检测分析系统,其特征在于:所述中心控制器还包括关联模块,所述关联模块用于根据人员类型识别模块的识别结果,将用户和对应辅助人员进行关联。
4.根据权利要求3所述的基于多用户同步检测的3D体态检测分析系统,其特征在于:所述数据分析模块包括特征提取模块和体态分析模型,特征提取模块用于根据用户体态数据以及辅助人员体态数据提取分析特征,所述体态分析模型用于根据输入的分析特征,输出体态分析结果。
5.根据权利要求4所述的基于多用户同步检测的3D体态检测分析系统,其特征在于:所述中心控制器还包括路径规划模块,用于对采集机器人的行走路径以及采集方向进行规划,所述机器人控制模块用于根据路径规划模块的规划结果对采集机器人进行控制。
6.根据权利要求5所述的基于多用户同步检测的3D体态检测分析系统,其特征在于:还包括输入装置,用于输入用户行走路线,所述中心控制器还包括:
用户行走路线获取模块,用于获取输入装置输入的用户行走路线。
7.基于多用户同步检测的3D体态检测分析方法,其特征在于:使用了如权利要求1-6中任一项所述的基于多用户同步检测的3D体态检测分析系统,该方法包括:
S100:通过采集机器人采集场景内所有用户以及辅助人员的行走体态信息;
S200:将采集机器人采集到的目标用户进行分组,并识别各个组内的目标人员的类型,并将同一组内的辅助人员与用户进行关联;
S300:根据用户的行走体态信息提取生成用户体态数据;
S400:根据辅助人员的行走体态信息提取生成辅助人员体态数据;
S500:根据每个用户的用户体态数据以及关联的辅助人员体态数据生成体态分析结果。
8.根据权利要求7所述的基于多用户同步检测的3D体态检测分析方法,其特征在于:所述S100具体包括:
S101:扫描当前场景的环境数据并根据环境数据构建检测场景;
S102:获取用户行走路线;
S103:根据检测场景以及用户行走路线规划采集机器人的行走路径以及采集方向;
S104:采集机器人根据规划出的行走路径以及采集方向调节自身位置以及采集方向并采集用户和辅助人员的行走体态信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011380313.6A CN112381048A (zh) | 2020-11-30 | 2020-11-30 | 基于多用户同步检测的3d体态检测分析系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011380313.6A CN112381048A (zh) | 2020-11-30 | 2020-11-30 | 基于多用户同步检测的3d体态检测分析系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112381048A true CN112381048A (zh) | 2021-02-19 |
Family
ID=74590192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011380313.6A Pending CN112381048A (zh) | 2020-11-30 | 2020-11-30 | 基于多用户同步检测的3d体态检测分析系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381048A (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009113190A (ja) * | 2007-11-09 | 2009-05-28 | Toyota Motor Corp | 自律動作型ロボットおよび自律動作型ロボットの動作制御方法 |
CN102499692A (zh) * | 2011-11-30 | 2012-06-20 | 沈阳工业大学 | 一种超声波步态检测装置与方法 |
CN103612252A (zh) * | 2013-12-03 | 2014-03-05 | 北京科技大学 | 面向孤独症儿童的智能远程社交辅助治疗机器人 |
CN104463118A (zh) * | 2014-12-04 | 2015-03-25 | 龙岩学院 | 一种基于Kinect的多视角步态识别方法 |
US20150160327A1 (en) * | 2013-12-06 | 2015-06-11 | Tata Consultancy Services Limited | Monitoring motion using skeleton recording devices |
US20150294481A1 (en) * | 2012-12-28 | 2015-10-15 | Kabushiki Kaisha Toshiba | Motion information processing apparatus and method |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
KR20160035497A (ko) * | 2014-09-23 | 2016-03-31 | (주)이튜 | 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템 |
CN106897665A (zh) * | 2017-01-17 | 2017-06-27 | 北京光年无限科技有限公司 | 应用于智能机器人的物体识别方法及系统 |
CN106981075A (zh) * | 2017-05-31 | 2017-07-25 | 江西制造职业技术学院 | 仿人运动拟态的人体骨骼点参数采集装置及其识别方法 |
US20170303825A1 (en) * | 2016-04-26 | 2017-10-26 | Toyota Jidosha Kabushiki Kaisha | Gait Analysis Medical Assistance Robot |
WO2018028361A1 (zh) * | 2016-08-09 | 2018-02-15 | 深圳光启合众科技有限公司 | 机器人的充电方法、装置和设备 |
CN109426248A (zh) * | 2017-08-25 | 2019-03-05 | 科沃斯机器人股份有限公司 | 自移动机器人及其行走方法、显示障碍物分布的方法 |
CN111300416A (zh) * | 2020-03-10 | 2020-06-19 | 南京工程学院 | 基于增强现实的模块化可重构机器人规划仿真方法和系统 |
CN111811499A (zh) * | 2020-07-13 | 2020-10-23 | 上海电机学院 | 机器人多传感器混合定位方法 |
CN111881887A (zh) * | 2020-08-21 | 2020-11-03 | 董秀园 | 基于多摄像头的运动姿态监测和指导方法及装置 |
-
2020
- 2020-11-30 CN CN202011380313.6A patent/CN112381048A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009113190A (ja) * | 2007-11-09 | 2009-05-28 | Toyota Motor Corp | 自律動作型ロボットおよび自律動作型ロボットの動作制御方法 |
CN102499692A (zh) * | 2011-11-30 | 2012-06-20 | 沈阳工业大学 | 一种超声波步态检测装置与方法 |
US20150294481A1 (en) * | 2012-12-28 | 2015-10-15 | Kabushiki Kaisha Toshiba | Motion information processing apparatus and method |
CN103612252A (zh) * | 2013-12-03 | 2014-03-05 | 北京科技大学 | 面向孤独症儿童的智能远程社交辅助治疗机器人 |
US20150160327A1 (en) * | 2013-12-06 | 2015-06-11 | Tata Consultancy Services Limited | Monitoring motion using skeleton recording devices |
KR20160035497A (ko) * | 2014-09-23 | 2016-03-31 | (주)이튜 | 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템 |
CN104463118A (zh) * | 2014-12-04 | 2015-03-25 | 龙岩学院 | 一种基于Kinect的多视角步态识别方法 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
US20170303825A1 (en) * | 2016-04-26 | 2017-10-26 | Toyota Jidosha Kabushiki Kaisha | Gait Analysis Medical Assistance Robot |
WO2018028361A1 (zh) * | 2016-08-09 | 2018-02-15 | 深圳光启合众科技有限公司 | 机器人的充电方法、装置和设备 |
CN106897665A (zh) * | 2017-01-17 | 2017-06-27 | 北京光年无限科技有限公司 | 应用于智能机器人的物体识别方法及系统 |
CN106981075A (zh) * | 2017-05-31 | 2017-07-25 | 江西制造职业技术学院 | 仿人运动拟态的人体骨骼点参数采集装置及其识别方法 |
CN109426248A (zh) * | 2017-08-25 | 2019-03-05 | 科沃斯机器人股份有限公司 | 自移动机器人及其行走方法、显示障碍物分布的方法 |
CN111300416A (zh) * | 2020-03-10 | 2020-06-19 | 南京工程学院 | 基于增强现实的模块化可重构机器人规划仿真方法和系统 |
CN111811499A (zh) * | 2020-07-13 | 2020-10-23 | 上海电机学院 | 机器人多传感器混合定位方法 |
CN111881887A (zh) * | 2020-08-21 | 2020-11-03 | 董秀园 | 基于多摄像头的运动姿态监测和指导方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102567638B (zh) | 一种基于微型传感器的交互式上肢康复系统 | |
US9826923B2 (en) | Motion analysis method | |
US11547324B2 (en) | System and method for human motion detection and tracking | |
CN112494034B (zh) | 基于3d体态检测分析的数据处理分析系统及方法 | |
KR102128267B1 (ko) | 제자리 걸음 특성 정보를 이용한 보행 능력 예측 방법 및 시스템 | |
US11771327B2 (en) | System and method for human motion detection and tracking | |
WO2022059228A1 (ja) | 運動評価装置および運動評価システム | |
Barua et al. | Deep learning techniques in estimating ankle joint power using wearable IMUs | |
KR101502235B1 (ko) | 지면반력 예측 모델 도출 방법 및 이를 이용한 지면반력 예측 장치 | |
Caetano et al. | Development of a biofeedback approach using body tracking with active depth sensor in asbgo smart walker | |
CN112571426B (zh) | 3d体态检测分析系统及方法 | |
CN112381048A (zh) | 基于多用户同步检测的3d体态检测分析系统及方法 | |
US20230248261A1 (en) | 3d human body joint angle prediction method and system using 2d image | |
KR101994798B1 (ko) | 개인별 전문가 움직임 교정 시스템 | |
US11497962B2 (en) | System and method for human motion detection and tracking | |
Gaud et al. | Human gait analysis and activity recognition: A review | |
CN116543455A (zh) | 建立帕金森症步态受损评估模型、使用方法、设备及介质 | |
CN112656402B (zh) | 应用于3d体态检测分析的采集机器人联动控制系统 | |
KR102412841B1 (ko) | 고령자 헬스케어를 위한 스마트 보행 시뮬레이터 | |
CN113255462A (zh) | 步态评分方法、系统、计算机程序产品及可读存储介质 | |
US20240070854A1 (en) | Tracking, analysing and assessment of huamn body movements using a subject-specific digital twin model of the human body | |
EP4053793A1 (en) | System and method for human motion detection and tracking | |
CN114642423A (zh) | 基于体验质量的下肢外骨骼机器人步态规划方法及系统 | |
KR20180085926A (ko) | 보행 패턴을 적용한 인체 이상 인식 장치 및 방법 | |
Nahavandi et al. | Passive muscle force analysis during vehicle access: A gender comparison |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |