CN117357100B - 一种可实时检测全身动态的智能服装 - Google Patents
一种可实时检测全身动态的智能服装 Download PDFInfo
- Publication number
- CN117357100B CN117357100B CN202311342953.1A CN202311342953A CN117357100B CN 117357100 B CN117357100 B CN 117357100B CN 202311342953 A CN202311342953 A CN 202311342953A CN 117357100 B CN117357100 B CN 117357100B
- Authority
- CN
- China
- Prior art keywords
- user
- real
- motion
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 88
- 230000009471 action Effects 0.000 claims abstract description 57
- 230000000007 visual effect Effects 0.000 claims abstract description 36
- 230000000694 effects Effects 0.000 claims abstract description 14
- 230000001133 acceleration Effects 0.000 claims abstract description 11
- 210000003205 muscle Anatomy 0.000 claims abstract description 11
- 239000004744 fabric Substances 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 41
- 238000012706 support-vector machine Methods 0.000 claims description 32
- 210000003128 head Anatomy 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 230000003183 myoelectrical effect Effects 0.000 claims description 8
- 230000001360 synchronised effect Effects 0.000 claims description 8
- 230000036541 health Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 5
- 208000025978 Athletic injury Diseases 0.000 claims description 4
- 238000002790 cross-validation Methods 0.000 claims description 4
- 206010041738 Sports injury Diseases 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000010223 real-time analysis Methods 0.000 claims description 3
- 239000004984 smart glass Substances 0.000 claims description 3
- 238000011897 real-time detection Methods 0.000 claims 2
- 238000010200 validation analysis Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004753 textile Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41D—OUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
- A41D1/00—Garments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6804—Garments; Clothes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/04—Constructional details of apparatus
- A61B2560/0462—Apparatus with built-in sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0658—Position or arrangement of display
- A63B2071/0661—Position or arrangement of display arranged on the user
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Dentistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Textile Engineering (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physical Education & Sports Medicine (AREA)
- Fuzzy Systems (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种可实时检测全身动态的智能服装,涉及视觉识别技术领域,本发明采用AiQ智能织物,与传感器和电子元件的无缝集成,在服装的关键活动部位嵌入了高精度传感器,感知身体与支撑面的接触,为姿势分析提供重要数据,虚拟现实头显单元,通过四元数表示用户头部动作,计算第一视角摄像机的位置和方向,同时还计算第三视角摄像机的位置和方向,将第三视角图像投射到外部显示设备,可在家人或医护人员远程观察运动情况,实时运动优化单元指导用户,实时反馈基于智能服装中的传感器数据,包括姿势、加速度、角速度和肌肉活动水平分析,确定姿势、运动类型和质量,并由虚拟教练控制实时运动优化单元提供反馈和建议。
Description
技术领域
本发明涉及视觉识别技术领域,具体为一种可实时检测全身动态的智能服装。
背景技术
服装是现代科技进步的载体当今世界科学技术迅猛发展,知识经济扑面而来,知识经济的支柱是高新技术和信息技术,这个特征将影响和决定21世纪的服装行业,服装行业的科技发展在今后若干年最主要的任务就是利用高新技术和信息技术改变和提升传统的服装功能,这将主要体现在智能服装的研究和开发上。
世界上积极开发“智能服装”的国家主要是德国、芬兰、比利时、瑞士、英国等欧洲国家,这一方面是由于欧洲地区对新型纺织品开发的需求比较强烈,另一方面是他们也具有先进的周边电子电机、通讯、计算机软件工业的相互支持配合,许多服装产业巨头也希望,“智能服装”的研发,能为不景气的传统纺织工业注入一股新的活力和生命力。
然而目前传统的智能服装无法对运动细节进行监控,导致适用范围较小,尤其在面对动作学习的应用场景,如舞蹈学习,健身运动训练以及康复训练等场景,无法远程监控当前运动情况,也无法根据当前获取的动作过程分析是否标准是否有待调整,在用户身边无外部辅助情况下,难以判定自身动作是否标准,是否需要调整,对于用户来说,了解他们的动作是否标准或是否需要调整至关重要,现有智能服装较为依赖外部辅助设备或人员来解释和评估用户的动作,增加了学习和训练的复杂性,同时也增加了时间和资金成本,因此亟需一种可以提供运动细节监控的,可实时检测全身动态的运动辅助智能服装。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种可实时检测全身动态的智能服装,解决现有技术中存在的无法根据当前获取的动作过程分析是否标准是否有待调整的问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现,本发明提供了一种可实时检测全身动态的智能服装,采用AiQ智能织物实现传感器和电子元件的无缝集成,包括:
传感器单元,在智能服装的关键活动部位嵌入高精度传感器,包括:
惯性测量单元IMU,用于实时监测加速度和角速度,捕捉用户的运动和姿势;
肌电传感器,用于检测肌肉活动,提供精确的动作信息;
压力传感器,用于感知身体与地面以及支撑面的接触,用于姿势分析;
虚拟现实头显单元,与用户的动作实时同步,包括第一视角和第三视角头显,以提供相应的声音、震动反馈;
实时运动优化单元,智能服装内置震动装置和发声设备,实时运动优化单元提供实时反馈,将虚拟教练与用户实时同步,虚拟教练提供运动指导、鼓励和反馈,指导用户改进姿势、力量和技巧,降低运动伤害风险;
内置数据处理单元,基于机器学习算法对传感器数据进行实时分析,捕捉用户的每个动作和姿势,实时分析同时用于实时反馈和虚拟现实同步;
数据同步单元,通过蓝牙传输将数据传输到智能设备,包括智能手机、平板以及智能眼镜,并同步到云端,供用户本人和其他授权人员随时随地查看和分析;
个性化运动训练建议单元,基于用户的身体数据和健康目标,生成个性化的运动训练计划;
所述虚拟现实头显单元中包含第一视角即用户眼睛所看到的视图和第三视角即外部观察者所看到的视图,此视角可自由调节角度,具体渲染投影方式包括:
建立3D虚拟场景,包括对象、光源和摄像机模型;
根据用户的头部动作,计算第一视角摄像机的位置和方向,采用四元数进行表示,具体为:
其中q即四元数,θ表示旋转角度,i,j,k均表示虚数单位,x,y,z表示摄像机旋转轴;
利用用户的头部位置和方向,渲染第一视角图像,将第一视角图像投射到虚拟现实头显中;
同时计算第三视角摄像机的位置和方向,第三视角计算具体为:
Pv.er=Po.b-Dv,er-o.b*Vd.ce,
其中Pv.er就是观察者位置,Po.b表示物体位置,Dv,er-o.b表示物体到观察者的单位方向向量,Vd.ce则表示观察距离;
渲染第三视角图像,将第三视角图像投射到外部显示设备;
本发明进一步地设置为:所述实时反馈和运动优化方式具体为:
基于智能服装中的传感器IMU和肌电传感器获取用户的动作数据,包括姿势、加速度、角速度和肌肉活动水平;
使用机器学习算法分析用户的动作,确定姿势、运动类型和质量;
利用分析的动作数据,由虚拟教练控制实时运动优化单元提供反馈和建议,指导用户改进姿势、力量和技巧;
根据用户的动作数据和运动优化算法生成反馈,包括建议性的声音、震动和光线反馈;
通过智能服装中的输出装置,振动装置、声音装置反馈传递给用户;
本发明进一步地设置为:所述实时运动优化单元利用个性化算法,根据用户的身体数据,为用户提供运动建议和训练计划;
运动优化算法基于用户的动作数据,识别可能的问题,包括错误姿势和较大幅度偏差姿态,并生成建议的改进措施;
本发明进一步地设置为:从所述动作数据中解析获取运动特征,包括:
关节的角度、关节的位置、动作的类型、姿态平衡度、姿势稳定性;
采用支持向量机SVM对提取的特征进行训练和分类识别用户的动作;
使用训练好的模型对实时数据进行分类确定用户的当前动作;
根据机器学习模型的输出,确定用户的动作、姿势和运动质量;
本发明进一步地设置为:所述采用支持向量机进行动作分类和识别步骤具体包括:
收集和准备已经提取特征的训练数据集,包括已标记的动作数据,其中每个样本包括提取的特征向量和相应的动作标签;
对特征向量进行标准化,使用标准SVM算法训练分类模型,将特征向量映射到不同的动作类别;
确定超平面分隔不同类别的数据点,同时最小化分类错误,具体为:
其中w表示超平面的法向量,b为偏差,xi表示特征向量,yi表示样本类别标签;
使用交叉验证方法来评估SVM模型的性能;
当有新的特征向量需要分类时,将其输入到训练好的SVM模型中,模型返回预测的动作标签;
本发明进一步地设置为:所述交叉验证采用K-Fold验证法,步骤具体包括:
设数据集为D,将数据集D分为训练集和测试集,在将数据分为K个不相交的子集D1,D2,...,DK;
对于每个折叠k训练SVM模型,超参数包括正则化参数Ck和核函数参数Kk,训练集表示为Dtr.k;
训练方式具体为:
其中wk表示模型权重向量,Ck表示正则化参数,为松弛变量;
验证测试集的准确性、精确度以及召回率;
基于性能度量结果调整模型的超参数Ck和核函数参数Kk优化模型性能;
本发明进一步地设置为:所述确定用户当前动作步骤具体包括:
从智能服装传感器获取实时数据,设为xr.t,使用已训练好的SVM模型,将实时数据xr.t进行分类;
计算决策函数值f(xr.t),表示数据点xr.t与超平面之间的距离;
决策函数表示为:
其中αi表示支持向量的拉格朗日乘子,yi表示类别标签,k(xi,xr.t)则为核函数值,b在此处表示偏差项;
根据决策函数值f(xr.t),进行决策,设σ为阈值,具体为:
如果f(xr.t)>σ,则将动作分类为类别C1;
如果f(xr.t)<-σ,则将动作分类为类别C2;
否则视为多类别分类情况,输出分类结果,表示用户当前执行的动作。
(三)有益效果
本发明提供了一种可实时检测全身动态的智能服装。具备以下有益效果:
本申请所提供的可实时检测全身动态的智能服装采用了AiQ智能织物,与传感器和电子元件的无缝集成,在服装的关键活动部位嵌入了高精度传感器,包括惯性测量单元IMU、肌电传感器和压力传感器,集成系统不仅能够实时监测用户的加速度、角速度、肌肉活动和姿势,还能感知身体与支撑面的接触,为姿势分析提供重要数据;
其中虚拟现实头显单元,能够与用户的动作实时同步,用户可以享受到根据其身体状态标准与否提供的声音、震动和光线反馈,更重要的是虚拟现实头显单元中包含了第一视角和第三视角,用户可以自由调整角度,通过四元数表示用户头部动作,计算第一视角摄像机的位置和方向,同时还计算第三视角摄像机的位置和方向,将第三视角图像投射到外部显示设备,可在家人或医护人员远程观察运动情况;
此外实时运动优化单元中包括震动装置和发声设备,用于提供实时反馈,将虚拟教练与用户实时同步,为用户提供运动指导、鼓励和反馈,有助于指导用户改进姿势、力量和技巧,降低运动伤害风险,实时反馈基于智能服装中的传感器数据,包括姿势、加速度、角速度和肌肉活动水平分析,确定姿势、运动类型和质量,并由虚拟教练控制实时运动优化单元提供反馈和建议;
同时运动优化算法能够识别潜在问题,包括错误姿势和较大幅度偏差姿态,并生成改进措施的建议,此过程包括提取运动特征,包括关节的角度、位置、动作类型、姿态平衡度和姿势稳定性,然后使用支持向量机SVM对特征进行训练和分类识别用户的动作,并采用交叉验证方法来评估SVM模型的性能,保证SVM模型有效性;
最后,数据同步单元通过蓝牙传输数据到智能设备,让用户可以随时随地查看和分析他们的健康数据,个性化运动训练建议单元利用用户的身体数据和健康目标,生成了个性化的运动训练计划,不仅可以监测用户的运动,还可以提供实时反馈和指导,确保训练计划的适应性、有效性。
解决了现有技术中存在的无法根据当前获取的动作过程分析是否标准是否有待调整的问题。
附图说明
图1为本发明的可实时检测全身动态的智能服装框架图;
图2为本发明的可实时检测全身动态的智能服装实时反馈和运动优化流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
请参阅图1-图2,本发明提供一种可实时检测全身动态的智能服装,采用AiQ智能织物实现传感器和电子元件的无缝集成,包括:
传感器单元,在智能服装的关键活动部位嵌入高精度传感器,包括:
惯性测量单元IMU,用于实时监测加速度和角速度,捕捉用户的运动和姿势;
肌电传感器,用于检测肌肉活动,提供精确的动作信息;
压力传感器,用于感知身体与地面以及支撑面的接触,用于姿势分析;
虚拟现实头显单元,与用户的动作实时同步,包括第一视角和第三视角头显,以提供相应的声音、震动反馈;
虚拟现实头显单元中包含第一视角即用户眼睛所看到的视图和第三视角即外部观察者所看到的视图,此视角可自由调节角度,具体渲染投影方式包括:
建立3D虚拟场景,包括对象、光源和摄像机模型;
根据用户的头部动作,计算第一视角摄像机的位置和方向,采用四元数进行表示,具体为:
其中q即四元数,θ表示旋转角度,i,j,k均表示虚数单位,x,y,z表示摄像机旋转轴;
利用用户的头部位置和方向,渲染第一视角图像,将第一视角图像投射到虚拟现实头显中;
同时计算第三视角摄像机的位置和方向,第三视角计算具体为:
Pv.er=Po.b-Dv,er-o.b*Vd.ce,
其中Pv.er就是观察者位置,Po.b表示物体位置,Dv,er-o.b表示物体到观察者的单位方向向量,Vd.ce则表示观察距离;
渲染第三视角图像,将第三视角图像投射到外部显示设备;
实时运动优化单元,智能服装内置震动装置和发声设备,实时运动优化单元提供实时反馈,将虚拟教练与用户实时同步,虚拟教练提供运动指导、鼓励和反馈,指导用户改进姿势、力量和技巧,降低运动伤害风险;
实时反馈和运动优化方式具体为:
基于智能服装中的传感器IMU和肌电传感器获取用户的动作数据,包括姿势、加速度、角速度和肌肉活动水平;
使用机器学习算法分析用户的动作,确定姿势、运动类型和质量;
利用分析的动作数据,由虚拟教练控制实时运动优化单元提供反馈和建议,指导用户改进姿势、力量和技巧;
根据用户的动作数据和运动优化算法生成反馈,包括建议性的声音、震动和光线反馈;
通过智能服装中的输出装置,振动装置、声音装置反馈传递给用户;
实时运动优化单元利用个性化算法,根据用户的身体数据,为用户提供运动建议和训练计划;
运动优化算法基于用户的动作数据,识别可能的问题,包括错误姿势和较大幅度偏差姿态,并生成建议的改进措施;
从动作数据中解析获取运动特征,包括:
关节的角度、关节的位置、动作的类型、姿态平衡度、姿势稳定性;
采用支持向量机SVM对提取的特征进行训练和分类识别用户的动作;
使用训练好的模型对实时数据进行分类确定用户的当前动作;
根据机器学习模型的输出,确定用户的动作、姿势和运动质量;
采用支持向量机进行动作分类和识别步骤具体包括:
收集和准备已经提取特征的训练数据集,包括已标记的动作数据,其中每个样本包括提取的特征向量和相应的动作标签;
对特征向量进行标准化,使用标准SVM算法训练分类模型,将特征向量映射到不同的动作类别;
确定超平面分隔不同类别的数据点,同时最小化分类错误,具体为:
其中w表示超平面的法向量,b为偏差,xi表示特征向量,yi表示样本类别标签;
使用交叉验证方法来评估SVM模型的性能;
当有新的特征向量需要分类时,将其输入到训练好的SVM模型中,模型返回预测的动作标签;
交叉验证采用K-Fold验证法,步骤具体包括:
设数据集为D,将数据集D分为训练集和测试集,在将数据分为K个不相交的子集D1,D2,...,DK;
对于每个折叠k训练SVM模型,超参数包括正则化参数Ck和核函数参数Kk,训练集表示为Dtr.k;
训练方式具体为:
其中wk表示模型权重向量,Ck表示正则化参数,为松弛变量;
验证测试集的准确性、精确度以及召回率;
基于性能度量结果调整模型的超参数Ck和核函数参数Kk优化模型性能;
确定用户当前动作步骤具体包括:
从智能服装传感器获取实时数据,设为xr.t,使用已训练好的SVM模型,将实时数据xr.t进行分类;
计算决策函数值f(xr.t),表示数据点xr.t与超平面之间的距离;
决策函数表示为:
其中αi表示支持向量的拉格朗日乘子,yi表示类别标签,k(xi,xr.t)则为核函数值,b在此处表示偏差项;
根据决策函数值f(xr.t),进行决策,设σ为阈值,具体为:
如果f(xr.t)>σ,则将动作分类为类别C1;
如果f(xr.t)<-σ,则将动作分类为类别C2;
否则视为多类别分类情况,输出分类结果,表示用户当前执行的动作;
内置数据处理单元,基于机器学习算法对传感器数据进行实时分析,捕捉用户的每个动作和姿势,实时分析同时用于实时反馈和虚拟现实同步;改进姿势、力量和技巧,降低运动伤害风险并提高效率;
数据同步单元,通过蓝牙传输将数据传输到智能设备,包括智能手机、平板以及智能眼镜,并同步到云端,供用户本人和其他授权人员随时随地查看和分析;
个性化运动训练建议单元,基于用户的身体数据和健康目标,生成个性化的运动训练计划。
综合以上内容,在本申请中:
本申请所提供的可实时检测全身动态的智能服装采用了AiQ智能织物,与传感器和电子元件的无缝集成,在服装的关键活动部位嵌入了高精度传感器,包括惯性测量单元IMU、肌电传感器和压力传感器,集成系统不仅能够实时监测用户的加速度、角速度、肌肉活动和姿势,还能感知身体与支撑面的接触,为姿势分析提供重要数据;
其中虚拟现实头显单元,能够与用户的动作实时同步,用户可以享受到根据其身体状态标准如否提供的声音、震动和光线反馈,更重要的是虚拟现实头显单元中包含了第一视角和第三视角,用户可以自由调整角度,通过四元数表示用户头部动作,计算第一视角摄像机的位置和方向,同时还计算第三视角摄像机的位置和方向,将第三视角图像投射到外部显示设备,可在家人或医护人员远程观察运动情况;
此外实时运动优化单元中包括震动装置和发声设备,用于提供实时反馈,将虚拟教练与用户实时同步,为用户提供运动指导、鼓励和反馈,有助于指导用户改进姿势、力量和技巧,降低运动伤害风险,实时反馈基于智能服装中的传感器数据,包括姿势、加速度、角速度和肌肉活动水平分析,确定姿势、运动类型和质量,并由虚拟教练控制实时运动优化单元提供反馈和建议;
同时运动优化算法能够识别潜在问题,包括错误姿势和较大幅度偏差姿态,并生成改进措施的建议,此过程包括提取运动特征,包括关节的角度、位置、动作类型、姿态平衡度和姿势稳定性,然后使用支持向量机SVM对特征进行训练和分类识别用户的动作,并采用交叉验证方法来评估SVM模型的性能,保证SVM模型有效性;
最后,数据同步单元通过蓝牙传输数据到智能设备,让用户可以随时随地查看和分析他们的健康数据,个性化运动训练建议单元利用用户的身体数据和健康目标,生成了个性化的运动训练计划,不仅可以监测用户的运动,还可以提供实时反馈和指导,确保训练计划的适应性、有效性。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种可实时检测全身动态的智能服装,其特征在于,采用AiQ智能织物实现传感器和电子元件的无缝集成,包括:
传感器单元,在智能服装的关键活动部位嵌入高精度传感器,包括:
惯性测量单元IMU,用于实时监测加速度和角速度,捕捉用户的运动和姿势;
肌电传感器,用于检测肌肉活动,提供精确的动作信息;
压力传感器,用于感知身体与地面以及支撑面的接触,用于姿势分析;
虚拟现实头显单元,与用户的动作实时同步,包括第一视角和第三视角头显,以提供相应的声音、震动反馈;
实时运动优化单元,智能服装内置震动装置和发声设备,实时运动优化单元提供实时反馈,将虚拟教练与用户实时同步,虚拟教练提供运动指导、鼓励和反馈,指导用户改进姿势、力量和技巧,降低运动伤害风险;
内置数据处理单元,基于机器学习算法对传感器数据进行实时分析,捕捉用户的每个动作和姿势,实时分析同时用于实时反馈和虚拟现实同步;
数据同步单元,通过蓝牙传输将数据传输到智能设备,包括智能手机、平板以及智能眼镜,并同步到云端,供用户本人和其他授权人员随时随地查看和分析;
个性化运动训练建议单元,基于用户的身体数据和健康目标,生成个性化的运动训练计划;
所述虚拟现实头显单元中包含第一视角即用户眼睛所看到的视图和第三视角即外部观察者所看到的视图,此视角可自由调节角度,具体渲染投影方式包括:
建立3D虚拟场景,包括对象、光源和摄像机模型;
根据用户的头部动作,计算第一视角摄像机的位置和方向,采用四元数进行表示,具体为:
其中q即四元数,θ表示旋转角度,i,j,k均表示虚数单位,x,y,z表示摄像机旋转轴;
利用用户的头部位置和方向,渲染第一视角图像,将第一视角图像投射到虚拟现实头显中;
同时计算第三视角摄像机的位置和方向,第三视角计算具体为:
Pv.er=Po.b-Dv,er-o.b*Vd.ce,
其中Pv.er就是观察者位置,Po.b表示物体位置,Dv,er-o.b表示物体到观察者的单位方向向量,Vd.ce则表示观察距离;
渲染第三视角图像,将第三视角图像投射到外部显示设备。
2.根据权利要求1所述的一种可实时检测全身动态的智能服装,其特征在于,所述实时反馈和运动优化方式具体为:
基于智能服装中的传感器IMU和肌电传感器获取用户的动作数据,包括姿势、加速度、角速度和肌肉活动水平;
使用机器学习算法分析用户的动作,确定姿势、运动类型和质量;
利用分析的动作数据,由虚拟教练控制实时运动优化单元提供反馈和建议,指导用户改进姿势、力量和技巧;
根据用户的动作数据和运动优化算法生成反馈,包括建议性的声音、震动和光线反馈;
通过智能服装中的输出装置,振动装置、声音装置反馈传递给用户。
3.根据权利要求2所述的一种可实时检测全身动态的智能服装,其特征在于,所述实时运动优化单元利用个性化算法,根据用户的身体数据,为用户提供运动建议和训练计划;
运动优化算法基于用户的动作数据,识别可能的问题,包括错误姿势,并生成建议的改进措施。
4.根据权利要求3所述的一种可实时检测全身动态的智能服装,其特征在于,从所述动作数据中解析获取运动特征,包括:
关节的角度、关节的位置、动作的类型、姿态平衡度、姿势稳定性;
采用支持向量机SVM对提取的特征进行训练和分类识别用户的动作;
使用训练好的模型对实时数据进行分类确定用户的当前动作;
根据机器学习模型的输出,确定用户的动作、姿势和运动质量。
5.根据权利要求4所述的一种可实时检测全身动态的智能服装,其特征在于,所述采用支持向量机进行动作分类和识别步骤具体包括:
收集和准备已经提取特征的训练数据集,包括已标记的动作数据,其中每个样本包括提取的特征向量和相应的动作标签;
对特征向量进行标准化,使用标准SVM算法训练分类模型,将特征向量映射到不同的动作类别;
确定超平面分隔不同类别的数据点,同时最小化分类错误,具体为:
其中w表示超平面的法向量,b为偏差,xi表示特征向量,yi表示样本类别标签;
使用交叉验证方法来评估SVM模型的性能;
当有新的特征向量需要分类时,将其输入到训练好的SVM模型中,模型返回预测的动作标签。
6.根据权利要求5所述的一种可实时检测全身动态的智能服装,其特征在于,所述交叉验证采用K-Fold验证法,步骤具体包括:
设数据集为D,将数据集D分为训练集和测试集,在将数据分为K个不相交的子集D1,D2,...,DK;
对于每个折叠k训练SVM模型,超参数包括正则化参数Ck和核函数参数Kk,训练集表示为Dtr.k;
训练方式具体为:
其中wk表示模型权重向量,Ck表示正则化参数,为松弛变量;
验证测试集的准确性、精确度以及召回率;
基于性能度量结果调整模型的超参数Ck和核函数参数Kk优化模型性能。
7.根据权利要求6所述的一种可实时检测全身动态的智能服装,其特征在于,所述确定用户当前动作步骤具体包括:
从智能服装传感器获取实时数据,设为xr.t,使用已训练好的SVM模型,将实时数据xr.t进行分类;
计算决策函数值f(xr.t),表示数据点xr.t与超平面之间的距离;
决策函数表示为:
其中αi表示支持向量的拉格朗日乘子,yi表示类别标签,k(xi,xr.t)则为核函数值,b在此处表示偏差项;
根据决策函数值f(xr.t),进行决策,设σ为阈值,具体为:
如果f(xr.t)>σ,则将动作分类为类别C1;
如果f(xr.t)<-σ,则将动作分类为类别C2;
否则视为多类别分类情况,输出分类结果,表示用户当前执行的动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311342953.1A CN117357100B (zh) | 2023-10-17 | 2023-10-17 | 一种可实时检测全身动态的智能服装 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311342953.1A CN117357100B (zh) | 2023-10-17 | 2023-10-17 | 一种可实时检测全身动态的智能服装 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117357100A CN117357100A (zh) | 2024-01-09 |
CN117357100B true CN117357100B (zh) | 2024-06-04 |
Family
ID=89390540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311342953.1A Active CN117357100B (zh) | 2023-10-17 | 2023-10-17 | 一种可实时检测全身动态的智能服装 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117357100B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107341351A (zh) * | 2017-07-06 | 2017-11-10 | 京东方科技集团股份有限公司 | 智能健身方法、装置及系统 |
CN207071088U (zh) * | 2017-01-25 | 2018-03-06 | 杭州三目科技有限公司 | 一种基于服装的人体运动监测、分析和反馈装置 |
CN108379815A (zh) * | 2018-02-02 | 2018-08-10 | 梦卓科技(深圳)有限公司 | 基于弹性智能传感器节点的带实时反馈的自动化训练系统 |
CN109011508A (zh) * | 2018-07-30 | 2018-12-18 | 三星电子(中国)研发中心 | 一种智能教练系统及方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
KR101970687B1 (ko) * | 2018-04-11 | 2019-04-19 | 주식회사 큐랩 | 개인화 증강현실 기술을 이용한 피트니스 코칭 시스템 |
EP3819908A1 (de) * | 2019-11-06 | 2021-05-12 | ERGO-FIT GmbH & Co. KG | Verfahren zur erfassung, analyse und optimierung von bewegungsausführungen im sportbereich und reha-bereich |
CN113144540A (zh) * | 2021-03-12 | 2021-07-23 | 华南理工大学 | 一种智能安全健身指导装置、系统及方法 |
CN116328279A (zh) * | 2023-03-21 | 2023-06-27 | 南京邮电大学 | 一种基于视觉人体姿势估计的实时辅助训练方法及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190015046A1 (en) * | 2016-01-05 | 2019-01-17 | Wearable Experiments Inc. | Systems and methods for smart athletic wear |
CA3193817A1 (en) * | 2022-03-29 | 2023-09-29 | Orpyx Medical Technologies Inc. | System and method for generating a virtual avatar |
-
2023
- 2023-10-17 CN CN202311342953.1A patent/CN117357100B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN207071088U (zh) * | 2017-01-25 | 2018-03-06 | 杭州三目科技有限公司 | 一种基于服装的人体运动监测、分析和反馈装置 |
CN107341351A (zh) * | 2017-07-06 | 2017-11-10 | 京东方科技集团股份有限公司 | 智能健身方法、装置及系统 |
CN108379815A (zh) * | 2018-02-02 | 2018-08-10 | 梦卓科技(深圳)有限公司 | 基于弹性智能传感器节点的带实时反馈的自动化训练系统 |
KR101970687B1 (ko) * | 2018-04-11 | 2019-04-19 | 주식회사 큐랩 | 개인화 증강현실 기술을 이용한 피트니스 코칭 시스템 |
CN109011508A (zh) * | 2018-07-30 | 2018-12-18 | 三星电子(中国)研发中心 | 一种智能教练系统及方法 |
CN109453509A (zh) * | 2018-11-07 | 2019-03-12 | 龚映清 | 一种基于肌电和运动捕捉的虚拟上肢控制系统及其方法 |
EP3819908A1 (de) * | 2019-11-06 | 2021-05-12 | ERGO-FIT GmbH & Co. KG | Verfahren zur erfassung, analyse und optimierung von bewegungsausführungen im sportbereich und reha-bereich |
CN113144540A (zh) * | 2021-03-12 | 2021-07-23 | 华南理工大学 | 一种智能安全健身指导装置、系统及方法 |
CN116328279A (zh) * | 2023-03-21 | 2023-06-27 | 南京邮电大学 | 一种基于视觉人体姿势估计的实时辅助训练方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117357100A (zh) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102097190B1 (ko) | 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러 | |
KR102377561B1 (ko) | 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법 | |
CN107243141A (zh) | 一种基于运动识别的动作辅助训练系统 | |
JP2016081504A (ja) | 深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法 | |
US11079860B2 (en) | Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
Kim et al. | Applying pose estimation to predict amateur golf swing performance using edge processing | |
CN110276384A (zh) | 用于传感器数据的带注释捕获以及活动的群建模的方法、设备和系统 | |
Antunes et al. | Visual and human-interpretable feedback for assisting physical activity | |
Helten et al. | Classification of trampoline jumps using inertial sensors | |
KR101950412B1 (ko) | 승마 시뮬레이터 및 승마 시뮬레이션 방법 | |
CN106073793A (zh) | 基于微惯性传感器的姿态跟踪与识别方法 | |
Lin | RETRACTED ARTICLE: Research on film animation design based on inertial motion capture algorithm | |
Jan et al. | Augmented tai-chi chuan practice tool with pose evaluation | |
Parashar et al. | Improved Yoga Pose Detection Using MediaPipe and MoveNet in a Deep Learning Model. | |
CN117357100B (zh) | 一种可实时检测全身动态的智能服装 | |
CN116740618A (zh) | 一种运动视频动作评估方法、系统、计算机设备及介质 | |
Viana et al. | GymApp: A real time physical activity trainner on wearable devices | |
US20230027320A1 (en) | Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking | |
Hu et al. | Effective evaluation of HGcnMLP method for markerless 3D pose estimation of musculoskeletal diseases patients based on smartphone monocular video | |
KR20230147144A (ko) | 마커리스 모션 분석을 개선하기 위한 방법 | |
KR20220117399A (ko) | 온라인 움직임 교정시스템 | |
Zhang | Application of optical motion capture based on multimodal sensors in badminton player motion recognition system | |
JP2021099666A (ja) | 学習モデルの生成方法 | |
Salehi et al. | Validation of a Low-cost Inertial Exercise Tracker. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |