CN117292520A - 一种基于智能眼镜的坐姿纠正方法及系统 - Google Patents
一种基于智能眼镜的坐姿纠正方法及系统 Download PDFInfo
- Publication number
- CN117292520A CN117292520A CN202311240068.2A CN202311240068A CN117292520A CN 117292520 A CN117292520 A CN 117292520A CN 202311240068 A CN202311240068 A CN 202311240068A CN 117292520 A CN117292520 A CN 117292520A
- Authority
- CN
- China
- Prior art keywords
- intelligent glasses
- predicted
- real
- posture
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011521 glass Substances 0.000 title claims abstract description 189
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012937 correction Methods 0.000 title claims abstract description 39
- 230000036544 posture Effects 0.000 claims abstract description 294
- 239000004984 smart glass Substances 0.000 claims description 31
- 238000012216 screening Methods 0.000 claims description 22
- 238000010276 construction Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001456553 Chanodichthys dabryi Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Abstract
本发明提供了一种基于智能眼镜的坐姿纠正方法及系统,其方法包括:S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号;用以实现通过搭建出用户身体和智能眼镜的联合姿态框架来对用户的坐姿进行判断纠正,大大提高了坐姿检测纠正的准确度,也实现了对多种不良坐姿的检测和纠正提醒。
Description
技术领域
本发明涉及姿态检测技术领域,特别涉及一种基于智能眼镜的坐姿纠正方法及系统。
背景技术
目前,智能眼镜的功能越来越丰富,而使用智能眼镜时的坐姿对人体的视力和骨骼有着重要的影响,因此,在智能眼镜上加装坐姿纠正功能对使用者有很大益处。
但是,由于智能眼镜可获取的数据的有限性,导致对使用者的坐姿检测不够精准,现存的带有坐姿纠正功能的智能眼镜多通过在智能眼镜上设置水平仪等位姿检测装置来获取智能眼镜的姿态,再基于智能眼镜的姿态来判断使用者的坐姿是否需要纠正,这种方式对使用者的坐姿的检测精度和是否需要纠正的判断精度都很低,又或者通过加装抖动检测装置来判断使用者是否存在抖动的坐姿来判断使用者的坐姿是否需要纠正,采用以上方式使得可以检测并纠正的坐姿种类较少。
因此,本发明提出了一种基于智能眼镜的坐姿纠正方法及系统。
发明内容
本发明提供一种基于智能眼镜的坐姿纠正方法及系统,用以基于智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,实时搭建出用户和智能眼镜的三维联合姿态框架,并基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,不仅实现了通过搭建出用户身体和智能眼镜的联合姿态框架来对用户的坐姿进行判断纠正,大大提高了坐姿检测纠正的准确度,也实现了对多种不良坐姿的检测和纠正提醒。
本发明提供一种基于智能眼镜的坐姿纠正方法,包括:
S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
优选的,一种基于智能眼镜的坐姿纠正方法,S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,包括:
S101:基于设置在智能眼镜上的姿态传感器,获取智能眼镜的实时横滚角和实时俯仰角以及实时航向角作为智能眼镜的实时姿态数据;
S102:基于在智能眼镜上的第一定点处设置的信号发射器和在用户身体上对应的第二定点处设置的信号接收器,实时测量出第一定点和对应的第二定点之间的实时距离。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,
第一定点包括:智能眼镜的左镜腿末端点和智能眼镜的右镜腿末端点;
智能眼镜的左镜腿末端点对应的第二定点为用户的左肩末端点;
智能眼镜的右镜腿末端对应的第二定点为用户的右肩末端点。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架,包括:
获取用户在标准坐姿下佩戴智能眼镜时智能眼镜在预设坐标系下的标准三维模型,基于实时姿态数据对标准三维模型进行旋转操作,获得智能眼镜在预设坐标系下的实时三维模型;
基于实时三维模型确定出第一定点在预设坐标系中的第一坐标值,基于第一坐标值以及第一定点和对应的第二定点之间的实时距离,确定出第二定点的第一预测坐标集合;
获取用户在标准坐姿下佩戴智能眼镜时对应的标准三维联合模型,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
在标准三维联合模型中确定出第一定点和对应的第二定点在每个坐标轴方向上的个性化距离差值,基于每个坐标轴方向上的个性化距离差值和对应坐标轴方向的距离差值范围计算方式,计算出第一定点和第二定点在每个坐标轴方向上的个性化距离差值范围,基于每个坐标轴方向上的个性化距离差值范围和第一坐标值,在第一预测坐标集合中筛选出第二定点的第二预测坐标集合;
基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
基于标准三维联合模型确定出两个第二定点之间的标准距离,将第二预测坐标集合中与另一个第二预测坐标集合中对应预测坐标值的距离等于标准距离的预测坐标值和对应预测坐标值汇总作为预测坐标表示,获得多个预测坐标表示;
基于实时三维模型的坐标表示和每组预测坐标表示以及预设框架搭建方式,搭建出多个预测联合姿态框架,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于实时姿态数据查询坐姿预测权重列表,确定出每种坐姿对应的第一预测权重;
确定出每个预测联合姿态框架和每种坐姿对应的标准联合姿态框架的匹配度,将最大匹配度对应的标准联合姿态框架对应的坐姿作为对应预测联合姿态框架的预测坐姿,基于所有预测联合姿态框架的预测坐姿,计算出每种坐姿的第二预测权重;
基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于第一预测权重和第二预测权重计算出每种坐姿的综合预测权重,将综合预测权重最大的坐姿作为目标预测坐姿;
在所有预测联合姿态框架中筛选出预测坐姿为目标预测坐姿的目标预测联合姿态框架,将与对应目标预测坐姿的匹配度最大的目标预测联合姿态框架作为用户和智能眼镜的三维联合姿态框架。
优选的,所述的一种基于智能眼镜的坐姿纠正方法,S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,包括:
计算出三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度;
计算出三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度;
基于偏差度和匹配度计算出纠正系数,判断出纠正系数是否不小于纠正系数阈值,若是,则判定需要发出坐姿纠正的提醒信号,否则,判定不需要发出坐姿纠正的提醒信号。
本发明提供一种基于智能眼镜的坐姿纠正系统,包括:
获取模块,用于获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
搭建模块,用于基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
提醒模块,用于基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于智能眼镜的坐姿纠正方法流程图;
图2为本发明实施例中又一种基于智能眼镜的坐姿纠正方法流程图;
图3为本发明实施例中一种基于智能眼镜的坐姿纠正系统示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种基于智能眼镜的坐姿纠正方法,参考图1,包括:
S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
该实施例中,实时姿态数据即为基于姿态传感器获取的表征智能眼镜的实时姿态的数据,实时姿态数据例如有:智能眼镜的横滚角和俯仰角以及航向角。
该实施例中,智能眼镜即为包含有丰富的智能化功能(例如坐姿纠正功能、无线通信功能等)的眼镜。
该实施例中,通过判定需要发出坐姿纠正的提醒信号时通过控制智能眼镜发出坐姿纠正的提醒信号来提醒用户改变坐姿,进而实现坐姿纠正的功能。
该实施例中,第一定点即为预设的智能眼镜上的固定位置。
该实施例中,第二定点即为预设的用户身体上的固定位置。
该实施例中,实时距离即为实时获取的第一定点和对应的第二定点之间的距离。
该实施例中,三维联合姿态框架即为基于实时姿态数据和实时距离实时搭建出的表征用户当前佩戴智能眼镜的状态下用户的身体姿态和智能眼镜被佩戴的姿态的框架结构。
该实施例中,提醒信号即为用于提醒用户改变坐姿进而达到坐姿纠正目的信号。
以上技术的有益效果为:基于智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,实时搭建出用户和智能眼镜的三维联合姿态框架,并基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,不仅实现了通过搭建出用户身体和智能眼镜的联合姿态框架来对用户的坐姿进行判断纠正,大大提高了坐姿检测纠正的准确度,也实现了对多种不良坐姿的检测和纠正提醒。
实施例2:
在实施例1的基础上,所述的一种基于智能眼镜的坐姿纠正方法,S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,参考图2,包括:
S101:基于设置在智能眼镜上的姿态传感器,获取智能眼镜的实时横滚角和实时俯仰角以及实时航向角作为智能眼镜的实时姿态数据;
S102:基于在智能眼镜上的第一定点处设置的信号发射器和在用户身体上对应的第二定点处设置的信号接收器,实时测量出第一定点和对应的第二定点之间的实时距离。
该实施例中,姿态传感器即为用于实时测量智能眼镜相对于用户在当前环境中标准坐姿下佩戴智能眼镜时智能眼镜在预设的三维空间右手笛卡尔坐标下的位姿的横滚角和俯仰角以及航向角。
该实施例中,实时横滚角即为实时测量智能眼镜与用户在当前环境中标准坐姿下佩戴智能眼镜时智能眼镜在预设的三维空间右手笛卡尔坐标下的位姿相比,以预设的三维空间右手笛卡尔坐标中的横坐标轴为旋转轴发生的旋转角度。
该实施例中,实时俯仰角即为实时测量智能眼镜与用户在当前环境中标准坐姿下佩戴智能眼镜时智能眼镜在预设的三维空间右手笛卡尔坐标下的位姿相比,以预设的三维空间右手笛卡尔坐标中的纵坐标轴为旋转轴发生的旋转角度。
该实施例中,实时航向角即为实时测量智能眼镜与用户在当前环境中标准坐姿下佩戴智能眼镜时智能眼镜在预设的三维空间右手笛卡尔坐标下的位姿相比,以预设的三维空间右手笛卡尔坐标中的竖坐标轴为旋转轴发生的旋转角度。
该实施例中,信号发射器用于向四周发射预设频率的信号;
该实施例中,信号接收器即为用于接收来自任意方向的预设频率的信号;
该实施例中,基于在智能眼镜上的第一定点处设置的信号发射器和在用户身体上对应的第二定点处设置的信号接收器,实时测量出第一定点和对应的第二定点之间的实时距离,即为:
确定出从在智能眼镜上的第一定点处设置的信号发射器发出预设频率的信号,至在用户身体上对应的第二定点处设置的信号接收器接收到预设频率的信号之间的时间间隔,将对应时间间隔和对应预设频率的信号在空中的传播速率的乘积作为第一定点和对应的第二定点之间的实时距离。
以上技术的有益效果为:基于在智能眼镜上的第一定点处设置的信号发射器和在用户身体上对应的第二定点处设置的信号接收器,可以精准测量出智能眼镜上的第一定点和用户身体上的第二定点之间的实时距离,进而为后续搭建出智能眼镜和用户身体的联合姿态框架提供了数据基础。
实施例3:
在实施例2的基础上,所述的一种基于智能眼镜的坐姿纠正方法,
第一定点包括:智能眼镜的左镜腿末端点和智能眼镜的右镜腿末端点;
智能眼镜的左镜腿末端点对应的第二定点为用户的左肩末端点;
智能眼镜的右镜腿末端对应的第二定点为用户的右肩末端点。
该实施例中,智能眼镜的左镜腿末端点即为智能眼镜的左镜腿上与镜片平面距离最远的点。
该实施例中,智能眼镜的右镜腿末端点即为智能眼镜的右镜腿上与镜片平面距离最远的点。
该实施例中,左肩末端点即为左肩的肩峰点。
该实施例中,右肩末端点即为右肩的肩峰点。
以上技术的有益效果为:将第一定点确定为智能眼镜的镜腿末端点,将第二定点确定出用户肩膀的末端点,实现将智能眼镜的姿态与用户身体上的位置的关联,为后续搭建出智能眼镜和用户身体的联合姿态框架提供了数据基础。
实施例4:
在实施例3的基础上,所述的一种基于智能眼镜的坐姿纠正方法,S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架,包括:
获取用户在标准坐姿下佩戴智能眼镜时智能眼镜在预设坐标系下的标准三维模型,基于实时姿态数据对标准三维模型进行旋转操作,获得智能眼镜在预设坐标系下的实时三维模型;
基于实时三维模型确定出第一定点在预设坐标系中的第一坐标值,基于第一坐标值以及第一定点和对应的第二定点之间的实时距离,确定出第二定点的第一预测坐标集合;
获取用户在标准坐姿下佩戴智能眼镜时对应的标准三维联合模型,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
该实施例中,标准三维模型即为表征用户在标准坐姿下佩戴智能眼镜时智能眼镜在预设坐标系下的三维坐标的模型。
该实施例中,预设坐标系即为预设的三维空间右手笛卡尔坐标。
该实施例中,基于实时姿态数据对标准三维模型进行旋转操作,即为:确定出实时姿态数据中的实时横滚角和实时俯仰角以及实时航向角,以预设的三维空间右手笛卡尔坐标的横坐标为旋转轴将标准三维模型旋转实时横滚角的角度,获得第一旋转模型,再以预设的三维空间右手笛卡尔坐标的纵坐标为旋转轴将第一旋转模型旋转实时俯仰角的角度,获得第二旋转模型,再以预设的三维空间右手笛卡尔坐标的竖坐标为旋转轴将第二旋转模型旋转实时航向角的角度,获得智能眼镜在预设坐标系下的实时三维模型。
该实施例中,实时三维模型即为基于实时姿态数据对标准三维模型进行旋转操作后获得的表征智能眼镜在预设的三维空间右手笛卡尔坐标下的实时三维坐标的模型。
该实施例中,第一坐标值即为第一定点在预设坐标系中对应的坐标值。
该实施例中,基于第一坐标值以及第一定点和对应的第二定点之间的实时距离,确定出第二定点的第一预测坐标集合,即为:
将所有与第一定点的第一坐标值的距离为对应实时距离的坐标汇总获得第一预测坐标集合。
该实施例中,标准三维联合模型即为表征用户在标准坐姿下佩戴智能眼镜时用户身体和智能眼镜的三维坐标的模型。
以上技术的有益效果为:基于智能眼睛的实时姿态数据对智能眼镜的标准三维模型进行旋转擦做,进而获得表征智能眼镜的实时三维坐标的实时三维模型,再基于第一定点和第二定点确定出第二定点可能的坐标构成的第一预测坐标集合,进而基于用户在标准坐姿下佩戴智能眼镜时对应的标准三维联合模型和第一预测坐标集合,精准搭建出了表征用户当前佩戴智能眼镜时用户身体和智能眼镜的三维姿态的姿态框架。
实施例5:
在实施例4的基础上,所述的一种基于智能眼镜的坐姿纠正方法,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
在标准三维联合模型中确定出第一定点和对应的第二定点在每个坐标轴方向上的个性化距离差值,基于每个坐标轴方向上的个性化距离差值和对应坐标轴方向的距离差值范围计算方式,计算出第一定点和第二定点在每个坐标轴方向上的个性化距离差值范围,基于每个坐标轴方向上的个性化距离差值范围和第一坐标值,在第一预测坐标集合中筛选出第二定点的第二预测坐标集合;
基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
该实施例中,在标准三维联合模型中确定出第一定点和对应的第二定点在每个坐标轴方向上的个性化距离差值,即为:
确定出标准三维联合模型中第一定点和第二定点的横坐标值差值、纵坐标值差值、竖坐标值差值。
该实施例中,距离差值范围计算方式即为预设的基于对应坐标轴方向上的个性化距离差值计算出对应坐标轴方向上的个性化距离差值范围的方法:
例如:横坐标轴方向上的距离差值范围计算公式为:xfy=[x-11.2,x+15],其中,x为对应坐标轴方向上的个性化距离差值,xfy为对应坐标轴方向上的个性化距离差值范围。
该实施例中,基于每个坐标轴方向上的个性化距离差值范围和第一坐标值,在第一预测坐标集合中筛选出第二定点的第二预测坐标集合,即为:
在第一预测坐标集合中筛选出与第一坐标值在每个坐标轴方向上的距离差值都满足对应坐标轴方向上的个性化距离差值范围的坐标并汇总,获得第二预测坐标集合;
例如,横坐标轴方向上的个性化距离差值范围为[88.8,115],纵坐标轴方向上的个性化距离差值范围为[40,85],竖坐标轴方向上的个性化距离差值范围为[20,40],第一坐标值为(100,20,30),则(200,80,60)与第一坐标值在每个坐标轴方向上的距离差值都满足对应坐标轴方向上的个性化距离差值范围。
以上技术的有益效果为:实现基于第一定点和第二定点在每个坐标轴方向上的个性化距离差值以及每个坐标轴方向上的距离差值范围计算公式,实现对第二定点的第二预测坐标集合的第二次筛选,使得更进一步地精准搭建出表征用户当前佩戴智能眼镜时用户身体和智能眼镜的三维姿态的姿态框架。
实施例6:
在实施例5的基础上,所述的一种基于智能眼镜的坐姿纠正方法,基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
基于标准三维联合模型确定出两个第二定点之间的标准距离,将第二预测坐标集合中与另一个第二预测坐标集合中对应预测坐标值的距离等于标准距离的预测坐标值和对应预测坐标值汇总作为预测坐标表示,获得多个预测坐标表示;
基于实时三维模型的坐标表示和每组预测坐标表示以及预设框架搭建方式,搭建出多个预测联合姿态框架,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
该实施例中,标准距离即为标准三维联合模型中两个定点之间的距离。
该实施例中,预测坐标表示即为包含分别从两个第二预测坐标集合中筛选出的且间隔距离等于标准距离的预测坐标值的坐标表示。
该实施例中,预设框架搭建方式即为预设的搭建出预测联合姿态框架的方式,例如:
从实时三维模型的坐标表示中确定出智能眼镜框架上间隔距离最远的两个点作为第三定点,将两个第三定点在预设坐标系中的坐标点相连,将智能眼镜上的第一定点对应的坐标点与距离最近的第三定点对应的坐标点相连,将预测坐标表示中的两个第二定点对应的坐标点相连,并将两个第三定点的中点位置和预测坐标表示中两个第二定点的中点位置相连,搭建出由六个点构成的预测联合姿态框架。
该实施例中,基于实时三维模型的坐标表示和每组预测坐标表示以及预设框架搭建方式,搭建出多个预测联合姿态框架,即为:基于实时三维模型的坐标表示和每一组预测坐标表示以及预设框架搭建方式搭建出一个预测联合姿态框架,进而基于多组预测坐标表示搭建出多个联合预测姿态框架。
以上技术的有益效果为:实现基于标准三维联合模型中第二定点之间的标准距离,在两个第二预测坐标集合中筛选为互为一组的预测坐标值作为预测坐标表示,并基于多组预测坐标表示和智能眼镜的实时三维模型以及预设框架搭建方式,搭建出多个预测联合姿态框架,实现了基于对经过两次筛选过后获得的预测坐标表示进行关联组合,并结合智能眼镜的实时三维模型,搭建出多组包含精准表征用户和智能眼镜的当前联合姿态的框架结构的多组框架结构,并在此基础上进行筛选,可获得表征用户和智能眼镜的当前联合姿态的框架结构。
实施例7:
在实施例6的基础上,所述的一种基于智能眼镜的坐姿纠正方法,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于实时姿态数据查询坐姿预测权重列表,确定出每种坐姿对应的第一预测权重;
确定出每个预测联合姿态框架和每种坐姿对应的标准联合姿态框架的匹配度,将最大匹配度对应的标准联合姿态框架对应的坐姿作为对应预测联合姿态框架的预测坐姿,基于所有预测联合姿态框架的预测坐姿,计算出每种坐姿的第二预测权重;
基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
该实施例中,坐姿预测权重列表即为预设的包含实时姿态数据中的实时横滚角和实时俯仰角以及实时航向角在不同角度范围时对应的每种坐姿的预测权重(即表征实时姿态数据中的实时横滚角和实时俯仰角以及实时航向角在当角度范围时,用户当前是该种坐姿的可能性的数值)。
该实施例中,第一预测权重即为基于实时姿态数据查询坐姿预测权重列表确定出的当实时姿态数据中的实时横滚角和实时俯仰角以及实时航向角在当角度范围时,表征用户当前是对应坐姿的可能性的数值。
该实施例中,确定出每个预测联合姿态框架和每种坐姿对应的标准联合姿态框架的匹配度,包括:
式中,p1为当前计算的预测联合姿态框架和当前计算的坐姿对应的标准联合姿态框架的匹配度,n为预测联合姿态框架或标准联合姿态框架中包含的定点(包括第一定点和第二定点以及第三定点)总数(因为预测联合姿态框架中包含的定点总数和标准联合姿态框架中包含的定点总数一样),i为预测联合姿态框架或标准联合姿态框架中的第i个定点,为预测联合姿态框架或标准联合姿态框架中除第i个定点以外的当前计算的定点,xi为预测联合姿态框架中的第i个定点的横坐标值,/>为预测联合姿态框架中除第i个定点以外的当前计算的定点的横坐标值,yi为预测联合姿态框架中的第i个定点的纵坐标值,/>为预测联合姿态框架中除第i个定点以外的当前计算的定点的纵坐标值,zi为预测联合姿态框架中的第i个定点的竖坐标值,/>为预测联合姿态框架中除第i个定点以外的当前计算的定点的竖坐标值,xbli为标准联合姿态框架中的第i个定点的横坐标值,/>为标准联合姿态框架中除第i个定点以外的当前计算的定点的横坐标值,ybli为标准联合姿态框架中的第i个定点的纵坐标值,/>为标准联合姿态框架中除第i个定点以外的当前计算的定点的纵坐标值,zbli为标准联合姿态框架中的第i个定点的竖坐标值,/>为标准联合姿态框架中除第i个定点以外的当前计算的定点的竖坐标值;
基于上述公式可以准确计算出每个预测联合姿态框架和每种坐姿对应的标准联合姿态框架的匹配度。
该实施例中,预测坐姿即为最大匹配度对应的标准联合姿态框架对应的坐姿。
该实施例中,基于所有预测联合姿态框架的预测坐姿,计算出每种坐姿的第二预测权重,即为:
确定出所有预测联合姿态框架的预测坐姿中是对应种坐姿的预测坐姿总数,将对应种坐姿的预测坐姿总数和所有预测联合姿态框架的预测坐姿总数的比值作为对应种坐姿的第二预测权重。
该实施例中,第二预测权重即为基于所有预测联合姿态框架的预测坐姿确定出的表征用户当前可能是对应坐姿的可能性的数值。
以上技术的有益效果为:实现基于实时姿态数据查询坐姿预测权重列表确定出表征用户当前是该种坐姿的可能性的第一预测权重,并基于所有预测联合姿态框架的预测坐姿确定出表征用户当前可能是对应坐姿的可能性的第二预测权重,并实现了基于第一预测权重和第二预测权重在所有预测联合姿态框架中筛选出精准表征用户和智能眼镜的当前联合姿态的框架结构。
实施例8:
在实施例7的基础上,所述的一种基于智能眼镜的坐姿纠正方法,基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于第一预测权重和第二预测权重计算出每种坐姿的综合预测权重,将综合预测权重最大的坐姿作为目标预测坐姿;
在所有预测联合姿态框架中筛选出预测坐姿为目标预测坐姿的目标预测联合姿态框架,将与对应目标预测坐姿的匹配度最大的目标预测联合姿态框架作为用户和智能眼镜的三维联合姿态框架。
该实施例中,基于第一预测权重和第二预测权重计算出每种坐姿的综合预测权重,即为:将第一预测权重和第二预测权重的平均值作为对应种坐姿的综合预测权重。
该实施例中,目标预测坐姿即为综合预测权重最大的坐姿。
该实施例中,目标预测联合姿态框架即为在所有预测联合姿态框架中筛选出的预测坐姿为目标预测坐姿的预测联合姿态框架。
以上技术的有益效果为:实现基于第一预测权重和第二预测权重确定出每种坐姿的综合预测权重,并基于综合预测权重筛选出与用户的当前坐姿最贴近的目标预测坐姿,再基于目标预测坐姿实现对所有预测联合姿态框架的第一次筛选,并结合与对应目标预测坐姿的匹配度实现对所有预测联合姿态框架的第二次筛选,进而在所有预测联合姿态框架中精准筛选出保证用户和智能眼镜当前联合姿态的框架结构。
实施例9:
在实施例1的基础上,所述的一种基于智能眼镜的坐姿纠正方法,S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,包括:
计算出三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度;
计算出三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度;
基于偏差度和匹配度计算出纠正系数,判断出纠正系数是否不小于纠正系数阈值,若是,则判定需要发出坐姿纠正的提醒信号,否则,判定不需要发出坐姿纠正的提醒信号。
该实施例中,计算出三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度,包括:
式中,Δp为三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度,m为三维联合姿态框架或第一三维联合框架中包含的定点(包括第一定点和第二定点以及第三定点)总数(因为三维联合姿态框架中包含的定点总数和第一三维联合框架中包含的定点总数一样),j为三维联合姿态框架或第一三维联合框架中的第j个定点,为三维联合姿态框架或第一三维联合框架中除第j个定点以外的当前计算的定点,xj为三维联合姿态框架中的第j个定点的横坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的横坐标值,yj为三维联合姿态框架中的第j个定点的纵坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的纵坐标值,zj为三维联合姿态框架中的第j个定点的竖坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的竖坐标值,xbzj为第一三维联合框架中的第j个定点的横坐标值,/>为第一三维联合框架中除第j个定点以外的当前计算的定点的横坐标值,ybzj为第一三维联合框架中的第j个定点的纵坐标值,/>为第一三维联合框架中除第j个定点以外的当前计算的定点的纵坐标值,zbzj为第一三维联合框架中的第j个定点的竖坐标值,/>为第一三维联合框架中除第j个定点以外的当前计算的定点的竖坐标值;
基于以上公式可以准确计算出三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度。
该实施例中,待纠正坐姿即为预设的需要纠正的坐姿,例如托腮坐姿、趴坐姿,驼背坐姿等。
该实施例中,第一三维联合框架即为表征用户在标准坐姿下佩戴智能眼镜时用户身体和智能眼镜的三维联合姿态的框架结构。
该实施例中,第二三维联合框架即为表征用户在对应种待纠正坐姿下佩戴智能眼镜时用户身体和智能眼镜的三维联合姿态的框架结构。
该实施例中,计算出三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度,包括:
式中,p2为三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度,m为三维联合姿态框架或第二三维联合框架中包含的定点(包括第一定点和第二定点以及第三定点)总数(因为三维联合姿态框架中包含的定点总数和第二三维联合框架中包含的定点总数一样),j为三维联合姿态框架或第二三维联合框架中的第j个定点,为三维联合姿态框架或第二三维联合框架中除第j个定点以外的当前计算的定点,xj为三维联合姿态框架中的第j个定点的横坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的横坐标值,yj为三维联合姿态框架中的第j个定点的纵坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的纵坐标值,zj为三维联合姿态框架中的第j个定点的竖坐标值,/>为三维联合姿态框架中除第j个定点以外的当前计算的定点的竖坐标值,xdj为第二三维联合框架中的第j个定点的横坐标值,/>为第二三维联合框架中除第j个定点以外的当前计算的定点的横坐标值,ydj为第二三维联合框架中的第j个定点的纵坐标值,/>为第二三维联合框架中除第j个定点以外的当前计算的定点的纵坐标值,zdj为第二三维联合框架中的第j个定点的竖坐标值,/>为第二三维联合框架中除第j个定点以外的当前计算的定点的竖坐标值;
基于以上公式可以准确计算出三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度。
该实施例中,基于偏差度和匹配度计算出纠正系数,包括:
式中,∈为纠正系数,Δp为偏差度,p为第p种待纠正坐姿,q为待纠正坐姿的种类总数,p2p为三维联合姿态框架和第p种待纠正坐姿对应的第二三维联合框架的匹配度;
基于以上公式可以准确计算出用户当前坐姿的纠正系数。
该实施例中,纠正系数阈值即为判定需要发出坐姿纠正的提醒信号时的最小纠正系数。
以上技术的有益效果为:实现将三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时智能眼镜的第一三维联合框架的偏差度以及三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度计算出的纠正系数与纠正系数阈值进行比较,判断出是否需要发出坐姿纠正的提醒信号,进而实现对用户的当前坐姿是否需要进行纠正做出了精准判断。
实施例10:
本发明提供了一种基于智能眼镜的坐姿纠正系统,参考图3,包括:
获取模块,用于获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
搭建模块,用于基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
提醒模块,用于基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
以上技术的有益效果为:基于智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,实时搭建出用户和智能眼镜的三维联合姿态框架,并基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,不仅实现了通过搭建出用户身体和智能眼镜的联合姿态框架来对用户的坐姿进行判断纠正,大大提高了坐姿检测纠正的准确度,也实现了对多种不良坐姿的检测和纠正提醒。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于智能眼镜的坐姿纠正方法,其特征在于,包括:
S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
2.根据权利要求1所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,S1:获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离,包括:
S101:基于设置在智能眼镜上的姿态传感器,获取智能眼镜的实时横滚角和实时俯仰角以及实时航向角作为智能眼镜的实时姿态数据;
S102:基于在智能眼镜上的第一定点处设置的信号发射器和在用户身体上对应的第二定点处设置的信号接收器,实时测量出第一定点和对应的第二定点之间的实时距离。
3.根据权利要求2所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,
第一定点包括:智能眼镜的左镜腿末端点和智能眼镜的右镜腿末端点;
智能眼镜的左镜腿末端点对应的第二定点为用户的左肩末端点;
智能眼镜的右镜腿末端对应的第二定点为用户的右肩末端点。
4.根据权利要求3所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,S2:基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架,包括:
获取用户在标准坐姿下佩戴智能眼镜时智能眼镜在预设坐标系下的标准三维模型,基于实时姿态数据对标准三维模型进行旋转操作,获得智能眼镜在预设坐标系下的实时三维模型;
基于实时三维模型确定出第一定点在预设坐标系中的第一坐标值,基于第一坐标值以及第一定点和对应的第二定点之间的实时距离,确定出第二定点的第一预测坐标集合;
获取用户在标准坐姿下佩戴智能眼镜时对应的标准三维联合模型,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
5.根据权利要求4所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,基于标准三维联合模型和第一预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
在标准三维联合模型中确定出第一定点和对应的第二定点在每个坐标轴方向上的个性化距离差值,基于每个坐标轴方向上的个性化距离差值和对应坐标轴方向的距离差值范围计算方式,计算出第一定点和第二定点在每个坐标轴方向上的个性化距离差值范围,基于每个坐标轴方向上的个性化距离差值范围和第一坐标值,在第一预测坐标集合中筛选出第二定点的第二预测坐标集合;
基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架。
6.根据权利要求5所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,基于标准三维联合模型和第二预测坐标集合搭建出用户和智能眼镜的三维联合姿态框架,包括:
基于标准三维联合模型确定出两个第二定点之间的标准距离,将第二预测坐标集合中与另一个第二预测坐标集合中对应预测坐标值的距离等于标准距离的预测坐标值和对应预测坐标值汇总作为预测坐标表示,获得多个预测坐标表示;
基于实时三维模型的坐标表示和每组预测坐标表示以及预设框架搭建方式,搭建出多个预测联合姿态框架,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
7.根据权利要求6所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于实时姿态数据查询坐姿预测权重列表,确定出每种坐姿对应的第一预测权重;
确定出每个预测联合姿态框架和每种坐姿对应的标准联合姿态框架的匹配度,将最大匹配度对应的标准联合姿态框架对应的坐姿作为对应预测联合姿态框架的预测坐姿,基于所有预测联合姿态框架的预测坐姿,计算出每种坐姿的第二预测权重;
基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架。
8.根据权利要求7所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,基于第一预测权重和第二预测权重,在所有预测联合姿态框架中筛选出用户和智能眼镜的三维联合姿态框架,包括:
基于第一预测权重和第二预测权重计算出每种坐姿的综合预测权重,将综合预测权重最大的坐姿作为目标预测坐姿;
在所有预测联合姿态框架中筛选出预测坐姿为目标预测坐姿的目标预测联合姿态框架,将与对应目标预测坐姿的匹配度最大的目标预测联合姿态框架作为用户和智能眼镜的三维联合姿态框架。
9.根据权利要求1所述的一种基于智能眼镜的坐姿纠正方法,其特征在于,S3:基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号,包括:
计算出三维联合姿态框架和用户在标准坐姿下佩戴智能眼镜时的第一三维联合框架的偏差度;
计算出三维联合姿态框架和每种待纠正坐姿对应的第二三维联合框架的匹配度;
基于偏差度和匹配度计算出纠正系数,判断出纠正系数是否不小于纠正系数阈值,若是,则判定需要发出坐姿纠正的提醒信号,否则,判定不需要发出坐姿纠正的提醒信号。
10.一种基于智能眼镜的坐姿纠正系统,其特征在于,包括:
获取模块,用于获取智能眼镜的实时姿态数据以及智能眼镜上的第一定点和用户身体上对应的第二定点之间的实时距离;
搭建模块,用于基于实时姿态数据和实时距离实时搭建出用户和智能眼镜的三维联合姿态框架;
提醒模块,用于基于三维联合姿态框架判断出是否需要发出坐姿纠正的提醒信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311240068.2A CN117292520B (zh) | 2023-09-25 | 一种基于智能眼镜的坐姿纠正方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311240068.2A CN117292520B (zh) | 2023-09-25 | 一种基于智能眼镜的坐姿纠正方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117292520A true CN117292520A (zh) | 2023-12-26 |
CN117292520B CN117292520B (zh) | 2024-05-14 |
Family
ID=
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037611A (zh) * | 2017-06-05 | 2017-08-11 | 重庆医科大学附属永川医院 | 可调节阅读坐姿的眼镜 |
WO2019021356A1 (ja) * | 2017-07-25 | 2019-01-31 | 株式会社E3 | 凝り誘発姿勢検出装置 |
CN111444748A (zh) * | 2019-01-17 | 2020-07-24 | 北京字节跳动网络技术有限公司 | 一种坐姿检测方法、装置、设备及存储介质 |
CN115050102A (zh) * | 2022-07-19 | 2022-09-13 | 润芯微科技(江苏)有限公司 | 移动设备规范坐姿分析处理方法、系统及其存储介质 |
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107037611A (zh) * | 2017-06-05 | 2017-08-11 | 重庆医科大学附属永川医院 | 可调节阅读坐姿的眼镜 |
WO2019021356A1 (ja) * | 2017-07-25 | 2019-01-31 | 株式会社E3 | 凝り誘発姿勢検出装置 |
CN111444748A (zh) * | 2019-01-17 | 2020-07-24 | 北京字节跳动网络技术有限公司 | 一种坐姿检测方法、装置、设备及存储介质 |
CN115050102A (zh) * | 2022-07-19 | 2022-09-13 | 润芯微科技(江苏)有限公司 | 移动设备规范坐姿分析处理方法、系统及其存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9288556B2 (en) | Method and apparatus for measuring body balance of wearable device | |
EP1747750B1 (en) | Method and device for determining the visual behaviour of a person and method of customising a spectacle lens | |
CN109413578A (zh) | 一种基于wifi与pdr融合的室内定位方法 | |
CN106937377B (zh) | 一种针对监测目标实现分级定位的方法、装置及设备 | |
CN109844460B (zh) | 一种步幅校准方法、相关设备及系统 | |
TWI699545B (zh) | 電子裝置、追蹤系統及追蹤方法 | |
CN202568277U (zh) | 疲劳检测装置 | |
CN105975967A (zh) | 一种目标定位方法和系统 | |
CN104127188A (zh) | 一种颈部运动量监控方法及设备 | |
CN107148080B (zh) | 一种基于海伦公式计算面积残差的二次规划定位方法 | |
CN112766113B (zh) | 一种路口检测方法、装置、设备及存储介质 | |
CN111999999B (zh) | 一种可纠正坐姿的儿童智能手表及纠正方法 | |
CN117292520B (zh) | 一种基于智能眼镜的坐姿纠正方法及系统 | |
CN112353493A (zh) | 髋关节脱位三联截骨术坐骨截骨3d打印导航系统及方法 | |
CN113063411A (zh) | 外骨骼评价系统及其使用方法 | |
CN117292520A (zh) | 一种基于智能眼镜的坐姿纠正方法及系统 | |
CN110366388A (zh) | 信息处理方法、信息处理装置以及程序 | |
CN117372515A (zh) | 一种自适应纠偏控制系统 | |
CN111214235A (zh) | 一种人体活动量监测方法及装置 | |
CN110381580B (zh) | 一种基于比例优化的WiFi定位方法 | |
CN109362036A (zh) | 一种基于图像与wifi相结合的多模态室内定位方法 | |
CN112861900B (zh) | 影像系统及检测方法 | |
CN112378033A (zh) | 空调器控制方法及系统 | |
TWI770919B (zh) | 物件定位辨識系統及其方法 | |
CN109660863A (zh) | 视觉关注区域检测方法、装置、设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |