CN111443809B - 一种颈部姿态检测方法、装置、终端及存储介质 - Google Patents
一种颈部姿态检测方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN111443809B CN111443809B CN202010235708.0A CN202010235708A CN111443809B CN 111443809 B CN111443809 B CN 111443809B CN 202010235708 A CN202010235708 A CN 202010235708A CN 111443809 B CN111443809 B CN 111443809B
- Authority
- CN
- China
- Prior art keywords
- neck
- user
- reference point
- pose
- included angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 description 20
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000149 penetrating effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种颈部姿态检测方法、装置、终端及存储介质,该方法包括:获取用户佩戴于头部的第一装置的多个第一参考点;获取用户佩戴于颈部的第二装置的多个第二参考点;根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。本发明的技术方案实现便于获取用户颈部姿态。
Description
技术领域
本发明实施例涉及智能眼镜领域,尤其涉及一种颈部姿态检测方法、装置、终端及存储介质。
背景技术
现有的AR眼镜(如HoloLens,Google Glass)都是集成式单体设计,或者是简单的分体设计(如Magic Leap),这些设计没有考虑到未来的一种技术需求,即没有预估用户颈部姿态,无法判定用户的颈部姿态是否处于正常情况。
发明内容
本发明提供一种颈部姿态检测方法、装置、终端及存储介质,以实现便于获取用户颈部姿态。
第一方面,本发明实施例提供了种颈部姿态检测方法,包括:
获取用户佩戴于头部的第一装置的多个第一参考点;
获取用户佩戴于颈部的第二装置的多个第二参考点;
根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
第二方面,本发明实施例还提供了一种颈部姿态检测装置,包括:
第一参考点获取模块,用于获取用户佩戴于头部的第一装置的多个第一参考点;
第二参考点获取模块,用于获取用户佩戴于颈部的第二装置的多个第二参考点;
颈部姿态确定模块,用于根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
第三方面,本发明实施例还提供了一种终端,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述的颈部姿态检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述的颈部姿态检测方法。
本发明的技术方案通过获取用户佩戴于头部的第一装置的多个第一参考点;获取用户佩戴于颈部的第二装置的多个第二参考点;根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态,解决了现有智能眼镜中没有检测用户颈部位置的问题,达到了便于获取用户颈部姿态的效果。
附图说明
图1是本发明实施例一中的颈部姿态检测方法的流程图。
图2是本发明实施例一中的颈部与头部、身体的平面的示意图。
图3是本发明实施例二中的颈部姿态检测方法的流程图。
图4是本发明实施例三中的颈部姿态检测装置的结构示意图
图5是本发明实施例四中的终端的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
此外,术语“第一”、“第二”等可在本文中用于描述各种方向、动作、步骤或元件等,但这些方向、动作、步骤或元件不受这些术语限制。这些术语仅用于将第一个方向、动作、步骤或元件与另一个方向、动作、步骤或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一装置为第二装置,且类似地,可将第二装置称为第一装置。第一装置和第二装置两者都是装置,但其不是同一装置。术语“第一”、“第二”等而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
实施例一
图1为本发明实施例一提供的颈部姿态检测方法的流程图,本实施例可适用于颈部姿态检测情况,该方法具体包括如下步骤:
S110、获取用户佩戴于头部的第一装置的多个第一参考点。
本实施例中,第一参考点为设计人员在第一装置上设置的测距传感器的安放位置,可以根据测距传感器检测第一参考点之间的相对距离。本实施例中的测距传感器可以使用UWB(超宽带)测距技术,基于一对模块使用高频电磁脉冲进行测距,超宽带技术是一种全新的、与传统通信技术有极大差异的通信新技术。它不需要使用传统通信体制中的载波,而是通过发送和接收具有纳秒或纳秒级以下的极窄脉冲来传输数据,从而具有GHz量级的带宽。超宽带系统与传统的窄带系统相比,具有穿透力强、功耗低、抗多径效果好、安全性高、系统复杂度低、能提供精确定位精度等优点。因此,超宽带技术可以应用于室内静止或者移动物体以及人的定位跟踪与导航,且能提供十分精确的定位精度,并且容易小型化,成本偏低。
S120、获取用户佩戴于颈部的第二装置的多个第二参考点。
本实施例中,第二参考点为设计人员在第二装置上设置的测距传感器的安放位置,可以根据测距传感器检测第一参考点与第二参考点之间的相对距离。第二参考点可以为一个也可以为多个,多个第二参考点可以减少颈部姿态检测的误差。本实施例可以应用于AR智能眼镜中,则第一装置为眼镜主体,第二装置为项圈,该智能眼镜还包括连接线以连接眼镜主体与项圈,项圈为U型或O型,设置于镜框上的显示屏可以显示待显示信息。待显示信息可以是视频信息、图像信息和/或文字信息。用户在需要使用智能眼镜时,将项圈套在脖颈处,并且佩戴眼镜主体,开启相应的开关即可使用智能眼镜。
S130、根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
本实施例中,通过测量AR眼镜与项圈上第一参考点和第二参考点之间的相对距离,可以通过几何运算,计算出用户颈部与头部的相对位置和颈部与用户身体的相对位置,来预估佩戴智能眼镜的用户的颈部姿态。可选的,所述根据所述第一参考点和第二参考点之间相对距离确定所述用户的颈部姿态包括:根据所述相对距离计算所述预设参考平面与所述多个第一参考点定义的第一平面的第一夹角,所述第一夹角用于定义所述颈部与所述头部的第一相对位置,所述预设参考平面为基于所述第一参考点和所述第二参考点定义的平面;根据所述相对距离计算所述预设参考平面与所述多个第二参考点定义的第二平面的第二夹角,所述第二夹角用于定义所述颈部与用户身体的第二相对位置;根据所述第一相对位置和所述第二相对位置确定所述用户的颈部姿态。
本实施例中,如图2所示的颈部与头部、身体的平面的示意图,基于至少4个参考点,包括第一装置上的参考点H、I、J点和第二装置上的G点,H、I、J参考点确定的平面即第一装置所处的平面FECB,G点所在的平面为第二装置所处平面ABCD,即根据第二装置内置的陀螺仪确定平面ABCD的平面方向以及根据G点位置确定平面ABCD的平面位置。平面HIG平行与用户颈部所处平面,这样平面HIG于平面FECB的夹角可以近似为用户颈部与头部的夹角,平面HIG与平面ABCD的夹角可以近似为用户颈部与身体的夹角。
基于HI平行BC时,
|JH|,|JI|,|IH|,|JG|,|GI|,|GH|可以通过测距传感器获得,处于同一平面的点之间的距离也可以直接使用预先测量的数据。示例性的,在智能眼镜的结构相对固定,即没有太多活动件或者调整空间的时候,同一个平面上的点之间的距离可以不用测量,直接定为预设值即可,这样可以减少计算,节省电量。
已知FE∥CB,AD∥CB,HI∥BC,ABCD和FECB是矩形,作JL⊥HI,GM⊥HI,NM∥JL,
假设|JL|=a,|HL|=b,即|LI|=|HI|-b,
a2+b2=|JH|2,(|HI|-b)2+a2=|JI|2,
即可求出|JL|和|HL|。
基于相同方式可以求出|HM|和|MG|。
由于已知|NG|,|NM|和|MG|,由余弦定理可求∠NMG,即平面HIG与平面FECB的夹角。
由于∠NMG和平面HIG与平面ABCD的夹角互为补角,平面HIG与平面ABCD的夹角可求。
本实施例可以根据预设的角度对照表匹配颈部姿势。
本实施例只考虑了当HI平行于CB时的情况,但是更复杂的情况下如果用简单情况的假设会有一定误差,而这些误差可以通过增加测距点来减少,也可以用几何的计算来修正。示例性的,可以通过使用增加测距点的方式来减小误差,提高预估精度。一般的,如果FECB平面上有n(n>=3)个测距点,ABCD上有m个测试点,那么至少可以有个平行于用户颈部的平面(如HIG)来估计用户颈部的位置来提高颈部姿态的预测精度。
本发明实施例的技术方案通过获取用户佩戴于头部的第一装置的多个第一参考点;获取用户佩戴于颈部的第二装置的多个第二参考点;根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态,解决了现有智能眼镜中没有检测用户颈部位置的问题,达到了便于获取用户颈部姿态的效果。
实施例二
图3为本发明实施例二提供的颈部姿态检测方法的流程图,本实施例在上述实施例的基础上进一步优化,该方法具体包括:
S210、获取用户佩戴于头部的第一装置的多个第一参考点。
本实施例中,第一参考点为设计人员在第一装置上设置的测距传感器的安放位置,可以根据测距传感器检测第一参考点之间的相对距离。
S220、获取用户佩戴于颈部的第二装置的多个第二参考点。
本实施例中,第二参考点为设计人员在第二装置上设置的测距传感器的安放位置,可以根据测距传感器检测第一参考点与第二参考点之间的相对距离。
S230、根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
本实施例中,通过测量AR眼镜与项圈上第一参考点和第二参考点之间的相对距离,可以通过几何运算,计算出用户颈部与头部的相对位置和颈部与用户身体的相对位置,来预估佩戴智能眼镜的用户的颈部姿态。可选的,所述根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态之后,还包括:基于预设时间内获得的所述颈部姿态训练颈部姿态身份模型。在所述预设时间内基于未知用户获得的所述颈部姿态与所述颈部姿态身份模型进行匹配以识别用户身份。
本实施例中,颈部和身体的相对位置是跟身体的姿态有着紧密的潜在联系的,常规的,身边的人在步行、端坐或者做运动的时候下意识的相对位置的变化具有一定的范围或者具有一定的规律。这种隐藏的规律可以辅助用于预估用户的姿态。而与步态分析进行模式识别来识别用户类似,一段时间内用户的颈部姿态,特别是走动时的颈部姿态的变化反映出了用户潜在的习惯(也就是模式)。我们可以通过步态识别类似的方法,使用深度学习,识别出这种颈部姿态的变化模式并训练成神经网络模型,进而识别用户身份。可选的,所述根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态包括:根据位于所述第一参考点和所述第二参考点的多个测距传感器获取所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
本实施例中的测距传感器可以使用UWB(超宽带)测距技术,基于一对模块使用高频电磁脉冲进行测距,具有穿透力强、功耗低、抗多径效果好、安全性高、系统复杂度低、能提供精确定位精度等优点。
S240、如果所述颈部姿态处于预设低头状态,则对用户进行提醒。
本实施例中,预设低头状态为预设时间阈值内检测到用户的颈部状态长时间处于低头或者颈部处于不当位置的状态。当检测到用户的颈部姿态为预设低头状态时,则启动护颈模式,可以进行语音提醒用户进行调整,也可以通眼镜主体的显示屏上进行文字提醒,或者通过显示屏上的演示引导用户调整颈部姿态。可选的,根据天线接收的无线信号进行信息显示。
本实施例中,通过天线接收的无线信号进行信息显示,解决了智能眼镜使用场所局限的问题,可以通过WIFI或者蓝牙等随时接收服务器发送的待显示信息,达到了智能眼镜随身携带,随时随地进行使用的效果,提高了智能眼镜的适应性。可选的,所述天线包括设置在所述第一装置的第一天线和/或设置在所述第二装置的第二天线。
本实施例中,天线包括设置在所述项圈内部的第一天线、设置在眼镜中的第二天线和/或设置在连接线中的第三天线。第一天线、第二天线和第三天线可以两种以上同时存在,可以根据用户当前的感应到的信号强弱选择信号较好的天线接收和/或发送无线信号,也可以只选择其中一种。在一些实施例中,还也可以将第一天线、第二天线和第三天线中至少两条连接组成同一条天线接收和/或发送无线信号以提高信号强度,此处不做限制。
本发明实施例的技术方案通过获取用户佩戴于头部的第一装置的多个第一参考点;获取用户佩戴于颈部的第二装置的多个第二参考点;根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态;如果所述颈部姿态处于预设低头状态,则对用户进行提醒,解决了现有智能眼镜没有检测用户颈部状态的问题,达到了保护用户颈部的效果。
实施例三
图4所示为本发明实施例三提供的颈部姿态检测装置300的结构示意图,本实施例可适用于颈部姿态检测情况,具体结构如下:
第一参考点获取模块310,用于获取用户佩戴于头部的第一装置的多个第一参考点;
第二参考点获取模块320,用于获取用户佩戴于颈部的第二装置的多个第二参考点;
颈部姿态确定模块330,用于根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
可选的,颈部姿态确定模块330包括第一夹角计算单元、第二夹角计算单元和颈部姿态确定单元:
第一夹角计算单元用于根据所述相对距离计算所述预设参考平面与所述多个第一参考点定义的第一平面的第一夹角,所述第一夹角用于定义所述颈部与所述头部的第一相对位置,所述预设参考平面为基于所述第一参考点和所述第二参考点定义的平面;
第二夹角计算单元用于根据所述相对距离计算所述预设参考平面与所述多个第二参考点定义的第二平面的第二夹角,所述第二夹角用于定义所述颈部与用户身体的第二相对位置;
颈部姿态确定单元用于根据所述第一相对位置和所述第二相对位置确定所述用户的颈部姿态。
可选的,装置300还包括提醒模块,用于如果所述颈部姿态处于预设低头状态,则对用户进行提醒。
可选的,装置300还包括模型训练模块和身份匹配模块:
模型训练模块用于基于预设时间内获得的所述颈部姿态训练颈部姿态身份模型。
身份匹配模块用于在所述预设时间内基于未知用户获得的所述颈部姿态与所述颈部姿态身份模型进行匹配以识别用户身份。
可选的,颈部姿态确定模块330包括根据位于所述第一参考点和所述第二参考点的多个测距传感器获取所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
可选的,装置300还包括信息显示模块,用于根据天线接收的无线信号进行信息显示。
可选的,所述天线包括设置在所述第一装置的第一天线和/或设置在所述第二装置的第二天线。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
实施例四
图5是本发明实施例四提供的一种终端的结构示意图。图5示出了适于用来实现本发明实施方式的示例性终端412的框图。图5显示的终端412仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,终端412以通用终端的形式表现。终端412的组件可以包括但不限于:一个或者多个处理器416,存储装置428,连接不同系统组件(包括存储装置428和处理器416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry SubversiveAlliance,ISA)总线,微通道体系结构(Micro Channel Architecture,MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
终端412典型地包括多种计算机系统可读介质。这些介质可以是任何能够被终端412访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置428可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)430和/或高速缓存存储器432。终端412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统434可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘,例如只读光盘(Compact Disc Read-Only Memory,CD-ROM),数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储装置428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储装置428中,这样的程序模块442包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本发明所描述的实施例中的功能和/或方法。
终端412也可以与一个或多个外部终端414(例如键盘、指向终端、显示器424等)通信,还可与一个或者多个使得用户能与该终端412交互的终端通信,和/或与使得该终端412能与一个或多个其它计算终端进行通信的任何终端(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口422进行。并且,终端412还可以通过网络适配器420与一个或者多个网络(例如局域网(Local Area Network,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器420通过总线418与终端412的其它模块通信。应当明白,尽管图中未示出,可以结合终端412使用其它硬件和/或软件模块,包括但不限于:微代码、终端驱动器、冗余处理器、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of Independent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器416通过运行存储在存储装置428中的程序,从而执行各种功能应用以及数据处理,例如实现本发明任意实施例所提供的一种颈部姿态检测方法方法,该方法可以包括:
提获取用户佩戴于头部的第一装置的多个第一参考点;
获取用户佩戴于颈部的第二装置的多个第二参考点;
根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的一种颈部姿态检测方法方法,该方法可以包括:
获取用户佩戴于头部的第一装置的多个第一参考点;
获取用户佩戴于颈部的第二装置的多个第二参考点;
根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
存储介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种颈部姿态检测方法,其特征在于,包括:
获取用户佩戴于头部的第一装置的多个第一参考点;
获取用户佩戴于颈部的第二装置的多个第二参考点;
根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态;
所述根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态包括:
根据所述相对距离计算预设参考平面与所述多个第一参考点定义的第一平面的第一夹角,所述第一夹角用于定义所述颈部与所述头部的第一相对位置,所述预设参考平面为基于所述第一参考点和所述第二参考点定义的平面;
根据所述相对距离计算所述预设参考平面与所述多个第二参考点定义的第二平面的第二夹角,所述第二夹角用于定义所述颈部与用户身体的第二相对位置;
根据所述第一相对位置和所述第二相对位置确定所述用户的颈部姿态;
所述根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态之后,还包括:
基于预设时间内获得的所述颈部姿态训练颈部姿态身份模型;
在所述预设时间内基于未知用户获得的所述颈部姿态与所述颈部姿态身份模型进行匹配以识别用户身份。
2.根据权利要求1所述的颈部姿态检测方法,其特征在于,在根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态之后,还包括:
如果所述颈部姿态处于预设低头状态,则对用户进行提醒。
3.根据权利要求1所述的颈部姿态检测方法,其特征在于,还包括:所述根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态包括:
根据位于所述第一参考点和所述第二参考点的多个测距传感器获取所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态。
4.根据权利要求1所述的颈部姿态检测方法,其特征在于,进一步包括:
根据天线接收的无线信号进行信息显示。
5.根据权利要求4所述的颈部姿态检测方法,其特征在于,所述天线包括设置在所述第一装置的第一天线和/或设置在所述第二装置的第二天线。
6.一种颈部姿态检测装置,其特征在于,包括:
第一参考点获取模块,用于获取用户佩戴于头部的第一装置的多个第一参考点;
第二参考点获取模块,用于获取用户佩戴于颈部的第二装置的多个第二参考点;
颈部姿态确定模块,用于根据所述第一参考点和所述第二参考点之间的相对距离确定所述用户的颈部姿态;
所述颈部姿态确定模块包括第一夹角计算单元、第二夹角计算单元和颈部姿态确定单元;其中,
所述第一夹角计算单元用于根据所述相对距离计算预设参考平面与所述多个第一参考点定义的第一平面的第一夹角,所述第一夹角用于定义所述颈部与所述头部的第一相对位置,所述预设参考平面为基于所述第一参考点和所述第二参考点定义的平面;
所述第二夹角计算单元用于根据所述相对距离计算所述预设参考平面与所述多个第二参考点定义的第二平面的第二夹角,所述第二夹角用于定义所述颈部与用户身体的第二相对位置;
所述颈部姿态确定单元用于根据所述第一相对位置和所述第二相对位置确定所述用户的颈部姿态;
模型训练模块用于基于预设时间内获得的所述颈部姿态训练颈部姿态身份模型;
身份匹配模块用于在所述预设时间内基于未知用户获得的所述颈部姿态与所述颈部姿态身份模型进行匹配以识别用户身份。
7.一种终端,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的颈部姿态检测方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的颈部姿态检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010235708.0A CN111443809B (zh) | 2020-03-30 | 2020-03-30 | 一种颈部姿态检测方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010235708.0A CN111443809B (zh) | 2020-03-30 | 2020-03-30 | 一种颈部姿态检测方法、装置、终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111443809A CN111443809A (zh) | 2020-07-24 |
CN111443809B true CN111443809B (zh) | 2023-06-16 |
Family
ID=71649263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010235708.0A Active CN111443809B (zh) | 2020-03-30 | 2020-03-30 | 一种颈部姿态检测方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111443809B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112914811B (zh) * | 2021-01-22 | 2023-05-09 | 首都医科大学宣武医院 | 一种便于监测患者病情的新型颈托 |
CN113286220B (zh) * | 2021-05-31 | 2022-09-20 | 潍坊歌尔电子有限公司 | 佩戴状态的检测方法、穿戴设备及计算机可读存储介质 |
CN114661152B (zh) * | 2022-03-16 | 2022-12-20 | 北京伊园未来科技有限公司 | 一种降低视觉疲劳的ar显示控制系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105997090A (zh) * | 2016-04-29 | 2016-10-12 | 乐视控股(北京)有限公司 | 头颈姿势监测方法、装置 |
CN106293023A (zh) * | 2015-05-21 | 2017-01-04 | 北京智谷睿拓技术服务有限公司 | 姿态确定方法和设备 |
CN106344030A (zh) * | 2016-08-30 | 2017-01-25 | 苏州品诺维新医疗科技有限公司 | 一种姿势矫正方法和装置 |
CN106372294A (zh) * | 2016-08-30 | 2017-02-01 | 苏州品诺维新医疗科技有限公司 | 一种姿势矫正方法和装置 |
CN109618263A (zh) * | 2019-02-14 | 2019-04-12 | 歌尔科技有限公司 | 头/颈部倾角检测方法、装置、系统及无线耳机控制器 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180228403A1 (en) * | 2017-02-13 | 2018-08-16 | Conghua Li | Wearable aparatus for monitoring head posture, and method of using the same |
-
2020
- 2020-03-30 CN CN202010235708.0A patent/CN111443809B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106293023A (zh) * | 2015-05-21 | 2017-01-04 | 北京智谷睿拓技术服务有限公司 | 姿态确定方法和设备 |
CN105997090A (zh) * | 2016-04-29 | 2016-10-12 | 乐视控股(北京)有限公司 | 头颈姿势监测方法、装置 |
CN106344030A (zh) * | 2016-08-30 | 2017-01-25 | 苏州品诺维新医疗科技有限公司 | 一种姿势矫正方法和装置 |
CN106372294A (zh) * | 2016-08-30 | 2017-02-01 | 苏州品诺维新医疗科技有限公司 | 一种姿势矫正方法和装置 |
CN109618263A (zh) * | 2019-02-14 | 2019-04-12 | 歌尔科技有限公司 | 头/颈部倾角检测方法、装置、系统及无线耳机控制器 |
Non-Patent Citations (1)
Title |
---|
韩婉婉 ; 姜楠 ; 张超 ; .穿戴式颈部姿态预防矫正仪设计探讨.中国高新技术企业.2015,(19),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111443809A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111443809B (zh) | 一种颈部姿态检测方法、装置、终端及存储介质 | |
CN108388390B (zh) | 控制指纹传感器的设备和方法 | |
US9781570B2 (en) | Method and apparatus for estimating location of electronic device | |
US10761650B2 (en) | Touch sensing device for determining information related to pen, control method therefor, and pen | |
US9372540B2 (en) | Method and electronic device for gesture recognition | |
KR102442098B1 (ko) | 벤디드 디스플레이를 포함하는 전자 장치 및 그것을 통한 이미지 표시 방법 | |
CN109886308B (zh) | 一种基于目标级别的双传感器数据融合方法和装置 | |
US20170146970A1 (en) | Method and apparatus for operating electronic device based on environmental information | |
US20180004324A1 (en) | Touch sensing device, pen, and method for measuring position | |
US20150324004A1 (en) | Electronic device and method for recognizing gesture by electronic device | |
KR20180017606A (ko) | 차량의 주차 위치 정보를 제공하기 위한 방법 및 그 전자 장치 | |
US9882322B2 (en) | Connector and electronic device including the same | |
US20190339856A1 (en) | Electronic device and touch gesture control method thereof | |
US11222729B2 (en) | Electronic device and method for providing stress index corresponding to activity of user | |
US10088473B2 (en) | Bio marker detection device, electronic device, and method for generating health information | |
KR20160103398A (ko) | 이미지의 품질 측정 방법 및 장치 | |
EP3316111A1 (en) | Method for controlling touch sensing module of electronic device, electronic device, method for operating touch sensing module provided in electronic device, and touch sensing module | |
US10004411B2 (en) | Living body determination devices and methods | |
CN108362310B (zh) | 地磁精确度的确定方法、装置、存储介质及终端 | |
KR20180097360A (ko) | 복수의 생체 센서를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법 | |
KR20180063538A (ko) | Poi 정보를 제공하는 방법 및 이를 지원하는 전자 장치 | |
EP3381369B1 (en) | Electronic device and method for measuring biometric information | |
CN111610869B (zh) | 触控笔、电子设备和控制方法 | |
KR20180040966A (ko) | 데이터를 송신하는 전자 장치 및 그 제어 방법 | |
US20180286089A1 (en) | Electronic device and method for providing colorable content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |