CN110859630B - 一种基于ar技术的姿态矫正器及其矫正方法 - Google Patents

一种基于ar技术的姿态矫正器及其矫正方法 Download PDF

Info

Publication number
CN110859630B
CN110859630B CN201911171896.9A CN201911171896A CN110859630B CN 110859630 B CN110859630 B CN 110859630B CN 201911171896 A CN201911171896 A CN 201911171896A CN 110859630 B CN110859630 B CN 110859630B
Authority
CN
China
Prior art keywords
posture
user
virtual
current
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911171896.9A
Other languages
English (en)
Other versions
CN110859630A (zh
Inventor
房晓俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tapuyihai Shanghai Intelligent Technology Co ltd
Original Assignee
Tapuyihai Shanghai Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tapuyihai Shanghai Intelligent Technology Co ltd filed Critical Tapuyihai Shanghai Intelligent Technology Co ltd
Priority to CN201911171896.9A priority Critical patent/CN110859630B/zh
Publication of CN110859630A publication Critical patent/CN110859630A/zh
Application granted granted Critical
Publication of CN110859630B publication Critical patent/CN110859630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Abstract

本发明公开了一种基于AR技术的姿态矫正器及其矫正方法,其中,基于AR技术的姿态矫正器包括:传感数据模块,用于通过多种传感器实时获取当前身体位姿信息;数据分析处理模块,用于根据当前身体位姿信息,确定用户的当前姿势类型;虚拟姿态构建模块,用于根据当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;AR显示模块,用于根据虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过姿态矫正器的视场看到虚拟姿态参照图像。通过本发明,可以给予用户更为全面的正确指引,辅助用户矫正自己的姿势。

Description

一种基于AR技术的姿态矫正器及其矫正方法
技术领域
本发明涉及行为姿势习惯养成领域,进一步涉及幼教领域,尤其涉及一种基于AR技术的姿态矫正器及其矫正方法。
背景技术
幼儿园和小学阶段,是孩子们开始学习写字的启蒙阶段,如果坐姿长期不正确,养成坏习惯,会造成严重后果,比如我国城市中小学生近视率居高不下,脊椎走样的学生也不在少数。不正确的站姿或坐姿是影响青少年近视率和脊椎走样的主要因素之一。
虽然目前市场上出现了各类姿势矫正设备,比如阻隔式、耳戴式、前置式、肩背式方案等等。但是这些设备一般都只是简单的单一防治,只能矫正特定部位,不能矫正其他部位。比如肩背带式方案保证了使用者的双肩位置准确,但头部低垂或偏斜,其身体也可以保持不动或者微小移动,从而导致错位,即检测结果不准确,导致矫正效果不理想。又比如防止在学生胸前桌沿的机械结构(阻隔式)的坐姿矫正器,头部在准确位置,其身体也可以低垂或偏斜,从而导致阅读或者写字时的错位,即检测结果不准确,导致矫正效果不理想;耳戴式、前置灯式都是只保证头部的准确位置,忽视身体其他位置的解决方案。
此外,上述的各类姿势矫正设备都是被动矫正,也就是强制矫正,无法给出孩子正确的指引,一旦脱离这类姿势矫正设备,孩子可能还是不知道正确的姿势应该是怎样的。
因此,现在市场上缺乏一种全面矫正姿势的解决方案。
发明内容
本发明提供一种基于AR技术的姿态矫正器机器矫正方法,克服了现有技术中无法主动给出用户正确而全面的姿势指引的技术问题,具体的,本发明的技术方案如下:
一方面,本发明公开了一种基于AR技术的姿态矫正器,所述姿态矫正器包括:传感数据模块200,用于通过多种传感器实时获取当前身体位姿信息;数据分析处理模块300,用于根据所述当前身体位姿信息确定用户的当前姿势类型;虚拟姿态构建模块500,用于根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;AR显示模块600,用于根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过所述姿态矫正器的视场看到所述虚拟姿态参照图像。
优选地,所述基于AR技术的姿态矫正器还包括:身体参数输入模块和/或摄像定位模块;其中:所述摄像定位模块400,用于获取当前的现实环境信息;所述身体参数输入模块100,用于预先输入并存储具体用户的标准姿态类型下的不同身体位姿参数。
所述身体参数输入模块包括:输入子模块,和/或读取子模块;其中,所述输入子模块,用于接收输入的所述身体位姿参数,或者通过传感数据模块测量获取所述身体位姿参数;所述读取子模块,用于根据当前选择的账户,读取所述账户存储的用户的所述身体位姿参数。
优选地,所述虚拟姿态构建模块500,还用于根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;所述数据分析处理模块300,还用于确定所述当前姿态类型后,调取相应的所述虚拟姿态模型;所述AR显示模块,还用于在所述数据分析处理模块及摄像定位模块的控制下,将所述虚拟姿态模型匹配至所述现实环境。
优选地,所述虚拟姿态构建模块500包括第一生成子模块和/或第二生成子模块;其中:所述第一生成子模块,用于生成身体线和水平肩线;所述第二生成子模块,用于生成身体各部位的轮廓图像。
优选地,所述传感数据模块包括:基础传感子模块和/或体感传感子模块;其中:所述基础传感子模块,用于实时获取所述当前身体位姿信息;所述体感传感子模块,用于获取身体的精细姿势信息。
优选地,所述体感传感子模块包括Leap Motion传感器、uSens Fingo传感器、Kinect传感器、XtionPro传感器、Real Sense传感器之中的任意一种或多种;所述基础传感子模块具体包括高度计、陀螺仪和/或水平仪;所述摄像定位模块包括:深度摄像头、鱼眼摄像头和/或结构光摄像头。
优选地,所述数据分析处理模块300包括:数据调取子模块和/或位置信息确认模块;其中,所述数据调取子模块,用于调取具体的身高数据、坐高数据和/或肩宽数据;所述位置信息确认模块,用于通过所述摄像定位模块获取所述用户在当前现实环境中的位置信息;并根据身体的各部位位置信息,确定所述身体线与水平肩线在所述现实环境中的空间位置。
优选地,所述数据分析处理模块300还包括:区域确定子模块,所述区域确定子模块,用于当所述用户当前的姿势为写字姿势或阅读姿势时,确定所述用户使用桌面上的书写或阅读的工作区域;所述工作区域用于所述用户放置阅读的书本或写字本;AR显示模块600还包括模糊处理子模块,所述模糊处理子模块,用于对非工作区域进行模糊化显示处理。
优选地,所述基于AR技术的姿态矫正器还包括:调整校正模块,用于对比所述预存身体位姿参数和所述当前身体位姿信息,确定身体各部的姿态和位置,给出调整矫正结果。
优选地,所述基于AR技术的姿态矫正器还包括:提醒模块,用于根据所述调整矫正结果,给予相应的图示提醒和/或语音提醒。
另一方面,本发明还公开了一种基于AR技术的姿态矫正方法,包括如下步骤:获取当前身体位姿信息;根据所述当前身体位姿信息确定用户的当前姿势类型;根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过所述姿态矫正器的视场看到所述虚拟姿态参照图像。
优选地,所述基于AR技术的姿态矫正方法,还包括:根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;确定所述当前姿态类型后,调取相应的所述虚拟姿态模型;在数据分析处理模块及摄像定位模块的控制下,将所述虚拟姿态模型匹配至所述现实环境。
优选地,当所述当前姿势类型为站姿时,根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体包括:根据所述当前身体位姿信息,获取预存站姿类型下,所述用户的的预存身体位姿参数;从所述站姿类型下,预存身体位姿参数中调取所述用户的身高数据和肩宽数据;根据所述用户的身高数据生成身体线,根据所述肩宽数据生成水平肩线;获取所述用户在当前现实环境中的空间位置信息;根据所述当前身体位姿信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置。
优选地,当所述当前姿势类型为坐姿时,根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体包括:根据所述当前身体位姿信息,获取预存坐姿类型下,所述用户的预存身体位姿参数;从所述预存身体位姿参数中调取所述用户的坐高数据和肩宽数据;根据所述用户的坐高数据生成身体线,根据所述肩宽数据生成水平肩线;获取所述用户在当前现实环境中的空间位置信息;根据所述当前身体位姿信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置。
优选地,当所述当前姿态类型为写字姿势或阅读姿势时,根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体还包括:获取预存的写字或阅读时桌面的虚拟中心线及左右手臂线的位置信息;其中,所述虚拟中心线为所述用户的身体线在所述桌面上的映射;所述虚拟左右手臂线为左右手臂在所述桌面上的位置线。
优选地,所述基于AR技术的姿态矫正方法,还包括:当所述当前姿态类型为阅读姿势时,获取所述用户当前阅读的书本的空间尺寸信息;根据所述书本的空间尺寸信息,生成标准空间位置的虚拟书本框;在所述姿态矫正器的视场中,将所述虚拟书本框供所述用户拿持书本时进行重合匹配。
优选地,所述基于AR技术的姿态矫正方法还包括:当所述当前姿态类型为写字姿势时,进一步识别所述用户的书写笔和/或握笔手指的空间位置;根据预存的正确握笔位姿参数,在所述姿态矫正器的视场中,生成标准空间位置的虚拟握笔姿势,供所述用户握笔时进行重合匹配。
优选地,所述基于AR技术的姿态矫正方法还包括:设定写字姿势或阅读姿势中所述用户的最佳书写的工作区域或最佳阅读的工作区域;在所述姿态矫正器的视场中,将所述工作区域外进行模糊化显示处理。
优选地,所述基于AR技术的姿态矫正方法还包括:获取所述用户当前身体位姿信息和当前姿势类型,并将其与所述虚拟姿态参照系统进行比对;当判定当前身体位姿信息不正确时,给予相应的图示提醒和/或语音提醒。
优选地,当所述当前姿态类型为坐姿时,还包括如下任一步骤:当所述当前姿态类型为阅读姿势时,获取所述用户距离阅读书本的距离,当所述距离不在预设的阅读距离范围内时,触发相应的所述提醒;当所述当前姿态类型为写字姿势时,获取所述用户握笔和书写的一系列身体数据,当所述距离不在预设的书写距离范围内时,触发相应的所述提醒。
本发明及下述各实施例至少包括以下一项技术效果:
(1)本申请的基于AR技术的姿态矫正器,克服了“仅仅有错误提醒,而没有准确引导/指示”的缺陷,因为仅仅是错误提醒,会让人手足无措,而有了正确的引导/指示,才能正真做到坐姿的矫正。
(2)本申请的基于AR技术的姿态矫正器将“一尺、一拳、一寸”的正确姿势,完整地提醒并矫正到使用人的坐姿。
(3)本申请的基于AR技术的姿态矫正器在“三个一”的基础上进一步,提醒“肩、背、手臂”的正确位置摆放,正真做到了坐姿“头正、肩平、身直、足安”的全方位监控、提醒和矫正,正真做到了对身体发育状态的小用户的贴身防护,防止他们的错误坐姿影响到了他们的骨骼、肌肉、体型、外貌等生长发育,防止颈椎、腰椎等疾病的延伸。
(4)本申请的基于AR技术的姿态矫正器也可以用于矫正用户的站姿,根据装置中的陀螺仪以及“肩线和身体线”对头部水平状态、双肩水平状态和躯干的垂直状态,都起到了全方位监控、提醒和矫正。
(5)本申请的基于AR技术的姿态矫正器的最终目的之一,是让用户养成良好的姿态习惯,人们说“站有站相、坐有坐相”,有了正确的站姿、坐姿、写字姿态和握笔方法,养成这些正确姿势的习惯对培养用户的态度和品格的辅助作用也是非常明显的。
(6)本申请的基于AR技术的姿态矫正器能进一步监控握笔的姿势,识别并矫正错误的握笔姿势,因为握笔的错误,会遮挡视觉,跟踪坐姿就会走样。
(7)本申请的基于AR技术的姿态矫正器还可以在AR头显中显示正确的3D坐姿演示、正确的3D握笔演示和正确的3D站姿演示,方便用户模仿。
(8)本申请的基于AR技术的姿态矫正器在用户写字或者看书时,可以启动模糊化处理非正确工作区的模式,在正确的位置上放置书本,在正确的位置上书写,将成为一种好习惯的强迫,脱离这个正确的工作区,用户将看不清楚书本上的内容,也看不清楚自己书写的内容。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于AR技术的姿态矫正器的实施例一的结构框图;
图2为本发明基于AR技术的姿态矫正器的实施例二的结构框图;
图3为本发明基于AR技术的姿态矫正器的实施例五的结构框图;
图4为错误站姿示意图;
图5为在现实环境中叠加现实的虚拟水平肩线和身体线示意图;
图6a为带有体感传感器的AR头戴显示器为影像式HMD示意图;
图6b为带有体感传感器的AR头戴显示器为透光式HMD示意图;
图7为在实体桌面上叠加显示虚拟参照线示意图;
图8a为本申请的基于AR技术的姿态矫正器矫正姿势的侧面原理图;
图8b为在实体桌面上叠加显示虚拟参照线及写字区域示意图;
图9为模拟真实的手而成的虚拟手模型示意图;
图10为采用Leap Motion传感器检测手指及手持书写笔的示意图;
图11为正确的敲击键盘姿势示意图;
图12为本发明基于AR技术的姿态矫正方法的实施例九的流程图;
图13为本发明基于AR技术的姿态矫正方法的实施例十一、实施例十二的流程图。
附图标记:
100--身体参数获取模块;200--传感数据模块;300--数据分析处理模块;400--摄像定位模块;500--虚拟姿态构建模块;600--AR显示模块;110--输入子模块;120--读取子模块;210--基础传感子模块;220--体感传感子模块;310--数据调取子模块;320--生成子模块;330--位置信息确认子模块;340--区域确定子模块;350--模糊处理子模块;700--调整校正模块;800--提醒模块;10--现实的人体;20--虚拟的垂直身体线;30--虚拟的水平肩线;40--实体桌面;51--左手臂线;52--右手臂线;60--中心线;501--前倾的身体线;502--眼睛距离写字区域的距离线;503--物理桌面;504--身体距离桌沿的腹线;505--人眼位置,506--桌沿垂直延长线;507--桌沿边界;508--中心线;509--左手臂线;510--右手臂线;511--正确写字区域。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其他情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所述描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其他特征、整体、步骤、操作、元素、组件和/或集合的存在或添加。
为使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘出了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
【实施例一】
本实施例公开了一种基于AR技术的姿态矫正器,具体的,如图1所示,所述姿态矫正器包括:
传感数据模块200,用于通过多种传感器实时获取当前身体位姿信息;比如可以通过高度计获取用户当前姿势的高度信息,从而可以确定出用户当前是站姿还是坐姿。
数据分析处理模块300,用于根据所述当前身体位姿信息确定用户的当前姿势类型;具体的,根据获取的当前身体位姿信息,便可判断出该用户当前是站着,还是坐着,进而可以得出后续需要进行矫正的姿态是站姿还是坐姿。
虚拟姿态构建模块500,用于根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;具体的,每个用户的身体参数信息不同,那么对应的姿态类型下的虚拟姿态参照信息也不同,如此个性化定制,从而为每个用户都量身定制一虚拟姿态参照,因人而异,提高用户体验。具体的,比如用户当前的姿势类型为站姿,获取到预存的站姿类型下,预存的该用户的身体位姿参数中身高为160cm,肩宽是40cm,如果我们后续用虚拟的直线来表示身高和肩宽的话,那么便可据此获取到虚拟的身体线的高度和虚拟水平肩线的宽度,同时再结合该用户当前身体位姿信息,从而可定位出虚拟身体线和虚拟水平肩线在现实环境中所应处的位置。该虚拟身体线的高度及位置信息、以及虚拟水平肩线的长度及位置信息都属于虚拟姿态参照系统中的数据信息。
AR显示模块600,用于根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过所述姿态矫正器的视场看到所述虚拟姿态参照图像。具体的,比如上一步已获取到用户的身高为160cm,对应的虚拟身体线为160cm;肩宽是40cm,对应的虚拟肩宽线为40cm,再结合上一步获取到的该虚拟身体线和虚拟肩宽线的位置信息,从而便可据此在现实环境中叠加显示该虚拟身体线和虚拟肩宽线。当然,虚拟姿态参照图像可以是二维的图像,更佳的,可以为三维图像,比如可以根据用户预存身体位姿参数,构建出对应姿势类型的人体虚拟3D图像,再根据用户的当前位姿信息,进而锁定该人体虚拟3D图像的叠加显示的位置信息。通过AR显示模块600,用户可以在现实环境中看到该虚拟姿态参照图像,从而可以看到正确的姿态是怎样的,进而可以按照该正确的虚拟姿态参照图像来矫正自己的姿势,比如,自己当前是歪站着的,也就是一边肩膀高,一边肩膀低,那么通过AR显示模块600看到自己肩膀附近正确的水平虚拟肩宽线后,便可调整自己的站姿,让自己双肩贴合该水平虚拟肩宽线,从而达到矫正站姿的目的。
【实施例二】
图2示出了本发明的基于AR技术的姿态矫正器的另一实施例,本实施例在上一实施例的基础上,本实施例的基于AR技术的姿态矫正器还包括:身体参数输入模块和/或摄像定位模块;其中:
身体参数输入模块100,用于预先输入并存储具体用户的标准姿态类型下的不同身体位姿参数;具体的,不同用户其标准姿态类型下的身体位姿参数是不一样的。标准站姿类型下,身体位姿参数包括:身高、坐高、上臂长、小臂长、肩宽等,此外,身体参数输入模块100,还可用于预先输入并存储具体用户的身份信息,比如姓名、年龄、性别等。
摄像定位模块400,用于获取当前的现实环境信;具体的,通过摄像定位模块拍摄用户当前的现实环境,进而建立对应的空间坐标系,以便后续的虚拟参照图像设置在该现实环境中的对应位置。
较佳的,上述的身体参数输入模块100包括:输入子模块110,和/或读取子模块120;其中:
所述输入子模块110,用于接收输入的所述身体位姿参数,或者通过传感数据模块测量获取所述身体位姿参数;比如,用户输入自己的身高、肩宽、手臂长等等站姿下的身体位姿参数信息
所述读取子模块120,用于根据当前选择的账户,读取所述账户存储的用户的所述身体位姿参数。也就是说每个用户都建立了一个账号,用户在注册的时候登记了自身的身体位姿参数信息,后续在使用时,便可直接读取该账户里存储的该用户的身高、坐高、手臂长、肩宽、拳宽等等身体位姿参数。
以上两种方式可采用任意一种,或者两者均采用,比如,如果读取子模块120读取到的用户的身体位姿参数不全,那么便可再通过输入子模块110进一步让用户输入需要补充的身体位姿参数,更佳的,还可以通过各传感器进行智能测量,比如通过高度计获取用户的身高信息、或者通过摄像定位模块400获取该用户的身高、肩宽、手臂长等等信息,也就是说,只需要在有参照物的情况下,拍摄到用户的全身图像便可获取到用户的身体参数信息。
【实施例三】
本实施例在上一实施例的基础上,本实施例的基于AR技术的姿态矫正器中,所述虚拟姿态构建模块500,还用于根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;具体的,本实施例可以预先构建存储该用户的多种虚拟姿态模型,后续直接调用即可。比如预先在用户正确的坐姿或者正确的站姿的情况下,根据该用户正确的站姿或坐姿构建虚拟3D坐姿模型或3D站姿模型。此外,还可以预先构建其它辅助矫正姿势的小模型,比如,我们在写字姿势时,身体距离桌面要保持“一拳”的距离,那么我们便可按照标准“一拳”的尺寸信息,构建出一虚拟的拳头模型,从而,可以在后续写字姿势时,在用户的腹部距离桌面的位置,叠加显示一虚拟拳头模型,让用户通过AR设备可以更加直观的看到写字姿势时应当与桌面保持的距离。
所述数据分析处理模块300,还用于确定所述用户当前的姿态类型后,调取相应的所述虚拟姿态模型;具体的,比如前面已根据用户的身体参数信息预先构建存储的用户的3D站姿、坐姿模型等,那么如果确定用户当前是站姿的情况下,便可直接调用预先存储构建的虚拟3D站姿模型即可。
所述AR显示模块600,还用于在所述数据分析处理模块300及摄像定位模块400的控制下,将所述虚拟姿态模型匹配至所述现实环境。具体的,在调取出虚拟3D站姿模型后,数据分析处理模块根据摄像定位模块的摄像定位,获取该虚拟3D站姿模型设置在现实环境中的位置,从而使得该AR显示模块可据此将该3D站姿模型移动至相应位置,以使该用户通过所述AR设备看到所述虚拟姿态模型。值得注意的是,虚拟姿态模型的位置的设置,并不是在用户前方呈平面显示,而是叠加显示在用户所在环境的相应位置,比如用户当前所在的位置,从而让用户可以让自己身体各部分“重合”至对应的虚拟姿态模型,从而达到沉浸式体验。
【实施例四】
本实施例在上述任一实施例的基础上,对各模块进行了细化阐述,具体的,如图2所示,所述虚拟姿态构建模块500包括第一生成子模块510和/或第二生成子模块520,其中:
所述第一生成子模块510,用于生成身体线和水平肩线;
所述第二生成子模块520,用于生成身体各部位的轮廓图像。
具体的,身体线和水平肩线、身体各部位的轮廓图像,只是呈现的形式有差别,给到用户的视觉效果不一样而已,但其本质还是类似的。
此外,上述任一实施例中,所述传感数据模块200包括:基础传感子模块210,用于实时获取所述当前身体位姿信息;所述基础传感子模块210具体包括高度计、陀螺仪和/或水平仪;具体的,比如用户当前姿势的高度信息可通过高度计获取,陀螺仪或者水平仪可以检测出用户当前头姿是否正确,也就是头部有没有歪斜。
此外,除了基础传感子模块210外,所述传感数据模块200还可包括,体感传感子模块220,用于获取所述用户的精细姿势信息。比如用户的手部姿势信息,用户在握笔写字的时候,识别到用户的手部握笔姿势,从而便于后续矫正判断或提醒。较佳的,该体感传感子模块220包括Leap Motion传感器、uSensFingo传感器、Kinect传感器、Xtion Pro传感器、Real Sense传感器之中的任意一种或多种。当然,其中,采用Leap Motion传感器则识别的精准度更高。
LEAP MOTION是一款微米级3D手动交互设备,可以追踪到小至0。01毫米的动作,拥有150度的视角,可以跟踪1个人的10个手指的动作,最大频率是每秒290帧。Leapmotion营造的空间中捕捉手势,显示手和手臂骨架,人的一只手,有29块骨头、29个关节、123根韧带、48条神经和30条动脉。这是一种精密、复杂和令人惊叹的技术。但人却能不费吹灰之力,轻松掌握。Leap Motion控制器也几乎完全掌握这一技术,也就是说它不可能检测出非人手能及的手势出来。
LEAP MOTION空间叠加入AR三维展示空间,手势与AR三维展示空间中的物体进行互动/反馈,Leap Motion控制器都能精确追踪。从技术上说,这是一个8立方英尺的可交互式3D空间。Leap Motion控制器可追踪全部人的10只手指,精度高达1/100毫米。它远比现有的运动控制技术更为精确。150°超宽幅的空间视场,使得用户可以像在真实世界一样随意在3D的空间移动您的双手。在Leap Motion应用中,您可以伸手抓住物体,移动它们,甚至可以更改您的视角。Leap Motion控制器以超过每秒200帧的速度追踪您的手部移动,这就是屏幕上的动作与您的每次移动完美同步的原因。被识别对象包括拇指(Thumb finger)、食指(Index finger)、中指(Middle finger)、无名指(Ring finger)、小拇指(Pinkyfinger),每个手指可以获取其初始位置start(X,Y,Z),终止位置end(X,Y,Z)和方向direction(pitch,roll,yaw)。
当然,除了上述介绍的体感传感器外,还可以通过手柄控制、智慧手套、手表式IMU传感器等控制器获取手部动作参数的空间值和反馈值。
上述任一实施例中的摄像定位模块400包括:深度摄像头、鱼眼摄像头和/或结构光摄像头。摄像定位模块400则采用机器视觉技术获取现实环境信息,并定位构建空间坐标系。具体的,该摄像定位模块400进行摄像的摄像头可采用深度摄像头,鱼眼摄像头、结构光摄像头等之中的任意一种或多种的组合。
上述任一实施例中,所述数据分析处理模块300包括:数据调取子模块310和/或位置信息确认模块320;其中:
数据调取子模块310,用于调取所述用户的身高或坐高信息,以及肩宽信息;具体的,比如确定用户当前的姿势类型为坐姿,那么就调取用户的坐高和肩宽信息,如果用户当前的姿势类型为站姿,那么就调取用户的身高和肩宽信息;当然,更优的,还可以调取其它身体参数信息,比如手臂长等等。
位置信息确认模块320,用于通过所述摄像定位模块400获取所述用户在当前现实环境中的位置信息;并根据所述用户的位置信息,确定所述身体线与所述水平肩线在所述现实环境中的空间位置信息。具体的,可通过摄像定位模块400获取用户当前在现实环境中的位置信息,再确定虚拟姿态构建模块构建的水平肩线和身体线在现实环境中的位置信息。
【实施例五】
本实施例在上述任一实施例的基础上,功能更加优化和齐全。具体的,当用户阅读的时候,时间长了,用户可能将书偏向一边,从而导致头也跟着偏向一边,导致该坐姿不正确。又比如,当用户写字的时候,如果写字的作业本放歪了,放置在桌子边缘地方,那么也就会导致孩子写作业时身体歪向一边,姿势不正确。为了杜绝这类情况的发生,如图3所示,所述数据分析处理模块300还包括:
区域确定子模块330,用于当所述用户当前的姿势为写字姿势或阅读姿势时,确定所述用户使用桌面上的书写或阅读的工作区域;所述工作区域用于所述用户放置阅读的书本或写字本;具体的,在用户写字或阅读姿势正确的时候,设定好用于写字或者阅读的工作区域,该工作区域可能是桌面上中间的一块水平区域,也可以是与桌面成一定角度的一块平面区域(用户正确阅读姿势时,书本摆放的位置区域)。
AR显示模块还包括:模糊处理子模块610,用于对非工作区域进行模糊化显示处理。具体的,对于设定为工作区域的部分,用户可以直接清晰的看到该区域内的内容,而对于工作区域之外的其它区域,则可进行模糊化处理,从而使得用户看不到非工作区域里的内容,如此,一旦用户的书本或写字的作业本超过工作区域范围,便会无法看清,从而让用户及时察觉,进而主动将书本或作业本放置在工作区域,如此,也使得用户的姿势不会因为书本或写字作业本的摆放位置发生偏移而导致不正确的姿势。
此外,本实施例的基于AR技术的姿态矫正器还包括:
调整校正模块700,用于对比所述预存身体位姿参数和所述当前身体位姿信息,确定身体各部的姿态和位置,给出调整矫正结果。
较佳的,基于AR技术的姿态矫正器还包括:
提醒模块800,用于根据所述调整矫正结果,给予相应的图示提醒和/或语音提醒。
具体的,比如,检测到用户当前头部偏离身体线,或者用户的双肩高度不一致,与水平肩线偏离了允许的误差范围,那么便会触发提醒模块进行提醒。当然,提醒的方式未限定,比如可以是声音提醒,也可以是显示(图示)提醒等。通过提醒模块可以起到及时提醒的目的,提醒用户及时纠正自己的姿势,以防止用户发生姿势不正确的情况而不自知。
【实施例六】
本实施例以站姿为例,详细阐述了如何通过本申请的姿态矫正器来帮助用户矫正自己的站姿。
错误的站姿不仅影响美观,而且长期采用错误站姿,还会影响青少年的身体发育,影响身心健康。图4示出的站姿便属于一种错误站姿,不正确的站姿一旦养成了习惯,将导致身体成长的扭曲,比如脊椎的畸形生长。接下来详细阐述下采用本申请的姿态矫正器如何帮助用户矫正自己的站姿。
首先,姿态矫正器预先获取到用户的身体位姿参数信息,比如用户身高数据和肩宽数据等;预存好这些数据后,后续进行姿势矫正时则可直接调用即可。具体的,用户佩戴了矫正器后,矫正器的传感数据模块便会实时获取该用户的当前身体位姿信息,然后确定该用户当前的姿态类型,比如结合高度计测量的用户当前佩戴的矫正器所处的高度,可以确定用户当前姿态类型为站姿,当然,也可以让用户选择确定当前的姿态类型,用户想矫正站姿时选择姿态类型为站姿,用户想矫正坐姿时,选择姿态类型为坐姿等。然后再通过虚拟姿态构建模块,根据姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统,也就是各种虚拟姿态图像的对应数据。然后再通过AR显示模块在该用户的现实环境中叠加显示站姿的虚拟姿态图像,具体的,先根据用户的身高信息获得虚拟垂直身体线,根据肩宽信息获得虚拟水平肩线,然后再根据用户当前身体位姿信息,获得垂直身体线和水平肩线的空间位置信息。最后根据垂直身体线的高度信息和位置信息,以及水平肩线的长度信息和位置信息,便可生成对应的虚拟姿态图像,进而将该虚拟姿态图像叠加显示在现实环境中。如图5所示,现实中人体10所处的姿态类型为站姿时,虚拟的垂直身体线20和虚拟的水平肩线30叠加在人体10所处的现实环境中,用户可以通过AR设备看到该虚拟水平肩线和垂直身体线,进而可以自行纠正自己的姿势。当然,本实施例的姿态矫正器还可对用户站姿偏离误差预先范围外的情况给予相应的提醒。
此外,我们的姿态矫正器还可以通过AR设备与智慧手套(或者智慧戒指、手表式IMU传感器等手戴式智能设备)来细化矫正用户的站姿。具体的,用户将头戴式AR设备戴在头上,将智慧手套或者其他手戴式智能设备佩戴在手上。关于头戴式AR设备,本发明未限定具体的型号或样式,比如,图6a示出了的带有体感传感器的AR头戴显示器为影像式HMD,图6b示出的带有体感传感器的AR头戴显示器为透光式HMD。当然该AR设备的显示器还可以呈现其它形式,比如,“眼镜式”,也就是说该AR显示设备像框架眼镜或者甚至未来可能像隐形眼镜一样佩戴在用户眼睛上,本申请不限定AR显示设备的呈现形式,只需用户佩戴该设备后可看到虚拟姿态图像叠加显示在现实环境中即可。
头部,AR设备中的陀螺仪会提醒头姿是否正确;
双手,智慧手套/智慧戒指中的陀螺仪会提醒双臂、双手的摆放是否正确;
肩部,通过AR设备(本申请的姿态矫正器)瞄到的水平“双肩线”会提醒肩姿是否正确,更准确的代替方案有,具体地可以通过2只智慧手套的高度信息测算双肩的水平;(站姿时,眼部朝向前方,而不同于坐姿时,眼部朝向前下方,所以在站姿时,最好有辅助传感器来判断双肩的位置)
躯干部和双腿,通过AR设备瞄到的垂直“身体线”,体感器与陀螺仪的结合,会监控到身体的变化,会提醒躯干的姿态是否正确;初始化时的身高输入,对照AR头盔中的高度计感应,也会提醒躯干的姿态是否正确。
【实施例七】
本实施例中,我们以坐姿中的阅读姿势为例。相比于站姿,坐姿我们不仅要求头部、肩膀、身体姿势正确,还要求手部等姿势也正确。具体的,比如用户坐在一桌子前阅读,本实施例的姿态矫正器在确定用户当前姿势类型为坐姿,且为阅读姿势后,除了根据用户的身体参数信息生成身体线和水平肩线外,还可以进一步生成桌面虚拟参照线,如图7所示,用户在实体桌面40上进行阅读,该桌面上增强显示了三条虚拟参照线。其中,中心线60为身体线在该桌面的映射,左手臂线51和右手臂线52为用户在该桌面上的手臂摆放参考位置指引。具体的,该左右手臂线可以在用户正确阅读姿势时获取,也可以根据中心线,结合预设的做右手臂线设定规则获取。具体的,用户使用本实施例的姿态矫正器矫正姿态过程如下:
首先,使用者坐好后戴上AR头显/AR眼镜,调整设备中的各传感器(高度计、陀螺仪、水平仪、等)的初始状态,包括建立3维坐标系;AR眼镜可以捕捉实物桌面的空间位置,设定虚拟桌面与其重合(可不显示虚拟桌面)
第二,使用者通过AR眼镜可以看到水平肩线、垂直的身体线(垂直的/前倾的,2种模式可调)、中心线。值得一提的是,身体线与中心线是在同一平面上的不同功能的线,其中垂直的身体线与投影在水平桌面的中心线有垂直关系。中心线投影至虚拟桌面上,也即投影在真实桌面上。双臂线是可以选的被投影对象,如果投影的话,双臂线、中心线与物理桌面的关系如图7所示。
第三,使用者阅读时,可以同让自己的身体对称中心靠近身体线,有一定的偏差阈值,在阈值范围内,不会引发矫正提醒;
第四,使用者,可以同让自己的双肩自然靠近水平肩线,有一定的偏差阈值,在阈值范围内,不会引发矫正提醒;
第五,使用者在桌面上手持书本,让书本的中心靠近中心线,让双臂放置在投影的双臂线范围内;
第六,AR眼镜通过深度摄像头(TOF)检测用户头部(近似认为是眼部的空间位置)与书籍的距离,阈值设置在33厘米(1尺),距离短于该距离则会引发矫正提醒;
第七,用户正确拿持书本或者书籍,AR眼镜通过摄像头在6DOF场景(X、Y、Z和旋转X、Y、Z)中,设定一个和现实书本大小一致的虚拟书本框,使得虚拟的书本框在视野中是和真实的书本边缘重合显示的。
为了保证虚拟的书本框和真实的书本边界重合,在调整好头显的位置后可以进行调整虚拟书本框的位置,用来保证虚拟的书本和真实的书本的边界位置重合显示。
在头显是由所带设备的陀螺仪和6DOF来确定的,书本的位置确定有两种方式:
第一种:当用户座位调整好后可以通过手柄或者头显上的按钮来调整各自的书本的位置和角度,通过对各种调整来达到视觉上的虚拟书本和真实书本的重合显示。
第二种:寻边拟合技术,采用OpenCV技术,将书本的特征点通过SIFT进行提取,然后将特征点输入到特征匹配库中,通过设备的摄像头拍摄出视野的所见的照片,然后将原始图像转为单通道灰度图像,进行二值化处理,通过黑白像素值差得到边缘点,在边缘点找到合适的区域,通过处理的2D图片和3DOF相结合,计算出头显和书本的相对距离和坐标,将头显的虚拟书本的坐标移动到和现实书本重合。
图形显示:采用Direct3D或者OpenGL的图像渲染技术,在头显中生成并叠加显示(寻边拟合后)书本,并叠加显示色块的虚像。
上述提到的OpenCV技术全称是Open Source ComputerVision Library,是一个跨平台的计算机视觉库。OpenCV是由英特尔公司发起并参与开发,以BSD许可证授权发行,可以在商业和研究领域中免费使用。OpenCV可用于开发实时的图像处理、计算机视觉以及模式识别程序。该程序库也可以使用英特尔公司的IPP进行加速处理
上述提到的SIFT:SIFT(Scale Invariant Feature Transform)----尺度不变特征变换,是由David G。Lowe在1999年(《Object Recognition from LocalScale-InvariantFeatures》)提出的高效区域检测算法,在2004年(《DistinctiveImage Featuresfrom Scale-Invariant Keypoints》)得以完善。SIFT特征对旋转、尺度缩放、亮度变化等保持不变性,是非常稳定的局部特征,现在应用很广泛。
如此设置后,当书本倾斜时,会引发书本倾斜的提醒,防止用户的头也慢慢跟着偏向。
第八,AR眼镜通过陀螺仪或者水平仪检测用户头部,是否有偏向,触及阈值将引发矫正提醒。
第九,较佳的,在虚拟书本框设定为正确的本书的放置位置,在虚拟书本框外的图像做“磨砂”透明处理。如此,用户如果脱离书本的正确位置,将看不清书本上的内容,强迫用户在正确的位置中看书。
【实施例八】
本实施例我们以坐姿中的写字姿势为例,具体阐述本申请的姿态矫正器如何协助用户矫正写字姿势。
首先,使用者坐好后戴上AR头显/AR眼镜,调整设备中的各传感器(高度计、陀螺仪、水平仪、等)的初始状态,包括建立3维坐标系;AR眼镜可以捕捉实物桌面的空间位置,设定虚拟桌面与其重合(但不显示虚拟桌面)
如图8a、图8b所示,其中,501为前倾的身体线,当然,身体线也可以设置为垂直身体线,具体可根据情况自行设定。502为眼睛距离写字区域的距离线(1尺的距离);503为物理桌面;504为身体距离桌沿的腹线(一拳距离);505为人眼位置,506为垂直于物理桌面503的桌沿垂直延长线(实际可不在AR设备中显示)。507为桌面的桌沿边界;508为中心线(身体线501映射在桌面503上形成);509和510分别表示左手臂线和右手臂线;511为正确写字区域。
第二,使用者通过AR眼镜除了可以看到水平肩线(图中未示出)、前倾的身体线501(需低头才能查看到)、中心线508(投影至虚拟桌面),还可以看到腹线504(1拳距离)、2条手臂线(左手臂线509和右手臂线510)和正确的书写区域511。
第三,使用者阅读时,可以同让自己的身体中间位置靠近身体线501,设有一定的偏差阈值,在阈值范围内,不会引发矫正提醒;
第四,使用者,可以同让自己的双肩自然靠近水平肩线,有一定的偏差阈值,在阈值范围内,不会引发矫正提醒;
第五,使用者通过AR眼镜通看到腹线504(间隔距离线、最佳效果是以虚拟(小)拳头形状出现),让自己的上腹部与桌沿的距离,控制在腹线距离(1拳)附近,过大或者过小将引发矫正提醒,有一定的偏差阈值,在阈值范围内,不会引发矫正提醒;
第六,使用者通过AR眼镜通看到左手臂线509和右手臂线510,让自己的双前臂自然放在桌面,贴合到手臂线附近;
第七,使用者握住笔,通过AR眼镜(体感传感器)通看到握笔高度线,让自己的握笔指尖与笔尖的距离,控制在握笔高度线在3厘米(1寸)附近,过大或者过小将引发矫正提醒。此时,leap motion体感器,会检测到握笔手势*(三指指尖)的空间位置;
第八,(附加功能)在桌面上的中心线与手臂线的交叉区域附近,框显出一个最佳写字区域511,该区域也是虚拟投射,通过AR头显可见,该区域是最让手腕舒适活动的角度范围之内;最佳写字区域设定为正确的写字的位置,在最佳写字区域外的图像做“磨砂”透明处理。如此,用户如果在最佳写字区域(正确位置进行书写或者阅读)以外的区域,将看不清写字本上的内容,也就看不清自己所书写的内容。该书写区,适用于右撇子,如果是左撇子,书写区域可以设置成左偏位置。
值得注意的是,相应的中心线、双臂线、书写区一般情况下,一经设定不会变化,也就是说,如果用户在书写范围内写满后,需移动被书写物,即移动书写纸、描红本,调解被书写的位置。
第九,AR眼镜通过深度摄像头(TOF)检测用户头部(近视认为是眼部)与最佳写字区域的距离,阈值设置在33厘米(1尺),距离短于该距离则会引发矫正提醒。
第十,AR眼镜通过陀螺仪或者水平仪检测用户头部,是否有过度的偏向,触及阈值将引发矫正提醒。
关于写字的握笔姿势提醒,上述提到的LEAP MOTION是一款微米级3D手动交互设备,可以追踪到小至0。01毫米的动作,拥有150度的视角,可以跟踪1个人的10个手指的动作,最大频率是每秒290帧。LEAP MOTION空间叠加入AR三维展示空间,手势与AR三维展示空间中的物体进行互动/反馈,Leap Motion控制器以超过每秒200帧的速度追踪您的手部移动,被识别对象包括拇指(Thumb finger)、食指(Index finger)、中指(Middle finger)、无名指(Ring finger)、小拇指(Pinky finger),每个手指可以获取其初始位置start(X,Y,Z),终止位置end(X,Y,Z)和方向direction(pitch,roll,yaw)。
基于AR/VR显示系统,结合LeapMotion(2个红外线摄像头)感应器,来实现手势抓取虚拟物体的功能。
1.利用Unity3D引擎,搭建一个3D的虚拟场景空间,在该虚拟场景空间创建某3D虚拟物体。
2.接入高通制作的六自由度的SDK(软件开发工具包(外语首字母缩写:SDK、外语全称:Software Development Kit)一般都是一些软件工程师为特定的软件包、软件框架、硬件平台、操作系统等建立应用软件时的开发工具的集合。)。通过设备上的陀螺仪定位数据,计算设备在虚拟场景中的位置,同时映射到Unity3D创建的虚拟场景空间中,从而实现能够在3D空间中旋转以及行走的6DOF效果。
3.接入Leap Motion提供的识别手势(空间参数)的SDK,在虚拟场景空间中加入手模型(包括手部和手臂)。这里需要Leap Motion的驱动以及硬件设备支持。leapSDK能够把驱动检测到的手势信息参数传递到Unity3D。映射这些信息到手模型上,即可实现将真实的手模拟成虚拟手,并呈现到虚拟的3D场景空间中。
4.在Unity3D引擎中将手势的信息进行分析计算,得到一些特定的手势形状,比如手上3个手指的“握笔”的动作。
我们分析得到“握笔”动作的开始和结束。开始和结束时依照3个指尖(如图9所示)的相互距离,是否构成一个空心的三角形(笔所在位置,是该三角形的内切圆)。当三指尖的相互距离小于内切圆的某个半径阈值即为进入“握笔”的状态,大于某个半径阈值,即为离开“握笔”的状态。
5.能够识别“握笔”动作之后,即触发了握笔高度线的测量,Leap Motion识别握笔手上的拇指和/或食指,计算此二指到笔尖的(平均)距离,该(平均)距离的要求为3厘米(1寸)。如图10所示,Leap Motion除了可以检测手指外,也可以检测手持的工具。要求就是细的、笔直的、比手指长的物件。
除了Leap Motion检测指尖外,还可以通过深度摄像头(TOF)对笔尖的识别。
6.通过Unity3D引擎发布成对应硬件使用平台(包括安卓、iOS、PSP、xbox和PC等)的应用程序。
除了Leap Motion通过其感应器和坐标体系能识别(徒手)手势控制以外,还可以uSens Fingo、Kinect、XtionPro、Real Sense等体感传感器。或者通过手柄控制、智慧手套、手表式IMU传感器等控制器获取手部动作参数的空间值和反馈值。
在矫正写字姿势的基础上,同样适用矫正敲击键盘的姿势(内容大体同坐姿),如图11所示。此处不再详细展开了。
本申请的姿态矫正器,除了AR眼镜一体机的硬件系统外,用到了计算机图形学中的寻边拟合技术、手势识别技术、图像识别技术等多种计算,打通了实物书本与虚拟书本、真实人手和虚拟人手间的互动控制,通过陀螺仪、高度计、深度摄像头的测量技术以及测量辅助技术,一起完成站姿、坐姿的矫正和提醒。
【实施例九】
基于相同的技术构思,本申请还公开了一种基于AR技术的姿态矫正方法,具体的,本实施例的方法流程如图12所示,包括:
S101,获取当前身体位姿信息;具体的,可以通过多种传感设备来获取用户当前的身体位姿信息,进而可以判断出用户当前是是什么姿势,站着还是坐着,坐着的话,是在写字还是在阅读等,姿势类型不同,其对应的身体位姿信息也不同。
S102,根据所述当前身体位姿信息确定用户的当前姿势类型;具体的,可以通过多种传感器获取用户当前姿势传感数据,比如用户佩戴的AR设备内含有高度计,则可以通过高度计获取用户当前姿势的高度信息,从而可以确定用户当前是站着还是坐着。
S103,根据所述当前姿势类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;具体的,比如,用户当前坐着的,根据预存的该用户的坐姿身体参数便可获取到待生成显示的虚拟参照线的长度或高度信息,再根据用户当前位姿信息,特别的,用户所处的位置,进而可以获取到虚拟参照线的位置信息。每个用户的身高、肩宽、手臂长等等参数不同,那么对应的姿态类型下的虚拟姿态参照信息也不同,如此个性化定制,从而为每个用户都量身定制一虚拟姿态参照系统,因人而异,提高用户体验。
S104,根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过所述姿态矫正器的视场看到所述虚拟姿态参照图像。具体的,虚拟姿态参照图像可以是二维的图像,也可以是三维图像,图像的表现形式也不限定,比如,可以是简单的虚拟参照线的形式,也可以是更为形象立体的三维模型形式,比如虚拟人体模型,或者其他虚拟卡通模型,又比如用户写字时距离桌面的距离是一拳的距离,可以是以虚拟线段来显示该距离,也可以是用虚拟小拳头来表示该距离。通过AR显示模块,用户可以在现实环境中看到该虚拟姿态参照图像,从而可以看到正确的姿态是怎样的,进而可以按照该正确的虚拟姿态参照图像来矫正自己的姿势,比如,自己当前是歪站着的,也就是一边肩膀高,一边肩膀低,那么通过AR设备看到自己肩膀附近正确的水平虚拟肩宽线后,便可调整自己的站姿,让自己双肩贴合该水平虚拟肩宽线,从而达到矫正站姿的目的。
较佳的,在上述步骤S101之前还包括:
S001预先存储具体用户的标准姿态类型下的不同身体位姿参数;具体的,所述身体位姿参数包括该用户站姿类型时,身高、肩高、肩宽等参数;坐姿时的坐高、肩高、肩宽等参数。而获取用户的身体位姿参数信息也可以通过多种途径来获取,比如可以根据用户当前选择的账户,读取所述账户存储的所述用户的身体位姿参数;或获取用户输入的身体位姿参数;或通过自动测量获取所述用户的身体参数。本发明不限定获取用户的身体位姿参数的方式。
【实施例十】
本实施例在上述实施例九的基础上,所述基于AR技术的姿态矫正方法还包括:
根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;
确定所述当前姿态类型后,调取相应的所述虚拟姿态模型;
将所述虚拟姿态模型匹配至所述现实环境。
具体的,本实施例可以预先构建存储该用户的多种虚拟姿态模型,后续直接调用即可。比如可以根据预存的用户的身体参数信息构建出虚拟的3D坐姿模型及3D站姿模型;或者也可以在用户正确的坐姿或者正确的站姿的情况下,根据该用户正确的站姿或坐姿构建虚拟3D坐姿模型或3D站姿模型。当然,该3D坐姿模型或3D站姿模型的表现形式不限。此外,还可以根据需要预存其它辅助姿势矫正的模型,比如,我们在写字姿势时,身体距离桌面要保持“一拳”的距离,那么我们便可按照标准“一拳”的尺寸信息,构建出一虚拟的拳头模型,从而,可以在后续写字姿势时,在用户的腹部距离桌面的位置,叠加显示一虚拟拳头模型,让用户通过AR设备可以更加直观的看到写字姿势时应当与桌面保持的距离。
预存了这些虚拟姿态模型后,后续便可直接调用了,比如,用户当前为站姿,那么我们便可调用矫正站姿所需要的虚拟站姿模型,再结合用户当前的现实环境,知道用户当前所处的现实位置,从而可以将虚拟站姿模型移动至相应的位置,乃至匹配至正确的姿势。用户便可通过AR设备看到现实环境中叠加的虚拟姿态模型,从而知道自己当前姿势是否正确,不正确的话,该如何贴近正确的姿势。
【实施例十一】
本实施例以站姿为例,详细阐述了如何实现矫正用户姿势的目的,具体的,如图13所示,当所述用户当前的姿态类型为站姿时,基于AR技术的姿态矫正方法具体流程包括:
S201,获取当前身体位姿信息;
S202,根据所述当前身体位姿信息确定用户的当前姿势类型;
S203,当确定所述当前姿势类型为站姿时,调取预存的所述用户的身高数据和肩宽数据;
S204,根据所述用户的身高数据获取身体线的长度,根据所述肩宽数据获取水平肩线的宽度;
S207,获取所述用户在当前现实环境中的空间位置信息;
S208,根据所述用户的姿态信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置信息;
S209,根据所述身体线的长度及空间位置信息,以及所述水平肩线的宽度及空间位置信息,生成对应的虚拟姿态参照图像;
S210,在现实环境中叠加显示所述虚拟姿态参照图像,以使通过姿态矫正器的视场看到所述虚拟姿态参照图像。
本实施例中,由于当前用户为站姿,因此,我们至少需要获取到用户的身高和肩宽信息。获取到用户的身高信息后,便可据身高信息生成身体线,该身体线可以是垂直于水平面的,也可以是稍微前倾的。同样的,根据肩宽参数可生成水平肩线。然后再结合现实环境信息,知道用户当前所处的位置,进而可确定该身体线和肩宽线在现实环境中的位置,最后便可根据身体线和肩宽线的长度及位置信息,从而生成对应的虚拟姿态参照图像。最后在现实环境中叠加显示,以使得用户可以通过AR设备可以看到该虚拟的身体线和虚拟的肩宽线,从而矫正自己的姿势。
当然,用户除了可以通过AR设备看到虚拟姿态图像,从而对用户起到正确指引,帮助矫正自己的姿势外,还可以在用户姿势不正确时触发相应的提醒,来提醒用户当前姿势出现了偏差。即:所述基于AR技术的姿态矫正方法还包括:
获取所述用户当前身体位姿信息和当前姿势类型,并将其与所述虚拟姿态参照系统进行比对;
当判定当前身体位姿信息不正确时,给予相应的图示提醒和/或语音提醒。
【实施例十二】
本实施例以坐姿为例,详细阐述了如何实现矫正用户姿势的目的,具体的,如图13所示,当所述用户当前的姿态类型为坐姿时,基于AR技术的姿态矫正方法具体流程包括:
S201,获取用户的当前身体位姿信息;
S202,根据所述当前身体位姿信息确定用户的当前姿势类型;
S205,当确定所述当前姿势类型为站姿时,调取预存的所述用户的坐高数据和肩宽数据;
S206,根据所述用户的坐高数据获取身体线的长度,根据所述肩宽数据获取水平肩线的宽度;
S207,获取所述用户在当前现实环境中的空间位置信息;
S208,根据所述用户的姿态信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置信息;
S209,根据所述身体线的长度及空间位置信息,以及所述水平肩线的宽度及空间位置信息,生成对应的虚拟姿态参照图像;
S210,在现实环境中叠加显示所述虚拟姿态参照图像,以使通过姿态矫正器的视场看到所述虚拟姿态参照图像。
本实施例中,由于坐姿所需要作为参考的身体线的高度是由坐高来决定的,因此,本实施例中至少需要获取到用户的坐高信息,及肩宽信息。
较佳的,当所述用户当前的坐姿为写字姿势或阅读姿势时,除了获取生成上述的虚拟身体线和虚拟水平肩线外,还可以在用户使用的桌面上叠加显示姿势辅助线,具体的,如图7所示,当所述用户当前的坐姿为正确的写字姿势或阅读姿势时,获取所述用户在写字或阅读桌面的虚拟中心线60及左右手臂线(51和52)的位置信息;其中,所述虚拟中心线60为所述用户的身体线在所述桌面上的映射;所述虚拟左右手臂线为所述用户的坐姿正确时,左右手臂在所述桌面上的位置参考线。
此外,为了防止由于书本偏移或者书写本摆放位置不正确等引起用户姿态不正确,本实施例还可通过技术手段限定工作区域,使得用户只可在工作区域内进行阅读或书写,从而防止用户因为书本或书写本摆放位置不正确而引发错误的坐姿。具体的,当所述用户当前的坐姿为写字姿势或阅读姿势时,确定所述用户使用桌面上的书写或阅读的工作区域;所述工作区域用于所述用户放置阅读的书本或写字本;然后模糊化处理所述工作区域之外的其它桌面区域,使得所述用户通过所述AR设备在所述工作区域内书写或阅读。
对于坐姿中阅读姿势的矫正方法中,对于书本摆放的工作区域的确定,可以通过在在用户坐姿为正确阅读姿势时,获取所述用户当前阅读的书本尺寸信息;然后根据所述书本的尺寸信息,生成虚拟书本框;最后,在增强现实画面中,将所述虚拟书本框与所述用户正确拿持书本时的书本实体进行重合匹配,确定所述虚拟书本框在所述现实环境中的正确位置。该虚拟书本款所在的区域便可作为工作区域。
对于坐姿中写字姿势的矫正方法中,还增加了握笔姿势的矫正,具体的,可先识别所述用户的书写笔和/或握笔手指的空间位置;然后再根据预设的正确握笔信息,及所述用户的书写笔的位置信息,生成虚拟的握笔姿势,并通过AR设备增强显示在所述用户当前的现实环境信息中。具体的手部姿势的识别追踪,可以通过Leap Motion传感器来实现,当然,也可以通过其它传感器来实现。
最后,与前述其它实施例一样,在获取所述用户当前的姿态信息后,可将其与所述虚拟参照图像或虚拟姿态模型进行比对,在判定所述用户当前姿态不正确时,给予相应的提醒。
较佳的,当所述用户当前在阅读时,获取所述用户距离阅读书本的距离,当所述距离不在预设的阅读距离范围内时,触发相应的所述提醒;
当所述用户当前在写字时,获取所述用户距离写字本的距离,当所述距离不在预设的书写距离范围内时,触发相应的所述提醒。
【实施例十三】
本申请的基于AR技术的姿态矫正器采用本申请的姿态矫正方法来帮助用户矫正姿态。具体的,本申请的基于AR技术的姿态矫正器包括AR设备,AR设备的AR眼镜除了反射镜、主透镜、显示屏外,还包括摄像头、深度摄像头TOF、高度传感器和手势传感器、根据需要还设有麦克风以及语音、语义判断模块和扬声器等等。整个姿态矫正器还用到了,寻边拟合技术、手势识别技术、图像识别和图像覆盖技术等(具体可参照前面的实施例记载)。该姿态矫正器中还包括各种身高体型的计算公式库、用户使用存档记录等。
在使用之前需要先进行初始化,向AR眼镜输入个人身体参数,包括年龄、身高、坐高、拳宽、肩宽、上臂长和小臂长等(用于在AR显示中生成双臂线、身体线等)。可设置成账户模式,方便多个用户使用。
首先,使用者坐好后戴上AR头显/AR眼镜,调整设备中的各传感器(高度计、陀螺仪/水平仪、等)的初始状态,包括建立3维坐标系;
第二,使用者通过AR眼镜通看到水平肩线,让自己的双肩自然贴合到肩线附近;
第三,使用者通过AR眼镜看到间隔距离线(虚拟小拳头形状),让自己的前胸与桌沿的距离,控制在间隔线边界附近;
第四,使用者通过AR眼镜通看到2条手臂线,让自己的双前臂自然放在桌面,贴合到左右手臂线附近;
第五,使用者握住笔,通过AR眼镜通看到握笔高度线,让自己的指尖与笔尖的距离,控制在握笔高度线边界附近。此时,leap motion体感器,会检测到握笔三指与笔尖的距离。
AR眼镜中还可以显示正确的3D坐姿演示、正确的3D握笔演示和正确的3D站姿演示,方便用户模仿。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (18)

1.一种基于AR技术的姿态矫正器,其特征在于,所述姿态矫正器包括:
传感数据模块,用于通过多种传感器实时获取当前身体位姿信息;
数据分析处理模块,用于根据所述当前身体位姿信息,确定用户的当前姿态类型;
虚拟姿态构建模块,用于根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;
AR显示模块,用于根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过所述姿态矫正器的视场看到所述虚拟姿态参照图像;
所述虚拟姿态构建模块,还用于根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;
所述数据分析处理模块,还用于确定所述当前姿态类型后,调取相应的所述虚拟姿态模型;
所述AR显示模块,还用于在所述数据分析处理模块及摄像定位模块的控制下,将所述虚拟姿态模型匹配至所述现实环境;
所述虚拟姿态构建模块包括第一生成子模块和/或第二生成子模块,
所述第一生成子模块,用于生成身体线和水平肩线;
所述第二生成子模块,用于生成身体各部位的轮廓图像。
2.根据权利要求1所述的一种基于AR技术的姿态矫正器,其特征在于,还包括:身体参数输入模块和/或摄像定位模块,
所述摄像定位模块,用于获取当前的现实环境信息;
所述身体参数输入模块,用于预先输入并存储具体用户的标准姿态类型下的不同身体位姿参数。
3.根据权利要求2所述的一种基于AR技术的姿态矫正器,其特征在于,所述身体参数输入模块包括:输入子模块,和/或读取子模块
所述输入子模块,用于接收输入的所述身体位姿参数,或者通过传感数据模块测量获取所述身体位姿参数;
所述读取子模块,用于根据当前选择的账户,读取所述账户存储的用户的所述身体位姿参数。
4.根据权利要求1-3任一项所述的一种基于AR技术的姿态矫正器,其特征在于,所述传感数据模块包括:基础传感子模块和/或体感传感子模块,
所述基础传感子模块,用于实时获取所述当前身体位姿信息;
所述体感传感子模块,用于获取身体的精细姿势信息。
5.根据权利要求4所述的一种基于AR技术的姿态矫正器,其特征在于,所述体感传感子模块包括Leap Motion传感器、uSens Fingo传感器、Kinect传感器、Xtion Pro传感器、RealSense传感器之中的任意一种或多种,
所述基础传感子模块具体包括高度计、陀螺仪和/或水平仪;
所述摄像定位模块包括:深度摄像头、鱼眼摄像头和/或结构光摄像头。
6.根据权利要求1-3任一项所述的一种基于AR技术的姿态矫正器,其特征在于,所述数据分析处理模块包括:数据调取子模块和/或位置信息确认模块;
所述数据调取子模块,用于调取具体的身高数据、坐高数据和/或肩宽数据;
所述位置信息确认模块,用于通过所述摄像定位模块获取所述用户在当前现实环境中的位置信息;并根据身体的各部位位置信息,确定所述身体线与水平肩线在所述现实环境中的空间位置。
7.根据权利要求6所述的一种基于AR技术的姿态矫正器,其特征在于,所述数据分析处理模块还包括:区域确定子模块,
所述区域确定子模块,用于当所述用户当前的姿势为写字姿势或阅读姿势时,确定所述用户使用桌面上的书写或阅读的工作区域;所述工作区域用于所述用户放置阅读的书本或写字本;
AR显示模块还包括模糊处理子模块,
所述模糊处理子模块,用于对非工作区域进行模糊化显示处理。
8.根据权利要求1-3任一项所述的一种基于AR技术的姿态矫正器,其特征在于,还包括:
调整校正模块,用于对比所述预存身体位姿参数和所述当前身体位姿信息,确定身体各部的姿态和位置,给出调整矫正结果。
9.根据权利要求8所述的一种基于AR技术的姿态矫正器,其特征在于,还包括:
提醒模块,用于根据所述调整矫正结果,给予相应的图示提醒和/或语音提醒。
10.一种基于AR技术的姿态矫正方法,其特征在于,包括如下步骤:
获取当前身体位姿信息;
根据所述当前身体位姿信息确定用户的当前姿态类型;
根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统;
根据所述虚拟姿态参照系统在现实环境中叠加显示虚拟姿态参照图像,以使通过姿态矫正器的视场看到所述虚拟姿态参照图像;
所述基于AR技术的姿态矫正方法还包括:
根据预存身体位姿参数和/或预存姿态类型,在所述虚拟姿态参照系统中构建多种标准的虚拟姿态模型;
确定所述当前姿态类型后,调取相应的所述虚拟姿态模型;
将所述虚拟姿态模型匹配至所述现实环境;
其中,所述根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统包括:
根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,生成身体线和水平肩线、以及生成身体各部分的轮廓图像。
11.根据权利要求10所述的一种基于AR技术的姿态矫正方法,其特征在于,当所述当前姿态类型为站姿时,根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体包括:
根据所述当前身体位姿信息,获取预存站姿类型下,所述用户的预存身体位姿参数;
从所述站姿类型下,预存身体位姿参数中调取所述用户的身高数据和肩宽数据;
根据所述用户的身高数据生成身体线,根据所述肩宽数据生成水平肩线;
获取所述用户在当前现实环境中的空间位置信息;
根据所述当前身体位姿信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置。
12.根据权利要求10所述的一种基于AR技术的姿态矫正方法,其特征在于,当所述当前姿态类型为坐姿时,根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体包括:
根据所述当前身体位姿信息,获取预存坐姿类型下,所述用户的预存身体位姿参数;
从所述预存身体位姿参数中调取所述用户的坐高数据和肩宽数据;
根据所述用户的坐高数据生成身体线,根据所述肩宽数据生成水平肩线;
获取所述用户在当前现实环境中的空间位置信息;
根据所述当前身体位姿信息,确定所述身体线与所述水平肩线在所述现实环境中的所述空间位置。
13.根据权利要求10所述的一种基于AR技术的姿态矫正方法,其特征在于,当所述当前姿态类型为写字姿势或阅读姿势时,根据所述当前姿态类型、当前身体位姿信息以及对应的预存身体位姿参数、预存姿态类型,构建虚拟姿态参照系统具体还包括:
获取预存的写字或阅读时桌面的虚拟中心线及左右手臂线的位置信息;其中,所述虚拟中心线为所述用户的身体线在所述桌面上的映射;所述虚拟左右手臂线为左右手臂在所述桌面上的位置线。
14.根据权利要求13所述的一种基于AR技术的姿态矫正方法,其特征在于,还包括:
当所述当前姿态类型为阅读姿势时,获取所述用户当前阅读的书本的空间尺寸信息;
根据所述书本的空间尺寸信息,生成标准空间位置的虚拟书本框;
在所述姿态矫正器的视场中,将所述虚拟书本框供所述用户拿持书本时进行重合匹配。
15.根据权利要求13所述的一种基于AR技术的姿态矫正方法,其特征在于,还包括:
当所述当前姿态类型为写字姿势时,进一步识别所述用户的书写笔和/或握笔手指的空间位置;根据预存的正确握笔位姿参数,在所述姿态矫正器的视场中,生成标准空间位置的虚拟握笔姿势,供所述用户握笔时进行重合匹配。
16.根据权利要求14或15所述的一种基于AR技术的姿态矫正方法,其特征在于,还包括:
设定写字姿势或阅读姿势中所述用户的最佳书写的工作区域或最佳阅读的工作区域;在所述姿态矫正器的视场中,将所述工作区域外进行模糊化显示处理。
17.根据权利要求10-15任一项所述的一种基于AR技术的姿态矫正方法,其特征在于,还包括:
获取所述用户当前身体位姿信息和当前姿态类型,并将其与所述虚拟姿态参照系统进行比对;
当判定当前身体位姿信息不正确时,给予相应的图示提醒和/或语音提醒。
18.根据权利要求17所述的一种基于AR技术的姿态矫正方法,其特征在于,当所述当前姿态类型为坐姿时,还包括如下任一步骤:
当所述当前姿态类型为阅读姿势时,获取所述用户距离阅读书本的距离,当所述距离不在预设的阅读距离范围内时,触发相应的所述提醒;
当所述当前姿态类型为写字姿势时,获取所述用户握笔和书写的一系列身体数据,当所述距离不在预设的书写距离范围内时,触发相应的所述提醒。
CN201911171896.9A 2019-11-26 2019-11-26 一种基于ar技术的姿态矫正器及其矫正方法 Active CN110859630B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911171896.9A CN110859630B (zh) 2019-11-26 2019-11-26 一种基于ar技术的姿态矫正器及其矫正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911171896.9A CN110859630B (zh) 2019-11-26 2019-11-26 一种基于ar技术的姿态矫正器及其矫正方法

Publications (2)

Publication Number Publication Date
CN110859630A CN110859630A (zh) 2020-03-06
CN110859630B true CN110859630B (zh) 2022-07-19

Family

ID=69655807

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911171896.9A Active CN110859630B (zh) 2019-11-26 2019-11-26 一种基于ar技术的姿态矫正器及其矫正方法

Country Status (1)

Country Link
CN (1) CN110859630B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113761989B (zh) * 2020-06-05 2023-04-07 腾讯科技(深圳)有限公司 行为识别方法、装置、计算机及可读存储介质
CN111860213A (zh) * 2020-06-29 2020-10-30 广州幻境科技有限公司 增强现实系统及其控制方法
CN111967439A (zh) * 2020-09-03 2020-11-20 Tcl通讯(宁波)有限公司 一种坐姿识别方法、装置、终端设备和存储介质
CN112085988A (zh) * 2020-09-11 2020-12-15 北京信息科技大学 一种渗透攻击的虚拟仿真实验系统及方法
CN112419687B (zh) * 2020-11-16 2022-02-22 珠海格力电器股份有限公司 能够纠正书本在书桌上摆放角度的方法和读书设备
CN112687085B (zh) * 2020-12-23 2021-10-26 邢台职业技术学院 一种幼升小阶段学生“三姿”培养的智能辅助工具
CN112598728B (zh) * 2020-12-23 2024-02-13 极米科技股份有限公司 投影仪姿态估计、梯形校正方法、装置、投影仪及介质
CN112998699B (zh) * 2021-04-02 2022-12-13 四川写正智能科技有限公司 一种用于检测用户运动状态的雷达传感器系统及检测方法
CN113674514B (zh) * 2021-07-19 2023-05-16 福建脉行人生医疗科技有限公司 一种基于生物力学的预防近视的方法及装置
CN113778224A (zh) * 2021-08-17 2021-12-10 安克创新科技股份有限公司 姿态矫正方法、装置及智能音频眼镜
CN115006786A (zh) * 2022-04-25 2022-09-06 同济大学 一种用于颈椎康复的仿生眼医疗机器人与康复评估方法
CN114639157B (zh) * 2022-05-18 2022-11-22 合肥的卢深视科技有限公司 不良学习行为检测方法、系统、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019075824A1 (zh) * 2017-10-20 2019-04-25 深圳市鹰硕技术有限公司 一种儿童跑步姿态纠正训练系统
CN110221690A (zh) * 2019-05-13 2019-09-10 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060124207A (ko) * 2005-05-31 2006-12-05 주식회사 팬택 자세를 교정할 수 있는 이동통신단말기 및 자세교정방법
CN107330967B (zh) * 2017-05-12 2020-07-24 武汉商学院 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统
CN107812373A (zh) * 2017-11-06 2018-03-20 深圳清华大学研究院 姿势训练矫正设备、姿势训练与矫正的控制方法
CN207804991U (zh) * 2017-11-06 2018-09-04 深圳清华大学研究院 姿势训练矫正设备
CN109876415B (zh) * 2019-02-28 2021-08-31 京东方科技集团股份有限公司 姿势辅助矫正设备及其控制方法和控制装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019075824A1 (zh) * 2017-10-20 2019-04-25 深圳市鹰硕技术有限公司 一种儿童跑步姿态纠正训练系统
CN110221690A (zh) * 2019-05-13 2019-09-10 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端

Also Published As

Publication number Publication date
CN110859630A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
CN110859630B (zh) 一种基于ar技术的姿态矫正器及其矫正方法
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN107004279B (zh) 自然用户界面相机校准
CN105045398B (zh) 一种基于手势识别的虚拟现实交互设备
CN116724285A (zh) 用于控制虚拟和图形元素的微手势
CN105534694B (zh) 一种人体特征可视化装置及方法
CN111047947A (zh) 一种基于ar技术的书写指导器及书写指导方法
CN105793764B (zh) 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
CN117178247A (zh) 用于动画化及控制虚拟和图形元素的手势
KR20210011425A (ko) 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체
CN111091732B (zh) 一种基于ar技术的心肺复苏指导器及指导方法
CN105593787A (zh) 用于与数字设备交互的直接指向检测的系统和方法
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
CN108139600A (zh) 用于确定渐变镜片的光学系统的方法
CN108135465B (zh) 测试个体的视觉行为的设备、及使用该设备确定眼科镜片的至少一个光学设计参数的方法
JP2022501732A (ja) 画像処理方法及び装置、画像デバイス並びに記憶媒体
KR20100067155A (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
JP2009258884A (ja) ユーザインタフェイス
JP2009018127A (ja) 学習支援装置および学習支援方法
CN113989832A (zh) 姿势识别方法、装置、终端设备及存储介质
CN108348152B (zh) 用于确定个体的视觉行为参数的方法及相关测试设备
JP6479835B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN110858095A (zh) 可由头部操控的电子装置与其操作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant