CN113709411A - 一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 - Google Patents
一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 Download PDFInfo
- Publication number
- CN113709411A CN113709411A CN202010433174.2A CN202010433174A CN113709411A CN 113709411 A CN113709411 A CN 113709411A CN 202010433174 A CN202010433174 A CN 202010433174A CN 113709411 A CN113709411 A CN 113709411A
- Authority
- CN
- China
- Prior art keywords
- data
- eye
- eye movement
- expert
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 160
- 239000011521 glass Substances 0.000 title claims abstract description 152
- 238000005516 engineering process Methods 0.000 title claims abstract description 77
- 238000012549 training Methods 0.000 title claims abstract description 63
- 230000033001 locomotion Effects 0.000 claims abstract description 164
- 238000000034 method Methods 0.000 claims abstract description 122
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 71
- 230000008569 process Effects 0.000 claims abstract description 37
- 230000006399 behavior Effects 0.000 claims abstract description 35
- 238000013499 data model Methods 0.000 claims abstract description 24
- 238000007405 data analysis Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims description 124
- 210000001508 eye Anatomy 0.000 claims description 109
- 238000004422 calculation algorithm Methods 0.000 claims description 54
- 238000010801 machine learning Methods 0.000 claims description 30
- 210000003128 head Anatomy 0.000 claims description 26
- 230000003287 optical effect Effects 0.000 claims description 25
- 239000004984 smart glass Substances 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 15
- 210000002414 leg Anatomy 0.000 claims description 14
- 210000001747 pupil Anatomy 0.000 claims description 12
- 230000003042 antagnostic effect Effects 0.000 claims description 10
- 210000000689 upper leg Anatomy 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 244000309466 calf Species 0.000 claims description 8
- 230000001149 cognitive effect Effects 0.000 claims description 8
- 210000000245 forearm Anatomy 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 230000004434 saccadic eye movement Effects 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 230000000670 limiting effect Effects 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 210000004087 cornea Anatomy 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 210000001525 retina Anatomy 0.000 claims description 4
- 230000036772 blood pressure Effects 0.000 claims description 3
- 230000019771 cognition Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 3
- 210000000707 wrist Anatomy 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000000386 athletic effect Effects 0.000 claims 2
- 239000000463 material Substances 0.000 claims 2
- 238000013480 data collection Methods 0.000 claims 1
- 230000004886 head movement Effects 0.000 claims 1
- 230000009471 action Effects 0.000 description 16
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 230000002147 killing effect Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000004397 blinking Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000005021 gait Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000004899 motility Effects 0.000 description 4
- 230000037147 athletic performance Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 230000001143 conditioned effect Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 201000009279 spontaneous ocular nystagmus Diseases 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明属于运动技术领域,公开了一种MR智能眼镜基于眼动追踪技术的体育辅助训练系统,专家终端利用AR/MR智能眼镜设备收集专家的眼动行为数据和视频影像数据,并将收集到的数据传输至云端服务器;云端服务器对接收到的相关数据构建AI人工智能数据训练,分析眼动数据,还接收新手用户模块发送的请求,反馈对应数据模型;新手用户模块通过AR/MR智能眼镜设备上传当前所在位置以及相应请求,并结合AR/MR智能眼镜设备进行实时学习。本发明在眼动数据分析过程中利用AI人工智能技术识别出视频数据中的运动事件,并且图像识别技术自动对视频中画面内容绘制兴趣区域,提高眼动数据分析效率。
Description
技术领域
本发明属于运动技术领域,尤其涉及一种MR智能眼镜基于眼动追踪技术的体育辅助训练系统。
背景技术
随着近几年科技的高速发展,AR/MR智能眼镜可能是淘汰智能手机的下一代智能终端。那么智能眼镜上的应用就如同智能手机上刚兴起时的应用,存在着巨大的市场价值和市场潜力。
近眼显示设备(HMD)还包括电子显示器和光学组件。HMD可以是例如混合现实(Mixed Reality)—MR眼镜、增强现实(Augmented Reality)—AR眼镜、虚拟现实-(VirtualReality)—VR眼镜、扩展现实(Extended Reality)—XR眼镜或其某种组合。电子显示器配置为发射图像光。光学组件被配置为将图像光引导到与用户眼睛的位置对应的HMD的出射光瞳,AR/MR/XR智能眼镜把其所创造的虚拟数字世界和现实世界环境相结合,使佩戴者既可以看到现实世界也可以看到虚拟的全息影像。
随着最近几年的科技不断发展,国内外推出的AR/MR/XR智能眼镜都带有眼动追踪功能,例如:Magic Leap one、Hololens 2。利用眼动追踪技术捕获用户眼动行为数据然后把眼动行为数据分析后结合在各行各业中使用,例如:心理学,医学和工程学。
在眼动和运动心理学的研究中可以发现:获取运动员的眼动行为数据,再通过眼动行为数据可以预判运动员的反应和一些操作,准确率很高。反观传统的体育运动训练方式都是基于教练的主观经验为主,然后进行大量的训练进行的,所述主观经验难以通过言语表达出来供人学习,更难以将经验量化并且可视化的展示出来。因此,经验教学低效,传播困难,成本高。
人类的信息加工在很大程度上依赖于视觉,大脑神经反馈控制眼球运动能以有效的方式和速度采集外界信息,眼动仪问世以来,心理学家通过眼动技术探索各种不同条件下视觉对信息的加工机制,进而观察其与心理活动的关系,提供了高校的工具。而在体育运动中,视觉信息提取的模式不同则可能反映了高水平运动员与一般水平的或新手之间运动能力的各种差异。眼动分析的方法己经被广泛地应用于各运动项目的研究中以记录不同水平运动员在运动、训练或比赛中的眼动模式,将极大地有利于对新手的有效训练和运动员的选拔。大多数项目,如篮球、足球、乒乓球、冰球、高尔夫球、网球、台球、铅球、板球、体操、击剑、自行车和职业国际象棋等都可以利用眼动分析进行研究
在许多对抗性体育项目中,都存在着瞬息变化的比赛局势,这就要求运动员能够迅速地搜寻到有用的视觉信息,同时做出相应的动作反应。许多研究发现,专家运动员比新手运动员的视觉搜索策略更恰当和更有效率。视觉搜索策略是指在搜索相关的信息时眼睛的移动方式。运动员在比赛中的视觉搜索及注视情况,可以通过眼动仪来进行研究。
例如在现有的羽毛球杀球眼动研究中发现,非专业的新手运动员在观看击球和发球视频时,往往更多的是注视腿部、球拍、和羽毛球、,然而专业运动员更多的是关注对手的肩部、胸部、手臂、头部。专业运动员在杀球路线的预测上精确度远高于非专业的新手运动员。
在体育运动中,视觉信息提取的模式不同则可能反映了高水平运动员与一般水平的或新手之间运动能力的各种差异。传统体育运动方式一直通常采用主观和经验为主的训练方法教学,训练效率低下主观经验难以通过言语表达出来供人学习,并且往往在运动过程中良好视觉搜索模式需要经过专业运动员长时间的训练才能够养成,然而这些视觉搜索模式往往是专业运动在潜意识情况下的条件反射,因此这些运动经验难以表达传授给新手。
综上所述,现有技术存在的问题是:(1)目前的在体育运动的眼动分析多用于研究院校内的项目研究,广大的普通人群没有机会受到眼动运动教学,因此目前的教学技术不善于传播。
(2)目前在球类体育运动教学中,需要专家对学员进行训练,但是优秀的教学资源是有限的。因此如何将有效的主观教学经验变成可视化的教学方法,并且把技巧经验转变为便于传播的教学方法是如今需要解决的问题。
(3)传统体育运动方式通常采用主观经验教学,主观经验难以通过言语表达出来供人学习,并且往往在运动过程中良好视觉搜索模式需要经过专业运动员长时间的训练才能够养成,然而这些视觉搜索模式往往是专业运动在潜意识情况下的条件反射,因此这些运动经验难以表达传授给新手。
(4)目前市面上比较有代表性的智能眼镜如:Magic Leap one、Hololens 2,他们的产品中的主流应用大部分以游戏娱乐性,企业用户性为主,缺少真正贴合用户生活中所需的应用,在实用性,功能性没有广大的用户基础,则导致AR智能眼镜设备行业或/和技术发展缓慢。
解决上述技术问题的意义:本发明可以帮助用户在体育运动中快速的集中注意力,辅助快速行为决策,尽快掌握动作的技术要领,减少盲目的重复,极大地提高训练效率,降低用户受到伤害的可能性,从而达到最佳的训练效果。不仅可以将专家运动员潜意识的视觉搜索经验可视化地展示出来供新手学习,而且还可以通过互联网快速的将经验传送给任何新手。
在未来AR/MR智能眼镜设备为主导的智能眼镜时代,本发明所述的体育运动辅助训练系统能够帮助人们迅速的学习体育运动。
本发明通过AI的人工智能技术在云端服务中构建训练集,实现了对运动情境的自主学习,自动识别环境中的兴趣物体,进而分析获得有效的视觉搜索经验。因此在提出了利用人工智能机器学习设置特征标签,不仅使得计算机自主学习有效视觉搜索的方法,而且对于传统眼动心理学实验数据的处理上也起到的促进作用,大大降低了人工数据处理的工作量,手动绘制兴趣区域的工作量。
在新手用户段MR/AR眼镜利用的边缘计算技术将视频实时传至云端服务器与云端数据库比对,快速的为新手用户提供决策建议。因此降低了本地MR/AR眼镜的计算量和功耗。这将是5G发展背景下的一个消费级应用。
AR/MR智能眼镜设备结合上述应用具备能够解决人们实际需要解决的问题,而后可以在普通消费者中得到实际应用,如果能够普及在普通消费者人群,则可以提高AR/MR智能眼镜设备的购买量,产品需求达到一定程度则加速产品硬件的更新迭代,便可以促进AR/MR智能眼镜设备的发展,符合未来科技的发展趋势。
发明内容
针对现有技术存在的问题,本发明提供了一种MR智能眼镜基于眼动追踪技术的体育辅助训练系统。
本发明是这样实现的,一种基于眼动追踪技术的体育运动的辅助训练系统,包括:
专家终端、云端服务器以及新手用户终端;
专家终端:用于利用AR/MR智能眼镜设备收集专家的数据,并将收集到的数据传输至云端服务器;
云端服务器:用于接收专家的相关数据,并对接收到的相关数据进行处理人工智能的机器学习,建立样本数据库;同时还用于接收新手用户终端发送的请求,反馈对应数据模型;用于接收并分析新手用户当前实时数据,将实时的处理获得的当前情境事件下的专家视觉搜索模式和视觉注视点位置回传给新手用户客户端;
新手用户终端:用于通过AR/MR智能眼镜设备上传当前所在位置以及相应请求,同时用于接收云端发送的相关数据模型,并结合AR/MR智能眼镜设备进行实时学习。
进一步,所述云端服务器包括:
云计算模块:用于运用人工智能机器学习算法对数据进行数据计算;对数据进行数据排序;对数据进行数据储存;对数据进行数据检索一系列的逻辑运算;
网络通信模块:用于进行AR/MR智能眼镜设备通讯,接收AR/MR智能眼镜设备的网络请求,并向AR/MR智能眼镜设备发送网络请求;
云存储模块(数据库):逻辑算法对大量的数据进行分析,排序,组织,存储,学习获得各项运动的特征数据库;
系统优化模块:用于针对不同应用进行优化,形成针对性的硬件支撑环境。
本发明的另一目的在于提供一种应用于所述基于眼动追踪技术的体育运动的辅助训练系统的基于眼动追踪技术的体育运动的辅助训练方法,所述基于眼动追踪技术的体育运动的辅助训练方法包括:
步骤一,专家人群(即在某项运动领域很有经验或者有部分经验的人群)佩戴AR/MR智能眼镜参与或观看某对抗性运动比赛;AR/MR眼镜的传感器(眼动追踪模块、前置摄像头等)收集且记录下专家在该对抗性运动中的眼动行为数据和生理数据、视频,最终将收集到的专家数据上传至云端服务器。
步骤二,云端服务器对上传的数据进行人工智能算法的分析。云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过预先AI(人工智能算法)训练好的事件特征库识别MR眼镜前置摄像头所拍摄的视频影像,理解该运动中各个时刻(或者每一帧图像)所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域。将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而AI训练专家在该体育项目的该运动事件下的眼睛行为数据,获得视觉搜索模式和认知决策模型。
步骤三,新手用户在佩戴MR智能眼镜时,眼镜系统进入此时新手用户正在进行中体育项目的教学系统,并将前置摄像头拍到的影像和眼动数据实时上传至服务器。
步骤四,云端服务器对实时接收的视频数据进行识别,判断新手用户该体育项目当前时刻的情境事件。识别视频内容中的兴趣物体,最终通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点。
步骤五,MR/AR智能眼镜接受云端服务器传回结果数据,并通过MR智能眼镜光学显示系统呈现在当前情境事件下的视觉搜索模式和视觉注视点。
进一步,步骤一中,本发明实施例提供的专家正戴着AR/MR智能眼镜,AR/MR眼镜的传感器(眼动追踪模块、前置摄像头等)收集且记录下专家在该对抗性运动中的眼动数据和生理数据,最终将收集到的专家数据上传至云端服务器。
在本发明中,专家端AR/MR眼镜系统程序执行的技术方法包括:
AR/MR眼镜系统应理解目前专家准备进行体育运动项目,例如篮球、排球、乒乓球、羽毛球等。具体方法为通过AR/MR眼镜前置摄像头拍摄专家视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术(卷积神经网络)训练过的物体特征数据库进行比对,进而计算出此时体育运动项目。例如摄像头拍摄到,例如篮球、排球、乒乓球、羽毛球、球拍、拦网等特征物体进行图像比对计算则可以获得此时正在进行的体育运动。例如当前置摄像头拍摄到篮球使则可判断正在进行篮球运动。其中,还包括使用AR/MR智能眼镜设备上集成的GPS定位对当前所在位置的定位可以大致知道判断专家现在正处于什么环境中,进而判断正在进行地体育运动,例如定位地址是某篮球场,则判断可能为正在进行篮球运动。
在本发明中,所述相关数据包括专家眼动数据和AR/MR智能眼镜设备前置摄像头所捕捉到的对手运动的视频数据,该视频影像正是专家第一视角视觉前方地视野画面。
AR/MR智能眼镜已有眼动追踪模块获取人眼注视点。注视时,左右两只眼睛的视线汇聚相交于一对象。测出两只眼睛各自的视线角度和两眼视线夹角,确定双眼视线交点三维坐标,即确定人眼注视点。
其中专家眼动数据内容包括:其中专家眼动数据内容包括:注视点位置,注视持续时长,注视次数,对注视区域的首次注视时间,注视点的注视次数,瞳孔直径的变化,眼跳幅度/距离,眼跳次数,眼睛运动速度,扫视路径,首次注视时长,浏览顺序,一些扫视路径的可视化速度图表等信息,用户对视野前方各物体注视顺序,兴趣区域的平均注视时长,兴趣区域空间分布。MR眼镜上其他传感器还可以监测括专家用户此时的心跳、血压、身体运动的加速度、方向、身体姿态等。
所述专家收集数据时AR/MR智能眼镜设备前置摄像头所捕捉到比赛中对手的身体运动行为数据包括但不限于:身体倾斜度,双腿的跨度,关节的特征,肩膀的屈伸程度及手腕的伸展程度,双腿的跳起或下蹲。
在本发明中,所述收集数据时的过程具体包括:专家通过打开AR/MR智能眼镜设备上集成的眼动追踪模块和图像识别模块以及前置摄像头进行实时的采集所拍摄到的画面,即专家所看到的画面。眼动追踪模块会根据专家在运动过程中收集眼动行为数据,例如:羽毛球比赛中,专家面前的对手正在通过杀球奋力将羽毛球击回,这时眼动追踪模块会采集到专家此时眼睛的变化(例如瞳孔的放大和缩小,注视点大致分布在哪里,对手的哪个部位注视时间最长或较短,注视区域大不大等等这些数据),和对手的身体运动行为数据(此时对手击打球是左手还是右手、腿部、肩胸部、手臂、球拍、身体倾斜幅度,跑动的范围,双腿之间的跨度,以及身体各个关节的特征)。
进一步,步骤二中,所述云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的视频影像,识别该运动中各个时刻所发生的情况,对视频中人物进行运动的姿态识别,处理为人体骨骼运动的形式,通过将视频中目标人物的运动姿态与经过人工智能技术训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件;将这些运动事件所发时间进行标记,记录下运动事件持续时间段或帧数;
所述并对视频中内容识别出兴趣物且划分兴趣区域包括,兴趣区域能够有效的帮助眼动数据的分析;通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域;其中兴趣区域的形状为矩形或与目标物体形状相同;兴趣区域中内容包括头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构;
云端服务器的眼动数据与兴趣区域的分析包括:根据视频中已获取的运动事件发生地顺序为时间轴进行眼动数据分析,及分析专家在不同情境事件不同兴趣区域的眼动指标;按照时间顺序,将同一时刻专家的眼动数据映射在同一时刻的视频画面中,进而将眼动数据与兴趣区域进行对比运算;专家在对手的手臂、头、球兴趣区域的眼动数据包括注视平均时间、平均瞳孔直径、注视点个数、眼跳距离、首次注视点持续时间、次注视点持续时间、眨眼;通过统计总结出专家的有效视觉搜索点和兴趣物体、视觉认知模式;
进一步确定专家眼动行为的有效性,并优化数据模型,在得到眼动数据分析结果后,将数据结果与其他专家、新的眼动数据分析结果进行对比,排除的专家的个别异常注视点指标方法;
优化数据模型的方法具体为,通过专家手动确认其的预测球体或拳击的落点与实际结果是否一致;或通过计算机视觉系统自动识别在本情景事件下,专家的视觉搜索是否有效的回击了球体或有效的躲避攻击,如果是,则判断专家的视觉搜索做出的知觉预测与实际结果一致;进而,将该有效的专家眼动追踪数据加入到视觉搜索眼动数据模型中,优化人工智能算法和运动训练样本模型库;
所述人工智能机器学习算法包括:计算机视觉算法的非限制性示例包括:尺度不变特征变换SIFT,加速鲁棒特征SURF,附加地或替代地通过各种机器学习算法执行对象识别;
训练后,机器学习算法由云端服务器或HMD存储。
进一步,步骤三中,新手用户在佩戴MR智能眼镜时,进入此时新手用户正在进行的体育项目,并将前置摄像头拍到的影像和眼动数据实时上传至服务器具体包括:
所述的新手用户包括:特指没有运动经验的新手,普通学员,初学者。
所述进入应用的过程包括:通过MR/AR眼镜上的人机交互技术操控MR/AR眼镜显示的虚拟按键进入体育项目教学系统并选择相应的教学科目。所述的人机交互技术包括但不限于眼动追踪、头动追踪、手势识别、语音识别、6DOF手柄等。
除此之外,还包括MR/AR眼镜系统自动识别周围环境,眼镜系统自动进入新手用户当前的体育项目教学当中。其方法为利用MR/AR眼镜前置摄像头拍摄新手视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术(卷积神经网络)训练过的物体特征数据库进行比对,进而计算出此时体育运动项目。例如摄像头拍摄到,例如篮球、排球、乒乓球、羽毛球、球拍、拦网等特征物体进行图像比对计算则可以获得此时正在进行的体育运动。例如当前置摄像头拍摄到篮球使则可判断正在进行篮球运动。其中,还包括使用AR/MR智能眼镜设备上集成的GPS定位对当前所在位置的定位可以大致知道判断新手用户现在正处于什么环境中,进而判断正在进行地体育运动,例如定位地址是某篮球场,则判断可能为正在进行篮球运动。
将新手用户运动过程中前置摄像头拍摄到的视频实时上传至云端服务器进行处理,并等待并接收云端服务器的处理后的教学方案。
进一步,步骤四中,本发明实施例提供云端服务器对实时接收的视频数据进行识别,判断新手用户该体育项目当前时刻的情境事件。识别视频内容中的兴趣物体,最终通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点的人过程包括:
云端服务器对接收的实时视频数据进行识别,判断新手用户该体育项目当前时刻的情境事件是什么,云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的实时视频影像,识别新手用户在当下运动时刻所发生的情况可能包括,例如在羽毛球运动中运动员包括杀球动作、挑球动作、发球动作、跑动等任意一种情况。具体方法为对视频中人物进行运动的姿态识别,处理成人体骨骼运动的形式(如今安防系统中步态分析),通过将实时视频中目标人物的运动姿态与经过人工智能技术(卷积神经网络)训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件。
在本发明中,对实时视频中内容识别出兴趣物体且划分兴趣区域包括,兴趣区域能够有效的帮助标记视觉搜索目标。通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域。其中兴趣区域的形状可以为矩形或与目标物体形状相同。兴趣区域中内容包括但不限于头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标。
在本发明中,新手用户当前的实时视频被识别标记出运动事件,运动事件与云端数据库匹配相同的运动/情境事件找到专家在该运动/情境事件下的视觉搜索模式和视觉注视点位置具体包括,通过识别出新手用户此时正在面临的比赛情境去搜寻前期建立的专家在该比赛项目的该情境事件下的眼动行为数据和兴趣区域,在事先专家端训练出的有效的视觉搜索模式和对手击球路线预测结果、关键的视觉注视位置与新手视野中已识别的兴趣区域相关联。注视位置标注在有效的兴趣区域内。
最终,云端服务器将数据处理结果通过无线网络传送回MR/AR智能眼镜设备。
进一步,步骤五中,本发明实施例提供的MR/AR智能眼镜接受云端服务器传回结果数据,并通过MR/AR智能眼镜光学显示系统呈现在当前情境事件下的视觉搜索模式和视觉注视点,具体包括:
传回的数据包括或不包括兴趣区域框的坐标位置。网络通信可以采用通信技术(例如5G、6G、WIFI)和边缘计算技术,在云端服务器识别新手运动员视野中的特征兴趣物体,将特征物体的圈/框坐标传回MR/AR眼镜进行显示。或如果同MR/AR眼镜本地算力进行前置摄像头画面中兴趣物体的识别和绘制兴趣区域,则不需要传送兴趣区域坐标数据。
该运动专家群体在当前情境事件下的视觉搜索数据,例如在羽毛球杀球运动过程中,非专业的新手运动员往往更多的是注视腿部、球拍、和羽毛球。然而专业运动员更多的是关注对手的肩部、胸部、手臂、头部,则将对手肩部、胸部、手臂、头部等部位,则将这些部位作为兴趣区域显示高亮的控制信号和位置坐标传送至MR眼镜,除了高亮显示还可以使用任意的视觉效果引导新手运动的注视位置。除此之外,视觉效果(高亮)还包括注视顺序的信息,例如通过高亮的明暗程度、颜色深浅、编号等任意方式表示先后顺序。竞争对手的动作预测结果数据,预测数据包括但不限于对手的动作预测,球(羽毛球、排球、乒乓球等球类)落点位置预测。
最终,AR/MR智能眼镜设备的光波导显示模块在对手的兴趣区域(脚腕处、胳膊、头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构)处虚拟成像出标记,AR/MR智能眼镜设备引导用户注视到这个标记(类似于科幻电影里铁侠战衣的视域中的很多提示信息,不过这里的成像信息都是与现实结合起来的,是真实的在现实环境中成像)。
本发明的另一目的在于提供一种实施一项所述基于眼动追踪技术的体育运动的辅助训练方法的AR/MR智能眼镜设备。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施所述基于眼动追踪技术的体育运动的辅助训练方法。
本发明的另一目的在于提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行所述的基于眼动追踪技术的体育运动的辅助训练方法。
本发明的另一目的在于提供一种基于AI人工智能技术对眼动数据分析的方法。例如AI绘制兴趣区域、判断运动情境等。定义为一直眼动数据分析的一种方法。限制在心理学研究领域。
具体包括:
云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的视频影像,识别该运动中各个时刻(或者每一帧图像)所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域。将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而分析获得专家在该体育项目的该情况下的眼睛注视位置和视觉搜索模式、认知决策。
其中,在本发明中,所述云端服务器通过人工智能机器学习算法识别前置摄像头所拍摄的视频影像,理解该运动中各个时刻所发生的情况包括,例如在羽毛球运动中运动员包括杀球动作、挑球动作、发球动作、跑动等情况。具体方法为对视频中人物进行运动的姿态识别,处理成人体骨骼运动的形式(如今安防系统中步态分析),通过将视频中目标人物的运动姿态与经过人工智能技术(卷积神经网络)训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件。将这些运动事件所发时间(区间帧)进行标记,记录下运动事件持续时间段或帧数。
在本发明中,所述并对视频中内容识别出兴趣物且划分兴趣区域包括,兴趣区域能够有效的帮助眼动数据的分析。通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域。其中兴趣区域的形状可以为矩形或与目标物体形状相同。兴趣区域中内容包括但不限于头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标。
在本发明中,云端服务器的眼动数据与兴趣区域的分析包括:根据视频中已获取的运动事件发生地顺序为时间轴进行眼动数据分析,及分析专家在不同情境事件不同兴趣区域的眼动指标。按照时间顺序,将同一时刻专家的眼动数据(注视点坐标)映射在同一时刻的视频画面中,进而将眼动数据与兴趣区域进行对比运算。例如,在羽毛球运动的杀球事件中,专家在对手的手臂、头、球等兴趣区域的眼动数据包括但不限于注视平均时间、平均瞳孔直径、注视点个数、眼跳距离、首次注视点持续时间、次注视点持续时间、眨眼。最终通过统计总结出专家的有效视觉搜索点和兴趣物体、视觉认知模式/视觉搜索模型。在可替换实施例中,可以使用人工智能机器算法训练获得特定情境事件与眼动行为(例如注视兴趣区域、注视兴趣区域的顺序)之间的联系,及视觉搜索模型。
在本发明中,进一步确定专家眼动行为的有效性,并优化数据模型。在得到眼动数据分析结果后,可将数据结果与其他专家、新手的眼动数据分析结果进行对比,进而排除的专家的个别异常注视点指标方法。
优化数据模型的方法具体为,通过专家手动确认其的预测(知觉判断)球体或拳击(包括但不限于羽毛球、乒乓球、排球等球类,或跆拳道、拳击等搏击运动)的落点(球的运动轨迹)与实际结果是否一致。或通过计算机视觉系统自动识别在本情景事件下,专家的视觉搜索是否有效的回击了球体(例如羽毛球)或有效的躲避攻击,如果是,则判断专家的视觉搜索做出的知觉预测与实际结果一致。进而,将该有效的专家眼动追踪数据加入到视觉搜索眼动数据模型中,优化人工智能算法和运动训练样本模型库。
在另外一种可替换实施例中,视觉搜索模型训练的数据不仅仅通过佩戴MR/AR眼镜的专家采集获得对抗性运动中的眼动行为数据和生理数据、情境事件视频素材,还可以通过专家观看平面比赛视频过程中收集眼动数据,例如通过显示器、平板播放比赛视频给专家观看,并通过桌面是眼动仪采集眼动数据。
综上所述,本发明的优点及积极效果为:本发明提供了一种基于眼动追踪技术的体育运动的辅助训练系统能够进行高效率,高准确性的体育训练。
本发明是一种基于眼动追踪技术和运动心理学技术以AR/MR智能眼镜为载体的一种体育运动的辅助训练系统。本发明在用户在体育运动的过程中运用AR/MR智能眼镜上的动作捕捉系统和专家眼动模型的结合分析实时的给予指导和建议。本发明可以帮助用户快速的集中注意力,减少盲目的重复,极大地提高训练效率,降低用户受到伤害的可能性,尽快的掌握要领,从而达到最佳的训练效果。眼动追踪技术还可以在用户学习过程中捕捉到用户眼睛的潜意识动作,将以前传统抽象的不可描述的现象可以直观的呈现出来。以便用户可以做出快速的预判和决策。
附图说明
图1是本发明实施例提供的基于眼动追踪技术的体育运动的辅助训练方法流程图。
图2是本发明实施例提供的基于眼动追踪技术的体育运动的辅助训练系统结构示意图。
图中:11、专家终端;12、云端服务器;13、用户终端;14、云计算模块;15、网络通信模块;16、云储存模块;17、系统优化模块。
图3是本发明实施例提供的AR/MR智能眼镜设备的硬件模块的示意图。
图4是本发明实施例提供的用户在佩戴智能眼镜学习时所看到的场景示意图。
图中:1、MR/AR眼镜(HMD)设备;2、图像处理单元GPU;3、显示设备;4、真实世界界篮球运动员模型;41、肩部;42、肘部;43、脚步;5、眼镜框架;6、网络通信模块WIFI、4G、5G;7、前置摄像头、深度视觉视像头;8、处理器;9、惯性测量单元;10、眼动追踪系统。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
人类的信息加工在很大程度上依赖于视觉,大脑神经反馈控制眼球运动能以有效的方式和速度采集外界信息,眼动仪问世以来,心理学家通过眼动技术探索各种不同条件下视觉对信息的加工机制,进而观察其与心理活动的关系,提供了高校的工具。而在体育运动中,视觉信息提取的模式不同则可能反映了高水平运动员与一般水平的或新手之间运动能力的各种差异。眼动分析的方法己经被广泛地应用于各运动项目的研究中以记录不同水平运动员在运动、训练或比赛中的眼动模式,将极大地有利于对新手的有效训练和运动员的选拔。大多数项目,如篮球、足球、乒乓球、冰球、高尔夫球、网球、台球、铅球、板球、体操、击剑、自行车和职业国际象棋等都可以利用眼动分析进行研究
在许多对抗性体育项目中,都存在着瞬息变化的比赛局势,这就要求运动员能够迅速地搜寻到有用的视觉信息,同时做出相应的动作反应。许多研究发现,专家运动员比新手运动员的视觉搜索策略更恰当和更有效率。视觉搜索策略是指在搜索相关的信息时眼睛的移动方式。运动员在比赛中的视觉搜索及注视情况,可以通过眼动仪来进行研究。
例如在现有的羽毛球杀球眼动研究中发现,非专业的新手运动员在观看击球和发球视频时,往往更多的是注视腿部、球拍、和羽毛球、,然而专业运动员更多的是关注对手的肩部、胸部、手臂、头部。专业运动员在杀球路线的预测上精确度远高于非专业的新手运动员。
基于上述眼动心理学在运动中研究的理论基础产生了本技术方法,本发明提供了一种基于眼动追踪技术的体育运动的辅助训练系统及方法,下面结合附图对本发明作详细的描述。
所述近眼显示设备(HMD)还包括电子显示器和光学组件。HMD可以是例如混合现实(Mixed Reality)—MR眼镜、增强现实(Augmented Reality)—AR眼镜、虚拟现实(VirtualReality)—VR眼镜、扩展现实(Extended Reality)—XR眼镜或其某种组合。电子显示器配置为发射图像光。在一些实施例中,用户的视野可以被波导至少部分地包围,用户通过波导可以查看他们的周围环境。波导可以将来自显示设备的显示光引导到用户的视野。波导可以在出射光耦合之前引导显示光。在将光输出耦合之后,波导可以将显示光的视觉信息与来自用户周围的环境光相结合,以将视觉信息传递给用户,让用户既可以看到现实世界也可以看到虚拟的全息影像。在用户周围将来自HMD的视觉信息覆盖可能需要视觉信息相对于用户眼睛的精确生成和定位。
为了更好的描述本发明方法,本文将以MR眼镜作为说明主体进行描述,MR眼镜在本文中将代表AR眼镜、VR眼镜、XR眼镜或其某种组合的近眼显示设备(HMD)。
如图1所示,本发明实施例提供的基于眼动追踪技术的体育运动的辅助训练方法包括:
S101,专家人群(即在某项运动领域很有经验或者有部分经验的人群)佩戴AR/MR智能眼镜参与或观看某对抗性运动比赛;AR/MR眼镜的传感器(眼动追踪模块、前置摄像头等)收集且记录下专家在该对抗性运动中的眼动行为数据和生理数据、视频,最终将收集到的专家数据上传至云端服务器。
S102,云端服务器对上传的数据进行人工智能算法的分析。云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过预先AI(人工智能算法)训练好的事件特征库识别MR眼镜前置摄像头所拍摄的视频影像,理解该运动中各个时刻(或者每一帧图像)所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域。将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而AI训练专家在该体育项目的该运动事件下的眼睛行为数据,获得视觉搜索模式和认知决策模型。
S103,新手用户在佩戴MR智能眼镜时,眼镜系统进入此时新手用户正在进行中体育项目的教学系统,并将前置摄像头拍到的影像和眼动数据实时上传至服务器。
S104,云端服务器对实时接收的视频数据进行识别,判断新手用户该体育项目当前时刻的情境事件。识别视频内容中的兴趣物体,最终通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点。
S105,MR/AR智能眼镜接受云端服务器传回结果数据,并通过MR智能眼镜光学显示系统呈现在当前情境事件下的视觉搜索模式和视觉注视点。
步骤S101中,本发明实施例提供的专家正戴着AR/MR智能眼镜,AR/MR眼镜的传感器(眼动追踪模块、前置摄像头等)收集且记录下专家在该对抗性运动中的眼动数据和生理数据,最终将收集到的专家数据上传至云端服务器。
在本发明实施例中,专家端AR/MR眼镜系统程序执行的技术方法包括:
AR/MR眼镜系统应理解目前专家准备进行体育运动项目,例如篮球、排球、乒乓球、羽毛球等。具体方法为通过AR/MR眼镜前置摄像头拍摄专家视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术(卷积神经网络)训练过的物体特征数据库进行比对,进而计算出此时体育运动项目。例如摄像头拍摄到,例如篮球、排球、乒乓球、羽毛球、球拍、拦网等特征物体进行图像比对计算则可以获得此时正在进行的体育运动。例如当前置摄像头拍摄到篮球使则可判断正在进行篮球运动。其中,还包括使用AR/MR智能眼镜设备上集成的GPS定位对当前所在位置的定位可以大致知道判断专家现在正处于什么环境中,进而判断正在进行地体育运动,例如定位地址是某篮球场,则判断可能为正在进行篮球运动。
在本发明实施例中,所述专家具体包括:对某项运动很有经验的人群,心理学中,“专家”(expert),一般指某个特定领域有几千个小时以上的实际工作经验。例如:专业运动员,体育老师,或经验丰富的业余爱好者等。
在本发明实施例中,所述相关数据包括专家眼动数据和AR/MR智能眼镜设备前置摄像头所捕捉到的对手运动的视频数据,该视频影像正是专家第一视角视觉前方地视野画面。
其中专家眼动数据内容包括:注视点位置,注视持续时长,注视次数,对注视区域的首次注视时间,注视点的注视次数,瞳孔直径的变化,眼跳幅度/距离,眼跳次数,眼睛运动速度,扫视路径,首次注视时长,浏览顺序,一些扫视路径的可视化速度图表等信息,用户对视野前方各物体注视顺序,兴趣区域的平均注视时长,兴趣区域空间分布。MR眼镜上其他传感器还可以监测括专家用户此时的心跳、血压、身体运动的加速度、方向、身体姿态等。
所述专家收集数据时AR/MR智能眼镜设备前置摄像头所捕捉到比赛中对手的身体运动行为数据包括但不限于:身体倾斜度,双腿的跨度,关节的特征,肩膀的屈伸程度及手腕的伸展程度,双腿的跳起或下蹲。
在本发明实施例中,所述收集数据时的过程具体包括:专家通过打开AR/MR智能眼镜设备上集成的眼动追踪模块和图像识别模块以及前置摄像头进行实时的采集所拍摄到的画面,即专家所看到的画面。眼动追踪模块会根据专家在运动过程中收集眼动行为数据,例如:羽毛球比赛中,专家面前的对手正在通过杀球奋力将羽毛球击回,这时眼动追踪模块会采集到专家此时眼睛的变化(例如瞳孔的放大和缩小,注视点大致分布在哪里,对手的哪个部位注视时间最长或较短,注视区域大不大等等这些数据),和对手的身体运动行为数据(此时对手击打球是左手还是右手、腿部、肩胸部、手臂、球拍、身体倾斜幅度,跑动的范围,双腿之间的跨度,以及身体各个关节的特征)。
步骤S102中,本发明实施例提供的云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过预先AI(人工智能算法)训练好的事件特征库识别MR眼镜前置摄像头所拍摄的视频影像,理解该运动中各个时刻(或者每一帧图像)所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域。将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而AI训练专家在该体育项目的该运动事件下的眼睛行为,获得视觉搜索模式和认知决策模型。
其中,在本发明实施例中,所述云端服务器通过人工智能机器学习算法识别前置摄像头所拍摄的视频影像,理解该运动中各个时刻所发生的情况包括,例如在羽毛球运动中运动员包括杀球动作、挑球动作、发球动作、跑动等情况。具体方法为对视频中人物进行运动的姿态识别,处理成人体骨骼运动的形式(如今安防系统中步态分析),通过将视频中目标人物的运动姿态与经过人工智能技术(卷积神经网络)训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件。将这些运动事件所发时间(区间帧)进行标记,记录下运动事件持续时间段或帧数。
在本发明实施例中,所述并对视频中内容识别出兴趣物且划分兴趣区域包括,兴趣区域能够有效的帮助眼动数据的分析。通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域。其中兴趣区域的形状可以为矩形或与目标物体形状相同。兴趣区域中内容包括但不限于头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标。
在本发明实施例中,云端服务器的眼动数据与兴趣区域的分析包括:根据视频中已获取的运动事件发生地顺序为时间轴进行眼动数据分析,及分析专家在不同情境事件不同兴趣区域的眼动指标。按照时间顺序,将同一时刻专家的眼动数据(注视点坐标)映射在同一时刻的视频画面中,进而将眼动数据与兴趣区域进行对比运算。例如,在羽毛球运动的杀球事件中,专家在对手的手臂、头、球等兴趣区域的眼动数据包括但不限于注视平均时间、平均瞳孔直径、注视点个数、眼跳距离、首次注视点持续时间、次注视点持续时间、眨眼。最终通过统计总结出专家的有效视觉搜索点和兴趣物体、视觉认知模式/视觉搜索模型。在可替换实施例中,可以使用人工智能机器算法训练获得特定情境事件与眼动行为(例如注视兴趣区域、注视兴趣区域的顺序)之间的联系,及视觉搜索模型。
在本发明实施例中,进一步确定专家眼动行为的有效性,并优化数据模型。在得到眼动数据分析结果后,可将数据结果与其他专家、新手的眼动数据分析结果进行对比,进而排除的专家的个别异常注视点指标方法。
优化数据模型的方法具体为,通过专家手动确认其的预测(知觉判断)球体或拳击(包括但不限于羽毛球、乒乓球、排球等球类,或跆拳道、拳击等搏击运动)的落点(球的运动轨迹)与实际结果是否一致。或通过计算机视觉系统自动识别在本情景事件下,专家的视觉搜索是否有效的回击了球体(例如羽毛球)或有效的躲避攻击,如果是,则判断专家的视觉搜索做出的知觉预测与实际结果一致。进而,将该有效的专家眼动追踪数据加入到视觉搜索眼动数据模型中,优化人工智能算法和运动训练样本模型库。
在另外一种可替换实施例中,视觉搜索模型训练的数据不仅仅通过佩戴MR/AR眼镜的专家采集获得对抗性运动中的眼动行为数据和生理数据、情境事件视频素材,还可以通过专家观看平面比赛视频过程中收集眼动数据,例如通过显示器、平板播放比赛视频给专家观看,并通过桌面是眼动仪采集眼动数据。
在本发明实施例中,所述人工智能机器学习算法包括:计算机视觉算法的非限制性示例包括:尺度不变特征变换(SIFT),加速鲁棒特征(SURF),可以附加地或替代地通过各种机器学习算法来执行对象识别。训练后,机器学习算法可以由云端服务器或HMD存储。机器学习算法的一些示例可以包括有监督或无监督的机器学习算法,包括回归算法(例如普通最小二乘回归),基于实例的算法(例如学习向量量化),决策树算法(例如分类和回归树),贝叶斯算法(例如朴素贝叶斯),聚类算法(例如k-means聚类),关联规则学习算法(例如(例如先验算法),人工神经网络算法(例如Perceptron),深度学习算法(例如DeepBoltzmann机器或深度神经网络),降维算法(例如主成分分析),集成算法(例如StackedGeneralization)和/或其他机器学习算法。可以为各个数据集定制各个模型。
步骤S103中,新手用户在佩戴MR智能眼镜时,进入此时新手用户正在进行的体育项目,并将前置摄像头拍到的影像和眼动数据实时上传至服务器具体包括:
所述的新手用户包括:特指没有运动经验的新手,普通学员,初学者。
所述进入应用的过程包括:通过MR/AR眼镜上的人机交互技术操控MR/AR眼镜显示的虚拟按键进入体育项目教学系统并选择相应的教学科目。所述的人机交互技术包括但不限于眼动追踪、头动追踪、手势识别、语音识别、6DOF手柄等。
除此之外,还包括MR/AR眼镜系统自动识别周围环境,眼镜系统自动进入新手用户当前的体育项目教学当中。其方法为利用MR/AR眼镜前置摄像头拍摄新手视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术(卷积神经网络)训练过的物体特征数据库进行比对,进而计算出此时体育运动项目。例如摄像头拍摄到,例如篮球、排球、乒乓球、羽毛球、球拍、拦网等特征物体进行图像比对计算则可以获得此时正在进行的体育运动。例如当前置摄像头拍摄到篮球使则可判断正在进行篮球运动。其中,还包括使用AR/MR智能眼镜设备上集成的GPS定位对当前所在位置的定位可以大致知道判断新手用户现在正处于什么环境中,进而判断正在进行地体育运动,例如定位地址是某篮球场,则判断可能为正在进行篮球运动。
将新手用户运动过程中前置摄像头拍摄到的视频实时上传至云端服务器进行处理,并等待并接收云端服务器的处理后的教学方案。
步骤S104中,本发明实施例提供云端服务器对实时接收的视频数据进行识别,判断新手用户该体育项目当前时刻的情境事件。识别视频内容中的兴趣物体,最终通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点的人过程包括:
云端服务器对接收的实时视频数据进行识别,判断新手用户该体育项目目前时刻的情境事件是什么,云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的实时视频影像,识别新手用户在当下运动时刻所发生的情况可能包括,例如在羽毛球运动中运动员包括杀球动作、挑球动作、发球动作、跑动等任意一种情况。具体方法为对视频中人物进行运动的姿态识别,处理成人体骨骼运动的形式(如今安防系统中步态分析),通过将实时视频中目标人物的运动姿态与经过人工智能技术(卷积神经网络)训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件。
在本发明实施例中,对实时视频中内容识别出兴趣物体且划分兴趣区域包括,兴趣区域能够有效的帮助标记视觉搜索目标。通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域。其中兴趣区域的形状可以为矩形或与目标物体形状相同。兴趣区域中内容包括但不限于头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标。
在本发明实施例中,新手用户当前的实时视频被识别标记出运动事件与云端数据库匹配相同的运动/情境事件找到专家在该运动/情境事件下的视觉搜索模式和视觉注视点位置具体包括,通过识别出新手用户此时正在面临的比赛情境去搜寻前期建立的专家在该比赛项目的该情境事件下的眼动行为数据和兴趣区域,在事先专家端训练出的有效的视觉搜索模式和对手击球路线预测结果、关键的视觉注视位置与新手视野中已识别的兴趣区域相关联。注视位置标注在有效的兴趣区域内。
最终,云端服务器将数据处理结果通过无线网络传送回MR/AR智能眼镜设备。
步骤S105中,本发明实施例提供的MR/AR智能眼镜接受云端服务器传回结果数据,并通过MR/AR智能眼镜光学显示系统呈现在当前情境事件下的视觉搜索模式和视觉注视点,具体包括:
传回的数据包括或不包括兴趣区域框的坐标位置。网络通信可以采用通信技术(例如5G、6G、WIFI)和边缘计算技术,在云端服务器识别新手运动员视野中的特征兴趣物体,将特征物体的圈/框坐标传回MR/AR眼镜进行显示。或如果同MR/AR眼镜本地算力进行前置摄像头画面中兴趣物体的识别和绘制兴趣区域,则不需要传送兴趣区域坐标数据。其中所述兴趣区域框的坐标位置为虚拟三维空间中的X横坐标、Y纵坐标、Z竖坐标,其中通过MR智能眼镜深度视觉摄像头对真实世界空间建立虚拟三模空间,并将虚拟三维空间与真实世界空间拟合。
该运动专家群体在当前情境事件下的视觉搜索数据,例如在羽毛球杀球运动过程中,非专业的新手运动员往往更多的是注视腿部、球拍、和羽毛球。然而专业运动员更多的是关注对手的肩部、胸部、手臂、头部,则将对手肩部、胸部、手臂、头部等部位,则将这些部位作为兴趣区域显示高亮的控制信号和位置坐标传送至MR眼镜,除了高亮显示还可以使用任意的视觉效果引导新手运动的注视位置。除此之外,视觉效果(高亮)还包括注视顺序的信息,例如通过高亮的明暗程度、颜色深浅、编号等任意方式表示先后顺序。竞争对手的动作预测结果数据,预测数据包括但不限于对手的动作预测,球(羽毛球、排球、乒乓球等球类)落点位置预测。
最终,AR/MR智能眼镜设备的光波导显示模块在对手的兴趣区域(脚腕处、胳膊、头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构)处虚拟成像出标记,AR/MR智能眼镜设备引导用户注视到这个标记(类似于科幻电影里铁侠战衣的视域中的很多提示信息,不过这里的成像信息都是与现实结合起来的,是真实的在现实环境中成像)。
如图2所示,本发明实施例提供的基于眼动追踪技术的体育运动的辅助训练系统包括:
专家终端11:用于利用AR/MR智能眼镜设备收集专家在该教学项目的运动过程中的眼动行为数据,并将收集到的数据传输至云端服务器12。
云端服务器12:用于接收专家的相关数据,并对接收到的相关数据进行人工智能的机器学习,建立样本数据库;同时还用于新手接收用户模块发送的请求,反馈对应数据模型。用于接收并分析新手用户当前实时数据,将实时的处理获得的当前情境事件下的专家视觉搜索模式和视觉注视点位置回传给新手用户客户端。
新手用户终端13:用于通过AR/MR智能眼镜设备上传当前所在位置以及相应请求,同时用于接收云端12发送的相关数据模型,并结合AR/MR智能眼镜设备进行实时学习。
作为优选实施例,本发明提供的云端服务器12包括:
云计算模块14:用于运用人工智能机器学习算法对数据进行数据计算;对数据进行数据排序;对数据进行数据储存;对数据进行数据检索一系列的逻辑运算。
网络通信模块15:用于对AR/MR智能眼镜设备的通信,接收AR/MR智能眼镜设备的网络请求,并向AR/MR智能眼镜设备发送网络请求。
云储存模块即云端数据库16:用于超级计算机利用复杂的人工智能机器学习算法对大量的数据进行分析,排序,组织,存储,学习获得各项运动的特征数据库。
系统优化模块17:用于针对不同应用进行优化,形成针对性的硬件支撑环境。
在云计算中心中,不同的服务器承担着不同的应用。例如有些是虚拟化应用、有些是大数据应用,不同的应用有着不同的需求。因此针对不同应用进行优化,形成针对性的硬件支撑环境,将能充分发挥云计算中心的优势。
如图3所示,本发明实施例示出了具有眼动追踪系统的AR/MR智能眼镜1(即,HMD设备)的侧透视图。在图3的示例中HMD设备1包括显示设备3和框架5,框架5环绕用户的头部以在向用户提供混合现实(MR)体验时将显示设备3定位成靠近用户的眼睛。可以使用任何合适的显示技术和配置显示设备3显示虚拟图像。对于混合现实体验,显示设备3可以是不透明的发光二极管(LED)显示器,液晶显示器(LCD),直接用微机电系统(MEMS)作为显示器或任何其他合适类型的不透明显示器进行扫描。在一些情况下,可以提供向外的摄像机7,其捕获周围环境的图像,并且这些捕获的图像可以与计算机生成的图像一起显示在显示器上,该图像增强了捕获的真实环境图像。
对于混合现实(MR)或增强现实体验,显示设备3可以是至少部分透明的,使得HMD设备1的用户可以通过显示虚拟对象的一个或多个部分透明像素来查看物理环境中的物理真实世界对象。例如,显示装置3可以包括图像产生元件,例如透明有机发光二极管(OLED)显示器或与光波导元件结合使用的MEMS。显示设备3可以是至少部分透明的,使得HMD设备1的用户可以通过显示虚拟对象表示的一个或多个部分透明像素来查看物理环境中的物理真实世界对象。
框架5还可以支持HMD设备1的附加组件,包括图像处理单元GPU2,网络通信模块(5G)6,前置摄像头7,处理器8,惯性测量单元(IMU)9和眼动追踪系统10.处理器8可以包括逻辑和配置的相关计算机存储器接收来自IMU9和其他传感器的感觉信号,向显示设备3提供显示信号,从收集的数据中导出信息,以及实施本发明所述的各种控制过程。
(本智能眼镜属于运动型智能眼镜,能牢固的固定在使用者的头部,在运动的过程中不会掉落和松动)。
作为优选实施例,本发明提供的眼动追踪系统10中,检测用户眼睛的凝视动作的方法具体包括:
通过眼动追踪模块捕获眼睛图像,检测眼睛动作,计算眼睛的瞳孔大小、虹膜图像、眨眼频率、单眼眨眼、眼脸闭合、视线及眼跳轨迹等,计算注视时长,当注视时长超过一定时长,则视为用户对某一位置进行了凝视动作。
再者,眼动追踪模块的眼动追踪方法包括:
1)通过接收眼睛反射光线,计算瞳孔中心与角膜中心的连线进行眼动追踪。硬件包括多个不可见红外光源、微型摄像头、反光热镜、光波导镜片。
2)另一种眼动追踪技术实施例为通过捕获眼睛图像或者计算视网膜的影像或者视网膜反射光的强度进行眼动追踪。硬件包括不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片。
3)另一种眼动追踪技术实施例为通过发射结构光对眼睛建模,计算眼睛模型的视觉中心进行眼动追踪。
4)另一种眼动追踪技术实施例为通过接收眼睛角膜的反射光线,计算角膜中心反射的强度最大的光来进行眼动追踪。硬件包括不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片,光波导镜片可以配置为靠近眼睛的一层或多层光波导进行眼睛图像的获取和传导,波导中的输入衍射耦合器将眼睛图像耦合,眼睛图像光线在光波导中传导,同时图像传感器配置在光波导输出衍射耦合器的光线出射端。
图4是本发明实施例提供的用户在佩戴智能眼镜学习时所看到的场景示意图:图中所呈现视角为新手用户此时在篮球运动中所观看到的画面,用户通过AR/MR智能眼镜设备所呈现的数字世界和真实世界里的场景相结合来进行实时的学习。如图真实世界一名篮球运动员4正在对新手用户前方做出拦截的行为,智能眼镜前置摄像头将此时实时拍摄的影像上传至服务器进行识别,云端服务器将识别出的兴趣区域坐标位置和视觉搜索模式回传至MR眼镜通过成像系统呈现出来,如图肩部41、肘部42、脚步43为成像系统呈现的虚拟影像标识叠加在真实人物场景上,以此引导新手用户目标。并且服务器通过人物运动姿态的识别预测对手的运动,并提示新手用户。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于眼动追踪技术的体育运动的辅助训练方法,其特征在于,所述基于眼动追踪技术的体育运动的辅助训练方法包括:
步骤一,专家人群佩戴AR/MR智能眼镜参与或观看某对抗性运动比赛;AR/MR眼镜的眼动追踪模块、前置摄像头收集且记录下专家在该对抗性运动中的眼动行为数据和生理数据、视频,最终将收集到的专家数据上传至云端服务器;
步骤二,云端服务器对上传的数据进行人工智能算法的分析;云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过预先AI训练好的事件特征库识别MR眼镜前置摄像头所拍摄的视频影像,理解该运动中各个时刻所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域;将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而AI训练专家在该体育项目的该运动事件下的眼睛行为数据,获得视觉搜索模式和认知决策模型;
步骤三,新手用户在佩戴MR智能眼镜时,眼镜系统进入此时新手用户正在进行中体育项目的教学系统,并将前置摄像头拍到的影像和眼动数据实时上传至服务器;
步骤四,云端服务器对实时接收的视频数据进行识别,判断新手在该体育项目当前时刻的情境事件;识别视频内容中的兴趣物体,最终通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点;
步骤五,MR/AR智能眼镜接受云端服务器传回结果数据,并通过MR智能眼镜光学显示系统进行呈现在当前情境事件下的视觉搜索模式和视觉注视点。
2.如权利要求1所述的基于眼动追踪技术的体育运动的辅助训练方法,其特征在于,步骤一中,专家端AR/MR眼镜系统程序执行的方法包括:
通过AR/MR眼镜前置摄像头拍摄专家视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术训练过的物体特征数据库进行比对,进而计算出此时体育运动项目;还包括使用AR/MR智能眼镜设备上集成的GPS定位对当前所在位置的定位判断专家现在正处于什么环境中;
相关数据包括专家眼动数据和AR/MR智能眼镜设备前置摄像头所捕捉到的对手运动的视频数据;其中专家眼动数据内容包括:其中专家眼动数据内容包括:注视点位置,注视持续时长,注视次数,对注视区域的首次注视时间,注视点的注视次数,瞳孔直径的变化,眼跳幅度/距离,眼跳次数,眼睛运动速度,扫视路径,首次注视时长,浏览顺序,一些扫视路径的可视化速度图表等信息,用户对视野前方各物体注视顺序,兴趣区域的平均注视时长,兴趣区域空间分布;MR眼镜上其他传感器还可以监测括专家用户此时的心跳、血压、身体运动的加速度、方向、身体姿态;专家收集数据时AR/MR智能眼镜设备前置摄像头所捕捉到比赛中对手的身体运动行为数据包括身体倾斜度,双腿的跨度,关节的特征,肩膀的屈伸程度及手腕的伸展程度,双腿的跳起或下蹲;
所述收集数据方法包括:AR/MR智能眼镜设备上集成的眼动追踪模块和图像识别模块以及前置摄像头进行实时的采集所拍摄到的画面;
眼动追踪模块根据专家在运动过程中收集眼动行为数据和对手的身体运动行为数据。
3.如权利要求1所述的基于眼动追踪技术的体育运动的辅助训练方法,其特征在于,步骤二中,所述云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的视频影像,识别该运动中各个时刻所发生的情况,对视频中人物进行运动的姿态识别,处理为人体骨骼运动的形式,通过将视频中目标人物的运动姿态与经过人工智能技术训练过的运动特征数据库进行比对,即可判断出此时目标人物的运动事件;将这些运动事件所发时间进行标记,记录下运动事件持续时间段或帧数;
所述并对视频中内容识别出兴趣物且划分兴趣区域包括,兴趣区域能够有效的帮助眼动数据的分析;通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域;其中兴趣区域的形状为矩形或与目标物体形状相同;兴趣区域中内容包括头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他人体身体结构;
云端服务器的眼动数据与兴趣区域的分析包括:根据视频中已获取的运动事件发生地顺序为时间轴进行眼动数据分析,及分析专家在不同情境事件不同兴趣区域的眼动指标;按照时间顺序,将同一时刻专家的眼动数据映射在同一时刻的视频画面中,进而将眼动数据与兴趣区域进行对比运算;专家在对手的手臂、头、球兴趣区域的眼动数据包括注视平均时间、平均瞳孔直径、注视点个数、眼跳距离、首次注视点持续时间、次注视点持续时间、眨眼;通过统计总结出专家的有效视觉搜索点和兴趣物体、视觉认知模式;
进一步确定专家眼动行为的有效性,并优化数据模型,在得到眼动数据分析结果后,将数据结果与其他专家、新的眼动数据分析结果进行对比,排除的专家的个别异常注视点指标方法;
优化数据模型的方法具体为,通过专家手动确认其的预测球体或拳击的落点与实际结果是否一致;或通过计算机视觉系统自动识别在本情景事件下,专家的视觉搜索是否有效的回击了球体或有效的躲避攻击,如果是,则判断专家的视觉搜索做出的知觉预测与实际结果一致;进而,将该有效的专家眼动追踪数据加入到视觉搜索眼动数据模型中,优化人工智能算法和运动训练样本模型库;在另外一种可替换实施例中,视觉搜索模型训练的数据不仅仅通过佩戴MR/AR眼镜的专家采集获得对抗性运动中的眼动行为数据和生理数据、情境事件视频素材,还可以通过专家观看平面比赛视频过程中收集眼动数据,通过显示器、平板播放比赛视频给专家观看,并通过桌面是眼动仪采集眼动数据;
所述人工智能机器学习算法包括:计算机视觉算法的非限制性示例包括:尺度不变特征变换SIFT,加速鲁棒特征SURF,附加地或替代地通过各种机器学习算法执行对象识别;
训练后,机器学习算法由云端服务器或HMD存储。
4.如权利要求1所述的基于眼动追踪技术的体育运动的辅助训练方法,其特征在于,步骤三中,新手用户在佩戴MR智能眼镜时,眼镜系统进入此时新手用户正在进行的体育项目,并将前置摄像头拍到的影像和眼动数据实时上传至服务器具体包括:
1)进入应用的过程包括:通过MR/AR眼镜上的人机交互技术操控MR/AR眼镜显示的虚拟按键进入体育项目的教学系统并选择相应的教学科目;所述的人机交互技术包括眼动追踪、头动追踪、手势识别、语音识别、6DOF手柄;
还包括MR/AR眼镜系统自动识别周围环境,眼镜系统自动进入新手体育项目教学当中;利用MR/AR眼镜前置摄像头拍摄新手视野前方画面,通过将摄像头拍摄到的运动过程视频和目标图像与经过人工智能技术训练过的物体特征数据库进行比对,进而计算出此时体育运动项目;将新手运动过程中前置摄像头拍摄到的视频实时上传至云端服务器进行处理,并等待并接收云端服务器的处理后的教学方案;
2)所述获取人眼注视点的过程包括:AR/MR智能眼镜已有眼动追踪模块获取人眼注视点;注视时,左右两只眼睛的视线汇聚相交于一对象;测出两只眼睛各自的视线角度和两眼视线夹角,确定双眼视线交点三维坐标,确定人眼注视点;
步骤四中,通过将新手的运动事件与云端数据库匹配相同的情境事件找到专家在该情境事件下的视觉搜索模式和视觉注视点的人过程包括:
云端服务器对接收的实时视频数据进行识别,通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的实时视频影像,识别新手在当下运动时刻所发生的情况,对视频中人物进行运动的姿态识别,处理成骨骼运动的形式,通过将实时视频中目标人物的运动姿态与经过人工智能技术训练过的运动特征数据库进行比对,判断出此时目标人物的运动事件;
对实时视频中内容识别出兴趣物体且划分兴趣区域,兴趣区域帮助标记视觉搜索目标;通过上述人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域;感兴趣区域的形状为矩形或与目标物体形状相同;兴趣区域中内容包括头部、球拍、小臂、球台、胸、肩、大腿、小腿、球,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标;
步骤五中,传回的数据包括或不包括识别出的兴趣区域框的坐标位置;采用通信技术和边缘计算技术,在云端服务器识别是新视野中的特征兴趣物体,将特征物体的圈中框坐标传回MR/AR眼镜进行显示;或如果同MR/AR眼镜本地算力进行前置摄像头画面中兴趣物体的识别和绘制兴趣区域,则不需要传送兴趣区域坐标数据;
AR/MR智能眼镜设备的光波导显示模块在对手(新手用户的视觉前方)的兴趣区域呈现虚拟成像出标记,AR/MR智能眼镜设备引导用户注视到这个标记。
5.一种基于眼动追踪技术的体育运动的辅助训练系统,其特征在于,所述基于眼动追踪技术的体育运动的辅助训练系统包括:
专家终端、云端服务器以及新手用户终端;
专家终端:用于利用AR/MR智能眼镜设备收集专家的数据,并将收集到的数据传输至云端服务器;
云端服务器:用于接收专家的相关数据,并对接收到的相关数据进行人工智能的机器学习,建立样本数据库;同时还用于接收新手用户终端发送的请求,反馈对应数据模型;用于接收并分析新手用户当前实时数据,将实时的处理获得的当前情境事件下的专家视觉搜索模式和视觉注视点位置回传给新手用户客户端;
新手用户终端:用于通过AR/MR智能眼镜设备上传当前所在位置以及相应请求,同时用于接收云端发送的相关数据模型,并结合AR/MR智能眼镜设备进行实时学习。
6.如权利要求5所述基于眼动追踪技术的体育运动的辅助训练系统,其特征在于,所述AR/MR智能眼镜设备包括:
光波导显示模块,用于调整用户视线在显示屏上的对焦位置,进行准确对焦及虚拟成像;
手势识别模块,用于识别用户的手势,提供手势操作;
网络通信模块,用于向外界发送信息和接受信息,实时通信;
扬声器模块,用于根据用户不同的操作以播放相应的三维立体声;
GPS定位模块,用于定位用户所在的位置;
眼动追踪功能模块,用于提供眼动行为数据;
动作捕捉模块,用于实时捕捉用户的关节动作和整体身体动作,进行数据分析;
图像识别模块:用于识别人眼注视点所在区域的局部图像,以及前置摄像模块所拍摄到的图像的识别;
语音识别模块:用于识别用户发出的语音进行其他操作;
前置摄像模块:用于拍摄实景影像和图像,是动作捕捉模块和图像识别模块的基础模块;
所述眼动追踪模块包括以下硬件设备:
1)通过接收眼睛反射光线,计算瞳孔中心与角膜中心的连线进行眼动追踪;硬件包括多个不可见红外光源、微型摄像头、反光热镜、光波导镜片;
2)通过捕获眼睛图像或者计算视网膜的影像或者视网膜反射光的强度进行眼动追踪;硬件包括不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片;
3)通过发射结构光对眼睛建模,计算眼睛模型的视觉中心进行眼动追踪;
4)通过接收眼睛角膜的反射光线,计算角膜中心反射的强度最大的光来进行眼动追踪;硬件包括不可见红外光源、光敏传感器、MEMS微机械系统反射镜、光波导镜片;
所述云端服务器包括:
云计算模块:用于运用人工智能机器学习算法对数据进行数据计算;对数据进行数据排序;对数据进行数据储存;对数据进行数据检索一系列的逻辑运算;
网络通信模块:用于进行AR/MR智能眼镜设备通讯,接收AR/MR智能眼镜设备的网络请求,并向AR/MR智能眼镜设备发送网络请求;
云存储模块,包括数据库,通过逻辑算法对大量的数据进行分析,排序,组织,存储,学习获得各项运动的特征数据库;
系统优化模块:用于针对不同应用进行优化,形成针对性的硬件支撑环境。
7.一种实施如权利要求1~4任意一项所述基于眼动追踪技术的体育运动的辅助训练方法的AR/MR/XR智能眼镜设备。
8.一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以实施如权利要求1~4任意一项所述基于眼动追踪技术的体育运动的辅助训练方法。
9.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-4任意一项所述的基于眼动追踪技术的体育运动的辅助训练方法。
10.一种基于AI人工智能技术对眼动数据构建训练集分析的方法,应用于AI绘制兴趣区域、判断运动情境,其特征在于,所述基于AI人工智能技术对眼动数据分析的方法包括:
云端服务器接受来自专家端MR智能眼镜的数据,云端服务器通过人工智能机器学习算法识别MR眼镜前置摄像头所拍摄的视频影像,识别该运动中各个时刻所发生的运动事件,并对视频中内容识别出兴趣物且划分兴趣区域;将专家运动过程的眼动数据进行复盘,注视点坐标映射在视频画面中,进而分析获得专家在该体育项目的该情况下的眼睛注视位置和视觉搜索模式、认知决策;
所述云端服务器通过人工智能机器学习算法识别前置摄像头所拍摄的视频影像,理解该运动中各个时刻所发生的情况;具体方法为对视频中人物进行运动的姿态识别,处理成人体骨骼运动的形式,通过将视频中目标人物的运动姿态与经过人工智能技术训练过的运动特征数据库进行比对,判断出此时目标人物的运动事件;将这些运动事件所发时间进行标记,记录下运动事件持续时间段或帧数;
对视频中内容识别出兴趣物且划分兴趣区域包括,兴趣区域能够有效的帮助眼动数据的分析;通过人工智能的图像识别技术对视频画面中的目标物体进行图像识别、图像的语义分割,进而在目标物体边缘绘制出兴趣区域;兴趣区域的形状为矩形或与目标物体形状相同;兴趣区域中内容包括头部、球拍、小臂、球台、胸、肩、大腿、小腿、球、其他结构,同时服务器通过识别兴趣物体获得该兴趣物体的在画面中的二维坐标;
云端服务器的眼动数据与兴趣区域的分析包括:根据视频中已获取的运动事件发生地顺序为时间轴进行眼动数据分析,及分析专家在不同情境事件不同兴趣区域的眼动指标;按照时间顺序,将同一时刻专家的眼动数据映射在同一时刻的视频画面中,进而将眼动数据与兴趣区域进行对比运算;专家在对手的手臂、头、球兴趣区域的眼动数据包括注视平均时间、平均瞳孔直径、注视点个数、眼跳距离、首次注视点持续时间、次注视点持续时间、眨眼;通过统计总结出专家的有效视觉搜索点和兴趣物体、视觉认知模式;
进一步确定专家眼动行为的有效性,并优化数据模型,在得到眼动数据分析结果后,将数据结果与别的专家、新手的眼动数据分析结果进行对比,排除的专家的个别异常注视点指标方法;
优化数据模型的方法具体为:通过专家手动确认预测球体或拳击的落点与实际结果是否一致,或通过计算机视觉系统自动识别在本情景事件下,专家的视觉搜索是否有效的回击了球体或有效的躲避攻击;是,则判断专家的视觉搜索做出的知觉预测与实际结果一致;将该有效的专家眼动追踪数据加入到视觉搜索眼动数据模型中,优化人工智能算法和运动训练样本模型库;
视觉搜索模型训练的数据通过佩戴MR/AR眼镜的专家采集获得对抗性运动中的眼动行为数据和生理数据、情境事件视频素材,还通过专家观看平面比赛视频过程中收集眼动数据,通过显示器、平板播放比赛视频给专家,并通过桌面使眼动仪采集眼动数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010433174.2A CN113709411B (zh) | 2020-05-21 | 2020-05-21 | 一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010433174.2A CN113709411B (zh) | 2020-05-21 | 2020-05-21 | 一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113709411A true CN113709411A (zh) | 2021-11-26 |
CN113709411B CN113709411B (zh) | 2024-05-14 |
Family
ID=78645414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010433174.2A Active CN113709411B (zh) | 2020-05-21 | 2020-05-21 | 一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113709411B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115064023A (zh) * | 2022-05-06 | 2022-09-16 | 中国人民解放军陆军防化学院 | 基于ar眼镜的便携式终端教学训练系统 |
CN115273600A (zh) * | 2022-07-27 | 2022-11-01 | 山东心法科技有限公司 | 一种飞行员驾驶技能智能辅助训练方法及系统 |
CN115810203A (zh) * | 2022-12-19 | 2023-03-17 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
CN116168805A (zh) * | 2023-01-20 | 2023-05-26 | 北京瑞帆科技有限公司 | 一种用于认知训练的思维训练装置及认知训练系统 |
CN116708974A (zh) * | 2023-08-01 | 2023-09-05 | 清华大学 | 一种头戴式主动视觉相机的通用摄像头干扰方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180008141A1 (en) * | 2014-07-08 | 2018-01-11 | Krueger Wesley W O | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
CN108463271A (zh) * | 2015-08-28 | 2018-08-28 | 伊虎智动有限责任公司 | 用于运动技能分析以及技能增强和提示的系统和方法 |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
CN109925678A (zh) * | 2019-03-01 | 2019-06-25 | 北京七鑫易维信息技术有限公司 | 一种基于眼动追踪技术的训练方法、训练装置及设备 |
CN109933193A (zh) * | 2019-03-01 | 2019-06-25 | 北京体育大学 | 基于运动员眼动信息实时捕捉的智能辅助训练系统 |
CN113181619A (zh) * | 2021-04-09 | 2021-07-30 | 青岛小鸟看看科技有限公司 | 一种运动训练方法、装置和系统 |
-
2020
- 2020-05-21 CN CN202010433174.2A patent/CN113709411B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180008141A1 (en) * | 2014-07-08 | 2018-01-11 | Krueger Wesley W O | Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance |
CN108463271A (zh) * | 2015-08-28 | 2018-08-28 | 伊虎智动有限责任公司 | 用于运动技能分析以及技能增强和提示的系统和方法 |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
CN109925678A (zh) * | 2019-03-01 | 2019-06-25 | 北京七鑫易维信息技术有限公司 | 一种基于眼动追踪技术的训练方法、训练装置及设备 |
CN109933193A (zh) * | 2019-03-01 | 2019-06-25 | 北京体育大学 | 基于运动员眼动信息实时捕捉的智能辅助训练系统 |
CN113181619A (zh) * | 2021-04-09 | 2021-07-30 | 青岛小鸟看看科技有限公司 | 一种运动训练方法、装置和系统 |
Non-Patent Citations (1)
Title |
---|
张赛男 等: "基于眼动追踪技术的数字阅读系统设计与应用", 图书馆学刊, no. 04 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115064023A (zh) * | 2022-05-06 | 2022-09-16 | 中国人民解放军陆军防化学院 | 基于ar眼镜的便携式终端教学训练系统 |
CN115273600A (zh) * | 2022-07-27 | 2022-11-01 | 山东心法科技有限公司 | 一种飞行员驾驶技能智能辅助训练方法及系统 |
CN115810203A (zh) * | 2022-12-19 | 2023-03-17 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
CN115810203B (zh) * | 2022-12-19 | 2024-05-10 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
CN116168805A (zh) * | 2023-01-20 | 2023-05-26 | 北京瑞帆科技有限公司 | 一种用于认知训练的思维训练装置及认知训练系统 |
CN116708974A (zh) * | 2023-08-01 | 2023-09-05 | 清华大学 | 一种头戴式主动视觉相机的通用摄像头干扰方法及系统 |
CN116708974B (zh) * | 2023-08-01 | 2023-10-17 | 清华大学 | 一种头戴式主动视觉相机的通用摄像头干扰方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113709411B (zh) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113709411B (zh) | 一种mr智能眼镜基于眼动追踪技术的体育辅助训练系统 | |
Kredel et al. | Eye-tracking technology and the dynamics of natural gaze behavior in sports: A systematic review of 40 years of research | |
JP7253017B2 (ja) | 反射を利用する拡張現実システムおよび方法 | |
Avola et al. | An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games | |
Mencarini et al. | Designing wearable systems for sports: a review of trends and opportunities in human–computer interaction | |
Akbaş et al. | Application of virtual reality in competitive athletes–a review | |
Lin et al. | Towards an understanding of situated ar visualization for basketball free-throw training | |
EP3459061B1 (en) | Multi -joint tracking combining embedded sensors and an external | |
CN106095089A (zh) | 一种获取感兴趣目标信息的方法 | |
KR20170129716A (ko) | 성능 센서 데이터에 기초한 적응 훈련 프로그램의 공급을 포함하는 쌍방향 기능 훈련내용을 제공할 수 있도록 하는 구조, 장치 및 방법 | |
Cordeiro et al. | ARZombie: A mobile augmented reality game with multimodal interaction | |
Dong et al. | Why vr games sickness? an empirical study of capturing and analyzing vr games head movement dataset | |
US12062123B2 (en) | 3D avatar generation using biomechanical analysis | |
Yeo et al. | Augmented learning for sports using wearable head-worn and wrist-worn devices | |
Echeverria et al. | KUMITRON: Artificial intelligence system to monitor karate fights that synchronize aerial images with physiological and inertial signals | |
Krabben et al. | How wide should you view to fight? Establishing the size of the visual field necessary for grip fighting in judo | |
Yang et al. | Research on face recognition sports intelligence training platform based on artificial intelligence | |
Seong et al. | MultiSenseBadminton: Wearable Sensor–Based Biomechanical Dataset for Evaluation of Badminton Performance | |
Cañal-Bruland et al. | Recognizing and predicting movement effects: identifying critical movement features. | |
Schack et al. | Coaching with virtual reality, intelligent glasses and neurofeedback: the potential impact of new technologies | |
Hu | The Application of Artificial Intelligence and Big Data Technology in Basketball Sports Training | |
Correia et al. | Using virtual environments to study interactions in sport performance | |
Wang et al. | THE DEVELOPMENT AND CHANGES OF TRIPLE JUMPERS’BALANCE BOARD COMBINED WITH SPECIAL TRAINING BY DEEP LEARNING APPROACH | |
Ji et al. | [Retracted] Remote Evaluation System of Tennis Batting Action Standard Based on Acceleration Sensor | |
Tits | Expert gesture analysis through motion capture using statistical modeling and machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230512 Address after: Room 204-1, Building A, Building 1, Wuhan Great Wall Innovation Technology Park, Tangxun Hubei Road, Donghu New Technology Development Zone, Wuhan City, Hubei Province, 430205 Applicant after: Magic scorpion technology (Wuhan) Co.,Ltd. Address before: 430014 Donghu High-tech Development Zone, Wuhan City, Hubei Province Applicant before: Chen Tao Applicant before: WUHAN SCORPIONS TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |