CN116431036A - 一种基于元宇宙的虚拟在线教学系统 - Google Patents
一种基于元宇宙的虚拟在线教学系统 Download PDFInfo
- Publication number
- CN116431036A CN116431036A CN202310448982.XA CN202310448982A CN116431036A CN 116431036 A CN116431036 A CN 116431036A CN 202310448982 A CN202310448982 A CN 202310448982A CN 116431036 A CN116431036 A CN 116431036A
- Authority
- CN
- China
- Prior art keywords
- students
- eye
- module
- class
- teachers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 20
- 230000003993 interaction Effects 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 7
- 238000007654 immersion Methods 0.000 claims abstract description 7
- 230000009471 action Effects 0.000 claims abstract description 6
- 238000004891 communication Methods 0.000 claims abstract description 6
- 230000008921 facial expression Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 241000282414 Homo sapiens Species 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000004424 eye movement Effects 0.000 abstract description 13
- 238000000034 method Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000011161 development Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 abstract description 3
- 230000019771 cognition Effects 0.000 abstract 1
- 238000005457 optimization Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于元宇宙的虚拟在线教学系统,涉及AI和VR技术领域,该发明包括眼动追踪模块、表情识别模块、3D建模模块以及校准反馈模块。眼动追踪模块通过对某人眼神的追踪,记录其眼神状态及他人对此人眼神的注视情况;表情识别模块可分析学生上课的专注情况,便于师生及时地交互;3D建模模块通过半身建模创建人物形象并在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果;校准反馈模块是通过对元宇宙课堂的多项指标打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度。本发明实施例从认知心理学及人工智能出发,最大程度还原线下课堂,助力在线教育的发展进程及升级更新。
Description
技术领域
本发明涉及人工智能技术和虚拟现实技术领域,具体为基于元宇宙的虚拟在线教学系统。
背景技术
元宇宙(Metaverse),是人类运用数字技术所构建的,由现实世界映射或超越现实世界,可与现实世界交互的虚拟世界,具备新型社会体系的数字生活空间,其主要是集成了一大批现有技术,包括5G、云计算、人工智能、虚拟现实、区块链、数字货币、物联网、人机交互等。其中,虚拟现实技术是一种运用计算机仿真系统创建多源信息融合的交互式三维动态实景以及动作仿真的技术,可以给使用者提供沉浸性、多感知性、交互性的互动体验。现如今,随着在线教育的兴起,现有的二维音视频技术越来越无法满足沉浸式课堂的需求。如何增强在线教育的课堂体验感,目前是在线教育升级及更新亟需解决的问题。
随着线上教育的兴起,如何增强在线课堂的临场感是在线教育的一大挑战,当下关于的虚拟在线教学系统研究及相关专利甚少。关于虚拟会议在线协同方面,在中国专利公开-CN 112987915A中公开了一种基于AST的应用于VR(Virtual Reality,虚拟现实)会议协同白板编辑任务的方法,可以实现在VR场景下多人协同白板编辑。然而,其功能就虚拟现实的沉浸感而言,显然是不够全面与细致的。
本发明将公开一种基于元宇宙的虚拟在线教学系统,其主要面向教育领域的线上教学场景,拥有现有二维音视频技术所缺的沉浸式在线教学体验,从人的认知心理出发并结合人工智能技术,通过对线下课堂最大程度地模拟还原,从而提升虚拟在线教学的课堂质量,降低课堂延迟,这将会为教师与学生带来不一样的教学及学习体验,本发明也将助力在线教育的发展进程及升级更新。
发明内容
在线上教学领域,虚拟在线教学暂无应用,且现如今的二维音视频技术的课题体验沉浸感较差,针对上述问题,本发明旨在面向在线教育领域,提供一种基于元宇宙的虚拟在线教学系统,助力在线教育的发展进程及升级更新。
为了解决上述问题,本申请将提供以下技术方案:
本发明公开的基于元宇宙的虚拟在线教学系统,包括眼动追踪模块、表情识别模块、3D建模模块、校准反馈模块。
进一步地,所述眼动追踪模块是由相机拍摄人脸,定位眼部区域,在视频帧图像上进行,通过对学生眼神的追踪,记录某个学生本人的眼神状态及他人对此学生眼神的注视情况;
进一步地,所述眼动追踪模块的流程如下:
1、所述眼动追踪模块,采用视频采集设备配合算法获取老师及学生的眼动图像;
2、利用视频图像,定位眼部区域,获得老师及学生的左右眼图像;
3、计算视角方向及角度距离误差。以单位方向矢量的形式在球坐标系中输出预测老师及学生的凝视方向;
4、结合预测的凝视方向与三维凝视原点位置O(数据预处理时确定),得到老师和学生的凝视光线;
5、计算老师和学生的凝视点;
6、计算面部相对坐标,用于老师和学生面部重建的眼部位置完善。
进一步地,所述表情识别模块是由相机拍摄眼部视频,在图像点云上通过算法进行面部表情识别,通过表情分析学生的上课专注情况,便于老师与学生及时地交互;
进一步地,所述表情识别模块的流程如下:
1、利用深度相机设备采集图像点云流,将每一帧的点云信息进行特征提取,捕获一段时期内老师及学生的面部表情的一般特征和这一时刻的特定特征;
2、利用粗到细的级联网络提取粗特征,并将相似特征聚类为粗略的类别;
3、利用缓存的前n帧特征,进行平均,减少噪音干扰,归一化后进一步用于获得细粒度的平滑预测;
4、判定表情类别,这些类别将被用于面部重建时的矫正,情感判断。
进一步地,所述3D建模模块是在相机视野范围内,获取相机坐标系下的障碍物点的坐标并得到学生及老师的半身立体模型的建构,通过半身建模创建人物形象,在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果;
进一步地,所述3D建模模块的流程如下:
1,根据采集设备,获取图像的横纵坐标[X,Y]及深度信息Z。得到相机坐标系下的坐标集合P=[X,y,Z];
2,得到相机坐标系下的点云数据后,利用关系式求解得到像素坐标系Puv;
进一步地,所述校准反馈模块是通过对元宇宙课堂的画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度;
进一步地,所述校准反馈模块的流程如下:
1、根据画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判;
2、根据评判分数对各子模块进行反馈调参,从而优化系统。
附图说明
图1为本发明一种基于元宇宙的虚拟在线教学系统的系统架构图。
具体实施方式
下面通过具体实施方式进一步说明:
具体地,参照图1所示,本发明实施例中基于元宇宙的虚拟在线教学系统的系统模块包括眼动追踪模块、表情识别模块、3D建模模块、校准反馈模块。
眼动追踪模块是由相机拍摄人脸,定位眼部区域,在视频帧图像上进行,通过对学生眼神的追踪,记录某个学生本人的眼神状态及他人对此学生眼神的注视情况;
表情识别模块是由相机拍摄眼部视频,在图像点云上通过算法进行面部表情识别,通过表情分析学生的上课专注情况,便于老师与学生及时地交互;
3D建模模块是在相机视野范围内,获取相机坐标系下的障碍物点的坐标并得到学生及老师的半身立体模型的建构,通过半身建模创建人物形象,在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果;
校准反馈模块是通过对元宇宙课堂的画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度。
所述眼动追踪模块,是为了获取师生的眼动图像或数据,通过对学生眼神的追踪,记录某个学生本人的眼神状态及他人对此学生眼神的注视情况:
具体的,本发明实施例的眼动追踪模块主要包括以下步骤:
S101、所述眼动追踪模块,采用视频采集设备配合EyeNet(一种Video-based eye-tracking)算法获取眼动图像;
在一个可选的实施例中,在本实施例中,所述步骤S101中的具体操作包括以下步骤:
S101-1、EyeNet角度损失函数的公式如下所示:
其中的一个批次包含N个长度为T的序列。
S102、利用视频图像,定位课堂中的师生的眼部区域,并获得左右眼图像;
在一个可选的实施例中,在本实施例中,所述步骤S102中的具体操作包括以下步骤:
S102-1、视线跟踪方案,寻找眼睛感兴趣区域ROI,采用经典的阈值技术处理灰度图像。利用所有小于阈值的点(xi,yi)(i=1,…,n)在二值化图像粗定位瞳孔中心位置。
根据粗定的瞳孔中心,把以它为中心的60×60pixel的矩形区域设置为感兴趣区域ROI(region of interest),这样就缩小图像处理的范围,仅对感兴趣区域进行操作,提高了图像处理效率。
S103、计算视角方向及角度距离误差,以单位方向矢量的形式在球坐标系中输出预测课堂师生的的凝视方向,从而使得老师更好地把握学生的眼神动态,判断学生是否专注于学习;
S104、结合预测的凝视方向与三维凝视原点位置o(数据预处理时确定),得到6个自由度的师生的凝视光线;
S105、将凝视光线与屏幕平面相交,利用屏幕平面的变换矩阵,计算师生的凝视点(PoG);
S106、并计算面部相对坐标,用于师生的面部重建的眼部位置完善。
所述表情识别模块,是为了及时捕捉师生的脸部动态图像变化,通过表情分析学生的上课专注情况,便于老师与学生及时地交互:
具体的,本发明实施例的表情识别模块主要包括以下步骤:
S201、利用深度相机设备采集图像点云流,将每一帧的点云信息进行特征提取;捕获一段时期内师生的面部表情的一般特征和这一时刻的特定特征;
在一个可选的实施例中,在本实施例中,所述步骤S201中的具体操作包括以下步骤:
S201-1利用深度相机设备采集图像点云流,将每一帧的点云信息进行特征提取,捕获一段时期内面部表情的一般特征和这一时刻的特定特征,继而捕捉学生的眼神及表情变化,方便老师及时捕捉学生的眼神聚集在哪里,是否认真听课;
S201-2、利用粗到细的级联网络(CFC)提取粗特征,并将相似特征使用K-means算法聚类为粗略的类别;K-means算法,也称为K-平均或者K-均值,是一种使用广泛的最基础的聚类算法。假设输入样本为T=X1,X2,…,Xm;则算法步骤为(使用欧几里得距离公式):主要步骤为:1)选择初始化的k个类别中心a1,a2,…ak,每个簇的样本数量为N1,N2,…,Nk;2)对于每个样本Xi,将其标记位距离类别中心aj最近的类别j;3)更新每个类别的中心点aj为隶属该类别的所有样本的均值;4)重复上面两步操作,直到达到设定的迭代次数、最小平方误差MSE、簇中心点变化率等中止条件;具体地,使用平方误差作为目标函数(使用欧几里得距离),公式为:
要获取最优解,也就是目标函数需要尽可能的小,对J函数求偏导数,可以得到簇中心点a更新的公式为:
S201-2、老师可通过对学生的表情判断是否需要提醒学生专注听课;
S202、利用粗到细的级联网络提取粗特征,并将相似特征聚类为粗略的类别;
S203、利用缓存的前n帧特征,进行平均,减少噪音干扰,归一化后进一步用于获得细粒度的平滑预测;利用缓存的前n帧特征,进行平均,减少噪音干扰。归一化后进一步用于获得细粒度的平滑预测,数学上,给定n个相邻的帧图像,I0,I1,...Ii-1,Ii,Ii+1,...In-1在1和窗口大小(w)下,我们首先利用网络独立地从每幅图像中提取特征。在此之后,将获得n个图像特征,命名为f0,...fi,...fn-1。然后,我们提出的SP模块将通过以下方式更新每个帧特征:
其中f′i表示更新的特征。更新后的特征由两部分组成:唯一的当前帧特征和给定窗口大小中的通用特征。我们发现这将提高模型输出的平滑度以及性能。
S204、判定表情类别,这些类别将被用于面部重建时的矫正,可帮助情感判断。
所述3D建模模块,是为了通过半身建模创建人物形象,在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果;
具体的,本发明实施例的3D建模模块主要包括以下步骤:
S301、根据采集设备,获取图像的横纵坐标[x,y]及深度信息z。得到相机坐标系下的坐标集合P=[X Y Z];
S302、得到相机坐标系下的点云数据后,利用关系式求解得到像素坐标系Puv;
S303、得到师生立体形象,展现具有现实立体感的人物形象,并可通过肢体变化及时变化形态;通过对相机的基础设置,获取对齐的图像帧和相机内参,可获取三维坐标,主要公式为:
通过求解整理为:
X=Z(u-cx)/fx
Y=Z(v-cy)/fy
Z=d
所述校准反馈模块,是为了通过对元宇宙课堂的画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度;具体的,本发明实施例的校准反馈模块主要包括以下步骤:
S401、根据画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判;
S402、根据评判分数对各子模块进行反馈调参,从而优化系统,达到一个虚拟逼真的课堂效果。
Claims (5)
1.基于元宇宙的虚拟在线教学系统,其特征在于眼动追踪模块、表情识别模块、3D建模模块、校准反馈模块,眼动追踪模块,是由相机拍摄人脸并定位眼部区域,在视频帧图像上进行,通过对学生眼神的追踪,记录某个学生本人的眼神状态及他人对此学生眼神的注视情况,表情识别模块,是由相机拍摄眼部视频,在图像点云上通过算法进行面部表情识别,通过表情分析学生的上课专注情况,便于老师与学生及时地交互,3D建模模块,是在相机视野范围内,获取相机坐标系下的障碍物点的坐标并得到学生及老师的半身立体模型的建构,通过半身建模创建人物形象,在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果,校准反馈模块是通过对元宇宙课堂的画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度。
2.根据权利要求1所述的眼动追踪模块,其特征在于通过对学生眼神的追踪,记录某个学生本人的眼神状态及他人对此学生眼神的注视情况。
3.根据权利要求1所述的表情识别模块,其特征在于通过表情分析学生的上课专注情况,便于老师与学生及时地交互。
4.根据权利要求1所述的3D建模模块,其特征在于获取相机坐标系下的障碍物点的坐标并得到学生及老师的半身立体模型的建构,通过半身建模创建人物形象,在线捕获人物肢体动作信息,从而增强课堂沉浸感及师生交互效果。
5.根据权利要求1所述的校准反馈模块,其特征在于通过对元宇宙课堂的画面流畅度、网络顺畅度及听觉与视觉是否和谐一致等多方面进行打分评判,从而反馈优化课堂质量并提升师生在课堂内沟通的信任度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310448982.XA CN116431036A (zh) | 2023-04-24 | 2023-04-24 | 一种基于元宇宙的虚拟在线教学系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310448982.XA CN116431036A (zh) | 2023-04-24 | 2023-04-24 | 一种基于元宇宙的虚拟在线教学系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116431036A true CN116431036A (zh) | 2023-07-14 |
Family
ID=87087113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310448982.XA Pending CN116431036A (zh) | 2023-04-24 | 2023-04-24 | 一种基于元宇宙的虚拟在线教学系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116431036A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116909406A (zh) * | 2023-09-12 | 2023-10-20 | 广州乐庚信息科技有限公司 | 一种基于元宇宙的虚拟课堂显示方法及系统 |
-
2023
- 2023-04-24 CN CN202310448982.XA patent/CN116431036A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116909406A (zh) * | 2023-09-12 | 2023-10-20 | 广州乐庚信息科技有限公司 | 一种基于元宇宙的虚拟课堂显示方法及系统 |
CN116909406B (zh) * | 2023-09-12 | 2023-12-26 | 广州乐庚信息科技有限公司 | 一种基于元宇宙的虚拟课堂显示方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112230772B (zh) | 一种虚实融合的教具自动生成方法 | |
CN107766842B (zh) | 一种手势识别方法及其应用 | |
CN106127139B (zh) | 一种mooc课程中学生面部表情的动态识别方法 | |
CN112887698B (zh) | 基于神经辐射场的高质量人脸语音驱动方法 | |
CN106228982A (zh) | 一种基于教育服务机器人的交互式学习系统与交互方法 | |
CN111242962A (zh) | 远程培训视频的生成方法、装置、设备及存储介质 | |
CN116431036A (zh) | 一种基于元宇宙的虚拟在线教学系统 | |
CN116109455B (zh) | 一种基于人工智能的语言教学辅助系统 | |
CN111860451A (zh) | 一种基于人脸表情识别的游戏交互方法 | |
Zhang | Analyzing body changes of high-level dance movements through biological image visualization technology by convolutional neural network | |
CN114970701A (zh) | 一种基于多模态融合的课堂互动分析方法及系统 | |
CN112764530A (zh) | 一种基于触控手柄和增强现实眼镜的弹药识别方法 | |
Qianqian et al. | Research on behavior analysis of real-time online teaching for college students based on head gesture recognition | |
Liu et al. | 4D facial analysis: A survey of datasets, algorithms and applications | |
CN116449958A (zh) | 一种基于元宇宙的虚拟办公系统 | |
CN117238448A (zh) | 孤独症干预训练元宇宙系统、学习监测和个性化推荐方法 | |
CN113436302B (zh) | 一种人脸动画合成方法及系统 | |
Tze et al. | Cartoonized Anonymization of Sign Language Videos | |
CN115984452A (zh) | 一种头部三维重建方法及设备 | |
CN114445529A (zh) | 一种基于动作及语音特征的人脸图像动画方法和系统 | |
CN112764531A (zh) | 一种增强现实弹药识别方法 | |
CN107729823B (zh) | 一种基于e-soinn网络的在线人机交互方法 | |
Lee et al. | Learning in intelligent embedded systems | |
CN116958353B (zh) | 一种基于动态捕捉的全息投影方法及相关装置 | |
Yang et al. | Automatic Region of Interest Prediction from Instructor’s Behaviors in Lecture Archives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |