CN114888795A - 未来教学空间场景建模与认知理解方法及系统 - Google Patents

未来教学空间场景建模与认知理解方法及系统 Download PDF

Info

Publication number
CN114888795A
CN114888795A CN202210440225.3A CN202210440225A CN114888795A CN 114888795 A CN114888795 A CN 114888795A CN 202210440225 A CN202210440225 A CN 202210440225A CN 114888795 A CN114888795 A CN 114888795A
Authority
CN
China
Prior art keywords
teaching
space
objects
identification
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210440225.3A
Other languages
English (en)
Other versions
CN114888795B (zh
Inventor
熊黎丽
李潇珂
韩鹏
袁明宏
刘勇
李国勇
任杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Academy of Science and Technology
Original Assignee
Chongqing Academy of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Academy of Science and Technology filed Critical Chongqing Academy of Science and Technology
Priority to CN202210440225.3A priority Critical patent/CN114888795B/zh
Publication of CN114888795A publication Critical patent/CN114888795A/zh
Application granted granted Critical
Publication of CN114888795B publication Critical patent/CN114888795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种未来教学空间场景建模与认知理解方法及系统,包括:对教学空间分类并进行区域划分,定义空间及空间内典型物体;将物体以数据条码的形式录入知识库;教学助手机器人读取数据条码,识别物体并查验知识库信息,形成先验知识;识别物体,与条码读取结果进行效验,对异常样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络;综合对物体空间位置、外观识别,以及知识库先验知识,形成对空间内物体的全属性理解,并通过物体属性与空间功能之间的关联关系判定,实现对空间及区域的场景功能认知与理解;对教学空间进行三维重建、区域划分与识别结果标注。本发明为解析和重构教与学的关系,提升教学效果及学习效率提供技术方案。

Description

未来教学空间场景建模与认知理解方法及系统
技术领域
本发明涉及智慧教育领域,具体地,涉及一种未来教学空间场景建模与认知理 解方法及系统。
背景技术
专利文献CN109887096A(申请号:CN201910065870.X)公开了一种利用虚拟现 实技术的教育教学信息处理系统及其教学方法,包括:将教育教学系统布置在教室 中;通过实时三维建模系统对教师所在区域进行图像采集获得教师的实时三维模型 数据;结合讲课内容所对应的虚拟现实场景数据,实时地将教师的三维虚拟形象呈 现在虚拟现实的教学内容中;学生通过虚拟现实显示设备观看虚拟现实教学场景, 可同时观看虚拟现实教学内容和教师的实时三维虚拟形象,实现与虚拟现实场景中 的相应对象进行互动操作,通过教师在虚拟场景中的讲解,让学生体会到无法在现 实世界中观看和体验的内容,达到身临其境的教学效果。但是该发明中的建模没有 根据不同场景进行建模,数据不够精准。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种未来教学空间场景建模与认知理解方法及系统。
根据本发明提供的一种未来教学空间场景建模与认知理解方法,包括:
步骤S1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
步骤S2:将空间内典型物体以数据条码的形式录入知识库;
步骤S3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
步骤S4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外 观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
步骤S5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能之间关联关系判定,实现对空间及区域的场 景功能认知与理解;
步骤S6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
优选地,在所述步骤S1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础 功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域 划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
在所述步骤S2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
在所述步骤S3中:
教学助手机器人通过摄像头读取数据条码,识别物体ID并查验知识库信息,完成对 物体属性的初次认知,完成先验知识储备。
优选地,在所述步骤S4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识 别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目 标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行 归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数 据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部 调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助 手机器人对环境及典型物体的感知识别能力和识别精度。
优选地,在所述步骤S5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以 个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值; 支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下, B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关 联关系的认知能力。
优选地,在所述步骤S6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执 行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证 前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使 得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后 的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
根据本发明提供的一种未来教学空间场景建模与认知理解系统,包括:
模块M1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
模块M2:将空间内典型物体以数据条码的形式录入知识库;
模块M3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
模块M4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外 观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
模块M5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能之间关联关系判定,实现对空间及区域的场 景功能认知与理解;
模块M6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
优选地,在所述模块M1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础 功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域 划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
在所述模块M2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
在所述模块M3中:
教学助手机器人读取数据条码,识别物体ID并查验知识库信息,完成对物体属性的 初次认知,完成先验知识储备。
优选地,在所述模块M4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识 别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目 标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行 归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数 据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部 调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助 手机器人对环境及典型物体的感知识别能力和识别精度。
优选地,在所述模块M5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以 个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值; 支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下, B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关 联关系的认知能力。
优选地,在所述模块M6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执 行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证 前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使 得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后 的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
与现有技术相比,本发明具有如下的有益效果:
1、本发明将人工智能、知识工程、机器人技术等与教育教学场景的深度融合,通过对教学空间场域的识别、解构和重建,创新人机教学交互方式,为解析和重构教与学 的关系,提升教学效果及学习效率,提供技术方案;
2、本发明将知识库先验知识与机器视觉识别结果进行效验,对识别异常的图像进行 重采样,提取样本特征后局部调优算法,形成自学习反馈网络,提升教学助手机器人对物理环境的感知识别能力和识别精度;
3、本发明设计的教学助手机器人,综合对物体空间位置、外观和知识库先验知识,形成对空间内物体的全属性理解,并通过对物体属性与空间功能的关联规则判定,实现 对空间场域功能的认知理解;
4、本发明对教学空间进行三维建模的基础上,进行图像分割实现区域划分和识别结 果标注,为后续教学助手机器人执行教学任务,提供空间标识。
5、本发明根据不同教学场景进行独立建模,模型重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执行的任务动态调整,精准性和普适性更强。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目 的和优点将会变得更明显:
图1为本发明流程图;
图2为本发明运行步骤图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人 员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于 本发明的保护范围。
实施例1:
根据本发明提供的一种未来教学空间场景建模与认知理解方法,如图1所示,包括:
步骤S1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
具体地,在所述步骤S1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空 间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础 功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域 划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
步骤S2:将空间内典型物体以数据条码的形式录入知识库;
在所述步骤S2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
步骤S3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
在所述步骤S3中:
教学助手机器人通过摄像头读取数据条码,识别物体ID并查验知识库信息,完成对 物体属性的初次认知,完成先验知识储备。
步骤S4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模 型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
具体地,在所述步骤S4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识 别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目 标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行 归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数 据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部 调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助 手机器人对环境及典型物体的感知识别能力和识别精度。
步骤S5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能二者之间关联规则判定,实现对空间及区域 的场景认知与理解;
具体地,在所述步骤S5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以 个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值; 支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下, B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关 联关系的认知能力。
步骤S6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
具体地,在所述步骤S6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执 行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证 前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使 得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后 的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
实施例2:
实施例2为实施例1的优选例,以更为具体地对本发明进行说明。
本领域技术人员可以将本发明提供的一种未来教学空间场景建模与认知理解方法, 理解为未来教学空间场景建模与认知理解系统的具体实施方式,即所述未来教学空间场 景建模与认知理解系统可以通过执行所述未来教学空间场景建模与认知理解方法的步骤流程予以实现。
根据本发明提供的一种未来教学空间场景建模与认知理解系统,包括:
模块M1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
具体地,在所述模块M1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空 间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础 功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域 划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
模块M2:将空间内典型物体以数据条码的形式录入知识库;
在所述模块M2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
模块M3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
在所述模块M3中:
教学助手机器人通过摄像头读取数据条码,识别物体ID并查验知识库信息,完成对 物体属性的初次认知,完成先验知识储备。
模块M4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外 观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
具体地,在所述模块M4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识 别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目 标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行 归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数 据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部 调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助 手机器人对环境及典型物体的感知识别能力和识别精度。
模块M5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能之间关联关系判定,实现对空间及区域的场 景功能认知与理解;
具体地,在所述模块M5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以 个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值; 支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下, B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关 联关系的认知能力。
模块M6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
具体地,在所述模块M6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执 行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证 前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使 得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后 的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
实施例3:
实施例3为实施例1的优选例,以更为具体地对本发明进行说明。
本发明属于智慧教育领域。智慧教育的两大核心内容,教育治理的智能化和人才培 养的个性化。教学分析与评估将人工智能、知识工程、机器人技术等与教育教学场景的深度融合,通过解析和重构教与学的关系,提升教学效果及学习效率,实现以人为本的 教学理念,推动因材施教的智慧化实现。
本专利提出对未来教学空间的分类定义、教学空间下的区域划分,以及隶属于某类 教学空间下的核心物体、附属教具和教学设备;进一步的,将所有教学空间内的物体、教具、教学设备等,以数据条码的形式,将物体ID、名称、型号、尺寸、用途、用法等 相关信息,作为先验知识,统一记录入知识库;教学助手机器人在教学空间内,可通过 摄像头读取物件的数据条码,识别物体ID并查验数据库信息,自行完成对物体属性的 初次认知,实现先验知识储备;同时,教学助手机器人利用机器视觉算法检测与识别物 体,完成对空间内目标的位置定位和外观识别,并将识别结果与条码读取结果进行信息 关联与对比效验,针对异常样本进行重采样,对识别模型进行参数调优,形成自学习反 馈网络,提升对空间物理环境的感知精度;进一步的,教学助手机器人综合对物体空间 位置、外观识别,以及知识库先验知识,形成对空间内物体的全属性理解,并通过物体 属性与空间功能二者之间关联规则的判定,实现对空间及区域的场景功能认知与理解; 最终,基于立体视觉的三维建模方法,对教学空间进行三维重建、区域划分与识别结果 标注。教学空间三维模型的精度需要根据教学助手机器人的行动轨迹和当前时刻待执行 的任务动态调整。
步骤一,对未来教学物理空间进行分类,并根据教学任务、室内功能区域划分,定义教学空间与区域内的核心物体及附属教具、教学设备。
1.1教学物理空间记为Si,分类为基础学科教育空间S1、美育教育空间S2、体育教育空间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6等六类;
1.2在步骤1.1的基础上,根据室内功能设计定位,以及教学任务的开展形式等因素,对教学空间进行区域拆分。基础功能区域可划分为教师授课区域、学生学习/操作 区域、授课内容展示/交互区域、教具与设备陈列区域、公共区域等五类。针对教学空 间Si,根据教学任务及室内设计进行宏观的区域划分,记为SiAj
1.3在步骤1.1的基础上,针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
1.3.1基础学科教育空间S1内核心物体及附属设备包含前后黑板、白板、讲台、讲桌、课桌、座椅、高清电视等教学辅助设备;
1.3.2美育教育空间S2涵盖美术S21、书法S22、音乐S23、舞蹈S24、棋类博弈S25等学 科空间;
1.3.2.1美术学科空间S21内的核心物体及附属设备包含写生架、写生板、写生椅、置物台、调色板等绘画工具和仪器、制作工具及材料等;
1.3.2.2书法学科空间S22内的核心物体及附属设备包含书写台、笔墨纸砚,以及字帖、笔挂、笔架、笔洗、笔帘、笔筒、镇纸等教学工具及材料;
1.3.2.3音乐学科空间S23内的核心物体及附属设备包含指挥台、合唱台、乐器设备、乐谱架等音乐器材、音响设备等教学设备及工具;
1.3.2.4舞蹈学科空间S24内的核心物体及附属设备包含舞蹈镜、把杆、音响设备等;
1.3.2.5棋类学科空间S25内的核心物体及附属设备包含磁性教学棋盘、棋类教具等;
1.3.3体育教育空间S3内核心物体包含短中长跑测试仪、仰卧起坐测试仪、坐位体前屈测试仪、肺活量测试仪、立定跳远测试仪、引体向上测试仪、身高体重测试仪等教 学测量设备;
1.3.4心理教育空间S4内核心物体包含心理咨询与测试系统、心理沙盘、心里宣泄设备、心理放松设备等教学辅助设备;
1.3.5信息科技教育空间S5内核心物体包含计算机、交互式平板、电视投影设备、轮式/双足/履带式机器人、各类传感元器件、操作台、打印设备等教学辅助设备;
1.3.6分学科实验室S6内核心物体包含实验台、学科实验仪器、操作台等教学辅助设备;
步骤二,将步骤一描述的所有教学空间内的核心物体,辅助教具和教学设备等,以数据条码(物体ID)的形式,将物体ID、名称、型号、尺寸、用途、用法等相关信息, 统一记录入知识库。
步骤三、教学助手机器人通过摄像头读取步骤二的数据条码,识别物体ID并查验知 识库信息,自行完成对物体属性的初次认知,完成先验知识储备;
步骤四,对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识别。并将识别结果与条码读取结果进行信息关联与对比效验,针对异常样本进 行重采样,对识别模型进行参数调优,形成自学习反馈网络,提升对空间物理环境的感 知精度;
4.1利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目标定位和识别,并标记处目标位置及识别结果;
4.2将步骤4.1自动识别的结果与步骤三的系统查验结果进行二者之间的校验。
4.2.1如果识别结果与系统查验结果一致,系统标记为T,视为正反馈;
4.2.2如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行归一化处理、数据标注后存储至图像样本库,并关联至该 物体ID,针对重采样样本数据,分为训练集、验证集和测试集,提取样本特征并调整模 型参数,进行局部调优,提高对该类物体的识别率,形成自学习反馈网络;
步骤五,通过上述步骤对教学空间内物体的外观识别和知识库先验知识储备,完成 对空间内物体的属性理解;通过对物体属性与空间功能的关联规则判定,实现对教学空间及区域的场景功能认知与理解;
5.1针对步骤一定义的教学空间内的隶属于该空间内的核心物体、教具、教学设备, 设置空间与空间内物体的关联规则。具体的,基于客观事实和经验认知,对核心物体、教具、教学设备等数据项(个体项或组合项),设置支持度、置信度,以及两者的最低 阈值。支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的 情况下,B个体项也存在的条件概率;
5.2通过步骤四对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视作与某类空间功能存在强 关联关系;
5.3同时,将每个物理教学空间视为独立样本,根据步骤四对教学空间内核心物体、 教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
5.4对步骤5,3的数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整步骤5.1设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物 体属性与空间功能间关联关系的认知能力;
步骤六,教学空间的三维重建、区域划分与识别结果标注。教学空间三维模型M的精度需要根据AI教学助手机器人的行动轨迹和当前时刻待执行的任务动态调整。
6.1通过双目摄像头实现立体视觉,将教学AI助手放置在常规教室前方任一角落位 置,保证前方视角无遮挡,进行系统初始化定位和图像采集任务;
6.2利用步骤1.1获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字 几何模型M;
6.2.1利用特征算子对两张图像进行图像特征点提取得到特征点矩阵;
6.2.2使用k近邻算法计算最近邻匹配实现特征点间的匹配;
6.2.3通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
6.2.4通过光束法平差(Bundle Ajustment)进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使得反向投影差最小,降低重建误差;
6.3将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后的模型记为M*
6.4将步骤四对教学物理空间内的物体及附属教具、教学设备的定位及识别记过,同步标注在M*中。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、 装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系 统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以 被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件 内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以 是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特 定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意 相互组合。

Claims (10)

1.一种未来教学空间场景建模与认知理解方法,其特征在于,包括:
步骤S1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
步骤S2:将空间内典型物体以数据条码的形式录入知识库;
步骤S3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
步骤S4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
步骤S5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能之间关联关系判定,实现对空间及区域的场景功能认知与理解;
步骤S6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
2.根据权利要求1所述的未来教学空间场景建模与认知理解方法,其特征在于:
在所述步骤S1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
在所述步骤S2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
在所述步骤S3中:
教学助手机器人通过摄像头读取数据条码,识别物体ID并查验知识库信息,完成对物体属性的初次认知,完成先验知识储备。
3.根据权利要求1所述的未来教学空间场景建模与认知理解方法,其特征在于,在所述步骤S4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助手机器人对环境及典型物体的感知识别能力和识别精度。
4.根据权利要求1所述的未来教学空间场景建模与认知理解方法,其特征在于,在所述步骤S5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值;支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下,B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关联关系的认知能力。
5.根据权利要求1所述的未来教学空间场景建模与认知理解方法,其特征在于,在所述步骤S6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
6.一种未来教学空间场景建模与认知理解系统,其特征在于,包括:
模块M1:对教学空间分类并进行区域划分,定义空间及空间内典型物体;
模块M2:将空间内典型物体以数据条码的形式录入知识库;
模块M3:教学助手机器人读取数据条码,识别物体ID并查验知识库信息,形成先验知识;
模块M4:教学助手机器人通过机器视觉识别物体,完成对目标的空间位置定位和外观识别,并与条码读取结果进行效验,针对识别错误的样本进行重采样,并对识别模型进行参数调优,形成自学习反馈网络,提升识别模型对空间物理环境的感知精度;
模块M5:综合对物体空间位置、外观识别,以及知识库先验知识,形成空间内物体的全属性理解,并通过物体属性与空间功能之间关联关系判定,实现对空间及区域的场景功能认知与理解;
模块M6:对教学空间进行三维重建、区域划分与识别结果标注,为教学助手机器人执行教学任务提供空间标识。
7.根据权利要求6所述的未来教学空间场景建模与认知理解系统,其特征在于:
在所述模块M1中:
对未来教学物理空间进行分类,根据教学任务、室内功能区域划分,定义教学空间与区域内的物体及附属教具、教学设备;
教学物理空间记为Si,分类包括基础学科教育空间S1、美育教育空间S2、体育教育空间S3、心理教育空间S4、信息科技教育空间S5、学科实验室S6
根据室内功能设计定位以及教学任务的开展形式,对教学空间进行区域拆分;基础功能区域划分包括教师授课区域、学生学习操作区域、授课内容展示交互区域、教具与设备陈列区域、公共区域;针对教学空间Si,根据教学任务及室内设计进行宏观的区域划分,记为SiAj;针对教学空间Si,标记该区域内的核心物体及附属教具、教学设备为SiTk
在所述模块M2中:
录入信息包括物体ID、名称、型号、尺寸、用途、用法;
在所述模块M3中:
教学助手机器人读取数据条码,识别物体ID并查验知识库信息,完成对物体属性的初次认知,完成先验知识储备。
8.根据权利要求6所述的未来教学空间场景建模与认知理解系统,其特征在于,在所述模块M4中:
对教学物理空间内的物体及附属教具、教学设备通过机器视觉算法,进行检测和识别,并设置奖惩机制,形成自学习反馈网络,提升对空间物理环境的感知能力和精度:
利用目标检测与识别算法完成对教学空间与区域内物体、附属教具、教学设备的目标定位和识别,并标记处目标位置及识别结果;将自动识别的结果与系统查验结果进行校验;
如果识别结果与系统查验结果一致,系统标记为T,为正反馈;如果识别结果与系统查验结果不一致,系统标记为F,并启动摄像头完成对物体多角度的图像采集,进行归一化处理、数据标注后存储至图像样本库,并关联至该物体ID,针对重采样的样本数据,划分训练集、验证集和测试集,提取异常图像样本特征并调整模型参数,进行局部调优,提高对该类物体的识别率和算法的泛化能力,形成自学习反馈网络,提升教学助手机器人对环境及典型物体的感知识别能力和识别精度。
9.根据权利要求6所述的未来教学空间场景建模与认知理解系统,其特征在于,在所述模块M5中:
针对定义的教学空间内的隶属于该空间内的物体、教具、教学设备,设置空间与空间内物体的关联规则,基于客观事实和经验认知,对物体、教具、教学设备数据项,以个体项或组合项为基本单位,设置支持度、置信度,以及支持度、置信度的最低阈值;支持度为数据项在该空间所有数量物体内出现的频率;置信度为A个体项存在的情况下,B个体项也存在的条件概率;
通过对教学空间内核心物体、教具、教学设备的识别及统计结果,计算个体项或组合项的支持度与置信度,满足阈值范围要求的,视为与某类空间功能存在强关联关系;
每个物理教学空间为独立样本,根据对教学空间内物体、教具、教学设备的识别结果,作为一条数据样本,建立数据集合;
对数据集合,运用关联规则算法,自动计算数据项之间的关联规则,并优化调整设置的支持度、置信度最低阈值,形成自学习反馈网络,提高对物体属性与空间功能间关联关系的认知能力。
10.根据权利要求6所述的未来教学空间场景建模与认知理解系统,其特征在于,在所述模块M6中:
教学空间三维模型M的重建精度根据AI教学助手机器人的行动轨迹和当前时刻待执行的任务动态调整:
通过双目摄像头实现立体视觉,将教学AI助手放置在教室前方任一角落位置,保证前方视角无遮挡,进行系统初始化定位和图像采集任务;
利用获取的初始帧图像I1与图像I2进行三维建模,形成教学空间的数字几何模型M;
利用特征算子对两张图像I1与I2进行图像特征点提取得到特征点矩阵;
使用k近邻算法计算最近邻匹配实现特征点间的匹配;
通过SFM算法迭代恢复摄像头的内外参数,并由三角化确定特征点的三维坐标,实现稀疏重建;
通过光束法平差进行非线性优化,通过调整三维点的旋转平移矩阵及三维点信息使得反向投影差最小,降低重建误差;
将教学空间按照功能区域进行语义分割,并注释各类教学空间的功能区域,标注后的模型记为M*
对教学物理空间内的物体及附属教具、教学设备的定位及识别结果,同步标注在M*中。
CN202210440225.3A 2022-04-25 2022-04-25 未来教学空间场景建模与认知理解方法及系统 Active CN114888795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210440225.3A CN114888795B (zh) 2022-04-25 2022-04-25 未来教学空间场景建模与认知理解方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210440225.3A CN114888795B (zh) 2022-04-25 2022-04-25 未来教学空间场景建模与认知理解方法及系统

Publications (2)

Publication Number Publication Date
CN114888795A true CN114888795A (zh) 2022-08-12
CN114888795B CN114888795B (zh) 2023-08-18

Family

ID=82717484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210440225.3A Active CN114888795B (zh) 2022-04-25 2022-04-25 未来教学空间场景建模与认知理解方法及系统

Country Status (1)

Country Link
CN (1) CN114888795B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179922A1 (en) * 2000-10-30 2003-09-25 Peters Mark W. Apparatus and method for the construction of spatial representantions
CN108288242A (zh) * 2018-01-31 2018-07-17 上海维拓网络科技有限公司 基于虚拟现实引擎技术的教学控制平台及控制方法
CN109887096A (zh) * 2019-01-24 2019-06-14 深圳职业技术学院 利用虚拟现实技术的教育教学信息处理系统及其教学方法
CN110598770A (zh) * 2019-08-30 2019-12-20 华中师范大学 一种多空间融合学习环境构建方法和装置
CN110910174A (zh) * 2019-11-25 2020-03-24 北京工业大学 一种典型城市再生资源智能识别与定价方法
CN112150160A (zh) * 2020-09-30 2020-12-29 重庆市科学技术研究院 一种电子票券交易建议生成方法及系统
JP2021005067A (ja) * 2019-06-25 2021-01-14 章幸 南出 小学校の授業で使うことを想定したプログラミング的思考教育方法とその教育システム
US20210133670A1 (en) * 2019-11-05 2021-05-06 Strong Force Vcn Portfolio 2019, Llc Control tower and enterprise management platform with a machine learning/artificial intelligence managing sensor and the camera feeds into digital twin
CN113221280A (zh) * 2021-05-14 2021-08-06 西安交通大学 一种基于数字孪生的滚动轴承建模与模型更新方法及系统
CN113593383A (zh) * 2021-08-02 2021-11-02 杭州越光智能科技有限公司 一种基于数字孪生技术的课堂教学方法及教学装置
CN114327060A (zh) * 2021-12-24 2022-04-12 华中师范大学 一种基于ai助手的虚拟教学系统的工作方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179922A1 (en) * 2000-10-30 2003-09-25 Peters Mark W. Apparatus and method for the construction of spatial representantions
CN108288242A (zh) * 2018-01-31 2018-07-17 上海维拓网络科技有限公司 基于虚拟现实引擎技术的教学控制平台及控制方法
CN109887096A (zh) * 2019-01-24 2019-06-14 深圳职业技术学院 利用虚拟现实技术的教育教学信息处理系统及其教学方法
JP2021005067A (ja) * 2019-06-25 2021-01-14 章幸 南出 小学校の授業で使うことを想定したプログラミング的思考教育方法とその教育システム
CN110598770A (zh) * 2019-08-30 2019-12-20 华中师范大学 一种多空间融合学习环境构建方法和装置
US20210133670A1 (en) * 2019-11-05 2021-05-06 Strong Force Vcn Portfolio 2019, Llc Control tower and enterprise management platform with a machine learning/artificial intelligence managing sensor and the camera feeds into digital twin
CN110910174A (zh) * 2019-11-25 2020-03-24 北京工业大学 一种典型城市再生资源智能识别与定价方法
CN112150160A (zh) * 2020-09-30 2020-12-29 重庆市科学技术研究院 一种电子票券交易建议生成方法及系统
CN113221280A (zh) * 2021-05-14 2021-08-06 西安交通大学 一种基于数字孪生的滚动轴承建模与模型更新方法及系统
CN113593383A (zh) * 2021-08-02 2021-11-02 杭州越光智能科技有限公司 一种基于数字孪生技术的课堂教学方法及教学装置
CN114327060A (zh) * 2021-12-24 2022-04-12 华中师范大学 一种基于ai助手的虚拟教学系统的工作方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LILJANIEMI, A: "Using Digital Twin Technology in Engineering Education - Course Concept to Explore Benefits and Barriers", OPEN ENGINEERING, vol. 10, no. 1, pages 377 - 85 *
李政涛: ""元宇宙与未来教育"笔谈", 基础教育, vol. 19, no. 2, pages 13 - 22 *
陈雨婷: "国际虚拟教育研究的热点透视及发展趋势——基于2015-2020年WOS核心数据库相关文献分析", 教师教育学报, vol. 9, no. 1, pages 83 - 93 *

Also Published As

Publication number Publication date
CN114888795B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN106128212B (zh) 基于增强现实技术的书法学习系统及方法
CN102411854B (zh) 基于增强现实的课堂教学混合技术应用系统及方法
CN106601052A (zh) 一种美术教学系统及方法
Lee et al. Newton's Pen: A pen-based tutoring system for statics
CN109214471A (zh) 评价练字字帖中的书写字的方法及系统
Munoz et al. Development of a software that supports multimodal learning analytics: A case study on oral presentations
Roberto et al. A dynamic blocks platform based on projective augmented reality and tangible interfaces for educational activities
Quan Development of computer aided classroom teaching system based on machine learning prediction and artificial intelligence KNN algorithm
Lamberti et al. Automatic grading of 3D computer animation laboratory assignments
CN108304806A (zh) 一种基于对数路径积分特征和卷积神经网络的手势识别方法
Bindiganavale Building parameterized action representations from observation
CN114888795B (zh) 未来教学空间场景建模与认知理解方法及系统
Tang et al. A web-based Chinese handwriting education system with automatic feedback and analysis
Turco et al. Interactive Digital Environments for Cultural Heritage and Museums. Building a digital ecosystem to display hidden collections
TWI798514B (zh) 人工智慧輔助擴增實境系統與方法、電腦程式產品
Yang et al. Ccesk: A chinese character educational system based on kinect
He et al. Design and implementation of number gesture recognition system based on Kinect
Bhattacharya Automatic generation of augmented reality guided assembly instructions using expert demonstration
Natsupakpong et al. Part assembly learning by using hand gestures with leap motion
Pointeau et al. Robot learning rules of games by extraction of intrinsic properties
Wang Virtual display of intelligent human-computer interaction products based on attention matrix
US11990059B1 (en) Systems and methods for extended reality educational assessment
Hu et al. Development and Analysis of Simulation Virtual Online Guiding Resources based on VR Technology
Tenneson ChemPad: A pedagogical tool for exploring handwritten organic molecules
KR20230074930A (ko) Vr 공학 실습 컨텐츠의 저작방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant