CN112258390A - 一种高精度微观虚拟学习资源生成方法 - Google Patents

一种高精度微观虚拟学习资源生成方法 Download PDF

Info

Publication number
CN112258390A
CN112258390A CN202010946194.XA CN202010946194A CN112258390A CN 112258390 A CN112258390 A CN 112258390A CN 202010946194 A CN202010946194 A CN 202010946194A CN 112258390 A CN112258390 A CN 112258390A
Authority
CN
China
Prior art keywords
specimen
model
image
point cloud
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010946194.XA
Other languages
English (en)
Other versions
CN112258390B (zh
Inventor
杨宗凯
钟正
吴砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN202010946194.XA priority Critical patent/CN112258390B/zh
Publication of CN112258390A publication Critical patent/CN112258390A/zh
Application granted granted Critical
Publication of CN112258390B publication Critical patent/CN112258390B/zh
Priority to US17/371,074 priority patent/US11164289B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明属于虚拟现实技术的教学应用领域,提供一种高精度微观虚拟学习资源生成方法,包括:(1)高精度标本图像采集;(2)标本表面3D模型生成;(3)微观虚拟学习资源的交互展示。本发明围绕教学对高精度虚拟学习资源的需求,提出了一个图像采集、模型生成和交互展示的方案,根据VR学习环境中微观教学资源的特点,建立了一套多角度、高清标本图像数据采集方法;经过点云数据生成、处理后,再构建标本表面的三维模型,然后经面片简化、纹理映射后生成虚拟学习资源中的高精度模型;在虚拟学习环境中为模型添加标注显示、交互、运动等显示方案。本发明为不同教学场景中VR教学资源广泛普及提供一种新的、快速构建的途径和方式。

Description

一种高精度微观虚拟学习资源生成方法
技术领域
本发明属于虚拟现实(Virtual Reality,VR)技术的教学应用领域,更具体地,涉及一种高精度微观虚拟学习资源生成方法。
背景技术
随着显微镜、激光等观测仪器的发展和使用,人们已经有能力探测先前所无法洞察的微观世界。物理、化学、生物、材料等基础学科中众多研究方向也已经从宏观转向微观。使用显微技术可将小型植物、动物或微生物的标本表面纹理放大到倍率100倍,精度可达1毫米;但以微米或纳米为计量单位的超微小结构由于受景深极浅的限制,难以清晰分辨所有表面纹理,影响微观标本虚拟学习资源的重建效果。虚拟现实(Virtual Reality,VR)技术具有交互性、沉浸感和想象性特征,应用VR技术构建看不见、看不清和无法感知的微观世界,能突破时间和空间的限制,通过可视化、传感、交互等设备和技术,学习者可以多尺度、多角度浏览虚拟学习资源,既可深入探索物质的微观形态、组成和结构;也可协助学习者理解物质在微观世界中所受到的规则支配和调控现象、不同尺度下呈现出的尺度效应、反应机理和运动规律。随着5G网络环境和GPU云化能力的日益成熟,高精度微观虚拟学习资源的应用场景和技术支撑条件日益成熟,在信息化、立体化教学环境中将会拥有广阔的应用前景。
利用3D激光扫描技术重建大型动物(如恐龙、狮虎)、植被(如树木)等标本的3D模型已有众多应用,但是受精度限制,3D激光扫描仪难以获取微观标本的点云数据。借助于超景深立体显微镜,可清晰分辨出0.1纳米的表面结构纹理。当前超景深显微镜系统自带三维重建软件,虽能重现栩栩如生的标本模型纹理结构,但由于无法添加标注、创建可交互的三维表面结构,因此栅格化的建模结果难以被用于微观虚拟学习资源构建。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种高精度微观虚拟学习资源生成方法,为不同教学场景中VR教学资源广泛普及提供一种新的、快速构建的途径和方式。
本发明的目的是通过以下技术措施实现的。
一种高精度微观虚拟学习资源生成方法,包括以下步骤:
(1)高精度标本图像采集。为逼真重建标本表面的微观形态和结构,采用超景深三维显微技术和微距摄影技术相结合的方式,实现标本的分幅、连续高清图像采集;依据重叠拍摄要求,多角度拍摄标本,基于重叠区域实现图像的配准和拼接,获取高精度标本表面的全景图像;使用元数据形式描述标本的采集信息,有规律地命名标本图像,使用金字塔图像系统组织管理标本图像文件,便于后续基于图像的三维重建。
(2)标本表面3D模型生成。匹配和校正标本图像,在空间场景中标定摄像机,基于图像3D重建生成标本点云数据;去除点云中的噪声点,基于直接线性变换平差模型实现点云空间坐标与纹理坐标的一一对应,对比控制点的坐标和位置参数,检查点云数据的生成质量;采用三维Delaunay算法构建点云的三角化表面模型,沿各个子部件轮廓分割标本模型,采用两次局部映射简化算法压缩面片数量;配准表面顶点与全景影像的映射关系,生成具有图片质感的标本表面三维模型。
(3)微观虚拟学习资源的交互展示。选取昆虫3D模型作为用户化身,在虚拟学习环境中以第三人称视角多角度、全方位查看标本模型的不同部位,支持单面透明、横截面显示和部件隐藏的交互展示方式;根据先后顺序和视觉关系,设置不同的标注显示方案;根据真实结构,将模型资源拆分成功能各异的组件,复原各部件之间的层次关系,根据交互任务和步骤,展示其形态和结构;按照由根部向上,由外向内的剥离顺序,逐层逐段地动态显示各个部件。
本发明的有益效果在于:
采用超景深三维显微技术和微距摄影技术相结合的方式,多角度采集微观标本模型的高清图像,相邻图像之间有一定的重叠度,生成标本表面的全景图像,采用金字塔方式组织和管理影像文件;匹配和校正标本图像,在空间场景中标定摄像机,构建标本表面点云数据;通过噪声处理、点云着色和质量控制完成点云数据处理,采用三维Deluanay算法实现点云的三维表面模型生成,经过分割、压缩和纹理映射处理,生成具有图片质感的标本表面三维模型;选取3D昆虫模型作为学习者的化身,以第三人称视角的形式查看标本模型的不同部位;设置标本模型及其标准的不同显示方案,根据任务和步骤,展示标本模型各部件的形态和结构,按照由根部向上、由外向内的剥离顺序,逐层逐段地动态显示标本模型。
本发明高精度微观虚拟学习资源生成方法,为不同教学场景中VR教学资源广泛普及提供一种新的、快速构建的途径和方式。
附图说明
图1是本发明实施例高精度微观虚拟学习资源生成方法的流程图。
图2是本发明实施例中重叠拍摄示意图。
图3是本发明实施例中多视点成像示意图。
图4是本发明实施例中匹配窗口示意图。
图5是本发明实施例中点云分布空间关系示意图。
图6是本发明实施例中标本局部表面三角网模型示意图。
图7是本发明实施例中虚拟摄像机观察内容示意图。
图8是本发明实施例中化身模型最佳观察位置示意图。
图9是本发明实施例中动态更新视点位置示意图,1为移动前的位置,2为移动后的位置。
图10是本发明实施例中小型植物标本的标注示意图,1-标注1,2-标注2,3-标注3,4-标注4。
图11是本发明实施例中小型植物标本的拆分示意图,1、3和4为主干从下到上的不同部位,2-枝干,5-花朵。
图12是本发明实施例中层次关系示意图,1-父级骨骼,2-子级骨骼,3-关节点。
图13是本发明实施例中基于层次的运动关系示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施案例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施案例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例提供一种高精度微观虚拟学习资源生成方法,包括如下步骤:
(1)高精度标本图像采集。
(1-1)成像系统的设置。为逼真重建标本表面的微观形态和结构,依据光学变焦倍数参数选择显微镜型号,并构建标准光环境,采用高扭矩低速电机控制载物平台的有规律移动,分幅、连续采集标本的高清图像。
(1-1-1)成像系统选型。参照芯片制造业对高精硅和金属加工检测的要求,选用光学变焦倍数为20~280的工业显微镜,观测精度可达10um左右,满足标本表面细微结构采集要求。
(1-1-2)标准光环境构建。采用Broncolor5500k色温标准造形灯作为同轴光源,运用闪光截断技术确保光线一致性,实现无影照明效果,清楚呈现标本表面细节纹理。
(1-1-3)载物平台的规则移动。利用高扭矩低速电机,配以齿轮结构和螺杆制作滑轨,支持载物平台有规律地移动,其精度取决于齿轮之间的耦合比例,理论上可达到1um。
(1-2)高清标本图像的采集。采用超景深三维显微技术,依据重叠拍摄要求,从不同角度以一定频率拍摄标本,需确保相邻图片之间重叠区域,根据这些重叠区域实现图像配准,获取标本表面的高清全景图像。
(1-2-1)重叠拍摄要求。移动载物平台过程中,从垂直、倾斜、相邻三个方向以一定频率拍摄标本表面,前后相邻图像之间重叠区域占比一般为60%~65%,最大不超过75%,最小不少于56%;图像左右两侧重叠区域占比一般为30%~35%,最小不少于13%。图2展示了图像重叠拍摄的成像形式。
(1-2-2)标本图像采集过程。依据重叠拍摄要求,使用超景深三维显微系统,通过有规律地移动载物平台,对焦标本的不同区域,依次完成标本对象微观细节的信息采集,在专业级图形监视器中以不低于10bit的色彩空间进行颜色控制和校准。
(1-2-3)标本全景图像生成。根据相邻图像的重叠内容,实现多张不同焦平面标本图像的有效配准,完成相邻图像的拼接,迭代完成所有图像的拼接工作,考虑因不同因素导致图像存在的色差情形,采用色彩均衡算法生成一幅完整的标本全景图像。
(1-3)标本图像管理。使用元数据形式描述标本图像的采集信息,依据载物台的旋转角度、拍摄位置等参数有规律地命名标本图像;采用金字塔图像系统组织管理标本图像文件,便于后续基于图像的三维重建。
(1-3-1)图像文件描述。在数据库表中存储每个图像文件拍摄时的位置、角度、放大倍数等信息,记录采集过程中前进、左右方向重叠文件名称及其重叠信息,并更新与之相邻图像文件记录的重叠信息描述。
(1-3-2)标本图像命名。依据载物平台移动拍摄的顺序,按照拍摄位置、角度、放大倍数的顺序命名标本图像文件,有规律地描述图像文件,为后续全景图像和点云生成中同名点(不同图像中同一特征点)匹配做好数据预处理工作。
(1-3-3)标本图像管理,按照倍率从大到小的顺序,建立标本图像管理系统,采用金字塔结构管理不同倍率的标本图像图片,即小尺度(低倍率)图像在最高层,大尺度(高倍率)图像在底层,实现标本图像的组织和管理。
(2)标本表面3D模型生成。
(2-1)点云数据生成。按照堆块形式组织标本图像文件,在空间场景中自动排列所有图像,完成摄像机标定;根据相邻标本图像同名特征点,实现标本图像校正并完成视差计算;依据压缩参数,利用顾及标本形态和密度分布的点云迭代压缩算法,生成标本表面的三维点云数据。
(2-1-1)图像对齐。在标本图像管理系统中,选取某标本的所有图片,将它们按照堆块形式组织,实现标本图像匹配;按照高、中、低档设置精度参数,执行对齐操作,在空间场景中自动排列所有图像,完成摄像机标定,图3表示了恢复后多视点图像的展示效果。
(2-1-2)提取特征点。针对相邻图像同名特征点之间存在透视变换、相似变换、错切变换等情形,按照空间位置、相似度等规则,完成标本图像校正;基于窗口的稠密点匹配,完成相邻标本图像之间视差计算。如图4所示,所有匹配点最大视差为a,最小视差为b,匹配点p的视差为d,则视差图中p点的灰度值为:
Figure BDA0002675359920000081
(2-1-3)密集点云生成。在统一坐标系,获取所有同名特征点的空间坐标(X、Y、Z);利用K-D树建立点云拓扑关系,利用高斯平滑函数计算当前点p邻域点集Np,其中K根据压缩参数从低到高(最低、低、中、高、超高)分别赋予40、30、20、10和5五个值,利用高斯平滑预测点公式获取点p的预测点p后,按以下公式计算当前点在平滑前后的位移大小|Lp|:
|Lp|=‖p-p
其中Lp为当前点p到其预测点p的向量。位移大小|Lp|由两方面的距离因素构成:当前点p邻域内几何形态变化,即由高低起伏变化引起的相较于局部基准面的平坦度变化分量Δh,以及由其邻域内点分布不均引起的密度变化量Δs,位移大小|Lp|,平坦度变化分量Δh,密度变化分量Δs,三者符号空间直角三角形关系,如图5所示,S为局部基准面,p点为预测点。利用高斯平滑函数实现顾及标本几何形态和密度分布的点云压缩,生成标本表面的三维点云数据。
(2-2)点云数据处理。利用基于局部密度的点云去噪算法剔除噪声数据,基于直接线性变换平差模型求解空间和图像坐标转换的系数,获取点云三维坐标和纹理坐标的映射关系;通过标本的控制点,利用三维交互软件量测其相关坐标和位置参数,检查点云数据的生成质量。
(2-2-1)点云噪声剔除。由于拍摄角度、标本部件的相互遮挡、材质及纹理的分布等因素,导致生成的点云中有许多噪点,利用K-D树构建点云的拓扑关系,确定每个点p的K近邻(到p点距离最小的K个点);计算K近邻到该点的距离,记作Si1,Si2,…,SiK,再计算K近邻到该点的平均距离
Figure BDA0002675359920000091
计算全局K近邻平均距离
Figure BDA0002675359920000092
与标准方差
Figure BDA0002675359920000093
将K近邻平均距离
Figure BDA0002675359920000094
大于μ+mσ这一阈值的识别为噪点,并删除。
(2-2-2)点云着色。根据步骤(2-1-1)完成的多视角真彩色图像对齐的结果,使用直接线性变换平差模型求解系数,建立点云中量测控制点在空间和图像上坐标的几何关系,基于图像行列坐标和图像平面坐标转换关系制作彩色纹理的真彩色正射影像,计算点云中每个点所对应的图像坐标,为其赋予相应的RGB值。
(2-2-3)质量检查。利用三维编辑交互软件中的测距功能测量控制点的坐标、相互之间距离与方位角等信息,对照实际标本的相应信息,检查点云生成精度:若不符合要求,则查找错误部分,如是点云数据获取不完整,则需重新补足相应部分的数据。
(2-3)模型生成。如图6所示,采用三维Delaunay算法构建点云的三角形表面模型,沿各个子部件轮廓分割标本模型;采用两次局部映射简化算法,压缩标本面片数量;实现标本表面三维面片与全景影像的配准,生成具有图片质感的标本表面三维模型。
(2-3-1)三维标本模型生成。采用三维Delaunay算法构建点云数据的三角化表面模型,效果如图6所示,通过三维编辑交互软件标定标本模型的表面结构形态,沿其边界轮廓分割三维表面模型,形成形状各异的各部件子模型。
(2-3-2)标本表面三角形压缩。基于点云生成的三角形面片过大,会影响实时渲染和交互相应的速度,采用两次局部映射法简化标本模型的三角形面片,首先创建高斯球,根据三角形面片的法向量将其投影到高斯球上,再设置阈值合并、重构三角形,并将结果变换回三维空间,可大大压缩标本表面模型的三角形面片数量。
(2-3-3)标本模型的纹理映射。根据步骤(1-2-3)生成的标本全景图像,利用标本表面顶点的空间坐标(X,Y,Z)和成像显微镜的固定几何关系建立全景影像像素与顶点的对应关系,实现表面三角形面片与全景影像的映射。
(3)微观虚拟学习资源的交互展示。
(3-1)标本模型的观察设置。在虚拟学习资源构建过程中,选取昆虫3D模型作为学习者在虚拟学习空间的化身,以第三人称视角多角度、全方位浏览标本模型;根据虚拟场景的视差设置,确定观察虚拟学习资源的最佳位置,动态更新微观虚拟学习资源。
(3-1-1)创建用户虚拟化身。在虚拟学习资源构建过程中,选取昆虫3D模型作为学习者在虚拟学习空间的化身,在其后方创建一个虚拟摄像机,将学习者观察视点绑定在摄像机上、视线始终指向化身模型,跟随、观察视场范围中的虚拟学习资源,图7展示了摄像机的观察范围。
(3-1-2)化身观察位置的设定。由于标本模型的类别、大小不同,在虚拟学习资源描述中应记录其实际长、宽、高等参数,加载该虚拟场景时,应根据这些信息,设定摄像机的位置、方向,形成如图8所示的最佳化身模型观察位置。
(3-1-3)动态更新虚拟学习资源。根据任务、步骤,学习者通过调整虚拟摄像机的位置、视线方向、视场角等参数,实时更新视野中标本模型的位置、朝向、姿态和运动方式,动态更新虚拟学习空间中的标本模型,图9展示了虚拟摄像机的视点从位置1移动到位置2的效果。
(3-2)标本模型显示模式设置。为标本模型的不同部位添加标注,根据先后顺序和视觉关系,设置不同的标注形式;针对高精度标本模型所产生的海量三角形面片的情形,采用单面透明、横截面和部件隐藏的显示方式。
(3-2-1)标本模型的标注设置。为有利于学习者认识和理解学习内容,虚拟学习资源构建过程中,需要为标本模型标注其特有知识点内容信息,如图10所示,为植物的不同部件添加标注,可按照离摄像机的距离远近,设置其显示先后顺序和视觉关系,达到合理有序、主次分明的视觉效果。
(3-2-2)单面透明设置。通过增加标本模型纹理的透明值,即为纹理图像增加Alpha(透明值)通道;当模型的三角形面片与摄像机朝向一致时,将该面的纹理Alpha值设为黑色、其他区域设为白色,阻挡视野的面片即会透明显示,便于用户观察操作。
(3-2-3)部件隐藏设置。针对不适用单面透明设置的情形,采用标本子部件模型隐藏,或将其表面替换为横截面模型,便于海量数据场景中,学习者快速浏览模型。
(3-3)标本模型的交互设置。根据标本模型的实际结构,将其拆分成功能各异的部件,重建它们之间的层次关系,展示其形态和结构;按照由根部向上,由外向内的剥离顺序,逐层逐段的动态显示各部件;依据运动所涉及部件的旋转方向、活动区间、角速度,完成标本关节姿态的动态交互展示。
(3-3-1)标本部件的拆分和关联。可将图10所示的标本模型拆分成如图11所示的多个部件,彼此链接的关系可限定部件之间的活动角度范围;如图12所示,重建各部件之间的层次关系,形成各个标本部件的关节运动结构,展示其形态和结构。
(3-2-2)部件显示顺序。根据标本实物的生长规律,参照各部件与其父、子部件的相互关系,按照由根部向上,由外向内的剥离顺序,逐层逐段的动态显示各个部件,各部件也可采用单面透明或者切面显示的方式。
(3-3-3)标本部件的动态模拟。依据运动所涉及部件的旋转方向、活动区间、角速度,如图13所示,将角速度代入部件链接之间的角度区间,获得一次往复循环的频率,通过约束旋转方向、开合幅度及频率等要素,完成标本关节姿态的动态交互展示。
本说明书中未作详细描述的内容,属于本专业技术人员公知的现有技术。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进,均应包含在本发明的保护范围之内。

Claims (4)

1.一种高精度微观虚拟学习资源生成方法,其特征在于该生成方法包括以下步骤:
(1)高精度标本图像采集;为逼真重建标本表面的微观形态和结构,采用超景深三维显微技术和微距摄影技术相结合的方式,实现标本的分幅、连续高清图像采集;依据重叠拍摄要求,多角度拍摄标本,基于重叠区域实现图像的配准和拼接,获取高精度标本表面的全景图像;使用元数据形式描述标本的采集信息,命名标本图像,使用金字塔图像系统组织管理标本图像文件,便于后续基于图像的三维重建;
(2)标本表面3D模型生成;匹配和校正标本图像,在空间场景中标定摄像机,基于图像3D构建生成标本点云数据;去除点云中的噪声点,基于直接线性变换平差模型实现点云空间坐标与纹理坐标的一一对应,对比控制点的坐标和位置参数,检查点云数据的生成质量;采用三维Delaunay算法构建点云的三角化表面模型,沿各个子部件轮廓分割标本模型,采用两次局部映射简化算法压缩面片数量;配准表面顶点与全景影像的映射关系,生成具有图片质感的标本表面三维模型;
(3)微观虚拟学习资源的交互展示;选取昆虫3D模型作为用户化身,在虚拟学习环境中以第三人称视角多角度、全方位查看标本模型的不同部位,支持单面透明、横截面显示和部件隐藏的交互展示方式;根据先后顺序和视觉关系,设置不同的标注显示方案;根据真实结构,将模型资源拆分成功能部件,复原各部件之间的层次关系,根据交互任务和步骤,展示其形态和结构;按照由根部向上,由外向内的剥离顺序,逐层逐段地动态显示各个部件。
2.根据权利要求1所述的高精度微观虚拟学习资源生成方法,其特征在于步骤(1)所述的高精度标本图像采集具体包括如下步骤:
(1-1)成像系统的设置;为逼真重建标本表面的微观形态和结构,依据光学变焦倍数参数选择显微镜型号,并构建标准光环境,采用高扭矩低速电机控制载物平台的有规律移动,分幅、连续采集标本的高清图像;
(1-1-1)成像系统选型,参照芯片制造业对高精硅和金属加工检测的要求,选用光学变焦倍数为20~280的工业显微镜,观测精度达10um左右,满足标本表面细微结构观察要求;
(1-1-2)标准光环境构建,采用色温标准造形灯作为同轴光源,运用闪光截断技术确保光线一致性,实现无影照明效果,清楚呈现标本表面细节纹理;
(1-1-3)载物平台的规则移动,利用高扭矩低速电机,配以齿轮结构和螺杆制作滑轨,支持载物平台有规律地移动,其精度取决于齿轮之间的耦合比例,可达到1um;
(1-2)高清标本图像的采集,采用超景深三维显微技术,依据重叠拍摄要求,从不同角度以一定频率拍摄标本,需确保相邻图片之间重叠区域,根据这些重叠区域实现图像配准,获取标本表面的高清全景图像;
(1-2-1)重叠拍摄要求,移动载物平台过程中,从垂直、倾斜、相邻三个方向以一定频率拍摄标本表面,前后相邻图像之间要保持一定的重叠区域;
(1-2-2)标本图像采集过程,依据重叠拍摄要求,使用超景深三维显微系统,通过有规律地移动载物平台,对焦标本的不同区域,依次完成标本对象微观细节的信息采集,获取标本的高清系列图像;
(1-2-3)标本全景图像生成,根据相邻图像的重叠内容,实现多张不同焦平面标本图像的有效配准,完成相邻图像的拼接,迭代完成所有图像的拼接工作,考虑因不同因素导致图像存在的色差情形,采用色彩均衡算法生成一幅完整的标本全景图像;
(1-3)标本图像管理,使用元数据形式描述标本图像的采集信息,依据载物台的旋转角度、拍摄位置参数命名标本图像;采用金字塔图像系统组织管理标本图像文件,便于后续基于图像的三维重建;
(1-3-1)图像文件描述,在数据库表中存储每个图像文件拍摄时的位置、角度、放大倍数信息,记录采集过程中前进、左右方向重叠文件名称及其重叠信息,并更新与之相邻图像文件记录的重叠信息描述;
(1-3-2)标本图像命名,依据载物平台移动拍摄的顺序,按照拍摄位置、角度、放大倍数的顺序命名标本图像文件,有规律地描述图像文件,为后续全景图像和点云生成中同名点即不同图像中同一特征点的匹配做好数据预处理工作;
(1-3-3)标本图像管理,按照倍率从大到小的顺序,建立标本图像管理系统,采用金字塔结构管理不同倍率的标本图像图片,即小尺度图像在最高层,大尺度图像在底层,实现标本图像的组织和管理。
3.根据权利要求1所述的高精度微观虚拟学习资源生成方法,其特征在于步骤(2)所述的标本表面3D模型生成具体包括如下步骤:
(2-1)点云数据生成,按照堆块形式组织标本图像文件,在空间场景中自动排列所有图像,完成摄像机标定;根据相邻标本图像同名特征点,实现标本图像校正并完成视差计算;依据压缩参数,利用顾及标本形态和密度分布的点云迭代压缩算法,生成标本表面的三维点云数据;
(2-1-1)图像对齐,在标本图像管理系统中,选取某标本的所有图片,将它们按照堆块形式组织,实现标本图像匹配;按照高、中、低档设置精度参数,执行对齐操作,在空间场景中自动排列所有图像,完成摄像机标定;
(2-1-2)提取特征点,针对相邻图像同名特征点之间存在透视变换、相似变换、错切变换情形,按照空间位置、相似度规则,完成标本图像校正;基于窗口的稠密点匹配,完成相邻标本图像之间视差计算;
(2-1-3)密集点云生成,在统一坐标系,获取同名特征点的空间坐标;根据建模要求,按照从低到高即最低、低、中、高、超高5个等级,设置点云生成压缩参数,利用顾及标本形态和密度分布的点云迭代压缩算法生成标本表面的三维点云数据;
(2-2)点云数据处理,利用基于局部密度的点云去噪算法剔除噪声数据,基于直接线性变换平差模型求解空间和图像坐标转换的系数,获取点云三维坐标和纹理坐标的映射关系;通过标本的控制点,利用三维交互软件量测其相关坐标和位置参数,检查点云数据的生成质量;
(2-2-1)点云噪声剔除,由于拍摄角度、标本部件的相互遮挡、材质及纹理的分布因素,导致生成的点云中有许多噪点,利用K-D树构建点云的拓扑关系,确定每个点的K近邻的平均值和方差,设置阈值,剔除异常的噪点数据;
(2-2-2)点云着色,通过量测控制点在空间和图像上的坐标、图像行列坐标和图像平面坐标转换,使用直接线性变换平差模型求解系数,计算点云中每个点所对应的图像坐标,为其赋予相应的RGB值;
(2-2-3)质量检查,利用三维编辑交互软件中的测距功能测量控制点的坐标、相互之间距离与方位角信息,对照实际标本的相应信息,检查点云生成精度:若不符合要求,则查找错误部分,如是点云数据获取不完整,则需重新补足相应部分的数据;
(2-3)模型生成,采用三维Delaunay算法构建点云的三角形表面模型,沿各个子部件轮廓分割标本模型;采用两次局部映射简化算法,压缩标本面片数量;实现标本表面三维面片与全景影像的配准,生成具有图片质感的标本表面三维模型;
(2-3-1)三维标本模型生成,采用三维Delaunay算法构建点云数据的三角化表面模型,通过三维编辑交互软件标定标本模型的表面结构形态,沿其边界轮廓分割三维表面模型,形成形状各异的各部件子模型;
(2-3-2)标本表面三角形压缩,基于点云生成的三角形面片过大,会影响实时渲染和交互相应的速度,采用两次局部映射法简化标本模型的三角形面片,创建高斯球,先将三角形面片投影到二维平面,再投影回三维空间,大大压缩标本表面模型的三角形面片数量;
(2-3-3)标本模型的纹理映射,根据步骤(1-2-3)生成的标本全景图像,利用标本表面顶点的空间坐标和成像显微镜的固定几何关系建立全景影像像素与顶点的对应关系,实现表面三角形面片与全景影像的映射。
4.根据权利要求1所述的高精度微观虚拟学习资源生成方法,其特征在于步骤(3)所述的微观虚拟学习资源的交互展示具体包括如下步骤:
(3-1)标本模型的观察设置,在虚拟学习资源构建过程中,选取昆虫3D模型作为学习者在虚拟学习空间的化身,以第三人称视角多角度、全方位浏览标本模型;根据虚拟场景的视差设置,确定观察虚拟学习资源的最佳位置,动态更新微观虚拟学习资源;
(3-1-1)创建用户虚拟化身,在虚拟学习资源构建过程中,选取昆虫3D模型作为学习者在虚拟学习空间的化身,在其后方创建一个虚拟摄像机,将学习者观察视点绑定在摄像机上、视线始终指向化身模型,跟随、观察视场范围中的虚拟学习资源;
(3-1-2)化身观察位置的设定,由于标本模型的类别、大小不同,在虚拟学习资源描述中应记录其实际长、宽、高参数,加载该虚拟场景时,应根据这些信息,设定摄像机的位置、方向,形成最佳的化身模型观察位置;
(3-1-3)动态更新虚拟学习资源,根据任务、步骤,学习者通过调整虚拟摄像机的位置、视线方向、视场角参数,实时更新视野中标本模型的位置、朝向、姿态和运动方式,动态更新虚拟学习空间中的标本模型;
(3-2)标本模型显示模式设置,为标本模型的不同部位添加标注,根据先后顺序和视觉关系,设置不同的标注形式;针对高精度标本模型所产生的海量三角形面片的情形,采用单面透明、横截面和部件隐藏的显示方式;
(3-2-1)标本模型的标注设置,为有利于学习者认识和理解学习内容,虚拟学习资源构建过程中,需要为标本模型标注其特有知识点内容信息,如要标注多个部件,应优化其先后顺序和视觉关系,达到合理有序、主次分明的视觉效果;
(3-2-2)单面透明设置,通过增加标本模型纹理的透明值,即为纹理图像增加Alpha通道;当模型的三角形面片与摄像机朝向一致时,将该面的纹理Alpha值设为黑色、其他区域设为白色,阻挡视野的面片即会透明显示,便于用户观察操作;
(3-2-3)部件隐藏设置,针对不适用单面透明设置的情形,采用标本子部件模型隐藏,或将其表面替换为横截面模型,便于海量数据场景中,学习者快速浏览模型;
(3-3)标本模型的交互设置,根据标本模型的实际结构,将其拆分成功能各异的部件,重建它们之间的层次关系,展示其形态和结构;按照由根部向上,由外向内的剥离顺序,逐层逐段的动态显示各部件;依据运动所涉及部件的旋转方向、活动区间、角速度,完成标本关节姿态的动态交互展示;
(3-3-1)标本部件的拆分和关联,标本模型可拆分成多个功能各异的部件,彼此链接的关系可限定部件之间的活动角度范围;重建各部件之间的层次关系,形成各个标本部件的关节运动结构,展示其形态和结构;
(3-2-2)部件显示顺序,根据标本实物的生长规律,参照各部件与其父、子部件的相互关系,按照由根部向上,由外向内的剥离顺序,逐层逐段的动态显示各个部件,各部件也可采用单面透明或者切面显示的方式;
(3-3-3)标本部件的动态模拟,依据运动所涉及部件的旋转方向、活动区间、角速度,将角速度代入部件链接之间的角度区间,获得一次往复循环的频率,通过约束旋转方向、开合幅度及频率要素,完成标本关节姿态的动态交互展示。
CN202010946194.XA 2020-09-10 2020-09-10 一种高精度微观虚拟学习资源生成方法 Active CN112258390B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010946194.XA CN112258390B (zh) 2020-09-10 2020-09-10 一种高精度微观虚拟学习资源生成方法
US17/371,074 US11164289B1 (en) 2020-09-10 2021-07-08 Method for generating high-precision and microscopic virtual learning resource

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010946194.XA CN112258390B (zh) 2020-09-10 2020-09-10 一种高精度微观虚拟学习资源生成方法

Publications (2)

Publication Number Publication Date
CN112258390A true CN112258390A (zh) 2021-01-22
CN112258390B CN112258390B (zh) 2021-06-25

Family

ID=74233061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010946194.XA Active CN112258390B (zh) 2020-09-10 2020-09-10 一种高精度微观虚拟学习资源生成方法

Country Status (2)

Country Link
US (1) US11164289B1 (zh)
CN (1) CN112258390B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967372A (zh) * 2021-02-03 2021-06-15 武汉南北极测绘地理信息有限公司 基于互联网场景的矿物、岩石标本教学展示方法及系统
CN113205709A (zh) * 2021-04-13 2021-08-03 广东小天才科技有限公司 学习内容的输出方法及装置、电子设备、存储介质
CN114067049A (zh) * 2021-11-11 2022-02-18 四川泛华航空仪表电器有限公司 一种基于光学显微的模型生成方法
CN117218244A (zh) * 2023-11-07 2023-12-12 武汉博润通文化科技股份有限公司 一种基于图像识别的3d动画模型智能生成方法
CN117764686A (zh) * 2024-01-09 2024-03-26 广东琦亚展览有限公司 一种基于数字化的商品数据展示方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
CN113916192B (zh) * 2021-11-05 2023-06-23 郑州信息科技职业学院 喀斯特溶洞图像采集监测与成像系统
CN114584571B (zh) * 2021-12-24 2024-02-27 北京中电飞华通信有限公司 基于空间计算技术的电网场站数字孪生同步通信方法
CN114596293B (zh) * 2022-03-11 2024-05-17 华南理工大学 基于agv对工件进行作业的方法及agv系统
CN115103134B (zh) * 2022-06-17 2023-02-17 北京中科深智科技有限公司 一种led虚拟拍摄切割合成方法
CN115496863B (zh) * 2022-11-01 2023-03-21 之江实验室 用于影视智能创作的情景互动的短视频生成方法及系统
CN115797584B (zh) * 2022-12-16 2024-04-02 广东省机场管理集团有限公司工程建设指挥部 一种禁飞区内实景模型构建方法
CN116821570B (zh) * 2023-05-24 2024-05-07 上海勘测设计研究院有限公司 用于明渠图像正向校正的系数估算方法、装置、终端及介质
CN117451626B (zh) * 2023-10-27 2024-05-28 清华大学 包含样品形状优化的叠层成像方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200762A (zh) * 2014-09-19 2014-12-10 南京博物院 一种结合科技考古研究的文物展陈方法
CN104785947A (zh) * 2015-04-14 2015-07-22 上海大学 判断复合作用下点焊接头失效的方法
CN206301505U (zh) * 2016-10-25 2017-07-04 深圳市科创数字显示技术有限公司 Ar和vr相结合的可移动眼角膜智能手术培训系统
CN106943192A (zh) * 2017-03-14 2017-07-14 上海交通大学医学院附属第九人民医院 肺癌细胞ki‑67表达指数的术前预测模型的建立方法
CN108182725A (zh) * 2017-12-20 2018-06-19 中国人民解放军陆军军医大学第二附属医院 一种建立数字化单心室胎儿心脏结构教学模型的方法
CN109035395A (zh) * 2018-08-27 2018-12-18 贵州天迪绿水青山生物科技有限责任公司 一种琥珀包埋标本实验教学虚拟教学系统及方法
CN109229417A (zh) * 2018-08-06 2019-01-18 浙江工业大学 一种基于雕翼的仿生组合翼型设计方法
CN110124309A (zh) * 2019-05-06 2019-08-16 腾讯科技(深圳)有限公司 虚拟角色控制方法和装置、存储介质及电子装置
CN110302171A (zh) * 2019-07-12 2019-10-08 山东大学 一种瘤内注射用sn-38-plga缓释微球及其制备方法和应用
CN110992804A (zh) * 2019-12-05 2020-04-10 河南中博科技有限公司 一种实物标本3d打印方法
CN111260677A (zh) * 2020-02-20 2020-06-09 腾讯科技(深圳)有限公司 基于显微图像的细胞分析方法、装置、设备及存储介质
CN111590901A (zh) * 2020-06-11 2020-08-28 中国海洋大学 一种章鱼全息数字化建模和3d打印模型的制备方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3361979A4 (en) * 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104200762A (zh) * 2014-09-19 2014-12-10 南京博物院 一种结合科技考古研究的文物展陈方法
CN104785947A (zh) * 2015-04-14 2015-07-22 上海大学 判断复合作用下点焊接头失效的方法
CN206301505U (zh) * 2016-10-25 2017-07-04 深圳市科创数字显示技术有限公司 Ar和vr相结合的可移动眼角膜智能手术培训系统
CN106943192A (zh) * 2017-03-14 2017-07-14 上海交通大学医学院附属第九人民医院 肺癌细胞ki‑67表达指数的术前预测模型的建立方法
CN108182725A (zh) * 2017-12-20 2018-06-19 中国人民解放军陆军军医大学第二附属医院 一种建立数字化单心室胎儿心脏结构教学模型的方法
CN109229417A (zh) * 2018-08-06 2019-01-18 浙江工业大学 一种基于雕翼的仿生组合翼型设计方法
CN109035395A (zh) * 2018-08-27 2018-12-18 贵州天迪绿水青山生物科技有限责任公司 一种琥珀包埋标本实验教学虚拟教学系统及方法
CN110124309A (zh) * 2019-05-06 2019-08-16 腾讯科技(深圳)有限公司 虚拟角色控制方法和装置、存储介质及电子装置
CN110302171A (zh) * 2019-07-12 2019-10-08 山东大学 一种瘤内注射用sn-38-plga缓释微球及其制备方法和应用
CN110992804A (zh) * 2019-12-05 2020-04-10 河南中博科技有限公司 一种实物标本3d打印方法
CN111260677A (zh) * 2020-02-20 2020-06-09 腾讯科技(深圳)有限公司 基于显微图像的细胞分析方法、装置、设备及存储介质
CN111590901A (zh) * 2020-06-11 2020-08-28 中国海洋大学 一种章鱼全息数字化建模和3d打印模型的制备方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李典: ""基于SFS的表面粗糙度三维检测"", 《中国优秀硕士学位论文全文数据库工程科技Ⅰ辑》 *
诺斯顿: ""动物标本三维扫描案例"", 《微信公众号HTTPS://MP.WEIXIN.QQ.COM/S/DHXH9OPALXYZOQBMQ4PEGA》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967372A (zh) * 2021-02-03 2021-06-15 武汉南北极测绘地理信息有限公司 基于互联网场景的矿物、岩石标本教学展示方法及系统
CN112967372B (zh) * 2021-02-03 2023-05-09 武汉南北极测绘地理信息有限公司 基于互联网场景的矿物、岩石标本教学展示方法及系统
CN113205709A (zh) * 2021-04-13 2021-08-03 广东小天才科技有限公司 学习内容的输出方法及装置、电子设备、存储介质
CN114067049A (zh) * 2021-11-11 2022-02-18 四川泛华航空仪表电器有限公司 一种基于光学显微的模型生成方法
CN114067049B (zh) * 2021-11-11 2024-05-10 四川泛华航空仪表电器有限公司 一种基于光学显微的模型生成方法
CN117218244A (zh) * 2023-11-07 2023-12-12 武汉博润通文化科技股份有限公司 一种基于图像识别的3d动画模型智能生成方法
CN117218244B (zh) * 2023-11-07 2024-02-13 武汉博润通文化科技股份有限公司 一种基于图像识别的3d动画模型智能生成方法
CN117764686A (zh) * 2024-01-09 2024-03-26 广东琦亚展览有限公司 一种基于数字化的商品数据展示方法

Also Published As

Publication number Publication date
US11164289B1 (en) 2021-11-02
CN112258390B (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
CN112258390B (zh) 一种高精度微观虚拟学习资源生成方法
CN109872397B (zh) 一种基于多目立体视觉的飞机零件的三维重建方法
Zhang et al. Image engineering
CN109035388B (zh) 三维人脸模型重建方法及装置
Farahani et al. Three-dimensional imaging and scanning: current and future applications for pathology
CN103021017B (zh) 基于gpu加速的三维场景重建方法
Lerones et al. A practical approach to making accurate 3D layouts of interesting cultural heritage sites through digital models
CN107330964B (zh) 一种复杂三维物体的显示方法及系统
CN111311662B (zh) 一种实时重建三维场景的方法及装置
CN113112504A (zh) 一种植物点云数据分割方法及系统
Gibson et al. Interactive reconstruction of virtual environments from video sequences
CN107170037A (zh) 一种基于多摄像机的实时三维点云重建方法和系统
Ley et al. Syb3r: A realistic synthetic benchmark for 3d reconstruction from images
De Paolis et al. Photogrammetric 3D reconstruction of small objects for a real-time fruition
Kersten et al. Automatic texture mapping of architectural and archaeological 3d models
CN113781621A (zh) 三维重建处理的方法、装置、设备及存储介质
Kholil et al. 3D reconstruction using structure from motion (SFM) algorithm and multi view stereo (MVS) based on computer vision
CN114998507A (zh) 一种基于自监督学习的光度立体三维重建方法
Verykokou et al. A Comparative analysis of different software packages for 3D Modelling of complex geometries
Inzerillo et al. High quality texture mapping process aimed at the optimization of 3d structured light models
CN111243062A (zh) 一种将平面壁画转化为立体高清数字壁画的制作方法
JP2832463B2 (ja) 3次元モデルの再構成方法および表示方法
Frommholz et al. Inlining 3d reconstruction, multi-source texture mapping and semantic analysis using oblique aerial imagery
Zollhöfer et al. Low-Cost Real-Time 3D Reconstruction of Large-Scale Excavation Sites using an RGB-D Camera.
Drofova et al. Use of scanning devices for object 3D reconstruction by photogrammetry and visualization in virtual reality

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant