CN110555902B - 单目视觉测量合作靶标视景仿真系统 - Google Patents

单目视觉测量合作靶标视景仿真系统 Download PDF

Info

Publication number
CN110555902B
CN110555902B CN201910851156.3A CN201910851156A CN110555902B CN 110555902 B CN110555902 B CN 110555902B CN 201910851156 A CN201910851156 A CN 201910851156A CN 110555902 B CN110555902 B CN 110555902B
Authority
CN
China
Prior art keywords
camera
axis
module
visual
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910851156.3A
Other languages
English (en)
Other versions
CN110555902A (zh
Inventor
姜瑞凯
邸男
武治国
李静宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Original Assignee
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun Institute of Optics Fine Mechanics and Physics of CAS filed Critical Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority to CN201910851156.3A priority Critical patent/CN110555902B/zh
Publication of CN110555902A publication Critical patent/CN110555902A/zh
Application granted granted Critical
Publication of CN110555902B publication Critical patent/CN110555902B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及单目视觉测量合作靶标视景仿真系统,包括合作靶标模型加载模块、背景模型加载模块、视景渲染模块、运动模型加载模块和人机交互模块等,其中合作靶标模型加载模块用于加载合作靶标模型文件;背景模型加载模块用于将背景模型载入系统内存;视景渲染模块用于根据人机交互模块输入的相机参数和相机位置设置视场大小、视点位置和视点方向,绘制合作靶标三维图形和显示背景纹理图片,设置全局环境光照和模拟主动照明光照;运动模型加载模块用于绘制对应视角的合作靶标三维图形。本发明可以实现无需实物,只需导入合作靶标模型文件,在算法设计阶段快速完成闭环仿真验证,同时可以提供靶标在相机坐标系下的真实值,用以验证算法的测量精度。

Description

单目视觉测量合作靶标视景仿真系统
技术领域
本发明涉及视景仿真技术领域,特别是涉及一种单目视觉测量合作靶标视景仿真系统。
背景技术
光学视觉测量技术是一种建立在光电子技术和机器视觉技术基础至上的新兴测量技术,由于其具有高灵敏度、高速度、非接触、无损坏等优点而被公认为最有前途的三维测量方法。光学视觉测量的方法众多,其中基于合作靶标的单目视觉测量方法由于其高可靠性、高精度的特点被广泛用于航空、航天、工业和制造业等领域。
基于合作靶标的单目视觉测量系统是利用单目相机对人工塑造标记特征的目标进行位姿测量。以往的这种测量系统试验方法多采用的是在设计靶标后,加工实物靶标,进行实物测量。由于加工靶标需要一定的周期和费用,在靶标设计未定型阶段需要根据试验效果反复修改靶标设计,如果采用实物试验的方法,将花费较多的时间和财力。
发明内容
基于此,有必要针对基于合作靶标的单目视觉测量系统采用实物试验需反复修改靶标设计,将花费较多的时间和财力的问题,提供一种单目视觉测量合作靶标视景仿真系统。
为解决上述问题,本发明采取如下的技术方案:
一种单目视觉测量合作靶标视景仿真系统,包括:
合作靶标模型加载模块,用于加载合作靶标模型文件,解析生成OpenGL显示列表,加载合作靶标模型材质属性,调整合作靶标模型坐标系,使合作靶标模型坐标系原点与OpenGL原点重合,坐标轴方向一致,并做归一化处理;
背景模型加载模块,用于将背景模型载入系统内存,并根据与合作靶标模型的比例关系,对背景模型进行尺度缩放,最后创建OpenGL纹理对象;
视景渲染模块,用于根据人机交互模块输入的相机参数和相机位置设置视场大小、视点位置和视点方向,绘制合作靶标三维图形和显示OpenGL纹理对象对应的背景纹理图片,设置全局环境光照和模拟主动照明光照;
运动模型加载模块,用于根据人机交互模块接收的用户指定的运动轨迹实时更新相机的位置和姿态,绘制对应视角的合作靶标三维图形;
数据可视化模块,用于在人机交互模块的用户交互界面显示相机的位置曲线和姿态曲线;
位图生成模块,用于将当前相机视角下视景渲染模块渲染的合作靶标三维图形从GPU内存中拷贝至系统内存,并将图像数据转为位图格式,存储至本地文件系统中;
人机交互模块,用于显示用户交互界面,并接收用户输入的相机参数和相机位置以及用户指定的运动轨迹,用户交互界面包括:
相机参数设置区域,用于设置相机视场角、纵横比、分辨率和帧频;
运动模型设置区域,用于设置运动轨迹文件名称,选择是否生成BMP序列,开始、暂停或者结束运行运动模型;
相机位置设置区域,用于设置相机X轴、Y轴、Z轴坐标;
相机姿态设置区域,用于设置相机绕X轴、Y轴、Z轴旋转角度;
相机视角视景仿真区域,用于显示相机视角下的合作靶标三维图形及背景三维图形视图;
第三方视角视景仿真区域,用于显示相机的视轴方向和视场大小,以及显示当前相机与靶标的相对位置关系;
曲线绘制区域,用于显示相机X轴、Y轴、Z轴坐标曲线,以及X轴、Y轴、Z轴旋转角度曲线。
上述单目视觉测量合作靶标视景仿真系统是一种用于验证靶标设计合理性和算法测量精度的纯数字化视景仿真系统,可以实现无需实物,只需导入合作靶标模型文件,在算法设计阶段快速完成闭环仿真验证,同时可以提供靶标在相机坐标系下的真实值,用以验证算法的测量精度。
附图说明
图1为本发明其中一个实施例中单目视觉测量合作靶标视景仿真系统的总体结构框图;
图2为本发明其中一个实施例中单目视觉测量合作靶标视景仿真系统的用户交互界面示意图;
图3为图2所示用户交互界面中区域1至区域4的局部放大图;
图4为本发明其中一个实施例中单目视觉测量合作靶标视景仿真系统的操作流程图;
图5为本发明其中一个实施例中单目视觉测量合作靶标视景仿真系统的初始化流程图。
具体实施方式
下面将结合附图及较佳实施例对本发明的技术方案进行详细描述。
在其中一个实施例中,如图1所示,本发明公开一种单目视觉测量合作靶标视景仿真系统,该系统采用MFC对话框框架,以OpenGL三维图形渲染引擎,采用模块化设计,主要包括合作靶标模型加载模块、背景模型加载模块、视景渲染模块、运动模型加载模块、数据可视化模块、位图生成模块和人机交互模块。下面对本实施例中的各个模块进行详细说明。
合作靶标模型加载模块,用于加载或者读取合作靶标模型文件,解析生成OpenGL显示列表,加载合作靶标模型材质属性,调整合作靶标模型坐标系,使合作靶标模型坐标系原点与OpenGL原点重合,坐标轴方向一致,并做归一化处理。合作靶标模型文件为OBJ格式文件,OBJ格式文件可以由3DMAX、UG等结构设计软件直接导出。
背景模型加载模块,用于将背景模型载入系统内存,并根据与合作靶标模型的比例关系,对背景模型进行尺度缩放,最后创建OpenGL纹理对象。背景模型可以采用一些常用的三维模型格式储存,例如OBJ、3DS等,但是考虑到系统渲染3D模型的开销比较大,为了简化背景模型的设计,减少计算量,减轻渲染负担,加快运算速度,背景模型优选采用位图形式储存,在一定角度和距离内,可以到达逼真目的。背景图片可以从实际拍摄中获取或者用软件绘制近似。背景模型将以纹理图片的形式显示在三维场景中。
视景渲染模块,用于渲染图像,具体是根据人机交互模块输入的相机参数和相机位置设置视场大小、视点位置和视点方向,绘制合作靶标三维图形和显示OpenGL纹理对象对应的背景纹理图片,设置全局环境光照和模拟主动照明光照。
运动模型加载模块,用于根据人机交互模块接收的用户指定的运动轨迹实时更新相机的位置和姿态,绘制对应视角的合作靶标三维图形。本实施例中的运动轨迹以文本文件形式加载,以方便用户编辑和查看,运动轨迹的内容形式包括第一至三列的X轴,Y轴,Z轴坐标(单位为米)以及第四至六列的绕X轴,Y轴,Z轴旋转角度(单位为弧度)。
数据可视化模块,用于在人机交互模块的用户交互界面显示相机的位置曲线和姿态曲线,以使得相机位姿运动数据更加直观。曲线界面支持局部放大,暂停显示,数据回放等功能。
位图生成模块,用于将当前相机视角下视景渲染模块渲染的合作靶标三维图形从GPU内存中拷贝至系统内存,并将图像数据转为位图格式,存储至本地文件系统中。在运动轨迹模式下,位图生成模块可以连续存储每个运动点的图像,形成位图图像序列,用以提供给算法仿真验证和靶标设计合理性验证。
人机交互模块,用于显示基于MFC对话框框架开发的用户交互界面,并接收用户输入的相机参数和相机位置以及用户指定的运动轨迹。用户交互界面的主界面如图2和图3所示,具体包括:相机参数设置区域(区域1),用于设置相机视场角、纵横比、分辨率和帧频,例如视场角设置为52度,纵横比设置为1,分辨率设置为1024×1024,帧频设置为25Hz;运动模型设置区域(区域2),用于设置运动轨迹文件名称(例如运动轨迹文件名称为tracel.txt),选择是否生成BMP序列,开始、暂停或者结束运行运动模型;相机位置设置区域(区域3),用于设置相机X轴,Y轴,Z轴坐标,例如,设置相机的X轴为278mm,Y轴为-6mm,Z轴为10mm;相机姿态设置区域(区域4),用于设置相机绕X轴,Y轴,Z轴旋转角度,例如设置相机绕X轴的角度α为0,相机绕X轴的角度β为0,相机绕X轴的角度γ为0;相机视角视景仿真区域(区域5),用于显示相机视角下的靶标及背景三维图形视图;第三方视角视景仿真区域(区域6),用于显示相机的视轴方向和视场大小,以及显示当前相机与靶标的相对位置关系;曲线绘制区域(区域7),用于显示相机X轴,Y轴,Z轴坐标曲线,以及X轴,Y轴,Z轴旋转角度曲线。
本实施例所提出的单目视觉测量合作靶标视景仿真系统的操作流程参照见图4,包括以下步骤:步骤S1,用户在相机参数设置区域(区域1)设置相机参数,相机参数包括视场角、纵横比、分辨率和帧频,点击应用后,系统根据当前相机参数,在相机视角视景仿真区域(区域5)重新绘制合作靶标三维图形和背景模型,在第三方视角视景仿真区域(区域6)重新绘制相机模型示意图;步骤S2,用户输入运动轨迹文件名称,选择是否生成BMP图像序列,点击运行按钮,系统按照指定的运动轨迹移动相机位置,在相机视角视景仿真区域(区域5)重新绘制合作靶标三维图形和背景模型,在第三方视角视景仿真区域(区域6)重新绘制相机模型示意图,在相机位置设置区域(区域3)和相机姿态设置区域(区域4),相机位置和姿态数值同步改变,在曲线绘制区域(区域7)同步绘制运动轨迹曲线(相机X轴,Y轴,Z轴坐标曲线,以及X轴,Y轴,Z轴旋转角度曲线);点击暂停按钮,系统将暂停模型运动,点击运行按钮继续;点击结束按钮,结束本次运动模型,如果选择生成BMP图像序列,系统会在渲染模型运动的同时生成BMP图像序列,点击暂停按钮之后或者点击结束按钮之后,执行步骤S3;步骤S3,用户可以在运动模型设置区域(区域2)和相机位置设置区域(区域3)设置相机位置和姿态,系统根据当前相机位置,在相机视角视景仿真区域(区域5)重新绘制靶标模型和背景模型,在第三方视角视景仿真区域(区域6)重新绘制相机模型示意图。步骤S2和步骤S3的顺序可以相互调换,在进行步骤S2暂停或结束后,可以继续进行步骤S3,或者在进行步骤S3后,再进行步骤S2。
上述单目视觉测量合作靶标视景仿真系统是一种用于验证靶标设计合理性和算法测量精度的纯数字化视景仿真系统,可以实现无需实物,只需导入合作靶标模型文件,在算法设计阶段快速完成闭环仿真验证,同时可以提供靶标在相机坐标系下的真实值,用以验证算法的测量精度。
进一步地,本实施例的单目视觉测量合作靶标视景仿真系统初始化过程包括以下步骤:初始化用户交互界面;初始化OpenGL环境;加载合作靶标模型文件;加载背景模型;根据默认参数在用户交互界面的相机视角视景仿真区域绘制合作靶标三维图形和显示背景,在第三方视角视景仿真区域绘制相机视轴、视场示意图。如图5所示,初始化过程开始后,首先初始化用户交互界面,然后初始化OpenGL环境,加载合作靶标模型文件,加载背景模型,根据默认参数在相机视角视景仿真区域(区域5)绘制合作靶标三维图形和显示背景,在第三方视角视景仿真区域(区域6)绘制相机视轴和视场示意图,初始化过程结束。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (4)

1.一种单目视觉测量合作靶标视景仿真系统,其特征在于,包括:
合作靶标模型加载模块,用于加载合作靶标模型文件,解析生成OpenGL显示列表,加载合作靶标模型材质属性,调整合作靶标模型坐标系,使合作靶标模型坐标系原点与OpenGL原点重合,坐标轴方向一致,并做归一化处理;
背景模型加载模块,用于将背景模型载入系统内存,并根据与合作靶标模型的比例关系,对背景模型进行尺度缩放,最后创建OpenGL纹理对象;
视景渲染模块,用于根据人机交互模块输入的相机参数和相机位置设置视场大小、视点位置和视点方向,绘制合作靶标三维图形和显示OpenGL纹理对象对应的背景纹理图片,设置全局环境光照和模拟主动照明光照;
运动模型加载模块,用于根据人机交互模块接收的用户指定的运动轨迹实时更新相机的位置和姿态,绘制对应视角的合作靶标三维图形;
数据可视化模块,用于在人机交互模块的用户交互界面显示相机的位置曲线和姿态曲线;
位图生成模块,用于将当前相机视角下视景渲染模块渲染的合作靶标三维图形从GPU内存中拷贝至系统内存,并将图像数据转为位图格式,存储至本地文件系统中;
人机交互模块,用于显示用户交互界面,并接收用户输入的相机参数和相机位置以及用户指定的运动轨迹,用户交互界面包括:
相机参数设置区域,用于设置相机视场角、纵横比、分辨率和帧频;
运动模型设置区域,用于设置运动轨迹文件名称,选择是否生成BMP序列,开始、暂停或者结束运行运动模型;
相机位置设置区域,用于设置相机X轴、Y轴、Z轴坐标;
相机姿态设置区域,用于设置相机绕X轴、Y轴、Z轴旋转角度;
相机视角视景仿真区域,用于显示相机视角下的合作靶标三维图形及背景三维图形视图;
第三方视角视景仿真区域,用于显示相机的视轴方向和视场大小,以及显示当前相机与靶标的相对位置关系;
曲线绘制区域,用于显示相机X轴、Y轴、Z轴坐标曲线,以及X轴、Y轴、Z轴旋转角度曲线。
2.根据权利要求1所述的单目视觉测量合作靶标视景仿真系统,其特征在于,系统的初始化过程包括以下步骤:
初始化用户交互界面;
初始化OpenGL环境;
加载合作靶标模型文件;
加载背景模型;
根据默认参数在用户交互界面的相机视角视景仿真区域绘制合作靶标三维图形和显示背景,在第三方视角视景仿真区域绘制相机视轴、视场示意图。
3.根据权利要求1所述的单目视觉测量合作靶标视景仿真系统,其特征在于,
背景模型采用位图形式储存。
4.根据权利要求1所述的单目视觉测量合作靶标视景仿真系统,其特征在于,
合作靶标模型文件为OBJ格式文件。
CN201910851156.3A 2019-09-10 2019-09-10 单目视觉测量合作靶标视景仿真系统 Active CN110555902B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910851156.3A CN110555902B (zh) 2019-09-10 2019-09-10 单目视觉测量合作靶标视景仿真系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910851156.3A CN110555902B (zh) 2019-09-10 2019-09-10 单目视觉测量合作靶标视景仿真系统

Publications (2)

Publication Number Publication Date
CN110555902A CN110555902A (zh) 2019-12-10
CN110555902B true CN110555902B (zh) 2021-03-16

Family

ID=68739479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910851156.3A Active CN110555902B (zh) 2019-09-10 2019-09-10 单目视觉测量合作靶标视景仿真系统

Country Status (1)

Country Link
CN (1) CN110555902B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110986886A (zh) * 2019-12-18 2020-04-10 中国科学院长春光学精密机械与物理研究所 一种双相机动态旋转扫描立体成像的模拟装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103162622A (zh) * 2013-02-28 2013-06-19 西安交通大学 单目视觉系统及其使用的便携式球靶标及其测量方法
CN105354355A (zh) * 2015-09-28 2016-02-24 中国人民解放军辽宁省军区装备部军械修理所 一种基于三维运动视景的仿真系统设计与实现方法
CN105758383A (zh) * 2015-12-30 2016-07-13 中国科学院长春光学精密机械与物理研究所 一种双目视觉测量系统精度分析方法
CN106679650A (zh) * 2016-12-28 2017-05-17 中国科学院长春光学精密机械与物理研究所 一种视觉姿态测量系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8380367B2 (en) * 2009-03-26 2013-02-19 The University Of North Dakota Adaptive surveillance and guidance system for vehicle collision avoidance and interception
CN103093047B (zh) * 2013-01-12 2015-06-17 天津大学 典型飞行器视景仿真系统
CN103235545B (zh) * 2013-04-19 2015-12-09 中国科学院光电技术研究所 一种光电跟踪系统的仿真测试方法和装置
CN109448055B (zh) * 2018-09-20 2021-04-16 中国科学院光电研究院 单目视觉姿态确定方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103162622A (zh) * 2013-02-28 2013-06-19 西安交通大学 单目视觉系统及其使用的便携式球靶标及其测量方法
CN105354355A (zh) * 2015-09-28 2016-02-24 中国人民解放军辽宁省军区装备部军械修理所 一种基于三维运动视景的仿真系统设计与实现方法
CN105758383A (zh) * 2015-12-30 2016-07-13 中国科学院长春光学精密机械与物理研究所 一种双目视觉测量系统精度分析方法
CN106679650A (zh) * 2016-12-28 2017-05-17 中国科学院长春光学精密机械与物理研究所 一种视觉姿态测量系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
空间合作目标单目视觉位姿测量技术研究;吕耀宇;《中国优秀硕士学位论文全文数据库》;20181015;第2章,图2.1 *
航天器合作靶标自动识别关键技术研究;初广丽;《中国博士学位论文全文数据库》;20150915;全文 *

Also Published As

Publication number Publication date
CN110555902A (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
CN112509151B (zh) 一种教学场景中虚拟对象的真实感生成方法
US9691172B2 (en) Furry avatar animation
US20130215230A1 (en) Augmented Reality System Using a Portable Device
CN111294665B (zh) 视频的生成方法、装置、电子设备及可读存储介质
US20080316202A1 (en) Direct manipulation of subdivision surfaces using a graphics processing unit
US20130257856A1 (en) Determining a View of an Object in a Three-Dimensional Image Viewer
EP3533218B1 (en) Simulating depth of field
US10964083B1 (en) Facial animation models
CN104011768A (zh) 数字图像放大用户界面
JP2012190428A (ja) 立体映像視覚効果処理方法
CN113129450A (zh) 虚拟试衣方法、装置、电子设备和介质
CN117274542A (zh) 用于生成混合现实中的动态虚拟内容的设备和方法
US10991154B1 (en) Method for generating model of sculpture of face with high meticulous, computing device, and non-transitory storage medium
CN113012269A (zh) 基于gpu的三维图像数据渲染方法及设备
CN108197555B (zh) 一种基于人脸追踪的实时人脸融合方法
KR20230162107A (ko) 증강 현실 콘텐츠에서의 머리 회전들에 대한 얼굴 합성
CN110555902B (zh) 单目视觉测量合作靶标视景仿真系统
US8009171B2 (en) Image processing apparatus and method, and program
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.
CN112506347A (zh) 面向加工过程监控的混合现实交互方法
Wang Augmented reality intelligent crew assistant
CN106991643B (zh) 一种低资源消耗的实时核线方法和实时核线系统
CN116797723B (zh) 服饰三维建模的方法、三维换装方法及对应装置
JP2020013390A (ja) 情報処理装置、情報処理プログラム及び情報処理方法
Volino et al. Online interactive 4D character animation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant