CN106778710A - 一种基于kinect传感器的飞行模拟器动态视点系统 - Google Patents
一种基于kinect传感器的飞行模拟器动态视点系统 Download PDFInfo
- Publication number
- CN106778710A CN106778710A CN201710086712.3A CN201710086712A CN106778710A CN 106778710 A CN106778710 A CN 106778710A CN 201710086712 A CN201710086712 A CN 201710086712A CN 106778710 A CN106778710 A CN 106778710A
- Authority
- CN
- China
- Prior art keywords
- screen
- video screen
- viewpoint
- kinect
- pilot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 17
- 238000009434 installation Methods 0.000 claims description 10
- 241000270295 Serpentes Species 0.000 claims description 9
- 210000003128 head Anatomy 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 210000000887 face Anatomy 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000000452 restraining effect Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 230000005611 electricity Effects 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 238000012549 training Methods 0.000 abstract description 9
- 230000000007 visual effect Effects 0.000 abstract description 9
- 238000007654 immersion Methods 0.000 abstract description 4
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种基于kinect传感器的飞行模拟器动态视点系统,其特征在于:kinect传感器数据线与电脑主机相连,仪表板的电脑主机与分机通过网络通信线束联机,各分机分别通过3D图形输出线束与上侧电视屏幕、前侧电视屏幕、右侧电视屏幕和左侧电视屏幕相连。其通过飞行模拟器动态视点系统,使得当飞行员的眼睛相对屏幕发生位置改变时,能够实时更新投影矩阵,然后飞行模拟器通过投影矩阵的变化而变化屏幕图像。当飞行员透过窗口观察环境时,应用这种系统能够将实际视线范围内的内容呈现在屏幕上,从而使飞行员有更好的沉浸感和临场感,使飞行员的模拟训练更加贴近实际,提高飞行员的飞行水平。
Description
技术领域
本发明涉及一种基于kinect飞行模拟器动态视点系统,是关于飞行模拟器的动态视点装置,属于虚拟现实领域,特别涉及一种直升机飞行模拟器视景仿真方面的动态视点装置。
背景技术
随着国家逐步放开低空领域的管制,国内民用飞行器在近几年获得了快速的发展,使得这方面急需专业的飞行人员。在以前,飞行员培训主要采用的是实飞训练的方式,这种方式存在着危险系数高以及实际飞行环境复杂等诸多问题,给新手飞行员的飞行技能和心理素质都带来了很大的挑战。而最近几年,随着虚拟现实的飞速发展,使用飞行模拟器训练则成为一种新型的飞行员培养方式,它既可以模拟传统的高空飞行,又可以有效地保障飞行员的人身安全,降低培养费用。此外,飞行模拟器还可以有效地降低培养门槛,缩短培养周期,为飞行产业提供充足的飞行人员。
目前飞行模拟器在西方已经形成了完整的产业体系。但由于我国起步较晚,导致国内飞行模拟器的研制水平与同期的国外发达国家相比有很大的差距,且关键技术受发达国家垄断,尤其是飞行模拟器的视觉方面。在现实场景中,视线范围呈现的景象会随着头部姿态的变化而发生改变。然而目前国内模拟器的视景是静态的,当飞行员头部姿态变化时,尚不能很好地将实际视线范围内的内容动态显示到屏幕显示器上,也就无法满足实际飞行中飞行员的视觉感受,达不到传统飞行模式的训练效果。
鉴于上诉问题,本发明提出了基于kinect传感器的飞行模拟器动态视点系统。在该系统中,当飞行员的眼睛相对屏幕发生位置变化时,投影矩阵也发生相应改变,然后通过投影矩阵的变化来改变屏幕上的图像。通过这种系统能够将实际视线范围内的内容呈现在屏幕上,从而给飞行员带来很好的沉浸感和临场感,使飞行模拟器达到非常理想的训练效果。
发明内容
本发明的目的是提供一种基于kinect传感器的飞行模拟器动态视点系统,其通过飞行模拟器动态视点系统,使得当飞行员的眼睛相对屏幕发生位置改变时,能够实时更新投影矩阵,然后飞行模拟器通过投影矩阵的变化而变化屏幕图像。当飞行员透过窗口观察环境时,应用这种系统能够将实际视线范围内的内容呈现在屏幕上,从而使飞行员有更好的沉浸感和临场感,使飞行员的模拟训练更加贴近实际,提高飞行员的飞行水平。
本发明的技术方案是这样实现的:一种基于kinect传感器的飞行模拟器动态视点系统,由上侧电视屏幕、前侧电视屏幕、右侧电视屏幕、仪表板、kinect传感器、左侧电视屏幕、固定板、3D图形输出线束、网络通信线束、驾驶舱组成,其特征在于:驾驶舱是参照某武装直升机舱体形状、尺寸进行设计的,模拟驾驶舱内驾驶杆、总距杆、脚踏板及座椅等机构的安装位置均对应真实直升机驾驶舱相对应的位置。电视屏幕与kinect的安装位置:上侧电视屏幕布置在驾驶舱的顶部,前侧电视屏幕布置在驾驶舱的前端,左侧电视屏幕布置在驾驶舱的左侧,右侧电视屏幕布置在驾驶舱的右侧,仪表板位于前侧电视屏幕的下方,仪表板与前侧电视屏幕之间布置kinect传感器,kinect传感器与固定板相连,kinect传感器数据线与电脑主机相连,仪表板的电脑主机与分机通过网络通信线束联机,各分机分别通过3D图形输出线束与上侧电视屏幕、前侧电视屏幕、右侧电视屏幕和左侧电视屏幕相连。
具体的运算方法如下:
首先采用视点定位技术是对飞行员的眼睛进行定位,其大概过程是先提取出飞行员脸部的区域,再通过眼睛的四个特征点来定位人眼;
应用Snake模型提取人脸边界;
Snake模型:
E
internal 表示轮廓的内在能量,E image 代表图像能量,E constraint 代表约束力能量。脸部的位置对应着该算法的局部最小区域。应用快速贪婪算法得出Snake算法的最小局部区域。最终定位出人脸区域;
脸部提取出来后,利用人体的脸部特征来粗略的定位出人眼区域。在人眼区域筛选出四个显著的眼角特征点;
在进行眼角特征点探测时,首先对眼部图像进行二值化处理,得到二值化图像。通过不同的阈值分割二值化眼部图像可以得到大量的边缘图像。这些图像中包含着四个眼角点,通过表格法得到大量可能作为C 0 、C 1 、C 2 、C 3 的点,然后对这些点进行筛选,选取最佳眼角特征点;
筛选C 0 ,C 1 :
先通过人体脸部的特征来获取符合C 0 和C 1 的点集;
利用代价函数:
当cost的值最小时,对应的C 0 ,C 1 就是最佳匹配点。K 1 ,K 2 分别是两个子项的权重系数,为dy的最大值,|D|为两区域的灰度值差异性,|D| max 是|D|的最大值;
同理,在筛选C 2 ,C 3 时,根据C 2 与C 0 ,C 3 和C 1 的位置关系选取点集,然后再通过代价函数筛选出最佳的C 2 ,C 3 点;
通过探测到的四个点的位置,得出眼睛的位置。通过对应的三维点云图得出眼睛的三维坐标,也就是视点的坐标;
然后采用动态视点技术,左上角点、左下角点、右下角点、视点在三维空间中坐标是、、、;
可得屏幕的次法向量为:
切向量为:
屏幕的位置为:
可得屏幕的法向量为:
然后对法向量,切向量,次法向量进行向量归一化处理,分别得到:
根据屏幕位置坐标和视点坐标,可得视点相对屏幕的位置为:
在透视投影中,有远近裁剪面,设远、近裁剪面到视点的距离为,然后通过视点相对屏幕的位置计算出视点相对于屏幕的调整比例。调整比例为:
已知法向量、切向量、法向量各自的归一化向量,然后通过与视点相对屏幕
的位置结合计算出视点所看到的视景边界值;
将所计算的带入投影矩阵可得:
根据公式可得当飞行员相对屏幕的视点发生变化时,投影矩阵将发生变化,从而带动屏幕图像的改变。从而达到更好的模拟效果;
同理,可得左、右、上屏幕的动态视点技术。
所述的kinect传感器向上倾斜的角度为15°-45°,距离头部垂直距离为15-25cm,水平距离在kinect的测量范围内,kinect传感器5检测人体头部上下转动的角度为0°-45°,左右旋转度数为0°-180°。
本发明的积极效果是通过基于kinect传感器的飞行模拟器动态视点系统,使得当飞行员的眼睛相对屏幕发生位置改变时,能够实时更新投影矩阵,然后飞行模拟器通过投影矩阵的变化而变化屏幕图像。当飞行员透过窗口观察环境时,应用这种系统能够将实际视线范围内的内容呈现在屏幕上,从而使飞行员有更好的沉浸感和临场感,使飞行员的模拟训练更加贴近实际,提高飞行员的飞行水平。
附图说明
图1为屏幕与kinect传感器的安装位置。
图2 传感器的固定方式。
图3为人体眼角的四个显著特征点。
图4视点相对前侧屏幕示意图。
图5整体过程图。
具体实施方式
下面结合实例对本发明做进一步的详细说明:如图1-5所示,一种基于kinect传感器的飞行模拟器动态视点系统,由上侧电视屏幕1、前侧电视屏幕2、右侧电视屏幕3、仪表板4、kinect传感器5、左侧电视屏幕6、固定板7、3D图形输出线束、网络通信线束、驾驶舱组成,其特征在于:驾驶舱是参照某武装直升机舱体形状、尺寸进行设计的,模拟驾驶舱内驾驶杆、总距杆、脚踏板及座椅等机构的安装位置均对应真实直升机驾驶舱相对应的位置。电视屏幕与kinect的安装位置:上侧电视屏幕1布置在驾驶舱的顶部,前侧电视屏幕2布置在驾驶舱的前端,左侧电视屏幕6布置在驾驶舱的左侧,右侧电视屏幕3布置在驾驶舱的右侧,仪表板4位于前侧电视屏幕2的下方,仪表板4与前侧电视屏幕2之间布置kinect传感器5,kinect传感器5与固定板7相连,kinect传感器5数据线与电脑主机相连,仪表板4的电脑主机与分机通过网络通信线束联机,各分机分别通过3D图形输出线束与上侧电视屏幕1、前侧电视屏幕2、右侧电视屏幕3和左侧电视屏幕6相连。
kinect传感器5向上倾斜的角度为15°-45°,距离头部垂直距离为15-25cm,水平距离在kinect的测量范围内,kinect传感器5检测人体头部上下转动的角度为0°-45°,左右旋转度数为0°-180°。
具体的运算方法如下:
首先采用视点定位技术是对飞行员的眼睛进行定位,其大概过程是先提取出飞行员脸部的区域,再通过眼睛的四个特征点来定位人眼。
应用Snake模型提取人脸边界。
Snake模型:
E
internal 表示轮廓的内在能量,E image 代表图像能量,E constraint 代表约束力能量。脸部的位置对应着该算法的局部最小区域。应用快速贪婪算法得出Snake算法的最小局部区域。最终定位出人脸区域。
脸部提取出来后,利用人体的脸部特征来粗略的定位出人眼区域。在人眼区域筛选出四个显著的眼角特征点。四个眼角特征点如图2所示。
在进行眼角特征点探测时,首先对眼部图像进行二值化处理,得到二值化图像。通过不同的阈值分割二值化眼部图像可以得到大量的边缘图像。这些图像中包含着四个眼角点,通过表格法得到大量可能作为C 0 、C 1 、C 2 、C 3 的点,然后对这些点进行筛选,选取最佳眼角特征点。
筛选C 0 ,C 1 :
先通过人体脸部的特征来获取符合C 0 和C 1 的点集。
利用代价函数:
当cost的值最小时,对应的C 0 ,C 1 就是最佳匹配点。K 1 ,K 2 分别是两个子项的权重系数,为dy的最大值,|D|为两区域的灰度值差异性,|D| max 是|D|的最大值。
同理,在筛选C 2 ,C 3 时,根据C 2 与C 0 ,C 3 和C 1 的位置关系选取点集,然后再通过代价函数筛选出最佳的C 2 ,C 3 点。
通过探测到的四个点的位置,得出眼睛的位置。通过对应的三维点云图得出眼睛的三维坐标,也就是视点的坐标。
然后采用动态视点技术,左上角点、左下角点、右下角点、视点在三维空间中坐标是、、、。
可得屏幕的次法向量为:
切向量为:
屏幕的位置为:
可得屏幕的法向量为:
然后对法向量,切向量,次法向量进行向量归一化处理,分别得到:
根据屏幕位置坐标和视点坐标,可得视点相对屏幕的位置为:
在透视投影中,有远近裁剪面,设远、近裁剪面到视点的距离为,然后通过视点相对屏幕的位置计算出视点相对于屏幕的调整比例。调整比例为:
已知法向量、切向量、法向量各自的归一化向量,然后通过与视点相对屏幕
的位置结合计算出视点所看到的视景边界值。
将所计算的带入投影矩阵可得:
根据公式可得当飞行员相对屏幕的视点发生变化时,投影矩阵将发生变化,从而带动屏幕图像的改变。从而达到更好的模拟效果。
同理,可得左、右、上屏幕的动态视点技术。
图1所示的是四台液晶显示屏幕安装位置,触摸屏仪表盘和的安装位置,四台屏幕的安装在驾驶舱中,左右电视分别安装在驾驶舱的两侧。上侧的电视放在顶侧,水平放置,并于左右两侧电视紧密接触。前侧的显示屏放在前侧,且与上侧的电视成1350夹角并接触。触摸屏仪表盘放在前侧电视的固定板上,与前侧电视之间有一定的距离。电视与相对应的电脑通过3D图形输出线束相连,用来控制图像的输出。主机电脑与仪表盘相连接,主机电脑与从机电脑通过网络通信线束相连接。
传感器的安装位置。传感器安装在触摸屏仪表盘和前侧屏幕之间,向上倾斜的角度在150-450之间,与头部的垂直距离在15-25cm之间,水平距离在的测量范围内。传感器能检测到的人体的旋转角度上下为00-450、左右旋转度数为00-1800,完全满足飞行员在驾驶操作时所需的旋转角度。传感器的数据线与电脑(主机)相连。
kinect的固定方式:kinect传感器5与固定板7相连,kinect传感器的后下棱接触固定板。在的底部前侧方有螺丝孔用来和连接杆相连,然后通过连接杆底座把kinect固定在固定板7上。连接杆8可伸缩,伸缩连接杆能够调节kinect传感器面向人体的角度。连接板的底座是50mm×50mm正方形,底座厚度为5mm,通过四周的四个螺纹孔使之固定在固定板上,仪表盘上边缘到固定板上边缘的距离为200mm,kinect的传感器的宽度为55mm,仪表盘上边缘与固定板上边缘的空间完全能满足kinect的安放。连接杆的长度变化的范围是70mm-170mm,能够调节kinect传感器面向人体的角度,调节的角度能够覆盖不同身高的人群。
实施例
飞行员坐在飞行模拟器的驾驶舱内,通过kinect传感器获取飞行员的脸部图像,kinect传感器将飞行员的脸部的数据传输到主机电脑上,主机电脑通过视点定位技术计算出飞行员眼睛相对电视屏幕三维坐标,主机电脑将所算出的视点坐标通过网络通信线束传输到四台从机电脑上,最终4台电脑通过动态视点技术来更新投影矩阵,通过更新的投影矩阵来改变所对应的屏幕图像,最终通过液晶电视显示改变后的屏幕图像。
Claims (2)
1.一种基于kinect传感器的飞行模拟器动态视点系统,由上侧电视屏幕、前侧电视屏幕、右侧电视屏幕、仪表板、kinect传感器、左侧电视屏幕、固定板、3D图形输出线束、网络通信线束、驾驶舱组成,其特征在于:驾驶舱是参照某武装直升机舱体形状、尺寸进行设计的,模拟驾驶舱内驾驶杆、总距杆、脚踏板及座椅等机构的安装位置均对应真实直升机驾驶舱相对应的位置,电视屏幕与kinect的安装位置:上侧电视屏幕布置在驾驶舱的顶部,前侧电视屏幕布置在驾驶舱的前端,左侧电视屏幕布置在驾驶舱的左侧,右侧电视屏幕布置在驾驶舱的右侧,仪表板位于前侧电视屏幕的下方,仪表板与前侧电视屏幕之间布置kinect传感器,kinect传感器与固定板相连,kinect传感器数据线与电脑主机相连,仪表板的电脑主机与分机通过网络通信线束联机,各分机分别通过3D图形输出线束与上侧电视屏幕、前侧电视屏幕、右侧电视屏幕和左侧电视屏幕相连;
具体的运算方法如下:
首先采用视点定位技术是对飞行员的眼睛进行定位,其大概过程是先提取出飞行员脸部的区域,再通过眼睛的四个特征点来定位人眼;
应用Snake模型提取人脸边界;
Snake模型:
E
internal 表示轮廓的内在能量,E image 代表图像能量,E constraint 代表约束力能量,脸部的位置对应着该算法的局部最小区域,应用快速贪婪算法得出Snake算法的最小局部区域,最终定位出人脸区域;
脸部提取出来后,利用人体的脸部特征来粗略的定位出人眼区域,在人眼区域筛选出四个显著的眼角特征点;
在进行眼角特征点探测时,首先对眼部图像进行二值化处理,得到二值化图像。通过不同的阈值分割二值化眼部图像可以得到大量的边缘图像,这些图像中包含着四个眼角点,通过表格法得到大量可能作为C 0 、C 1 、C 2 、C 3 的点,然后对这些点进行筛选,选取最佳眼角特征点;
筛选C 0 ,C 1 :
先通过人体脸部的特征来获取符合C 0 和C 1 的点集;
利用代价函数:
当cost的值最小时,对应的C 0 ,C 1 就是最佳匹配点。K 1 ,K 2 分别是两个子项的权重系数,为dy的最大值,|D|为两区域的灰度值差异性,|D| max 是|D|的最大值;
同理,在筛选C 2 ,C 3 时,根据C 2 与C 0 ,C 3 和C 1 的位置关系选取点集,然后再通过代价函数筛选出最佳的C 2 ,C 3 点;
通过探测到的四个点的位置,得出眼睛的位置,通过对应的三维点云图得出眼睛的三维坐标,也就是视点的坐标;
然后采用动态视点技术,左上角点、左下角点、右下角点、视点在三维空间中坐标是、、、;
可得屏幕的次法向量为:
切向量为:
屏幕的位置为:
可得屏幕的法向量为:
然后对法向量,切向量,次法向量进行向量归一化处理,分别得到:
根据屏幕位置坐标和视点坐标,可得视点相对屏幕的位置为:
在透视投影中,有远近裁剪面,设远、近裁剪面到视点的距离为,然后通过视点相对屏幕的位置计算出视点相对于屏幕的调整比例,调整比例为:
已知法向量、切向量、法向量各自的归一化向量,然后通过与视点相对屏幕
的位置结合计算出视点所看到的视景边界值;
将所计算的带入投影矩阵可得:
根据公式可得当飞行员相对屏幕的视点发生变化时,投影矩阵将发生变化,从而带动屏幕图像的改变,从而达到更好的模拟效果;
同理,可得左、右、上屏幕的动态视点技术。
2.根据权利要求1种所述的一种基于kinect传感器的飞行模拟器动态视点系统,其特征在于所述的kinect传感器向上倾斜的角度为15°-45°,距离头部垂直距离为15-25cm,水平距离在kinect的测量范围内,kinect传感器5检测人体头部上下转动的角度为0°-45°,左右旋转度数为0°-180°。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710086712.3A CN106778710A (zh) | 2017-02-17 | 2017-02-17 | 一种基于kinect传感器的飞行模拟器动态视点系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710086712.3A CN106778710A (zh) | 2017-02-17 | 2017-02-17 | 一种基于kinect传感器的飞行模拟器动态视点系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778710A true CN106778710A (zh) | 2017-05-31 |
Family
ID=58958572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710086712.3A Pending CN106778710A (zh) | 2017-02-17 | 2017-02-17 | 一种基于kinect传感器的飞行模拟器动态视点系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778710A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520672A (zh) * | 2018-03-01 | 2018-09-11 | 吉林大学 | 一种具有多屏幕立体成像的驾驶模拟仿真系统 |
CN109948469A (zh) * | 2019-03-01 | 2019-06-28 | 吉林大学 | 基于深度学习的巡检机器人仪表自动检测识别方法 |
CN115457220A (zh) * | 2022-11-10 | 2022-12-09 | 南京宇天智云仿真技术有限公司 | 基于动态视点的模拟器多屏幕视景模拟方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸系统及方法 |
CN105320271A (zh) * | 2014-07-10 | 2016-02-10 | 精工爱普生株式会社 | 利用直接几何建模的头戴式显示器校准 |
CN105869160A (zh) * | 2016-03-28 | 2016-08-17 | 武汉理工大学 | 利用Kinect实现三维建模和全息显示的方法及系统 |
KR20160099335A (ko) * | 2015-02-12 | 2016-08-22 | 재단법인대구경북과학기술원 | 3d 골격데이터를 스트리밍하여 공격적인 행동을 감지하는 장치 및 그 방법 |
CN106066696A (zh) * | 2016-06-08 | 2016-11-02 | 华南理工大学 | 自然光下基于投影映射校正和注视点补偿的视线跟踪方法 |
-
2017
- 2017-02-17 CN CN201710086712.3A patent/CN106778710A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸系统及方法 |
CN105320271A (zh) * | 2014-07-10 | 2016-02-10 | 精工爱普生株式会社 | 利用直接几何建模的头戴式显示器校准 |
KR20160099335A (ko) * | 2015-02-12 | 2016-08-22 | 재단법인대구경북과학기술원 | 3d 골격데이터를 스트리밍하여 공격적인 행동을 감지하는 장치 및 그 방법 |
CN105869160A (zh) * | 2016-03-28 | 2016-08-17 | 武汉理工大学 | 利用Kinect实现三维建模和全息显示的方法及系统 |
CN106066696A (zh) * | 2016-06-08 | 2016-11-02 | 华南理工大学 | 自然光下基于投影映射校正和注视点补偿的视线跟踪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520672A (zh) * | 2018-03-01 | 2018-09-11 | 吉林大学 | 一种具有多屏幕立体成像的驾驶模拟仿真系统 |
CN109948469A (zh) * | 2019-03-01 | 2019-06-28 | 吉林大学 | 基于深度学习的巡检机器人仪表自动检测识别方法 |
CN115457220A (zh) * | 2022-11-10 | 2022-12-09 | 南京宇天智云仿真技术有限公司 | 基于动态视点的模拟器多屏幕视景模拟方法 |
CN115457220B (zh) * | 2022-11-10 | 2023-04-07 | 南京宇天智云仿真技术有限公司 | 基于动态视点的模拟器多屏幕视景模拟方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108325190B (zh) | 一种滑雪冲浪虚拟现实模拟系统 | |
JP2021525431A (ja) | 画像処理方法及び装置、画像デバイス並びに記憶媒体 | |
CN106157731B (zh) | 一种具有混合现实功能的模拟飞行座舱系统及其处理方法 | |
CN107274747A (zh) | 一种飞机驾驶舱人机工效评估系统 | |
CN106710362A (zh) | 使用虚拟现实设备进行的飞行训练方法 | |
WO2016154359A1 (en) | Systems and methods for programmatically generating anamorphic images for presentation and 3d viewing in a physical gaming and entertainment suite | |
CN106778710A (zh) | 一种基于kinect传感器的飞行模拟器动态视点系统 | |
CN107884947A (zh) | 裸眼立体视觉混合现实作业模拟系统 | |
CN103886782B (zh) | 一种360度全向过载飞行仿真模拟器 | |
KR20120044461A (ko) | 융합 현실을 이용한 가상 훈련 장치 및 방법 | |
CN203001936U (zh) | 仿真体育运动平台 | |
CN106571084A (zh) | 一种基于增加现实的无人机模拟飞行系统 | |
CN110850977A (zh) | 一种基于6dof头戴式显示器的立体图像交互方法 | |
CN110211449A (zh) | 一种基于增强现实的飞行驾驶训练系统以及方法 | |
CN108038816A (zh) | 一种虚拟现实图像处理装置及方法 | |
KR20180034278A (ko) | 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램 | |
CN107467948A (zh) | 一种虚拟现实动感座椅系统 | |
US20180033328A1 (en) | Immersive vehicle simulator apparatus and method | |
GB2535729A (en) | Immersive vehicle simulator apparatus and method | |
CN107085988B (zh) | 一种基于人机工程学的汽车驾驶模拟器后视镜布置方法 | |
CN113941138A (zh) | 一种ar交互控制系统、装置及应用 | |
CN206557795U (zh) | 一种基于kinect传感器的飞行模拟器动态视点系统 | |
CN103456039B (zh) | 多视点多视角视场显示条件下的大场景虚拟天空建模方法 | |
CN110148314A (zh) | 一种基于led显示技术的飞行模拟系统 | |
CN105929955B (zh) | 一种虚拟现实的运动模拟方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240209 |