CN108983968A - 一种基于虚拟现实的图像大数据交互控制系统及方法 - Google Patents
一种基于虚拟现实的图像大数据交互控制系统及方法 Download PDFInfo
- Publication number
- CN108983968A CN108983968A CN201810653285.7A CN201810653285A CN108983968A CN 108983968 A CN108983968 A CN 108983968A CN 201810653285 A CN201810653285 A CN 201810653285A CN 108983968 A CN108983968 A CN 108983968A
- Authority
- CN
- China
- Prior art keywords
- color image
- image information
- virtual
- image
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明属于虚拟现实技术领域,公开了一种基于虚拟现实的图像大数据交互控制系统及方法,包括:图像获取模块、图像合成模块、中央处理模块、虹膜识别模块、场景渲染模块、数据存储模块、显示模块。本发明通过场景渲染模块结合了位置关系确定本次渲染的待渲染物体,进而渲染上述待渲染物体,对于虚拟场景中某些位置的物体不予渲染,因此相对于现有技术可以降低渲染负载;同时通过显示模块可自适应地根据使用者的双眼视场角来显示虚拟现实界面,提高用户体验,且用户不需要借助外设手柄就能与虚拟现实设备进行人机交互,从而增强虚拟现实沉浸式体验。
Description
技术领域
本发明属于虚拟现实技术领域,尤其涉及一种基于虚拟现实的图像大数据交互控制系统及方法。
背景技术
目前,业内常用的现有技术是这样的:
虚拟现实技术是仿真技术的一个重要方向,是仿真技术与计算机图形学人机接口技术多媒体技术传感技术网络技术等多种技术的集合,是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术(VR)主要包括模拟环境、感知、自然技能和传感设备等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的VR应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入作出实时响应,并分别反馈到用户的五官。传感设备是指三维交互设备。然而,现有虚拟现实设备多为双显示屏,双显示屏使得需要显示的数据增加,进而导致渲染负载增加;同时现有技术当用户通过用户界面频繁切换虚拟现实显示区域的显示内容时,需要频繁晃动头部,且需要用户事先手动开启后,才能在眼镜中看到虚拟现实内容,操作复杂、不够智能和便捷。
综上所述,现有技术存在的问题是:
现有虚拟现实设备多为双显示屏,双显示屏使得需要显示的数据增加,进而导致渲染负载增加;
同时现有技术当用户通过用户界面频繁切换虚拟现实显示区域的显示内容时,需要频繁晃动头部,且需要用户事先手动开启后,才能在眼镜中看到虚拟现实内容,操作复杂、不够智能和便捷。
在对图像库中彩色图像信息特征进行处理优化的研究中,为提高图像处理的效率与质量,在进行信息特征处理优化时,需要对彩色图像信息特征处理向量的组成空间进行准确分析,建立彩色图像数据特征处理模型,但是传统的模糊控制决策算法主要通过对彩色图像信息存储结构进行遍历完成特征处理优化,忽略了彩色图像信息特征处理向量的组成空间,不能建立精确的数据特征处理模型,存在处理不准确、与实际信息特征差异大的问题。
发明内容
针对现有技术存在的问题,本发明提供了一种基于虚拟现实的图像大数据交互控制系统及方法。
本发明是这样实现的,一种基于虚拟现实的图像大数据交互控制方法,所述基于虚拟现实的图像大数据交互控制方法包括:
采集环境图像;利用基于背景的相减法和三帧差分法相结合的方法进行周围环境信息的采集;得到环境图像M(x,y),M(x,y)=D1(x,y)×D2(x,y);再进行环境图像特征识别后,对周围环境视频图像信息进行监测;其中,二值差分图像D1(x,y),背景相减后的二值差分图像D2(x,y);对输入视频序列图像连续3帧RGB分别记为第n-1,n,n+1帧,图像首先进行色彩空间转换,由彩色图像转为灰度图像,
Gray=0.3×R+0.59×G+0.11×B
其中,Gray表示转换后的序列图像灰度值;R,G,B分别表示原始序列图像中对应像素点的红,绿,蓝3个分量的值;
对得到的灰度序列图像,计算序列图像中前后两帧的时间差分值为
Δn=|Fn|(x,y)-Fn-1(x,y)|n=2,3,…,N;F表示时间长度为N帧的视频序列图像,Fn(x,y)表示视频序列中的第n帧图像;其中,n=1,2,…,N;
经过3帧差分计算,得到周围环境在第n-1和第n帧中的变化图像g1(x,y)及第n和第n+1帧中的变化图像g2(x,y),并得到二值差分图像D1(x,y),
令Bk(x,y)表示当前的背景,若D1(x,y)满足采集到环境图像的报警条件,则继续进行背景差分的操作,得到背景相减后的二值差分图像D2(x,y);
其中,T1是减背景操作的灰度阈值;
对D1(x,y)和D2(x,y)进行相与运算,得到环境图像M(x,y),
M(x,y)=D1(x,y)×D2(x,y);
将环境图像与虚拟场景进行叠加生成合成图像;进行叠加生成合成图像中,首先采用基于大数据分析的方法对彩色图像信息进行建模,针对模型中的彩色图像信息,利用多叉树级联的规划方法进行特征提取;假设彩色图像信息的向量模型为V={V1,…,Vp},包含x,y,z3个方向的健彩色图像数据的向量,对彩色图像数据监测特征的提取也需要从x,y,z3个方向进行提取;假设彩色图像数据存储的级联层深度为Nk(k=0,1,...,L),则k层图像信息目标位置定位状态估计向量利用式
描述,
A、B为待检索的彩色图像,Ai、Bi分别为其特征,距离度量就是求特征空间中点与点之间的距离;
α=(Nk1,Nk2,…,Nkk)≠0
其中,k为层数,且满足Nk1<Nk2<Nkk;
彩色图像信息特征分为c类,在不同的时间段对数据分类特征进行更新,使tn+1时刻和tn时刻相差一个更新周期ψV,依据彩色图像信息特征提取机制,进行彩色图像信息流相邻特征模式匹配,依据匹配结果建立彩色图像信息特征提取方程,从x,y,z3个方向对彩色图像信息特征进行提取
其中,通过阈值设置彩色图像系统终端数据控制输入矢量;
将彩色图像信息特征利用数据集m进行表示,令Aj(m)作为数据特征聚类中心,其中j=1,2,...,k,设置r个不同的特征统计函数h1,…,hr,每一个函数满足hi:{0,1}*→[1,m],结合监测数据流的非线性特征,处理彩色图像信息出现的概率f和分类系数dγ0之间的匹配程度,将匹配度相同的彩色图像信息特征划分一类,完成对数据特征的分类;
接着进行彩色图像信息特征概念格构造模型构建:在准确提取彩色图像信息相关特征并分类后,按照不同特征类别间距离k的大小对彩色图像数据进行重新排列,建立彩色图像信息特征概念格构造模型;
s={p1,p2,...,pr+1}为排列后的智彩色图像信息特征,r为分类后彩色图像信息类别的数量,假设e={e1,e2,...,er}是基于相似k距离的彩色图像信息特征序列轨迹,则利用式
计算彩色图像信息检索样本与第j类中其它所有样本的平均距离;其中,xp (j)表示第j类中的第p个样本,利用式的平均距离确定一个彩色图像信息特征是否存在异构性,如果有,则将异构信息特征转化为常规的彩色图像信息特征,并结合式
利用式
再进行建立彩色图像信息特征信息存储结构模型;
基于大数据分析方法,对彩色图像数据特征信息存储结构模型进行优化,降低模型的复杂度,优化模型利用式
表示,其中,ζl和ζ* l表示彩色图像信息的距离特征,k表示彩色图像信息样本的个数;以彩色图像信息特征信息存储结构模型为依据,建立面向彩色图像信息特征检索的概念格构造模型;
通过眼球检测摄像头检测使用者眼睛的状态,获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
对虚拟场景中各个物体进行渲染后进行存储;同时通过显示模块自适应地根据使用者的双眼视场角来显示虚拟现实界面。
进一步,进行叠加生成合成图像中,进一步包括:
在面向彩色图像信息特征检索的概念格构造模型建立的基础上,引入概念格差异融合的方法,对彩色图像信息特征检索优化。
进一步,进行叠加生成合成图像中,进一步包括:
将建立的面向彩色图像信息特征检索的概念格构造模型与概念格差异融合方法相结合,得到多元化彩色图像信息特征的树形结构,资源树形结构的边序列为{e1,e2,...,er},其中ei=(oi,pi+1),这里,1≤i≤r,oi∈{p1,p2,...,pi},利用式dist(ei)=dist(oi,pi+1)=dist({p1,p2,...,pi},pi+1)获取多元化彩色图像信息特征传输函数;
其中,{dist(e1),dist(e2),...,dist(er)}为SKDNSS_trace(S)的彩色图像信息特征共享信息链,采用辅助矩阵的方法,求解SKDNSS_trace(S)特征值λ,一并求解与特征值λ对应的特征向量U,将这两个参数通过特征传输函数传输至PC终端进行分析,分析彩色图像数据检索向量组成空间,并基于大数据模型,利用式建立彩色图像信息特征检索模型;
利用式计算彩色图像信息特征的相似度系数;利用彩色图像数据特征的相似度系数对彩色图像信息特征检索模型中一些冗余信息进行过滤清除过滤,进行对彩色图像信息特征处理优化。
进一步,场景渲染方法包括:
首先,获取用户双眼视线在虚拟场景中的汇聚点位置;
然后,根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体;
最后,渲染所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
从所述各个物体中选出物体位置与所述汇聚点位置间的距离小于预设距离值的物体作为所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
根据所述各个物体的物体位置与所述汇聚点位置间的距离所位于的预设距离区间,确定所述各个物体本次渲染的渲染等级;
根据所述各个物体本次渲染的渲染等级和上一次渲染的渲染等级,从所述虚拟场景中的各个物体中确定本次渲染对应的待渲染物体。
进一步,虚拟现实界面显示方法包括:
(1)检测预设区域是否有物体;
如果没有,则停止显示虚拟现实界面;如果有,则测量物体与虚拟现实眼镜之间的距离;
(2)若距离小于预设距离阈值时,则在虚拟现实眼镜的显示区域显示虚拟现实界面;若距离大于预设距离阈值时,则停止显示虚拟现实界面;
(3)确定当前使用者的目标水平双眼视场角以及目标垂直双眼视场角;
(4)在虚拟显示空间中使用目标水平双眼视场角以及目标垂直双眼视场角构造三维空间,获取用户在预设空间内产生的待识别的运动参数;识别待识别的运动参数对应的空间交互手势;
(5)确定空间交互手势对应的控制指令;在三维空间中显示呈曲面的控制指令对应的虚拟现实界面;
(6)在虚拟现实界面中显示一虚拟键盘,且该键盘至少具有一个虚拟按键,同时该虚拟按键与实体键盘的实体按键一一对应;当检测到实体键盘的任一实体按键被触发,则在虚拟键盘中标示与任一实体按键对应的虚拟按键,并在虚拟现实界面中显示该虚拟按键对应的字符。
本发明的另一目的在于提供一种实现所述基于虚拟现实的图像大数据交互控制方法的计算机程序。
本发明的另一目的在于提供一种实现所述基于虚拟现实的图像大数据交互控制方法的信息数据处理终端。
本发明的另一目的在于提供一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行所述的基于虚拟现实的图像大数据交互控制法。
本发明的另一目的在于提供一种实现所述基于虚拟现实的图像大数据交互控制方法的基于虚拟现实的图像大数据交互控制系统,包括:
图像获取模块,与中央处理模块连接,用于采集环境图像;
图像合成模块,与中央处理模块连接,用于将环境图像与虚拟场景进行叠加生成合成图像;
中央处理模块,与图像获取模块、图像合成模块、虹膜识别模块、场景渲染模块、数据存储模块、显示模块连接,用于控制各个模块正常工作;
虹膜识别模块,与中央处理模块连接,用于通过眼球检测摄像头检测使用者眼睛的状态,以获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
场景渲染模块,与中央处理模块连接,用于对虚拟场景中各个物体进行渲染;
数据存储模块,与中央处理模块连接,用于将虚拟场景图像数据进行存储;
显示模块,与中央处理模块连接,用于自适应地根据使用者的双眼视场角来显示虚拟现实界面。
本发明的另一目的在于提供一种搭载有所述基于虚拟现实的图像大数据交互控制系统的基于虚拟现实的图像大数据交互控制设备。
本发明的优点及积极效果为:
本发明通过场景渲染模块确定用户双眼视线在虚拟场景中的汇聚点位置,根据虚拟场景中各个物体的物体位置与汇聚点位置间的位置关系确定本次渲染对应的待渲染物体,进而渲染所确定出的待渲染物体。本实施例中,结合了上述位置关系确定本次渲染的待渲染物体,进而渲染上述待渲染物体,对于虚拟场景中某些位置的物体不予渲染,因此相对于现有技术可以降低渲染负载;同时通过显示模块可使用户不需要晃动脑袋就能以最佳视场角观看该虚拟现实界面上的内容,从而可自适应地根据使用者的双眼视场角来显示虚拟现实界面,提高用户体验,且用户不需要借助外设手柄就能与虚拟现实设备进行人机交互,从而增强虚拟现实沉浸式体验,同时用户佩戴在好虚拟现实眼镜时,可控制虚拟现实眼镜的自动启动,节省开机操作时间,使虚拟现实眼镜使用更加智能和便捷。
本发明的视频监控模块在检测阶段用三帧差分法来检测施工场地图像时,并实时地更新背景模型。通过进行背景的运算,并将三帧差分法和背景相减法得到的差分图像作相与运算来获取较为精确的信息。实验证明,该算法能够快速有效地从背景中分离出较差的信息。
本发明对彩色图像信息监测特征进行提取与分类,将建立的概念格构造模型与概念格差异融合算法结合,并采用大数据模型和辅助矩阵方法,分析彩色图像信息处理向量组成空间,建立彩色图像信息特征处理模型,并利用相似度系数对模型进行优化,完成彩色图像信息特征处理的改进。仿真结果表明,采用改进的算法进行彩色图像信息特征处理,提高了彩色图像信息特征处理性能,同时降低了图像信息特征处理的差错率。
附图说明
图1是本发明实施例提供的基于虚拟现实的图像大数据交互控制系统结构框图。
图中:1、图像获取模块;2、图像合成模块;3、中央处理模块;4、虹膜识别模块;5、场景渲染模块;6、数据存储模块;7、显示模块。
图2是本发明实施例提供的场景渲染方法流程图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹例举以下实施例,并配合附图详细说明如下。
如图1所示,本发明提供的基于虚拟现实的图像大数据交互控制系统,包括:图像获取模块1、图像合成模块2、中央处理模块3、虹膜识别模块4、场景渲染模块5、数据存储模块6、显示模块7。
图像获取模块1,与中央处理模块3连接,用于采集环境图像;
图像合成模块2,与中央处理模块3连接,用于将环境图像与虚拟场景进行叠加生成合成图像;
中央处理模块3,与图像获取模块1、图像合成模块2、虹膜识别模块4、场景渲染模块5、数据存储模块6、显示模块7连接,用于控制各个模块正常工作;
虹膜识别模块4,与中央处理模块3连接,用于通过眼球检测摄像头检测使用者眼睛的状态,以获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
场景渲染模块5,与中央处理模块3连接,用于对虚拟场景中各个物体进行渲染;
数据存储模块6,与中央处理模块3连接,用于将虚拟场景图像数据进行存储;
显示模块7,与中央处理模块3连接,用于自适应地根据使用者的双眼视场角来显示虚拟现实界面。
本发明提供的场景渲染模块5渲染方法如下:
首先,获取用户双眼视线在虚拟场景中的汇聚点位置;
然后,根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体;
最后,渲染所述待渲染物体。
本发明提供的根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
从所述各个物体中选出物体位置与所述汇聚点位置间的距离小于预设距离值的物体作为所述待渲染物体。
本发明提供的根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
根据所述各个物体的物体位置与所述汇聚点位置间的距离所位于的预设距离区间,确定所述各个物体本次渲染的渲染等级;
根据所述各个物体本次渲染的渲染等级和上一次渲染的渲染等级,从所述虚拟场景中的各个物体中确定本次渲染对应的待渲染物体。
本发明提供的显示模块7显示方法如下:
(1)检测预设区域是否有物体;
如果没有,则停止显示虚拟现实界面;如果有,则测量物体与虚拟现实眼镜之间的距离;
(2)若距离小于预设距离阈值时,则在虚拟现实眼镜的显示区域显示虚拟现实界面;若距离大于预设距离阈值时,则停止显示虚拟现实界面;
(3)确定当前使用者的目标水平双眼视场角以及目标垂直双眼视场角;
(4)在虚拟显示空间中使用目标水平双眼视场角以及目标垂直双眼视场角构造三维空间,获取用户在预设空间内产生的待识别的运动参数;识别待识别的运动参数对应的空间交互手势;
(5)确定空间交互手势对应的控制指令;在三维空间中显示呈曲面的控制指令对应的虚拟现实界面;
(6)在虚拟现实界面中显示一虚拟键盘,且该键盘至少具有一个虚拟按键,同时该虚拟按键与实体键盘的实体按键一一对应;当检测到实体键盘的任一实体按键被触发,则在虚拟键盘中标示与任一实体按键对应的虚拟按键,并在虚拟现实界面中显示该虚拟按键对应的字符。
本发明使用时,通过图像获取模块1采集环境图像;通过图像合成模块2将环境图像与虚拟场景进行叠加生成合成图像;中央处理模块3调度虹膜识别模块4通过眼球检测摄像头检测使用者眼睛的状态,以获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;通过场景渲染模块5对虚拟场景中各个物体进行渲染;通过数据存储模块6将虚拟场景图像数据进行存储;最后,通过显示模块7自适应地根据使用者的双眼视场角来显示虚拟现实界面。
下面结合具体分析对本发明作进一步描述。
本发明实施例提供的基于虚拟现实的图像大数据交互控制方法,包括:
采集环境图像;利用基于背景的相减法和三帧差分法相结合的方法进行周围环境信息的采集;得到环境图像M(x,y),M(x,y)=D1(x,y)×D2(x,y);再进行环境图像特征识别后,对周围环境视频图像信息进行监测;其中,二值差分图像D1(x,y),背景相减后的二值差分图像D2(x,y);对输入视频序列图像连续3帧RGB分别记为第n-1,n,n+1帧,图像首先进行色彩空间转换,由彩色图像转为灰度图像,
Gray=0.3×R+0.59×G+0.11×B
其中,Gray表示转换后的序列图像灰度值;R,G,B分别表示原始序列图像中对应像素点的红,绿,蓝3个分量的值;
对得到的灰度序列图像,计算序列图像中前后两帧的时间差分值为
Δn=|Fn|(x,y)-Fn-1(x,y)|n=2,3,…,N;F表示时间长度为N帧的视频序列图像,Fn(x,y)表示视频序列中的第n帧图像;其中,n=1,2,…,N;
经过3帧差分计算,得到周围环境在第n-1和第n帧中的变化图像g1(x,y)及第n和第n+1帧中的变化图像g2(x,y),并得到二值差分图像D1(x,y),
令Bk(x,y)表示当前的背景,若D1(x,y)满足采集到环境图像的报警条件,则继续进行背景差分的操作,得到背景相减后的二值差分图像D2(x,y);
其中,T1是减背景操作的灰度阈值;
对D1(x,y)和D2(x,y)进行相与运算,得到环境图像M(x,y),
M(x,y)=D1(x,y)×D2(x,y);
将环境图像与虚拟场景进行叠加生成合成图像;进行叠加生成合成图像中,首先采用基于大数据分析的方法对彩色图像信息进行建模,针对模型中的彩色图像信息,利用多叉树级联的规划方法进行特征提取;假设彩色图像信息的向量模型为V={V1,…,Vp},包含x,y,z3个方向的健彩色图像数据的向量,对彩色图像数据监测特征的提取也需要从x,y,z3个方向进行提取;假设彩色图像数据存储的级联层深度为Nk(k=0,1,...,L),则k层图像信息目标位置定位状态估计向量利用式
描述,
A、B为待检索的彩色图像,Ai、Bi分别为其特征,距离度量就是求特征空间中点与点之间的距离;
α=(Nk1,Nk2,…,Nkk)≠0
其中,k为层数,且满足Nk1<Nk2<Nkk;
彩色图像信息特征分为c类,在不同的时间段对数据分类特征进行更新,使tn+1时刻和tn时刻相差一个更新周期ψV,依据彩色图像信息特征提取机制,进行彩色图像信息流相邻特征模式匹配,依据匹配结果建立彩色图像信息特征提取方程,从x,y,z3个方向对彩色图像信息特征进行提取
其中,通过阈值设置彩色图像系统终端数据控制输入矢量;
将彩色图像信息特征利用数据集m进行表示,令Aj(m)作为数据特征聚类中心,其中j=1,2,...,k,设置r个不同的特征统计函数h1,…,hr,每一个函数满足hi:{0,1}*→[1,m],结合监测数据流的非线性特征,处理彩色图像信息出现的概率f和分类系数dγ0之间的匹配程度,将匹配度相同的彩色图像信息特征划分一类,完成对数据特征的分类;
接着进行彩色图像信息特征概念格构造模型构建:在准确提取彩色图像信息相关特征并分类后,按照不同特征类别间距离k的大小对彩色图像数据进行重新排列,建立彩色图像信息特征概念格构造模型;
s={p1,p2,...,pr+1}为排列后的智彩色图像信息特征,r为分类后彩色图像信息类别的数量,假设e={e1,e2,...,er}是基于相似k距离的彩色图像信息特征序列轨迹,则利用式
计算彩色图像信息检索样本与第j类中其它所有样本的平均距离;其中,xp (j)表示第j类中的第p个样本,利用式的平均距离确定一个彩色图像信息特征是否存在异构性,如果有,则将异构信息特征转化为常规的彩色图像信息特征,并结合式
利用式
再进行建立彩色图像信息特征信息存储结构模型;
基于大数据分析方法,对彩色图像数据特征信息存储结构模型进行优化,降低模型的复杂度,优化模型利用式
表示,其中,ζl和ζ* l表示彩色图像信息的距离特征,k表示彩色图像信息样本的个数;以彩色图像信息特征信息存储结构模型为依据,建立面向彩色图像信息特征检索的概念格构造模型;
通过眼球检测摄像头检测使用者眼睛的状态,获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
对虚拟场景中各个物体进行渲染后进行存储;同时通过显示模块自适应地根据使用者的双眼视场角来显示虚拟现实界面。
进行叠加生成合成图像中,进一步包括:
在面向彩色图像信息特征检索的概念格构造模型建立的基础上,引入概念格差异融合的方法,对彩色图像信息特征检索优化。
进行叠加生成合成图像中,进一步包括:
将建立的面向彩色图像信息特征检索的概念格构造模型与概念格差异融合方法相结合,得到多元化彩色图像信息特征的树形结构,资源树形结构的边序列为{e1,e2,...,er},其中ei=(oi,pi+1),这里,1≤i≤r,oi∈{p1,p2,...,pi},利用式
dist(ei)=dist(oi,pi+1)=dist({p1,p2,...,pi},pi+1)获取多元化彩色图像信息特征传输函数;
其中,{dist(e1),dist(e2),...,dist(er)}为SKDNSS_trace(S)的彩色图像信息特征共享信息链,采用辅助矩阵的方法,求解SKDNSS_trace(S)特征值λ,一并求解与特征值λ对应的特征向量U,将这两个参数通过特征传输函数传输至PC终端进行分析,分析彩色图像数据检索向量组成空间,并基于大数据模型,利用式建立彩色图像信息特征检索模型;
利用式计算彩色图像信息特征的相似度系数;利用彩色图像数据特征的相似度系数对彩色图像信息特征检索模型中一些冗余信息进行过滤清除过滤,进行对彩色图像信息特征处理优化。
如图2,本发明实施例提供的场景渲染方法包括:
S101:首先,获取用户双眼视线在虚拟场景中的汇聚点位置;
S102:然后,根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体;
S103:最后,渲染所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
从所述各个物体中选出物体位置与所述汇聚点位置间的距离小于预设距离值的物体作为所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
根据所述各个物体的物体位置与所述汇聚点位置间的距离所位于的预设距离区间,确定所述各个物体本次渲染的渲染等级;
根据所述各个物体本次渲染的渲染等级和上一次渲染的渲染等级,从所述虚拟场景中的各个物体中确定本次渲染对应的待渲染物体。
虚拟现实界面显示方法包括:
(1)检测预设区域是否有物体;
如果没有,则停止显示虚拟现实界面;如果有,则测量物体与虚拟现实眼镜之间的距离;
(2)若距离小于预设距离阈值时,则在虚拟现实眼镜的显示区域显示虚拟现实界面;若距离大于预设距离阈值时,则停止显示虚拟现实界面;
(3)确定当前使用者的目标水平双眼视场角以及目标垂直双眼视场角;
(4)在虚拟显示空间中使用目标水平双眼视场角以及目标垂直双眼视场角构造三维空间,获取用户在预设空间内产生的待识别的运动参数;识别待识别的运动参数对应的空间交互手势;
(5)确定空间交互手势对应的控制指令;在三维空间中显示呈曲面的控制指令对应的虚拟现实界面;
(6)在虚拟现实界面中显示一虚拟键盘,且该键盘至少具有一个虚拟按键,同时该虚拟按键与实体键盘的实体按键一一对应;当检测到实体键盘的任一实体按键被触发,则在虚拟键盘中标示与任一实体按键对应的虚拟按键,并在虚拟现实界面中显示该虚拟按键对应的字符。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述仅是对本发明的较佳实施例而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所做的任何简单修改,等同变化与修饰,均属于本发明技术方案的范围内。
Claims (10)
1.一种基于虚拟现实的图像大数据交互控制方法,其特征在于,所述基于虚拟现实的图像大数据交互控制方法包括:
采集环境图像;利用基于背景的相减法和三帧差分法相结合的方法进行周围环境信息的采集;得到环境图像M(x,y),M(x,y)=D1(x,y)×D2(x,y);再进行环境图像特征识别后,对周围环境视频图像信息进行监测;其中,二值差分图像D1(x,y),背景相减后的二值差分图像D2(x,y);对输入视频序列图像连续3帧RGB分别记为第n-1,n,n+1帧,图像首先进行色彩空间转换,由彩色图像转为灰度图像,
Gray=0.3×R+0.59×G+0.11×B
其中,Gray表示转换后的序列图像灰度值;R,G,B分别表示原始序列图像中对应像素点的红,绿,蓝3个分量的值;
对得到的灰度序列图像,计算序列图像中前后两帧的时间差分值为
Δn=|Fn|(x,y)-Fn-1(x,y)|n=2,3,…,N;F表示时间长度为N帧的视频序列图像,Fn(x,y)表示视频序列中的第n帧图像;其中,n=1,2,…,N;
经过3帧差分计算,得到周围环境在第n-1和第n帧中的变化图像g1(x,y)及第n和第n+1帧中的变化图像g2(x,y),并得到二值差分图像D1(x,y),
令Bk(x,y)表示当前的背景,若D1(x,y)满足采集到环境图像的报警条件,则继续进行背景差分的操作,得到背景相减后的二值差分图像D2(x,y);
其中,T1是减背景操作的灰度阈值;
对D1(x,y)和D2(x,y)进行相与运算,得到环境图像M(x,y),
M(x,y)=D1(x,y)×D2(x,y);
将环境图像与虚拟场景进行叠加生成合成图像;进行叠加生成合成图像中,首先采用基于大数据分析的方法对彩色图像信息进行建模,针对模型中的彩色图像信息,利用多叉树级联的规划方法进行特征提取;假设彩色图像信息的向量模型为V={V1,…,Vp},包含x,y,z3个方向的健彩色图像数据的向量,对彩色图像数据监测特征的提取也需要从x,y,z3个方向进行提取;假设彩色图像数据存储的级联层深度为Nk(k=0,1,...,L),则k层图像信息目标位置定位状态估计向量利用式
描述,
A、B为待检索的彩色图像,Ai、Bi分别为其特征,距离度量就是求特征空间中点与点之间的距离;
α=(Nk1,Nk2,…,Nkk)≠0
其中,k为层数,且满足Nk1<Nk2<Nkk;
彩色图像信息特征分为c类,在不同的时间段对数据分类特征进行更新,使tn+1时刻和tn时刻相差一个更新周期ψV,依据彩色图像信息特征提取机制,进行彩色图像信息流相邻特征模式匹配,依据匹配结果建立彩色图像信息特征提取方程,从x,y,z3个方向对彩色图像信息特征进行提取
其中,通过阈值设置彩色图像系统终端数据控制输入矢量;
将彩色图像信息特征利用数据集m进行表示,令Aj(m)作为数据特征聚类中心,其中j=1,2,...,k,设置r个不同的特征统计函数h1,…,hr,每一个函数满足hi:{0,1}*→[1,m],结合监测数据流的非线性特征,处理彩色图像信息出现的概率f和分类系数dγ0之间的匹配程度,将匹配度相同的彩色图像信息特征划分一类,完成对数据特征的分类;
接着进行彩色图像信息特征概念格构造模型构建:在准确提取彩色图像信息相关特征并分类后,按照不同特征类别间距离k的大小对彩色图像数据进行重新排列,建立彩色图像信息特征概念格构造模型;
s={p1,p2,...,pr+1}为排列后的智彩色图像信息特征,r为分类后彩色图像信息类别的数量,假设e={e1,e2,...,er}是基于相似k距离的彩色图像信息特征序列轨迹,则利用式
计算彩色图像信息检索样本与第j类中其它所有样本的平均距离;其中,xp (j)表示第j类中的第p个样本,利用式的平均距离确定一个彩色图像信息特征是否存在异构性,如果有,则将异构信息特征转化为常规的彩色图像信息特征,并结合式
利用式
再进行建立彩色图像信息特征信息存储结构模型;
基于大数据分析方法,对彩色图像数据特征信息存储结构模型进行优化,降低模型的复杂度,优化模型利用式
表示,其中,ζl和ζ* l表示彩色图像信息的距离特征,k表示彩色图像信息样本的个数;以彩色图像信息特征信息存储结构模型为依据,建立面向彩色图像信息特征检索的概念格构造模型;
通过眼球检测摄像头检测使用者眼睛的状态,获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
对虚拟场景中各个物体进行渲染后进行存储;同时通过显示模块自适应地根据使用者的双眼视场角来显示虚拟现实界面。
2.如权利要求1所述的基于虚拟现实的图像大数据交互控制方法,其特征在于,进行叠加生成合成图像中,进一步包括:
在面向彩色图像信息特征检索的概念格构造模型建立的基础上,引入概念格差异融合的方法,对彩色图像信息特征检索优化。
3.如权利要求1所述的基于虚拟现实的图像大数据交互控制方法,其特征在于,进行叠加生成合成图像中,进一步包括:
将建立的面向彩色图像信息特征检索的概念格构造模型与概念格差异融合方法相结合,得到多元化彩色图像信息特征的树形结构,资源树形结构的边序列为{e1,e2,...,er},其中ei=(oi,pi+1),这里,1≤i≤r,oi∈{p1,p2,...,pi},利用式
dist(ei)=dist(oi,pi+1)=dist({p1,p2,...,pi},pi+1)获取多元化彩色图像信息特征传输函数;
其中,{dist(e1),dist(e2),...,dist(er)}为SKDNSS_trace(S)的彩色图像信息特征共享信息链,采用辅助矩阵的方法,求解SKDNSS_trace(S)特征值λ,一并求解与特征值λ对应的特征向量U,将这两个参数通过特征传输函数传输至PC终端进行分析,分析彩色图像数据检索向量组成空间,并基于大数据模型,利用式建立彩色图像信息特征检索模型;
利用式计算彩色图像信息特征的相似度系数;利用彩色图像数据特征的相似度系数对彩色图像信息特征检索模型中一些冗余信息进行过滤清除过滤,进行对彩色图像信息特征处理优化。
4.如权利要求1所述的基于虚拟现实的图像大数据交互控制方法,其特征在于,场景渲染方法包括:
首先,获取用户双眼视线在虚拟场景中的汇聚点位置;
然后,根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体;
最后,渲染所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
从所述各个物体中选出物体位置与所述汇聚点位置间的距离小于预设距离值的物体作为所述待渲染物体;
所述根据所述虚拟场景中各个物体的物体位置与所述汇聚点位置的位置关系,从所述各个物体中确定本次渲染对应的待渲染物体,包括:
根据所述各个物体的物体位置与所述汇聚点位置间的距离所位于的预设距离区间,确定所述各个物体本次渲染的渲染等级;
根据所述各个物体本次渲染的渲染等级和上一次渲染的渲染等级,从所述虚拟场景中的各个物体中确定本次渲染对应的待渲染物体。
5.如权利要求1所述的基于虚拟现实的图像大数据交互控制方法,其特征在于,虚拟现实界面显示方法包括:
(1)检测预设区域是否有物体;
如果没有,则停止显示虚拟现实界面;如果有,则测量物体与虚拟现实眼镜之间的距离;
(2)若距离小于预设距离阈值时,则在虚拟现实眼镜的显示区域显示虚拟现实界面;若距离大于预设距离阈值时,则停止显示虚拟现实界面;
(3)确定当前使用者的目标水平双眼视场角以及目标垂直双眼视场角;
(4)在虚拟显示空间中使用目标水平双眼视场角以及目标垂直双眼视场角构造三维空间,获取用户在预设空间内产生的待识别的运动参数;识别待识别的运动参数对应的空间交互手势;
(5)确定空间交互手势对应的控制指令;在三维空间中显示呈曲面的控制指令对应的虚拟现实界面;
(6)在虚拟现实界面中显示一虚拟键盘,且该键盘至少具有一个虚拟按键,同时该虚拟按键与实体键盘的实体按键一一对应;当检测到实体键盘的任一实体按键被触发,则在虚拟键盘中标示与任一实体按键对应的虚拟按键,并在虚拟现实界面中显示该虚拟按键对应的字符。
6.一种实现权利要求1~5任意一项所述基于虚拟现实的图像大数据交互控制方法的计算机程序。
7.一种实现权利要求1~5任意一项所述基于虚拟现实的图像大数据交互控制方法的信息数据处理终端。
8.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-5任意一项所述的基于虚拟现实的图像大数据交互控制法。
9.一种实现权利要求1所述基于虚拟现实的图像大数据交互控制方法的基于虚拟现实的图像大数据交互控制系统,其特征在于,所述基于虚拟现实的图像大数据交互控制系统包括:
图像获取模块,与中央处理模块连接,用于采集环境图像;
图像合成模块,与中央处理模块连接,用于将环境图像与虚拟场景进行叠加生成合成图像;
中央处理模块,与图像获取模块、图像合成模块、虹膜识别模块、场景渲染模块、数据存储模块、显示模块连接,用于控制各个模块正常工作;
虹膜识别模块,与中央处理模块连接,用于通过眼球检测摄像头检测使用者眼睛的状态,以获取使用者眼睛运动状态信息以及使用者眼睛的虹膜信息识别使用者进行控制操作;
场景渲染模块,与中央处理模块连接,用于对虚拟场景中各个物体进行渲染;
数据存储模块,与中央处理模块连接,用于将虚拟场景图像数据进行存储;
显示模块,与中央处理模块连接,用于自适应地根据使用者的双眼视场角来显示虚拟现实界面。
10.一种搭载有权利要求9所述基于虚拟现实的图像大数据交互控制系统的基于虚拟现实的图像大数据交互控制设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810653285.7A CN108983968A (zh) | 2018-06-22 | 2018-06-22 | 一种基于虚拟现实的图像大数据交互控制系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810653285.7A CN108983968A (zh) | 2018-06-22 | 2018-06-22 | 一种基于虚拟现实的图像大数据交互控制系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108983968A true CN108983968A (zh) | 2018-12-11 |
Family
ID=64538348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810653285.7A Pending CN108983968A (zh) | 2018-06-22 | 2018-06-22 | 一种基于虚拟现实的图像大数据交互控制系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108983968A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109725730A (zh) * | 2019-01-02 | 2019-05-07 | 京东方科技集团股份有限公司 | 头戴显示设备及其驱动方法、显示系统及其驱动方法 |
CN110297541A (zh) * | 2019-06-27 | 2019-10-01 | 上海六感科技有限公司 | 虚拟现实设备内容运营展示系统 |
CN111383313A (zh) * | 2020-03-31 | 2020-07-07 | 歌尔股份有限公司 | 一种虚拟模型渲染方法、装置、设备及可读存储介质 |
CN111738362A (zh) * | 2020-08-03 | 2020-10-02 | 成都睿沿科技有限公司 | 对象识别方法及装置、存储介质及电子设备 |
CN112104857A (zh) * | 2019-06-17 | 2020-12-18 | 株式会社万代南梦宫游艺 | 图像生成系统、图像生成方法及信息存储介质 |
CN112184872A (zh) * | 2020-10-17 | 2021-01-05 | 蔡娟 | 基于大数据和云计算的游戏渲染优化方法及云端计算中心 |
CN113711260A (zh) * | 2019-04-12 | 2021-11-26 | 脸谱公司 | 使用计算机视觉检测的自动视觉建议、生成和评估 |
-
2018
- 2018-06-22 CN CN201810653285.7A patent/CN108983968A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109725730A (zh) * | 2019-01-02 | 2019-05-07 | 京东方科技集团股份有限公司 | 头戴显示设备及其驱动方法、显示系统及其驱动方法 |
CN113711260A (zh) * | 2019-04-12 | 2021-11-26 | 脸谱公司 | 使用计算机视觉检测的自动视觉建议、生成和评估 |
CN112104857A (zh) * | 2019-06-17 | 2020-12-18 | 株式会社万代南梦宫游艺 | 图像生成系统、图像生成方法及信息存储介质 |
CN110297541A (zh) * | 2019-06-27 | 2019-10-01 | 上海六感科技有限公司 | 虚拟现实设备内容运营展示系统 |
CN111383313A (zh) * | 2020-03-31 | 2020-07-07 | 歌尔股份有限公司 | 一种虚拟模型渲染方法、装置、设备及可读存储介质 |
CN111738362A (zh) * | 2020-08-03 | 2020-10-02 | 成都睿沿科技有限公司 | 对象识别方法及装置、存储介质及电子设备 |
CN111738362B (zh) * | 2020-08-03 | 2020-12-01 | 成都睿沿科技有限公司 | 对象识别方法及装置、存储介质及电子设备 |
CN112184872A (zh) * | 2020-10-17 | 2021-01-05 | 蔡娟 | 基于大数据和云计算的游戏渲染优化方法及云端计算中心 |
CN112184872B (zh) * | 2020-10-17 | 2021-09-07 | 上海恺英软件技术有限公司 | 基于大数据和云计算的游戏渲染优化方法及云端计算中心 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108983968A (zh) | 一种基于虚拟现实的图像大数据交互控制系统及方法 | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN105718878B (zh) | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 | |
CN105027550B (zh) | 用于处理视觉信息以检测事件的系统和方法 | |
CN108388882B (zh) | 基于全局-局部rgb-d多模态的手势识别方法 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN109101896A (zh) | 一种基于时空融合特征和注意力机制的视频行为识别方法 | |
CN107077624A (zh) | 跟踪手部/身体姿势 | |
CN109376747A (zh) | 一种基于双流卷积神经网络的视频火焰检测方法 | |
CN108241849A (zh) | 基于视频的人体交互动作识别方法 | |
CN104408760B (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN107251100A (zh) | 将物理受限的虚拟环境模制和锚定到现实环境 | |
CN106462725A (zh) | 监测游戏场所的活动的系统和方法 | |
CN109782902A (zh) | 一种操作提示方法及眼镜 | |
CN106599805A (zh) | 一种基于有监督数据驱动的单目视频深度估计方法 | |
CN106201173A (zh) | 一种基于投影的用户交互图标的交互控制方法及系统 | |
CN104517100B (zh) | 手势预判方法和系统 | |
CN110147699A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN110349135A (zh) | 目标检测方法和装置 | |
CN114582030A (zh) | 一种基于服务机器人的行为识别方法 | |
CN111966217A (zh) | 基于手势和眼动的无人机控制方法和系统 | |
WO2024060978A1 (zh) | 关键点检测模型训练及虚拟角色驱动的方法和装置 | |
CN109815854A (zh) | 一种用于在用户设备上呈现图标的关联信息的方法与设备 | |
Zhang et al. | Application of video image processing in sports action recognition based on particle swarm optimization algorithm | |
WO2022033306A1 (zh) | 目标跟踪方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181211 |