CN114842178A - 一种基于电子产品的在线可视化交互系统及方法 - Google Patents

一种基于电子产品的在线可视化交互系统及方法 Download PDF

Info

Publication number
CN114842178A
CN114842178A CN202210486969.9A CN202210486969A CN114842178A CN 114842178 A CN114842178 A CN 114842178A CN 202210486969 A CN202210486969 A CN 202210486969A CN 114842178 A CN114842178 A CN 114842178A
Authority
CN
China
Prior art keywords
value
scene
pixel point
data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210486969.9A
Other languages
English (en)
Inventor
张华成
杨兵
彭福银
张卓轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202210486969.9A priority Critical patent/CN114842178A/zh
Publication of CN114842178A publication Critical patent/CN114842178A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于电子产品的在线可视化交互系统及方法,解决的是交互指令和交互结果分离呈现,不能高效、准确的处理交互数据的技术问题,通过采用包括用于交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;所述交互指令处理运行单元执行包括:步骤s1,接收交互指令,解析交互指令;步骤s2,根据交互指令调用控制电子产品的程序运行,得到程序反馈场景;步骤s3,将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;步骤s4,输出经过虚拟融合的反馈链虚拟场景的技术方案,较好的解决了该问题,可用于电子产品的在线可视化交互中。

Description

一种基于电子产品的在线可视化交互系统及方法
技术领域
本发明涉及电子产品在线交互领域,具体涉及一种基于电子产品的在线可视化交互系统及方法。
背景技术
人机交互系统是伴着计算机的诞生就发展起来的。在现代和未来的社会里,只要有人利用通信、计算机等信息处理技术,为社会、经济、环境和资源进行活动时,人机交互都是永恒的主题。鉴于它对科技发展的重要性,研究如何实现自然、便利和无所不在的人机交互,成是现代信息技术,人工智能技术研究的至高目标,也是数学、信息科学、智能科学、神经科学,以及生理、心理科学多科学交叉的新结合点,并将引导着二十一世纪前期信息和计算机研究的热门方向。
现有的电子产品的在线可视化交互存在交互指令和交互结果分离呈现的问题,以及不能高效、准确的处理交互数据的问题。本发明提供一种基于电子产品的在线可视化交互系统及方法,解决上述技术问题。
发明内容
本发明所要解决的技术问题是现有技术中存在的交互指令和交互结果分离呈现,不能高效、准确的处理交互数据的技术问题。提供一种新的基于电子产品的在线可视化交互系统,该在线可视化交互系统具有良好综合呈现交互指令和交互结果融合,能够高效、精准实现系统运行的特点。
为解决上述技术问题,采用的技术方案如下:
一种基于电子产品的在线可视化交互系统,所述基于电子产品的在线可视化交互系统包括用于交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
所述交互指令处理运行单元用于处理交互指令、根据交互指令控制调用电子产品,交互指令处理运行单元执行包括如下步骤:
步骤s1,接收交互指令,并解析交互指令;
步骤s2,根据交互指令调用控制电子产品的程序运行,得到表征电子产品运行反馈结果的程序反馈场景;
步骤s3,将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;
步骤s4,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
上述方案中,为优化,进一步地,步骤s2还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure BDA0003629520590000031
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν12,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure BDA0003629520590000032
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(νk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|ν|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure BDA0003629520590000033
作为高级数据变化值,其中,A为实时数据值,
Figure BDA0003629520590000034
Figure BDA0003629520590000035
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
本优选方案,通过对数据的效率优先考虑处理,提高了系统处理的实时性,并对数据进行融合估计,兼顾了系统的精准度。
进一步地,所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure BDA0003629520590000041
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure BDA0003629520590000042
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure BDA0003629520590000043
Figure BDA0003629520590000044
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure BDA0003629520590000045
Figure BDA0003629520590000046
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure BDA0003629520590000047
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure BDA0003629520590000051
步骤G,计算出低级数据的融合处理函数
Figure BDA0003629520590000052
本优选方案进一步提供了一种特有的低速数据估计融合方法,能够兼顾效率和准确度。
进一步地,所述步骤s3包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure BDA0003629520590000054
获取背景区域
Figure BDA0003629520590000055
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure BDA0003629520590000057
如当前像素点属于背景区域
Figure BDA0003629520590000056
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure BDA0003629520590000053
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure BDA0003629520590000061
Figure BDA0003629520590000062
Figure BDA0003629520590000063
d′p为目标空间场景待融合区域中与背景区域
Figure BDA0003629520590000064
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure BDA0003629520590000065
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure BDA0003629520590000066
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure BDA0003629520590000067
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure BDA0003629520590000068
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure BDA0003629520590000069
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure BDA0003629520590000071
的像素点
Figure BDA0003629520590000072
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure BDA0003629520590000073
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure BDA0003629520590000074
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
优选方案,提供了一种交互指令场景和反馈场景的融合,能够实时呈现双重效果。
本发明还提供一种基于电子产品的在线可视化交互方法,所述方法基于前述的建立电子产品在线可视化交互系统,方法包括:
交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
步骤一,交互指令输入单元采集交互指令,传输给交互指令处理运行单元;
步骤二,交互指令处理运行单接收交互指令,并解析交互指令;
步骤三,根据解析交互指令的结果,交互指令处理运行单元调用控制电子产品实现指令程序运行,并根据程序运行结果建立表征电子产品运行反馈结果的程序反馈场景;
步骤四,交互指令处理运行单元将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;
步骤五,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
进一步地,步骤三还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure BDA0003629520590000091
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν12,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure BDA0003629520590000092
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(νk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|ν|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure BDA0003629520590000093
作为高级数据变化值,其中,A为实时数据值,
Figure BDA0003629520590000094
Figure BDA0003629520590000095
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
进一步地,所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure BDA0003629520590000101
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure BDA0003629520590000102
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure BDA0003629520590000103
Figure BDA0003629520590000104
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure BDA0003629520590000105
Figure BDA0003629520590000106
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure BDA0003629520590000107
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure BDA0003629520590000108
步骤G,计算出低级数据的融合处理函数
Figure BDA0003629520590000109
进一步地,所述步骤四包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure BDA0003629520590000111
获取背景区域
Figure BDA0003629520590000112
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure BDA0003629520590000113
如当前像素点属于背景区域
Figure BDA0003629520590000114
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure BDA0003629520590000115
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure BDA0003629520590000116
Figure BDA0003629520590000117
Figure BDA0003629520590000121
d′p为目标空间场景待融合区域中与背景区域
Figure BDA0003629520590000124
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure BDA0003629520590000122
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure BDA0003629520590000125
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure BDA0003629520590000126
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure BDA0003629520590000127
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure BDA0003629520590000128
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure BDA0003629520590000129
的像素点
Figure BDA0003629520590000123
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure BDA0003629520590000131
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure BDA0003629520590000132
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1,基于电子产品的在线可视化交互系统示意图。
图2,交互指令处理运行单元程序示意图。
图3,反馈链虚拟场景示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例1
本实施例提供一种基于电子产品的在线可视化交互系统,如图1,所述基于电子产品的在线可视化交互系统包括用于交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
所述交互指令处理运行单元用于处理交互指令、根据交互指令控制调用电子产品,如图2,交互指令处理运行单元执行包括如下步骤:
步骤s1,接收交互指令,并解析交互指令;
步骤s2,根据交互指令调用控制电子产品的程序运行,得到表征电子产品运行反馈结果的程序反馈场景;
步骤s3,将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果,如图3;
步骤s4,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
上述方案中,为优化,进一步地,步骤s2还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure BDA0003629520590000151
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν12,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure BDA0003629520590000152
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(νk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|ν|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure BDA0003629520590000153
作为高级数据变化值,其中,A为实时数据值,
Figure BDA0003629520590000154
Figure BDA0003629520590000155
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
本优选方案,通过对数据的效率优先考虑处理,提高了系统处理的实时性,并对数据进行融合估计,兼顾了系统的精准度。
进一步地,所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure BDA0003629520590000161
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure BDA0003629520590000162
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure BDA0003629520590000163
Figure BDA0003629520590000164
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure BDA0003629520590000165
Figure BDA0003629520590000166
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure BDA0003629520590000167
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure BDA0003629520590000168
步骤G,计算出低级数据的融合处理函数
Figure BDA0003629520590000171
本优选方案进一步提供了一种特有的低速数据估计融合方法,能够兼顾效率和准确度。
进一步地,所述步骤s3包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure BDA0003629520590000172
获取背景区域
Figure BDA0003629520590000174
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure BDA0003629520590000173
如当前像素点属于背景区域
Figure BDA0003629520590000175
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure BDA0003629520590000176
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure BDA0003629520590000181
Figure BDA0003629520590000182
Figure BDA0003629520590000183
d′p为目标空间场景待融合区域中与背景区域
Figure BDA0003629520590000185
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure BDA0003629520590000184
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure BDA0003629520590000187
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure BDA0003629520590000186
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure BDA0003629520590000189
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure BDA0003629520590000188
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure BDA0003629520590000194
的像素点
Figure BDA0003629520590000191
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure BDA0003629520590000192
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure BDA0003629520590000193
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
优选方案,提供了一种交互指令场景和反馈场景的融合,能够实时呈现双重效果。
本发明还提供一种基于电子产品的在线可视化交互方法,所述方法基于前述的建立电子产品在线可视化交互系统,方法包括:
交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
步骤一,交互指令输入单元采集交互指令,传输给交互指令处理运行单元;
步骤二,交互指令处理运行单接收交互指令,并解析交互指令;
步骤三,根据解析交互指令的结果,交互指令处理运行单元调用控制电子产品实现指令程序运行,并根据程序运行结果建立表征电子产品运行反馈结果的程序反馈场景;
步骤四,交互指令处理运行单元将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;
步骤五,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
进一步地,步骤三还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure BDA0003629520590000201
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν12,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure BDA0003629520590000211
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(νk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|ν|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure BDA0003629520590000212
作为高级数据变化值,其中,A为实时数据值,
Figure BDA0003629520590000213
Figure BDA0003629520590000214
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
进一步地,所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure BDA0003629520590000221
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure BDA0003629520590000222
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure BDA0003629520590000223
Figure BDA0003629520590000224
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure BDA0003629520590000225
Figure BDA0003629520590000226
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure BDA0003629520590000227
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure BDA0003629520590000228
步骤G,计算出低级数据的融合处理函数
Figure BDA0003629520590000229
进一步地,所述步骤四包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure BDA0003629520590000231
获取背景区域
Figure BDA0003629520590000232
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure BDA0003629520590000233
如当前像素点属于背景区域
Figure BDA0003629520590000234
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure BDA0003629520590000238
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure BDA0003629520590000235
Figure BDA0003629520590000236
Figure BDA0003629520590000237
d′p为目标空间场景待融合区域中与背景区域
Figure BDA0003629520590000241
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure BDA0003629520590000242
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure BDA0003629520590000249
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure BDA0003629520590000243
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure BDA0003629520590000244
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure BDA0003629520590000245
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure BDA0003629520590000246
的像素点
Figure BDA0003629520590000247
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure BDA0003629520590000248
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure BDA0003629520590000251
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
本实施例未说明的部分,可采用现有的技术予以实现,本实施例不再赘述。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员能够理解本发明,但是本发明不仅限于具体实施方式的范围,对本技术领域的普通技术人员而言,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内,一切利用本发明构思的发明创造均在保护之列。

Claims (8)

1.一种基于电子产品的在线可视化交互系统,其特征在于:所述基于电子产品的在线可视化交互系统包括用于交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
所述交互指令处理运行单元用于处理交互指令、根据交互指令控制调用电子产品,交互指令处理运行单元执行包括如下步骤:
步骤s1,接收交互指令,并解析交互指令;
步骤s2,根据交互指令调用控制电子产品的程序运行,得到表征电子产品运行反馈结果的程序反馈场景;
步骤s3,将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;
步骤s4,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
2.根据权利要求1所述的基于电子产品的在线可视化交互系统,其特征在于:步骤s2还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure FDA0003629520580000021
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν1,ν2,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure FDA0003629520580000022
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(vk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|v|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure FDA0003629520580000023
作为高级数据变化值,其中,A为实时数据值,
Figure FDA0003629520580000024
Figure FDA0003629520580000025
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
3.根据权利要求2所述的基于电子产品的在线可视化交互系统,其特征在于:所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure FDA0003629520580000031
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure FDA0003629520580000032
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure FDA0003629520580000033
Figure FDA0003629520580000034
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure FDA0003629520580000035
Figure FDA0003629520580000036
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure FDA0003629520580000037
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure FDA0003629520580000041
步骤G,计算出低级数据的融合处理函数
Figure FDA0003629520580000042
4.根据权利要求2所述的基于电子产品的在线可视化交互系统,其特征在于:所述步骤s3包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure FDA0003629520580000045
获取背景区域
Figure FDA0003629520580000046
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure FDA0003629520580000047
如当前像素点属于背景区域
Figure FDA0003629520580000043
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure FDA0003629520580000044
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure FDA0003629520580000051
Figure FDA0003629520580000052
Figure FDA0003629520580000053
d′p为目标空间场景待融合区域中与背景区域
Figure FDA0003629520580000054
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure FDA0003629520580000055
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure FDA0003629520580000056
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure FDA0003629520580000057
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure FDA0003629520580000059
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure FDA0003629520580000058
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure FDA0003629520580000061
的像素点
Figure FDA0003629520580000062
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure FDA0003629520580000063
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure FDA0003629520580000064
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
5.一种基于电子产品的在线可视化交互方法,其特征在于:所述方法基于权利要求1-4任一所述的建立电子产品在线可视化交互系统,方法包括:
交互指令输入单元、交互指令处理运行单元,能够输出可视化信号的交互输出单元;
步骤一,交互指令输入单元采集交互指令,传输给交互指令处理运行单元;
步骤二,交互指令处理运行单接收交互指令,并解析交互指令;
步骤三,根据解析交互指令的结果,交互指令处理运行单元调用控制电子产品实现指令程序运行,并根据程序运行结果建立表征电子产品运行反馈结果的程序反馈场景;
步骤四,交互指令处理运行单元将交互指令场景与程序反馈场景融合为反馈链虚拟场景,反馈链虚拟场景能够同时表征交互指令和电子产品运行反馈结果;
步骤五,控制交互输出单元输出经过虚拟融合的反馈链虚拟场景作为可视化反馈结果。
6.根据权利要求5所述的基于电子产品的在线可视化交互方法,其特征在于:步骤三还包括将交互指令数据、电子产品程序指令数据进行预处理,预处理包括:
步骤ss1,区分交互指令数据和电子产品程序指令数据的数据变化率,将数据变化率低于预设阈值的定义为高级数据,执行步骤ss2,其余的定义为低级数据,执行步骤ss7;
步骤ss2,调用第一融合数据处理单元,对高级数据进行处理;
步骤ss3,定义
Figure FDA0003629520580000071
其中,k为小于等于K的正整数,K为高级数据库中独立的高级数据的个数,{x1,x2,...xk,xK}是K个数据实测值,j和ν为预设参数,ν12,...νk为实数集;
步骤ss4,通过yk=μ+αtkk,μ=log(2γ),计算特征反馈系数∝和散度系数γ;其中,
Figure FDA0003629520580000081
εk为预设的误差项系数,tk=log|νk|;
步骤ss5,通过zk=δνkk,计算出位置参数δ,其中,zk=arctan(Im(νk)/Re(νk);
步骤ss6,将特征反馈系数∝,散度系数γ,位置参数δ带入φ(ν)=exp{jδν-γ|ν|},计算傅里叶变换,得到概率密度函数f(x),完成高级数据Pn的拟合估计融合;
步骤ss7,定义
Figure FDA0003629520580000082
作为高级数据变化值,其中,A为实时数据值,
Figure FDA0003629520580000083
Figure FDA0003629520580000084
为由历史高级数据样本预设的估计参数;
步骤ss7,调用第二融合数据处理单元,对低级数据进行处理;
步骤ss8,判断步骤ss6拟合估计的高级数据和步骤ss7拟合处理的低级数据,如高级数据变化值大于预定值阈值Tmax或低级数据变化值大于预定值阈值Tmax,则完成预处理,输出预处理结果;否则循环执行步骤ss1。
7.根据权利要求6所述的基于电子产品的在线可视化交互方法,其特征在于:所述步骤ss7包括:
步骤A,对同一低级数据值进行交错采集,定义为第一时间特征样本集和第二时间特征样本集;
步骤B,计算第一时间特征样本集和第二时间特征样本集的高斯卷积变换函数,计算二位二进制维度的高斯特征δ={00,01,10,11};计算三位二进制维度的高斯卷积特征
Figure FDA0003629520580000091
步骤C,对步骤B中高斯特征进行归一化,处理得到一致性区间函数
Figure FDA0003629520580000092
其中,y是m个第一时间特征向量或第二时间特征向量组成的时间特征矩阵,μ为时间特征矩阵的均值,δ为时间特征矩阵的方差;
步骤D,计算出d1=[d11,d21,...dc1]为第一时间特征样本集内两个特征样本的最短距离集合,将di1按照降序进行排列,计算出距离均值
Figure FDA0003629520580000093
Figure FDA0003629520580000094
其中i1=1,2,3,...c,dic为最短距离;
步骤E,计算出d2=[d12,d22,...dc2]为第二时间特征样本集内两个特征样本的最短距离集合,将di2按照降序进行排列,计算出距离均值
Figure FDA0003629520580000095
Figure FDA0003629520580000096
其中i2=1,2,3,...c,dic为最短距离;
步骤F,计算出距离权值
Figure FDA0003629520580000097
定义样本统一权值为w=[w1,w2,...,wm],权值均值为
Figure FDA0003629520580000098
步骤G,计算出低级数据的融合处理函数
Figure FDA0003629520580000099
8.根据权利要求6所述的基于电子产品的在线可视化交互系统,其特征在于:所述步骤四包括:
步骤s31,以电子产品虚拟形象为几点,异位定义交互指令场景区域与程序反馈场景区域;
步骤s32,识别交互指令场景区域与程序反馈场景区域中的实时变化对象定义为目标空间场景模型,当前反馈链虚拟场景为源空间场景模型;
步骤s33,自源空间场景模型提取背景区域
Figure FDA0003629520580000109
获取背景区域
Figure FDA0003629520580000105
的轮廓核心点信息,包括核心点的特征纯度值以及核心点二维平面坐标值;
步骤s34,构建源空间场景数据,判断当前像素点是否属于背景区域
Figure FDA00036295205800001010
如当前像素点属于背景区域
Figure FDA0003629520580000107
则执行步骤s35,否则执行s36;
步骤s35,获取当前像素点的实际RGB分量值,如实际RGB分量值小于预设的RGB分量阈值,则将该实际RGB分量值定义为RGB分量小值,将RGB分量阈值设定为RGB分量值;否则将实际实际RGB分量值设定为RGB分量值;
步骤s36,将当前像素点RGB分类值均设置为0;
步骤s37,根据源空间场景数据,以及背景区域
Figure FDA0003629520580000108
的轮廓核心点信息,将RGB分量值均大于预定义阈值的像素点定义背景像素点,根据背景特征纯度重构模型重构源空间场景背景区域;
步骤s38,建立背景特征纯度重构模型:
Figure FDA0003629520580000101
Figure FDA0003629520580000102
Figure FDA0003629520580000103
d′p为目标空间场景待融合区域中与背景区域
Figure FDA0003629520580000111
中像素点位置相同的像素点的特征纯度值,像素点p与像素点q互为领域像素点,gp和gq分别表示目标空间场景待融合区域中像素点p及其邻域点q的灰度值,σg为基于高斯函数的标准差,t为常数系数,
Figure FDA0003629520580000112
为像素点p的4邻通域,d′q(t-1)为背景区域
Figure FDA0003629520580000117
中像素点p的邻域点像素点q已知的特征纯度值;
步骤s39,将源空间场景模型的背景区域
Figure FDA0003629520580000113
基于轮廓核心点进行AB分块,计算特征纯度值范围为DAB={d|dmin≤d≤dmax},最小特征纯度值dmin=min(dA,dB),最大特征纯度值dmax=max(dA,dB);若背景区域
Figure FDA0003629520580000118
中像素点p对应的目标空间场景特征纯度值在DAB之外,则执行步骤s40,否则执行步骤s41;
步骤s40,判断背景区域
Figure FDA0003629520580000114
中像素点p位置对应的目标空间场景特征纯度值,与最大特征纯度值dmax的大小,若目标空间场景特征纯度值大于最大特征纯度值dmax,则定义该像素点p所在位置融合结果为背景区域像素点参数,否则定义为目标空间场景区域像素点参数;
步骤s41,如有背景区域
Figure FDA0003629520580000115
的像素点
Figure FDA0003629520580000119
则执行步骤s42,否则执行步骤s43;其中,qjs为背景子块数量;
步骤s42,计算出背景子块区域的像素点p的特征纯度值为d′p,返回执行步骤s39;
Figure FDA0003629520580000116
其中,轮廓核心点A、B组成的背景子块区域对应的二维平面区域范围为RAB={xs,ys,w,h|w=xe-xs,h=ye-ys},二维平面区域起始横坐标为xs=min(xA,xB),二维平面区域起始纵坐标为ys=min(yA,yB),二维平面区域结束横坐标为xe=max(xA,xB),二维平面区域结束纵坐标为ye=max(yA,yB),二维平面区域最小特征纯度值对应的像素点为pmin
步骤s43,建立邻域微结构模型,计算出像素点p的特征纯度值,,返回执行步骤s39;所述邻域微结构模型与背景特征纯度重构模型一致,仅变更wpq为:
Figure FDA0003629520580000121
步骤s44,根据位置融合结果,得到实时融合的反馈链虚拟场景。
CN202210486969.9A 2022-05-06 2022-05-06 一种基于电子产品的在线可视化交互系统及方法 Pending CN114842178A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210486969.9A CN114842178A (zh) 2022-05-06 2022-05-06 一种基于电子产品的在线可视化交互系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210486969.9A CN114842178A (zh) 2022-05-06 2022-05-06 一种基于电子产品的在线可视化交互系统及方法

Publications (1)

Publication Number Publication Date
CN114842178A true CN114842178A (zh) 2022-08-02

Family

ID=82568427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210486969.9A Pending CN114842178A (zh) 2022-05-06 2022-05-06 一种基于电子产品的在线可视化交互系统及方法

Country Status (1)

Country Link
CN (1) CN114842178A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304280A (zh) * 2023-05-15 2023-06-23 石家庄学院 一种基于交互可视化的多维数据分析方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304280A (zh) * 2023-05-15 2023-06-23 石家庄学院 一种基于交互可视化的多维数据分析方法
CN116304280B (zh) * 2023-05-15 2023-08-04 石家庄学院 一种基于交互可视化的多维数据分析方法

Similar Documents

Publication Publication Date Title
Han et al. Incremental density approximation and kernel-based bayesian filtering for object tracking
CN109165735B (zh) 基于生成对抗网络与自适应比例生成样本图片的方法
Nguyen et al. A weakly supervised amodal segmenter with boundary uncertainty estimation
KR20190056792A (ko) 딥러닝 기반 얼굴 검출 및 감정 인식 시스템 및 방법
Rios et al. Feature visualization for 3D point cloud autoencoders
CN116872089A (zh) 数控磨床的磨削自适应控制系统及其方法
CN113988358A (zh) 基于迁移强化学习的碳排放指数预测与治理方法
CN114842178A (zh) 一种基于电子产品的在线可视化交互系统及方法
CN111723840A (zh) 一种用于超声影像的聚类和风格迁移的方法
CN114330109A (zh) 无人驾驶场景下深度强化学习模型的可解释性方法及系统
CN110866609B (zh) 解释信息获取方法、装置、服务器和存储介质
CN113536939A (zh) 一种基于3d卷积神经网络的视频去重方法
CN111325221A (zh) 基于图像深度信息的图像特征提取方法
CN116704208A (zh) 基于特征关系的局部可解释方法
KR102005952B1 (ko) 기계학습 모델링에서 잡음 데이터 제거를 위한 데이터 정제 장치 및 방법
CN111242216A (zh) 基于条件生成对抗卷积神经网络的图像生成方法
CN111429436B (zh) 一种基于多尺度注意力和标签损失的本质图像分析方法
Ye et al. Multi Dimension Fuzzy C-means Color Image Segmentation Based on Intelligent Analysis Algorithm
CN110348509B (zh) 数据增广参数的调整方法、装置、设备及存储介质
WO2020121378A1 (ja) 学習装置および学習方法
CN112420135A (zh) 一种基于样方法和分位数回归的虚拟样本生成方法
Venkatesh et al. Model selection and regularization
Khelifi et al. A consensus framework for segmenting video with dynamic textures
JP6282121B2 (ja) 画像認識装置、画像認識方法およびプログラム
Mikriukov et al. Quantified Semantic Comparison of Convolutional Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination