CN102842122A - 基于小波神经网络的增强现实图像方法 - Google Patents
基于小波神经网络的增强现实图像方法 Download PDFInfo
- Publication number
- CN102842122A CN102842122A CN2012102283078A CN201210228307A CN102842122A CN 102842122 A CN102842122 A CN 102842122A CN 2012102283078 A CN2012102283078 A CN 2012102283078A CN 201210228307 A CN201210228307 A CN 201210228307A CN 102842122 A CN102842122 A CN 102842122A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- wavelet
- images
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明提供一种基于小波神经网络的增强现实图像引导方法。步骤包括:分别利用Radon变换及高斯型拉普拉斯滤波确定两幅图像之间的旋转与尺度关系,在对源图像进行平移、旋转及尺度变换之后,同时对源图像及目标图像提取小波特征并计算匹配度;虚拟场景是利用手术前拍摄的CT切片图像重建出内部组织的三维结构,现实场景是内窥镜图像,将现实场景与虚拟场景进行图像配准,然后将融合后的图像显示在增强现实头盔系统上,从而形成一个有透视能力的虚拟内窥镜。本发明是一种时-频分析法,通过提取图像的小波特征来实现配准。小波神经网结合了小波变换的时-频特性以及神经网络的学习优化机制,能更快速准确地实现图像配准。
Description
(一)技术领域
本发明涉及图像处理技术,具体说就是一种基于小波神经网络的增强现实图像方法。
(二)背景技术
虚拟内窥镜(Virtual Endoscope),又可称作计算内窥镜(Computed Endoscope),就是利用计算机处理三维图像数据,达到或接近普通医用内窥镜的视觉效果。虚拟内窥镜不仅可以用于实际观察或仿真预演,还可以在很多场合直接代替真实的内窥镜。虚拟内窥镜的研究在过去十年得到迅猛发展,主要是因为图像融合及虚拟现实技术已逐渐成熟。由于虚拟场景是由CT/MRI图像构建,而实际的内窥镜要与之配准就涉及到多体图像融合问题,即将同一对象的不同介质图像协同地混合在一起来揭示更清晰的信息。虽然现在有许多不同介质如超声波、X光、CT、MRI、PET、SPET等都可以获取医学图像,但是如何定量地测量各种图像之间的相互关系以及如何进行优势互补则需要数据融合来解决。比如MRI和CT图像可以高清晰地显示结构信息,PET和SPET则以低分辨率方式提供功能信息。MRI/CT图像与PET/SPET图像融合后就可综合这两方面的信息而更好地定量分析。又比如,MRI图像与CT图像融合可以同时展现高密质的骨骼结构以及疏密质软纤维信息。
最简单直接的图像融合方法是采取线性变换,如强度-色调饱和变换。Sharma采用主元分析(PCA)获得两幅图像的变化参数后,将目标图像加权叠加到源图像。这类方法的效果不理想,这是因为两幅图像的特征不一定是同时出现的,所以在融合后的图像上会以降低对比度的方式或机械叠加的方式呈现。研究表明,人类的视觉系统对不同尺度大小的边缘特别敏感,两幅图像的尺寸和分辨率必须相同才能被正确地配准与融合,而上述的线性变换方法没有考虑到这一特点。
目前最成功的图像融合方法是时-频分析法。这种方法实际是将图像分解成高通系数与低通系数的表示,在高频和低频部分融合后,经过逆变换生成最终结果。最常用的时-频分析法是小波变换,它在每一级将图像分解成低-低、低-高、高-低、高-高四个空间频率带。低-低带包含了平均的图像信息,高频带则包含了方向或边缘信息。
(三)发明内容
本发明的目的在于提供一种基于小波神经网络的增强现实图像方法。
本发明的目的是这样实现的:步骤如下:
步骤一:基于小波神经网络的图像配准
分别利用Radon变换及高斯型拉普拉斯滤波确定两幅图像之间的旋转与尺度关系,在对源图像进行平移、旋转及尺度变换之后,同时对源图像及目标图像提取小波特征并计算匹配度;
步骤二:基于虚拟内窥镜的增强现实图像系统集成
虚拟场景是利用拍摄的CT切片图像重建出内部组织的三维结构,现实场景是内窥镜图像,将现实场景与虚拟场景进行图像配准,然后将融合后的图像显示在增强现实头盔系统上,从而形成一个有透视能力的虚拟内窥镜;
步骤三:数据集测试与动物实验
将已集成的系统应用于人工合成的手写字符集以及公开的基准数据库,经过数据分析和改进算法后,将这种增强现实内窥镜图像系统用于动物实验。
本发明是一种时-频分析法,通过提取图像的小波特征来实现配准。小波神经网结合了小波变换的时-频特性以及神经网络的学习优化机制,能更快速准确地实现图像配准。本课题旨在利用增强现实的技术构建一个具有透视能力的虚拟内窥镜,使得使用者能看到被覆盖在表层以下的组织。而实现这一系统的关键技术是虚拟场景与现实场景的图像配准。即系统的准确性与实时性都取决于虚拟场景与现实场景进行图像配准的精度与速度。所以,本发明的研究集中在基于并行Radon变换的图像平移、旋转及尺度关系,并利用小波神经网的函数近似与自适应学习能力来匹配两幅图像。该项方法的研究还可以用于管道机器人视觉导航,这将是下一代智能机器人的标准配备,市场前景极为广阔。此外本项研究还可以扩展开发出全自主运作、具有精确定位和目标识别功能的机器人,它不仅可用于工业生产和日常的生活,还可以用于侦察敌情及抗震救灾。
(四)具体实施方式
下面举例对本发明作进一步说明。
实施例1:本发明一种基于小波神经网络的增强现实图像方法,步骤如下:
步骤一:基于小波神经网络的图像配准
分别利用Radon变换及高斯型拉普拉斯滤波确定两幅图像之间的旋转与尺度关系,在对源图像进行平移、旋转及尺度变换之后,同时对源图像及目标图像提取小波特征并计算匹配度;
步骤二:基于虚拟内窥镜的增强现实图像系统集成
虚拟场景是利用拍摄的CT切片图像重建出内部组织的三维结构,现实场景是内窥镜图像,将现实场景与虚拟场景进行图像配准,然后将融合后的图像显示在增强现实头盔系统上,从而形成一个有透视能力的虚拟内窥镜;
步骤三:数据集测试与动物实验
将已集成的系统应用于人工合成的手写字符集以及公开的基准数据库,经过数据分析和改进算法后,将这种增强现实内窥镜图像系统用于动物实验。
实施例2:本发明一种基于小波神经网络的增强现实图像方法,步骤如下:
(1)基于小波神经网进行图像配准
采用计算每幅图像的绝对尺度参数来获得相对缩放比例;通过分析Radon空间获得图像之间的相对旋转角度;最后通过小波神经网找到两幅图像的最佳匹配值。
在多尺度图像分析法中,尺度-空间表示法描述的是某一特定点周围的局部图像结构。通过对图像中若干个点进行尺度归一的高斯型拉普拉斯算子运算(Laplacian of Gaussian,LoG),进而经过表决确定整幅图像的尺度。
利用快速的并行Radon变换方法,合并多个不同系数的傅立叶变换获得多个频谱集。这种方法不仅不需要传统的补零处理,还可以并行运算,在速度和精度上都有显著提高。给定两幅图像,分别生成频谱图,运用投影定理将直角坐标系映射至极坐标,再对各角度的投影作一维傅立叶逆变换从而形成Radon空间上的正弦图,然后分析两幅图像之间的旋转关系。
图像跟踪的第一步是找到视频序列中各帧间的对应。在本方法中,我们关注基于固有三维像素特征的配准方法,该方法直接作用于图像灰度值,无需对图像进行人工预处理。
习惯上,上述对应即指计算从两幅图像中抽取特征的变化。基于亮度的方法易受光照变化干扰。此时,在内窥镜成像中普遍采用适用于光照变化的纹理信息。为降低亮度变化的干扰,我们在关注亮度变化的同时,拟采用特征区域的空间信息来进行相似性估计。
利用小波的尺度特性和神经网络的高效学习机制,小波网络一诞生即成为强健的工具用于许多领域。如在小波网络理论中一样,Gabor奇函数被写成平移、旋转和扩张的编码。在本方法中,考虑连续函数空间上的紧致性,我们采用常见的Gabor奇函数和偶函数。
首先,我们引入Gabor分析作为信号处理和通信的工具。Gabor将扩展信号f视为如下序列:f(x)=∑cmnexp{i2πmbx}g(x-na)。其中g(x-na)是高斯函数。在采用Gabor函数作为网络的母函数之前,我们先关注帧特性。给定参数和函数 中形如{ei2πb(mx+ny)g(x-ka,y-la)}k,l,m,n∈Z的一帧称为Gabor帧。当ab≤1时,Gabor帧退化为中的一帧。当且仅当ab=1时,Gabor帧为ReiZs基。(我们仅将两个一维Gabor相乘以获得二维Gabor帧)。
我们将用Gabor滤波技术中的函数定义Gabor帧,如式(1)所示:
一旦获得Gabor似然函数帧,小波神经网络即可建立。我们将采用下述结构作为近似函数:
Gabor小波神经网络的构造实际上是一个寻优过程:第一,如何选择最小数目的小波,这不仅会降低计算开销,而且会降低大量参数计算带来的潜在错误。第二,如何表示原图像与目标图像的最佳匹配度。
小波神经网的优化标准是最小化最终预测误差(Final PredictionError,FPE),其定义如下:
其中,np为回归量的个数,I0(x,y)为训练点(x,y)的期望输出,Nt=M2为训练数据的长度(窗口尺寸M×M)。
最后,我们需要训练网络。训练任务规划如下。在感兴趣区域(窗口尺寸M×M)中,存在一个采样点{(x,y),I0(x,y)}用于网络训练。我们需要给出可用于精确亮度函数近似的权值,如式(2)所示。为此,我们最小化与权值相关的目标函数,当最小化完成时,得到如下近似:I0(x,y)≈ξ(x,y)。
小波神经网的构造如图2所示。采用选中窗口的像素坐标作为输入,Gabor函数作为隐含层的神经元,我们获得式(3)的和,它就是原图像的最近似输出。然后计算目标图像与此近似输出的最小均方误差
其中,(x,y)为目标图像I(x,y)窗口的中心。
(2)基于虚拟内窥镜的增强现实图像系统集成。
AREIGS系统包括四个主要部分:①跟踪、检测、成像(TDI)单元,②头盔式立体显示仪,③图形工作站,和④用于研究室实验的内窥镜系统。其中TDI单元用于三维追踪、三维表面检测和立体成像;显示单元可在不引起外科医生感觉不适的情况下提供逼真的视觉影像。工作站用于现实变形的预测,图形生成,实时视频采集和实时混合视频输出。最后把TDI单元安装在推车上一个被动手臂上,并连接系统其他部分;这样可以方便使用者在手术室的移动TDI,并进行定位。
(3)AREIGS系统的实验
我们采取循序渐进的方法实验测试系统性能,即先利用人工合成的数据,再利用公开的数据测试配准,最后做动物实验。人工合成数据:我们将对已有的大规模手写汉字字符集进行随机参数的平移、旋转及尺度缩放。由于字符图像数据样本集中的各线段端点位置已知,特别适合图像配准问题的性能测试。实验中,我们采用HITPU数据库,它由哈尔滨工业大学与香港理工大学联合采集,共收集收集了3755个汉字类别的200个不同人书写的手写字符。
实施例3:采取以下三大步骤来完成该项目,即基于小波神经网络的图像配准、增强现实内窥镜图像引导系统的集成、数据集测试及动物实验。系统集成后的实验与前两个步骤又是一个双向交互的过程。一方面,通过已实现的图像配准算法与虚拟内窥镜系统得到实验结果;另一方面,通过对实验数据的分析去改进算法及系统。
第一步:基于小波神经网络的图像配准。图像配准的最关键技术就是如何确定两幅图像之间的平移、旋转及尺度关系。在本课题中,我们分别利用Radon变换及高斯型拉普拉斯滤波确定两幅图像之间的旋转与尺度关系。在对源图像进行平移、旋转及尺度变换之后,同时对源图像及目标图像提取小波特征并计算匹配度。
第二步:基于虚拟内窥镜的增强现实图像引导系统集成。在本方案中,虚拟场景是利用拍摄的CT切片图像重建出内部组织的三维结构,现实场景是内窥镜图像。将现实场景与虚拟场景进行图像配准,然后将融合后的图像显示在增强现实头盔系统上,从而形成一个有透视能力的虚拟内窥镜。
第三步:数据集测试与动物实验。将已集成的系统应用于人工合成的手写字符集以及公开的基准数据库。经过数据分析和改进算法后,将这种增强现实内窥镜图像引导系统用于动物实验。
Claims (1)
1.一种基于小波神经网络的增强现实图像方法,其特征在于:步骤如下:
步骤一:基于小波神经网络的图像配准
分别利用Radon变换及高斯型拉普拉斯滤波确定两幅图像之间的旋转与尺度关系,在对源图像进行平移、旋转及尺度变换之后,同时对源图像及目标图像提取小波特征并计算匹配度;
步骤二:基于虚拟内窥镜的增强现实图像系统集成
虚拟场景是利用拍摄的CT切片图像重建出内部组织的三维结构,现实场景是内窥镜图像,将现实场景与虚拟场景进行图像配准,然后将融合后的图像显示在增强现实头盔系统上,从而形成一个有透视能力的虚拟内窥镜;
步骤三:数据集测试与动物实验
将已集成的系统应用于人工合成的手写字符集以及公开的基准数据库,经过数据分析和改进算法后,将这种增强现实内窥镜图像引导系统用于动物实验。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012102283078A CN102842122A (zh) | 2012-06-21 | 2012-06-21 | 基于小波神经网络的增强现实图像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012102283078A CN102842122A (zh) | 2012-06-21 | 2012-06-21 | 基于小波神经网络的增强现实图像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102842122A true CN102842122A (zh) | 2012-12-26 |
Family
ID=47369447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012102283078A Pending CN102842122A (zh) | 2012-06-21 | 2012-06-21 | 基于小波神经网络的增强现实图像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102842122A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104615635A (zh) * | 2014-11-10 | 2015-05-13 | 南方医科大学 | 基于方向特征的手掌静脉分类索引构建方法 |
CN105208265A (zh) * | 2015-07-31 | 2015-12-30 | 维沃移动通信有限公司 | 一种演示拍摄方法及终端 |
CN105828021A (zh) * | 2015-01-05 | 2016-08-03 | 沈阳新松机器人自动化股份有限公司 | 基于增强现实技术的特种机器人图像采集控制方法及系统 |
CN107358215A (zh) * | 2017-07-20 | 2017-11-17 | 重庆工商大学 | 一种应用于手饰增强现实系统的图像处理方法 |
CN109146829A (zh) * | 2018-06-20 | 2019-01-04 | 深圳大学 | 基于小波神经网络的图像融合方法、装置、设备及介质 |
CN110415180A (zh) * | 2019-06-10 | 2019-11-05 | 西安电子科技大学 | 一种基于小波卷积神经网络的sar图像去噪方法 |
CN110462689A (zh) * | 2017-04-05 | 2019-11-15 | 通用电气公司 | 基于深度学习的断层摄影重建 |
CN113221891A (zh) * | 2021-05-12 | 2021-08-06 | 佛山育脉科技有限公司 | 掌静脉图像的识别角度的调整方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060281971A1 (en) * | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
CN101375805A (zh) * | 2007-12-29 | 2009-03-04 | 清华大学深圳研究生院 | 一种计算机辅助引导电子内窥镜操作的方法和系统 |
CN101862205A (zh) * | 2010-05-25 | 2010-10-20 | 中国人民解放军第四军医大学 | 一种结合术前影像的术中组织跟踪方法 |
-
2012
- 2012-06-21 CN CN2012102283078A patent/CN102842122A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060281971A1 (en) * | 2005-06-14 | 2006-12-14 | Siemens Corporate Research Inc | Method and apparatus for minimally invasive surgery using endoscopes |
CN101375805A (zh) * | 2007-12-29 | 2009-03-04 | 清华大学深圳研究生院 | 一种计算机辅助引导电子内窥镜操作的方法和系统 |
CN101862205A (zh) * | 2010-05-25 | 2010-10-20 | 中国人民解放军第四军医大学 | 一种结合术前影像的术中组织跟踪方法 |
Non-Patent Citations (3)
Title |
---|
周平 等: "一种基于小波变换的配准特征点自动标记算法", 《北京生物医学工程》, vol. 26, no. 4, 31 August 2007 (2007-08-31) * |
罗小刚 等: "基于Radon变换与功率谱结合的心脏MR图像配准算法", 《计算机科学》, vol. 39, no. 4, 30 April 2012 (2012-04-30) * |
舒小华: "小波神经网络在图像配准中的应用", 《计算机工程与应用》, vol. 48, no. 31, 21 March 2012 (2012-03-21) * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104615635A (zh) * | 2014-11-10 | 2015-05-13 | 南方医科大学 | 基于方向特征的手掌静脉分类索引构建方法 |
CN104615635B (zh) * | 2014-11-10 | 2018-06-05 | 南方医科大学 | 基于方向特征的手掌静脉分类索引构建方法 |
CN105828021A (zh) * | 2015-01-05 | 2016-08-03 | 沈阳新松机器人自动化股份有限公司 | 基于增强现实技术的特种机器人图像采集控制方法及系统 |
CN105208265A (zh) * | 2015-07-31 | 2015-12-30 | 维沃移动通信有限公司 | 一种演示拍摄方法及终端 |
CN110462689A (zh) * | 2017-04-05 | 2019-11-15 | 通用电气公司 | 基于深度学习的断层摄影重建 |
CN110462689B (zh) * | 2017-04-05 | 2023-06-02 | 通用电气公司 | 基于深度学习的断层摄影重建 |
CN107358215A (zh) * | 2017-07-20 | 2017-11-17 | 重庆工商大学 | 一种应用于手饰增强现实系统的图像处理方法 |
CN107358215B (zh) * | 2017-07-20 | 2020-10-09 | 重庆工商大学 | 一种应用于手饰增强现实系统的图像处理方法 |
CN109146829A (zh) * | 2018-06-20 | 2019-01-04 | 深圳大学 | 基于小波神经网络的图像融合方法、装置、设备及介质 |
CN110415180A (zh) * | 2019-06-10 | 2019-11-05 | 西安电子科技大学 | 一种基于小波卷积神经网络的sar图像去噪方法 |
CN110415180B (zh) * | 2019-06-10 | 2021-11-02 | 西安电子科技大学 | 一种基于小波卷积神经网络的sar图像去噪方法 |
CN113221891A (zh) * | 2021-05-12 | 2021-08-06 | 佛山育脉科技有限公司 | 掌静脉图像的识别角度的调整方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102842122A (zh) | 基于小波神经网络的增强现实图像方法 | |
Yang et al. | Research on feature extraction of tumor image based on convolutional neural network | |
Li et al. | Infrared and visible image fusion scheme based on NSCT and low-level visual features | |
Lefkimmiatis et al. | Hessian Schatten-norm regularization for linear inverse problems | |
Yang et al. | Log-Gabor energy based multimodal medical image fusion in NSCT domain | |
AlZu’bi et al. | Multi-orientation geometric medical volumes segmentation using 3d multiresolution analysis | |
CN104657965B (zh) | 基于离散连续曲波的偏振图像融合方法 | |
Kaur et al. | A comprehensive review of denoising techniques for abdominal CT images | |
CN111429391B (zh) | 一种红外和可见光图像融合方法、融合系统及应用 | |
CN103295234B (zh) | 基于形变表面模型的医学图像分割系统及方法 | |
Li et al. | A novel multi-modal medical image fusion algorithm | |
CN105405132A (zh) | 基于视觉反差和信息熵的sar图像人造目标检测方法 | |
Rajalingam et al. | Review of multimodality medical image fusion using combined transform techniques for clinical application | |
CN105512670B (zh) | 基于keca特征降维和聚类的hrct周围神经分割 | |
Cao et al. | Research for face image super-resolution reconstruction based on wavelet transform and SRGAN | |
CN108648174A (zh) | 一种基于自动对焦技术的多层图像融合方法及系统 | |
CN112150564A (zh) | 基于深度卷积神经网络医学图像融合算法 | |
Gebremeskel | A critical analysis of the multi-focus image fusion using discrete wavelet transform and computer vision | |
Zhang et al. | Deep image translation for enhancing simulated ultrasound images | |
Chauhan et al. | Medical image fusion methods: Review and application in cardiac diagnosis | |
Sebastian et al. | Fusion of multimodality medical images-A review | |
Muthiah et al. | Fusion of MRI and PET images using deep learning neural networks | |
CN112967295B (zh) | 一种基于残差网络和注意力机制的图像处理方法及系统 | |
Al-Azzawi et al. | An efficient medical image fusion method using contourlet transform based on PCM | |
Guo | Real-time medical image denoising and information hiding model based on deep wavelet multiscale autonomous unmanned analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20121226 |