CN106028043B - 基于新的邻域函数的三维自组织映射图像编码方法 - Google Patents
基于新的邻域函数的三维自组织映射图像编码方法 Download PDFInfo
- Publication number
- CN106028043B CN106028043B CN201610316588.0A CN201610316588A CN106028043B CN 106028043 B CN106028043 B CN 106028043B CN 201610316588 A CN201610316588 A CN 201610316588A CN 106028043 B CN106028043 B CN 106028043B
- Authority
- CN
- China
- Prior art keywords
- vector
- pattern
- trained
- image
- neighborhood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开一种基于新的邻域函数的三维自组织映射图像编码方法,首先,对图像样本进行不断学习训练,得到最佳匹配模式库;其次,对待编码的图像进行分块处理,并将这些待编码图像块与最佳匹配模式库中的模式矢量进行图像模式匹配,编码每个块在模式库中的匹配模式的索引。本发明具有模式库调整速度快,模式库训练效率高的特点。
Description
技术领域
本发明涉及图像编码技术领域,具体涉及一种基于新的邻域函数的三维自组织映射图像编码方法。
背景技术
图像编码也称图像压缩,是指在满足一定质量(信噪比的要求或主观评价得分)的条件下,以较少比特数表示图像或图像中所包含信息的技术。基于神经网络的图像编码是近年来出现的一种新的图像编码方法。人工神经网络在图像压缩中的应用是通过初步模拟人体神经系统的局部初级功能,根据图像本身的特点,自主的对其进行压缩编码。自组织神经网络在图像编码邻域有广泛的应用。
自组织映射(Self-Organizing Map,简称SOM)算法是Kohonen从人脑神经元的组织原理上受到启发而提出的一种具有自组织特性的人工神经网络算法。该算法模拟了人脑神经系统对某一图形或某一频率特定兴奋的特征,同时考虑了可以人工实现的条件,在数据挖掘和图像模式识别等领域得到了深入的研究和应用,是一种高效的数据聚类方法。SOM网络采用双层网络结构,分为输入层和映射层,输入层用于感知输入模式,每个输入神经元通过权值与每个映射层神经元连接,映射层输出结果,映射层的神经元互相连接。传统SOM网络一般采用一维输入层和二维映射层,它能有效地处理一维和二维信号。近年来,三维图像和视频等三维信号的处理日益引起了关注,然而传统SOM算法并不能直接用于三维信号的处理。三维SOM算法很好地解决了这一问题,能有效地将二维输入映射为三维输出,实现了三维信号的非线性映射。
邻域函数是SOM算法的重要组成部分,为了保证收敛,需满足随迭代时间逐渐减小的原则。在训练的初始阶段,邻域半径较大,随着训练次数的增加,网络逐渐趋于稳定,只需对获胜节点进行较细微的权值调整,因而邻域半径不断缩小。邻域函数通常取线性函数或指数函数。然而,这些邻域函数存在一定问题,如模式库调整速度慢,模式库训练效率低等,影响了三维SOM算法的性能。
发明内容
本发明所要解决的技术问题是现有SOM算法的模式库调整速度慢和训练效率低的问题,提供一种基于新的邻域函数的三维自组织映射图像编码方法。
为解决上述问题,本发明是通过以下技术方案实现的:
基于新的邻域函数的三维自组织映射图像编码方法,包括如下步骤:
步骤1、对图像样本进行不断学习训练,得到最佳匹配模式库;
步骤1.1、对图像样本进行分块,每个图像块为一个训练矢量,共得到含L个训练矢量的训练矢量集;
步骤1.2、从训练矢量集中选择N个训练矢量来构成初始模式库,该初始模式库中的训练矢量称为模式矢量,且初始模式库中的模式矢量排列成三维立体结构;上述N<<L;
步骤1.3、设定邻域函数
其中,B0为最小邻域,B1为最大邻域,C1为邻域衰减常数、C2为训练次数;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数;
步骤1.4、输入一个训练矢量,并分别计算该训练矢量与初始模式库中的各个模式矢量的失真,从中选择出与训练矢量失真最小的模式矢量作为获胜模式矢量;
步骤1.5、调整获胜模式矢量及其三维邻域范围内的模式矢量;
步骤1.6、返回步骤1.4重新选择一个训练矢量,直到输入完所有的训练矢量,得到最佳匹配模式库;
步骤2、对待编码的图像进行分块处理,并将这些待编码图像块与最佳匹配模式库中的模式矢量进行图像模式匹配,编码每个块在模式库中的匹配模式的索引。
上述步骤1.2中,采用随机法从训练矢量集中选择N个训练矢量来构成初始模式库。
上述步骤1.4中,采用下式计算训练矢量与模式矢量的失真dj(t);
dj(t)=||X(t)-Wj(t)||2
其中,Wj(t)为模式矢量,X(t)为训练矢量;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数。
上述步骤1.5中,根据下式调整获胜模式矢量及其三维邻域范围内的模式矢量
其中,Wj(t+1)为第t+1次训练时的模式矢量,Wj(t)为第t次训练时的模式矢量,X(t)为训练矢量,j*为获胜模式矢量,为获胜模式矢量j*在第t次训练时的邻域函数,α(t)为第t次训练时的学习速度函数;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数。
上述步骤2具体为:
步骤2.1、将待编码的图像分块,其中待编码的图像分块大小与图像样本的分块大小相一致;
步骤2.2、分别计算每一个待编码图像块与最佳匹配模式库中各模式矢量的失真,并编码具有最小失真的模式矢量在模式库中的索引;
步骤2.3、对待编码的所有图像进行步骤2.2的处理,得到待编码的图像的码流。
与现有技术相比,本发明具有如下特点:模式库调整速度快,模式库训练效率高。
附图说明
图1为模式库的训练过程。
图2为三维自组织映射图像编码过程。
具体实施方式
下面结合实施例,对本发明内容作进一步地详细说明,但本发明的实施方式不限于此。
一种基于新的邻域函数的三维自组织映射图像编码方法,包括如下步骤:
步骤1)对图像样本进行不断训练,得到最佳匹配的模式库。参见图1。
步骤1.1)设定3DSOM网络大小为(N,M),其中N、M分别为模式库的大小、模式库中模式矢量的大小。
步骤1.2)对图像样本分块,块的大小一般取8×8。每个图像块为一个训练矢量,共得到含L个训练矢量的训练矢量集{X(t);t=0,1,…,L-1}。用随机法从训练矢量集中选择N(N<<L)个训练矢量来构成初始模式库{Wj(0);j=0,1,…,N-1},并将初始模式库中的模式矢量排列成三维立体结构。
步骤1.3)将初始化邻域设定为Nj(0),j=0,1,…,N-1。
步骤1.4)输入一个训练矢量集中的训练矢量X=(x1,x2,…,xM)T。
步骤1.5)选择均方误差失真准则,均方误差为dj(t)=||X(t)-Wj(t)||2,分别计算该训练矢量与模式库中各模式矢量的失真dj(t);并选择具有最小失真的模式矢量为获胜模式矢量j*。
步骤1.6)按下式调整获胜模式矢量j*及其三维邻域范围内的模式矢量,
其中,为邻域函数,通常选用单调递减函数B0、B1分别为获胜模式矢量j*的最小邻域和最大邻域,C1为邻域衰减常数,C2为训练次数。在训练的初始阶段,邻域半径较大,随着训练次数的增加,网络逐渐趋于稳定,只需对获胜节点进行较细微的权值调整,因而邻域半径不断缩小。α(t)为学习速度函数,它反映了模式矢量调整的幅度大小,一般选用单调递减函数式中A1为训练开始时的最大学习速度,T1为学习衰减常数。
步骤1.7)返回步骤1.4),直到输入完训练矢量集中所有的训练矢量,即得到最佳匹配模式库。
步骤2)对待编码图像进行图像模式识别,编码每个块在模式库中的匹配模式的索引。参见图2。
步骤2.1、将待编码图像分块,其中待编码图像分块大小与图像样本的分块大小一致;
步骤2.2、分别计算每一个待编码图像块与最佳匹配模式库中各模式矢量的失真,并选择具有最小失真的模式矢量作为该图像块的匹配模式,对该图像块编码时只编码其匹配模式在模式库中的索引;
采用均方误差准则即下式来计算待编码图像块与最佳匹配模式库中各模式矢量的失真bj(t′);
bj(t′)=||Y(t′)-Wj(t′)||2
其中,Wj(t′)为模式矢量,Y(t′)为待编码图像块;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t′=0,1,…,K-1,K为待编码图像块的个数。
步骤2.3、对待编码图像每一个子图像块进行步骤2.2的处理,完成了对图像的编码。
具体地,为了说明本方法的性能,做了大量的仿真实验,实验图像选择分辨率为512×512×8bit的标准亮度测试图像Lena、Peppers,用于模式库训练和图像编码。重建图像品质的客观评价采用峰值信噪比式中EMSE为原始图像与重建图像之间的均方误差。图像压缩比为式中M为模式矢量的维数,BO为原始图像的每像素比特数,BC为模式矢量地址比特数。
实验分别用基于指数邻域函数的三维SOM算法和基于本专利新的邻域函数的三维SOM算法设计图像模式识别模式库,并通过编码后重建图像的质量来比较基于这两种邻域函数的三维SOM算法的性能,其中训练矢量数为40960,模式库大小为1024。表1为选取不同实验图像时,基于指数邻域函数的三维SOM算法和基于本专利新的邻域函数的三维SOM算法用于图像模式识别编码的重建图像的峰值信噪比(PSNR)。
表1重建图像的PSNR
由表1可以看出,基于本专利新的邻域函数的三维SOM算法的性能比基于指数邻域函数的三维SOM算法提高了0.0909-0.3013dB。
Claims (5)
1.基于新的邻域函数的三维自组织映射图像编码方法,其特征是,包括如下步骤:
步骤1、对图像样本进行不断学习训练,得到最佳匹配模式库;
步骤1.1、对图像样本进行分块,每个图像块为一个训练矢量,共得到含L个训练矢量的训练矢量集;
步骤1.2、从训练矢量集中选择N个训练矢量来构成初始模式库,该初始模式库中的训练矢量称为模式矢量,且初始模式库中的模式矢量排列成三维立体结构;上述N<<L;
步骤1.3、设定邻域函数
其中,B0为最小邻域,B1为最大邻域,C1为邻域衰减常数、C2为训练次数;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数;
步骤1.4、输入一个训练矢量,并分别计算该训练矢量与初始模式库中的各个模式矢量的失真,从中选择出与训练矢量失真最小的模式矢量作为获胜模式矢量;
步骤1.5、调整获胜模式矢量及其三维邻域范围内的模式矢量;
步骤1.6、返回步骤1.4重新选择一个训练矢量,直到输入完所有的训练矢量,得到最佳匹配模式库;
步骤2、对待编码的图像进行分块处理,并将这些待编码图像块与最佳匹配模式库中的模式矢量进行图像模式匹配,编码每个块在模式库中的匹配模式的索引。
2.根据权利要求1所述基于新的邻域函数的三维自组织映射图像编码方法,其特征是,步骤1.2中,采用随机法从训练矢量集中选择N个训练矢量来构成初始模式库。
3.根据权利要求1所述基于新的邻域函数的三维自组织映射图像编码方法,其特征是,步骤1.4中,采用下式计算训练矢量与模式矢量的失真dj(t);
dj(t)=||X(t)-Wj(t)||2
其中,Wj(t)为模式矢量,X(t)为训练矢量;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数。
4.根据权利要求1所述基于新的邻域函数的三维自组织映射图像编码方法,其特征是,步骤1.5中,根据下式调整获胜模式矢量及其三维邻域范围内的模式矢量
其中,Wj(t+1)为第t+1次训练时的模式矢量,Wj(t)为第t次训练时的模式矢量,X(t)为训练矢量,j*为获胜模式矢量,为获胜模式矢量j*在第t次训练时的邻域函数,α(t)为第t次训练时的学习速度函数;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为训练矢量集中训练矢量的个数。
5.根据权利要求1所述基于新的邻域函数的三维自组织映射图像编码方法,其特征是,步骤2具体为:
步骤2.1、将待编码的图像分块,其中待编码的图像分块大小与图像样本的分块大小相一致;
步骤2.2、分别计算每一个待编码图像块与最佳匹配模式库中各模式矢量的失真,并编码具有最小失真的模式矢量在模式库中的索引;
步骤2.3、对待编码的所有图像进行步骤2.2的处理,得到待编码的图像的码流。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610316588.0A CN106028043B (zh) | 2016-05-13 | 2016-05-13 | 基于新的邻域函数的三维自组织映射图像编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610316588.0A CN106028043B (zh) | 2016-05-13 | 2016-05-13 | 基于新的邻域函数的三维自组织映射图像编码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106028043A CN106028043A (zh) | 2016-10-12 |
CN106028043B true CN106028043B (zh) | 2018-08-31 |
Family
ID=57099434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610316588.0A Active CN106028043B (zh) | 2016-05-13 | 2016-05-13 | 基于新的邻域函数的三维自组织映射图像编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106028043B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108184113B (zh) * | 2017-12-05 | 2021-12-03 | 上海大学 | 一种基于图像间参考的图像压缩编码方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103763565A (zh) * | 2014-01-24 | 2014-04-30 | 桂林电子科技大学 | 基于三维自组织映射的视差图像编码方法 |
CN104363460A (zh) * | 2014-12-05 | 2015-02-18 | 桂林电子科技大学 | 一种基于三维自组织映射的立体图像编码方法 |
CN104700121A (zh) * | 2015-01-28 | 2015-06-10 | 桂林电子科技大学 | 基于均值/方差分类的三维som初始化模式库生成方法 |
EP2908533A1 (en) * | 2012-10-09 | 2015-08-19 | Huawei Technologies Co., Ltd. | Method and device for building candidate vector list |
CN105306946A (zh) * | 2015-11-10 | 2016-02-03 | 桂林电子科技大学 | 一种基于均方误差门限的质量可分级视频编码方法 |
-
2016
- 2016-05-13 CN CN201610316588.0A patent/CN106028043B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2908533A1 (en) * | 2012-10-09 | 2015-08-19 | Huawei Technologies Co., Ltd. | Method and device for building candidate vector list |
CN103763565A (zh) * | 2014-01-24 | 2014-04-30 | 桂林电子科技大学 | 基于三维自组织映射的视差图像编码方法 |
CN104363460A (zh) * | 2014-12-05 | 2015-02-18 | 桂林电子科技大学 | 一种基于三维自组织映射的立体图像编码方法 |
CN104700121A (zh) * | 2015-01-28 | 2015-06-10 | 桂林电子科技大学 | 基于均值/方差分类的三维som初始化模式库生成方法 |
CN105306946A (zh) * | 2015-11-10 | 2016-02-03 | 桂林电子科技大学 | 一种基于均方误差门限的质量可分级视频编码方法 |
Non-Patent Citations (2)
Title |
---|
"Exploration of FPGA-based dense block matching for motion estimation and stereo vision on a single chip";SAHLBACH H;《IEEE Intelligent Vehicles Symposium》;20131231;全文 * |
"一种新的基于自组织神经网络的运动估计算法";黎洪松,许保华,刘宏立;《湖南大学学报》;20060831;第33卷(第4期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN106028043A (zh) | 2016-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6682595B2 (ja) | イメージセグメンテーションのための学習方法及び学習装置、そしてこれを利用したイメージセグメンテーション方法及びイメージセグメンテーション装置 | |
CN109543745A (zh) | 基于条件对抗自编码网络的特征学习方法及图像识别方法 | |
Pareek et al. | IntOPMICM: intelligent medical image size reduction model | |
CN103971329B (zh) | 一种基于遗传优化细胞神经网络的多源图像融合方法 | |
CN110163815A (zh) | 基于多阶段变分自编码器的低照度还原方法 | |
CN108932536A (zh) | 基于深度神经网络的人脸姿态重建方法 | |
CN110084773A (zh) | 一种基于深度卷积自编码网络的图像融合方法 | |
CN111797891A (zh) | 基于生成对抗网络的非成对异质人脸图像生成方法、装置 | |
US8407168B2 (en) | Codebook generating method | |
CN114897694A (zh) | 基于混合注意力和双层监督的图像超分辨率重建方法 | |
CN114549273A (zh) | 基于深度神经网络的自适应鲁棒水印嵌入方法及系统 | |
CN110647891B (zh) | 基于cnn和自编码器时序数据特征自动提取方法及系统 | |
Muruganandham et al. | Adaptive fractal image compression using PSO | |
CN106028043B (zh) | 基于新的邻域函数的三维自组织映射图像编码方法 | |
He et al. | End-to-end facial image compression with integrated semantic distortion metric | |
Li et al. | Steganography of steganographic networks | |
CN112581550A (zh) | 一种基于生成对抗网络的非匹配图像风格转换方法 | |
CN106023272B (zh) | 基于新的学习函数的三维自组织映射图像编码方法 | |
CN108259914B (zh) | 基于物体库的云图像编码方法 | |
US8285053B2 (en) | Codebook generating method | |
CN110378467A (zh) | 一种针对深度学习网络参数的量化方法 | |
CN116155873A (zh) | 一种云边协同的图像处理方法、系统、设备及介质 | |
Rajput et al. | Modeling of neural image compression using GA and BP: a comparative approach | |
CN104700121A (zh) | 基于均值/方差分类的三维som初始化模式库生成方法 | |
Venkatasekhar et al. | Fast search strategies using optimization for fractal image compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |