CN108596222A - 基于反卷积神经网络的图像融合方法 - Google Patents

基于反卷积神经网络的图像融合方法 Download PDF

Info

Publication number
CN108596222A
CN108596222A CN201810319978.2A CN201810319978A CN108596222A CN 108596222 A CN108596222 A CN 108596222A CN 201810319978 A CN201810319978 A CN 201810319978A CN 108596222 A CN108596222 A CN 108596222A
Authority
CN
China
Prior art keywords
image
characteristic pattern
neural network
deconvolution neural
fused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810319978.2A
Other languages
English (en)
Other versions
CN108596222B (zh
Inventor
那彦
刘强强
王强军
刘赫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810319978.2A priority Critical patent/CN108596222B/zh
Publication of CN108596222A publication Critical patent/CN108596222A/zh
Application granted granted Critical
Publication of CN108596222B publication Critical patent/CN108596222B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种基于反卷积神经网络的图像融合方法,用于解决现有变换域图像融合方法中存在的融合图像信息熵较低的技术问题。实现步骤为:设置反卷积神经网络;获取训练样本集;用训练样本集对反卷积神经网络进行训练;用训练好的反卷积神经网络推断待融合图像的特征图;对待融合图像的特征图进行融合;用融合后的特征图和训练好的反卷积神经网络中的滤波器进行卷积求和,获得融合图像。本发明可以灵活设置待融合图像的特征图的个数,提取到更有利于全面反映待融合图像信息的特征图,进而得到信息更丰富的融合图像,提高融合图像的信息熵,可应用于多聚焦和医学领域中图像的分析处理。

Description

基于反卷积神经网络的图像融合方法
技术领域
本发明属于图像处理技术领域,涉及一种图像融合方法,具体涉及一种基于反卷积神经网络的图像融合方法,可用于多聚焦、医学领域中图像的分析与处理。
背景技术
反卷积神经网络是深度学习中的一种网络模型,它通过无监督的训练,能够用训练好的网络来推断输入图像的多个特征图,并且利用这些推断出的特征图和反卷积神经网络的滤波器可以实现对原图像的复原重构。
图像融合是将来自多个传感器的包含不同信息的多幅图像按一定的融合规则进行综合,以得到一幅同时包含融合前多幅源图像的优点、内容更为丰富的融合图像的过程。图像融合技术可以综合多幅源图像的互补信息和冗余信息,克服单一传感器的缺点,降低对单一传感器的性能要求,降低了对原始图像质量和信息量的要求,增加了图像的信息量,在很大程度上提高了图像质量,目前在测绘、医学、工业产品检测等领域的应用十分广泛。
目前实际应用中,对图像进行融合时使用的最多的方法是像素级图像融合方法。像素级图像融合方法分为空间域和变换域的两种融合方法,但空间域的融合方法只是在空间域对图像的像素进行简单运算,效果不及变换域的融合方法,变换域图像融合方法主要有基于多尺度变换的融合方法和基于稀疏表示的融合方法。
基于多尺度变换的融合方法是将待融合图像和多尺度函数进行卷积,通过不断改变多尺度函数的参数,将待融合图像在不同尺度层次进行分解,得到不同层次的子图像,然后根据不同子图像的特征,采用相应的融合规则将子图像进行融合,最后再将这些融合后的子图像通过多尺度反变换,得到最终的融合图像。由于多尺度变换方法得到子图像的信息和原始图像相比逐渐减少,细节信息逐渐被平滑掉,使得融合得到的图像不能完全反映原始图像的全部内容,因此融合后的图像包含的信息较少,融合结果信息熵较低。
基于稀疏表示的融合方法是通过一个给定的过完备字典得到原图像变换后的稀疏系数,然后将这些稀疏系数融合得到融合系数,再用融合系数与过完字典进行重构,得到最后的融合图像。这种方法是建立在图像空间足够大的条件下,同时要求选择一个过完备字典,使得任意一幅同类的图像都可以通过此类的图像子空间进行线性表示,并且要求图像要大致中心一致对齐。在实际应用中,通常难以选择一个合适的过完备字典,使得融合得到的图像缺失了部分有效的信息,融合结果的信息熵较低。
发明内容
本发明的目的是针对上述现有技术的不足,提出了一种基于反卷积神经网络的图像融合方法,用于解决现有变换域图像融合方法中存在的融合图像信息熵较低的技术问题。
本发明的技术思路是,首先用训练样本集对反卷积神经网络进行训练,得到包含一组滤波器的训练好的反卷积神经网络,然后用训练好的反卷积神经网络对两幅待融合图像进行推断,得到两幅待融合图像各自对应的特征图,接着将待融合图像的特征图进行融合,得到融合后的特征图,最后用融合后的特征图和反卷积神经网络中的滤波器进行卷积,将卷积结果求和,得到融合图像。具体包括有如下步骤:
(1)设置反卷积神经网络:
设置反卷积神经网络中的特征图个数和滤波器个数均为K,并将K个滤波器标记为{f1,f2,...,fK},K≥1;
(2)获取训练样本集:
选择与待融合图像类型和大小相同的M幅图像作为训练样本集,M≥2;
(3)对反卷积神经网络进行训练:
设置反卷积神经网络的训练总循环轮数为E,并通过训练样本集对反卷积神经网络进行E轮训练,得到训练好的反卷积神经网络;
(4)推断待融合图像的特征图:
将待融合图像A和待融合图像B分别输入到训练好的反卷积神经网络,并采用ISTA方法,分别推断待融合图像A和待融合图像B的特征图,得到待融合图像A的K个特征图{A1,A2,...,AK}和待融合图像B的K个特征图{B1,B2,...,BK};
(5)对特征图{A1,A2,...,AK}和特征图{B1,B2,...,BK}进行融合:
对特征图{A1,A2,...,AK}中的特征图Ak与特征图{B1,B2,...,BK}中对应标号的特征图Bk进行融合,得到K个融合特征图{F1,F2,...,FK},其中,k=1,2,...,K;
(6)获取融合图像:
将融合特征图{F1,F2,...,FK}中的特征图Ft与反卷积神经网络的滤波器{f1,f2,...,fK}中对应标号的滤波器ft进行卷积,并对K个卷积结果进行相加,得到融合图像F,其中t=1,2,...,K。
本发明与现有的技术相比,具有以下优点:
本发明在获取待融合图像的特征图时,是通过训练好的反卷积神经网络推断实现的,可以灵活设置特征图的个数,得到多个反映待融合图像信息的特征图,避免了现有的变换域图像方法在对待融合图像变换后,得到的子图像难以全面反映待融合图像特征的缺点,能够实现对待融合图像更好的融合,得到包含更丰富的信息的融合图像,提高融合图像的信息熵,可用于多聚焦和医学图像的融合。
附图说明
图1是本发明的实现流程图;
图2是本发明实施例中的训练好的反卷积神经网络中的滤波器;
图3是本发明实施例中的两幅待融合图像。
图4是本发明实施例中的两幅待融合图像的特征图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,基于反卷积神经网络的图像融合方法,包括如下步骤:
步骤1,设置反卷积神经网络:
设置反卷积神经网络中的特征图个数和滤波器个数均为6,并将6个滤波器标记为{f1,f2,...,f6};
步骤2,获取训练样本集:
选择与待融合图像类型和大小相同的20幅图像作为训练样本集,M≥2;
步骤3,对反卷积神经网络进行训练:
步骤3a,设置训练反卷积神经网络的训练总循环轮数为5;
步骤3b,对反卷积神经网络的6个滤波器的每个像素赋一个随机值,实现对反卷积神经网络的初始化;
步骤3c,从训练样本集中每次随机选取一幅图像y,将y输入到反卷积神经网络中,采用ISTA方法推断y对应的特征图,具体方法是,先对y的6个特征图{z1,z2,...,z6}进行随机初始化,然后将以下过程进行5次迭代循环:
用y的特征图zk和反卷积神经网络中的滤波器fk进行卷积,其中,k=1,2,...,6,得到6个卷积结果,然后将这6个卷积结果相加,得到输入图像y的近似重构图像用近似重构图像和输入图像y构造误差函数,接着对误差函数关于特征图求梯度g,再根据zk=zk-λβg的计算方法更新y的特征图zk,其中λ是一个权重系数,本实施例中λ取100,β是ISTA方法的迭代步长,本实施例中β取10。
当训练集中的20幅图像都选择完,并对各幅图像推断它们各自对应的特征图后,执行步骤3d。
步骤3d,采用梯度下降法对反卷积神经网络中的6个滤波器进行更新,并循环重复步骤3c~3d,直到循环轮数达到步骤3a中设置的总循环轮数5,得到训练好的反卷积神经网络。参照图2,训练好的反卷积神经网络中包含6个滤波器{f1,f2,...,f6},这6个滤波器的内容各不相同,因此对于输入到训练好的反卷积神经网络中的图像,推断它的特征图时,可以得到反映输入图像不同方面的信息的特征图。
步骤4,推断待融合图像的特征图:
参照图3,是本实施例中的两幅待融合图像,其中图3(a)是一幅左聚焦图像,记为待融合图像A,图3(b)是一幅右聚焦图像,记为待融合图像B,将它们分别输入到训练好的反卷积神经网络中,并采用ISTA方法推断输入的待融合图像对应的特征图,具体过程是,先对输入的待融合图像随机初始化6个特征图{z1,z2,...,z6},然后将以下过程进行5次迭代循环:
用待融合图像的特征图zk和反卷积神经网络中的滤波器fk进行卷积,其中,k=1,2,...,6,得到6个卷积结果,然后将这6个卷积结果相加,得到输入到反卷积神经网络中的待融合图像的近似重构图像,用近似重构图像和输入的待融合图像构造误差函数,接着对误差函数关于特征图求梯度g,再根据zk=zk-λβg的计算方法更新输入的待融合图像的特征图zk,其中λ是一个权重系数,本实施例中λ取100,β是ISTA方法的迭代步长,本实施例中β取10。
对两幅待融合图像按以上方法分别推断出它们的特征图,参照图4,其中图4(a)是待融合图像A的6个特征图{A1,A2,...,A6},图4(b)是待融合图像B的6个特征图{B1,B2,...,B6},由于待融合图像的6个特征图各不相同,它们分别反映了待融合图像不同方面的特征信息,因此将它们融合后可以得到能够全面反映两幅待融合图像信息的融合特征图,在融合特征图的基础上得到的融合图像包含更丰富的信息,信息熵得以提升。
步骤5,对特征图{A1,A2,...,A6}和特征图{B1,B2,...,B6}进行融合:
将待融合图像A的特征图{A1,A2,...,A6}中的每个特征图Ak,与待融合图像A的特征图{B1,B2,...,B6}中对应标号的特征图Bk进行融合,得到融合特征图Fk。融合的方法是比较两幅特征图中相同位置的像素值的绝对值的大小,将绝对值较大的那个像素值作为融合特征图相应位置的像素值,具体方法为:首先求取特征图Ak中每个点(i,j)处的像素值Ak(i,j)的绝对值|Ak(i,j)|,然后求取特征图Bk中与特征图Ak对应位置处像素值Bk(i,j)的绝对值|Bk(i,j)|,其中i和j分别是特征图Ak的行坐标和列坐标,最后计算融合特征图Fk在每个点(i,j)处的像素值Fk(i,j),得到融合特征图Fk,其中,像素值Fk(i,j)的计算公式为:
将待融合图像A的6个特征图{A1,A2,...,A6}和待融合图像B的6个特征图{B1,B2,...,B6}都融合后,最终得到6个融合特征图{F1,F2,...,F6}。
步骤6,获取融合图像:
用融合特征图和反卷积神经网络的滤波器进行卷积求和,得到融合图像。具体方法为:将融合特征图{F1,F2,...,F6}中的特征图Ft与反卷积神经网络的滤波器{f1,f2,...,f6}中对应标号的滤波器ft进行卷积,得到6个卷积结果,然后将这6个卷积结果相加,得到融合图像F,其中t=1,2,...,6。
以下结合仿真实验,对本发明的技术效果作一说明。
1.仿真条件和内容:
硬件平台为:Intel Core5CPU,主频2.40GHz,内存10.0GB,软件平台为:Windows10操作系统、Matlab 2015b,实验中所用的两幅待融合图像是一幅左聚焦图像和一幅右聚焦图像。
分别用本发明方法、基于多尺度分析方法中的小波变换方法以及基于稀疏表示的方法对两幅待融合图像进行融合仿真实验。
2.仿真结果分析:
对三种方法得到融合图像分别计算信息熵,本发明方法得到的融合图像的信息熵是7.4221,基于多尺度分析方法中的小波变换方法得到的融合图像的信息熵是7.2985,基于稀疏表示的方法得到融合图像的信息熵是7.3197,对比可以看到本发明方法提升了融合图像的信息熵。

Claims (3)

1.一种基于反卷积神经网络的图像融合方法,其特征在于,包括如下步骤:
(1)设置反卷积神经网络:
设置反卷积神经网络中的特征图个数和滤波器个数均为K,并将K个滤波器标记为{f1,f2,...,fK},K≥1;
(2)获取训练样本集:
选择与待融合图像类型和大小相同的M幅图像作为训练样本集,M≥2;
(3)对反卷积神经网络进行训练:
设置反卷积神经网络的训练总循环轮数为E,并通过训练样本集对反卷积神经网络进行E轮训练,得到训练好的反卷积神经网络;
(4)推断待融合图像的特征图:
将待融合图像A和待融合图像B分别输入到训练好的反卷积神经网络,并采用ISTA方法,分别推断待融合图像A和待融合图像B的特征图,得到待融合图像A的K个特征图{A1,A2,...,AK}和待融合图像B的K个特征图{B1,B2,...,BK};
(5)对特征图{A1,A2,...,AK}和特征图{B1,B2,...,BK}进行融合:
对特征图{A1,A2,...,AK}中的特征图Ak与特征图{B1,B2,...,BK}中对应标号的特征图Bk进行融合,得到K个融合特征图{F1,F2,...,FK},其中,k=1,2,...,K;
(6)获取融合图像:
将融合特征图{F1,F2,...,FK}中的特征图Ft与反卷积神经网络的滤波器{f1,f2,...,fK}中对应标号的滤波器ft进行卷积,并对K个卷积结果进行相加,得到融合图像F,其中t=1,2,...,K。
2.根据权利要求1所述的基于反卷积神经网络的图像融合方法,其特征在于,步骤(3)所述的对反卷积神经网络进行训练,实现步骤如下:
(3a)设置训练反卷积神经网络的训练总循环轮数为E;
(3b)对反卷积神经网络的K个滤波器的每个像素赋一个随机值,实现对反卷积神经网络的初始化;
(3c)从训练样本集中每次随机选取一幅图像,输入反卷积神经网络中,并采用ISTA方法推断选取的各图像对应的K个特征图,得到M个训练样本对应的M×K个特征图;
(3d)采用梯度下降法对反卷积神经网络中的K个滤波器进行更新,并循环重复步骤(3c)~(3d),直到循环轮数达到步骤(3a)中设置的总循环轮数E,得到训练好的包含K个滤波器的反卷积神经网络。
3.根据权利要求1所述的基于反卷积神经网络的图像融合方法,其特征在于,步骤(5)所述的对特征图{A1,A2,...,AK}中的特征图Ak与特征图{B1,B2,...,BK}中对应标号的特征图Bk进行融合,实现步骤如下:
(5a)求取特征图Ak中每个点(i,j)处的像素值Ak(i,j)的绝对值|Ak(i,j)|,并求取特征图Bk中与特征图Ak对应位置处像素值Bk(i,j)的绝对值|Bk(i,j)|,其中i和j分别是特征图Ak的行坐标和列坐标;
(5b)计算融合特征图Fk在每个点(i,j)处的像素值Fk(i,j),得到融合特征图Fk,其中,像素值Fk(i,j)的计算公式为:
CN201810319978.2A 2018-04-11 2018-04-11 基于反卷积神经网络的图像融合方法 Active CN108596222B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810319978.2A CN108596222B (zh) 2018-04-11 2018-04-11 基于反卷积神经网络的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810319978.2A CN108596222B (zh) 2018-04-11 2018-04-11 基于反卷积神经网络的图像融合方法

Publications (2)

Publication Number Publication Date
CN108596222A true CN108596222A (zh) 2018-09-28
CN108596222B CN108596222B (zh) 2021-05-18

Family

ID=63621616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810319978.2A Active CN108596222B (zh) 2018-04-11 2018-04-11 基于反卷积神经网络的图像融合方法

Country Status (1)

Country Link
CN (1) CN108596222B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445457A (zh) * 2018-10-18 2019-03-08 广州极飞科技有限公司 分布信息的确定方法、无人飞行器的控制方法及装置
CN109544492A (zh) * 2018-10-25 2019-03-29 东南大学 一种基于卷积神经网络的多聚焦图像融合数据集制作方法
CN109712150A (zh) * 2018-12-26 2019-05-03 航天恒星科技有限公司 基于稀疏表示的光学微波图像融合重建方法和装置
CN109919892A (zh) * 2019-03-18 2019-06-21 西安电子科技大学 滤波器预置深度学习神经网络的图像融合方法
CN109934240A (zh) * 2019-03-12 2019-06-25 深圳市商汤科技有限公司 特征更新方法及装置、电子设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103975577A (zh) * 2011-10-07 2014-08-06 菲力尔系统公司 智能监视摄像机系统及方法
CN104361363A (zh) * 2014-11-25 2015-02-18 中国科学院自动化研究所 深度反卷积特征学习网络、生成方法及图像分类方法
CN104978721A (zh) * 2015-06-30 2015-10-14 厦门大学 基于变分正则化的大气扰动图像恢复方法
CN105631828A (zh) * 2015-12-29 2016-06-01 华为技术有限公司 一种处理图像的方法及装置
CN105761214A (zh) * 2016-01-14 2016-07-13 西安电子科技大学 基于轮廓波变换与引导滤波的遥感图像融合方法
US20170140253A1 (en) * 2015-11-12 2017-05-18 Xerox Corporation Multi-layer fusion in a convolutional neural network for image classification
US20180018796A1 (en) * 2016-07-15 2018-01-18 Wisconsin Alumni Research Foundation System and method for high-temporal resolution, time-resolved cone beam ct angiography

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103975577A (zh) * 2011-10-07 2014-08-06 菲力尔系统公司 智能监视摄像机系统及方法
CN104361363A (zh) * 2014-11-25 2015-02-18 中国科学院自动化研究所 深度反卷积特征学习网络、生成方法及图像分类方法
CN104978721A (zh) * 2015-06-30 2015-10-14 厦门大学 基于变分正则化的大气扰动图像恢复方法
US20170140253A1 (en) * 2015-11-12 2017-05-18 Xerox Corporation Multi-layer fusion in a convolutional neural network for image classification
CN105631828A (zh) * 2015-12-29 2016-06-01 华为技术有限公司 一种处理图像的方法及装置
CN105761214A (zh) * 2016-01-14 2016-07-13 西安电子科技大学 基于轮廓波变换与引导滤波的遥感图像融合方法
US20180018796A1 (en) * 2016-07-15 2018-01-18 Wisconsin Alumni Research Foundation System and method for high-temporal resolution, time-resolved cone beam ct angiography

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MATTHEW D. ZEILER ET AL.: "Deconvolutional Networks", 《2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
陈莹 等: "深度学习表达的图像特征训练与融合算法", 《江苏师范大学学报(自然科学版)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445457A (zh) * 2018-10-18 2019-03-08 广州极飞科技有限公司 分布信息的确定方法、无人飞行器的控制方法及装置
CN109544492A (zh) * 2018-10-25 2019-03-29 东南大学 一种基于卷积神经网络的多聚焦图像融合数据集制作方法
CN109712150A (zh) * 2018-12-26 2019-05-03 航天恒星科技有限公司 基于稀疏表示的光学微波图像融合重建方法和装置
CN109934240A (zh) * 2019-03-12 2019-06-25 深圳市商汤科技有限公司 特征更新方法及装置、电子设备和存储介质
CN109934240B (zh) * 2019-03-12 2021-11-26 深圳市商汤科技有限公司 特征更新方法及装置、电子设备和存储介质
CN109919892A (zh) * 2019-03-18 2019-06-21 西安电子科技大学 滤波器预置深度学习神经网络的图像融合方法

Also Published As

Publication number Publication date
CN108596222B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
CN108596222A (zh) 基于反卷积神经网络的图像融合方法
Lal et al. NucleiSegNet: Robust deep learning architecture for the nuclei segmentation of liver cancer histopathology images
Kobler et al. Variational networks: connecting variational methods and deep learning
Kumar et al. Breast cancer classification of image using convolutional neural network
He et al. Towards topological correct segmentation of macular OCT from cascaded FCNs
Hervella et al. Retinal image understanding emerges from self-supervised multimodal reconstruction
CN109754402A (zh) 图像处理方法、图像处理装置以及存储介质
CN109754403A (zh) 一种ct图像内的肿瘤自动分割方法及系统
Wang et al. Central and peripheral vision for scene recognition: A neurocomputational modeling exploration
CN104657776B (zh) 神经网络系统、基于神经网络系统的图像解析方法和装置
CN110059717A (zh) 用于乳腺钼靶数据集的卷积神经网络自动分割方法及系统
CN110084773A (zh) 一种基于深度卷积自编码网络的图像融合方法
JP7378642B2 (ja) 生成的非線形人間形状モデル
CN106408550A (zh) 一种改进的自适应多字典学习的图像超分辨率重建方法
CN108053398A (zh) 一种半监督特征学习的黑色素瘤自动检测方法
CN109816630A (zh) 基于迁移学习的fMRI视觉编码模型构建方法
CN110415253A (zh) 一种基于深度神经网络的点交互式医学图像分割方法
CN116051494A (zh) 基于傅里叶的元学习领域泛化的少样本医学图像分割方法
Li et al. Attention-based adaptive feature selection for multi-stage image dehazing
Nagarajan et al. Relevance-based channel selection in motor imagery brain–computer interface
CN111626296A (zh) 基于深度神经网络的医学图像分割系统及方法、终端
Shocher et al. Internal distribution matching for natural image retargeting
Gomariz et al. Unsupervised domain adaptation with contrastive learning for OCT segmentation
Jiang et al. Learning geometry-dependent and physics-based inverse image reconstruction
Diaz-Pinto et al. Retinal image synthesis for glaucoma assessment using DCGAN and VAE models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant