CN106127217B - 用于近似深入神经网络以用于解剖对象检测的方法和系统 - Google Patents

用于近似深入神经网络以用于解剖对象检测的方法和系统 Download PDF

Info

Publication number
CN106127217B
CN106127217B CN201610296717.4A CN201610296717A CN106127217B CN 106127217 B CN106127217 B CN 106127217B CN 201610296717 A CN201610296717 A CN 201610296717A CN 106127217 B CN106127217 B CN 106127217B
Authority
CN
China
Prior art keywords
neural network
housebroken
layer
weight
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610296717.4A
Other languages
English (en)
Other versions
CN106127217A (zh
Inventor
D.科马尼丘
B.乔治斯库
J.克雷奇默
N.莱
刘大元
H.阮
V.K.辛格
郑冶枫
周少华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to CN201910342258.2A priority Critical patent/CN110175630B/zh
Publication of CN106127217A publication Critical patent/CN106127217A/zh
Application granted granted Critical
Publication of CN106127217B publication Critical patent/CN106127217B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及用于近似深入神经网络以用于解剖对象检测的方法和系统。深入神经网络被训练成检测医学图像中的解剖对象。计算经训练的深入神经网络的近似,该近似减少经训练的深入神经网络的计算复杂性。使用经训练的深入神经网络的近似在患者的输入医学图像中检测解剖对象。

Description

用于近似深入神经网络以用于解剖对象检测的方法和系统
背景技术
本发明涉及使用深入神经网络的解剖对象检测,并且更具体地涉及近似深入神经网络以用于解剖对象检测。
在机器学习和模式识别方面的一个最大挑战在于维度灾难。维度灾难是指学习问题的复杂性随着数据维度中的线性增大而呈指数形式增长的概念。出于这一原因,通常通过特征提取的维度减小技术预处理数据以便提取可以由机器学习分类器有效地处置的数据的有意义且紧凑的表示。因而,数据表示是影响人造智能系统的性能的重要因素。
深入学习模仿哺乳动物大脑行为以便从高维度输入提取有意义的表示。数据通过网络的多个层传递。主要层提取低水平线索,诸如用于自然图像的边缘和角落。更深入的层将来自之前各层的简单线索复合成更高水平的特征。这样,在网络结尾处出现强有力的表示。深入网络的逐步构造防止学习过早地暴露于高复杂性的数据。若干理论工作示出某些分类的函数(例如指示符函数)可以由深入网络表示,但是要求具有非充分深度的网络的指数计算。
最近,已经以高精度向图像中的模式识别问题应用深入学习。然而,深入网络的益处是以评估阶段期间的高计算成本为代价的。特别地,完全连接的深入网络具有比传统机器学习分类器(诸如线性支持向量机(SVM)和随机森林分类器)缓慢的幅度量级。合期望的是改进深入网络的运行时间速度以使得这样的深入学习技术对于各种应用(对于高计算平台,所述应用包括诸如移动电话和计算机平板设备)更加实用。
已经尝试各种方案来改进深入学习的计算方面。图形处理单元(GPU)已经示出以若干幅度量级加速训练。然而,大多数广泛使用的计算设备未装备有强有力的GPU。加速这样的深入网络的另一方式是卷积网络,诸如卷积神经网(CNN)或卷积深入信任网。还可以使用可分离滤波器来改进卷积网络的速度。然而,这些方案要求数据具有张量结构,其限制这样的深入学习技术的应用范围。此外,卷积网络和可分离滤波器可能由于它们强加于深入网络的滤波器上的结构而使总体分类精度降级。
发明内容
本发明提供一种用于近似深入神经网络以用于解剖对象检测的方法和系统。本发明各种方法的实施例是减小经训练的深入神经网络的计算复杂性。本发明的实施例使用所近似的深入神经网络执行医学图像数据中的解剖对象检测,所近似的深入神经网络在计算上比原始训练用于对象检测任务的深入神经网络更高效。
在本发明的实施例中,深入神经网络被训练成检测医学图像中的解剖对象。计算经训练的深入神经网络的近似,该近似减小经训练的深入神经网络的计算复杂性。使用经训练的深入神经网络的近似来在所接收的患者的医学图像中检测解剖对象。
在一个实施例中,可以使用权重稀疏化来计算经训练的深入神经网络的近似。在另一实施例中,函数近似可以用于减小经训练的深入神经网络分类器的每一个水平中的节点数目。在另一实施例中,1-D Haar小波基和小波系数可以用于重构经训练的深入神经网络的层中的给定节点的权重矩阵。在另一实施例中,主成分分析(PCA)可以应用于经训练的深入神经网络的层中的所有节点之上的权重矩阵的空间。在一个实施例中,一种用于医学图像中的解剖对象检测的方法,包括:训练深入神经网络以检测医学图像中的解剖对象;计算经训练的深入神经网络的近似,所述近似减少经训练的深入神经网络的计算复杂性;以及使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象。在一个实施例中,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。在一个实施例中,其中针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响包括:对源自减小每一个滤波器中的非零权重的数目以精炼每一个滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,其度量使用经训练的深入神经网络的近似所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零,包括:将再加权L1-规范的项添加到成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差;以及对经训练的深入神经网络执行后向传播来针对经训练的深入神经网络的多个层中的每一个层精炼滤波器中的权重以便减少具有再加权L1-规范的所添加项的成本函数。在一个实施例中,其中针对多个层中的每一个层精炼滤波器中的其余非零权重以便缓解将多个非零权重驱动为零的影响包括:对源自将多个非零权重驱动为零以精炼滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差,而没有再加权L1-规范的所添加项。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。在一个实施例中,其中确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点包括:确定当前层中的节点子集以及混合矩阵,该混合矩阵最佳地最小化当前层中的多个节点中的每一个节点与通过使用混合矩阵线性地组合节点子集而计算的当前层中的多个节点中的每一个节点的相应近似之间的误差,其中经受节点子集大小上的约束。在一个实施例中,其中基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重包括:移除其索引不处于当前层中的节点子集中的经训练的深入神经网络的下一层的滤波器;以及利用通过使用混合矩阵线性地组合当前层中的节点子集的权重而生成的权重来更新经训练的深入神经网络的下一层的其余滤波器以便从当前层中的多个节点中所移除的节点近似向下一层的加权输入。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:重复以下步骤:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除不处于节点子集中的当前层中的多个节点,以及基于经训练的深入神经网络的当前层中所剩余的节点子集来更新经训练的深入神经网络的下一层的权重,对于经训练的深入神经网络中的多个层中的每一个层而言,导致经训练的深入神经网络的初始近似;以及通过对经训练的深入神经网络的初始近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的初始近似以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目,从而导致经训练的深入神经网络的第一近似;以及针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-DHaar小波基和小波系数来重构节点的经训练的权重矩阵。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,减少用于重构该节点的经训练的权重矩阵的小波系数的数目。在一个实施例中,其中使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象包括:将所接收的医学图像的整体图像存储在查找表中;针对所接收的医学图像中的多个图像碎片中的每一个图像碎片,从存储在查找表中的整体图像来计算使用查找表操作使图像碎片与1-D Haar小波基和转置的Haar 1-D小波相乘的相应相乘结果;以及针对经训练的深入神经网络的近似中的第一隐藏层的每一个节点,计算针对该节点的小波系数与针对多个图像碎片中的每一个图像碎片所计算的相应相乘结果的Frobenius内积。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层,在该层的多个节点的所有之上,将主成分分析(PCA)应用于小波系数的空间。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:使用1-D Haar小波基和相应小波系数针对经训练的深入神经网络的当前层中的多个节点中的每一个节点来重构相应经训练的权重矩阵,以及减少用于重构每一个相应经训练的权重矩阵的小波系数数目;以及针对经训练的深入神经网络的当前层中的多个节点中的每一个节点来再训练源自重构相应经训练的权重矩阵的经训练的深入神经网络的近似,以及减少用于重构每一个相应经训练的权重矩阵的小波系数数目。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络中的多个层中的每一个层,在该层中的多个节点的所有之上,将主成分分析(PCA)应用于经训练的权重矩阵的空间。在一个实施例中,一种用于医学图像中的解剖对象检测的装置,包括:用于训练深入神经网络以检测医学图像中的解剖对象的构件;用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件;以及用于使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象的构件。在一个实施例中,其中用于训练深入神经网络以检测医学图像中的解剖对象的构件包括用于针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点来训练相应滤波器的构件,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件。在一个实施例中,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件包括:用于通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目的构件;以及用于针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以便缓解减少每一个滤波器中的非零权重数目的影响的构件。在一个实施例中,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化的构件,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及用于针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于确定线性地近似经训练的深入神经网络的该层中的多个节点的经训练的深入神经网络的每一个层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的每一个层中的多个节点的构件;以及用于基于经训练的深入神经网络的前一层中所剩余的节点子集来针对经训练的深入神经网络的每一个层更新权重的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于通过对经训练的深入神经网络的近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的近似以便减小成本函数的构件,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目的构件,从而导致经训练的深入神经网络的第一近似;以及用于针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目的构件,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点而使用1-D Haar小波基和小波系数来重构相应经训练的权重矩阵的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件还包括:用于针对经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点而减少用于重构相应经训练的权重矩阵的小波系数的数目的构件。在一个实施例中,一种存储计算机程序指令以用于医学图像中的解剖对象检测的非暂时性计算机可读介质,所述计算机程序执行限定操作,包括:训练深入神经网络以检测医学图像中的解剖对象;计算经训练的深入神经网络的近似,该近似减少经训练的深入神经网络的计算复杂性;以及使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象。在一个实施例中,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:重复以下步骤:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除不处于节点子集中的当前层中的多个节点,以及基于经训练的深入神经网络的当前层中所剩余的节点子集来更新经训练的深入神经网络的下一层的权重,对于经训练的深入神经网络中的多个层中的每一个层而言,导致经训练的深入神经网络的初始近似;以及通过对经训练的深入神经网络的初始近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的初始近似以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目,从而导致经训练的深入神经网络的第一近似;以及针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-D Haar小波基和小波系数来重构节点的经训练的权重矩阵。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,减少用于重构该节点的经训练的权重矩阵的小波系数的数目。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:针对经训练的深入神经网络的多个层中的每一个层,在该层的多个节点的所有之上,将主成分分析(PCA)应用于小波系数的空间。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络中的多个层中的每一个层,在该层中的多个节点的所有之上,将主成分分析(PCA)应用于经训练的权重矩阵的空间。
通过参照以下详细描述和随附各图,本发明的这些和其它优点将对于本领域的普通技术人员显而易见。
附图说明
图1图示了根据本发明的实施例的用于使用深入神经网络近似的医学图像中的解剖对象分析的方法;
图2图示了示例性AE神经网络;
图3图示了根据本发明的实施例的使用Haar小波近似来近似深入神经网络的隐藏层的权重的方法;
图4和5图示了使用图3的方法近似经训练的深入神经网络的隐藏层的节点的权重矩阵的示例;
图6图示了根据本发明的实施例的在使用小波近似来近似权重矩阵的同时迭代地训练深入神经网络;
图7图示了根据本发明的实施例的使用权重稀疏化来近似经训练的深入神经网络的方法;
图8图示了使用通过阈值处理所执行的权重稀疏化的经训练的深入神经网络的示例性近似的随机滤波器的可视化;
图9图示了在使用通过再加权的L1-规范最小化所执行的权重稀疏化的经训练的深入神经的近似之前和之后的经训练的深入神经网络的示例性滤波器的可视化;
图10图示了根据本发明的实施例的用于使用函数近似来近似经训练的深入神经网络以减少每一个层中的节点数目的方法;
图11图示了在函数近似和权重稀疏化之后的2D MR图像中的LV顶点检测的经训练的深入神经网络的近似的示例性滤波器的可视化;以及
图12是能够实现本发明的计算机的高级框图。
具体实施方式
本发明涉及用于近似深入神经网络以用于医学图像中的解剖对象检测的方法和系统。本发明的实施例在本文中描述成给出用于近似深入神经网络和医学图像中的解剖对象检测的方法的视觉理解。数字图像通常包括一个或多个对象(或形状)的数字表示。对象的数字表示通常在本文中根据标识和操控对象来描述。这样的操控是在存储器或者计算机系统的其它电路/硬件中达成的虚拟操控。因而,要理解到,本发明的实施例可以使用存储在计算机系统内的数据而在计算机系统内执行。
图1图示了根据本发明的实施例的用于使用深入神经网络近似的医学图像中的解剖对象检测的方法。图1的步骤102和104在离线训练阶段中执行。这些步骤训练深入神经网络以用于医学图像数据中的解剖标志检测并且计算经训练的深入神经网络的对应近似,并且在离线测试阶段之前离线执行(步骤106-110),其中经训练的深入神经网络的近似用于执行新的未看到的医学图像中的解剖标志检测。
在步骤102处,训练深入神经网络。深入神经网络是具有输入数据和输出数据之间的所学习特征或变量的多个隐藏层的基于机器学习的神经网络。根据有利实现方案,深入神经网络将典型地以三个或更多的隐藏层实现。在有利实施例中,深入神经网络训练成检测医学图像数据中的解剖标志。特别地,解剖标志可以训练成检测2D医学图像中的解剖标志的2D位置(x, y)或者检测3D医学图像中的解剖标志的3D位置(x, y, z)。尽管本发明的实施例可以应用于2D或3D医学图像,但是术语“像素”在本文中用于指代医学图像的元素,而不管维度如何。深入神经网络基于数据库中所存储的多个训练图像来训练。训练图像可以是使用任何医学成像形式(诸如但不限于CT、MRI、超声、X射线荧光、DynaCT等)所获取的2D或3D医学图像。至少训练图像的子集注解有目标解剖对象的位置。训练图像另外也可以包括非注解图像。在可能的实现方案中,经训练的深入神经可以是有差别的深入神经网络,其针对以像素为中心的图像碎片计算目标解剖标志位于该像素处的可能性。在另一可能的实现方案中,经训练的深入神经网络可以是深入神经网络回归量(回归函数),其针对以像素为中心的图像碎片计算从该像素向目标解剖标志的预测位置的差向量。
直接在图像数据上训练深入神经网络以学习复杂图像模式并且基于复杂图像模式检测解剖对象。前馈神经网络是具有称为后向传播的高效训练算法的神经网络结构。尽管足够强有力以近似复杂的目标函数,但是大的前馈神经网络往往过渡拟合训练数据。难以以良好的一般化能力来训练具有多于两个隐藏层的网络。在可能的实施例中,紧随有受监管的精细调谐的不受监管的预训练可以用于克服过渡拟合问题。该技术可以用于训练具有三个或更多隐藏层的网络。预训练可以看作不受监管的学习过程以从输入图像数据发现强有力的图像特征。各种深入学习技术,诸如自动编码器(AE)、去噪声自动编码器(DAE)或者受限制的Boltzman机器(RBM),可以用于预训练隐藏层。图2图示了示例性AE神经网络。如图2中所示,AE 200是具有一个隐藏层204的前馈神经网络。AE 200具有输入层L1 202、隐藏层L2和输出层L3 206。如果AE 200是完全连接的网络,则输入层202中的每一个节点可以对应于图像碎片的相应体素或像素。忽略偏项(在图2中标记为+1的节点),输入和输出层202和206分别具有相同数目的节点。AE的目标是最小化输入和输出向量之间的差异。如果隐藏层204具有等于或大于输入层202的尺寸,则AE可以学习标识变换。为了防止这种不重要的解决方案,AE可以以隐藏层204具有比输入层202更少的节点来设立。隐藏层204的节点可以计算为输入层202的节点的权重求和与偏项的函数,其中相应权重被分配给输入层202的节点与隐藏层204中的节点之间的每一个连接。偏项以及输入层202与隐藏层204之间的权重在AE 200的训练中学习,例如使用后向传播算法。隐藏层204的节点可以视为从输入图像碎片的像素(由输入层202的节点表示)提取的特征,并且所学习的权重可以视为对输入图像数据滤波以生成特征的滤波器。
去噪音自动编码器(DAE)可以用于学习输入图像数据的更有意义的表示。在DAE中,某一百分比(例如50%)的输入节点随机选择成受干扰的(例如将值设定成等于零)并且要求DAE以在给定受污染的观察的情况下重构原始输入向量。这明显增大所得经训练的深入神经网络的鲁棒性。DAE中的隐藏层可以具有比输入层更多的节点以实现过完备表示。在有利的实施例中,深入神经网络使用堆叠的去噪声自动编码器(DAE)在两个阶段中训练。第一阶段是不受监管的,其中多层深入神经网络的每一层训练成重构输入图像数据。在该阶段中,在利用重构输入层的输出层训练DAE之后,输出层被丢弃并且使用如输入到新DAE的已经训练的隐藏层的激活响应来堆叠另一DAE。该过程可以重复以逐层训练和扩展网络。第二阶段是受监管的,并且整个网络误差相对于从预训练的网络权重开始的输出训练数据而最小化。例如,为了训练有差别的深入神经网络,在预训练数个隐藏层之后,可以将针对目标输出的附加层添加到网络并且整个网络可以使用后向传播精炼。可替换地,隐藏层的输出可以被视为高水平图像特征并且用于训练有差别的分类器以用于检测解剖对象。为了训练深入神经网络回归量,输出参数空间可以使用线性函数直接回归,或者其可以相对于参数范围(例如(x, y)或(x, y, z))离散化并且求解为多类别分类问题。第二公式具有以下优势:其可以直接编码输出可能性并且可以生成多个假设(例如针对不同解剖对象)。
返回到图1,在步骤104处,计算经训练的深入神经网络的近似。特别地,计算经训练的深入神经网络的近似,该近似减少经训练的深入神经网络的计算复杂性。尽管训练深入神经网络(步骤102)并且计算针对深入神经网络的近似(步骤104)被图示为图1中的分离步骤,但是本发明不限于此。在一些实施例中,深入神经网络可以完全经训练,并且然后计算经训练的深入神经网络的近似。在一些实施例中,深入神经网络的近似可以计算为所训练的深入神经网络,或者可以执行训练和近似的多次迭代。在下文描述用于近似经训练的深入神经网络的各种实施例,包括Haar小波近似、主成分分析(PCA)近似、权重稀疏化(SparseConnect)以及减少每一个隐藏层的节点(ShrinkConnect)。
在步骤106处,在联机测试阶段中,接收患者的医学图像。医学图像可以是2D或3D图像并且可以使用任何医学成像形式(诸如但不限于CT、MRI、超声、X射线荧光、DynaCT等)获取。患者的医学图像可以直接从图像获取设备(诸如CT扫描仪或MRI扫描仪)接收,或者患者的医学图像可以通过加载之前存储在计算机系统的存储器或存储设备中的医学图像来接收。
在步骤108处,使用经训练的深入神经网络的近似在医学图像中执行解剖对象检测。在可能的实现方案中,可以使用滑动窗口方案,其中以每一个像素或体素为中心的相应图像碎片从医学图像提取。每一个图像碎片被输入到经训练的深入神经网络的近似,该近似直接在每一个碎片中的像素或体素上操作。如果经训练的深入神经网络是有差别的深入神经网络,则经训练的深入神经网络的近似针对每一个图像碎片计算目标解剖标志位于图像碎片以其为中心的像素或体素处的概率。具有最高概率的位置然后可以选择为医学图像中的所检测的解剖标志位置。如果经训练的深入神经网络是深入神经网络回归量,则经训练的深入神经网络的近似针对每一个图像碎片输出差向量,其提供从图像碎片以其为中心的像素或体素到医学图像中的目标解剖标志的预测位置的位移。来自每一个图像碎片的预测位置然后可以聚集以确定医学图像中的所检测的解剖标志位置。
在步骤110处,输出解剖对象检测结果。例如,解剖对象检测结果可以通过在计算机系统的显示设备上显示医学图像来输出,其中解剖对象位置在所显示的医学图像中标记或高亮。
尽管针对训练成检测解剖标志的位置的单个深入神经网络描述了图1的方法,但是本发明不限于此。例如,图1的方法和以下描述的用于近似深入神经网络的每一个实施例可以应用于一系列深入神经网络中的每一个,该深入神经网络在增大维度的一系列搜索空间中训练以针对边际空间深入学习(MSDL)或边际空间深入回归(MSDR)框架(如在2015年4月16日提交的题为“Method and System for Anatomical Object Detection UsingMarginal Space Deep Neural Networks”的美国临时申请号62/148,273中描述的,该申请通过引用以其整体并入本文)中的医学图像中的解剖对象检测姿态参数(位置、方位和尺度)。
Haar小波近似
根据本发明的实施例,Haar小波近似可以用于计算经训练的深入神经网络的近似以用于解剖标志检测。在对象或标志检测问题中,可以使用滑动窗口方案,其中检查大量图像碎片而同时在整个图像或体积之上滑动窗口。例如,以图像的每一个像素或体素为中心的相应图像碎片可以被检查。为了将针对经训练的深入神经网络的隐藏层的所学习权重应用于特定图像碎片,计算Frobenius内积,其是针对输入图像碎片的像素值的矩阵与和经训练的深入神经网络的隐藏层的节点相关联的权重矩阵之间的分量形式的内积。在本发明的该实施例中,在针对每一个隐藏层的权重矩阵上执行Haar小波变换以便有效地减少Frobenius内积所要求的计算数目。积分成像技术还可以用于增加计算效率。由于相同权重矩阵集合重复地用于计算与各种图像碎片的Frobenius内积,所以有利的是使用小波基表示权重矩阵,该小波基要求比权重矩阵中的原始元素数目更少的系数。
图3图示了根据本发明的实施例的使用Haar小波近似来近似深入神经网络的隐藏层的权重的方法。图3的方法可以在针对整个经训练的深入神经网络完成训练之后针对每一个隐藏层(或者包括输出层的每一个)执行,或者图3的方法可以在训练深入神经网络的随后层之前针对每一个层在训练期间执行。在步骤302处,针对深入神经网络的隐藏层训练权重。针对隐藏层的权重如上文结合图1的步骤102所述的那样训练。例如,隐藏层的权重可以使用后向传播算法训练。
在步骤304处,隐藏层的权重使用小波系数和一维1-D小波基来重构。在不损失一般性的情况下,出于该描述的目的而假定输入到经训练的深入神经网络的是2D图像。在该情况下,P表示2D图像碎片,W表示连接到任何一个隐藏单元(即隐藏层的节点)的神经网络的权重,并且Dim(W)=Dim(P)。目标在于加速的计算,所述公式是两个矩阵(尽管它们是向量)的分量形式内积,还已知为Frobenius内积。我们使用来表示小波基的转置。小波基可以用于将神经网络重构为:
其通过小波系数Y重构神经网络权重。这可以在1-D小波基中表述为:
在有利的实现方案中,使用Haar小波基。例如,4*4 Haar小波基可以表述为:
要理解到,本发明不限于等式(3)中所示的小波基,并且也可以使用其它大小的小波基。
在步骤306处,在小波系数上执行收缩以减小非零小波系数的数目。实现小波系数Y的稀疏集合以表示每一个权重矩阵加速计算。小波系数的稀疏性通过小波收缩获得,该小波收缩可以使用具有小值的系数的软或硬阈值处理而实现。例如,具有比预确定的阈值更小的值的所有小波系数可以设定成等于零,或者预确定数目的最大小波系数可以保留而其余小波系数设定成等于零。
图4和5图示了使用图3的方法来近似经训练的深入神经网络的隐藏层的节点的权重矩阵的示例。如图4中所示,图像402是与隐藏层节点相关联的原始经训练的权重矩阵的可视化,并且图像404是使用Haar小波重构在图402中示出的权重矩阵的近似的可视化,其中一半小波系数设定为零。如图4中所示,图像502是与另一隐藏层节点相关联的原始经训练的权重矩阵的可视化,并且图像504是使用Haar小波重构在图像502中示出的权重矩阵的近似的可视化,其中一半小波系数设定为零。
一旦使用小波系数重构隐藏层的所有权重矩阵并且在小波系数上执行1D小波基和收缩,则小波系数和1D小波基可以用在输入图像碎片上替换权重矩阵以便近似Frobenius内积,如下所示:
因而,Frobenius内积被近似为Y和的内积。
为了执行解剖标志检测(图1的步骤108),可以使用滑动窗口方案,其中多个图像碎片P被检查而同时在整个图像或体积V之上滑动。当Haar小波用于小波基时,针对隐藏层的每一个节点的每一个图像碎片的的计算可以使用整体成像技术加速。与原始图像相同大小的整体图像存储在查找表中,并且Haar小波基确定将查找的是查找表中的哪些项目(像素)。例如,可以使用在等式(3)中示出的4*4 Haar小波基,但是本发明不限于此。在该4*4情况下,矩阵相乘总计针对与的第一列的相乘的四个查找操作、针对第二列的四个表格查找和相减操作、以及针对第三列和第四列中的每一个的两个表格查找和相减操作。这比直接矩阵相乘更快。可以针对与的相乘获得相同加速。本文描述的相同分析也可以类似地应用于更大的Haar小波基。
一旦获得,则Y和Z的Frobenius内积可以看起来在计算上像原始计算目标 那样昂贵。然而,小波系数Y由于在步骤306中应用到小波系数的收缩而是稀疏的,这导致较少的计算。由于小波系数是离线地从神经网络权重矩阵而不是在检测期间计算的,所以收缩操作将不会不利地影响检测速度。
图3的方法针对经训练的深入神经网络中的每一个隐藏层(或每一个层)执行。如上文所述,图3的方法可以在训练深入神经网络的随后层之前针对每一个隐藏层在训练期间执行。在可能的实现方案中,可以在深入神经网络的训练期间使用迭代近似和训练步骤针对每一个隐藏层执行Haar小波近似。图6图示了根据本发明的实施例在使用小波近似来近似权重矩阵的同时迭代地训练深入神经网络。如图6中所示,在步骤602处,执行神经网络训练以训练神经网络的权重矩阵,并且在步骤604处,执行Haar小波近似以使用1D Haar小波基和小波系数来重构权重并且数个小波系数设定为零。步骤602和604然后迭代。在每一轮迭代中,设定为零的小波系数保持为零,而其余系数通过神经网络训练算法(诸如后向传播)调节。迭代可以重复直到对于预确定数目的迭代而言数个其余的小波系数收敛,或者直到达到与深入神经网络的近似精度中的降低相关联的停止条件。在示例性实现方案中,图6的步骤可以针对每一个隐藏层在隐藏层的训练期间迭代。在另一实施例中,步骤604的每一个迭代可以针对经训练的深入神经网络的每一个隐藏层执行,并且步骤602的每一个迭代可以再训练整个深入神经网络。
主成分分析近似
在本发明的另一实施例中,可以使用主成分分析(PCA)以通过运用所有隐藏层单元(节点)之上的冗余性来减少计算成本。如上文所述,针对隐藏层的给定节点(单元)的权重矩阵W单独地执行Haar小波近似。PCA可以用于运用隐藏层的所有隐藏层节点之上的冗余性。这可以在神经网络权重矩阵{W}的空间中或者在Haar小波近似中所计算的小波系数{Y}的空间中实现。PCA近似将首先在本文中使用神经网络权重矩阵{W}的空间来解释。
使用PCA,针对给定隐藏层单元i的权重矩阵,其中K指示减小的维度,其可以是设定成维持某一数量的近似精度的预确定值。因而,图像碎片与针对每一个隐藏单元的权重矩阵的Frobenius内积可以近似为:
如果K小于隐藏层单元数目H,则相比于,K个值可以计算得快得多,并且因此实现在所有隐藏层单元之上计算的加速。PCA近似可以通过在Haar小波系数{Y}的空间中应用PCA而与Haar小波分析组合以获得在隐藏层的所有隐藏层单元之上计算的额外加速。
SparseConnect:权重稀疏化
出于说明目的,SparseConnect近似方法和ShrinkConnect近似方法(在下文描述)在本文中描述为与堆叠的去噪声自动编码器(DAE)深入神经网络组合地使用。然而要理解到,这些方法可以类似地应用于任何其它经训练的深入神经网络。假设W表示权重矩阵并且h表示每一个层处的输出,并且自动编码器的输入-输出可以表述为:
其中f是非线性整形函数,比如S形函数(sigmoid function)。诸如堆叠的去噪声自动编码之类的深入神经网络的训练可以基于被测量为预测结果与训练数据中的观察之间的欧几里得距离的成本函数的随机梯度下降来执行。在理想世界中,网络中的每一个节点应当从输入图像数据提取不同信息片段,使得节点组合得出针对标志位置的准确且鲁棒的预测。然而,不存在防止不同节点学习相同事物的明显约束。此外,由于用来训练深入神经网络的优化进程的高度复杂且非凸本性,经训练的深入神经网络将可能包含明显冗余性。
在本发明的这一实施例中,经训练的神经网络通过向滤波器的系数引入稀疏性而简化。如本文所使用的,术语“滤波器”是指深入神经网络的层的特定节点的权重矩阵。因而,每一个层具有多个节点,并且每一个节点具有用于对来自之前层的节点的数据滤波或组合的权重矩阵或“滤波器”。可以以不同方式向滤波器的系数引入稀疏性。例如,在可能的实现方案中,具有最大幅度的某一百分比的系数可以保留在每一个滤波器中,而其余系数设定为零。在另一可能的实现方案中,L1-规范最小化可以在后向传播算法中实施,该L1-规范最小化将会把每一个滤波器中的数个系数驱动为零。由于使输入与神经元(节点)之间的连接稀疏,所以我们将该方案称为“SparseConnect”。重要的是要指出:SparseConnet不同于迫使隐藏单元的输出而不是滤波器的权重成为稀疏的传统实践。本文描述的SparseConnect方法导致比传统实践更高的运行时间效率。对于深入神经网络中的层的特定节点(单元),输出被近似为:
其中层处的第i个滤波器的所保留连接的索引集合。集合越小,可以实现的加速就越大,其代价是向网络引入更强扰动。在有利的实现方案中,一旦针对每一个滤波器确定系数的减小集合,则深入神经网络可以使用受监管的后向传播精炼以缓解由扰动引入的影响。在这一精炼步骤中,仅有效系数更新,而设定为零的系数保持为零。
图7图示了根据本发明的实施例的使用权重稀疏化来近似经训练的深入神经网络的方法。在步骤702处,训练深入神经网络。例如,深入神经网络可以使用堆叠DAE在不受监管的学习阶段中训练,接着是如以上结合图1的步骤102所述的受监管的学习阶段。在步骤704处,每一个滤波器中的非零权重(系数)数目减少。每一个滤波器中的非零权重数目通过将滤波器中的数个权重设定为零以引入并且保持滤波器中的其它权重而减小,使得权重的稀疏集合保留在每一个滤波器中。例如,每一个滤波器中的非零权重的数目可以使用阈值处理或者通过在后向传播算法中实施L1-规范最小化而减小,如在下文更详细描述的。在步骤706处,精炼源自步骤704的所近似深入神经网络中的每一个滤波器的其余非零权重。特别地,受监管的训练算法,诸如受监管的后向传播,可以用于通过精炼每一个滤波器的其余非零权重而基于训练数据中的所观察结果来再训练所近似的深入神经网络,其中设定为零的权重限制成保持为零。步骤706可以针对大量迭代重复以精炼非零权重来实现标志检测中的更大精度。在针对图7的方法的可能实现方案中,步骤704可以执行一次以移除每一个滤波器中的大量(例如90%的)非零权重(例如使用阈值处理或者L1-规范最小化),并且然后步骤706可以执行并且可能地重复多次以精炼每一个滤波器中的其余非零权重,从而导致经训练的深入神经网络的最终近似。在另一可能的实现方案中,步骤704和706可以迭代以逐步减小每一个滤波器的非零权重的数目,从而实现权重的稀疏集合。在该实现方案中,步骤704的每一个迭代可以减小每一个滤波器的较小数目(例如10%)的非零权重(使用阈值处理或者L1-规范最小化),并且706的每一个迭代可以精炼(可能地多次)其余非零权重。步骤704和706可以迭代直到达到停止条件。例如,所近似的深入神经网络的精度可以使用训练数据在每一个迭代之后计算,并且当精度降低某一数量时,方法可以停止并且可以使用源自前一迭代的所近似的深入神经网络。还可能的是,这些步骤可以迭代直到每一个滤波器中的目标百分比的权重被设定为零。
在可能的实现方案中,可以使用阈值处理来稀疏化网络的权重。特别地,具有每一个滤波器中的最大幅度的某一百分比的权重可以保留,而其余权重设定为零。在可能的实现方案中,大百分比(例如90%或95%)的权重可以在每一个滤波器中设定为零,并且然后可以执行受监管的后向传播的数个迭代(例如30个)以精炼其余非零权重。在另一可能的实现方案中,较小百分比(例如10%)的权重可以设定为零,接着是受监管的后向传播以精炼其余权重,并且这些步骤可以迭代直到每一个滤波器中的目标百分比的权重被设定为零或者直到所近似的深入神经网络的总体精度减小某一数量。
为了评估该方案的有效性,本发明人已经在2D MR图像中的左心室(LV)顶点检测中使用该方案。数据集包含来自184个患者的7961个图像,从中采样32*32像素的正和负碎片。75%的碎片被随机选择以用于训练并且其余部分用于测试。相同患者的图像在相同集合内出现多次,但是并非二者。正碎片通过将中心放在剪裁对应图像碎片的所标记地面真实罐体(can)来生成。与LV顶点的地面真实位置远离地采样负碎片。训练堆叠的DAE深入神经网络以用于检测2D MR图像中的LV顶点。DAE的噪音部分设定成50%,即50%的输入像素随机设定为零。经训练的深入神经的层的大小是1024-1024-300-100-2。训练以不受监管的预训练发起并且然后使用受监管的后向传播精炼。表1示出使用通过以不同稀疏因子进行阈值处理而执行的权重稀疏化所生成的深入神经网络的近似的2D LV顶点分类误差。
网络 误差(%)
原始(非稀疏) 3.09
20%非零(5倍加速) 3.09
10%非零(10倍加速) 3.09
5%非零(20倍加速) 4.07
5%非零(100倍加速) 11.05
表1。
如表1中所示,可能消除每一个滤波器的系数(权重)的显著部分(例如95%)而不在精度方面损失太多。图8图示了使用由阈值处理所执行的权重稀疏化的经训练的深入神经网络的示例性近似的随机滤波器的可视化。特别地,图8针对2D MR图像中的LV顶点检测示出了其中10%的非零系数保持来自经训练的深入神经网络的原始训练滤波器的稀疏滤波器的可视化。
在另一可能的实施例中,权重稀疏化可以使用再加权的L1-规范最小化来执行。某些滤波器对于经训练的深入神经网络的最终分类结果可能是无关的。因而,保持每一个滤波器中固定数目的系数(权重)可能不会产生最佳加速。根据有利的实现方案,后向传播算法(或者其它深入神经网络训练算法)可以用于基于它们对于最终的分类精度多么重要而决定要丢弃哪些系数。在最初训练深入神经网络之后,可以将以下项添加到成本函数,其在后向传播算法中最小化以便促进网络的权重内的稀疏性:
其中表示元素形式的相乘并且是矩阵,其系数被计算为:
这种再加权方案通过使L1-规范中的每一个系数与近似其幅度的逆的项相乘来减小目标函数的L1-规范幅度的影响。L1-规范的再加权使正则化看起来更像L0-规范正则化,并且将与最终分类结果较不相关的大量权重驱动为零。一旦使用后向传播执行再加权的L1-规范最小化,则后向传播可以再次使用随机梯度下降(即利用原始成本函数)执行以精炼其余非零系数。
在可能的实现方案中,使用后向传播的再加权的L1-规范最小化可以执行一次以将经训练的深入神经网络的滤波器中的数个权重驱动为零,并且其余非零权重然后可以利用原始成本函数使用受监管的后向传播来精炼。在另一可能的实现方案中,可以执行再加权的L1-规范最小化的多个迭代以将数个权重驱动为零以及利用原始成本函数使用受监管的后向传播对其余非零权重的精炼。在该情况下,可以执行迭代直到所近似的深入神经网络的精度减少某一数量,并且然后可以使用源自前一迭代的所近似的深入神经网络。
本发明人针对2D MR图像中的LV顶点检测测试了使用通过再加权的L1-规范最小化在经训练的深入神经网络上执行的权重稀疏化对经训练的深入神经网络的近似。该方法使用50个精炼迭代实现了60倍加速,其中LV顶点检测问题上的误差率为3.57%。该误差可以随着附加的后向传播事件而甚至更多地减小以进一步精炼其余非零权重的稀疏集合。图9图示了在使用由再加权的L1-规范最小化所执行的权重稀疏化对经训练的深入神经的近似之前和之后的经训练的深入神经网络的示例性滤波器的可视化。如图9中所示,图像(a)示出了具有原始权重的经训练的深入神经网络的滤波器的可视化,并且图像(b)示出了具有简化权重的深入神经的近似的滤波器的可视化。在图9中可以观察到,具有更多结构的滤波器保持更多非零系数,而看起来随机的滤波器具有大多为零的系数。还可以观察到,滤波器具有可变百分比的非零系数而不是固定比例,如在阈值处理的情况中那样。
ShrinkConnect:具有分组——稀疏性的函数近似
在本发明的这一实施例中,经训练的神经网络的每一个输出层由大概横跨该层的整个输出的相同函数空间的较小函数子集(即层的节点)表示。也就是说,经训练的神经网络的每一个层中的节点数目通过使用该层的较小子集节点的线性组合表示每一个层的节点而减小。由于每一个层的节点数目以及因而每一个层之间的连接数目减小,所以我们将该方法称为“ShrinkConnect”。
图10图示了根据本发明的实施例的用于使用函数近似来近似经训练的深入神经网络以减小每一个层中的节点数目的方法。在步骤1002处,训练深入神经网络。例如,使用不受监管的学习阶段(接着是受监管的学习阶段)中的堆叠DAE来训练深入神经网络,如以上结合图1的步骤102所描述的。
在步骤1004处,计算最佳地线性近似当前层中的所有节点的经训练的深入神经网络的当前层中的节点子集。假设S表示这样的函数子集的索引。深入神经网络的层中的每一个函数对应于深入神经网络中的节点,并且术语“函数”和“节点”在本文中可互换地使用。出于简单起见,我们将丢弃指示S在网络的层中的依赖性的下标。如果这样的集合存在,则经训练的深入神经网络的特定层的输出可以表述为:
左手侧的是特定层处的输出。在右手侧,通过线性地组合小函数(节点)集合(由索引集合S指示)与混合矩阵M来获得等价输出。在实践中,对于有限的训练数据样本集合x而言足以满足该条件:如果对于有限训练样本集合而言满足该条件,则函数子集可以用于针对任何输入再现原始经训练的层中的所有函数的输出,使得:
以上条件可能由于通常存在于图像数据中的各种噪声和伪影而没有完美地满足。然而,大概满足该条件的函数(节点)子集可以被标识。在有利的实现方案中,子集可以通过求解以下优化问题而标识:
其中表示为准规范的列稀疏约束实施线性地近似所有输出函数的小函数子集的选择。通过求解优化问题所标识的矩阵M中的非零列的索引的并集等于我们尝试标识的集合S。贪婪算法,诸如同时正交匹配追击,可以用于优化以上成本函数,并且因而标识节点子集,其可以用于表示特定层的节点的整个集合,并且还计算供节点子集使用以近似针对该层的所有输出函数的混合矩阵M。
在步骤1006处,调节针对树的经训练深入神经网络的下一层的权重。由于当前层中的输出函数(节点)连接到下一层,所以将当前层中的节点连接到下一层的权重响应于从当前层移除节点而更新。特别地,其索引没有在子集S中的滤波器(权重矩阵)被移除并且然后其余滤波器中的权重如下更新:
矩阵M表示每一个输出函数(节点)对函数(节点)的所选子集的线性依赖性。矩阵是由其索引处于中的的列形成的矩阵。矩阵是由其索引处于中的的行形成的矩阵。
在步骤1008处,确定经训练的深入神经网络中的所有层的节点是否已经减少。如果确定并非所有层已经减少,则方法进行到步骤1010。如果确定所有层已经减少,则方法进行到步骤1012。在步骤1010处,方法移动到下一层并且返回到步骤1004。步骤1004和1006然后针对下一层重复。因而,方法传播通过经训练的深入神经网络树的每一个层以确定近似该层处的所有节点的输出函数的每一个层中的节点子集并且调节连接层的权重来补偿从每一个层移除的节点。在步骤1012处,一旦经训练的深入神经网络的每一个层已经减少,从而导致经训练的深入神经的近似,则精炼深入神经网络的近似。特别地,受监督的深入神经网络训练算法,诸如受监督的后向传播,可以用于再训练具有针对每一个网络层的节点子集的经训练的深入神经网络的近似,其导致针对每一个层的权重的进一步精炼。在有利的实现方案中,使用受监督的后向传播的精炼的多个迭代可以用于精炼经训练的深入神经网络的近似。
本发明人针对LV顶点检测在经训练的深入神经网络上测试了图10的方法。图10的方法的目标是简化经训练的深入神经网络而不会在分类精度方面损失很多。本发明人应用图10的方法以近似经训练的深入神经网络以用于利用简化因子3和5的LV检测,从而导致大小分别为1024-340-100-35-2和1024-200-50-20-2的简化深入神经网络。这应当引起分别关于原始经训练的深入神经网络的3和5倍加速。表2针对原始经训练的深入神经网络、两个简化网络以及类似大小的两个深入神经网络与简化但是从擦除训练的网络示出了LV顶点分类误差的对比。
SdA网络大小 误差(%)
1024-1024-300-100-2(原始) 3.09
1024-340-100-35-2(简化) 3.27
1024-200-50-20-2(简化) 4.29
1024-340-100-35-2(来自擦除) 3.82
1024-200-50-20-2(来自擦除) 7.16
表2。
如表2中所示,分类精度中的降级在简化网络与原始经训练的深入神经网络之间相当小。在表2中还可以观察到,从擦除训练(即不受监督的预训练接着是受监督的精炼)的较小大小的网络比简化网络执行得更差。
根据本发明的有利实施例,用于近似经训练的深入神经网络的SparseConnet和ShrinkConnect方法可以组合。SparseConnet和ShrinkConnect方法运用经训练的深入神经网络内的不同类型冗余性。方法彼此补偿并且可以组合以实现甚至更大的加速。例如,在可能的实现方案中,经训练的深入神经网络可以首先使用ShrinkConnect方法近似以减少经训练的深入神经网络的每一个层中的节点数目,接着使用SparseConnect方法(使用阈值处理或者再加权的L1-规范最小化)以在源自应用ShrinkConnect方法的深入神经网络的近似中稀疏化连接每一个层的滤波器中的权重。本发明人使用阈值处理的方案针对权重稀疏化(SparseConnect)测试了该组合方法以便针对2D MR图像中的LV顶点检测来近似经训练的深入神经网络。原始经训练的深入神经网络使用ShrinkConnect方法(函数近似)而简化到1/3并且然后使用SparseConnect方法(权重稀疏化)进一步简化到1/10。作为结果,针对LZ顶点检测以4.54%的误差率实现了原始经训练的深入神经网络的检测速度的30多倍的加速。图11图示了在函数近似和权重稀疏化之后针对2D MR图像中的LV顶点检测的经训练的深入神经网络的近似的示例性滤波器的可视化。如图11中所示,图像1102是在函数近似(ShrinkConnect)之后经训练的深入神经网络的近似的滤波器的可视化,并且图像1104是在除了函数近似之外还执行权重稀疏化(SparseConnect)之后经训练的深入神经网络的近似的滤波器的可视化。如在图11中可以观察到的,在执行ShrinkConnect之后没有看起来随机的滤波器。相比于单独地使用每一个方法而言,这些方法的组合可以产生更有意义的特征。
以上所述用于近似经训练的深入神经网络的实施例可以扩展成使得代替简化已经训练的深入神经网络,这些实施例可以用于从训练过程的开始就在深入神经网络中的滤波器上实施结构。例如,可以从训练开始就应用再加权的L1-规范正则化以获得稀疏滤波器。另一可能性是在最小化分类误差的同时最大化滤波器之中的相关性。这可以帮助减小每一个网络层处的输出(节点)的冗余性。还可以使用可替换的方案来移除冗余的滤波器和权重系数。例如,分类精度的灵敏性可以关于每一个滤波器或权重系数的移除而贪婪地检查。在经训练的深入神经网络的总体精度上不具有大影响的那些可以安全地移除。深入神经网络可以在每一个移除之后再训练以便补偿源自丢失节点或权重的扰动。
尽管用于近似经训练的深入神经网络的方法在本文中被应用以针对解剖标志检测来近似经训练的深入神经网络以便减少用于使用经训练的深入神经网络在没有看到的图像中检测解剖标志的计算时间,但是本文描述的方法可以类似地用于近似任何经训练的深入神经网络以便执行任何分类任务。
以上所述用于解剖标志检测和近似经训练的深入神经网络的方法可以使用公知的计算机处理器、存储器单元、存储设备、计算机软件和其它组件而实现在计算机上。在图12中图示了这样的计算机的高级框图。计算机1202包含处理器1204,其通过执行限定这样的操作的计算机程序指令来控制计算机1202的总体操作。计算机程序指令可以存储在存储设备1212(例如磁盘)中并且在期望执行计算机程序指令时加载到存储器1210中。因而,图1,3,6,7和10的方法的步骤可以通过存储在存储器1210和/或存储装置1212中并且由执行计算机程序指令的处理器1204控制的计算机程序指令来限定。图像获取设备1220,诸如CT扫描设备、MR扫描设备、超声设备等,可以连接到计算机1202以将图像数据输入到计算机1202。可能将图像获取设备1220和计算机1202实现为一个设备。还可能的是,图像获取设备1220和计算机1202通过网络无线通信。在可能的实施例中,计算机1202可以关于图像获取设备1220远程定位,并且方法步骤可以作为基于服务器或云的服务的部分而执行。计算机1202还包括用于经由网络与其它设备通信的一个或多个网络接口1206。计算机1202还包括其它输入/输出设备1208,其使得用户能够与计算机1202(例如显示器、键盘、鼠标、扬声器、按钮等)交互。这样的输入/输出设备1208可以与计算机程序集合结合地使用作为注释工具来注释从图像获取设备1220所接收的体积。本领域技术人员将认识到,实际计算机的实现方案也可以包含其它组件,并且出于说明目的,图12是这样的计算机的一些组件的高级表示。
前述详细描述要理解为在每一个方面中都是说明性和示例性而非限制性的,并且本文公开的发明的范围不应从详细描述确定,而是要从权利要求确定,如根据专利法所准许的完整广度来解释的。要理解到,本文示出和描述的实施例仅仅说明本发明的原理,并且本领域技术人员在没有脱离本发明的精神和范围的情况下可以实现各种修改。本领域技术人员可以实现各种其它特征组合而不脱离本发明的精神和范围。

Claims (30)

1.一种用于医学图像中的解剖对象检测的方法,包括:
训练深入神经网络以检测医学图像中的解剖对象;
计算经训练的深入神经网络的近似,所述近似减少经训练的深入神经网络的计算复杂性;以及
使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象,
其中所述计算经训练的深入神经网络的近似包括:
对于经训练的深度神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-D Haar小波基和小波系数来重构该节点的经训练的权重矩阵。
2.如权利要求1所述的方法,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:
针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。
3.如权利要求2所述的方法,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:
通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及
针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。
4.如权利要求3所述的方法,其中针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响包括:
对源自减小每一个滤波器中的非零权重的数目以精炼每一个滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,所述成本函数度量使用经训练的深入神经网络的近似所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。
5.如权利要求2所述的方法,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:
针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及
针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。
6.如权利要求5所述的方法,其中针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零,包括:
将再加权L1-规范的项添加到成本函数,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差;以及
对经训练的深入神经网络执行后向传播来针对经训练的深入神经网络的多个层中的每一个层精炼滤波器中的权重以便减少具有再加权L1-规范的添加项的成本函数。
7.如权利要求6所述的方法,其中针对多个层中的每一个层精炼滤波器中的其余非零权重以便缓解将多个非零权重驱动为零的影响包括:
对源自将多个非零权重驱动为零以精炼滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差,而没有再加权L1-规范的添加项。
8.如权利要求1所述的方法,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:
确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及
基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。
9.如权利要求8所述的方法,其中确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点包括:
确定当前层中的节点子集以及混合矩阵,该混合矩阵最佳地最小化当前层中的多个节点中的每一个节点与通过使用混合矩阵线性地组合节点子集而计算的当前层中的多个节点中的每一个节点的相应近似之间的误差,其中经受节点子集大小上的约束。
10.如权利要求9所述的方法,其中基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重包括:
移除其索引不处于当前层中的节点子集中的经训练的深入神经网络的下一层的滤波器;以及
利用通过使用混合矩阵线性地组合当前层中的节点子集的权重而生成的权重来更新经训练的深入神经网络的下一层的其余滤波器以便从当前层中的多个节点中所移除的节点近似向下一层的加权输入。
11.一种非暂时性计算机可读介质,存储了用于医学图像中的解剖对象检测的计算机程序指令,所述计算机程序指令被配置成在由处理器执行时执行以下操作:
训练深入神经网络以检测医学图像中的解剖对象;
计算经训练的深入神经网络的近似,所述近似减少经训练的深入神经网络的计算复杂性;以及
使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象,
其中所述计算经训练的深入神经网络的近似包括:
对于经训练的深度神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-D Haar小波基和小波系数来重构该节点的经训练的权重矩阵。
12.如权利要求11所述的非暂时性计算机可读介质,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:
针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。
13.如权利要求12所述的非暂时性计算机可读介质,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:
通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及
针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。
14.如权利要求13所述的非暂时性计算机可读介质,其中针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响包括:
对源自减小每一个滤波器中的非零权重的数目以精炼每一个滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,所述成本函数度量使用经训练的深入神经网络的近似所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。
15.如权利要求12所述的非暂时性计算机可读介质,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:
针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及
针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。
16.如权利要求15所述的非暂时性计算机可读介质,其中针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零,包括:
将再加权L1-规范的项添加到成本函数,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差;以及
对经训练的深入神经网络执行后向传播来针对经训练的深入神经网络的多个层中的每一个层精炼滤波器中的权重以便减少具有再加权L1-规范的添加项的成本函数。
17.如权利要求16所述的非暂时性计算机可读介质,其中针对多个层中的每一个层精炼滤波器中的其余非零权重以便缓解将多个非零权重驱动为零的影响包括:
对源自将多个非零权重驱动为零以精炼滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差,而没有再加权L1-规范的添加项。
18.如权利要求11所述的非暂时性计算机可读介质,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:
确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及
基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。
19.如权利要求18所述的非暂时性计算机可读介质,其中确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点包括:
确定当前层中的节点子集以及混合矩阵,该混合矩阵最佳地最小化当前层中的多个节点中的每一个节点与通过使用混合矩阵线性地组合节点子集而计算的当前层中的多个节点中的每一个节点的相应近似之间的误差,其中经受节点子集大小上的约束。
20.如权利要求19所述的非暂时性计算机可读介质,其中基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重包括:
移除其索引不处于当前层中的节点子集中的经训练的深入神经网络的下一层的滤波器;以及
利用通过使用混合矩阵线性地组合当前层中的节点子集的权重而生成的权重来更新经训练的深入神经网络的下一层的其余滤波器以便从当前层中的多个节点中所移除的节点近似向下一层的加权输入。
21.一种用于医学图像中的解剖对象检测的设备,包括:
用于训练深入神经网络以检测医学图像中的解剖对象的程序模块;
用于计算经训练的深入神经网络的近似的程序模块,所述近似减少经训练的深入神经网络的计算复杂性;以及
用于使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象的程序模块,
其中所述用于计算经训练的深入神经网络的近似的程序模块包括:
用于对于经训练的深度神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-D Haar小波基和小波系数来重构该节点的经训练的权重矩阵的程序模块。
22.如权利要求21所述的设备,其中用于训练深入神经网络以检测医学图像中的解剖对象的程序模块包括:用于针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器的程序模块,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且
用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的程序模块包括:用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的程序模块。
23.如权利要求22所述的设备,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的程序模块包括:
用于通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目的程序模块;以及
用于针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响的程序模块。
24.如权利要求23所述的设备,其中用于针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响的程序模块包括:
用于对源自减小每一个滤波器中的非零权重的数目以精炼每一个滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数的程序模块,所述成本函数度量使用经训练的深入神经网络的近似所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。
25.如权利要求22所述的设备,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的程序模块包括:
用于针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化的程序模块,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及
用于针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响的程序模块。
26.如权利要求25所述的设备,其中用于针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化的程序模块,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零,包括:
用于将再加权L1-规范的项添加到成本函数的程序模块,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差;以及
用于对经训练的深入神经网络执行后向传播来针对经训练的深入神经网络的多个层中的每一个层精炼滤波器中的权重以便减少具有再加权L1-规范的添加项的成本函数的程序模块。
27.如权利要求26所述的设备,其中用于针对多个层中的每一个层精炼滤波器中的其余非零权重以便缓解将多个非零权重驱动为零的影响的程序模块包括:
用于对源自将多个非零权重驱动为零以精炼滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数的程序模块,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差,而没有再加权L1-规范的添加项。
28.如权利要求21所述的设备,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的程序模块包括:
用于确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点的程序模块;以及
用于基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重的程序模块。
29.如权利要求28所述的设备,其中用于确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点的程序模块包括:
用于确定当前层中的节点子集以及混合矩阵的程序模块,该混合矩阵最佳地最小化当前层中的多个节点中的每一个节点与通过使用混合矩阵线性地组合节点子集而计算的当前层中的多个节点中的每一个节点的相应近似之间的误差,其中经受节点子集大小上的约束。
30.如权利要求29所述的设备,其中用于基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重的程序模块包括:
用于移除其索引不处于当前层中的节点子集中的经训练的深入神经网络的下一层的滤波器的程序模块;以及
用于利用通过使用混合矩阵线性地组合当前层中的节点子集的权重而生成的权重来更新经训练的深入神经网络的下一层的其余滤波器以便从当前层中的多个节点中所移除的节点近似向下一层的加权输入的程序模块。
CN201610296717.4A 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统 Active CN106127217B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910342258.2A CN110175630B (zh) 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/706,108 US9633306B2 (en) 2015-05-07 2015-05-07 Method and system for approximating deep neural networks for anatomical object detection
US14/706108 2015-05-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201910342258.2A Division CN110175630B (zh) 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统

Publications (2)

Publication Number Publication Date
CN106127217A CN106127217A (zh) 2016-11-16
CN106127217B true CN106127217B (zh) 2019-11-05

Family

ID=55910782

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610296717.4A Active CN106127217B (zh) 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统
CN201910342258.2A Active CN110175630B (zh) 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201910342258.2A Active CN110175630B (zh) 2015-05-07 2016-05-06 用于近似深入神经网络以用于解剖对象检测的方法和系统

Country Status (3)

Country Link
US (1) US9633306B2 (zh)
EP (1) EP3091486B1 (zh)
CN (2) CN106127217B (zh)

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3767630A1 (en) 2014-01-17 2021-01-20 Arterys Inc. Methods for four dimensional (4d) flow magnetic resonance imaging
US10331852B2 (en) 2014-01-17 2019-06-25 Arterys Inc. Medical imaging and efficient sharing of medical imaging information
EP3213110B1 (en) * 2014-10-30 2020-08-05 Koninklijke Philips N.V. Compressive sensing in forming ultrasound images
EP3295368A1 (en) * 2015-05-13 2018-03-21 Google LLC Deepstereo: learning to predict new views from real world imagery
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US10529318B2 (en) * 2015-07-31 2020-01-07 International Business Machines Corporation Implementing a classification model for recognition processing
US9769367B2 (en) 2015-08-07 2017-09-19 Google Inc. Speech and computer vision-based control
US10467528B2 (en) * 2015-08-11 2019-11-05 Oracle International Corporation Accelerated TR-L-BFGS algorithm for neural network
US10290040B1 (en) * 2015-09-16 2019-05-14 Amazon Technologies, Inc. Discovering cross-category latent features
US11521070B2 (en) 2015-10-29 2022-12-06 Preferred Networks, Inc. Information processing device and information processing method
CN108603922A (zh) 2015-11-29 2018-09-28 阿特瑞斯公司 自动心脏体积分割
US9836819B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US9836484B1 (en) * 2015-12-30 2017-12-05 Google Llc Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US9838641B1 (en) 2015-12-30 2017-12-05 Google Llc Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US9760807B2 (en) 2016-01-08 2017-09-12 Siemens Healthcare Gmbh Deep image-to-image network learning for medical image analysis
US10043243B2 (en) * 2016-01-22 2018-08-07 Siemens Healthcare Gmbh Deep unfolding algorithm for efficient image denoising under varying noise conditions
US20170221204A1 (en) * 2016-01-28 2017-08-03 Siemens Medical Solutions Usa, Inc. Overlay Of Findings On Image Data
US11755913B2 (en) * 2016-03-11 2023-09-12 Telecom Italia S.P.A Convolutional neural networks, particularly for image analysis
WO2018004557A1 (en) 2016-06-29 2018-01-04 Intel Corporation Multiplication-free approximation for neural networks and sparse coding
EP3482346A1 (en) 2016-07-08 2019-05-15 Avent, Inc. System and method for automatic detection, localization, and semantic segmentation of anatomical objects
US10140979B2 (en) * 2016-08-10 2018-11-27 Conduent Business Services, Llc Modeling a class posterior probability of context dependent phonemes in a speech recognition system
US10832123B2 (en) * 2016-08-12 2020-11-10 Xilinx Technology Beijing Limited Compression of deep neural networks with proper use of mask
US20180060728A1 (en) * 2016-08-31 2018-03-01 Microsoft Technology Licensing, Llc Deep Embedding Forest: Forest-based Serving with Deep Embedding Features
WO2018053835A1 (en) * 2016-09-26 2018-03-29 Intel Corporation Method and apparatus for reducing parameter density of deep neural network (dnn)
US11315018B2 (en) 2016-10-21 2022-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
WO2018084577A1 (en) 2016-11-03 2018-05-11 Samsung Electronics Co., Ltd. Data recognition model construction apparatus and method for constructing data recognition model thereof, and data recognition apparatus and method for recognizing data thereof
AU2017268489B1 (en) * 2016-12-02 2018-05-17 Avent, Inc. System and method for navigation to a target anatomical object in medical imaging-based procedures
CN109074665B (zh) * 2016-12-02 2022-01-11 阿文特公司 用于经由医学成像系统导航到目标解剖对象的系统和方法
WO2018106805A1 (en) * 2016-12-09 2018-06-14 William Marsh Rice University Signal recovery via deep convolutional networks
WO2018113597A1 (zh) * 2016-12-20 2018-06-28 上海寒武纪信息科技有限公司 矩阵乘加运算装置、神经网络运算装置和方法
CN110168576B (zh) * 2017-01-12 2023-06-02 凯迪迪爱通信技术有限公司 信息处理设备、方法和计算机可读存储介质
US10902598B2 (en) 2017-01-27 2021-01-26 Arterys Inc. Automated segmentation utilizing fully convolutional networks
US11328412B2 (en) * 2017-02-08 2022-05-10 Siemens Healthcare Gmbh Hierarchical learning of weights of a neural network for performing multiple analyses
US10636141B2 (en) 2017-02-09 2020-04-28 Siemens Healthcare Gmbh Adversarial and dual inverse deep learning networks for medical image analysis
US10832135B2 (en) * 2017-02-10 2020-11-10 Samsung Electronics Co., Ltd. Automatic thresholds for neural network pruning and retraining
US10713785B2 (en) * 2017-02-13 2020-07-14 Siemens Healthcare Gmbh Image quality assessment system and method
US10546242B2 (en) 2017-03-03 2020-01-28 General Electric Company Image analysis neural network systems
US10133964B2 (en) 2017-03-28 2018-11-20 Siemens Healthcare Gmbh Magnetic resonance image reconstruction system and method
US10475214B2 (en) * 2017-04-05 2019-11-12 General Electric Company Tomographic reconstruction based on deep learning
US20180293486A1 (en) * 2017-04-07 2018-10-11 Tenstorrent Inc. Conditional graph execution based on prior simplified graph execution
CN108694408B (zh) * 2017-04-11 2023-05-09 西安邮电大学 一种基于深度稀疏滤波卷积神经网络的驾驶行为识别方法
US10127495B1 (en) 2017-04-14 2018-11-13 Rohan Bopardikar Reducing the size of a neural network through reduction of the weight matrices
US11113603B1 (en) 2017-05-01 2021-09-07 Perceive Corporation Training network with discrete weight values
US10318317B2 (en) * 2017-05-12 2019-06-11 Tenstorrent Inc. Processing core with operation suppression based on contribution estimate
EP3631691A4 (en) * 2017-05-23 2021-03-31 Intel Corporation METHODS AND APPARATUS FOR IMPROVING A NEURONAL NETWORK OF BINARY WEIGHT USING A DEPENDENCY TREE
CN110637307A (zh) * 2017-05-23 2019-12-31 英特尔公司 用于使用二元张量和缩放因子对来增强神经网络的方法和装置
US10657446B2 (en) 2017-06-02 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. Sparsity enforcing neural network
US10565686B2 (en) 2017-06-12 2020-02-18 Nvidia Corporation Systems and methods for training neural networks for regression without ground truth training samples
US11244226B2 (en) 2017-06-12 2022-02-08 Nvidia Corporation Systems and methods for training neural networks with sparse data
WO2018236748A1 (en) * 2017-06-19 2018-12-27 Washington University DIGITAL ASSISTED IMAGE RECONSTRUCTION FOR TOMOGRAPHIC IMAGING
CN107729990B (zh) * 2017-07-20 2021-06-08 上海寒武纪信息科技有限公司 支持离散数据表示的用于执行正向运算的装置及方法
KR102521054B1 (ko) 2017-10-18 2023-04-12 삼성전자주식회사 조기 중단에 기반한 심층 신경망의 연산 제어 방법 및 시스템
DE102017218851A1 (de) * 2017-10-23 2019-04-25 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes
US10671918B2 (en) * 2017-10-24 2020-06-02 International Business Machines Corporation Attention based sequential image processing
JP6822581B2 (ja) * 2017-11-01 2021-01-27 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
US11461628B2 (en) * 2017-11-03 2022-10-04 Samsung Electronics Co., Ltd. Method for optimizing neural networks
WO2019090325A1 (en) 2017-11-06 2019-05-09 Neuralmagic, Inc. Methods and systems for improved transforms in convolutional neural networks
US11599795B2 (en) 2017-11-08 2023-03-07 International Business Machines Corporation Reducing the cost of n modular redundancy for neural networks
US11170301B2 (en) * 2017-11-16 2021-11-09 Mitsubishi Electric Research Laboratories, Inc. Machine learning via double layer optimization
US20190156214A1 (en) 2017-11-18 2019-05-23 Neuralmagic Inc. Systems and methods for exchange of data in distributed training of machine learning algorithms
WO2019103912A2 (en) 2017-11-22 2019-05-31 Arterys Inc. Content based image retrieval for lesion analysis
US11448778B2 (en) * 2017-12-08 2022-09-20 Rensselaer Polytechnic Institute Neural network-based corrector for photon counting detectors
CN110009091B (zh) 2018-01-05 2023-10-31 微软技术许可有限责任公司 学习网络在等价类空间中的优化
US10885659B2 (en) 2018-01-15 2021-01-05 Samsung Electronics Co., Ltd. Object pose estimating method and apparatus
US10482600B2 (en) 2018-01-16 2019-11-19 Siemens Healthcare Gmbh Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks
CN111602149B (zh) * 2018-01-30 2024-04-02 D5Ai有限责任公司 自组织偏序网络
US11537870B1 (en) 2018-02-07 2022-12-27 Perceive Corporation Training sparse networks with discrete weight values
US11734567B2 (en) 2018-02-13 2023-08-22 Samsung Electronics Co., Ltd. Method and system for reducing deep neural network architectures
EP3553740A1 (en) * 2018-04-13 2019-10-16 Koninklijke Philips N.V. Automatic slice selection in medical imaging
US11967127B2 (en) * 2018-04-18 2024-04-23 Sony Interactive Entertainment Inc. Context embedding for capturing image dynamics
US11361213B1 (en) 2018-04-20 2022-06-14 Perceive Corporation Using lookup table to represent neural network activation function
US10902302B2 (en) 2018-04-23 2021-01-26 International Business Machines Corporation Stacked neural network framework in the internet of things
US11645529B2 (en) 2018-05-01 2023-05-09 Hewlett Packard Enterprise Development Lp Sparsifying neural network models
US11216732B2 (en) 2018-05-31 2022-01-04 Neuralmagic Inc. Systems and methods for generation of sparse code for convolutional neural networks
US10832133B2 (en) 2018-05-31 2020-11-10 Neuralmagic Inc. System and method of executing neural networks
US11449363B2 (en) 2018-05-31 2022-09-20 Neuralmagic Inc. Systems and methods for improved neural network execution
US10963787B2 (en) 2018-05-31 2021-03-30 Neuralmagic Inc. Systems and methods for generation of sparse code for convolutional neural networks
CN108846344B (zh) * 2018-06-05 2022-05-17 中南大学 一种融合深度学习的行人姿势多特征智能辨识方法
US11638569B2 (en) * 2018-06-08 2023-05-02 Rutgers, The State University Of New Jersey Computer vision systems and methods for real-time needle detection, enhancement and localization in ultrasound
US10643092B2 (en) 2018-06-21 2020-05-05 International Business Machines Corporation Segmenting irregular shapes in images using deep region growing with an image pyramid
US10776923B2 (en) * 2018-06-21 2020-09-15 International Business Machines Corporation Segmenting irregular shapes in images using deep region growing
US10671891B2 (en) * 2018-07-19 2020-06-02 International Business Machines Corporation Reducing computational costs of deep reinforcement learning by gated convolutional neural network
KR101952887B1 (ko) * 2018-07-27 2019-06-11 김예현 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
US11690551B2 (en) * 2018-07-30 2023-07-04 Biosense Webster (Israel) Ltd. Left atrium shape reconstruction from sparse location measurements using neural networks
CN109344958B (zh) * 2018-08-16 2022-04-29 北京师范大学 基于反馈调节的物体识别方法及识别系统
CN109036412A (zh) * 2018-09-17 2018-12-18 苏州奇梦者网络科技有限公司 语音唤醒方法和系统
US11636343B2 (en) 2018-10-01 2023-04-25 Neuralmagic Inc. Systems and methods for neural network pruning with accuracy preservation
US11610114B2 (en) 2018-11-08 2023-03-21 Nec Corporation Method for supervised graph sparsification
US11184385B2 (en) 2018-12-03 2021-11-23 Accenture Global Solutions Limited Generating attack graphs in agile security platforms
US11281806B2 (en) 2018-12-03 2022-03-22 Accenture Global Solutions Limited Generating attack graphs in agile security platforms
US11277432B2 (en) 2018-12-03 2022-03-15 Accenture Global Solutions Limited Generating attack graphs in agile security platforms
US11159555B2 (en) 2018-12-03 2021-10-26 Accenture Global Solutions Limited Generating attack graphs in agile security platforms
US11283825B2 (en) 2018-12-03 2022-03-22 Accenture Global Solutions Limited Leveraging attack graphs of agile security platform
US11847567B1 (en) 2018-12-05 2023-12-19 Perceive Corporation Loss-aware replication of neural network layers
US11544559B2 (en) 2019-01-08 2023-01-03 Neuralmagic Inc. System and method for executing convolution in a neural network
US20200258216A1 (en) * 2019-02-13 2020-08-13 Siemens Healthcare Gmbh Continuous learning for automatic view planning for image acquisition
US11615309B2 (en) 2019-02-27 2023-03-28 Oracle International Corporation Forming an artificial neural network by generating and forming of tunnels
US20200293882A1 (en) * 2019-03-15 2020-09-17 Samsung Electronics Co., Ltd. Near-infrared spectroscopy (nir) based glucose prediction using deep learning
US11501160B2 (en) * 2019-03-28 2022-11-15 International Business Machines Corporation Cloud computing data compression for allreduce in deep learning
WO2020226933A2 (en) 2019-05-03 2020-11-12 Verily Life Sciences Llc Insect singulation and classification
CN111754476A (zh) * 2019-06-19 2020-10-09 北京昆仑医云科技有限公司 用于解剖树结构的疾病量化建模的方法及系统
US11695795B2 (en) 2019-07-12 2023-07-04 Accenture Global Solutions Limited Evaluating effectiveness of security controls in enterprise networks using graph values
CN110390394B (zh) * 2019-07-19 2021-11-05 深圳市商汤科技有限公司 批归一化数据的处理方法及装置、电子设备和存储介质
US11494657B2 (en) 2019-07-30 2022-11-08 Perceive Corporation Quantizing neural networks using approximate quantization function
WO2021026225A1 (en) 2019-08-08 2021-02-11 Neuralmagic Inc. System and method of accelerating execution of a neural network
US11539424B2 (en) * 2019-08-27 2022-12-27 Samsung Electronics Co., Ltd System and method for providing channel recovery for angle domain sparse channels
US11238580B2 (en) 2019-08-29 2022-02-01 Varian Medical Systems International Ag Systems and methods for image cropping and anatomical structure segmentation in medical imaging
US20210064985A1 (en) * 2019-09-03 2021-03-04 International Business Machines Corporation Machine learning hardware having reduced precision parameter components for efficient parameter update
CN110613445B (zh) * 2019-09-25 2022-05-24 西安邮电大学 一种基于dwnn框架的心电信号的识别方法
CN110659729B (zh) * 2019-09-25 2022-05-17 山东师范大学 基于循环穿孔的加速cnn图像处理方法及系统
CN110633714B (zh) * 2019-09-25 2022-04-15 山东师范大学 基于近似计算的vgg图像特征提取加速方法及系统
US11681920B2 (en) * 2019-09-27 2023-06-20 Baidu Usa Llc Method and apparatus for compressing deep learning model
CN111028210B (zh) * 2019-11-25 2023-07-18 北京航天控制仪器研究所 一种基于深度神经网络的玻璃管端面缺陷检测方法
EP3872665A1 (en) 2020-02-28 2021-09-01 Accenture Global Solutions Limited Cyber digital twin simulator for security controls requirements
US11586844B2 (en) 2020-03-30 2023-02-21 Wipro Limited Method and system for detecting and tracking objects in a rotational environment
DE102020204571A1 (de) * 2020-04-09 2021-10-14 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Messen von Phasenströmen eines Messobjekts, insbesondere eines Inverters
US11573775B2 (en) * 2020-06-17 2023-02-07 Bank Of America Corporation Software code converter for resolving redundancy during code development
US11782685B2 (en) * 2020-06-17 2023-10-10 Bank Of America Corporation Software code vectorization converter
US11876824B2 (en) 2020-06-25 2024-01-16 Accenture Global Solutions Limited Extracting process aware analytical attack graphs through logical network analysis
US11411976B2 (en) 2020-07-09 2022-08-09 Accenture Global Solutions Limited Resource-efficient generation of analytical attack graphs
US11483213B2 (en) 2020-07-09 2022-10-25 Accenture Global Solutions Limited Enterprise process discovery through network traffic patterns
US11335108B2 (en) * 2020-08-10 2022-05-17 Marlabs Incorporated System and method to recognise characters from an image
WO2022074570A1 (en) * 2020-10-05 2022-04-14 Khalifa University of Science and Technology Approximate computing and data reuse architectures for ai edge devices
US20230376751A1 (en) * 2020-10-14 2023-11-23 King Abdullah University Of Science And Technology Pretraining system and method for seismic data processing using machine learning
US11831675B2 (en) 2020-10-26 2023-11-28 Accenture Global Solutions Limited Process risk calculation based on hardness of attack paths
US11556757B1 (en) 2020-12-10 2023-01-17 Neuralmagic Ltd. System and method of executing deep tensor columns in neural networks
CN112685590B (zh) * 2020-12-29 2022-10-14 电子科技大学 一种基于卷积神经网络正则化处理的图像检索方法
DE102021207493A1 (de) 2021-07-14 2023-01-19 Volkswagen Aktiengesellschaft Verfahren zur Unterstützung eines Betriebs eines Fahrzeuges mit einer Sensoreinheit, Computerprogrammprodukt sowie System
US11880250B2 (en) 2021-07-21 2024-01-23 Accenture Global Solutions Limited Optimizing energy consumption of production lines using intelligent digital twins
US11895150B2 (en) 2021-07-28 2024-02-06 Accenture Global Solutions Limited Discovering cyber-attack process model based on analytical attack graphs
CN113674244A (zh) * 2021-08-20 2021-11-19 中汽创智科技有限公司 一种图像检测方法、装置、存储介质和电子设备
US11960982B1 (en) 2021-10-21 2024-04-16 Neuralmagic, Inc. System and method of determining and executing deep tensor columns in neural networks
CN115393678B (zh) * 2022-08-01 2024-04-02 北京理工大学 一种基于图像式中间态的多模态数据融合决策方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134062A (zh) * 2014-08-18 2014-11-05 朱毅 一种基于深度神经网络的静脉识别系统
CN104361328A (zh) * 2014-11-21 2015-02-18 中国科学院重庆绿色智能技术研究院 一种基于自适应多列深度模型的人脸图像正规化方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7587064B2 (en) * 2004-02-03 2009-09-08 Hrl Laboratories, Llc Active learning system for object fingerprinting
US7783459B2 (en) * 2007-02-21 2010-08-24 William Marsh Rice University Analog system for computing sparse codes
WO2009149126A2 (en) * 2008-06-02 2009-12-10 New York University Method, system, and computer-accessible medium for classification of at least one ictal state
WO2012100270A2 (en) * 2011-01-21 2012-07-26 Headwater Partners Ii Llc Tracking of tumor location for targeted radiation treatment
US9235799B2 (en) 2011-11-26 2016-01-12 Microsoft Technology Licensing, Llc Discriminative pretraining of deep neural networks
US8700552B2 (en) * 2011-11-28 2014-04-15 Microsoft Corporation Exploiting sparseness in training deep neural networks
US9111375B2 (en) * 2012-01-05 2015-08-18 Philip Meier Evaluation of three-dimensional scenes using two-dimensional representations
US9275308B2 (en) 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
GB201402736D0 (en) * 2013-07-26 2014-04-02 Isis Innovation Method of training a neural network
US9700219B2 (en) 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US10095917B2 (en) 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
US9483728B2 (en) 2013-12-06 2016-11-01 International Business Machines Corporation Systems and methods for combining stochastic average gradient and hessian-free optimization for sequence training of deep neural networks
US9601109B2 (en) 2013-12-06 2017-03-21 International Business Machines Corporation Systems and methods for accelerating hessian-free optimization for deep neural networks by implicit preconditioning and sampling
CN104408481B (zh) * 2014-12-05 2017-07-28 西安电子科技大学 基于深度小波神经网络的极化sar图像分类方法
US9721190B2 (en) * 2014-12-19 2017-08-01 Google Inc. Large-scale classification in neural networks using hashing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134062A (zh) * 2014-08-18 2014-11-05 朱毅 一种基于深度神经网络的静脉识别系统
CN104361328A (zh) * 2014-11-21 2015-02-18 中国科学院重庆绿色智能技术研究院 一种基于自适应多列深度模型的人脸图像正规化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deep learning for feature representation with multiple instance learning for medical image analysis;Y. Xu等;《2014 IEEE international conference on acoustic, speech and signal processing》;20140714;第1626-1629页 *
Reshaping deep neural network for fast decoding by node-pruning;T.X. He等;《2014 IEEE international conference on acoustic, speech and signal processing》;20140714;第245-248页 *

Also Published As

Publication number Publication date
CN110175630A (zh) 2019-08-27
US20160328643A1 (en) 2016-11-10
CN110175630B (zh) 2023-09-01
US9633306B2 (en) 2017-04-25
EP3091486B1 (en) 2023-08-23
EP3091486A3 (en) 2017-03-22
CN106127217A (zh) 2016-11-16
EP3091486A2 (en) 2016-11-09

Similar Documents

Publication Publication Date Title
CN106127217B (zh) 用于近似深入神经网络以用于解剖对象检测的方法和系统
CN107636659B (zh) 使用深度神经网络检测医学图像中的地标的方法和系统
Hooda et al. Deep-learning: A potential method for tuberculosis detection using chest radiography
Pezeshk et al. 3-D convolutional neural networks for automatic detection of pulmonary nodules in chest CT
US9668699B2 (en) Method and system for anatomical object detection using marginal space deep neural networks
Rodriguez et al. Deep adaptive wavelet network
CN110414601A (zh) 基于深度卷积对抗网络的光伏组件故障诊断方法、系统及设备
WO2012130251A1 (en) Image understanding based on fuzzy pulse - coupled neural networks
Popescu et al. Retinal blood vessel segmentation using pix2pix gan
Singh et al. Object classification to analyze medical imaging data using deep learning
Han et al. Learning generative models of tissue organization with supervised GANs
CN104680190B (zh) 目标检测方法及装置
Wang et al. Secondary pulmonary tuberculosis recognition by rotation angle vector grid-based fractional Fourier entropy
CN114913262B (zh) 采样模式与重建算法联合优化的核磁共振成像方法及系统
Öztürk et al. Phase classification of mitotic events using selective dictionary learning for stem cell populations
Londhe Classification of eye diseases using hybrid CNN-RNN models
Yan et al. Evolutionary multiobjective neural architecture search for organ medical image classification
Dovbysh et al. Decision-Making support system for diagnosis of breast oncopathologies by histological images
Akbarimajd et al. Detection of covid-19 in noisy X-ray images using learning-to-augment incorporated noise-robust deep CNN
Demin et al. Semantic segmentation of lung radiographs using U-net type neural network
Kapoor et al. Lung Cancer Detection Using VGG16 and CNN
Barhoumi Efficient Scopeformer: Towards Scalable and Rich Feature Extraction for Intracranial Hemorrhage Detection using Hybrid Convolution and Vision Transformer Networks
Jara et al. Learning Curve Analysis on Adam, Sgd, and Adagrad Optimizers on a Convolutional Neural Network Model for Cancer Cells Recognition
Anand et al. Optimization of Machine Learning and Deep Learning Algorithms for Diagnosis of Cancer
Angriawan Transfer Learning Strategies for Fine-Tuning Pretrained Convolutional Neural Networks in Medical Imaging

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant