CN107851174A - 图像语义标注的设备和方法 - Google Patents

图像语义标注的设备和方法 Download PDF

Info

Publication number
CN107851174A
CN107851174A CN201580081584.2A CN201580081584A CN107851174A CN 107851174 A CN107851174 A CN 107851174A CN 201580081584 A CN201580081584 A CN 201580081584A CN 107851174 A CN107851174 A CN 107851174A
Authority
CN
China
Prior art keywords
cnn
pixel
class label
probability
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580081584.2A
Other languages
English (en)
Other versions
CN107851174B (zh
Inventor
汤晓鸥
刘子纬
李晓潇
罗平
吕健勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of CN107851174A publication Critical patent/CN107851174A/zh
Application granted granted Critical
Publication of CN107851174B publication Critical patent/CN107851174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

公开了一种图像语义标注模型的生成方法,其包括:分别形成第一CNN和第二CNN;随机地将第一CNN初始化;将原始图像和多个预定标签真值标注输入到第一CNN,以迭代地更新第一CNN的权值,从而使得从第一CNN输出的、原始图像的类别标签概率接近预定标签真值标注;随机地将第二CNN初始化;将类别标签概率输入到第二CNN,以校正输入的类别标签概率,以确定类别标签概率的分类误差;通过反向传播分类误差来更新第二CNN;将更新的第一CNN与更新的第二CNN进行级联;将原始图像中的每个像素分类为多个通用对象类别中的一个;以及将分类误差反向传播通过级联的CNN,以更新级联的CNN的权值,直到分类误差小于预定阈值。

Description

图像语义标注的设备和方法
技术领域
本公开涉及一种图像语义标注的设备和方法。
背景技术
马尔可夫随机场(MRF)或条件随机场(CRF)在语义图像标注方面已经取得了巨大成功,而语义图像标注是计算机视觉最具挑战性的问题之一。现有的工作一般可以基于MRF的一元项(unary term)和二元项(pairwise term)的定义而被分成两组。
在第一组中,研究人员通过探索丰富的信息以定义二元(pairwise)的功能,包括远程依赖性(long-range dependency)、高阶电位(high-order potential)和语义标签上下文,从而提高了标注准确性。例如,基米-雷克南(Kr¨ahenb¨uhl)等人通过在全连接图上进行推断来获得准确的分割边界。维尼特(Vineet)等人通过定义像素之间的高阶(high-order)和远程项(long-range terms)来扩展全连接图。最近也有人在研究标签之间的全局或局部语义上下文。尽管他们得到了有希望的结果,但他们是将一元项建模为SVM或Adaboost,而它们的学习能力则是瓶颈。复杂的二元项的学习和推断通常是比较昂贵的。
在第二组中,人们通过利用深度学习的新发展(诸如,卷积神经网络(CNN))来学习强一元分类器。利用深度模型,这些工作使用二元函数的简单定义或甚至忽略该函数,从而获得了令人鼓舞的结果。例如,龙(Long)等人将CNN的全连接层变换成卷积层,从而使得通过对目前的CNN架构进行预先训练就有可能实现准确的逐像素(per-pixel)分类。基于最新的发展可以通过将MRF推断的误差向后传播到CNN来共同训练CNN和MRF,但在反向传播(BP)期间,每个训练图像均需要采用MRF的迭代推断,例如均值场算法(MF)。郑(Zheng)等人进一步表明MF推断的程序可以表示为递归神经网络(RNN),但它们的计算成本类似。直接将上述的CNN和MRF进行组合效率低下,因为CNN一般具有数百万个参数,而MRF也需要推断数千个潜在的变量;并且更糟的是,将复杂的二元项合并到MRF中是不切实际的,从而限制了整个系统的性能。
发明内容
下面简要地概述本公开的内容,以基本理解本公开的一些方面。发明内容部分并非是本申请公开内容的详细概述。它既不是用来标识本公开的关键或重要元素,也不用来描述本公开的特定实施方案的任何范围或权利要求书的任何范围。该发明内容唯一的目的是以简化的形式给出本公开的一些概念,作为后面更详细描述的序言。
本申请公开了一种用于针对任意大小的原始图像,实时地产生逐像素类别标签图的端对端解决方案。初始输入是具有真值(ground truth)类别标签图的原始图像数据集。原始图像数据集及其类别标签图标注馈入到所谓的“一元项预先训练单元”或类似的单元/模块/装置中,其输出的是预先训练的一元项及其对应的类别标签概率。由预先训练的一元项模型和真值类别标签图产生的类别标签概率馈入到“二元项预先训练单元”或类似的单元/模块/装置中,其输出的是预先训练的二元项模型。将预先训练的一元项模型和预先训练的二元项模型形成的级联模型、以及原始图像数据集及其类别标签图标注馈入到“微调单元”或类似的单元/模型/装置中,其输出的是微调后的最终模型。在给定任何原始图像(具有任意大小)作为输入的情况下,微调后的最终模型采用微调后的最终模型来预测逐像素类别标签图。
端对端解决方案包括深度解析网络(下文称为DPN或第二CNN)。为了训练PDN,训练阶段中的若干重要概念详述如下:
1.标准训练:迭代地更新模型的权值,从而使得模型的输出(预测)可以接近真值标注。例如,在语义图像标注任务中,模型训练的目标是:预测应该与现实情况(标注)对齐的每个像素的特定类别标签(例如,“行人”、“小汽车”等)的存在。通常,模型的权值随机地初始化。
2.预先训练:预先训练使模型具有良好的初始化情况以便进一步调整。因此,预先训练的模型通常充当微调模型的起始点。
微调:微调也类似标准训练,不同之处是:权值不是随机地初始化,而是使用预先训练的模型中的权值进行初始化。
在一方面,公开了一种图像语义标注模型的生成方法,其包括:分别形成第一CNN和第二CNN;随机地将所述第一CNN初始化;将原始图像和多个预定标签真值标注输入到所述第一CNN,以迭代地更新所述第一CNN的权值,从而使得从所述第一CNN输出的、所述原始图像的类别标签概率接近所述预定标签真值标注;随机地将所述第二CNN初始化;将所述类别标签概率输入到所述第二CNN,以对输入的类别标签概率进行校正,从而确定所述类别标签概率的分类误差;通过反向传播所述分类误差来更新所述第二CNN;将更新的第一CNN和更新的第二CNN进行级联;将所述原始图像中的每个像素分类为多个通用对象类别中的一个;以及将所述分类误差反向传播通过所述级联的CNN以更新所述级联的CNN的权值,直到所述分类误差小于预定阈值。
本申请的另一方面公开了图像语义标注方法。该方法包括:1)为图像中的每个像素确定类别标签概率;2)在空间域中从馈入的类别标签概率确定每个像素的上下文信息;3)从所述馈入的类别标签概率中为每个像素确定局部标签上下文;4)将所述上下文信息乘以所述局部标签上下文以获得用于所述类别标签概率的调整因数;以及5)将所述调整因数应用于所述类别标签概率,以更新所述类别标签概率。
本申请的另一方面公开了一种图像语义标注模型的生成系统。该系统包括:一元项预先训练单元,其用于:随机地将第一CNN初始化;基于输入的原始图像和预定标签真值标注来迭代地更新所述第一CNN的权值,从而使得从所述第一CNN输出的类别标签概率接近所述预定标签真值标注;二元项预先训练单元,其用于:随机地将第二CNN初始化;校正所述类别标签概率以确定所述类别标签概率的分类误差;以及通过反向传播所述分类误差来更新所述第二CNN;微调单元,其用于:将更新的第一CNN与更新的第二CNN进行级联;通过将所述原始图像中的每个像素分类为多个通用对象类别中的一个而获得分类误差;以及将所述分类误差反向传播通过级联的CNN以更新所述级联的CNN的权值,直到所述分类误差小于预定阈值。
在又一方面,公开了一种图像语义标注设备,其包括:一元项单元,其用于为图像中的每个像素确定类别标签概率;二元项单元,其用于在空间域中从馈入的类别标签概率确定每个像素的上下文信息;以及用于从所述馈入的类别标签概率中确定每个像素的局部标签上下文;以及微调单元,其用于将所述上下文信息乘以所述局部标签上下文,以获得用于类别标签概率的调整因数;以及将所述调整因数应用于所述类别标签概率,以更新所述类别标签概率。
附图说明
下文参考附图描述本发明的示例性非限制实施方案。附图是说明性的,并且一般不按确切比例。不同图上的相同或类似元件引用相同的参考编号。
图1示出了根据本申请的一个实施方案的、图像语义标注模型的生成方法。
图2示出了根据本申请的实施方案的步骤S102进行检测的详细过程。
图3示出了根据本申请的实施方案的步骤S103的详细过程。
图4示出了根据本申请的实施方案的步骤S104的详细过程。
图5示出了根据本申请的一个实施方案的图像语义标注方法的详细过程。
图6示出了根据本申请的一个实施方案的完整图像预测/测试。
图7是示出了根据本申请的一个实施方案的、图像语义标注模型的生成系统的示意图。
图8是示出了根据本申请的一个实施方案的、图像语义标注设备的示意图。
图9示出了根据本申请的实施方案的、图像语义标注模型的生成系统。
图10示出了根据本申请的实施方案的、图像语义标注生成系统。
具体实施方式
下面将详细地描述本发明的一些具体实施方案,包括发明人预期的用于实施本发明的最佳模式。附图中示出的是这些具体实施方案的示例。尽管结合这些具体实施方案描述了本发明,但应理解这并不是用于将本发明限于所述的实施方案。相反,这些描述的用于涵盖可以包括在如所附权利要求书限定的本发明的精神和范围内的替代方案、修改和等效物。以下描述中列出了许多具体细节,以提供对本发明的彻底理解。在实践中本发明还可以去除这些具体细节中的一些或全部。在其他情况下,没有详细地描述众所周知的过程操作,以免不必要地使本发明变得模糊。
本文中使用的术语仅仅是出于描述特定实施方案的目的,而并不用于限制本发明。除非上下文另有明确指出,否则本文中使用的单数形式“一”、“一个”和“所述”也用于包括复数形式。还应理解,本说明书中使用的术语“包括(comprises)”和/或“包括(comprising)”用于说明存在所述特征、整数、步骤、操作、元件和/或部件,但并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或它们的组合。
图1示出了根据本申请的实施方案的、图像语义标注模型的生成方法1000。所生成的语义图像标注模型可用于预测图像中的每个像素的类别标签。具体而言,所生成的模型的目标是自动地输出标签图,该标签图将原始图像分割成若干语义部分。它在智能家居、无人驾驶、图像编辑等方面具有很大的应用潜力。例如,在智能家居中,语义部分是‘沙发’、‘椅子’和‘餐桌’,如下面第一行所示,而在无人驾驶中,语义部分将是‘天空’、‘建筑’、‘行人’、‘小汽车’和‘道路’,如下面第二行所示。
如图所示,在步骤S101将分别形成第一CNN和第二CNN。所形成的第一CNN可以是包括至少一个卷积层和至少一个池化层的任一传统的CNN。由于卷积层和池化层是本领域中公知的,因此本文中将省略其详细描述。
在步骤S102处,随机地将所形成的第一CNN初始化,将原始图像以及与其对应的预定标签真值标注输入到第一CNN,以迭代地更新第一CNN的权值以使得从第一CNN输出的类别标签概率接近预定标签真值标注,这将参考下面的图2所示的实施方案进一步论述。
在步骤S103处,随机地将第二CNN初始化,将类别标签概率输入到第二CNN,以校正输入的类别标签概率,从而确定类别标签概率的分类误差;并且通过反向传播分类误差来更新第二CNN,这将参考下面图3所示的实施方案进一步论述。
在步骤S104处,过程1000将更新的第一CNN与更新的第二CNN进行级联、将原始图像中的每个像素分类为通用对象类别中的一个,并且将分类误差反向传播通过级联的CNN,以更新级联的CNN的权值,直到分类误差小于预定阈值。
图2示出了根据本申请的实施方案的步骤S102的过程。在本实施方案中,在不同的训练设置中可使用不同的监督(supervisions)。在每个训练设置中,只使用一个监督。作为示例,以下示出不同的训练策略:
1.逐像素(Per-pixel)类别标签图作为监督:
在此设置中,可以根据真值类别标签图自然地调整网络参数,以进行准确的逐像素预测。
2.类别边界框作为监督:
由于类别边界框表明在区域级上存在某一对象,因此,可以将它们视作粗类别标签图监督。以这种方式训练的一元项在所产生的标签图上得到良好的定位性能。
3.图像级标记作为监督:
当利用图像级标记预测的任务(通过添加额外的分类层)来训练一元项时,一元项的顶层具有对对象位置的高响应。并且那些响应图可以容易调整为一元项的输出。
4.图像级描述语句作为监督:
首先,使用递归神经网络(RNN)来将描述语句转换成潜在图像级标记。那么,随后的训练策略类似于上面一个。
以下描述只是将“类别标签图监督”作为示例。其他监督可以以类似方式使用。
在步骤S201处,随机地将第一CNN的权值初始化。在步骤S202处,将原始图像及其对应的标签真值标注输入到第一CNN。CNN进行操作以将输入图像中的每个像素分类为N个通用对象类别中的一个、将每个对象类别与对应的标签真值标注进行比较,以计算分类误差,即,分类出的对象类别与对应的预定标签真值标注之间的差异。
在步骤S203处,确定上述计算出的分类误差是否小于预定阈值,如果否,则在步骤S204处,将分类误差反向传播通过第一CNN以更新权值,直到新计算出的分类误差小于预定阈值。
本发明是端对端解决方案,以无缝的方式将直接标签预测(一元项)和上下文标签细化(二元项)整合,因而可以共同地优化并且形成简单但有力的解决方案。为此,提出第二CNN来得到丰富的上下文信息。具体而言,第二CNN在空间域(三元惩罚(triple penalty))和标签域(局部标签上下文)中考虑上下文信息,因而实现最先进的性能。特别地,第二CNN采用局部共享过滤器来计算三元惩罚。通过混合的全局共享过滤器和块最小池化(blockminimum pooling)来对局部标签上下文进行建模。
在本申请的一个实施方案中,第二CNN(在本文中也称为“二元项模型”)是包括三元惩罚层(局部共享过滤器)、局部标签上下文层(全局共享过滤器的混合)以及块最小池化层的新深度学习架构。最终模型就是一元项模型和二元项模型的级联。
过滤器是施加于输入数据并且导致输出数据的网络参数。局部共享的过滤器拥有不同位置的不同参数,而全局共享的过滤器具有不同位置的相同参数。
·局部共享过滤器
在第二CNN(在本文中也称为“二元项模型”)中,采用局部共享过滤器来计算三元惩罚。三元惩罚带来的直观效果是:相似像素(例如,都是蓝色)应具有相似类别标签(例如,‘天空’)。为此,第二CNN必须计算当前参考像素与其邻近像素的相似性关系。当第二CNN考虑不同的参考像素时,相似性关系也改变。这就是局部共享过滤器(其拥有不同位置的不同参数)用来对这种相似性关系进行建模的原因。
·全局共享过滤器的混合:
在二元项模型中,采用全局共享过滤器的模型对局部标签上下文进行建模。局部标签上下文带来的直观效果是:标签具有某些同时出现的情况(例如,‘天空’和‘飞机’更可能一起出现)和具有某些配置(例如,‘人’更有可能在‘摩托车’上面)。由于此类标签上下文在图像的不同位置上共享,因此使用全局共享过滤器对它们进行建模。为了进一步增强建模能力,可包括更多的全局共享过滤器以形成混合。(每个全局共享过滤器捕获一种类型的局部标签上下文;并且更多的全局共享过滤器能够捕获各种类型的局部标签上下文。)通过这种方式,可以捕获丰富的标签上下文。
·块最小池化:
如上所述,采用全局共享过滤器的混合对标签上下文进行建模。混合中的每个全局共享过滤器相对于输入产生标签上下文的匹配成本。具有最小匹配成本的全局共享过滤器就是要寻找的标签上下文。为了找到这个对应的全局共享过滤器,使用块最小池化。这个池化操作将所有全局共享过滤器的匹配成本作为输入并且挑出最小的一个。通过这种方式,可以获得对应的标签上下文。
图3示出了根据本申请的实施方案的步骤S103的详细过程。
在步骤S301处,接收图像和真值类别标签作为对第一CNN的输入,所述真值类别标签指的是语义对象,诸如,“天空”、“人”等。
在步骤S302处,第一预先训练的CNN将所接收的图像中的每个像素与真值类别标签进行比较,以预测所接收的图像中的每个像素的类别标签来获得每个像素的类别标签概率,该概率表示某一标签被分配给像素的置信度。例如,如果一个像素的类别标签概率为:0.8(“人”)和0.2(“天空”),那么将使用大得多的置信度来将这个像素分类为“人”。
在步骤S303处,将真值类别标签和所获得的类别标签概率馈入到随机初始化后的第二CNN(PDN)中。第二CNN校正输入的类别标签概率,以确定类别标签概率的分类误差。这里的每个模型将输出其自己的类别标签概率。通过参考对应的类别标签概率来作出所有的分类决定。例如,如果一个像素的类别标签概率为:0.8(“人”)和0.2(“天空”),那么将这个像素分类为“人”。通过将预测的标签与图像中的所有像素的真值标签进行比较来获得分类误差。第二CNN通过调整第一CNN产生的概率来更新其权值,以作出正确的预测。例如,如果上述像素的类别标签实际上是“天空”,那么这个分类误差将引导第二CNN增加“天空”的概率并且降低“人”的概率,例如,0.4(“人”)和0.6(“天空”)。在这种情况下,最终的分类结果将是“天空”,这与真值标签更一致。应注意,第二CNN基本上确定对第一CNN产生的概率的调整(在这里,对“人”的调整是-0.4并且对“天空”是+0.4)。
在步骤S304处,通过将反向传播分类误差来更新第二CNN,直到误差小于预定阈值,该预定阈值在本领域中是公知的。
图4示出根据本申请的实施方案的步骤S104的详细过程。
在步骤S401处,将更新的第一CNN(“一元项模型”)和更新的第二CNN(“二元项模型”)级联起来。
在步骤S402处,将原始图像中的每个像素分类为多个通用对象类别中的一个,并且将每个分类出的对象与对应的真值进行比较,以获得分类误差。具体而言,通过将预测的类别标签(分类出的通用对象类别)与真值类别标签进行比较来获得每个像素的分类误差。如果它们一致,那么将没有分类误差(即,0);否则,将存在分类误差(即,1)。最后,对图像中的所有像素的分类误差进行计算。
在步骤S403处,将分类误差反向传播通过级联的CNN,以更新级联的CNN的权值,直到分类误差小于预定阈值。
下文将参考图5论述根据本申请的一个实施方案的语义图像标注方法5000。
在步骤S501处,在给定输入的原始图像的情况下,由级联的两个CNN来确定图像中的每个像素的类别标签概率,如在步骤S403中论述的那样。在本申请的一个实施方案中,可以由级联的CNN中的第一CNN来确定图像中的每个像素的类别标签概率。
在步骤S502处,通过级联的两个CNN,在空间域(三元惩罚)中从类别标签概率确定每个像素的上下文信息。
在步骤S503处,从馈入的类别标签概率中确定每个像素的局部标签上下文,并且在步骤S504处,将确定的上下文信息乘以确定的局部标签上下文,以获得用于对第一CNN所产生的概率进行调整的因数(adjustments)。通过将调整因数应用于原始概率来获得更改的概率。通过参考更改的概率来确定最终的标注结果。
方法5000可以将任何原始完整图像作为输入并且馈入到微调后的最终模型(DPN)中。具体而言,首先提取关于各种图像区域的对象建议(proposal)。随后,将每个对象建议馈入到DPN中,以得到其对应区域标签图。通过将所有这些区域标签图组合成完整图像的标签图来获得最终结果。为清楚起见,图6中示出了完整图像的预测/测试,其中图6(a)示出了完整图像的预测/测试,并且图6(b)示出了对象建议区域预测/测试,但应注意,还可以自然地延伸到其他测试策略。
图7是示出了根据本申请的一个实施方案的图像语义标注模型的生成系统7000的示意图。
如图所示,图像语义标注模型的生成系统7000可包括一元项预先训练单元701、二元项预先训练单元702和微调单元703。
一元项预先训练单元701用于:随机地将第一CNN初始化;基于输入的原始图像和预定标签真值标注通过反向传播分类误差来迭代地更新第一CNN的权值。在本文中,通过在预先训练期间将预测的标签与真值标签/标注进行比较来获得分类误差。在预先训练的每次迭代中均具有用于更新权值而计算出的分类误差。在收敛之后,通过将对应的原始图像向前馈入到具有更新的权值的第一CNN中来获得每个图像的类别标签概率,即,类别标签概率就是第一CNN的输出。
二元项预先训练单元702用于:随机地将第二CNN初始化;校正所述类别标签概率以确定类别标签概率的分类误差;以及通过反向传播分类误差来更新第二CNN,如参考图3论述的那样。
微调单元703用于:将更新的第一CNN与更新的第二CNN进行级联;将原始图像中的每个像素分类为多个通用对象类别中的一个,以获得分类误差;以及将分类误差反向传播通过级联的CNN,以更新级联的CNN的权值直到分类误差小于预定阈值,这已经参考图4论述。
如上文所述,第二CNN可以用于在空间域(三元惩罚)中从类别标签概率中确定出每个像素的上下文信息。二元项预先训练单元702可以用于计算图像中的当前参考像素与其邻近像素的相似性关系。对于不同的参考像素,所计算的相似性关系也会随之改变。二元项预先训练单元702可以利用多个局部共享过滤器(其拥有图像中的不同位置的像素的不同参数)对相似性关系进行建模,使得相似像素(例如,两者都是蓝色)应具有相似的类别标签,以及利用多个全局共享过滤器(其拥有图像中的不同位置的像素的相同参数)来更新像素的局部标签上下文/进行建模;其中每个全局共享过滤器产生标签上下文的匹配成本,并且具有最小匹配成本的全局共享过滤器表示一种类型的局部标签上下文。
图8是示出根据本申请的一个实施方案的图像语义标注设备8000的示意图。
如图所示,语义图像标注设备8000可以包括:一元项单元801,其用于确定图像中的每个像素的类别标签概率;二元项单元802,其用于在空间域(三元惩罚)中,从馈入的类别标签概率中为每个像素确定上下文信息,以及用于从馈入的类别标签概率中确定每个像素的局部标签上下文;以及微调单元803,其用于将确定的上下文信息乘以确定的局部标签上下文,以获得用于对第一CNN所产生的概率进行调整的因数。通过将调整因数应用于原始概率来获得更改的概率。通过参考更改的概率来确定最终的标注结果。在实施方案中,微调单元803还用于将一元项单元801和二元项单元802统一(unify)到端对端系统中。一元项单元和二元项单元的权值同时更新。因此,一元项部件和二元项部件可以更协作并且更有效地起作用。
在本申请的一个实施方案中,二元项单元802还用于在空间域(三元惩罚)中从馈入的类别标签概率中确定出每个像素的上下文信息。二元项单元802另外可以用于计算当前参考像素与其邻近像素的相似性关系。对于不同的参考像素,所计算的相似性关系也会随之改变。在本申请的一个实施方案中,二元项单元802利用多个局部共享过滤器(其拥有图像中的不同位置的像素的不同参数)对相似性关系进行建模,使得相似像素(例如,两者都是蓝色)应具有相似的类别标签。二元项单元802还可以利用多个全局共享过滤器(其拥有图像中的不同位置的像素的相同参数)来更新局部标签上下文/进行建模;其中每个全局共享过滤器产生标签上下文的匹配成本,并且具有最小匹配成本的全局共享过滤器就是标签上下文。
图9示出了符合本申请的实施方案的、图像语义标注模型的生成系统9000。在此实施方案中,如图1所示的过程可以由系统9000中的软件实施。参考图9,系统9000包括存储可执行部件的存储器91,以及处理器92,所述处理器电耦合到存储器91以执行可执行部件从而执行系统9000的操作。可执行部件可包括:一元项预先训练部件93,其用于随机地将第一CNN初始化;基于输入的原始图像和预定标签真值标注来迭代地更新第一CNN的权值,从而使得从第一CNN输出的类别标签概率接近预定标签真值标注;以及二元项预先训练部件94,其用于随机地将第二CNN初始化;校正所述类别标签概率,以确定类别标签概率的分类误差;以及通过反向传播分类误差来更新第二CNN。可执行部件还可以包括微调单元95,其用于:将更新的第一CNN与更新的第二CNN进行级联;将原始图像中的每个像素分类为通用对象类别中的一个;以及将分类误差反向传播通过级联的CNN,以更新级联的CNN的权值,直到分类误差小于预定阈值。在实施方案中,第二CNN用于在空间域(三元惩罚)中,从类别标签概率确定出每个像素的上下文信息。二元项预先训练部件用于计算图像中的当前参考像素与其邻近像素的相似性关系。对于不同的参考像素,所计算的相似性关系也改变。二元项预先训练部件利用多个局部共享的过滤器来更新相似性关系/进行建模,使得相似像素应具有相似的类别标签。二元项预先训练部件利用多个全局共享的过滤器(其拥有图像中的不同位置的像素的相同参数)对像素的局部标签上下文进行建模;其中每个全局共享的过滤器产生标签上下文的匹配成本,并且具有最小匹配成本的全局共享的过滤器表示一种类型的局部标签上下文。
图10示出符合本申请的实施方案的图像语义标注模型的生成系统100。在此实施方案中,如图5所示的过程可以由系统100中的软件实施。参考图10,系统100包括存储可执行部件的存储器101,以及处理器102,所述处理器电耦合到存储器101以执行可执行部件,以便执行系统100的操作。可执行部件可以包括:一元项部件103,其用于确定图像中的每个像素的类别标签概率;二元项部件104,其用于在空间域(三元惩罚)中从馈入的类别标签概率中确定出每个像素的上下文信息,以及用于从馈入的类别标签概率中确定每个像素的局部标签上下文;以及微调部件105,其用于将确定的上下文信息乘以确定的局部标签上下文,以获得用于对第一CNN所产生的概率进行调整的因数。通过将调整因数应用于原始概率来获得更改的概率。通过参考更改的概率来确定最终的标注结果。此外,微调部件105还用于将一元项部件和二元项部件统一到端对端系统中。一元项部件和二元项部件的权值同时更新。因此,一元项部件和二元项部件可以更协作并且更有效地起作用。
二元项部件103还用于在空间域(三元惩罚)中从馈入的类别标签概率中为每个像素确定上下文信息。
二元项部件104还用于计算当前参考像素与其邻近像素的相似性关系。对于不同的参考像素,所计算的相似性关系也随之改变。二元项部件104利用多个局部共享过滤器对相似性关系进行建模,使得相似像素具有相似的类别标签。二元项部件104利用多个全局共享过滤器对局部标签上下文进行建模。每个全局共享过滤器产生标签上下文的匹配成本,并且具有最小匹配成本的全局共享过滤器表示一种类型的局部标签上下文。
尽管已描述了本发明的优选示例,但在了解本发明基本概念后,本领域的技术人员可以对这些示例作出变化或更改。所附权利要求书用于包括落入本发明的范围内的优选示例和所有变化或更改。
显然,在不脱离本发明的精神和范围的情况下,本领域的技术人员可以对本发明作出变化或更改。因此,如果这些变化或更改属于权利要求书和等效技术的范围,那么它们也将落入本发明的范围内。

Claims (21)

1.一种图像语义标注模型的生成方法,包括:
分别形成第一CNN和第二CNN;
随机地将所述第一CNN初始化;
将原始图像和多个预定标签真值标注输入到所述第一CNN,以迭代地更新所述第一CNN的权值,从而使得从所述第一CNN输出的、所述原始图像的类别标签概率接近所述预定标签真值标注;
随机地将所述第二CNN初始化;
将所述类别标签概率输入到所述第二CNN,以对输入的类别标签概率进行校正,从而确定所述类别标签概率的分类误差;
通过反向传播所述分类误差来更新所述第二CNN;
将更新的第一CNN和更新的第二CNN进行级联;
将所述原始图像中的每个像素分类为多个通用对象类别中的一个;以及
将所述分类误差反向传播通过所述级联的CNN以更新所述级联的CNN的权值,直到所述分类误差小于预定阈值。
2.根据权利要求1所述的方法,其中,所述第二CNN用于在空间域(三元惩罚)中,从所述类别标签概率确定每个像素的上下文信息。
3.根据权利要求1或2所述的方法,其中,所述第二CNN用于计算所述图像中的当前参考像素与其邻近像素的相似性关系,
其中,所计算出的相似性关系随不同的参考像素而改变,
所述第二CNN利用多个局部共享过滤器来更新所述相似性关系,使得相似的像素具有相似的类别标签。
4.根据权利要求3所述的方法,其中,所述第二CNN利用多个全局共享过滤器来更新所述像素的局部标签上下文;其中每个所述全局共享过滤器产生所述标签上下文的匹配成本,并且匹配成本最小的全局共享过滤器表示一种类型的局部标签上下文。
5.一种图像语义标注方法,包括:
1)为图像中的每个像素确定类别标签概率;
2)在空间域中从馈入的类别标签概率确定每个像素的上下文信息;
3)从所述馈入的类别标签概率中为每个像素确定局部标签上下文;
4)将所述上下文信息乘以所述局部标签上下文以获得用于所述类别标签概率的调整因数;以及
5)将所述调整因数应用于所述类别标签概率,以更新所述类别标签概率。
6.根据权利要求6所述的方法,其中,所述步骤1)还包括:
通过第一预先训练的CNN为图像中的每个像素确定出类别标签概率。
7.根据权利要求7所述的方法,其中,所述第一CNN包括至少一个卷积层和至少一个池化层,
其中,所述第一CNN通过以下处理进行训练:
随机地将所述卷积层和池化层中的每一层的权值初始化;
通过将所述图像中的每个像素分类为多个通用对象类别中的一个而计算出分类误差;以及
将所述分类误差反向传播通过所述第一CNN,以迭代地更新所述权值直到新计算的分类误差小于预定阈值。
8.根据权利要求6所述的方法,其中,所述步骤2)还包括:
通过第二预先训练的CNN,在空间域中从所述馈入的类别标签概率确定出每个像素出的上下文信息,所述第二预先训练的CNN与所述第一CNN具有不同的架构。
9.根据权利要求9所述的方法,其中,所述方法还包括通过下列处理来训练所述第二CNN:
接收图像和真值类别标签;
使用第一预先训练的CNN将接收的图像中的每个像素与所述真值类别标签进行比较,从而为所述接收的图像中的每个像素预测类别标签,以获得用于将特定标签分配给该像素的类别标签概率;以及
将所述真值类别标签和所获得的类别标签概率馈入到所述第二预先训练的CNN中来更新所述第二预先训练的CNN。
10.根据权利要求10所述的方法,还包括:
将更新的第一CNN和更新的第二CNN进行级联;
通过将原始图像中的每个像素分类为多个通用对象类别中的一个而获得分类误差;以及
将所述分类误差反向传播通过级联的CNN,以更新所述级联的CNN的权值,直到所述分类误差小于预定阈值。
11.根据权利要求6或9所述的方法,其中,所述步骤2)还包括:
计算当前参考像素与其邻近像素的相似性关系,
其中,所计算出的相似性关系随不同的参考像素而改变,
所述第二CNN利用多个局部共享过滤器来更新所述相似性关系,使得相似像素应具有相似的类别标签。
12.根据权利要求12所述的方法,其中,在所述步骤3)中,所述第二CNN利用多个全局共享过滤器来更新所述局部标签上下文;其中每个全局共享过滤器产生所述标签上下文的匹配成本,并且匹配成本最小的全局共享过滤器就是所述标签上下文。
13.一种图像语义标注模型的生成系统,包括:
一元项预先训练单元,其用于:随机地将第一CNN初始化;基于输入的原始图像和预定标签真值标注来迭代地更新所述第一CNN的权值,从而使得从所述第一CNN输出的类别标签概率接近所述预定标签真值标注;
二元项预先训练单元,其用于:随机地将第二CNN初始化;校正所述类别标签概率以确定所述类别标签概率的分类误差;以及通过反向传播所述分类误差来更新所述第二CNN;
微调单元,其用于:将更新的第一CNN与更新的第二CNN进行级联;通过将所述原始图像中的每个像素分类为多个通用对象类别中的一个而获得分类误差;以及将所述分类误差反向传播通过级联的CNN以更新所述级联的CNN的权值,直到所述分类误差小于预定阈值。
14.根据权利要求14所述的系统,其中,所述第二CNN用于在空间域中从所述类别标签概率确定每个像素的上下文信息。
15.根据权利要求14或15所述的系统,其中,所述二元项预先训练单元用于计算所述图像中的当前参考像素与其邻近像素的相似性关系,
其中所计算的相似性关系随不同的参考像素而改变,
所述二元项预先训练单元利用多个局部共享过滤器来更新所述相似性关系,使得相似像素具有相似的类别标签。
16.根据权利要求16所述的系统,其中所述二元项预先训练单元利用多个全局共享过滤器来更新所述像素的局部标签上下文;其中每个全局共享过滤器产生所述标签上下文的匹配成本,并且匹配成本最小的全局共享过滤器表示一种类型的局部标签上下文。
17.一种图像语义标注设备,其包括:
一元项单元,其用于为图像中的每个像素确定类别标签概率;
二元项单元,其用于在空间域中从馈入的类别标签概率确定每个像素的上下文信息;以及用于从所述馈入的类别标签概率中确定每个像素的局部标签上下文;以及
微调单元,其用于将所述上下文信息乘以所述局部标签上下文,以获得用于类别标签概率的调整因数;以及将所述调整因数应用于所述类别标签概率,以更新所述类别标签概率。
18.根据权利要求18所述的设备,其中所述二元项单元还用于在空间域中从所述馈入的类别标签概率确定每个像素的上下文信息。
19.根据权利要求19所述的设备,其中所述二元项单元还用于计算当前参考像素与其邻近像素的相似性关系,
其中所计算出的相似性关系随不同的参考像素而改变,
所述二元项单元利用多个局部共享过滤器对所述相似性关系进行建模,使得相似像素具有相似的类别标签。
20.根据权利要求20所述的设备,其中所述二元项单元利用多个全局共享过滤器对所述局部标签上下文进行建模;其中每个全局共享过滤器产生所述标签上下文的匹配成本,并且具有最小匹配成本的全局共享过滤器表示一种类型的局部标签上下文。
21.根据权利要求18至21中任一项所述的设备,其中所述微调单元用于将一元项单元和所述二元项单元统一到端对端系统中。
CN201580081584.2A 2015-07-08 2015-07-08 图像语义标注的设备和方法及其模型的生成方法和系统 Active CN107851174B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/083537 WO2017004803A1 (en) 2015-07-08 2015-07-08 An apparatus and a method for semantic image labeling

Publications (2)

Publication Number Publication Date
CN107851174A true CN107851174A (zh) 2018-03-27
CN107851174B CN107851174B (zh) 2021-06-01

Family

ID=57684825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580081584.2A Active CN107851174B (zh) 2015-07-08 2015-07-08 图像语义标注的设备和方法及其模型的生成方法和系统

Country Status (3)

Country Link
US (1) US10699170B2 (zh)
CN (1) CN107851174B (zh)
WO (1) WO2017004803A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190631A (zh) * 2018-08-31 2019-01-11 阿里巴巴集团控股有限公司 图片的目标对象标注方法及装置
CN109635708A (zh) * 2018-12-06 2019-04-16 中山大学 一种基于三数据集交叉迁移学习的无监督行人再识别方法
CN109741332A (zh) * 2018-12-28 2019-05-10 天津大学 一种人机协同的图像分割与标注方法
CN111738046A (zh) * 2019-01-30 2020-10-02 斯特拉德视觉公司 对用于基于深度学习的装置的学习的虚拟世界模拟器的物理引擎进行标定的方法及装置
CN111783811A (zh) * 2019-10-30 2020-10-16 北京京东尚科信息技术有限公司 伪标签生成方法和装置
CN112088380A (zh) * 2018-06-07 2020-12-15 法弗人工智能有限公司 图像分割
WO2023077320A1 (en) * 2021-11-03 2023-05-11 Intel Corporation Apparatus, method, device and medium for label-balanced calibration in post-training quantization of dnn
CN111783811B (zh) * 2019-10-30 2024-06-21 北京京东尚科信息技术有限公司 伪标签生成方法和装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112017024765A2 (pt) * 2015-05-21 2018-07-31 Koninklijke Philips N.V. aparelho para determinar um mapa de profundidade para uma imagem, método para determinar um mapa de profundidade para uma imagem, e produto de programa de computador
US11631005B2 (en) * 2016-05-31 2023-04-18 Nokia Technologies Oy Method and apparatus for detecting small objects with an enhanced deep neural network
US10210411B2 (en) * 2017-04-24 2019-02-19 Here Global B.V. Method and apparatus for establishing feature prediction accuracy
US10210403B2 (en) * 2017-04-24 2019-02-19 Here Global B.V. Method and apparatus for pixel based lane prediction
CN108875763A (zh) * 2017-05-17 2018-11-23 北京旷视科技有限公司 目标检测方法和目标检测装置
US11043205B1 (en) * 2017-06-27 2021-06-22 Amazon Technologies, Inc. Scoring of natural language processing hypotheses
CN107491782B (zh) * 2017-07-22 2020-11-20 复旦大学 利用语义空间信息的针对少量训练数据的图像分类方法
CN107679490B (zh) * 2017-09-29 2019-06-28 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
US10776662B2 (en) * 2017-11-09 2020-09-15 Disney Enterprises, Inc. Weakly-supervised spatial context networks to recognize features within an image
CN110276362A (zh) * 2018-03-13 2019-09-24 富士通株式会社 训练图像模型的方法和装置以及分类预测方法和装置
US11361457B2 (en) * 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
CN111382758B (zh) * 2018-12-28 2023-12-26 杭州海康威视数字技术股份有限公司 训练图像分类模型、图像分类方法、装置、设备及介质
CN111414149B (zh) * 2019-01-04 2022-03-29 瑞昱半导体股份有限公司 背景模型更新的方法与相关装置
US10635938B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Learning method and learning device for allowing CNN having trained in virtual world to be used in real world by runtime input transformation using photo style transformation, and testing method and testing device using the same
FR3094115B1 (fr) * 2019-03-22 2021-02-26 Idemia Identity & Security France Procede d’identification de bagages
CN110046707B (zh) * 2019-04-15 2021-08-06 清华大学深圳研究生院 一种神经网络模型的评估优化方法和系统
CN111783797B (zh) * 2020-06-30 2023-08-18 杭州海康威视数字技术股份有限公司 目标检测方法、装置及存储介质
US11995156B2 (en) * 2021-02-03 2024-05-28 Samsung Electronics Co., Ltd. Confidence aided upsampling of categorical maps
CN114663511A (zh) * 2022-03-28 2022-06-24 京东科技信息技术有限公司 一种图像生成方法、装置、设备及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101620615A (zh) * 2009-08-04 2010-01-06 西南交通大学 一种基于决策树学习的自动图像标注与翻译的方法
JP2011211769A (ja) * 2010-03-29 2011-10-20 Matsuo Hirofumi 縦続接続昇圧型スイッチング電源回路
CN103116893A (zh) * 2013-03-15 2013-05-22 南京大学 基于多示例多标记学习的数字图像标注方法
CN103679185A (zh) * 2012-08-31 2014-03-26 富士通株式会社 卷积神经网络分类器系统、其训练方法、分类方法和用途
CN103902987A (zh) * 2014-04-17 2014-07-02 福州大学 一种基于卷积网络的台标识别方法
CN104036021A (zh) * 2014-06-26 2014-09-10 广西师范大学 混合生成式和判别式学习模型的图像语义标注方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法
US20150032449A1 (en) * 2013-07-26 2015-01-29 Nuance Communications, Inc. Method and Apparatus for Using Convolutional Neural Networks in Speech Recognition
CN104408435A (zh) * 2014-12-05 2015-03-11 浙江大学 一种基于随机池化卷积神经网络的人脸识别方法
CN104463878A (zh) * 2014-12-11 2015-03-25 南京理工大学 一种新的深度图像局部描述符方法
CN104616032A (zh) * 2015-01-30 2015-05-13 浙江工商大学 基于深度卷积神经网络的多摄像机系统目标匹配方法
US20150139485A1 (en) * 2013-11-15 2015-05-21 Facebook, Inc. Pose-aligned networks for deep attribute modeling
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP009697A0 (en) * 1997-10-29 1997-11-20 Canon Information Systems Research Australia Pty Ltd Image interpretation method and apparatas
US7996762B2 (en) * 2007-09-21 2011-08-09 Microsoft Corporation Correlative multi-label image annotation
US9002060B2 (en) * 2012-06-28 2015-04-07 International Business Machines Corporation Object retrieval in video data using complementary detectors
US10127475B1 (en) * 2013-05-31 2018-11-13 Google Llc Classifying images
US9542626B2 (en) * 2013-09-06 2017-01-10 Toyota Jidosha Kabushiki Kaisha Augmenting layer-based object detection with deep convolutional neural networks
US9251431B2 (en) * 2014-05-30 2016-02-02 Apple Inc. Object-of-interest detection and recognition with split, full-resolution image processing pipeline
US20150347860A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Systems And Methods For Character Sequence Recognition With No Explicit Segmentation
WO2015196102A1 (en) * 2014-06-20 2015-12-23 Google Inc. Fine-grained image similarity
US9558268B2 (en) * 2014-08-20 2017-01-31 Mitsubishi Electric Research Laboratories, Inc. Method for semantically labeling an image of a scene using recursive context propagation
US9501716B2 (en) * 2014-12-11 2016-11-22 Intel Corporation Labeling component parts of objects and detecting component properties in imaging data
WO2016197303A1 (en) * 2015-06-08 2016-12-15 Microsoft Technology Licensing, Llc. Image semantic segmentation

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101620615A (zh) * 2009-08-04 2010-01-06 西南交通大学 一种基于决策树学习的自动图像标注与翻译的方法
JP2011211769A (ja) * 2010-03-29 2011-10-20 Matsuo Hirofumi 縦続接続昇圧型スイッチング電源回路
CN103679185A (zh) * 2012-08-31 2014-03-26 富士通株式会社 卷积神经网络分类器系统、其训练方法、分类方法和用途
CN103116893A (zh) * 2013-03-15 2013-05-22 南京大学 基于多示例多标记学习的数字图像标注方法
US20150032449A1 (en) * 2013-07-26 2015-01-29 Nuance Communications, Inc. Method and Apparatus for Using Convolutional Neural Networks in Speech Recognition
US20150139485A1 (en) * 2013-11-15 2015-05-21 Facebook, Inc. Pose-aligned networks for deep attribute modeling
CN103902987A (zh) * 2014-04-17 2014-07-02 福州大学 一种基于卷积网络的台标识别方法
CN104036021A (zh) * 2014-06-26 2014-09-10 广西师范大学 混合生成式和判别式学习模型的图像语义标注方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法
CN104408435A (zh) * 2014-12-05 2015-03-11 浙江大学 一种基于随机池化卷积神经网络的人脸识别方法
CN104463878A (zh) * 2014-12-11 2015-03-25 南京理工大学 一种新的深度图像局部描述符方法
CN104616032A (zh) * 2015-01-30 2015-05-13 浙江工商大学 基于深度卷积神经网络的多摄像机系统目标匹配方法
CN104732243A (zh) * 2015-04-09 2015-06-24 西安电子科技大学 基于cnn的sar目标识别方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112088380A (zh) * 2018-06-07 2020-12-15 法弗人工智能有限公司 图像分割
CN109190631A (zh) * 2018-08-31 2019-01-11 阿里巴巴集团控股有限公司 图片的目标对象标注方法及装置
CN109635708A (zh) * 2018-12-06 2019-04-16 中山大学 一种基于三数据集交叉迁移学习的无监督行人再识别方法
CN109635708B (zh) * 2018-12-06 2023-01-03 中山大学 一种基于三数据集交叉迁移学习的无监督行人再识别方法
CN109741332A (zh) * 2018-12-28 2019-05-10 天津大学 一种人机协同的图像分割与标注方法
CN111738046A (zh) * 2019-01-30 2020-10-02 斯特拉德视觉公司 对用于基于深度学习的装置的学习的虚拟世界模拟器的物理引擎进行标定的方法及装置
CN111783811A (zh) * 2019-10-30 2020-10-16 北京京东尚科信息技术有限公司 伪标签生成方法和装置
CN111783811B (zh) * 2019-10-30 2024-06-21 北京京东尚科信息技术有限公司 伪标签生成方法和装置
WO2023077320A1 (en) * 2021-11-03 2023-05-11 Intel Corporation Apparatus, method, device and medium for label-balanced calibration in post-training quantization of dnn

Also Published As

Publication number Publication date
CN107851174B (zh) 2021-06-01
WO2017004803A1 (en) 2017-01-12
US10699170B2 (en) 2020-06-30
US20180129919A1 (en) 2018-05-10

Similar Documents

Publication Publication Date Title
CN107851174A (zh) 图像语义标注的设备和方法
CN112766244B (zh) 目标对象检测方法、装置、计算机设备和存储介质
US11126855B2 (en) Artificial-intelligence powered ground truth generation for object detection and tracking on image sequences
Zhang et al. Distributed dynamic map fusion via federated learning for intelligent networked vehicles
Xu et al. Multimodal information fusion for urban scene understanding
CN110766038B (zh) 无监督式的地貌分类模型训练和地貌图构建方法
Akan et al. Stretchbev: Stretching future instance prediction spatially and temporally
US10943352B2 (en) Object shape regression using wasserstein distance
US20190220969A1 (en) Information processing device, data structure, information processing method, and non-transitory computer readable storage medium
KR20190092043A (ko) 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법
WO2020240808A1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
CN114913386A (zh) 一种多目标跟踪模型的训练方法以及多目标跟踪方法
Zhao et al. Autonomous driving system: A comprehensive survey
Ort et al. Maplite 2.0: Online hd map inference using a prior sd map
JP7006782B2 (ja) 情報処理装置、制御方法、及びプログラム
US20230326041A1 (en) Learning device, learning method, tracking device, and storage medium
Lange et al. Lopr: Latent occupancy prediction using generative models
CN115294176B (zh) 一种双光多模型长时间目标跟踪方法、系统及存储介质
JP6800901B2 (ja) 物体領域識別装置、物体領域識別方法およびプログラム
CN115909027A (zh) 一种态势估计方法及装置
Mousavi et al. Context Transfer in Reinforcement Learning Using Action‐Value Functions
US20220292397A1 (en) Recognition system, model processing apparatus, model processing method, and recording medium
JP2021068141A (ja) 領域分割装置、領域分割方法および領域分割プログラム
KR102640618B1 (ko) 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템
CN113920322B (zh) 一种模块化机器人运动链构型识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant