CN112907750A - 一种基于卷积神经网络的室内场景布局估计方法及系统 - Google Patents

一种基于卷积神经网络的室内场景布局估计方法及系统 Download PDF

Info

Publication number
CN112907750A
CN112907750A CN202110244851.0A CN202110244851A CN112907750A CN 112907750 A CN112907750 A CN 112907750A CN 202110244851 A CN202110244851 A CN 202110244851A CN 112907750 A CN112907750 A CN 112907750A
Authority
CN
China
Prior art keywords
layout
indoor
semantic segmentation
edge
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110244851.0A
Other languages
English (en)
Inventor
张友梅
张伟东
梁启星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202110244851.0A priority Critical patent/CN112907750A/zh
Publication of CN112907750A publication Critical patent/CN112907750A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于卷积神经网络的室内场景布局估计方法及系统,获取室内场景图像;利用经过训练的网络预测模型,预测边缘图和语义分割图;根据评价标准和预测的边缘图以及语义分割图,从候选布局池中筛选符合要求的候选布局;对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局。本发明能够较为准确的进行室内布局预测,并挑选出最优室内布局。

Description

一种基于卷积神经网络的室内场景布局估计方法及系统
技术领域
本发明属于图像处理技术领域,具体涉及一种基于卷积神经网络的室内场景布局估计方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
室内场景布局估计是指针对拍摄的室内场景图像,预测场景的空间结构信息。由于室内场景布局估计对于室内场景的三维重建、机器人室内导航等任务中都发挥着重要作用,近年来吸引了众多研究者对此进行研究。然而由于室内物体遮挡、语义信息不确定性等原因,室内场景布局估计仍面临较大挑战。
近年来的室内布局估计算法多采用卷积神经网络,此方法避免了传统机器学习算法中的手动特征提取这一复杂过程,且准确度有较明显提升。但在网络训练及特征自动提取过程中一方面往往缺乏语义信息,另一方面较少关注特征的有效性问题。
发明内容
本发明为了解决上述问题,提出了一种基于卷积神经网络的室内场景布局估计方法及系统,本发明能够较为准确的进行室内布局预测,并挑选出最优室内布局。
根据一些实施例,本发明采用如下技术方案:
一种基于卷积神经网络的室内场景布局估计方法,包括以下步骤:
获取室内场景图像;
利用经过训练的网络预测模型,预测边缘图和语义分割图;
根据评价标准和预测的边缘图以及语义分割图,从候选布局池中筛选符合要求的候选布局;
对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局。
作为可选择的实施方式,网络预测模型的训练过程包括:
获取训练用的室内场景图像;
生成室内布局训练集的边缘图标签和语义分割图标签;
利用训练数据及标签训练可表征室内布局的边缘图和语义分割图的网络预测模型;
将训练数据集所生成的边缘图标签和语义分割图标签作为布局池。
作为进一步限定的实施方式,在利用训练数据及标签训练过程中,包括基础特征提取,在边缘图生成过程中加入通道自适应强化,在语义分割图生成过程中加入空间特征强化。
作为进一步限定的实施方式,生成室内布局训练集的边缘图标签和语义分割图标签的具体过程包括:根据室内场景图像中的布局关键点,用多个像素宽的线条绘制出墙面的交界线,然后进行高斯模糊得到室内布局边缘图;最后将天花板、地面、中墙、左墙和右墙分别用1表示,其他区域用0表示,生成对应的语义分割图标签。
作为可选择的实施方式,从候选布局池中筛选符合要求的候选布局的具体过程包括:依据设定的评价标准在布局池中筛选出与网络预测的室内布局特征图最相似的结果,所述室内布局特征图包括室内布局边缘图和语义分割图。
作为可选择的实施方式,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局的具体过程包括:对于每一个候选布局,在其每个关键点附近寻找邻近点像素代替,得到新的布局并计算评价分数,若评价分数增大,则用新布局代替原有布局,若评价分数不变或下降则保留原有布局,选择所有细化候选布局中评价分数最高的作为最终结果。
一种基于卷积神经网络的室内场景布局估计系统,包括:
图像采集模块,被配置为获取室内场景图像;
预测模块,被配置为利用经过训练的网络预测模型,预测边缘图和语义分割图;
候选布局筛选模块,被配置为根据评价标准和预测的边缘图以及语义分割图,从候选布局池中筛选符合要求的候选布局;
候选布局细化模块,被配置为对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局。
作为可选择的实施方式,所述预测模块包括:
边缘图标签生成模块和语义分割图标签生成模块,被配置为分别生成室内布局训练集的边缘图标签和语义分割图标签;
边缘图和语义分割图生成模块,被配置为利用训练数据及标签训练可表征室内布局的边缘图和语义分割图生成模型,包括用于特征提取的基础特征提取模块,加入了通道自适应强化单元的边缘图生成模块,以及加入了空间特征强化单元的语义分割图生成模块;
室内场景布局池预定义模块,被配置为将训练数据集所生成的边缘图标签和语义分割图标签作为布局池。
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成上述一种基于卷积神经网络的室内场景布局估计方法中的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成上述一种基于卷积神经网络的室内场景布局估计方法中的步骤。
与现有技术相比,本发明的有益效果为:
本发明同时采用布局边缘图和语义分割图进行室内布局预测,所得结果比单一信息更加准确;
本发明在室内布局边缘图生成模块中采用了特征通道自适应强化单元,可加强有效特征的权重;
本发明在语义分割图生成模块中采用了概率图与特征图求哈达玛积的操作,可有效强化对应墙面区域的特征值,获得更准确的语义分割图。
本发明根据训练数据生成预定义布局池,可弥补传统的自适应采样法所导致的检测误差。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例中室内布局估计方法流程图;
图2为本发明实施例中用于室内布局边缘图和语义分割图预测网络的训练流程图;
图3为本发明实施例中特征通道自适应强化单元结构示意图;
图4为本发明实施例中的候选布局细化方法流程图。
具体实施方式:
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
本实施例公开了一种基于卷积神经网络的室内布局估计方法,如图1所示,其中算法训练部分包括:
步骤1:获取室内场景图像,根据室内布局关键点生成边缘图和语义分割图;
首先根据室内场景图像中的布局关键点(即墙面交界线的交叉点及其与图像边缘的交界处的点)用8个像素宽的线条绘制出墙面的交界线,然后进行高斯模糊得到室内布局边缘图;最后将天花板、地面、中墙、左墙和右墙分别用1表示,其他区域用0表示,生成对应的5张语义分割图标签。
步骤2:利用多组室内场景图像及其对应的边缘图标签和语义分割图标签,训练基础特征提取模块,边缘图生成模块和语义分割图生成模块;
由于卷积神经网络在图像处理领域应用广泛且效果较好,本实例以卷积神经网络为基础结构并设计了室内布局边缘图生成模块和语义分割图生成模块。
图2为本发明实施例中用于室内布局边缘图和语义分割图预测网络的训练流程图。所述基础特征提前模块包括12层卷积核为3的卷积层、4个最大值池化层以及两层神经元节点数为1024的全连接层,最终得到室内场景特征。
边缘图生成模块由一路4层转置卷积层和一路特征通道自适应强化单元组成,最终生成一张边缘图,其中特征通道自适应强化单元由2层全连接层组成,得到可表征不同通道特征有效性的权重,并将该权重分配给最后一层卷积特征,从而自适应强化对应通道的特征,如图3所示。
语义图生成模块由一路4层转置卷积层和一路卷积核大小为3x3的卷积层组成,最后两路所得结果求哈达玛积。其中后一路卷积所得的概率图表征了空间特征的有效性,两路特征求哈达玛积可有效强化对应位置的有效性。
具体测试过程包括:
步骤1:接收室内场景图像,将训练好的模型参数赋予与训练模型相同的测试模型结构,基于室内场景图像数据,预测室内场景边缘图和语义分割图;
步骤2:根据训练数据预定义室内场景布局池。
首先将训练数据中每个样本对应的5幅语义分割图标签合成一张图,具体为分别用1、2、3、4、5这些数字来表示天花板、地面、中墙、左墙、右墙区域;然后将所有训练数据所对应的边缘分割图标签与语义分割图标签对应成对,最后形成室内布局池。
步骤3:预定义布局池中筛选出较优的候选布局并进行细化,得到布局估计结果。
其中候选布局的筛选具体为根据一定的评价标准在布局池中筛选出与网络预测的室内布局特征图(包括室内布局边缘图和语义分割图)最相似的结果。首先将网络预测所得的5张语义分割图合成为一张,具体操作为:将语义分割图si,i∈[1,2,3,4,5]缩放为224x224像素,并根据公式1将其合成为1张,定义为S。公式1中单张si的值为0或1,但对于第i张图,其非0值则重置为i。然后将网络预测的边缘图也缩放为224x224像素,用E表示。最后根据公式2所示的匹配度评价函数筛选出最匹配的4个候选布局。公式2中M表示匹配度,E和S和分别表示布局预测网络输出的边缘图和由公式1处理后的语义分割图。
Figure BDA0002963723040000081
M(Sl,El|S,E)=M(Sl,S)+M(El,E) 公式2
图4为本实例中候选布局细化方法流程图。对于在候选布局中所筛选的室内场景布局,采用逐步迭代的方法进行细化,选择一个最优布局作为最终结果。
假设候选布局集合为C={Sl,El},l=1,2,…,L。首先对于第一个候选布局C1,在其每个关键点附近寻找邻近点像素代替,得到新的布局C1′并计算评价分数,若评价分数增大,则用新布局代替原有布局,若评价分数不变或下降则保留原有布局C1。然后对每个候选布局进行上述操作,对每一个候选布局保留评价分数最高的细化布局,最后选择所有细化候选布局中评价分数最高的作为最终结果。
实施例二
本实施例的目的是提供一种基于卷积神经网络的室内布局估计系统。
本发明的一种基于卷积神经网络的室内布局估计系统,包括:
图像采集模块,被配置为获取室内场景图像;
边缘图标签生成模块和语义分割图标签生成模块,被配置为分别生成室内布局训练集的边缘图标签和语义分割图标签;
边缘图和语义分割图生成模块,被配置为利用训练数据及标签训练可表征室内布局的边缘图和语义分割图生成模型,其中首先进行基础特征提取,在边缘图生成过程中加入了通道自适应强化单元,在语义分割图生成过程中加入了空间特征强化单元;
室内场景布局池预定义模块,被配置为将训练数据集所生成的边缘图标签和语义分割图标签作为布局池;
候选布局筛选模块,被配置为根据评价标准和网络预测的室内布局边缘图以及语义分割图,从候选布局池中筛选较优布局;
候选布局细化模块,被配置为对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出评价分数最高的室内布局。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于卷积神经网络的室内场景布局估计方法,其特征是:包括以下步骤:
获取室内场景图像;
利用经过训练的网络预测模型,预测边缘图和语义分割图;
根据评价标准和预测的边缘图以及语义分割图,从候选布局池中筛选符合要求的候选布局;
对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局。
2.如权利要求1所述的一种基于卷积神经网络的室内场景布局估计方法,其特征是:网络预测模型的训练过程包括:
获取训练用的室内场景图像;
生成室内布局训练集的边缘图标签和语义分割图标签;
利用训练数据及标签训练可表征室内布局的边缘图和语义分割图的网络预测模型;
将训练数据集所生成的边缘图标签和语义分割图标签作为布局池。
3.如权利要求2所述的一种基于卷积神经网络的室内场景布局估计方法,其特征是:在利用训练数据及标签训练过程中,包括基础特征提取,在边缘图生成过程中加入通道自适应强化,在语义分割图生成过程中加入空间特征强化。
4.如权利要求2所述的一种基于卷积神经网络的室内场景布局估计方法,其特征是:生成室内布局训练集的边缘图标签和语义分割图标签的具体过程包括:根据室内场景图像中的布局关键点,用多个像素宽的线条绘制出墙面的交界线,然后进行高斯模糊得到室内布局边缘图;最后将天花板、地面、中墙、左墙和右墙分别用1表示,其他区域用0表示,生成对应的语义分割图标签。
5.如权利要求1所述的一种基于卷积神经网络的室内场景布局估计方法,其特征是:从候选布局池中筛选符合要求的候选布局的具体过程包括:依据设定的评价标准在布局池中筛选出与网络预测的室内布局特征图最相似的结果,所述室内布局特征图包括室内布局边缘图和语义分割图。
6.如权利要求1所述的一种基于卷积神经网络的室内场景布局估计方法,其特征是:在关键点附近设置替换点以得到更优布局,最终选出最优室内布局的具体过程包括:对于每一个候选布局,在其每个关键点附近寻找邻近点像素代替,得到新的布局并计算评价分数,若评价分数增大,则用新布局代替原有布局,若评价分数不变或下降则保留原有布局,选择所有细化候选布局中评价分数最高的作为最终结果。
7.一种基于卷积神经网络的室内场景布局估计系统,其特征是:包括:
图像采集模块,被配置为获取室内场景图像;
预测模块,被配置为利用经过训练的网络预测模型,预测边缘图和语义分割图;
候选布局筛选模块,被配置为根据评价标准和预测的边缘图以及语义分割图,从候选布局池中筛选符合要求的候选布局;
候选布局细化模块,被配置为对候选布局逐一迭代,在关键点附近设置替换点以得到更优布局,最终选出最优室内布局。
8.如权利要求7所述的一种基于卷积神经网络的室内场景布局估计系统,其特征是:所述预测模块包括:
边缘图标签生成模块和语义分割图标签生成模块,被配置为分别生成室内布局训练集的边缘图标签和语义分割图标签;
边缘图和语义分割图生成模块,被配置为利用训练数据及标签训练可表征室内布局的边缘图和语义分割图生成模型,包括用于特征提取的基础特征提取模块,加入了通道自适应强化单元的边缘图生成模块,以及加入了空间特征强化单元的语义分割图生成模块;
室内场景布局池预定义模块,被配置为将训练数据集所生成的边缘图标签和语义分割图标签作为布局池。
9.一种电子设备,其特征是:包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成如权利要求1-7中任一项所述的一种基于卷积神经网络的室内场景布局估计方法中的步骤。
10.一种计算机可读存储介质,其特征是:用于存储计算机指令,所述计算机指令被处理器执行时,完成如权利要求1-7中任一项所述的一种基于卷积神经网络的室内场景布局估计方法中的步骤。
CN202110244851.0A 2021-03-05 2021-03-05 一种基于卷积神经网络的室内场景布局估计方法及系统 Pending CN112907750A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110244851.0A CN112907750A (zh) 2021-03-05 2021-03-05 一种基于卷积神经网络的室内场景布局估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110244851.0A CN112907750A (zh) 2021-03-05 2021-03-05 一种基于卷积神经网络的室内场景布局估计方法及系统

Publications (1)

Publication Number Publication Date
CN112907750A true CN112907750A (zh) 2021-06-04

Family

ID=76107731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110244851.0A Pending CN112907750A (zh) 2021-03-05 2021-03-05 一种基于卷积神经网络的室内场景布局估计方法及系统

Country Status (1)

Country Link
CN (1) CN112907750A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114912175A (zh) * 2022-05-07 2022-08-16 合肥工业大学 一种自动生成矢量化室内布局平面图的方法
WO2023103147A1 (zh) * 2021-12-10 2023-06-15 广东三维家信息科技有限公司 一种室内场景布局方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122792A (zh) * 2017-03-15 2017-09-01 山东大学 基于学习预测的室内布局估计方法及系统
CN109360232A (zh) * 2018-09-10 2019-02-19 南京邮电大学 基于条件生成对抗网络的室内场景布局估计方法和装置
CN109447897A (zh) * 2018-10-24 2019-03-08 文创智慧科技(武汉)有限公司 一种真实场景图像合成方法及系统
CN111915627A (zh) * 2020-08-20 2020-11-10 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 语义分割方法、网络、设备及计算机存储介质
CN112233038A (zh) * 2020-10-23 2021-01-15 广东启迪图卫科技股份有限公司 基于多尺度融合及边缘增强的真实图像去噪方法
CN112330696A (zh) * 2020-12-02 2021-02-05 青岛大学 人脸分割方法、装置及计算机可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122792A (zh) * 2017-03-15 2017-09-01 山东大学 基于学习预测的室内布局估计方法及系统
CN109360232A (zh) * 2018-09-10 2019-02-19 南京邮电大学 基于条件生成对抗网络的室内场景布局估计方法和装置
CN109447897A (zh) * 2018-10-24 2019-03-08 文创智慧科技(武汉)有限公司 一种真实场景图像合成方法及系统
CN111915627A (zh) * 2020-08-20 2020-11-10 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 语义分割方法、网络、设备及计算机存储介质
CN112233038A (zh) * 2020-10-23 2021-01-15 广东启迪图卫科技股份有限公司 基于多尺度融合及边缘增强的真实图像去噪方法
CN112330696A (zh) * 2020-12-02 2021-02-05 青岛大学 人脸分割方法、装置及计算机可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WEIDONG ZHANG等: "Edge-Semantic Learning Strategy for Layout Estimation in Indoor Environment", 《ARXIV》 *
张伟东: "基于视觉的室内场景布局估计研究", 《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》 *
赵振兵等: "一种改进FCN的输电线路航拍图像语义分割方法", 《中国科技论文》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023103147A1 (zh) * 2021-12-10 2023-06-15 广东三维家信息科技有限公司 一种室内场景布局方法、装置、电子设备及存储介质
CN114912175A (zh) * 2022-05-07 2022-08-16 合肥工业大学 一种自动生成矢量化室内布局平面图的方法
CN114912175B (zh) * 2022-05-07 2024-03-08 合肥工业大学 一种自动生成矢量化室内布局平面图的方法

Similar Documents

Publication Publication Date Title
JP7236545B2 (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
CN110335290B (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
CN109670558B (zh) 使用深度学习的数字图像完成
CN109478239B (zh) 检测图像中的对象的方法和对象检测系统
CN106204522B (zh) 对单个图像的联合深度估计和语义标注
CN110910391B (zh) 一种双模块神经网络结构视频对象分割方法
CN111080675B (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
CN110120065B (zh) 一种基于分层卷积特征和尺度自适应核相关滤波的目标跟踪方法及系统
CN111027493A (zh) 一种基于深度学习多网络软融合的行人检测方法
CN111640125A (zh) 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置
CN112634296A (zh) 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端
CN109903315B (zh) 用于光流预测的方法、装置、设备以及可读存储介质
CN111523463B (zh) 基于匹配-回归网络的目标跟踪方法及训练方法
CN111461213A (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN112907750A (zh) 一种基于卷积神经网络的室内场景布局估计方法及系统
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN112016569A (zh) 基于注意力机制的目标检测方法、网络、设备和存储介质
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
CN113569852A (zh) 语义分割模型的训练方法、装置、电子设备及存储介质
CN112927209A (zh) 一种基于cnn的显著性检测系统和方法
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN111242066A (zh) 大尺寸图像目标检测方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210604