CN112597825A - 驾驶场景分割方法、装置、电子设备和存储介质 - Google Patents
驾驶场景分割方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112597825A CN112597825A CN202011440211.9A CN202011440211A CN112597825A CN 112597825 A CN112597825 A CN 112597825A CN 202011440211 A CN202011440211 A CN 202011440211A CN 112597825 A CN112597825 A CN 112597825A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- attention
- layer
- scene
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 410
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000007246 mechanism Effects 0.000 claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000009977 dual effect Effects 0.000 claims description 54
- 230000004927 fusion Effects 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 34
- 238000010586 diagram Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 13
- 230000002776 aggregation Effects 0.000 claims description 12
- 238000004220 aggregation Methods 0.000 claims description 12
- 238000013434 data augmentation Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000209504 Poaceae Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例涉及计算机视觉技术领域,提供了一种驾驶场景分割方法、装置、电子设备和存储介质,所述方法包括:确定待分割的驾驶场景图;将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。本申请提供的方法、装置、电子设备和存储介质,通过不同的注意力机制进行场景分割,不同的注意力机制可以针对性地适应不同的复杂环境,从而保证最终得到的场景分割结果的准确性和可靠性。
Description
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种驾驶场景分割方法、装置、电子设备和存储介质。
背景技术
自动驾驶车辆是通过车载传感系统感知道路环境,自动规划行车路线并控制车辆到达预定目标的智能汽车。驾驶场景分割作为道路环境感知中的一环,对于自动驾驶车辆至关重要。
目前的驾驶场景分割多是基于卷积神经网络(Convolutional Neural Network,CNN)抽取的高阶特征进行驾驶场景分割,虽然降低了计算强度但也存在部分复杂场景分割效果不佳的问题,尤其是在一些特定的天气、清晰度低、有遮挡物或者道路拥堵的情况下,时常出现过分割现象,分割效果并不稳定。
发明内容
本申请提供一种驾驶场景分割方法、装置、电子设备和存储介质,以实现准确、可靠且能够适应复杂环境的驾驶场景分割。
本申请提供一种驾驶场景分割方法,包括:
确定待分割的驾驶场景图;
将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;
所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
根据本申请提供的一种驾驶场景分割方法,所述将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果,包括:
将所述驾驶场景图输入至所述场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果;
将所述驾驶场景图输入至所述场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果;
将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果。
根据本申请提供的一种驾驶场景分割方法,所述将所述驾驶场景图输入至场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果,包括:
将所述驾驶场景图输入至所述双重注意力分割层的第一特征提取层,得到所述第一特征提取层输出的第一场景图特征;
将所述第一场景图特征输入至所述双重注意力分割层的空间注意力层,得到所述空间注意力层输出的空间注意力特征;
将所述第一场景图特征输入至所述双重注意力分割层的通道注意力层,得到所述通道注意力层输出的通道注意力特征;
将所述空间注意力特征和所述通道注意力特征输入至所述双重注意力分割层的聚合分割层,得到所述聚合分割层输出的所述双重注意力分割结果。
根据本申请提供的一种驾驶场景分割方法,所述将所述驾驶场景图输入至场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果,包括:
将所述驾驶场景图输入至所述期望最大化注意力分割层的第二特征提取层,得到所述第二特征提取层输出的第二场景图特征;
将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征;
将所述重构场景特征输入至所述期望最大化注意力分割层的重构分割层,得到所述重构分割层输出的期望最大化注意力分割结果。
根据本申请提供的一种驾驶场景分割方法,所述将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征,包括:
将所述第二场景图特征和当前迭代基输入至所述期望最大化层的期望层,得到所述期望层输出的当前注意力特征图;
将所述当前注意力特征图输入至所述期望最大化层的最大化层,得到所述最大化层输出的下一迭代基,将所述下一迭代基更新为当前迭代基,直至所述当前迭代基的更新次数达到预设次数;
将所述当前注意力特征图和所述当前迭代基输入至所述期望最大化层的重构层,得到所述重构层输出的重构场景特征。
根据本申请提供的一种驾驶场景分割方法,所述将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果,包括:
将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,由所述融合层基于预设权重对所述双重注意力分割结果和所述期望最大化注意力分割结果进行加权求和,得到所述融合层输出的所述场景分割结果。
根据本申请提供的一种驾驶场景分割方法,所述样本驾驶场景图是通过数据增广得到的。
本申请还提供一种驾驶场景分割装置,包括:
场景图确定单元,用于确定待分割的驾驶场景图;
场景分割单元,用于将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;
所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
根据本申请提供的一种驾驶场景分割装置,所述场景分割单元包括:
双重注意力单元,用于将所述驾驶场景图输入至所述场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果;
期望最大化单元,用于将所述驾驶场景图输入至所述场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果;
融合单元,用于将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果。
根据本申请提供的一种驾驶场景分割装置,所述双重注意力单元用于:
将所述驾驶场景图输入至所述双重注意力分割层的第一特征提取层,得到所述第一特征提取层输出的第一场景图特征;
将所述第一场景图特征输入至所述双重注意力分割层的空间注意力层,得到所述空间注意力层输出的空间注意力特征;
将所述第一场景图特征输入至所述双重注意力分割层的通道注意力层,得到所述通道注意力层输出的通道注意力特征;
将所述空间注意力特征和所述通道注意力特征输入至所述双重注意力分割层的聚合分割层,得到所述聚合分割层输出的所述双重注意力分割结果。
根据本申请提供的一种驾驶场景分割装置,所述期望最大化单元用于:
将所述驾驶场景图输入至所述期望最大化注意力分割层的第二特征提取层,得到所述第二特征提取层输出的第二场景图特征;
将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征;
将所述重构场景特征输入至所述期望最大化注意力分割层的重构分割层,得到所述重构分割层输出的期望最大化注意力分割结果。
本申请还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述任一种所述驾驶场景分割方法的步骤。
本申请还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述驾驶场景分割方法的步骤。
本申请提供的驾驶场景分割方法、装置、电子设备和存储介质,通过不同的注意力机制进行场景分割,不同的注意力机制可以针对性地适应不同的复杂环境,从而保证最终得到的场景分割结果的准确性和可靠性。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的驾驶场景分割方法的流程示意图;
图2是本申请提供的驾驶场景分割方法中步骤120的实施方式的流程示意图;
图3是本申请提供的双重注意力分割层的结构示意图;
图4是本申请提供的驾驶场景分割方法中步骤121的实施方式的流程示意图;
图5是本申请提供的空间注意力层的结构示意图;
图6是本申请提供的通道注意力层的结构示意图;
图7是本申请提供的期望最大化注意力分割层的结构示意图;
图8是本申请提供的驾驶场景分割方法中步骤122的实施方式的流程示意图;
图9是本申请提供的驾驶场景分割方法中步骤1222的实施方式的流程示意图;
图10是本申请提供的场景分割模型的结构示意图;
图11是本申请提供的驾驶场景分割装置的结构示意图;
图12是本申请提供的驾驶场景分割装置的场景分割单元的结构示意图;
图13是本申请提供的驾驶场景分割装置的期望最大化单元的结构示意图;
图14是本申请提供的电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1是本申请提供的驾驶场景分割方法的流程示意图,如图1所示,该方法包括:
步骤110,确定待分割的驾驶场景图。
此处,待分割的驾驶场景图即需要进行驾驶场景分割的场景图,驾驶场景图可以是配置在车辆上的摄像头在行驶过程中拍摄得到的二维图像。
步骤120,将驾驶场景图输入至场景分割模型,得到场景分割模型输出的场景分割结果;场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
具体地,驾驶场景图的场景分割是通过预先训练好的场景分割模型实现的,场景分割结果可以表示驾驶场景图中各个像素点所属的类型,从而实现驾驶场景中各类目标的准确分割,此处的目标可以是车辆、行人、道路标识线、树/草、天空等。
此处,场景分割模型包含了至少两种不同的注意力机制下的场景分割方式,可以针对输入的驾驶场景图从不同的注意力机制的角度进行场景分割,并将在不同注意力机制下分割所得的结果进行融合,输出最终的场景分割结果。
进一步地,不同的注意力机制可以是通道注意力机制、空间注意力机制、期望最大化注意力机制等,在基于不同类型的注意力机制进行驾驶场景分割时,可以侧重关注到不同类型的特征,从而得到不同偏重的分割结果。在此基础上,对不同偏重的分割结果进行融合,可以保证最终得到的场景分割结果考虑了各方各面的因素,因此即便是在复杂环境下,也能保证场景分割结果的准确性和可靠性。
在执行步骤120之前,还可以预先训练得到场景分割模型,具体可通过如下方式训练得到场景分割模型:首先,收集大量样本驾驶场景图,并标注出样本驾驶场景图所对应的样本场景分割结果。然后,基于样本驾驶场景图及其样本场景分割结果对初始模型进行训练,从而得到场景分割模型。
本申请实施例提供的方法,通过不同的注意力机制进行场景分割,不同的注意力机制可以针对性地适应不同的复杂环境,从而保证最终得到的场景分割结果的准确性和可靠性。
基于上述实施例,场景分割模型包括双重注意力分割层、期望最大化注意力分割层和融合层。
相应地,图2是本申请提供的驾驶场景分割方法中步骤120的实施方式的流程示意图,如图2所示,步骤120包括:
步骤121,将驾驶场景图输入至场景分割模型的双重注意力分割层,得到双重注意力分割层输出的双重注意力分割结果。
具体地,双重注意力分割层用于基于空间注意力机制和通道注意力机制此双重注意力机制,对输入的驾驶场景图进行场景分割,从而得到双重注意力分割结果。此处的双重注意力分割层可以是基于双重注意网络(Dual Attention Network,DANet)构建的。
双重注意力机制在场景分割的应用,可以选择性地聚合相对不起眼的物体的相似特征,突出此类物体的特征表示,从而避免了相对起眼物体的特征影响。双重注意力机制可以从全局的角度自适应地集成任何尺度上的相似特征,分别模拟空间和通道维度中的语义相互依赖性,从而提高场景分割的准确性。
步骤122,将驾驶场景图输入至场景分割模型的期望最大化注意力分割层,得到期望最大化注意力分割层输出的期望最大化注意力分割结果。
具体地,期望最大化注意力分割层用于基于期望最大化注意力机制,对输入的驾驶场景图进行场景分割,从而得到期望最大化注意力分割结果。此处的期望最大化注意力分割层可以是基于期望最大化注意力网络(Expectation-Maximization AttentionNetworks,EMANet)构建的。
期望最大化注意力机制在场景分割的应用,摒弃了在全图上计算注意力图的流程,转而通过期望最大化(Expectation-Maximization,EM)算法迭代出一组紧凑的基,在这组基上运行注意力机制,从而大大降低了复杂度,同时提高了场景分割的准确性。
步骤123,将双重注意力分割结果和期望最大化注意力分割结果输入至场景分割模型的融合层,得到融合层输出的场景分割结果。
具体地,在得到双重注意力分割层、期望最大化注意力分割层分别输出的分割结果后,可以通过融合层对两个分割结果进行融合,从而得到最终的输出结果,即场景分割结果。此处对两个分割结果进行融合,可以是对两个融合结果求平均,也可以是对两个融合结果进行加权求和等,本申请实施例对此不作具体限定。
本申请实施例提供的方法,通过双重注意力机制和期望最大化注意力机制的结合,实现了可靠准确的场景分割。
基于上述任一实施例,图3是本申请提供的双重注意力分割层的结构示意图,如图3所示,双重注意力分割层包括第一特征提取层、空间注意力层、通道注意力层和聚合分割层。相应地,图4是本申请提供的驾驶场景分割方法中步骤121的实施方式的流程示意图,如图4所示,步骤121包括:
步骤1211,将驾驶场景图输入至双重注意力分割层的第一特征提取层,得到第一特征提取层输出的第一场景图特征。
具体地,第一特征提取层用于对驾驶场景图进行特征提取,从而得到并输出驾驶场景图的第一场景图特征。进一步地,第一特征提取层可以是基于ResNet残差网络设置的,且可以将ResNet最后的下采样(downsampling)替换为空洞卷积,从而在扩大感受野的同时保持较高的空间分辨率。
步骤1212,将第一场景图特征输入至双重注意力分割层的空间注意力层,得到空间注意力层输出的空间注意力特征。
具体地,空间注意力层是基于空间注意力机制构建的,图5是本申请提供的空间注意力层的结构示意图,如图5所示,A可以视为第一场景图特征,B、C、D均是由A卷积得到的,B、C、D的维度均为C*H*W。分别将B、C、D重构(Reshape)到C*N,N=H*W。随后将C的转置(transpose)与B相乘,从而得到N*N的矩阵,再通过softmax得到空间注意力图(spatialattention map)S,S同样为N*N的矩阵。接着将S与D相乘并重构到C*H*W,与A进行element-wise相乘,从而得到空间注意力特征E。
上述操作可通过如下公式体现:
式中,sji为空间注意力图S中第i个像素位置对第j个像素位置的影响,Bi为第i个像素位置的特征B,为第j个像素位置的特征C的转置。Ej为第j个像素位置的空间注意力特征E,α为预先设定的权重系数,Di是第i个像素位置的特征D,Aj是第j个像素位置的特征A。
步骤1213,将第一场景图特征输入至双重注意力分割层的通道注意力层,得到通道注意力层输出的通道注意力特征。
具体地,通道注意力层是基于通道注意力机制构建的,图6是本申请提供的通道注意力层的结构示意图,如图6所示,A可以视为第一场景图特征,对A进行重构(reshape)得到C*N的特征图,此外对A进行重构(reshape)和转置(transpose)得到N*C的特征图,将此两者相乘,在通过softmax得到通道注意力图(channel attention map)X,X是C*C的矩阵。接着把X的转置与重构(reshape)后的A进行element-wise相乘,从而得到通道注意力特征F。
上述操作可以通过如下公式体现:
步骤1214,将空间注意力特征和通道注意力特征输入至双重注意力分割层的聚合分割层,得到聚合分割层输出的双重注意力分割结果。
此处,聚合分割层用于对空间注意力特征和通道注意力特征进行了聚合,具体可以通过卷积层分别对空间注意力特征和通道注意力特征进行转换,随后通过elementwise的求和来实现特征融合,最后通过卷积得到最后的预测特征图,作为双重注意力分割结果。
基于上述任一实施例,图7是本申请提供的期望最大化注意力分割层的结构示意图,如图7所示,期望最大化注意力分割层包括第二特征提取层、期望最大化层和重构分割层。相应地,图8是本申请提供的驾驶场景分割方法中步骤122的实施方式的流程示意图,如图8所示,步骤122包括:
步骤1221,将驾驶场景图输入至期望最大化注意力分割层的第二特征提取层,得到第二特征提取层输出的第二场景图特征。
具体地,第二特征提取层用于对驾驶场景图进行特征提取,从而得到并输出驾驶场景图的第二场景图特征。进一步地,第二特征提取层可以是卷积神经网络,具体可以将驾驶场景图经过CNN得到特征X,在将X经过一个1*1的卷积降维降至512通道,将降维后的X作为第二场景图特征。此处,X∈RN×C,N=N×W,H和W是第二场景图特征X的分辨率尺寸。
步骤1222,将第二场景图特征输入至期望最大化注意力分割层的期望最大化层,得到期望最大化层输出的重构场景特征。
具体地,期望最大化层是基于期望最大化算法构建的注意力层。期望最大化层可以通过期望最大化算法迭代出一组紧凑的基,在这组基上针对第二场景图特征运行注意力机制,从而得到基于注意力机制重构的特征图,即重构场景图特征。
步骤1223,将重构场景特征输入至期望最大化注意力分割层的重构分割层,得到重构分割层输出的期望最大化注意力分割结果。
具体地,重构分割层用于基于重构场景特征进行场景分割,并输出分割的期望最大化注意力分割结果。
基于上述任一实施例,图9是本申请提供的驾驶场景分割方法中步骤1222的实施方式的流程示意图,如图9所示,步骤1222包括:
步骤1222-1,将第二场景图特征和当前迭代基输入至期望最大化层的期望层,得到期望层输出的当前注意力特征图;
步骤1222-2,将当前注意力特征图输入至期望最大化层的最大化层,得到最大化层输出的下一迭代基,将下一迭代基更新为当前迭代基,直至当前迭代基的更新次数达到预设次数;
步骤1222-3,将当前注意力特征图和当前迭代基输入至期望最大化层的重构层,得到重构层输出的重构场景特征。
具体地,期望最大化层中,期望层执行EM算法的E步,即基于迭代所得的当前迭代基,获取当前迭代基对应的当前注意力特征图。假设第二场景图特征为X,当前迭代基为μ,μ∈RK×C,其中K为基的数量。由此得到的当前注意力特征图(attention map)可以表示为Z,Z=softmax(λXμT)∈RN×K,其中λ为预先设定好的参数。
最大化层执行EM算法的M步,即对基进行迭代更新。最大化层可以将Z从第二个维度开始求和,并在此基础上进行归一化(normalize),从而实现μ的更新。进一步地,为了保证μ的更新是稳定的,可以选择L2Norm对μ进行归一化。
基于上述任一实施例,步骤123包括:将双重注意力分割结果和期望最大化注意力分割结果输入至场景分割模型的融合层,由融合层基于预设权重对双重注意力分割结果和期望最大化注意力分割结果进行加权求和,得到融合层输出的场景分割结果。
具体地,针对于双重注意力分割结果和期望最大化注意力分割结果的融合,可以通过对此两者进行加权求和得到。此处加权求和所用的权重可以是在场景分割模型的训练过程中训练得到的。
基于上述任一实施例,样本驾驶场景图是通过数据增广得到的。
具体地,在进行场景分割模型的训练之前,需要对用于模型训练的样本进行预处理,此处的预处理步骤包括对采集得到的驾驶场景图进行数据增广,从而扩充样本规模。
进一步地,此处的数据增广的执行步骤可以是:
随机采样训练集中驾驶场景图,对于采样到的驾驶场景图Ii,比较其自身的宽Ii_w和高Ii_h,选取宽高中的长边max(Ii_w,Ii_h)将其缩放到L,选取宽高中的短边min(Ii_w,Ii_h)将其缩放至S,此处的S可以从S1~S2之间随机选择。
将多张驾驶场景图Ii(i=1,2,3…n)以batch的形式I送入特征提取网络,batch中所有图像的长边为L,图像的短边为了统一尺寸,以整个batch中图片短边Si(i=1,2,3…n)中最大的值max(Si)为基准S_base,其余的Si加padding至S_base,此处短边的补全可以表示为如下公式:
S_base=Si+padding
此处,训练集可以是D2-City,D2-City是一个大规模、高质量的真实驾驶场景视频数据集,涵盖12类行车和道路相关的目标标注。与现有的自动驾驶公开数据集相比,D2-City数据集提供了更多在复杂或有挑战性的天气、交通、采集状况下所收集的真实场景数据,如光线不足、雨雾天气、道路拥堵、图像清晰度低等,涵盖了中国不同城市的驾驶场景。同时,D2-City数据集也提供了大规模的精准标注信息,包括在数千段视频、数十万关键帧上的目标检测标注及在近千段视频上的目标跟踪标注
本申请实施例提供的方法,通过数据增广得到用于模型训练的样本驾驶场景图,能够提高模型训练精度,加速模型收敛。
基于上述任一实施例,图10是本申请提供的场景分割模型的结构示意图,如图10所示,场景分割模型包括双重注意力分割层和期望最大化注意力分割层两个基于不同注意力机制实现场景分割的分割层,并在此基础上通过融合层实现两个不同注意力机制所得的分割结果的融合。此处的融合可以基于模型训练所得的权重系数α得到,具体可以体现为如下形式:场景分割结果=双重注意力分割结果*α+期望最大化注意力分割结果*(1-α)。
下面对本申请提供的驾驶场景分割装置进行描述,下文描述的驾驶场景分割装置与上文描述的驾驶场景分割方法可相互对应参照。
图11是本申请提供的驾驶场景分割装置的结构示意图,如图11所示,驾驶场景分割装置包括:
场景图确定单元1110,用于确定待分割的驾驶场景图;
场景分割单元1120,用于将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;
所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
本申请实施例提供的装置,通过不同的注意力机制进行场景分割,不同的注意力机制可以针对性地适应不同的复杂环境,从而保证最终得到的场景分割结果的准确性和可靠性。
基于上述任一实施例,图12是本申请提供的驾驶场景分割装置的场景分割单元的结构示意图,如图12所示,所述场景分割单元1120包括:
双重注意力单元1121,用于将所述驾驶场景图输入至所述场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果;
期望最大化单元1122,用于将所述驾驶场景图输入至所述场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果;
融合单元1123,用于将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果。
基于上述任一实施例,所述双重注意力单元1121用于:
将所述驾驶场景图输入至所述双重注意力分割层的第一特征提取层,得到所述第一特征提取层输出的第一场景图特征;
将所述第一场景图特征输入至所述双重注意力分割层的空间注意力层,得到所述空间注意力层输出的空间注意力特征;
将所述第一场景图特征输入至所述双重注意力分割层的通道注意力层,得到所述通道注意力层输出的通道注意力特征;
将所述空间注意力特征和所述通道注意力特征输入至所述双重注意力分割层的聚合分割层,得到所述聚合分割层输出的所述双重注意力分割结果。
基于上述任一实施例,图13是本申请提供的驾驶场景分割装置的期望最大化单元的结构示意图,如图13所示,所述期望最大化单元1122包括:
特征提取子单元1122-1,用于将所述驾驶场景图输入至所述期望最大化注意力分割层的第二特征提取层,得到所述第二特征提取层输出的第二场景图特征;
期望最大化子单元1122-2,用于将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征;
重构分割子单元1122-3,用于将所述重构场景特征输入至所述期望最大化注意力分割层的重构分割层,得到所述重构分割层输出的期望最大化注意力分割结果。
基于上述任一实施例,期望最大化子单元1122-2用于:
将所述第二场景图特征和当前迭代基输入至所述期望最大化层的期望层,得到所述期望层输出的当前注意力特征图;
将所述当前注意力特征图输入至所述期望最大化层的最大化层,得到所述最大化层输出的下一迭代基,将所述下一迭代基更新为当前迭代基,直至所述当前迭代基的更新次数达到预设次数;
将所述当前注意力特征图和所述当前迭代基输入至所述期望最大化层的重构层,得到所述重构层输出的重构场景特征。
基于上述任一实施例,融合单元1123用于:
将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,由所述融合层基于预设权重对所述双重注意力分割结果和所述期望最大化注意力分割结果进行加权求和,得到所述融合层输出的所述场景分割结果。
基于上述任一实施例,所述样本驾驶场景图是通过数据增广得到的。
本申请实施例提供的驾驶场景分割装置用于执行上述驾驶场景分割方法,其实施方式与本申请提供的驾驶场景分割方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
图14示例了一种电子设备的实体结构示意图,如图14所示,该电子设备可以包括:处理器(processor)1410、通信接口(Communications Interface)1420、存储器(memory)1430和通信总线1440,其中,处理器1410,通信接口1420,存储器1430通过通信总线1440完成相互间的通信。处理器1410可以调用存储器1430中的逻辑指令,以执行驾驶场景分割方法,该方法包括:确定待分割的驾驶场景图;将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
此外,上述的存储器1430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例提供的电子设备中的处理器1410可以调用存储器1430中的逻辑指令,实现上述驾驶场景分割方法,其实施方式与本申请提供的驾驶场景分割方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
另一方面,本申请还提供一种计算机程序产品,下面对本申请提供的计算机程序产品进行描述,下文描述的计算机程序产品与上文描述的驾驶场景分割方法可相互对应参照。
所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的驾驶场景分割方法,该方法包括:确定待分割的驾驶场景图;将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
本申请实施例提供的计算机程序产品被执行时,实现上述驾驶场景分割方法,其实施方式与本申请提供的驾驶场景分割方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
又一方面,本申请还提供一种非暂态计算机可读存储介质,下面对本申请提供的非暂态计算机可读存储介质进行描述,下文描述的非暂态计算机可读存储介质与上文描述的驾驶场景分割方法可相互对应参照。
本申请还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的驾驶场景分割方法,该方法包括:确定待分割的驾驶场景图;将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
本申请实施例提供的非暂态计算机可读存储介质上存储的计算机程序被执行时,实现上述驾驶场景分割方法,其实施方式与本申请提供的驾驶场景分割方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (13)
1.一种驾驶场景分割方法,其特征在于,包括:
确定待分割的驾驶场景图;
将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;
所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
2.根据权利要求1所述的驾驶场景分割方法,其特征在于,所述将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果,包括:
将所述驾驶场景图输入至所述场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果;
将所述驾驶场景图输入至所述场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果;
将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果。
3.根据权利要求2所述的驾驶场景分割方法,其特征在于,所述将所述驾驶场景图输入至场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果,包括:
将所述驾驶场景图输入至所述双重注意力分割层的第一特征提取层,得到所述第一特征提取层输出的第一场景图特征;
将所述第一场景图特征输入至所述双重注意力分割层的空间注意力层,得到所述空间注意力层输出的空间注意力特征;
将所述第一场景图特征输入至所述双重注意力分割层的通道注意力层,得到所述通道注意力层输出的通道注意力特征;
将所述空间注意力特征和所述通道注意力特征输入至所述双重注意力分割层的聚合分割层,得到所述聚合分割层输出的所述双重注意力分割结果。
4.根据权利要求2所述的驾驶场景分割方法,其特征在于,所述将所述驾驶场景图输入至场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果,包括:
将所述驾驶场景图输入至所述期望最大化注意力分割层的第二特征提取层,得到所述第二特征提取层输出的第二场景图特征;
将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征;
将所述重构场景特征输入至所述期望最大化注意力分割层的重构分割层,得到所述重构分割层输出的期望最大化注意力分割结果。
5.根据权利要求4所述的驾驶场景分割方法,其特征在于,所述将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征,包括:
将所述第二场景图特征和当前迭代基输入至所述期望最大化层的期望层,得到所述期望层输出的当前注意力特征图;
将所述当前注意力特征图输入至所述期望最大化层的最大化层,得到所述最大化层输出的下一迭代基,将所述下一迭代基更新为当前迭代基,直至所述当前迭代基的更新次数达到预设次数;
将所述当前注意力特征图和所述当前迭代基输入至所述期望最大化层的重构层,得到所述重构层输出的重构场景特征。
6.根据权利要求2所述的驾驶场景分割方法,其特征在于,所述将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果,包括:
将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,由所述融合层基于预设权重对所述双重注意力分割结果和所述期望最大化注意力分割结果进行加权求和,得到所述融合层输出的所述场景分割结果。
7.根据权利要求1至6中任一项所述的驾驶场景分割方法,其特征在于,所述样本驾驶场景图是通过数据增广得到的。
8.一种驾驶场景分割装置,其特征在于,包括:
场景图确定单元,用于确定待分割的驾驶场景图;
场景分割单元,用于将所述驾驶场景图输入至场景分割模型,得到所述场景分割模型输出的场景分割结果;
所述场景分割模型是基于样本驾驶场景图及其样本场景分割结果训练得到的;所述场景分割模型用于对驾驶场景图进行不同注意力机制下的场景分割,并将不同注意力机制下的分割结果进行融合。
9.根据权利要求8所述的驾驶场景分割装置,其特征在于,所述场景分割单元包括:
双重注意力单元,用于将所述驾驶场景图输入至所述场景分割模型的双重注意力分割层,得到所述双重注意力分割层输出的双重注意力分割结果;
期望最大化单元,用于将所述驾驶场景图输入至所述场景分割模型的期望最大化注意力分割层,得到所述期望最大化注意力分割层输出的期望最大化注意力分割结果;
融合单元,用于将所述双重注意力分割结果和所述期望最大化注意力分割结果输入至所述场景分割模型的融合层,得到所述融合层输出的所述场景分割结果。
10.根据权利要求9所述的驾驶场景分割装置,其特征在于,所述双重注意力单元用于:
将所述驾驶场景图输入至所述双重注意力分割层的第一特征提取层,得到所述第一特征提取层输出的第一场景图特征;
将所述第一场景图特征输入至所述双重注意力分割层的空间注意力层,得到所述空间注意力层输出的空间注意力特征;
将所述第一场景图特征输入至所述双重注意力分割层的通道注意力层,得到所述通道注意力层输出的通道注意力特征;
将所述空间注意力特征和所述通道注意力特征输入至所述双重注意力分割层的聚合分割层,得到所述聚合分割层输出的所述双重注意力分割结果。
11.根据权利要求9所述的驾驶场景分割装置,其特征在于,所述期望最大化单元用于:
将所述驾驶场景图输入至所述期望最大化注意力分割层的第二特征提取层,得到所述第二特征提取层输出的第二场景图特征;
将所述第二场景图特征输入至所述期望最大化注意力分割层的期望最大化层,得到所述期望最大化层输出的重构场景特征;
将所述重构场景特征输入至所述期望最大化注意力分割层的重构分割层,得到所述重构分割层输出的期望最大化注意力分割结果。
12.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述驾驶场景分割方法的步骤。
13.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述驾驶场景分割方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011440211.9A CN112597825A (zh) | 2020-12-07 | 2020-12-07 | 驾驶场景分割方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011440211.9A CN112597825A (zh) | 2020-12-07 | 2020-12-07 | 驾驶场景分割方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112597825A true CN112597825A (zh) | 2021-04-02 |
Family
ID=75191878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011440211.9A Pending CN112597825A (zh) | 2020-12-07 | 2020-12-07 | 驾驶场景分割方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112597825A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187296A (zh) * | 2021-11-09 | 2022-03-15 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679489A (zh) * | 2017-09-29 | 2018-02-09 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法、装置及计算设备 |
CN109460780A (zh) * | 2018-10-17 | 2019-03-12 | 深兰科技(上海)有限公司 | 人工神经网络的车辆安全驾驶检测方法、装置及存储介质 |
CN110147763A (zh) * | 2019-05-20 | 2019-08-20 | 哈尔滨工业大学 | 基于卷积神经网络的视频语义分割方法 |
CN110188765A (zh) * | 2019-06-05 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像语义分割模型生成方法、装置、设备及存储介质 |
CN110197215A (zh) * | 2019-05-22 | 2019-09-03 | 深圳市牧月科技有限公司 | 一种自主驾驶的地面感知点云语义分割方法 |
CN111062347A (zh) * | 2019-12-21 | 2020-04-24 | 武汉中海庭数据技术有限公司 | 一种自动驾驶中交通要素分割方法、电子设备及存储介质 |
CN111460807A (zh) * | 2020-03-13 | 2020-07-28 | 平安科技(深圳)有限公司 | 序列标注方法、装置、计算机设备和存储介质 |
EP3712811A1 (en) * | 2019-03-20 | 2020-09-23 | NavInfo Europe B.V. | Real-time scene understanding system |
CN111738143A (zh) * | 2020-06-19 | 2020-10-02 | 重庆邮电大学 | 一种基于期望最大化的行人重识别方法 |
CN111754531A (zh) * | 2020-07-08 | 2020-10-09 | 深延科技(北京)有限公司 | 图像实例分割方法和装置 |
CN111815639A (zh) * | 2020-07-03 | 2020-10-23 | 浙江大华技术股份有限公司 | 目标分割方法及其相关装置 |
-
2020
- 2020-12-07 CN CN202011440211.9A patent/CN112597825A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679489A (zh) * | 2017-09-29 | 2018-02-09 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法、装置及计算设备 |
CN109460780A (zh) * | 2018-10-17 | 2019-03-12 | 深兰科技(上海)有限公司 | 人工神经网络的车辆安全驾驶检测方法、装置及存储介质 |
EP3712811A1 (en) * | 2019-03-20 | 2020-09-23 | NavInfo Europe B.V. | Real-time scene understanding system |
CN110147763A (zh) * | 2019-05-20 | 2019-08-20 | 哈尔滨工业大学 | 基于卷积神经网络的视频语义分割方法 |
CN110197215A (zh) * | 2019-05-22 | 2019-09-03 | 深圳市牧月科技有限公司 | 一种自主驾驶的地面感知点云语义分割方法 |
CN110188765A (zh) * | 2019-06-05 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像语义分割模型生成方法、装置、设备及存储介质 |
CN111062347A (zh) * | 2019-12-21 | 2020-04-24 | 武汉中海庭数据技术有限公司 | 一种自动驾驶中交通要素分割方法、电子设备及存储介质 |
CN111460807A (zh) * | 2020-03-13 | 2020-07-28 | 平安科技(深圳)有限公司 | 序列标注方法、装置、计算机设备和存储介质 |
CN111738143A (zh) * | 2020-06-19 | 2020-10-02 | 重庆邮电大学 | 一种基于期望最大化的行人重识别方法 |
CN111815639A (zh) * | 2020-07-03 | 2020-10-23 | 浙江大华技术股份有限公司 | 目标分割方法及其相关装置 |
CN111754531A (zh) * | 2020-07-08 | 2020-10-09 | 深延科技(北京)有限公司 | 图像实例分割方法和装置 |
Non-Patent Citations (5)
Title |
---|
XIA LI等: "Expectation-Maximization Attention Networks for Semantic Segmentation", 《2019ICCV》, 31 December 2019 (2019-12-31), pages 9167 - 9176 * |
刘文祥 等: "采用双注意力机制Deeplabv3+算法的遥感影像语义分割", 《热带地理》, vol. 40, no. 2, 31 March 2020 (2020-03-31), pages 303 - 313 * |
徐宏伟 等: "基于残差双注意力U-Net模型的CT图像囊肿肾脏自动分割", 《计算机应用研究》, vol. 37, no. 7, 31 July 2020 (2020-07-31), pages 2237 - 2240 * |
景庄伟 等: "基于深度神经网络的图像语义分割研究综述", 《计算机工程》, vol. 46, no. 10, 3 June 2020 (2020-06-03), pages 1 - 17 * |
闫凯: "基于深度学习的3DMRI脑肿瘤分割算法研究", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》, no. 7, 15 July 2020 (2020-07-15), pages 070 - 106 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187296A (zh) * | 2021-11-09 | 2022-03-15 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及系统 |
CN114187296B (zh) * | 2021-11-09 | 2022-12-13 | 元化智能科技(深圳)有限公司 | 胶囊内窥镜图像病灶分割方法、服务器及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN113780296B (zh) | 基于多尺度信息融合的遥感图像语义分割方法及系统 | |
CN113936256A (zh) | 一种图像目标检测方法、装置、设备以及存储介质 | |
CN107506792B (zh) | 一种半监督的显著对象检测方法 | |
CN109948593A (zh) | 基于结合全局密度特征的mcnn人群计数方法 | |
JP2024513596A (ja) | 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体 | |
CN113111716B (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN112967341A (zh) | 基于实景图像的室内视觉定位方法、系统、设备及存储介质 | |
CN113554643A (zh) | 一种目标检测方法、装置、电子设备及存储介质 | |
CN112001931A (zh) | 图像分割方法、装置、设备及存储介质 | |
CN114037640A (zh) | 图像生成方法及装置 | |
CN117496347A (zh) | 遥感影像建筑物提取方法、装置及介质 | |
CN114861842A (zh) | 少样本目标检测方法、装置和电子设备 | |
CN114943937A (zh) | 行人重识别方法、装置、存储介质及电子设备 | |
CN112597825A (zh) | 驾驶场景分割方法、装置、电子设备和存储介质 | |
CN114742996A (zh) | 图像语义分割方法、装置、电子设备及存储介质 | |
CN117274992A (zh) | 植物三维分割模型构建方法、装置、设备及存储介质 | |
CN113569600A (zh) | 物体重识别的方法、装置、电子设备及存储介质 | |
CN112651987A (zh) | 一种样方草地覆盖度计算方法及系统 | |
CN116681930A (zh) | 遥感图像变化检测及其模型训练方法、设备及存储介质 | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 | |
CN115965905A (zh) | 一种基于多尺度融合卷积网络的人群计数方法及系统 | |
CN115311680A (zh) | 人体图像质量检测方法、装置、电子设备及存储介质 | |
Häufel et al. | Evaluation of CNNs for land cover classification in high-resolution airborne images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |