CN111914615A - 基于立体视觉的消防区域可通过性分析系统 - Google Patents

基于立体视觉的消防区域可通过性分析系统 Download PDF

Info

Publication number
CN111914615A
CN111914615A CN202010498115.3A CN202010498115A CN111914615A CN 111914615 A CN111914615 A CN 111914615A CN 202010498115 A CN202010498115 A CN 202010498115A CN 111914615 A CN111914615 A CN 111914615A
Authority
CN
China
Prior art keywords
fire
dimensional
passability
layer
passability analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010498115.3A
Other languages
English (en)
Inventor
顾晓东
王士昭
王彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Junying Tianda Artificial Intelligence Research Institute Co ltd
Original Assignee
Jiangsu Junying Tianda Artificial Intelligence Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Junying Tianda Artificial Intelligence Research Institute Co ltd filed Critical Jiangsu Junying Tianda Artificial Intelligence Research Institute Co ltd
Priority to CN202010498115.3A priority Critical patent/CN111914615A/zh
Publication of CN111914615A publication Critical patent/CN111914615A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于立体视觉的消防区域可通过性分析系统,包括输入模块、深度估计模块和可通过性分析模块;深度估计模块包括权重共享的孪生网络层、金字塔立体匹配网络、投影变换层和三维逆投影层;孪生网络层和金字塔立体匹配网络接收输入模块传输的双目图像,提取得到用于立体匹配的像素级特征和用于目标检测的高级特征;投影变换层用于构建平面扫描体;三维逆投影层用于通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征;可通过性分析模块基于3D卷积网络构建,用于对三维几何体进行可通过性分析。本发明能够联合生成场景深度并对消防区域的4×4×10立方米空间进行可通过性分析,随着智能微型消防车载双目视觉系统的巡查,确保消防生命通道的畅通。

Description

基于立体视觉的消防区域可通过性分析系统
技术领域
本发明涉及人工智能技术领域,具体而言涉及一种端到端的深度网络,可以实现基于立体视觉的消防区域可通过性分析系统。
背景技术
目前单位或者住宅区内的消防车通道沿途均实行标志和标线标识管理,明确消防车通道的标识设置以及消防车通道的管理责任。而对于消防车通道的检测,现有技术中多是在巡检车上安装激光雷达传感器进行检测,这一方式的成本较高,不适合大范围应用。为了降低成本,有研究人员提出采用视频图像对消防区域进行分析,然而目前的视频图像分析方法中仍存在诸多问题,例如,2D网络并不能提取到稳定的3D信息,或者当前基于图块匹配的Siamese网络的架构,很难利用环境信息寻找不适定区域(遮挡区域,弱纹理区域等)一致性的能力等,导致视频图像分析方法难以真正应用到实际巡检过程中。
因此,目前继续提出一种能够实现大范围应用的消防区域通过性分析方法,例如,通过视频结构化处理手段,结合日常巡逻业务实际,确保消防生命通道的畅通。
发明内容
本发明针对现有技术中的不足,提供一种基于立体视觉的消防区域可通过性分析系统,所述系统为端到端的网络,可以生成立体对图像的深度图并确定消防区域,针对消防车的转弯半径,可对成像区域的4×4×10立方米的空间进行可通过性分析,随着智能微型消防车载双目视觉系统的巡查,确保消防生命通道的畅通。
为实现上述目的,本发明采用以下技术方案:
一种基于立体视觉的消防区域可通过性分析系统,其特征在于,所述分析系统包括输入模块、深度估计模块和可通过性分析模块;
所述输入模块用于接收拍摄装置传输的双目图像;
所述深度估计模块包括依次连接的权重共享的孪生网络层、金字塔立体匹配网络、投影变换层和三维逆投影层;所述孪生网络层和金字塔立体匹配网络接收输入模块传输的双目图像,提取得到用于立体匹配的像素级特征和用于目标检测的高级特征;所述投影变换层用于构建一个用于学习逐像素对应关系的平面扫描体;所述三维逆投影层用于通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征;
所述可通过性分析模块基于3D卷积网络构建,用于对三维几何体进行可通过性分析。
为优化上述技术方案,采取的具体措施还包括:
进一步地,所述金字塔立体匹配网络包括金字塔池化单元和3D卷积神经网络单元;
所述金字塔池化单元通过聚合不同尺寸和不同位置的环境信息构建匹配代价体,所述3D卷积神经网络单元通过将多个堆叠的沙漏网络与中间监督结合以实现代价聚合和视差回归。
进一步地,所述金字塔池化单元包括两个权重共享的CNN网络通道和两个金字塔池化层,CNN网络通道和金字塔池化层一一对应连接;
所述双目图像分别经两个CNN网络通道计算得到对应特征图,将计算得到的特征图导入金字塔池化层以获取特征。
进一步地,所述投影变换层构建一个用于学习逐像素对应关系的平面扫描体的过程包括以下步骤:
S11,分别沿摄像机视角的右方、下方和前方离散化消防区域空间为三维体素网格(WV,HV,DV),WV,HV,DV分别表示网格的宽度、高度和长度,每个体素的大小是(vw,vh,vd);
S12,通过视差d计算双目图像对(IL,IR)的左右图像的匹配像素点在水平方向上的位移;
S13,通过连接左图像特征FL和在相同间隔深度值的右图像特征的重投影FR→L来构建平面扫描体,平面扫描体的坐标表示为(u,v,d),其中(u,v)表示图像的像素点位置信息,d表示垂直于图像平面的深度信息;
S14,用两个三维卷积缩减平面扫描体的特征映射为一维的平面扫描代价体;
S15,利用可导的soft arg-min操作来计算所有概率为σ(-cd)的深度候选值的期望:
Figure BDA0002523709070000021
其中深度的候选值在间隔为vd的预定义网格{zmin,zmax}内均匀采样,再利用softmax函数使每个像素点只选择一个深度值,完成深度估计。
进一步地,所述三维逆投影层通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征的过程包括以下步骤:
将空间(u,v,d)设定成相机坐标系,获取摄像机内参,利用相机投影矩阵将3D几何体从世界坐标系转换至相机坐标系:
S21,设世界坐标系表示为(x,y,z),相机坐标表示为(u,v,d),计算得到将3D几何体从世界坐标系转换至相机坐标系的相机投影矩阵:
Figure BDA0002523709070000022
S22,获取相机坐标系下的平面扫描体的最后一层特征,采用相机投影矩阵的逆矩阵构建世界坐标系的三维几何特征:
Figure BDA0002523709070000031
其中fx和fy分别是水平方向和竖直方向的焦距,cu和cv是相机位姿参数。
进一步地,所述消防区域空间为4*4*10立方米空间。
进一步地,所述深度估计模块和可通过性分析模块并行运行,同时进行双目深度估计和三维几何体的可通过性分析。
进一步地,所述深度估计模块和可通过性分析模块并行运行,同时进行双目深度估计和三维几何体的可通过性分析的过程包括以下步骤:
S31,设整体loss如下:Loss=Ldepth+Ltraversability
S32,对于深度估计,采用smooth L1 loss:
Figure BDA0002523709070000032
S32,对于可通过性分析,采用二元交叉熵损失函数:
Figure BDA0002523709070000033
其中,p表示预测样本属于1的概率,p的取值范围为0-1,y表示label,y的取值为{+1,-1}。
本发明还提及一种智能微型消防车,所述智能微型消防车包括消防车本体和安装在消防车本体上的车载双目视觉系统;
所述车载双目视觉系统内嵌有如前所述的基于立体视觉的消防区域可通过性分析系统。
本发明的有益效果是:
(1)相比昂贵的激光雷达(Lidar)传感器,本发明基于廉价的视频摄像机,得到可比拟于Lidar的准确率并产生更稠密的分辨率,适合大范围的应用。
(2)本发明可以联合生成场景深度并对消防区域的4×4×10立方米空间进行可通过性分析,随着智能微型消防车载双目视觉系统的巡查,确保消防生命通道的畅通。
(3)通过空间变换将2D特征转换成有效的3D结构,提取到稳定的3D信息。
(4)采用金字塔立体匹配网络,通过聚合不同尺度和不同位置的环境信息构建匹配代价体(cost volume)来充分利用全局环境信息。堆叠的沙漏3D-CNN重复进行由精到粗再由粗到精(top-down/bottom-up)的过程来提高对全局信息的利用程度。
(5)整个系统同时进行双目深度估计和三维几何体的可通过性分析,是一个多任务训练过程,有效提高训练效率。
附图说明
图1是本发明的基于立体视觉的消防区域可通行性分析系统的结构示意图。
图2是本发明的金字塔立体匹配网络的结构示意图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
需要注意的是,发明中所引用的如“上”、“下”、“左”、“右”、“前”、“后”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
具体实施例一
结合图1,本发明提出一种基于立体视觉的消防区域可通过性分析系统,所述分析系统包括输入模块、深度估计模块和可通过性分析模块。
所述输入模块用于接收拍摄装置传输的双目图像。
所述深度估计模块包括依次连接的权重共享的孪生网络层、金字塔立体匹配网络、投影变换层和三维逆投影层;所述孪生网络层和金字塔立体匹配网络接收输入模块传输的双目图像,提取得到用于立体匹配的像素级特征和用于目标检测的高级特征;所述投影变换层用于构建一个用于学习逐像素对应关系的平面扫描体;所述三维逆投影层用于通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征。
所述可通过性分析模块基于3D卷积网络构建,用于对三维几何体进行可通过性分析。
基于深度估计的3D目标检测分为深度估计和目标检测两阶段,其挑战在于2D网络并不能提取到稳定的3D信息。本发明提供了一种基于立体视觉的消防区域可通过性分析系统,采用一种端到端的网络,可以联合估计场景深度和进行可通过性分析,其核心在于通过空间变换将2D特征转换成有效的3D结构。利用立体匹配构建平面扫描体(plane-sweepvolume),并将其转换成3D几何体(3D geometric volume),以便能够编码三维几何形状和语义信息。
本系统同时提取用于立体匹配的像素级特征和用于目标检测的高级特征,结构图如图1所示:双目图像对(IL,IR)作为输入,利用权重共享的孪生网络提取特征,并构建一个平面扫描体(PSV),它可以学习逐像素的对应关系,接着通过可导的图像扭转(warping)操作,将平面扫描体转换为3D几何体,从而构建世界坐标系的三维几何特征,最后利用3D卷积网络作用于三维几何体进行可通过性分析。
一、特征提取过程
所述深度估计模块采用金字塔立体匹配网络(Pyramid Stereo MatchingNetwork)的特征提取器作为深度估计和3D目标检测的共享特征提取网络。最新的研究表明,利用一对立体图像来估算深度信息可以格式化为一个有监督的学习任务,进而通过卷积神经网络来解决。然而当前基于图块匹配的Siamese网络的架构,很难利用环境信息寻找不适定区域(遮挡区域,弱纹理区域等)一致性的能力。为了解决这个问题,本发明采用金字塔立体匹配网络,它主要由两个模块组成:金字塔池化(spatial pyramid poolingModule)和3D卷积神经网络。金字塔池化模块通过聚合不同尺度和不同位置的环境信息构建匹配代价体(cost volume)来充分利用全局环境信息。3D卷积神经网络通过将多个堆叠的沙漏网络(hourglass network)与中间监督(intermediate supervision)结合起来,去调整匹配代价体。这个堆叠的沙漏3D-CNN重复进行由精到粗再由粗到精(top-down/bottom-up)的过程来提高对全局信息的利用程度。
图2是本发明的金字塔立体匹配网络的结构示意图。左右立体图像输入两个权重共享的CNN网络通道用于计算特征图,一个SPP模块用于获取特征,通过串联不同尺寸的次级区域的表现和一个用于特征融合的卷积层。左右图像的特征被用于构成一个四维的匹配代价体,再通过一个3D CNN来完成代价聚合和视差回归。
二、构建三维几何体过程
世界坐标系下的三维几何体是由平面扫描体经过图像扭转操作得到,本发明分别沿摄像机视角的右方,下方和前方离散化消防区域空间为三维体素网格(WV,HV,DV),WV,HV,DV分别表示网格的宽度、高度和长度。每个体素的大小是(vw,vh,vd)。
2.1平面扫描体
在双目立体匹配中,图像对(IL,IR)可以用来构造基于视差的匹配代价体(costvolume),它通过视差d计算左右图像的匹配像素点在水平方向上的位移。我们则通过连接左图像特征FL和在相同间隔深度值的右图像特征的重投影FR→L来构建平面扫描体。平面扫描体的坐标表示为(u,v,d),其中(u,v)表示图像上在该位置的像素点,d表示垂直于图像平面的深度信息。空间(u,v,d)被称为相机坐标系。我们用两个三维卷积缩减平面扫描体的特征映射为一维的平面扫描代价体。对于视差/深度估计,利用可导的soft arg-min操作来计算所有概率为σ(-cd)的深度候选值的期望:
Figure BDA0002523709070000051
其中深度的候选值在间隔为vd的预定义网格{zmin,zmax}内均匀采样。再利用softmax函数使得模型为每个像素点只选择一个深度值,从而完成深度估计。
2.2三维几何体
得到了相机坐标,在已知摄像机内参的情况下,利用相机投影矩阵可以实现从世界坐标系到相机坐标系的转换。假设世界坐标系表示为(x,y,z),而相机坐标表示为(u,v,d),经典的转换方法是从世界坐标系到相机坐标系:
Figure BDA0002523709070000061
而现在PSV的最后一层特征作为已知的相机坐标系,要想得到世界坐标系,因此需要使用相机投影矩阵的逆矩阵:
Figure BDA0002523709070000062
其中fx和fy分别是水平方向和竖直方向的焦距,cu和cv是相机位姿参数。
三、深度估计和可通过性分析过程
整个系统同时进行双目深度估计和三维几何体的可通过性分析,因此是一个多任务训练过程,整体loss如下:Loss=Ldepth+Ltraversability
对于深度估计,采用smooth L1 loss,是GroundTruth中的有效像素点:
Figure BDA0002523709070000063
Figure BDA0002523709070000064
对于可通过性分析,采用二元交叉熵损失函数:
Figure BDA0002523709070000065
式中,p表示预测样本属于1的概率(范围为0-1),y表示label,y的取值为{+1,-1}。
具体实施例二
本发明还提及一种智能微型消防车,所述智能微型消防车包括消防车本体和安装在消防车本体上的车载双目视觉系统。
所述车载双目视觉系统内嵌有如前所述的基于立体视觉的消防区域可通过性分析系统。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (9)

1.一种基于立体视觉的消防区域可通过性分析系统,其特征在于,所述分析系统包括输入模块、深度估计模块和可通过性分析模块;
所述输入模块用于接收拍摄装置传输的双目图像;
所述深度估计模块包括依次连接的权重共享的孪生网络层、金字塔立体匹配网络、投影变换层和三维逆投影层;所述孪生网络层、金字塔立体匹配网络接收输入模块传输的双目图像,提取得到用于立体匹配的像素级特征和用于目标检测的高级特征;所述投影变换层用于构建一个用于学习逐像素对应关系的平面扫描体;所述三维逆投影层用于通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征;
所述可通过性分析模块基于3D卷积网络构建,用于对三维几何体进行可通过性分析。
2.根据权利要求1所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述金字塔立体匹配网络包括金字塔池化单元和3D卷积神经网络单元;
所述金字塔池化单元通过聚合不同尺寸和不同位置的环境信息构建匹配代价体,所述3D卷积神经网络单元通过将多个堆叠的沙漏网络与中间监督结合以实现代价聚合和视差回归。
3.根据权利要求2所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述金字塔池化单元包括两个权重共享的CNN网络通道和两个金字塔池化层,CNN网络通道和金字塔池化层一一对应连接;
所述双目图像分别经两个CNN网络通道计算得到对应特征图,将计算得到的特征图导入金字塔池化层以获取特征。
4.根据权利要求1所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述投影变换层构建一个用于学习逐像素对应关系的平面扫描体的过程包括以下步骤:
S11,分别沿摄像机视角的右方、下方和前方离散化消防区域空间为三维体素网格(WV,HV,DV),WV,HV,DV分别表示网格的宽度、高度和长度,每个体素的大小是(vw,vh,vd);
S12,通过视差d计算双目图像对(IL,IR)的左右图像的匹配像素点在水平方向上的位移;
S13,通过连接左图像特征FL和在相同间隔深度值的右图像特征的重投影FR→L来构建平面扫描体,平面扫描体的坐标表示为(u,v,d),其中(u,v)表示图像的像素点位置信息,d表示垂直于图像平面的深度信息;
S14,用两个三维卷积缩减平面扫描体的特征映射为一维的平面扫描代价体;
S15,利用可导的soft arg-min操作来计算所有概率为σ(-cd)的深度候选值的期望:
Figure FDA0002523709060000011
其中深度的候选值在间隔为vd的预定义网格{zmin,zmax}内均匀采样,再利用soft max函数使每个像素点只选择一个深度值,完成深度估计。
5.根据权利要求4所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述三维逆投影层通过可导的图像扭转操作,将平面扫描体转换成3D几何体,构建世界坐标系的三维几何特征的过程包括以下步骤:
将空间(u,v,d)设定成相机坐标系,获取摄像机内参,利用相机投影矩阵将3D几何体从世界坐标系转换至相机坐标系:
S21,设世界坐标系表示为(x,y,z),相机坐标表示为(u,v,d),计算得到将3D几何体从世界坐标系转换至相机坐标系的相机投影矩阵:
Figure FDA0002523709060000021
S22,获取相机坐标系下的平面扫描体的最后一层特征,采用相机投影矩阵的逆矩阵构建世界坐标系的三维几何特征:
Figure FDA0002523709060000022
其中fx和fy分别是水平方向和竖直方向的焦距,cu和cv是相机位姿参数。
6.根据权利要求4所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述消防区域空间为4*4*10立方米空间。
7.根据权利要求1所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述深度估计模块和可通过性分析模块并行运行,同时进行双目深度估计和三维几何体的可通过性分析。
8.根据权利要求7所述的基于立体视觉的消防区域可通过性分析系统,其特征在于,所述深度估计模块和可通过性分析模块并行运行,同时进行双目深度估计和三维几何体的可通过性分析的过程包括以下步骤:
S31,设整体loss如下:Loss=Ldepth+Ltraversability
S32,对于深度估计,采用smooth L1 loss:
Figure FDA0002523709060000023
S32,对于可通过性分析,采用二元交叉熵损失函数:
Figure FDA0002523709060000031
其中,p表示预测样本属于1的概率,p的取值范围为0-1,y表示label,y的取值为{+1,-1}。
9.一种智能微型消防车,其特征在于,所述智能微型消防车包括消防车本体和安装在消防车本体上的车载双目视觉系统;
所述车载双目视觉系统内嵌有如权利要求1-8任意一项中所述的基于立体视觉的消防区域可通过性分析系统。
CN202010498115.3A 2020-06-04 2020-06-04 基于立体视觉的消防区域可通过性分析系统 Withdrawn CN111914615A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010498115.3A CN111914615A (zh) 2020-06-04 2020-06-04 基于立体视觉的消防区域可通过性分析系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010498115.3A CN111914615A (zh) 2020-06-04 2020-06-04 基于立体视觉的消防区域可通过性分析系统

Publications (1)

Publication Number Publication Date
CN111914615A true CN111914615A (zh) 2020-11-10

Family

ID=73237939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010498115.3A Withdrawn CN111914615A (zh) 2020-06-04 2020-06-04 基于立体视觉的消防区域可通过性分析系统

Country Status (1)

Country Link
CN (1) CN111914615A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112462722A (zh) * 2020-12-07 2021-03-09 北京达美盛软件股份有限公司 一种用于控制及显示的实时数字孪生工厂系统
CN112562254A (zh) * 2020-11-25 2021-03-26 珠海格力电器股份有限公司 火灾监测方法、消防管控服务器、存储介质及监测系统
CN113284221A (zh) * 2021-05-17 2021-08-20 中移(上海)信息通信科技有限公司 一种目标物检测方法、装置及电子设备
CN117058342A (zh) * 2023-10-12 2023-11-14 天津科汇新创科技有限公司 一种基于投影图像的脊柱3d体素模型构建方法
CN117953101A (zh) * 2024-03-26 2024-04-30 国网江苏省电力有限公司 一种变电站接线图展示方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112562254A (zh) * 2020-11-25 2021-03-26 珠海格力电器股份有限公司 火灾监测方法、消防管控服务器、存储介质及监测系统
CN112462722A (zh) * 2020-12-07 2021-03-09 北京达美盛软件股份有限公司 一种用于控制及显示的实时数字孪生工厂系统
CN113284221A (zh) * 2021-05-17 2021-08-20 中移(上海)信息通信科技有限公司 一种目标物检测方法、装置及电子设备
CN113284221B (zh) * 2021-05-17 2022-04-19 中移(上海)信息通信科技有限公司 一种目标物检测方法、装置及电子设备
CN117058342A (zh) * 2023-10-12 2023-11-14 天津科汇新创科技有限公司 一种基于投影图像的脊柱3d体素模型构建方法
CN117058342B (zh) * 2023-10-12 2024-01-26 天津科汇新创科技有限公司 一种基于投影图像的脊柱3d体素模型构建方法
CN117953101A (zh) * 2024-03-26 2024-04-30 国网江苏省电力有限公司 一种变电站接线图展示方法及系统
CN117953101B (zh) * 2024-03-26 2024-05-28 国网江苏省电力有限公司 一种变电站接线图展示方法及系统

Similar Documents

Publication Publication Date Title
CN111462329B (zh) 一种基于深度学习的无人机航拍影像的三维重建方法
CN111832655B (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN110689008A (zh) 一种面向单目图像的基于三维重建的三维物体检测方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN107491071B (zh) 一种智能多机器人协同测图系统及其方法
CN110852182B (zh) 一种基于三维空间时序建模的深度视频人体行为识别方法
Perrollaz et al. Probabilistic representation of the uncertainty of stereo-vision and application to obstacle detection
CN113936139A (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN116258817B (zh) 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和系统
CN116258658B (zh) 基于Swin Transformer的图像融合方法
CN114724120A (zh) 基于雷视语义分割自适应融合的车辆目标检测方法及系统
CN115187964A (zh) 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN113313176A (zh) 一种基于动态图卷积神经网络的点云分析方法
CN114299405A (zh) 一种无人机图像实时目标检测方法
CN111860651A (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN114966696A (zh) 一种基于Transformer的跨模态融合目标检测方法
CN116194951A (zh) 用于基于立体视觉的3d对象检测与分割的方法和装置
CN114639115A (zh) 一种人体关键点与激光雷达融合的3d行人检测方法
CN110766609B (zh) 一种针对ToF相机的景深图超分辨率重建方法
CN116934977A (zh) 一种基于三维占用预测和神经渲染的视觉三维感知方法及系统
Li et al. Feature point extraction and tracking based on a local adaptive threshold
Li et al. Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems
Shi et al. Cobev: Elevating roadside 3d object detection with depth and height complementarity

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20201110