CN112329853A - 基于影像融合的交通事故检测方法、装置、设备及介质 - Google Patents

基于影像融合的交通事故检测方法、装置、设备及介质 Download PDF

Info

Publication number
CN112329853A
CN112329853A CN202011224574.9A CN202011224574A CN112329853A CN 112329853 A CN112329853 A CN 112329853A CN 202011224574 A CN202011224574 A CN 202011224574A CN 112329853 A CN112329853 A CN 112329853A
Authority
CN
China
Prior art keywords
image
traffic accident
remote sensing
target area
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011224574.9A
Other languages
English (en)
Inventor
樊超
刘科
樊漫丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anyuan Water Conservancy And Hydropower Construction Co ltd Of Yuanjiang City Hunan Province
Original Assignee
Anyuan Water Conservancy And Hydropower Construction Co ltd Of Yuanjiang City Hunan Province
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anyuan Water Conservancy And Hydropower Construction Co ltd Of Yuanjiang City Hunan Province filed Critical Anyuan Water Conservancy And Hydropower Construction Co ltd Of Yuanjiang City Hunan Province
Priority to CN202011224574.9A priority Critical patent/CN112329853A/zh
Publication of CN112329853A publication Critical patent/CN112329853A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请涉及一种基于影像融合的交通事故检测方法、装置、设备及介质,属于图像检测技术领域,其中,所述方法包括:按照多个预设方向分别获取目标区域的多源遥感影像;将属于同一预设方向的多源遥感影像进行预处理;将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取所述多个预设方向的识别结果;根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故。本申请能够提高交通事故检测精度。

Description

基于影像融合的交通事故检测方法、装置、设备及介质
技术领域
本申请涉及图像检测技术领域,尤其是涉及一种基于影像融合的交通事故检测方法、装置、设备及介质。
背景技术
随着我国经济的飞速发展,人们的出行量大幅度增加,对交通的需求也越来越大,随之交通事故的发生也越来越频繁。例如,为了满足出行需求或运输需求,部分车辆需要经过山区,但是山区道路一般多为危险路段,容易导致交通事故。
传统的交通事故检测方法,通常只采用单一的传感器对道路和车辆进行拍摄,然后对拍摄的图像或影像进行检测,从而识别出是否发生交通事故。但是单一传感器的应用范围有限且具有一定的局限性,使得获取的图像信息往往比较单一,无法全面地反映出目标区域和目标对象的特征,分析价值较低,影响对交通事故的检测和识别精度。
发明内容
为了提高交通事故检测精度,本申请提供一种基于影像融合的交通事故检测方法、装置、设备及介质。
第一方面,本申请提供一种基于影像融合的交通事故检测方法,采用如下的技术方案:
一种基于影像融合的交通事故检测方法,包括:
按照多个预设方向分别获取目标区域的多源遥感影像;
将属于同一预设方向的多源遥感影像进行预处理;
将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;
将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取所述多个预设方向的识别结果;
根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故。
通过采用上述技术方案,根据多源遥感影像可以更全面的反映出目标区域和目标对象的特征,基于影像融合的方法可以更多地保留多源遥感影像的有效特征,提高交通事故检测的准确率。
可选的,所述预处理包括辐射定标、正射校正和影像配准。
通过采用上述技术方案,便于消除各遥感影像因遥感传感器本身而产生的误差以及因地形起伏而产生的畸变。
可选的,所述多源遥感影像包括高光谱影像和全色影像;所述将预处理后的属于同一预设方向的多源遥感影像进行融合,包括:
通过IHS变换融合法将属于同一预设方向的所述高光谱影像和所述全色影像进行影像融合。
通过采用上述技术方案,可以得到光谱分辨率较高的全色影像,便于提高交通事故检测的准确率。
可选的,在所述将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别之前,还包括:
选取训练集,构建深度神经网络模型,将所述训练集输入所述深度神经网络模型中进行训练,得到所述训练好的深度神经网络模型。
可选的,所述识别结果为交通事故或者非交通事故;所述根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故,包括:
判断所述识别结果为交通事故的占比是否达到预设值,若是,则判定所述目标区域发生交通事故,否则判定所述目标区域未发生交通事故。
通过采用上述技术方案,分别对每个预设方向得出识别结果,再根据多个识别结果得出目标区域是否发生交通事故的结论,可以减少因单一识别结果产生的误差。
可选的,在所述判定所述目标区域发生交通事故之后,还包括:
发出告警并进入救助模式。
通过采用上述技术方案,便于救助人员了解现场情况、指导现场人员采取急救措施。
第二方面,本申请提供一种基于影像融合的交通事故检测装置,采用如下的技术方案:
一种基于影像融合的交通事故检测装置,包括:
获取模块,用于按照多个预设方向分别获取目标区域的多源遥感影像;
预处理模块,用于将属于同一预设方向的多源遥感影像进行预处理;
影像融合模块,用于将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;
识别模块,用于将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取所述多个预设方向的识别结果;以及,
检测模块,用于根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故。
通过采用上述技术方案,根据多源遥感影像可以更全面的反映出目标区域和目标对象的特征,基于影像融合的方法可以更多地保留多源遥感影像的有效特征,提高交通事故检测的准确率。
第三方面,本申请提供一种计算机设备,采用如下的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器上存储有能够被所述处理器加载并执行上述任一种基于影像融合的交通事故检测方法的计算机程序。
通过采用上述技术方案,根据多源遥感影像可以更全面的反映出目标区域和目标对象的特征,基于影像融合的方法可以更多地保留多源遥感影像的有效特征,提高交通事故检测的准确率。
第四方面,本申请提供一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行上述任一种基于影像融合的交通事故检测方法的计算机程序。
通过采用上述技术方案,根据多源遥感影像可以更全面的反映出目标区域和目标对象的特征,基于影像融合的方法可以更多地保留多源遥感影像的有效特征,提高交通事故检测的准确率。
综上所述,本申请包括以下至少一种有益技术效果:
1.根据多源遥感影像可以更全面的反映出目标区域和目标对象的特征,基于影像融合的方法可以更多地保留多源遥感影像的有效特征,提高交通事故检测的准确率;
2.可以得到光谱分辨率较高的全色影像,便于提高交通事故检测的准确率。
附图说明
图1是本申请实施例一提供的基于影像融合的交通事故检测方法的流程示意图。
图2是本申请实施例一提供的四架无人机按照四个预设方向进行拍摄的示意图。
图3是本申请实施例二提供的基于影像融合的交通事故检测装置的结构框图。
图4是本申请实施例二提供的另一种基于影像融合的交通事故检测装置的结构框图。
图5是本申请实施例三提供的计算机设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
实施例一
本实施例提供一种基于影像融合的交通事故检测方法,如图1所示,该方法的主要流程描述如下(步骤S101~S105):
步骤S101:按照多个预设方向分别获取目标区域的多源遥感影像。
控制多架无人机飞行至目标区域,例如山区危险路段、事故频发路段,分别从多个预设方向对目标区域进行拍摄。如图2所示,每架无人机上均安装有两个不同类型的遥感传感器,分别为高光谱影像传感器和全色影像传感器,四架无人机分别从四个预设方向同时对目标区域进行拍摄,从每个预设方向均能获取该目标区域的多源遥感影像,并通过无人机上设置的无线通信模块将多源遥感影像无线传输至远程终端等计算机设备,由远程终端进行影像处理和识别。每架无人机拍摄的多源遥感影像均包括全色影像传感器拍摄的全色影像和高光谱影像传感器拍摄的高光谱影像,其中,全色影像的空间分辨率较高,但是其光谱分辨率较低,高光谱影像的空间分辨率较低,但是其光谱分辨率较高。
步骤S102:将属于同一预设方向的多源遥感影像进行预处理。
本实施例中,分别针对属于同一预设方向即同一无人机拍摄的多源遥感影像进行预处理,具体如下:
对高光谱影像进行辐射定标、大气校正和正射校正,对全色影像进行辐射定标和正射校正,再将处理后的高光谱影像和全色影像进行影像配准。其中,辐射定标将影像的亮度灰度值转换为光谱反射率或光谱辐射亮度,从而减小影像因遥感传感器本身产生的误差,确定遥感传感器入口处的准确辐射值。大气校正将目标区域的辐射亮度或者表面反射率转换为目标区域的真实反射率,从而减小影像因大气散射、吸收、反射引起的误差。
上述中,对高光谱影像进行大气校正处理是因为在高光谱影像成像时,其蓝光到近红外光的波段易受大气散射、吸收、反射的影响,尤其是蓝光波段,因为蓝光波长较短,所以蓝光波段受影响程度最大,而我们常见全色影像是不包含蓝光波段的,所以全色影像无需进行大气校正。
正射校正是几何校正的最高级别,几何校正主要是为了消除因遥感传感器本身、大气折光、地球曲率等因素造成的几何畸变,正射校正除了进行常规的几何校正的功能外,还可以利用原来已经获取的影像范围内的数字高程模型(DEM)数据,纠正影像因地形起伏而产生的畸变。
影像配准的作用是将高光谱影像和全色影像进行匹配和叠加,便于后续进行多源遥感影像融合的操作。由于多个遥感传感器获取各类影像的灰度特征往往不一致,因此很难运用传统的基于图像灰度的方法,本申请采用基于图像特征的配准方法进行影像配准,提取各影像中保持不变特征,如边缘点、角点和闭区域的中心等,作为影像配准的参考信息,从而避免这种问题。
步骤S103:将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像。
本实施例中,通过IHS变换融合法将预处理后的属于同一预设方向的高光谱影像和全色影像进行影像融合,获取融合影像即高分率的全色影像,该融合影像保留了高光谱影像和全色影像的有效特征,从而可以更全面地反映出目标区域和目标对象(例如目标区域中的人、车辆、山体和道路等)的特征,其具体方法如下:
将各高光谱影像重采样,使之与全色影像具有相同的分辨率;将各高光谱影像从RGB空间转换到IHS空间,得到I、H和S三个分量;对全色影像的I’分量和IHS空间中的I分量进行直方图匹配;用直方图匹配后的I’分量替代I分量,然后同IHS空间中的H、S分量一起逆变换到RGB空间,从而得到融合影像。
进一步地,对步骤S103得到的融合影像进行影像裁剪和影像增强。
其中,通过影像裁剪提取出仅包含目标区域的融合影像,便于减少非目标区域的影像特征对下述步骤S104中深度神经网络模型识别融合影像的干扰。影像增强可以有选择性地突出影像中目标对象特征,便于提高影像判读性能和效果。
步骤S104:将多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取多个预设方向的识别结果。
在步骤S104之前,需选取训练集,构建深度神经网络模型,将训练集输入深度神经网络模型中进行训练,得到训练好的深度神经网络模型。该技术为本领域技术人员常规技术,此处不作展开介绍。
在选取训练集时,注重采集以山区交通事故为前提的影像,包括车与车相撞、车与人相撞、车与山体或山石相撞、车与树相撞、车因天气原因或路况翻车的影像。
步骤S105:根据多个预设方向的识别结果检测目标区域是否发生交通事故。
本实施例中,识别结果为交通事故或者非交通事故,计算识别结果为交通事故的占比,然后判断占比是否达到预设值(例如75%),若是,则判定该目标区域发生交通事故,若否,则判定该目标区域没有发生交通事故。
在判定该目标区域发生交通事故之后,迅速发出告警通知救助人员,并控制无人机进入救助模式,开启无人机的监控和语音功能,其监控的内容通过无线通信模块传输给远程终端,远程终端显示监控的内容,便于救助人员了解现场情况或指导现场人员采取急救措施,为搜救争取时间。
本实施例中,如果只基于一个预设方向对目标区域进行拍摄,会使得最终的识别结果具有偶然性,所以本申请从不同的预设方向对目标区域进行拍摄,从而减少检测结果的误差。而且每一个预设角度均采用多个不同的遥感传感器对目标区域进行拍摄,获取的多源遥感影像可以更全面的反映出目标区域和目标对象的特征,使后续检测识别出交通事故的准确率更高。
实施例二
为了更好地实施以上方法,本申请实施例提供了一种基于影像融合的交通事故检测装置,该装置具体可以集成在计算机设备中,例如终端或服务器等设备中,该终端可以包括但不限于手机、平板电脑或台式电脑等设备。
图3为本申请实施例提供的一种基于影像融合的交通事故检测装置的结构框图,如图3所示,该装置主要包括:
获取模块201,用于按照多个预设方向分别获取目标区域的多源遥感影像;
预处理模块202,用于将属于同一预设方向的多源遥感影像进行预处理;
影像融合模块203,用于将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;
识别模块204,用于将多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取多个预设方向的识别结果;以及,
检测模块205,用于根据多个预设方向的识别结果检测目标区域是否发生交通事故。
作为本实施例的一种可选实施方式,预处理模块202中,预处理包括辐射定标、正射校正和影像配准。
作为本实施例的一种可选实施方式,多源遥感影像包括高光谱影像和全色影像;影像融合模块203,具体用于通过IHS变换融合法将属于同一预设方向的高光谱影像和全色影像进行影像融合。
作为本实施例的一种可选实施方式,如图4所示,该装置还包括训练模块206,用于在将多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别之前,选取训练集,构建深度神经网络模型,将训练集输入深度神经网络模型中进行训练,得到训练好的深度神经网络模型。
作为本实施例的一种可选实施方式,识别结果为交通事故或者非交通事故;检测模块205,具体用于判断识别结果为交通事故的占比是否达到预设值,若是,则判定目标区域发生交通事故,否则判定目标区域未发生交通事故。
作为本实施例的一种可选实施方式,如图4所示,该装置还包括告警救助模块207,用于在判定目标区域发生交通事故之后,发出告警并进入救助模式。
实施例一提供的方法中的各种变化方式和具体实例同样适用于本实施例的基于影像融合的交通事故检测装置,通过前述对基于影像融合的交通事故检测方法的详细描述,本领域技术人员可以清楚的知道本实施例中的基于影像融合的交通事故检测装置的实施方法,为了说明书的简洁,在此不再详述。
实施例三
为了更好地执行上述方法的程序,本申请实施例提供一种计算机设备,如图4所示,计算机设备300包括存储器301和处理器302。
计算机设备300可以以各种形式来实施,包括手机、平板电脑、掌上电脑、笔记本电脑和台式计算机等设备。
其中,存储器301可用于存储指令、程序、代码、代码集或指令集。存储器301可以包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如影像配准和影像融合等)以及用于实现上述实施例一提供的基于影像融合的交通事故检测方法的指令等;存储数据区可存储上述实施例一提供的基于影像融合的交通事故检测方法中涉及到的数据等。
处理器302可以包括一个或者多个处理核心。处理器302通过运行或执行存储在存储器301内的指令、程序、代码集或指令集,调用存储在存储器301内的数据,执行本申请的各种功能和处理数据。处理器302可以为特定用途集成电路(Application SpecificIntegrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(ProgrammableLogic Device,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central Processing Unit,CPU)、控制器、微控制器和微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器302功能的电子器件还可以为其它,本申请实施例不作具体限定。
实施例四
本申请实施例提供一种计算机可读存储介质,例如包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。该计算机可读存储介质存储有能够被处理器加载并执行上述实施例一的基于影像融合的交通事故检测方法的计算机程序。
本申请具体实施例仅仅是对本申请的解释,其并不是对本申请的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本申请的权利要求范围内都受到专利法的保护。

Claims (9)

1.一种基于影像融合的交通事故检测方法,其特征在于,包括:
按照多个预设方向分别获取目标区域的多源遥感影像;
将属于同一预设方向的多源遥感影像进行预处理;
将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;
将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取所述多个预设方向的识别结果;
根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故。
2.根据权利要求1所述的方法,其特征在于,所述预处理包括辐射定标、正射校正和影像配准。
3.根据权利要求1或2所述的方法,其特征在于,所述多源遥感影像包括高光谱影像和全色影像;所述将预处理后的属于同一预设方向的多源遥感影像进行融合,包括:
通过IHS变换融合法将属于同一预设方向的所述高光谱影像和所述全色影像进行影像融合。
4.根据权利要求1所述的方法,其特征在于,在所述将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别之前,还包括:
选取训练集,构建深度神经网络模型,将所述训练集输入所述深度神经网络模型中进行训练,得到所述训练好的深度神经网络模型。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述识别结果为交通事故或者非交通事故;所述根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故,包括:
判断所述识别结果为交通事故的占比是否达到预设值,若是,则判定所述目标区域发生交通事故,否则判定所述目标区域未发生交通事故。
6.根据权利要求5所述的方法,其特征在于,在所述判定所述目标区域发生交通事故之后,还包括:
发出告警并进入救助模式。
7.一种基于影像融合的交通事故检测装置,其特征在于,包括:
获取模块,用于按照多个预设方向分别获取目标区域的多源遥感影像;
预处理模块,用于将属于同一预设方向的多源遥感影像进行预处理;
影像融合模块,用于将预处理后的属于同一预设方向的多源遥感影像进行融合,获取该预设方向的融合影像;
识别模块,用于将所述多个预设方向的融合影像分别输入训练好的深度神经网络模型中进行识别,获取所述多个预设方向的识别结果;以及,
检测模块,用于根据所述多个预设方向的识别结果检测所述目标区域是否发生交通事故。
8.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器上存储有能够被所述处理器加载并执行如权利要求1至6中任一种方法的计算机程序。
9.一种计算机可读存储介质,其特征在于,存储有能够被处理器加载并执行如权利要求1至6中任一种方法的计算机程序。
CN202011224574.9A 2020-11-05 2020-11-05 基于影像融合的交通事故检测方法、装置、设备及介质 Pending CN112329853A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011224574.9A CN112329853A (zh) 2020-11-05 2020-11-05 基于影像融合的交通事故检测方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011224574.9A CN112329853A (zh) 2020-11-05 2020-11-05 基于影像融合的交通事故检测方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN112329853A true CN112329853A (zh) 2021-02-05

Family

ID=74315383

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011224574.9A Pending CN112329853A (zh) 2020-11-05 2020-11-05 基于影像融合的交通事故检测方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112329853A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076991A (zh) * 2021-03-30 2021-07-06 中国人民解放军93114部队 基于非线性积分算法的多元目标信息综合处理方法及装置
CN114565046A (zh) * 2022-03-01 2022-05-31 中科海慧(北京)科技有限公司 一种基于遥感高光谱的矿产资源探测系统及探测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325539A (zh) * 2018-09-30 2019-02-12 云南电网有限责任公司普洱供电局 绝缘子掉串检测方法及装置
CN111598048A (zh) * 2020-05-31 2020-08-28 中国科学院地理科学与资源研究所 一种融合高分遥感影像和街景影像的城中村识别方法
CN111753662A (zh) * 2020-05-25 2020-10-09 济南浪潮高新科技投资发展有限公司 一种交通事故处理方法、设备及介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325539A (zh) * 2018-09-30 2019-02-12 云南电网有限责任公司普洱供电局 绝缘子掉串检测方法及装置
CN111753662A (zh) * 2020-05-25 2020-10-09 济南浪潮高新科技投资发展有限公司 一种交通事故处理方法、设备及介质
CN111598048A (zh) * 2020-05-31 2020-08-28 中国科学院地理科学与资源研究所 一种融合高分遥感影像和街景影像的城中村识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
汪金花 等: "《遥感技术与应用》", 31 January 2015, 北京测绘出版社 *
赵相伟 等: "《MATLAB与测量数据处理》", 31 March 2014, 中国矿业大学出版社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076991A (zh) * 2021-03-30 2021-07-06 中国人民解放军93114部队 基于非线性积分算法的多元目标信息综合处理方法及装置
CN113076991B (zh) * 2021-03-30 2024-03-08 中国人民解放军93114部队 基于非线性积分算法的多元目标信息综合处理方法及装置
CN114565046A (zh) * 2022-03-01 2022-05-31 中科海慧(北京)科技有限公司 一种基于遥感高光谱的矿产资源探测系统及探测方法

Similar Documents

Publication Publication Date Title
US11532151B2 (en) Vision-LiDAR fusion method and system based on deep canonical correlation analysis
EP3997616B1 (en) Object-based change detection using a neural network
Zhao et al. Bolt loosening angle detection technology using deep learning
KR102565279B1 (ko) 객체 검출 방법, 객체 검출을 위한 학습 방법 및 그 장치들
Gamba et al. Improving urban road extraction in high-resolution images exploiting directional filtering, perceptual grouping, and simple topological concepts
CN101939191B (zh) 对象检测与辨识系统
CN111242037A (zh) 基于结构信息的车道线检测方法
CN110378196A (zh) 一种结合激光点云数据的道路视觉检测方法
CN103400156B (zh) 基于cfar和稀疏表示的高分辨sar图像舰船检测方法
CN110675408A (zh) 基于深度学习的高分辨率影像建筑物提取方法及系统
CN113065578B (zh) 一种基于双路区域注意力编解码的图像视觉语义分割方法
CN112329853A (zh) 基于影像融合的交通事故检测方法、装置、设备及介质
CN110991430B (zh) 基于遥感图像的地物识别及覆盖率计算方法及系统
CN113887472B (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
CN113239864A (zh) 一种适用于农业调查的无人机的路线规划方法
CN113269028B (zh) 一种基于深度卷积神经网络的水体变化检测方法和系统
CN116206221B (zh) 一种水体耀斑检测方法和系统
CN113887324A (zh) 基于卫星遥感数据的火点检测方法
CN114782787A (zh) 一种对点云与图像数据进行特征融合的处理方法和装置
CN113221813A (zh) 一种海岸线遥感提取方法
CN114862952B (zh) 无人机检测与防御方法及系统
CN115311553A (zh) 目标检测方法、装置、电子设备及存储介质
CN108416760B (zh) 一种震后高分辨率sar图像单体建筑物倒塌损毁检测方法
CN117765083A (zh) 一种设备定位方法、装置、电子设备及存储介质
CN117475326A (zh) 一种基于轮廓增强和多层次信息交互增强的sar舰船检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210205

RJ01 Rejection of invention patent application after publication