CN112585655A - 基于5g的无人驾驶电子交警执勤系统 - Google Patents
基于5g的无人驾驶电子交警执勤系统 Download PDFInfo
- Publication number
- CN112585655A CN112585655A CN202080002946.5A CN202080002946A CN112585655A CN 112585655 A CN112585655 A CN 112585655A CN 202080002946 A CN202080002946 A CN 202080002946A CN 112585655 A CN112585655 A CN 112585655A
- Authority
- CN
- China
- Prior art keywords
- accident
- duty
- unmanned
- image
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
Abstract
提供一种基于5G的无人驾驶电子交警执勤系统,包括至少一个无人驾驶执勤装置,数据中心和用户终端;所述用户终端,用于发送报警指令和接收事故处理结果;以及对事故处理结果进行确认;所述无人驾驶执勤装置,用于响应接收到至少包括位置信息的执勤指令或报警指令,移动至事故发生地获取事故发生地的图像;所述事故处理结果至少包括事故责任认定信息和事故损失信息;所述无人驾驶执勤装置为无人飞行器或无人驾驶车;所述数据中心,用于发送执勤指令;以及基于所述图像进行分析,得到事故处理结果;以及向事故相关人员送达事故处理结果。不需要执勤人员达到事故现场即可实现事故的责任认定,出具事故的处理结果,节省人力和时间成本,提高处理效率。
Description
技术领域
本发明的实施方式涉及信息处理领域,更具体地,本发明的实施方式涉及一种基于5G的无人驾驶电子交警执勤系统。
背景技术
当发生交通事故后,道路严重拥堵,交警很难快速到达现场,给城市及路网交通带来较大压力,然而当交警到达现场后,根据法律法规和经验处理,处理后好多车主心存疑虑公平公正,而且浪费很多时间。
发明内容
在本上下文中,本发明的实施方式期望提供一种基于5G的无人驾驶电子交警执勤系统,以至少解决现有人工出警处理交通事故导致的人力和时间成本大、人工判定事故处理结果的方式效率低的问题。
在本发明实施方式的第一方面中,提供了一种基于5G的无人驾驶电子交警执勤系统,包括至少一个无人驾驶执勤装置,数据中心和用户终端;
所述用户终端,用于发送报警指令和接收事故处理结果;以及
对事故处理结果进行确认;
所述无人驾驶执勤装置,用于响应接收到至少包括位置信息的执勤指令或报警指令,移动至事故发生地获取事故发生地的图像;
所述事故处理结果至少包括事故责任认定信息和事故损失信息;
所述无人驾驶执勤装置为无人飞行器或无人驾驶车;
所述数据中心,用于发送执勤指令;以及
基于所述图像进行分析,得到事故处理结果;以及
向事故相关人员送达事故处理结果。
根据本发明实施方式的基于5G的无人驾驶电子交警执勤系统,其能够克服现有技术不足,不需要执勤人员达到事故现场即可实现事故的责任认定,出具事故的处理结果,,节省了人力和时间成本,提高了处理效率。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1示意性地示出了根据本发明实施方式的基于5G的无人驾驶电子交警执勤系统的一个示例的结构框图;
图2示意性地示出了根据本发明实施方式的基于5G的无人驾驶电子交警执勤系统的一个示例性图像分析处理的流程图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本发明的若干代表性实施方式,详细阐释本发明的原理和精神。
示例性系统
本发明的实施例提供了一种基于5G的无人驾驶电子交警执勤系统,包括至少一个无人驾驶执勤装置,数据中心和用户终端;
所述用户终端,用于发送报警指令和接收事故处理结果;以及
对事故处理结果进行确认;
所述无人驾驶执勤装置,用于响应接收到至少包括位置信息的执勤指令或报警指令,移动至事故发生地获取事故发生地的图像;
所述事故处理结果至少包括事故责任认定信息和事故损失信息;
所述无人驾驶执勤装置为无人飞行器或无人驾驶车;
所述数据中心,用于发送执勤指令;以及
基于所述图像进行分析,得到事故处理结果;以及
向事故相关人员送达事故处理结果。
在本实施例中,所述执勤指令可以是数据中心根据道路交通情况分析后主动下发的,也可以是普通用户通过手机(用户终端)进行报警后,由数据中心进行下发的,具体而言,所述基于5G的无人驾驶电子交警执勤系统还包括数据中心,用于分析接收到的道路交通信息,在道路交通状况符合特定条件时,向无人驾驶执勤装置下发执勤指令;例如分析多个监控设备采集的道路交通图像,确定道路交通状况是否符合特定条件,在某个位置的道路交通状况符合特定条件时,指示指挥中心向所述位置附近的无人驾驶执勤装置下发执勤指令;具体而言,所述数据中心可以定期汇总发生交通拥堵的路段,所述交通拥堵即为某一路段在预设时间(例如10分钟)内通行缓慢,所述通行缓慢的标准可以由工作人员根据实际情况进行设置或者由数据中心根据相应路段的历史通行情况进行计算,例如某路段在平时工作日的早晨8点半的车辆行驶平均速度为40km/h,若某一工作日通过监控设备采集的图像分析得到这一路段早晨8点半的所有车辆行驶速度均低于10km/h,则对这一路段和行驶方向上的若干路段进行图像分析,判断是否发生交通事故,若是,则确定交通事故发生地的位置并向最近的无人驾驶执勤装置下发执勤指令,从而快速处理事故,疏导交通,最快速度的恢复正常的交通秩序。
在本实施方式的一个实施例中,进行图像分析,判断是否发生交通事故可以是获取图像中的车辆,分析车辆是否受损,或者分析实时视频中道路上行驶区域内的车辆是否正常行驶,若存在少数车辆停滞,多数车辆正常行驶的情况,则判定发生交通事故。
通常来说,发生交通事故时,附近的路人或相关的事故人员会通过自己的通讯设备如手机进行报警,从而在本实施方式的一个实施例中,所述数据中心还会在接收到报警信息之后分析接收到的报警信息,获取报警信息中的位置信息,并基于所述报警信息中的位置信息向该位置附近的无人驾驶执勤装置下发执勤指令;具体来说,所述报警信息中的位置信息可以是报警人员提供的位置信息,例如报警人员在进行报警时口述的事故发生地或者填写的事故发生地,或者还可以是所述报警人员进行报警时所通过的通讯设备的位置信息,即将所述通讯设备的位置信息确定为事故发生地。
所述无人驾驶执勤装置在到达事故发生地之后可以根据预设规则获取事故发生地的图像,以便上传数据中心后数据中心基于所述图像进行分析,得到事故处理结果;
下面以无人驾驶执勤装置为无人机举例进行拍摄事故现场图像的说明,首先无人机可以在到达事故现场时,可以进入三脚架拍摄模式,然后对地面的图像进行拍摄,从而准确定位事故车辆的位置,然后根据事故车辆的位置进行环绕拍摄,获取事故车辆的全部事故图像,具体的拍摄图像方式在以下实施例中会详细说明。
所述事故处理结果至少包括事故责任认定信息和事故损失信息;
在本实施例中,所述事故责任认定信息基于事故发生过程视频分析而得,所述事故发生过程视频由事故发生地的监控设备采集得到;
所述事故损失信息由事故发生地的图像分析而得,所述事故发生地的图像由所述无人驾驶执勤装置采集得到。
可以理解的是,在本实施方式的一个实施例中,所述事故责任认定信息和事故损失信息由所述数据中心分析得到。
考虑到电子交警虽然比人工更加灵活,行动效率高,但存在续航问题,在本实施方式的一个实施例中,该系统还包括多个备勤基站,每一备勤基站至少包括一能源供给设备,用于为所述无人驾驶执勤装置补充能源,具体的,所述能源供给设备可以是充电桩,多个备勤基站分别部署在城市路网的不同位置,具体来说,可以部署在道路上的非行驶区域,例如道路两边或中间的绿化隔离带或者路灯处或者红绿灯处,每一个所述备勤基站至少停放一个无人驾驶执勤装置;
更进一步地,在本实施方式的一个实施例中,所述备勤基站包括支撑杆,停机平台,无线充电桩,通讯模块,所述支撑杆与所述停机平台连接,所述停机平台内部署有无线充电桩,所述通讯模块设置在支撑杆的合适位置,用于接收数据中心的指令,以及向外出执勤的无人驾驶执勤装置发送控制指令;从而所述无人驾驶执勤装置在停机平台备勤时即可进行能源补充;另外,一个备勤基站可以设置多个停机平台,不同的停机平台可以部署不同的充电桩,例如一些停机平台部署普通充电桩,一些停机平台部署超级充电桩,在进行日常备勤时,所述无人驾驶执勤装置停放在部署普通充电桩的停机平台,在无人驾驶执勤装置外出执行出勤任务回归后,又接收到出勤任务,则可以停放在部署超级充电桩的停机平台,快速补充能源,从而快速达到可以执勤的能源状态。
在某个道路发生事故时,所述数据中心根据事故发生地选择最近的备勤基站下发执勤指令;
在某个备勤基站接收到执勤指令后,根据预设规则指示无人驾驶执勤装置执行执勤任务;
在本实施例中,某个备勤基站接收到执勤指令后会根据当前备勤的无人驾驶执勤装置的状态选择出勤,例如选择能源状态100%的无人驾驶执勤装置出勤,或者若没有充满能源的无人驾驶执勤装置,则选择能源储存量最多的进行出勤,需要说明的是,出勤的无人驾驶执勤装置能源储存量必须大于预设阈值,以满足最低的出勤需求,例如能源余量大于50%;
更进一步地,所述备勤基站可以在接受到数据中心的执勤指令后,根据其中的位置信息,分析此次出勤的最低能源消耗,从而确定出勤的无人驾驶执勤装置需要满足的能源状态。
或者在某个道路A发生事故时,所述数据中心根据事故发生地选择最近的无人驾驶执勤装置下发执勤指令,例如附近的某个地方B在之前恰好发生了事故,已经派出了无人驾驶执勤装置a出勤处理,且无人驾驶执勤装置a已经完成了某个地方B的事故处理任务,可以返回,这时某个道路A发生事故,且无人驾驶执勤装置a的当前能源状态可以满足出勤需求,并且无人驾驶执勤装置a距离某个道路A的比最近的备勤基站还要近,则可以由无人驾驶执勤装置a所属的备勤基站发出指令,要求无人驾驶执勤装置a抵达某个道路A进行事故处理。
在无人驾驶执勤装置进行事故处理之后,需要向事故相关人员送达事故处理结果,包括:
通过所述无人驾驶执勤装置搭载的显示设备显示事故处理结果;或者
通过所述无人驾驶执勤装置搭载的语音设备播放事故处理结果;或者
通过所述无人驾驶执勤装置搭载的通讯设备向事故相关人员的手持终端设备发送事故处理结果。
在向事故相关人员转达事故处理结果后,若相关人员对结果存在异议,可通过相应的渠道进行反馈,申请复议,例如本发明可以配套实施一个部署在手机的应用(APP),此应用可以提供一键报警功能,在用户点击一键报警后,将一并获取当前的位置来进行报警操作,或者提供输入框供用户报警时填写事故发生地,然后数据中心接收到报警后,将下发执勤指令到相应的距离事故发生地(报警地或报警时提供的事故发生地)最近的备勤基站,从而使得备勤基站派出无人驾驶执勤装置进行事故处理。
下面结合图2来描述根据本发明示例性实施方式的基于5G的无人驾驶电子交警执勤系统如何根据图像分析事故损失。
图2示意性地示出了根据本公开实施例的基于5G的无人驾驶电子交警执勤系统的一种示例性的图像获取处理流程100。
如图1所示,处理流程100开始后,首先执行步骤S110。
在步骤S110中,获取事故发生地的中景图像,然后,执行步骤S120。
其中,中景图像例如可以通过驱动图像采集设备进行图像采集而获得。
中景图像是指能够反映受损部位的中景图像,例如是能够看到事故车辆全貌的图像,例如距离车辆第一预定距离(如3米)所拍摄的车辆图像。
在步骤S120中,在获取的中景图像符合事故判定条件的情况下,识别中景图像中的至少一个车辆受损部位,获取至少一个车辆受损部位各自的近景图像。接着,执行步骤S130。
例如,可以通过预设的分类模型或识别模型来识别中景图像中的至少一个车辆受损部位。比如,将符合事故判定条件的中景图像输入到已经训练好的识别模型中,可以识别出有哪些部位受损,例如前车灯受损、保险杠受损,等等。
近景图像是指能够清晰地反映受损部位的近景图像,例如能够看到至少部分受损部位的清晰图片,比如,距离车辆第二预定距离(0.5米或1米或其他距离)拍摄的车辆图像。
其中,近景图像例如可以通过驱动图像采集设备进行图像采集而获得。
第一和第二预定距离例如可以根据经验值设定,或者通过试验的方法确定,这里不再赘述。
作为示例,用于采集中景图像和/或近景图像的图像采集设备例如包括以下一种或多种设备:单目摄像头、双目摄像头、距离传感器以及红外传感器。
在一个例子中,可以通过判定中景图像是否完整来确定中景图像是否符合事故判定条件。即若中景图像完整,则判定该中景图像符合事故判定条件;否则,判定其不符合事故判定条件。
在另一个例子中,也可以通过判定中景图像是否完整、并且中景图像的清晰度是否高于或等于第一清晰度阈值来确定其是否符合事故判定条件,只有同时满足这两个条件才符合事故判定条件。也即,若中景图像完整,且中景图像的清晰度高于或等于第一清晰度阈值,判定该中景图像符合事故判定条件。
例如,当中景图像满足以下任一条件时,可以判定该中景图像是完整的:该中景图像包括至少一个完整的受损区域(简称第一条件);该中景图像所包括的每个受损区域均完整(简称第二条件);以及该中景图像中的车辆区域的所有边缘外侧均为环境图像区域(简称第三条件)。
其中,上述环境图像区域例如可以通过现有环境检测算法获得,比如,环境图像是指诸如天空、道路、花草等对应的图像部分。
例如,可以通过如下方式来判定中景图像中的受损区域是否完整:识别中景图像中的所有受损区域和所有未受损区域;以及针对中景图像中的部分或全部受损区域中的每一个,判断该受损区域的边缘之外是否为未受损区域:若是,判定该受损区域完整;否则,判定该受损区域不完整。
其中,在图像中识别受损区域和未受损区域的过程可以利用边缘检测算法来实现。
又如,还可以通过如下方式来判定中景图像中的受损区域是否完整:识别中景图像中的所有受损区域和所有未受损区域;以及针对中景图像中的部分或全部受损区域中的每一个,判断该受损区域的边缘是否至少部分地与中景图像的图像边界重合:若是,判定该受损区域不完整;否则,判定该受损区域完整。
在步骤S130中,在获取的近景图像符合事故判定条件的情况下,根据至少一个车辆受损部位各自的近景图像,确定每个车辆受损部位的损伤类型和/或损伤程度。
作为示例,可以通过判定近景图像的清晰度是否高于或等于第二清晰度阈值来判定其是否符合事故判定条件。也即,若近景图像的清晰度高于或等于第二清晰度阈值,判定该近景图像符合事故判定条件。
应当注意的是,近景图像和中景图像各自的事故判定条件可以是不同的。
上述第一清晰度阈值和/或第二清晰度阈值例如可以根据经验值设定,或者通过试验的方法确定,这里不再赘述。
这样,在步骤S140中,基于至少一个车辆受损部位及各自的损伤类型和/或损伤程度,确定车辆的损失。
此外,可以在图像采集设备采集所需要的损伤图像期间,实时获取当前的拍摄位置和/或拍摄参数;以及根据当前的拍摄位置和/或拍摄参数以及所需要的损伤图像所对应的拍摄位置参考值和/或拍摄参数参考值,实时地确定当前所需的调整操作以进行相应的自动调整,直到当前的拍摄位置和/或拍摄参数与所需要的损伤图像所对应的拍摄位置参考值和/或拍摄参数参考值之间的距离小于预设差值。
预设差值例如可以根据经验值设定,或者通过试验的方法确定,这里不再赘述。
其中,上述调整操作例如可以包括拍摄位置和/或拍摄参数的调整趋向。
此外,上述调整操作除了可以包括拍摄位置和/或拍摄参数的调整趋向之外,还可以选择性地包括拍摄位置和/或拍摄参数的调整量。
作为示例,在图像采集设备每次完成采集后,例如可以响应于用户的存储操作、或自动地将采集到的图像存储在非易失性存储器中。
作为示例,在图像采集设备每次完成采集后,例如可以将采集到的图像存储在易失性存储器中;若存储在易失性存储器中的图像符合对应的事故判定条件,响应于用户的存储操作、或自动地将该图像存储在非易失性存储器中;若存储在易失性存储器中的图像不符合对应的事故判定条件,驱动图像采集设备进行下一次图像采集。
作为示例,在获取(例如采集或从预定存储设备中选择)中景图像后,且在该中景图像被判定符合事故判定条件之前,不可进行近景图像的获取。
作为示例,在图像采集设备的每一次采集后,在获得该次采集图像是否符合事故判定条件的判定结果之前,将图像采集设备设置为不可使用。
作为示例,识别中景图像中的至少一个车辆受损部位的步骤包括:确定中景图像中的至少一个完整的受损区域;以及识别(比如可通过神经网络训练分类等方法实现)至少一个完整的受损区域各自对应的车辆受损部位并合并相同的识别结果,以根据合并后的结果确定中景图像中的至少一个车辆受损部位。
作为示例,中景图像的数量为一个或多个;以及中景图像中的每个车辆受损部位所对应的近景图像的数量为一个或多个。
在获取到事故现场的图片后,从所述图片中筛选出包括事故车辆的候选定损图片,具体的,在本实施方式的一个实施例中,首先对所述图片进行检测,识别所述图片中的受损区域,在本实施方式的一个实施例中,可以使用基于卷积神经网络和区域建议网络的多种模型和变种,如FasterR-CNN、YOLO、Mask-FCN等进行识别。其中的卷积神经网络(CNN)可以用任意CNN模型,如ResNet、Inception,VGG等及其变种。通常神经网络中的卷积网络(CNN)部分可以使用在物体识别取得较好效果的成熟网络结构,如Inception、ResNet等网络。另外,fasterR-CNN、YOLO、Mask-FCN等都是属于本实施例可以使用的包含卷积层的深度神经网络。
在获取并检测包括车辆定损的图像之后,基于检测出的受损区域对所述图片进行分类,确定其中包括受损区域的图片为候选定损图片。
车辆损失常常需要不同类别的图像数据,如车辆全貌的不同角度的图像、能展示出受损部件的图像、具体受损区域的近景细节图等。本发明在获取损伤图像的处理中,可以对拍摄到的图像进行识别,例如是否为受损车辆的图像、识别图像中包含的车辆部件、包含一个还是多个车辆部件、车辆部件上是否有损伤等等。本发明的一个实施例中,可以将车辆损失需要的损伤图像相应的分为不同的类别,其他不符合损伤图像要求的可以单独另分为一个类别。具体的可以提取拍摄到的每一图像,对每一图像进行识别后分类,形成损伤图像的候选图像分类集合。
在本发明中,确定的车辆损伤图像可以分为三类,一类是能够展示所述受损区域的受损细节的图像,另一类是能够展示所述受损区域所属车辆部件的图像,还有一类是其他不符合损伤图像要求的图像,
在本实施方式的一个实施例中,可以基于检测出的受损区域对所述图像进行分类,确定所述损伤图像的候选图像分类集合;
能够展示所述受损区域的受损细节的图像集合中包括了受损区域的近景图像,能够展示所述受损区域所属车辆部件的图像集合中包括了受损车辆的受损部件,受损部件上有至少一处受损区域。具体的在本实施例应用场景中,拍摄者可以对指定的受损区域进行由近到远(或者由远到近)的拍摄,可以通过拍摄者移动或者变焦来完成。服务器端可以对拍摄视频中的关键帧图像进行分类和识别。
在本实施方式的一个实施例中,可以采用下述中的至少一种方式确定所述能够展示所述受损区域的受损细节的图像集合中的图像:
受损区域在所属关键帧图像中所占区域的面积比值大于第一预设阈值;
受损区域的横坐标跨度与所属关键帧图像长度的比值大于第二预设阈值,和/或,受损区域的纵坐标跨度与所属关键帧图像宽度的比例大于第三预设阈值;
从相同受损区域的图像中,选择按照受损区域的面积降序排列后的排序在前的多张图像,或者按照所述受损区域的面积降序排列后属于第四预设阈值内的图像。
在确定车辆损伤图像的候选图像集合后,按照预设条件从所述候选损失图片中选取车辆损伤图像。具体的,在本实施方式的一个实施例中,可以从受损区域候选图像分类集合中,根据图像的清晰度和所述受损区域的拍摄角度,分别选取至少一张作为所述受损区域的损伤图像。
接下来,基于所述车辆损伤图像获取用于评估车辆损坏情况的基础数据,首先对所述车辆损伤图像进行预处理,以便获取所述基础数据,其中,所述预处理至少二值化、亮度处理和区域划分处理中的一个,具体的,例如一幅图像包含目标物体、背景还有噪声,要想从多值的数字图像中直接提取出目标物体,最经常使用的方法就是设定一个全局的阈值T,用T将图像的数据分成两部分:大于T的像素群和小于T的像素群。将大于T的像素群的像素值设定为白色(或者黑色),小于T的像素群的像素值设定为黑色(或者白色);比如:对每个像素计算(R+G+B)/3,假设计算结果>127,则设置该像素为白色,即R=G=B=255;否则设置为黑色,即R=G=B=0。
考虑到全局二值化在表现图像细节方面不够清晰,在本实施方式的一个实施例中,采用局部二值化方法,具体的,按照预设规则将整幅图像划分为N个窗口,对这N个窗口中的每一个窗口再按照同一预设阈值T将该窗口内的像素划分为两部分,进行二值化处理。
进一步地,考虑到局部二值化可能会使得其中出现伪影像。所述伪影像的存在是由于所述阈值的选定没有经过合理的运算,而是取所述窗口的平均值。在本实施方式的一个实施例中,在局部二值化的基础之上,将阈值的设定更加合理化。具体的,将所述阈值通过对窗口像素的平均值E,像素之间的差平方P,像素之间的均方根值Q等各种局部特征,设定一个参数方程进行阈值的计算,例如:T=a*E+b*P+c*Q,其中a,b,c是自由参数。这样得出来的二值化图像就更能表现出二值化图像中的细节。
在对所述图片进行二值化处理之后,可以进一步进行亮度处理,对所述图片的部分包括或不包括目标物体的区域的亮度进行变换,以使得能够更加准确的识别出所述图片中的目标物体,具体的,亮度变换可以通过线性或非线性变化或直方图处理,其中,所述线性变化可以基于分段线性或直接线性,非线性包括对数变换,幂律变换等等,直方图处理有直方图均衡和直方图归一化,在进行亮度变换处理时,可以根据具体的情况采用相应的方法,本实施方式对此不做限定。可以理解的是,对图片进行亮度变换和二值化处理的顺序可以根据具体的实施场景进行选择,并且在一些实施场景中,可能仅仅需要进行亮度变换或二值化处理。
在本实施方式的一个实施例中,对所述图片进行以上处理后,可以进一步对处理后的图片进行分割,也即区域划分处理,将图像中具有特殊意义的不同区域划分开来,分割出可以作为后续特征提取的目标对象的区域,这些区域互不相交,每个区域满足灰度、纹理、彩色等特征的某种相似性准则。具体的,可以采用以下任一方法:
1)模板匹配,基于区域分割图像的一种直接方法是将图像中的区域和一组给定的模板进行比较匹配,从而将符合模板的物体从图像的其他部分中分割出来,而剩余的图像则可根据需要再用其他方法分析。例如,模板匹配可用于分割图文混排的书稿。当文字用模板匹配的方法找出来以后,图形可再用其他方法进行分析。模板匹配的过程可以采用卷积计算来进行。
2)纹理分割,当物体置于明显的纹理背景中或物体本身具有较强的纹理特征时,就需要利用基于纹理的区域分割方法。由于纹理是某种模式,或者说图案、花样、结构等的重复,所以不能用单个的像素的特性(灰度或颜色)来描述。当然也无法用基于像素的分类方法(参见图像像素分类)。由于纹理经常包含有大量的边缘,因此,除非滤去纹理,否则用边界跟踪的方法分割有丰富纹理的图像很难有好的效果。
纹理的描述与分类是分割的基础。当知道图像中有某种纹理存在时,可利用已知纹理的特征(如该纹理在频域中的描述或空间灰度关系矩阵)在图像中寻找。如果事先没有知识的话,可以采用基于区域的聚类方法进行纹理区域的分割。一种容易想到的办法是:把图像分成若干(小)块,计算每一块的纹理特征,根据特征差别的程度决定是否把小块合并。
3)区域聚类法,聚类法一般可分为区域生长法及分裂合并法:
1.区域生长,从满足检测准则的点或一块区域开始,在各个方向上“生长”物体。“生长”的依据如下:同一类型区域的特征,如灰度、颜色及纹理特征等,相差不会太远。因此,满足一定合并条件的邻域可以并入该区域。可以理解的是,在生长过程中,合并条件可以调整。当再也找不到可合并的邻域时,则停止生长。
2.区域的分裂和合并,首先将图像分为若干“初始”区域,然后再分裂或合并这些区域,逐步改进区域分割的指标,直到最后将图像分割为数量最少(或符合某一要求)的“基本一致”的区域为止。通常,“一致”的标准可用特性的均方误差来量度。
在对所述图片预处理完成之后,识别预处理后的所述车辆损伤图像中所包括的受损部件和受损部位;
具体的,在本实施方式的一个实施例中,可以通过预先建立的车辆部件检测模型来识别预处理后的所述车辆损伤图像中所包括的部件,以及通过预先建立的损伤检测模型来识别预处理后的所述车辆损伤图像中的受损部位,在本实施例中,可以预先采用设计的机器学习算法构建用于识别图像中车辆部件的车辆部件检测模型,所述的车辆部件检测模型经过样本图像的训练后,可以识别出所述部件图像中包含哪些车辆部件。所述的部件识别模型可以采用深度神经网络的网络模型或者变种的网络模型,经过样本图像训练后构建生成。
例如可以基于卷积神经网络(ConvolutionalNeuralNetwork,CNN)和区域建议网络(RegionProposalNetwork,RPN),结合输入模型训练的损伤样本图像、全连接层等构建生成所述的车辆部件检测模型和/或损伤检测模型。
在本实施方式的一个实施例中,可以使用基于卷积神经网络和区域建议网络的多种模型和变种构建生成所述车辆部件检测模型,如FasterR-CNN、YOLO、Mask-FCN等进行检测识别。其中的卷积神经网络(CNN)可以用任意CNN模型,如ResNet、Inception,VGG等及其变种。通常神经网络中的卷积网络(CNN)部分可以使用在物体识别取得较好效果的成熟网络结构,如Inception、ResNet等网络。fasterR-CNN、YOLO、Mask-FCN等都是属于本实施例可以使用的包含卷积层的深度神经网络。
接下来,基于识别出的部件和受损部位确定车辆的受损部件,在本实施方式的一个实施例中,通过预先建立的损伤检测模型来识别预处理后的所述车辆损伤图像的受损部位、所述受损部位在图片中的区域位置和所述受损部位的面积大小;
通过预先建立的车辆部件检测模型来识别预处理后的所述车辆损伤图像中所包括的部件、所述部件在图片中的部件区域和所述部件的面积大小;
基于所述受损部位和部件在图片中的部件区域和面积大小确定车辆的受损部件。
继而基于识别出的受损部件和受损部位确定用于评估车辆损坏情况的基础数据,其中,所述基础数据包括以下一种或组合:
车辆各个受损部件的面积/长度/宽度;
车辆各个受损部位的面积/长度/宽度;
车辆各个受损部位的损伤类型。
在本实施方式的一个实施例中,获取到所述基础数据之后,根据该基础数据进行计算,获得车辆的损伤等级,以表示所述车辆的损坏情况。
具体的,在本实施方式的一个实施例中,可以基于所述车辆各个受损部件的面积/长度/宽度和车辆各个受损部位的面积/长度/宽度分别计算各个受损部件的损伤等级,以表示所述车辆的损坏情况。
在本实施方式的一个实施例中,采用下述中的至少一种方式计算各个受损部件的损伤等级:
计算受损部位在所属部件中所占区域的面积比值;和/或
受损部位的横坐标跨度与所属部件长度的比值;和/或
受损部位的纵坐标跨度与所属部件宽度的比值;
基于所述比值按照预设的各个等级对应的阈值确定所述受损部件的损伤等级。
具体的,在本实施方式的一个实施例中,所述损伤等级包含设定的若干梯度,例如,在本实施例中,通过上述的步骤检测出一张包括完整的车辆受损部件的图片,首先,确定所述图片中受损区域的面积,再确定所述受损部件的面积,进而计算受损部位在所属部件的图片中所占区域的面积比值,若所述面积比值大于或等于第一预设比例(例如70%),则确定所述受损部件为一级损伤,若所述面积比值(例如55%)小于第一预设比例且大于或等于第二预设比例(例如40%),则确定所述受损部件为二级损伤,若所述面积比值(例如25%)小于第二预设比例且大于或等于第三预设比例(例如10%),则确定所述受损部件为三级损伤,若所述面积比值(例如5%)小于第三预设比例,则确定所述受损部件为四级损伤。
考虑到有一些车辆损伤(比如划伤,擦伤等)根据受损面积无法确定其损伤等级,因此,在本实施方式的一个实施例中,根据受损部位的横/纵坐标跨度与其所属部件长/宽度的比值确定其损伤等级,例如,一张图片A包括划伤a,划伤a的横坐标跨度为100(像素),图片A受损部件的长度为500(像素),那么其比值为100/500=20%,接下来可以按照预设的等级梯度-比值标准确定所述损伤部件的损伤等级,可以理解的是,所述等级梯度-比值标准可以针对于不同的损伤类型进行设定,也可以所有损伤类型通用一套标准;根据受损部位的纵坐标跨度与所属部件宽度的比值确定其损伤等级的原理与上述的方式相同,在此不做赘述。
可以理解的是,所述不同损伤等级对应的面积/长度/宽度比例可包含设定的若干梯度,不同的损伤等级梯度适于描述具有一定跨度范围值的比例。其中,损伤等级中两个相邻梯度之间的差异可为等差分布,即任两个相邻梯度之间的比例差异相同;或者也可为倍数分布,即次高一级损伤等级的比例跨度为高一级损伤等级的比例跨度的设定倍数。在一种具体实施例中,可对各个梯度的比例范围采取加权运算,使得所述损伤等级的各个梯度呈现金字塔形,从而获得更为优化的损坏情况识别结果。
在本实施方式的一个实施例中,基于所述车辆各个受损部件的面积/长度/宽度和车辆各个受损部位的面积/长度/宽度分别计算各个受损部件的损伤等级,包括:
根据受损部位的的损伤类型分别获取面积比值、长度的比值和宽度的比值中的一个或多个系数值;
在本实施例中,针对于不同的损伤等级计算方式,设置了相应的系数值,比如,在根据受损部位在所属部件中所占区域的面积比值计算其损伤等级这一计算方式中,可以设置相应的系数值α;在根据受损部位的横坐标跨度与其所属部件长度的比值确定其损伤等级这一计算方式中,可以设置相应的系数值β;在根据受损部位的纵坐标跨度与所属部件宽度的比值确定其损伤等级这一计算方式中,可以设置相应的系数值λ;
接下来基于所述系数值和按照对应比值预设的各个等级对应的阈值确定所述受损部件的损伤等级,具体的,在本实施方式的一个实施例中,若是根据三种方式综合得到一个受损部件的损伤等级,则还需要根据每一方式对应的系数值综合计算所述损伤等级,例如,根据受损部位在所属部件中所占区域的面积比值计算其损伤等级为a1,根据受损部位的横坐标跨度与其所属部件长度的比值确定其损伤等级为a2,根据受损部位的纵坐标跨度与所属部件宽度的比值确定其损伤等级为a3,那么所述受损部件的损伤等级为A=a1*α+a2*β+a3*λ。
通过以上步骤可以确定事故车辆的损失数据,损失数据可以包括至少一种子数据,该至少一种子数据可以包括以下一种或多种:对应事故的损伤图像;从对应事故的损伤图像中提取的图像特征数据;基于对应事故的损伤图像确定的该事故中的车辆受损部位;以及基于对应事故的损伤图像确定的该事故中的每个车辆受损部位的损伤类型和/或损伤程度。
上述至少一种子数据还可以选择性地包括以下一种或多种:对应事故的相关车辆信息;对应事故的地点信息;对应事故的事故类型信息;以及对应事故的事故发生时的天气信息。
其中,相关车辆信息例如包括该相关车辆的车型、品牌和/或型号;地点信息包括该事故的相关车辆所属地和/或事故发生地。
接着,,基于预定数据库中各历史事故的损失数据与待处理事故的损失数据之间的相似性,在预定数据库中选择与待处理事故最相似的至少一个历史事故,作为待处理事故的匹配事故,其中预定数据库包括多个历史事故的损失数据和历史赔案数据。
其中,预定数据库中各历史事故的损失数据与待处理事故的损失数据之间的相似性例如可以通过如下方式获得:针对预定数据库中的每一个历史事故,对将该历史事故的对应的至少一种子数据中的每一种,计算该历史事故的该种子数据与待处理事故的该种子数据之间的子相似度,以及基于该历史事故与待处理事故之间的所有子相似度,确定该历史事故与待处理事故之间的相似性。
然后,根据待处理事故的匹配事故的历史赔案数据,对待处理事故进行赔案处理。
在一个例子中(方式一),对待处理事故进行赔案处理例如包括:在待处理事故的匹配事故中选择与待处理事故最相似的一个事故,将该事故的历史赔案数据作为待处理事故的参考赔案数据。这样,利用与当前事故(即待处理事故)最相似的事故的赔案数据来处理当前事故。
在另一个例子中(方式二),对待处理事故进行赔案处理例如包括:根据待处理事故的至少部分匹配事故的历史赔案数据中的至少部分数据,来获得待处理事故的参考赔案数据。例如,采用多个(如10个、5个等)匹配事故的历史赔案数据的平均值来作为当前事故的参考赔案数据。
此外,在一些情况下,当前事故与匹配事故的赔案数据的种类可能不完全相同,比如,当前事故需要A、B两种赔案数据,而匹配事故可能包含有A、B、C三种数据或更多种,也可能部分匹配事故包含A、另一部分包含B,因此,可以利用多个匹配事故的赔案数据选择需要的种类、采用上述方式一或方式二来来进行赔案处理。
作为示例,根据待处理事故的至少部分匹配事故的历史赔案数据中的至少部分数据来获得待处理事故的参考赔案数据的步骤例如包括:基于该至少部分匹配事故的历史赔案数据中至少部分数据的平均值,确定待处理事故的参考赔案数据。
作为示例,根据待处理事故的至少部分匹配事故的历史赔案数据中的至少部分数据来获得待处理事故的参考赔案数据的步骤例如包括:针对待处理事故所需的每一项赔案数据,在至少部分匹配事故中,选出具有该项赔案数据的一个或多个事故,以根据该一个或多个事故的该项赔案数据来获得待处理事故的该项赔案数据;以及利用已获得的待处理事故的每一项赔案数据,形成待处理事故的参考赔案数据。
作为示例,根据该一个或多个事故的该项赔案数据来获得待处理事故的该项赔案数据例如包括:将该一个或多个事故的该项赔案数据的平均值作为待处理事故的该项赔案数据。
作为示例,根据该一个或多个事故的该项赔案数据来获得待处理事故的该项赔案数据例如包括:去除该一个或多个事故的该项赔案数据中的不合理数据,余下作为合理数据;以及利用该一个或多个事故的该项赔案数据中的合理数据的平均值,作为待处理事故的该项赔案数据。
作为示例,对待处理事故进行赔案处理包括:获取待处理事故的当前赔案数据;基于历史赔案数据,判定待处理事故的当前赔案数据是否合理。
作为示例,对待处理事故进行赔案处理还包括:若判定待处理事故的当前赔案数据至少部分不合理,利用待处理事故的匹配事故的赔案数据中与当前赔案数据中的至少部分不合理数据对应的数据来替换掉至少部分不合理数据,获得待处理事故的更新后的赔案数据。
例如,对待处理事故进行赔案处理的步骤包括显示如下信息:对待处理事故的当前赔案数据是否合理的判定结果;和/或待处理事故的赔案数据中的不合理的明细项。
接下来,将确定的损伤图像、损失数据和损失配案给用户进行确认,例如通过用户设备执行判定。
作为示例,将每次获取的损伤图像发送至数据中心,以通过数据中心来执行判定。
应当理解的是,本发明实施例所述的损伤图像(如中景或近景图像)应当理解为广义的图像,也就是说,不仅仅限于单帧图像,而是可以包括多帧图像;当包括多帧图像时,可以看作是损伤视频。
可以理解的是,在本实施方式的另外一个实施例中,所述无人驾驶执勤装置还可以搭载激光测距和扫描设备,通过所述激光测距和扫描设备对事故现场进行扫描和记录,从而分析事故现场的损失。
需要说明的是,在本实施方式的一些实施例中,通过所述无人驾驶执勤装置拍摄获取的图像包括三维图像,例如可以通过搭载了激光测距和扫描设备或三维图像拍摄设备进行拍摄,或根据多个摄像头拍摄的图像采用预设算法进行处理获取,本实施方式对此不做限定,在获取到三维图像之后,可以单独根据三维图像对事故现场进行分析或者结合二维图像进行分析,具体的分析处理方式如前实施例所述,所述数据中心可以根据事故的具体情况选择合适的图像进行分析,相比于二维图像,根据三维图像可以更加准确的获取事故的景深信息,例如车身上的凹陷损伤程度,事故现场的事故车辆之间的三维位置信息,以及周边道路设施的情况,例如护栏,路灯的损伤程度等。
总的来说,本发明通过无人飞行器或无人驾驶车等设备代替人工进行事故处理,相比于传统的事故处理方式,更加不受交通拥堵的限制,能够更加快速的抵达事故现场,从而实现快速的事故处理,尽快恢复事故发生地正常的交通秩序。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
综上,在根据本公开的实施例中,本公开提供了如下方案,但不限于此:
1.基于5G的无人驾驶电子交警执勤系统,包括至少一个无人驾驶执勤装置,数据中心和用户终端;
所述用户终端,用于发送报警指令和接收事故处理结果;以及
对事故处理结果进行确认;
所述无人驾驶执勤装置,用于响应接收到至少包括位置信息的执勤指令或报警指令,移动至事故发生地获取事故发生地的图像;
所述事故处理结果至少包括事故责任认定信息和事故损失信息;
所述无人驾驶执勤装置为无人飞行器或无人驾驶车;
所述数据中心,用于发送执勤指令;以及
基于所述图像进行分析,得到事故处理结果;以及
向事故相关人员送达事故处理结果。
2.如方案1所述的基于5G的无人驾驶电子交警执勤系统,所述数据中心,还用于分析接收到的道路交通信息,在道路交通状况符合特定条件时,向无人驾驶执勤装置下发执勤指令。
3.如方案2所述的基于5G的无人驾驶电子交警执勤系统,所述数据中心分析接收到的道路交通信息,包括:
分析多个监控设备采集的道路交通图像,确定道路交通状况是否符合特定条件,在某个位置的道路交通状况符合特定条件时,指示指挥中心向所述位置附近的无人驾驶执勤装置下发执勤指令;或者
分析接收到的报警信息,获取报警信息中的位置信息,并基于所述报警信息中的位置信息向该位置附近的无人驾驶执勤装置下发执勤指令。
4.如方案2所述的基于5G的无人驾驶电子交警执勤系统,所述事故责任认定信息基于事故发生过程视频分析而得,所述事故发生过程视频由事故发生地的监控设备采集得到;
所述事故损失信息由事故发生地的图像分析而得,所述事故发生地的图像由所述无人驾驶执勤装置采集得到。
5.如方案4所述的基于5G的无人驾驶电子交警执勤系统,所述事故责任认定信息和事故损失信息由所述数据中心分析得到。
6.如方案2所述的基于5G的无人驾驶电子交警执勤系统,还包括多个备勤基站,每一个所述备勤基站至少停放一个无人驾驶执勤装置;
在某个道路发生事故时,所述数据中心根据事故发生地选择最近的备勤基站下发执勤指令;
在某个备勤基站接收到执勤指令后,根据预设规则指示无人驾驶执勤装置执行执勤任务。
7.如方案1所述的基于5G的无人驾驶电子交警执勤系统,向事故相关人员送达事故处理结果,包括:
通过所述无人驾驶执勤装置搭载的显示设备显示事故处理结果;或者
通过所述无人驾驶执勤装置搭载的语音设备播放事故处理结果;或者
向事用户终端发送事故处理结果。
8.如方案1所述的基于5G的无人驾驶电子交警执勤系统,基于所述图像进行分析,得到事故处理结果,包括:
获取事故发生地的中景图像;
在获取的中景图像符合事故判定条件的情况下,识别所述中景图像中的至少一个车辆受损部位,获取所述至少一个车辆受损部位各自的近景图像;
在获取的近景图像符合事故判定条件的情况下,根据所述至少一个车辆受损部位各自的近景图像,确定每个车辆受损部位的损伤类型和/或损伤程度;以及
基于所述至少一个车辆受损部位及各自的损伤类型和/或损伤程度,确定事故车辆的损失。
9.如方案8所述的基于5G的无人驾驶电子交警执勤系统,所述中景图像和所述近景图像由无人驾驶执勤装置驱动自身搭载的图像采集设备或事故发生地的监控设备进行图像采集而获得。
10.如方案8所述的基于5G的无人驾驶电子交警执勤系统,若所述中景图像完整,判定该中景图像符合事故判定条件。
11.如方案8所述的基于5G的无人驾驶电子交警执勤系统,若所述中景图像完整,且所述中景图像的清晰度高于或等于第一清晰度阈值,判定该中景图像符合事故判定条件。
12.如方案10或11所述的基于5G的无人驾驶电子交警执勤系统,当所述中景图像满足以下任一条件时,判定该中景图像完整:
该中景图像包括至少一个完整的受损区域;
该中景图像所包括的每个受损区域均完整;以及
该中景图像中的车辆区域的所有边缘外侧均为环境图像区域。
13.如方案10或11所述的基于5G的无人驾驶电子交警执勤系统,通过如下方式来判定所述中景图像中的受损区域是否完整:
识别所述中景图像中的所有受损区域和所有未受损区域;以及
针对所述中景图像中的部分或全部受损区域中的每一个,判断该受损区域的边缘之外是否为未受损区域:若是,判定该受损区域完整;否则,判定该受损区域不完整。
14.如方案10或11所述的基于5G的无人驾驶电子交警执勤系统,通过如下方式来判定所述中景图像中的受损区域是否完整:
识别所述中景图像中的所有受损区域和所有未受损区域;以及
针对所述中景图像中的部分或全部受损区域中的每一个,判断该受损区域的边缘是否至少部分地与所述中景图像的图像边界重合:若是,判定该受损区域不完整;否则,判定该受损区域完整。
15.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,若近景图像的清晰度高于或等于第二清晰度阈值,判定该近景图像符合事故判定条件。
16.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,所述无人驾驶执勤装置还用于在图像采集设备采集所需要的图像期间,实时获取当前的拍摄位置和/或拍摄参数;以及
根据当前的拍摄位置和/或拍摄参数以及所需要的损伤图像所对应的拍摄位置参考值和/或拍摄参数参考值,实时地确定当前所需的调整操作以进行相应的自动调整,直到当前的拍摄位置和/或拍摄参数与所需要的损伤图像所对应的拍摄位置参考值和/或拍摄参数参考值之间的距离小于预设差值。
17.如方案16所述的基于5G的无人驾驶电子交警执勤系统,所述调整操作包括拍摄位置和/或拍摄参数的调整趋向。
18.如方案17所述的基于5G的无人驾驶电子交警执勤系统,所述调整操作还包括拍摄位置和/或拍摄参数的调整量。
19.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,在获取中景图像后,且在该中景图像被判定符合事故判定条件之前,不可进行近景图像的获取。
20.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,在图像采集设备的每一次采集后,在获得该次采集图像是否符合事故判定条件的判定结果之前,将所述图像采集设备设置为不可使用。
21.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,识别所述中景图像中的至少一个车辆受损部位的步骤包括:
确定所述中景图像中的至少一个完整的受损区域;以及
识别所述至少一个完整的受损区域各自对应的车辆受损部位并合并相同的识别结果,以根据合并后的结果确定所述中景图像中的至少一个车辆受损部位。
22.如方案21所述的基于5G的无人驾驶电子交警执勤系统,其特征在于:
所述中景图像的数量为一个或多个;以及
所述中景图像中的每个车辆受损部位所对应的近景图像的数量为一个或多个。
23.如方案8-11中任一项所述的基于5G的无人驾驶电子交警执勤系统,用于采集中景图像和/或近景图像的图像采集设备包括以下一种或多种设备:
单目摄像头、双目摄像头、距离传感器以及红外传感器。
24.如方案1-7中任一项所述的基于5G的无人驾驶电子交警执勤系统,所述数据中心基于所述图像进行分析,得到事故处理结果,包括:
从所述图像中获取车辆定损图像;
基于所述车辆定损图像获取用于评估车辆损坏情况的基础数据;
根据该基础数据获得车辆的损坏情况。
25.如方案1-7中任一项所述的基于5G的无人驾驶电子交警执勤系统,其中,所述数据中心通过以下方式获取车辆的定损图像:
获取拍摄的事故现场的图片;
从所述图片中筛选出包括事故车辆的候选定损图片;
按照预设条件从所述候选定损图片中选取车辆定损图像。
26.如方案25所述的基于5G的无人驾驶电子交警执勤系统,其中,从所述图片中筛选出包括事故车辆的候选定损图片,包括:
对所述图片进行检测,识别所述图片中的受损区域;
基于检测出的受损区域对所述图片进行分类,确定其中包括受损区域的图片为候选定损图片。
27.如方案25所述的基于5G的无人驾驶电子交警执勤系统,其中,按照预设条件从所述候选定损图片中选取车辆定损图像,包括:
根据所述车辆定损图像的清晰度和受损部位的拍摄角度,任一部位选取至少一张作为所述受损部位的定损图像。
28.如方案25所述的基于5G的无人驾驶电子交警执勤系统,其中,基于所述车辆定损图像获取用于评估车辆损坏情况的基础数据,包括:
对所述车辆定损图像进行预处理;
识别预处理后的所述车辆定损图像中所包括的受损部件和受损部位;
基于识别出的受损部件和受损部位确定用于评估车辆损坏情况的基础数据。
29.如方案28所述的基于5G的无人驾驶电子交警执勤系统,其中,所述预处理至少包括以下之一:
二值化、亮度处理、区域划分处理。
30.如方案28所述的基于5G的无人驾驶电子交警执勤系统,其中,所述基础数据包括以下一种或组合:
车辆各个受损部件的面积/长度/宽度;
车辆各个受损部位的面积/长度/宽度;
车辆各个受损部位的损伤类型。
31.如方案24所述的基于5G的无人驾驶电子交警执勤系统,其中,根据该基础数据进获得车辆的损坏情况,包括:
根据该基础数据进行计算,获得车辆的损伤等级,以表示所述车辆的损坏情况。
32.如方案24所述的基于5G的无人驾驶电子交警执勤系统,其中,根据该基础数据进获得车辆的损坏情况,包括:
基于所述车辆各个受损部件的面积/长度/宽度和车辆各个受损部位的面积/长度/宽度分别计算各个受损部件的损伤等级,以表示所述车辆的损坏情况。
33.如方案32所述的基于5G的无人驾驶电子交警执勤系统,其中,采用下述中的至少一种方式计算各个受损部件的损伤等级:
计算受损部位在其所属部件中所占区域的面积比值;和/或
受损部位的横坐标跨度与其所属部件长度的比值;和/或
受损部位的纵坐标跨度与其所属部件宽度的比值;
基于所述比值按照预设的各个等级对应的阈值确定所述受损部件的损伤等级。
34.如方案33所述的基于5G的无人驾驶电子交警执勤系统,其中,所述损伤等级包含设定的若干梯度。
35.如方案34所述的基于5G的无人驾驶电子交警执勤系统,其中,根据受损部位的的损伤类型选取计算所述受损部件的损伤等级的方式。
36.如方案35所述的基于5G的无人驾驶电子交警执勤系统,其中,基于所述车辆各个受损部件的面积/长度/宽度和车辆各个受损部位的面积/长度/宽度分别计算各个受损部件的损伤等级,包括:
根据受损部位的的损伤类型分别获取面积比值、长度的比值和宽度的比值中的多个系数值;
基于所述系数值和按照不同比值预设的各个等级对应的阈值确定所述受损部件的损伤等级。
37.如方案1-7中任一项所述的基于5G的无人驾驶电子交警执勤系统,所述数据中心还用于:
基于事故车辆的损伤图像,获得待处理事故的数据;
基于预定数据库中各历史事故的数据与所述待处理事故的数据之间的相似性,在所述预定数据库中选择与所述待处理事故最相似的至少一个历史事故,作为所述待处理事故的匹配事故,其中所述预定数据库包括多个历史事故的数据和历史赔案数据;以及
根据所述待处理事故的匹配事故的历史赔案数据,对所述待处理事故进行赔案处理。
38.如方案37所述的基于5G的无人驾驶电子交警执勤系统,所述至少一种子数据包括以下一种或多种:
对应事故的图像;
从对应事故的图像中提取的图像特征数据;
基于对应事故的图像确定的该事故中的车辆受损部位;以及
基于对应事故的图像确定的该事故中的每个车辆受损部位的损伤类型和/或损伤程度。
39.如方案38所述的基于5G的无人驾驶电子交警执勤系统,所述至少一种子数据还包括以下一种或多种:
对应事故的相关车辆信息;
对应事故的地点信息;
对应事故的事故类型信息;以及
对应事故的事故发生时的天气信息。
40.如方案39所述的基于5G的无人驾驶电子交警执勤系统,其特征在于:所述相关车辆信息包括该相关车辆的车型、品牌和/或型号;所述地点信息包括该事故的相关车辆所属地和/或事故发生地。
41.如方案37所述的基于5G的无人驾驶电子交警执勤系统,所述预定数据库中各历史事故的数据与所述待处理事故的数据之间的相似性通过如下方式获得:
针对所述预定数据库中的每一个历史事故,
对将该历史事故的对应的所述至少一种子数据中的每一种,计算该历史事故的该种子数据与所述待处理事故的该种子数据之间的子相似度,以及
基于该历史事故与所述待处理事故之间的所有子相似度,确定该历史事故与所述待处理事故之间的相似性。
42.如方案37所述的基于5G的无人驾驶电子交警执勤系统,对所述待处理事故进行赔案处理包括:
在所述待处理事故的匹配事故中选择与所述待处理事故最相似的一个事故,将该事故的历史赔案数据作为所述待处理事故的参考赔案数据。
Claims (10)
1.基于5G的无人驾驶电子交警执勤系统,其特征在于,包括至少一个无人驾驶执勤装置,数据中心和用户终端;
所述用户终端,用于发送报警指令和接收事故处理结果;以及
对事故处理结果进行确认;
所述无人驾驶执勤装置,用于响应接收到至少包括位置信息的执勤指令或报警指令,移动至事故发生地获取事故发生地的图像;
所述事故处理结果至少包括事故责任认定信息和事故损失信息;
所述无人驾驶执勤装置为无人飞行器或无人驾驶车;
所述数据中心,用于发送执勤指令;以及
基于所述图像进行分析,得到事故处理结果;以及
向事故相关人员送达事故处理结果。
2.如权利要求1所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,所述数据中心,还用于分析接收到的道路交通信息,在道路交通状况符合特定条件时,向无人驾驶执勤装置下发执勤指令。
3.如权利要求2所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,所述数据中心分析接收到的道路交通信息,包括:
分析多个监控设备采集的道路交通图像,确定道路交通状况是否符合特定条件,在某个位置的道路交通状况符合特定条件时,指示指挥中心向所述位置附近的无人驾驶执勤装置下发执勤指令;或者
分析接收到的报警信息,获取报警信息中的位置信息,并基于所述报警信息中的位置信息向该位置附近的无人驾驶执勤装置下发执勤指令。
4.如权利要求2所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,所述事故责任认定信息基于事故发生过程视频分析而得,所述事故发生过程视频由事故发生地的监控设备采集得到;
所述事故损失信息由事故发生地的图像分析而得,所述事故发生地的图像由所述无人驾驶执勤装置采集得到。
5.如权利要求4所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,所述事故责任认定信息和事故损失信息由所述数据中心分析得到。
6.如权利要求2所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,还包括多个备勤基站,每一个所述备勤基站至少停放一个无人驾驶执勤装置;
在某个道路发生事故时,所述数据中心根据事故发生地选择最近的备勤基站下发执勤指令;
在某个备勤基站接收到执勤指令后,根据预设规则指示无人驾驶执勤装置执行执勤任务。
7.如权利要求1所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,向事故相关人员送达事故处理结果,包括:
通过所述无人驾驶执勤装置搭载的显示设备显示事故处理结果;或者
通过所述无人驾驶执勤装置搭载的语音设备播放事故处理结果;或者
向事用户终端发送事故处理结果。
8.如权利要求1所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,基于所述图像进行分析,得到事故处理结果,包括:
获取事故发生地的中景图像;
在获取的中景图像符合事故判定条件的情况下,识别所述中景图像中的至少一个车辆受损部位,获取所述至少一个车辆受损部位各自的近景图像;
在获取的近景图像符合事故判定条件的情况下,根据所述至少一个车辆受损部位各自的近景图像,确定每个车辆受损部位的损伤类型和/或损伤程度;以及
基于所述至少一个车辆受损部位及各自的损伤类型和/或损伤程度,确定事故车辆的损失。
9.如权利要求8所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,所述中景图像和所述近景图像由无人驾驶执勤装置驱动自身搭载的图像采集设备或事故发生地的监控设备进行图像采集而获得。
10.如权利要求8所述的基于5G的无人驾驶电子交警执勤系统,其特征在于,若所述中景图像完整,判定该中景图像符合事故判定条件。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/130895 WO2022104798A1 (zh) | 2020-11-23 | 2020-11-23 | 基于5g的无人驾驶电子交警执勤系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112585655A true CN112585655A (zh) | 2021-03-30 |
Family
ID=75145304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080002946.5A Pending CN112585655A (zh) | 2020-11-23 | 2020-11-23 | 基于5g的无人驾驶电子交警执勤系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112585655A (zh) |
WO (1) | WO2022104798A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973646A (zh) * | 2022-03-14 | 2022-08-30 | 北京市商汤科技开发有限公司 | 道路检测方法、装置、系统及服务器 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115907405B (zh) * | 2022-12-08 | 2023-06-27 | 力景(北京)系统技术有限公司 | 一种机场智能接警处置方法、装置、电子设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014080388A2 (en) * | 2014-03-25 | 2014-05-30 | Alshdaifat, Wasfi | Police drone |
CN106875707A (zh) * | 2017-04-12 | 2017-06-20 | 武汉理工大学 | 一种针对应急交通场景的空中交警系统 |
CN107945526A (zh) * | 2017-12-22 | 2018-04-20 | 成都航空职业技术学院 | 一种交通事故快速取证的方法 |
CN108711273A (zh) * | 2018-03-30 | 2018-10-26 | 榛硕(武汉)智能科技有限公司 | 一种交通事故快速处理系统及其处理方法 |
CA3061777A1 (en) * | 2018-11-28 | 2020-05-28 | Venkata Rama Subba Rao Chundi | Traffic stop drone |
CN110047282A (zh) * | 2019-04-12 | 2019-07-23 | 上海益创信息科技有限公司 | 一种智能交警执法辅助系统 |
-
2020
- 2020-11-23 WO PCT/CN2020/130895 patent/WO2022104798A1/zh active Application Filing
- 2020-11-23 CN CN202080002946.5A patent/CN112585655A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973646A (zh) * | 2022-03-14 | 2022-08-30 | 北京市商汤科技开发有限公司 | 道路检测方法、装置、系统及服务器 |
Also Published As
Publication number | Publication date |
---|---|
WO2022104798A1 (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110619750B (zh) | 面向违停车辆的智能航拍识别方法及系统 | |
CN106373426B (zh) | 基于计算机视觉的停车位及违规占道停车监控方法 | |
CN105913685A (zh) | 一种基于视频监控的车位识别及智能引导方法 | |
CN103824452B (zh) | 一种轻量级的基于全景视觉的违章停车检测装置 | |
CN102867417A (zh) | 一种出租车防伪系统及方法 | |
CN106339657A (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
EP2124194B1 (en) | Method of detecting objects | |
CN104268596A (zh) | 一种车牌识别器及其车牌检测方法与系统 | |
CN112585655A (zh) | 基于5g的无人驾驶电子交警执勤系统 | |
CN110163109B (zh) | 一种车道线标注方法及装置 | |
CN114743119A (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN108198417A (zh) | 一种基于无人机的道路巡检系统 | |
CN116665080B (zh) | 基于目标识别的无人机劣化绝缘子检测方法及系统 | |
CN111695565A (zh) | 基于道路关卡模糊图像的汽车标志精准定位方法 | |
CN113128507A (zh) | 一种车牌识别方法、装置、电子设备及存储介质 | |
CN110276318A (zh) | 夜间公路下雨识别方法、装置、计算机设备及存储介质 | |
CN111524121A (zh) | 一种基于机器视觉技术的路桥病害自动检测方法 | |
CN115841633A (zh) | 一种电力塔和电力线关联矫正的电力塔和电力线检测方法 | |
CN109299672B (zh) | 自适应调节阈值和算法结构的停车事件检测系统及方法 | |
CN110826364A (zh) | 一种库位识别方法及装置 | |
CN111523368B (zh) | 信息处理装置、服务器以及交通管理系统 | |
CN110969135B (zh) | 自然场景中的车标识别方法 | |
CN112686247A (zh) | 一种身份证号码检测方法、装置、可读存储介质和终端 | |
CN202887450U (zh) | 一种出租车防伪系统 | |
CN202650248U (zh) | 基于图像处理的智能交通管控装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |