CN108154119A - 基于自适应跟踪框分割的自动驾驶处理方法及装置 - Google Patents
基于自适应跟踪框分割的自动驾驶处理方法及装置 Download PDFInfo
- Publication number
- CN108154119A CN108154119A CN201711420320.2A CN201711420320A CN108154119A CN 108154119 A CN108154119 A CN 108154119A CN 201711420320 A CN201711420320 A CN 201711420320A CN 108154119 A CN108154119 A CN 108154119A
- Authority
- CN
- China
- Prior art keywords
- frame images
- image
- frame
- tracking box
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Abstract
本发明公开了一种基于自适应跟踪框分割的自动驾驶处理方法、装置、计算设备及计算机存储介质,该方法包括:获取一组帧图像中包含有特定对象的第t帧图像以及与第t‑1帧图像对应的跟踪框;依据第t帧图像,对与第t‑1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令;按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。该技术方案基于分割结果能够更为精准地确定行驶路线和/或行驶指令,有助于提高自动驾驶的安全性。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于自适应跟踪框分割的自动驾驶处理方法、装置、计算设备及计算机存储介质。
背景技术
基于场景分割的自动驾驶对场景分割的时效性和准确性都有较高的要求,以保障自动驾驶的安全性。在自动驾驶场景下,大多使用基于深度学习的图像分割方法对所拍摄或所录制的车辆驾驶途中的视频中帧图像进行场景分割处理。其中,采用基于深度学习的图像分割方法可以达到像素级别的分割效果。然而现有的图像分割方法在进行场景分割处理时,需要对帧图像的全部内容都进行场景分割处理,数据处理量较大,处理效率较低;另外,现有的图像分割方法在进行场景分割处理时,并不考虑前景图像在帧图像中所占比例,因此当前景图像在帧图像中所占比例较小时,利用现有的图像分割方法很容易将实际属于前景图像边缘处的像素点划分为背景图像,所得到的分割结果的分割精度较低、分割效果较差。
因此,现有技术中的图像分割方式存在着图像场景分割的数据处理量大,处理效率和分割精度低下的问题,那么在自动驾驶场景下利用现有图像分割方式所得到的分割结果也无法很好地确定自身车辆与采集到的视频中帧图像中的其他车辆、行人、道路等特定对象的相对位置关系,从而无法保障自动驾驶的安全性。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于自适应跟踪框分割的自动驾驶处理方法、装置、计算设备及计算机存储介质。
根据本发明的一个方面,提供了一种基于自适应跟踪框分割的自动驾驶处理方法,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,该方法包括:
获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令;
按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
进一步地,根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令进一步包括:
根据与第t帧图像对应的分割结果,确定特定对象的轮廓信息;
依据特定对象的轮廓信息,计算自身车辆与特定对象的相对位置关系;
根据计算得到的相对位置关系,确定行驶路线和/或行驶指令。
进一步地,自身车辆与特定对象的相对位置关系包括:自身车辆与特定对象之间的距离信息和/或角度信息。
进一步地,根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令进一步包括:
根据与第t帧图像对应的分割结果,确定交通指引信息;
依据交通指引信息,确定行驶路线和/或行驶指令。
进一步地,交通指引信息包括以下信息的一种或多种:交通标志信息、交通信号灯信息、交通标线信息以及交通诱导屏显示信息。
进一步地,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中的前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
根据第t帧图像中的前景图像,确定第t帧图像中的前景图像的中心点位置;
依据第t帧图像中的前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的前景图像的中心点位置重合。
进一步地,根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果进一步包括:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像进一步包括:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果进一步包括:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
根据本发明的另一方面,提供了一种基于自适应跟踪框分割的自动驾驶处理装置,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,该装置包括:
获取模块,适于获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令;
控制模块,适于按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
进一步地,确定模块进一步适于:
根据与第t帧图像对应的分割结果,确定特定对象的轮廓信息;
依据特定对象的轮廓信息,计算自身车辆与特定对象的相对位置关系;
根据计算得到的相对位置关系,确定行驶路线和/或行驶指令。
进一步地,自身车辆与特定对象的相对位置关系包括:自身车辆与特定对象之间的距离信息和/或角度信息。
进一步地,确定模块进一步适于:
根据与第t帧图像对应的分割结果,确定交通指引信息;
依据交通指引信息,确定行驶路线和/或行驶指令。
进一步地,交通指引信息包括以下信息的一种或多种:交通标志信息、交通信号灯信息、交通标线信息以及交通诱导屏显示信息。
进一步地,分割模块进一步适于:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
计算第t帧图像中的前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;
根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
进一步地,分割模块进一步适于:
根据第t帧图像中的前景图像,确定第t帧图像中的前景图像的中心点位置;
依据第t帧图像中的前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的前景图像的中心点位置重合。
进一步地,分割模块进一步适于:
根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;
对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;
依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
进一步地,分割模块进一步适于:
从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
进一步地,分割模块进一步适于:
将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述基于自适应跟踪框分割的自动驾驶处理方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述基于自适应跟踪框分割的自动驾驶处理方法对应的操作。
根据本发明提供的技术方案,针对每组帧图像,基于与第t-1帧图像对应的跟踪框得到与第t帧图像对应的跟踪框,并利用该跟踪框对第t帧图像进行场景分割,能够快速、精准地得到第t帧图像对应的分割结果,有效地提高了图像场景分割的分割精度。与现有技术中对帧图像的全部内容都进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率,优化了图像场景分割处理方式;并且基于所得到的分割结果能够更为精准地确定行驶路线和/或行驶指令,有助于提高自动驾驶的安全性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的自动驾驶处理方法的流程示意图;
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的自动驾驶处理方法的流程示意图;
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的自动驾驶处理装置的结构框图;
图4示出了根据本发明实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明提供了一种基于自适应跟踪框分割的自动驾驶处理方法,可通过自动驾驶车辆上设置的摄像头采集在车辆驾驶途中车辆周围的路况信息,考虑到在视频拍摄或视频录制的过程中,由于自动驾驶车辆进行移动等原因,所拍摄或所录制的特定对象的数量可能会发生变化,以特定对象为车辆为例,所拍摄或所录制的车辆的数量可能会增加或减少,为了能够快速、精准对视频中的帧图像进行场景分割处理,该方法对视频中每隔n帧划分得到的各组帧图像进行处理,并针对每组帧图像,基于与第t-1帧图像对应的跟踪框得到与第t帧图像对应的跟踪框,并利用该跟踪框对第t帧图像进行场景分割。在本发明中,前景图像可以仅包含特定对象,背景图像为帧图像中除前景图像之外的图像。其中,跟踪框可以为矩形框,用于框选帧图像中的前景图像,实现对帧图像中特定对象的跟踪,本领域技术人员可根据实际需要对n进行设置,此处不做限定。其中,n可以为固定预设值,例如当n为20时,那么每隔20帧对视频中的帧图像进行划分,得到各组帧图像,该方法对划分得到的各组帧图像进行处理。
图1示出了根据本发明一个实施例的基于自适应跟踪框分割的自动驾驶处理方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图1所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S100,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中,帧图像中包含有特定对象,特定对象可包括车辆、行人、道路、障碍物等对象。本领域技术人员可根据实际需要设置特定对象,此处不做限定。本领域技术人员可根据实际需要对特定对象进行设置,此处不做限定。当需要对一组帧图像中的第t帧图像进行场景分割时,其中t大于1,在步骤S100中,获取第t帧图像以及与第t-1帧图像对应的跟踪框。其中,与第t-1帧图像对应的跟踪框能够完全将第t-1帧图像中的前景图像框选在内。具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。
步骤S101,依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
在利用跟踪框对前景图像进行跟踪的过程中,跟踪框需要根据每一个帧图像进行调整,那么针对第t帧图像,可对与第t-1帧图像对应的跟踪框的大小和位置进行调整,使得调整后的跟踪框能够适用于第t帧图像,从而得到与第t帧图像对应的跟踪框。由于与第t帧图像对应的跟踪框能够将第t帧图像中的前景图像框选在内,因此可根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。例如,可对第t帧图像中与第t帧图像对应的跟踪框所框选的区域进行场景分割处理。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S102,根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令。
与第t帧图像对应的分割结果中可包含有各种对象,根据各种对象与自身车辆之间的关系、各种对象对自身车辆的提醒信息等,能够确定自身车辆在预设时间间隔内的行驶路线,和/或确定行驶指令。具体地,行驶指令可包括开始行驶、停止行驶、按照某一行驶速度行驶或按照某一加速度进行加速或减速行驶等指令。本领域技术人员可根据实际需要设置预设时间间隔,此处不做限定。
步骤S103,按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
在确定了行驶路线和/或行驶指令之后,就可按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。例如,确定的行驶指令为按照5m/s2的加速度进行减速行驶,那么在步骤S103中,对自身车辆进行自动驾驶控制,控制自身车辆的刹车系统,使得自身车辆按照5m/s2的加速度进行减速行驶。例如,确定的行驶指令为按照80km/h的速度进行匀速行驶,那么在步骤S103中,对自身车辆进行自动驾驶控制,控制自身车辆的引擎系统,使得自身车辆按照80km/h的速度进行匀速行驶。
根据本实施例提供的基于自适应跟踪框分割的自动驾驶处理方法,针对每组帧图像,基于与第t-1帧图像对应的跟踪框得到与第t帧图像对应的跟踪框,并利用该跟踪框对第t帧图像进行场景分割,能够快速、精准地得到第t帧图像对应的分割结果,有效地提高了图像场景分割的分割精度。与现有技术中对帧图像的全部内容都进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率,优化了图像场景分割处理方式;并且基于所得到的分割结果能够更为精准地确定行驶路线和/或行驶指令,有助于提高自动驾驶的安全性。
图2示出了根据本发明另一个实施例的基于自适应跟踪框分割的自动驾驶处理方法的流程示意图,该方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图2所示,针对其中一组帧图像,该方法包括如下步骤:
步骤S200,获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1。例如,当t为2时,在步骤S200中,获取一组帧图像中包含有特定对象的第2帧图像以及与第1帧图像对应的跟踪框,具体地,与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;当t为3时,在步骤S200中,获取一组帧图像中包含有特定对象的第3帧图像以及与第2帧图像对应的跟踪框,其中,与第2帧图像对应的跟踪框是在对第2帧图像进行场景分割处理的过程中,对与第1帧图像对应的跟踪框进行调整得到的。
步骤S201,对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的前景图像,将与第t-1帧图像对应的跟踪框应用于第t帧图像,并根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,可利用现有技术中的AE(Adobe After Effects)、NUKE(The FoundryNuke)等图像处理工具对第t帧图像进行识别处理,可识别出第t帧图像中哪些像素点属于前景图像,从而确定得到第t帧图像中针对特定对象的前景图像。在确定前景图像之后,可将与第t-1帧图像对应的跟踪框设置在第t帧图像上,以便根据第t帧图像中的前景图像对该跟踪框进行调整,从而得到与第t帧图像对应的跟踪框。
具体地,可计算第t帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将该比例确定为第t帧图像的第一前景像素比例,接着获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,然后计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值,判断差异值是否超过预设差异阈值,如果判断得到差异值超过预设差异阈值,说明与第t-1帧图像对应的跟踪框与第t帧图像中的前景图像不相匹配,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。如果判断得到差异值未超过预设差异阈值,则可不对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设差异阈值进行设置,此处不做限定。
假设在将与第t-1帧图像对应的跟踪框应用于第t帧图像之后,虽然与第t-1帧图像对应的跟踪框能够完全将第t帧图像中的前景图像框选在内,但是第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值超过了预设差异阈值,说明对于第t帧图像中的前景图像,与第t-1帧图像对应的跟踪框可能较大或较小,因此需要对与第t-1帧图像对应的跟踪框的大小进行调整处理。例如,当第t帧图像的第一前景像素比例为0.9,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地放大;又如,当第t帧图像的第一前景像素比例为0.5,第t-1帧图像的第二前景比例为0.7,且两比例之间的差异值超过了预设差异阈值,那么可根据差异值将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小。
可选地,计算第t帧图像中的前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据计算得到的距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。本领域技术人员可根据实际需要对预设距离阈值进行设置,此处不做限定。例如,计算得到的距离小于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地放大,使得第t帧图像中的前景图像距离该跟踪框的各边框的距离符合预设距离阈值;又如,计算得到的距离大于预设距离阈值,那么可将与第t-1帧图像对应的跟踪框的大小进行适应性地缩小,使得第t帧图像中的前景图像距离该跟踪框的各边框的距离符合预设距离阈值。
另外,还可根据第t帧图像中的前景图像,确定第t帧图像中的前景图像的中心点位置;依据第t帧图像中的前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的前景图像的中心点位置重合,从而使前景图像能够位于跟踪框中间。
步骤S202,根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像。
具体地,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的前景图像框选在内,那么在第t帧图像中属于该跟踪框之外的像素点均属于背景图像,因此在得到了与第t帧图像对应的跟踪框之后,可从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,并将该图像确定为待分割图像,后续仅对该待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S203,对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。
由于与第t帧图像对应的跟踪框能够完全将第t帧图像中的前景图像框选在内,那么无需对在第t帧图像中属于该跟踪框之外的像素点进行场景分割处理即可确定属于该跟踪框之外的像素点均属于背景图像,因此可仅对提取出的待分割图像进行场景分割处理。
其中,在对待分割图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务。可利用深度学习的分割方法对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果。其中,可利用深度学习方法得到的场景分割网络等对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果,根据分割结果可以确定出待分割图像中哪些像素点属于前景图像,哪些像素点属于背景图像。
具体地,可将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。在现有技术中为了便于场景分割网络对所输入的图像进行场景分割处理,需要对图像的尺寸进行调整,将其尺寸调整为预设尺寸,例如预设尺寸为320×240像素,而一般情况下,图像的尺寸大多为1280×720像素,因此需要先将其尺寸调整为320×240像素,然后再对尺寸调整后的图像进行场景分割处理。然而当利用场景分割网络对视频中的帧图像进行场景分割处理时,若前景图像在帧图像中所占比例较小,比如前景图像在帧图像中所占比例为0.2,那么根据现有技术仍然需要将帧图像的尺寸调小,然后再对其进行场景分割处理,那么在进行场景分割处理时,则很容易将实际属于前景图像边缘处的像素点划分为背景图像,所得到的分割结果的分割精度较低、分割效果较差。
而根据本发明提供的技术方案,是将从第t帧图像中提取出的与第t帧图像对应的跟踪框中的图像确定为待分割图像,然后对该待分隔图像进行场景分割处理,当前景图像在第t帧图像中所占比例较小时,所提取出的待分割图像的尺寸也将远远小于第t帧图像的尺寸,那么调整为预设尺寸的待分割图像与调整为预设尺寸的帧图像相比,能够更为有效地保留前景图像信息,因此所得到的分割结果的分割精度更高。
步骤S204,依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
待分割图像为与第t帧图像对应的跟踪框中的图像,根据与待分割图像对应的分割结果能够清楚地确定待分割图像中哪些像素点属于前景图像,哪些像素点属于背景图像,而在第t帧图像中属于该跟踪框之外的像素点均属于背景图像,因此可方便、快速地依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果,从而能够清楚地确定第t帧图像中哪些像素点属于前景图像,哪些像素点属于背景图像。与现有技术中对帧图像的全部内容进行场景分割处理相比,本发明仅对从帧图像中提取出的待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率。
步骤S205,根据与第t帧图像对应的分割结果,确定特定对象的轮廓信息。
具体地,特定对象可包括车辆、行人、道路、障碍物等对象。本领域技术人员可根据实际需要设置特定对象,此处不做限定。在得到了与第t帧图像对应的分割结果之后,就可根据该分割结果,确定出车辆、行人、道路等特定对象的轮廓信息,以便后续计算自身车辆与特定对象的相对位置关系。
步骤S206,依据特定对象的轮廓信息,计算自身车辆与特定对象的相对位置关系。
其中,自身车辆与特定对象的相对位置关系包括:自身车辆与特定对象之间的距离信息和/或角度信息。假设在步骤S205中确定得到了车辆1的轮廓信息和车辆2的轮廓信息,那么在步骤S206中,可依据车辆1的轮廓信息和车辆2的轮廓信息,计算自身车辆与车辆1的相对位置关系以及自身车辆与车辆2的相对位置关系。例如,自身车辆与车辆1的直线距离为200米,自身车辆在车辆1的前方右侧10度角方向,自身车辆与车辆2的直线距离为300米,自身车辆在车辆2的前方左侧20度角方向。
步骤S207,根据计算得到的相对位置关系,确定行驶路线和/或行驶指令。
根据计算得到的自身车辆与特定对象的相对位置关系,能够确定该自身车辆在预设时间间隔内的行驶路线,和/或确定行驶指令。具体地,行驶指令可包括开始行驶、停止行驶、按照某一行驶速度行驶或按照某一加速度进行加速或减速行驶等指令。本领域技术人员可根据实际需要设置预设时间间隔,此处不做限定。
例如根据计算得到的相对位置关系可知,自身车辆正前方10米处有一行人,那么确定行驶指令可为按照6m/s2的加速度进行减速行驶;或者根据计算得到的相对位置关系可知,自身车辆正前方距离200米处有车辆1,自身车辆左侧45度角方向距离2米处有车辆2,那么确定的行驶路线可为沿着正前方路线行驶。
另外,根据与第t帧图像对应的分割结果,还可以确定交通指引信息,那么还可依据交通指引信息,确定行驶路线和/或行驶指令。其中,交通指引信息可包括以下信息的一种或多种:交通标志信息、交通信号灯信息、交通标线信息以及交通诱导屏显示信息。具体地,交通标志信息可包括:警告标志(如环形交叉路口、向左急转弯、连续弯路、前方隧道等)、禁令标志(如禁止直行、禁止驶入等)、指示标志(如限速、分向行驶车道、允许掉头等)、道路施工安全标志(如前方施工、左道封闭等)、指路标志、旅游区标志、辅助标志等的标志信息。交通信号灯信息可为红绿灯信息等。交通标线信息是指在道路的路面上用线条、箭头、文字、立面标记、突起路标和轮廓标等向人们传递引导、限制、警告等交通信息的标识信息。交通诱导屏显示信息是指用来起到交通诱导作用的交通诱导屏上所显示的信息,其中,交通诱导屏多用于高速公路中。
例如,所确定的交通指引信息为前方500m处的限速80km/h的交通标志信息,假设当前自身车辆车速为100km/h,那么可确定行驶指令为减速行驶指令。
具体地,可综合考量根据与第t帧图像对应的分割结果计算得到的相对位置关系以及根据与第t帧图像对应的分割结果所确定的交通指引信息,确定行驶路线和/或行驶指令。
步骤S208,按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
在确定了行驶路线和/或行驶指令之后,就可按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
根据本实施例提供的基于自适应跟踪框分割的自动驾驶处理方法,针对每组帧图像,根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框,并利用该跟踪框提取出待分割图像,依据与待分割图像对应的分割结果,能够快速、精准地得到与第t帧图像对应的分割结果,有效地提高了图像场景分割的分割精度。与现有技术中对帧图像的全部内容都进行场景分割处理相比,本发明仅对从帧图像中提取出的待分割图像进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率,优化了图像场景分割处理方式;并且基于所得到的分割结果能够更为精准地计算自身车辆与其他车辆、行人、道路等特定对象的相对位置关系以及确定交通指引信息,从而更为精准地确定行驶路线和/或行驶指令,使得自身车辆能够更好地遵守交通法规,安全准确、遵纪守法的自动驾驶,有助于提高自动驾驶的安全性,优化了自动驾驶处理方式。
图3示出了根据本发明一个实施例的基于自适应跟踪框分割的自动驾驶处理装置的结构框图,该装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,如图3所示,该装置包括:获取模块310、分割模块320、确定模块330和控制模块340。
获取模块310适于:获取一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框。
其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的。
分割模块320适于:依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果。
可选地,分割模块320进一步适于:对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的前景图像;将与第t-1帧图像对应的跟踪框应用于第t帧图像;根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
具体地,分割模块320进一步适于:计算第t帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将比例确定为第t帧图像的第一前景像素比例;获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;判断差异值是否超过预设差异阈值;若是,则根据差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:计算第t帧图像中的前景图像距离与第t-1帧图像对应的跟踪框的各边框的距离;根据距离和预设距离阈值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
分割模块320进一步适于:根据第t帧图像中的前景图像,确定第t帧图像中的前景图像的中心点位置;依据第t帧图像中的前景图像的中心点位置,对与第t-1帧图像对应的跟踪框的位置进行调整处理,以使与第t-1帧图像对应的跟踪框的中心点位置与第t帧图像中的前景图像的中心点位置重合。
可选地,分割模块320进一步适于:根据与第t帧图像对应的跟踪框,从第t帧图像的部分区域提取出待分割图像;对待分割图像进行场景分割处理,得到与待分割图像对应的分割结果;依据与待分割图像对应的分割结果,得到与第t帧图像对应的分割结果。
分割模块320进一步适于:从第t帧图像中提取出与第t帧图像对应的跟踪框中的图像,将提取出的图像确定为待分割图像。
分割模块320进一步适于:将待分割图像输入至场景分割网络中,得到与待分割图像对应的分割结果。
确定模块330适于:根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令。
在一个具体实施例中,确定模块330可包括:轮廓信息确定单元331、计算单元332和行驶确定单元333。
轮廓信息确定单元331适于:根据与第t帧图像对应的分割结果,确定特定对象的轮廓信息。
计算单元332适于:依据特定对象的轮廓信息,计算自身车辆与特定对象的相对位置关系。其中,自身车辆与特定对象的相对位置关系包括:自身车辆与特定对象之间的距离信息和/或角度信息。
行驶确定单元333适于:根据计算得到的相对位置关系,确定行驶路线和/或行驶指令。
另外,确定模块330还可包括:指引信息确定单元334。指引信息确定单元334适于根据与第t帧图像对应的分割结果,确定交通指引信息。其中,交通指引信息包括以下信息的一种或多种:交通标志信息、交通信号灯信息、交通标线信息以及交通诱导屏显示信息。在这种情况下,行驶确定单元333进一步适于:依据交通指引信息,确定行驶路线和/或行驶指令。
控制模块340适于:按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
根据本实施例提供的基于自适应跟踪框分割的自动驾驶处理装置,针对每组帧图像,基于与第t-1帧图像对应的跟踪框得到与第t帧图像对应的跟踪框,并利用该跟踪框对第t帧图像进行场景分割,能够快速、精准地得到第t帧图像对应的分割结果,有效地提高了图像场景分割的分割精度。与现有技术中对帧图像的全部内容都进行场景分割处理相比,本发明仅对帧图像的部分区域进行场景分割处理,有效地减少了图像场景分割的数据处理量,提高了处理效率,优化了图像场景分割处理方式;并且基于所得到的分割结果能够更为精准地确定行驶路线和/或行驶指令,有助于提高自动驾驶的安全性。
本发明还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的基于自适应跟踪框分割的自动驾驶处理方法。
图4示出了根据本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图4所示,该计算设备可以包括:处理器(processor)402、通信接口(Communications Interface)404、存储器(memory)406、以及通信总线408。
其中:
处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。
通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器402,用于执行程序410,具体可以执行上述基于自适应跟踪框分割的自动驾驶处理方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行上述任意方法实施例中的基于自适应跟踪框分割的自动驾驶处理方法。程序410中各步骤的具体实现可以参见上述基于自适应跟踪框分割的自动驾驶处理实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种基于自适应跟踪框分割的自动驾驶处理方法,所述方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,所述方法包括:
获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令;
按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
2.根据权利要求1所述的方法,其中,所述根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令进一步包括:
根据与第t帧图像对应的分割结果,确定所述特定对象的轮廓信息;
依据所述特定对象的轮廓信息,计算所述自身车辆与所述特定对象的相对位置关系;
根据计算得到的相对位置关系,确定行驶路线和/或行驶指令。
3.根据权利要求1或2所述的方法,其中,所述自身车辆与所述特定对象的相对位置关系包括:所述自身车辆与所述特定对象之间的距离信息和/或角度信息。
4.根据权利要求1-3任一项所述的方法,其中,所述根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令进一步包括:
根据与第t帧图像对应的分割结果,确定交通指引信息;
依据所述交通指引信息,确定行驶路线和/或行驶指令。
5.根据权利要求1-4任一项所述的方法,其中,所述交通指引信息包括以下信息的一种或多种:交通标志信息、交通信号灯信息、交通标线信息以及交通诱导屏显示信息。
6.根据权利要求1-5任一项所述的方法,其中,所述依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
7.根据权利要求1-6任一项所述的方法,其中,所述根据第t帧图像中的前景图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
计算第t帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例,将所述比例确定为第t帧图像的第一前景像素比例;
获取第t-1帧图像的第二前景像素比例,其中,第t-1帧图像的第二前景像素比例为第t-1帧图像中属于前景图像的像素点在与第t-1帧图像对应的跟踪框中所有像素点中所占的比例;
计算第t帧图像的第一前景像素比例与第t-1帧图像的第二前景比例之间的差异值;
判断所述差异值是否超过预设差异阈值;若是,则根据所述差异值,对与第t-1帧图像对应的跟踪框的大小进行调整处理。
8.一种基于自适应跟踪框分割的自动驾驶处理装置,所述装置用于对视频中每隔n帧划分得到的各组帧图像进行处理,所述装置包括:
获取模块,适于获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
分割模块,适于依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
确定模块,适于根据与第t帧图像对应的分割结果,确定行驶路线和/或行驶指令;
控制模块,适于按照所确定的行驶路线和/或行驶指令,对自身车辆进行自动驾驶控制。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的基于自适应跟踪框分割的自动驾驶处理方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的基于自适应跟踪框分割的自动驾驶处理方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711420320.2A CN108154119B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711420320.2A CN108154119B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108154119A true CN108154119A (zh) | 2018-06-12 |
CN108154119B CN108154119B (zh) | 2021-09-28 |
Family
ID=62465781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711420320.2A Active CN108154119B (zh) | 2017-12-25 | 2017-12-25 | 基于自适应跟踪框分割的自动驾驶处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108154119B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032978A (zh) * | 2019-04-18 | 2019-07-19 | 北京字节跳动网络技术有限公司 | 用于处理视频的方法和装置 |
CN111881735A (zh) * | 2020-06-17 | 2020-11-03 | 武汉光庭信息技术股份有限公司 | 一种自动驾驶视频数据的事件分类提取方法和装置 |
CN114943955A (zh) * | 2022-07-25 | 2022-08-26 | 山东广通汽车科技股份有限公司 | 一种用于半挂车自动卸货控制方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080187173A1 (en) * | 2007-02-02 | 2008-08-07 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking video image |
CN101739686A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标跟踪方法及其系统 |
US8405491B2 (en) * | 2009-06-30 | 2013-03-26 | The Hong Kong Polytechnic University | Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices |
CN105631399A (zh) * | 2014-11-26 | 2016-06-01 | 泽普实验室公司 | 用于体育视频识别的快速对象跟踪框架 |
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
CN106295546A (zh) * | 2016-08-05 | 2017-01-04 | 淮阴工学院 | 一种基于视频的交通标志检测与识别方法 |
CN106462975A (zh) * | 2014-05-28 | 2017-02-22 | 汤姆逊许可公司 | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 |
CN106778712A (zh) * | 2017-03-01 | 2017-05-31 | 扬州大学 | 一种多目标检测与跟踪方法 |
CN107016344A (zh) * | 2017-03-08 | 2017-08-04 | 上海极链网络科技有限公司 | 视频中品牌识别系统及其实现方法 |
-
2017
- 2017-12-25 CN CN201711420320.2A patent/CN108154119B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080187173A1 (en) * | 2007-02-02 | 2008-08-07 | Samsung Electronics Co., Ltd. | Method and apparatus for tracking video image |
CN101739686A (zh) * | 2009-02-11 | 2010-06-16 | 北京智安邦科技有限公司 | 运动目标跟踪方法及其系统 |
US8405491B2 (en) * | 2009-06-30 | 2013-03-26 | The Hong Kong Polytechnic University | Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices |
CN106462975A (zh) * | 2014-05-28 | 2017-02-22 | 汤姆逊许可公司 | 用于对象跟踪和经由背景跟踪进行分割的方法和装置 |
CN105631399A (zh) * | 2014-11-26 | 2016-06-01 | 泽普实验室公司 | 用于体育视频识别的快速对象跟踪框架 |
CN105654508A (zh) * | 2015-12-24 | 2016-06-08 | 武汉大学 | 基于自适应背景分割的监控视频移动目标跟踪方法及系统 |
CN106295546A (zh) * | 2016-08-05 | 2017-01-04 | 淮阴工学院 | 一种基于视频的交通标志检测与识别方法 |
CN106778712A (zh) * | 2017-03-01 | 2017-05-31 | 扬州大学 | 一种多目标检测与跟踪方法 |
CN107016344A (zh) * | 2017-03-08 | 2017-08-04 | 上海极链网络科技有限公司 | 视频中品牌识别系统及其实现方法 |
Non-Patent Citations (1)
Title |
---|
VIJAY BADRINARAYANAN等: "SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling", 《ARXIV:1505.07293V1 [CS.CV]》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032978A (zh) * | 2019-04-18 | 2019-07-19 | 北京字节跳动网络技术有限公司 | 用于处理视频的方法和装置 |
CN111881735A (zh) * | 2020-06-17 | 2020-11-03 | 武汉光庭信息技术股份有限公司 | 一种自动驾驶视频数据的事件分类提取方法和装置 |
CN111881735B (zh) * | 2020-06-17 | 2022-07-29 | 武汉光庭信息技术股份有限公司 | 一种自动驾驶视频数据的事件分类提取方法和装置 |
CN114943955A (zh) * | 2022-07-25 | 2022-08-26 | 山东广通汽车科技股份有限公司 | 一种用于半挂车自动卸货控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108154119B (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107944375A (zh) | 基于场景分割的自动驾驶处理方法及装置、计算设备 | |
JP6463713B2 (ja) | 車両制御方法と装置及び判断モジュールの獲得方法と装置 | |
US8791996B2 (en) | Image processing system and position measurement system | |
EP2372310B1 (en) | Image processing system and position measurement system | |
CN108133484B (zh) | 基于场景分割的自动驾驶处理方法及装置、计算设备 | |
US11248925B2 (en) | Augmented road line detection and display system | |
CN109902899B (zh) | 信息生成方法和装置 | |
CN109426256A (zh) | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 | |
US11899453B2 (en) | Systems and methods to control autonomous vehicle motion | |
CN110347145A (zh) | 用于自动驾驶车辆的感知辅助 | |
CN107389080A (zh) | 一种车辆路径导航方法及电子设备 | |
US11915115B2 (en) | Lane selection using machine learning | |
CN108154119A (zh) | 基于自适应跟踪框分割的自动驾驶处理方法及装置 | |
JPWO2014132747A1 (ja) | 物体検知装置 | |
WO2023133481A1 (en) | Navigation of an autonomous vehicle based on a location of the autonomous vehicle relative to shoulder | |
CN108806244A (zh) | 图像传送装置、方法及非暂态存储介质 | |
CN112825127A (zh) | 生成用于自动驾驶标记的紧密2d边界框的新方法 | |
DE112021006402T5 (de) | Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten | |
CN114834486A (zh) | 一种规划车辆掉头路径的方法、装置及设备 | |
EP3889721A1 (en) | Obstacle avoidance method and system during automatic driving of vehicle, and vehicle | |
CN108022250B (zh) | 基于自适应阈值分割的自动驾驶处理方法及装置 | |
CN110341703A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
CN116153127A (zh) | 提供用于导航到车辆操作者优选的停车位的信息 | |
Murashov et al. | Method of determining vehicle speed according to video stream data | |
CN113566836A (zh) | 道路指引方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210902 Address after: No. 1201, 12 / F, building 6, No. 599, shijicheng South Road, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan Applicant after: Chengdu panorama Intelligent Technology Co.,Ltd. Address before: 100088 room 112, block D, 28 new street, new street, Xicheng District, Beijing (Desheng Park) Applicant before: BEIJING QIHOO TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |