CN114170826A - 自动驾驶控制方法和装置、电子设备和存储介质 - Google Patents

自动驾驶控制方法和装置、电子设备和存储介质 Download PDF

Info

Publication number
CN114170826A
CN114170826A CN202111472753.9A CN202111472753A CN114170826A CN 114170826 A CN114170826 A CN 114170826A CN 202111472753 A CN202111472753 A CN 202111472753A CN 114170826 A CN114170826 A CN 114170826A
Authority
CN
China
Prior art keywords
target image
vehicle
image data
sensing result
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111472753.9A
Other languages
English (en)
Other versions
CN114170826B (zh
Inventor
姚杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Horizon Shanghai Artificial Intelligence Technology Co Ltd
Original Assignee
Horizon Shanghai Artificial Intelligence Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Horizon Shanghai Artificial Intelligence Technology Co Ltd filed Critical Horizon Shanghai Artificial Intelligence Technology Co Ltd
Priority to CN202111472753.9A priority Critical patent/CN114170826B/zh
Publication of CN114170826A publication Critical patent/CN114170826A/zh
Application granted granted Critical
Publication of CN114170826B publication Critical patent/CN114170826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开实施例公开了一种自动驾驶控制方法和装置、电子设备和存储介质,其中,方法包括:获取车辆的当前驾驶场景;基于当前驾驶场景,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域;获取目标像面感兴趣区域对应的分辨率调整后的第一图像数据;基于第一图像数据,获得目标像面感兴趣区域对应的第一感知结果;将第一感知结果作为总感知结果的一部分,用于对车辆的行驶状态进行控制。本公开实施例可以有效提高感知结果的精度和可靠性,从而提高车辆控制的精准度,进而提高车辆自动驾驶的安全性,且无需增加传感器,有效解决了现有技术通过增加传感器优化感知结果造成数据处理效率低、成本高等问题。

Description

自动驾驶控制方法和装置、电子设备和存储介质
技术领域
本公开涉及计算机视觉技术,尤其是一种自动驾驶控制方法和装置、电子设备和存储介质。
背景技术
基于视觉的自动驾驶方案是通过摄像头等传感器来采集车辆行驶过程中涉及到的驾驶信息,从而进行决策和车辆控制。感知部分相当于自动驾驶车辆的眼睛,依靠拍摄的图像来感知路面、周围车辆以及建筑物等各种影响车辆驾驶安全的因素,因此感知结果的精度是保证车辆自动驾驶安全性的重要因素。现有技术中,通常通过增加传感器来增加冗余信息提高感知结果的可靠性,但是增加传感器会增加冗余的感知输入,会大大提高对处理设备的算力要求,降低数据处理效率,且增加了成本。
发明内容
为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种自动驾驶控制方法和装置、电子设备和存储介质。
根据本公开实施例的一个方面,提供了一种自动驾驶控制方法,包括:获取车辆的当前驾驶场景;基于所述当前驾驶场景,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域;获取所述目标像面感兴趣区域对应的第一图像数据,所述第一图像数据为分辨率调整后的图像数据;基于所述第一图像数据,获得所述目标像面感兴趣区域对应的第一感知结果;将所述第一感知结果作为总感知结果的一部分,用于对所述车辆的行驶状态进行控制。
根据本公开实施例的另一个方面,提供了一种自动驾驶控制装置,包括:
第一获取模块,用于获取车辆的当前驾驶场景;第一确定模块,用于基于所述当前驾驶场景,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域;第二获取模块μ用于获取所述目标像面感兴趣区域对应的第一图像数据,所述第一图像数据为分辨率调整后的图像数据;第一处理模块,用于基于所述第一图像数据,获得所述目标像面感兴趣区域对应的第一感知结果;控制模块,用于将所述第一感知结果作为总感知结果的一部分,用于对所述车辆的行驶状态进行控制。
根据本公开实施例的再一方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本公开上述任一实施例所述的自动驾驶控制方法。
根据本公开实施例的又一方面,提供一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现本公开上述任一实施例所述的自动驾驶控制方法。
基于本公开上述实施例提供的自动驾驶控制方法和装置、电子设备和存储介质,针对不同驾驶场景设置不同的感兴趣区域,使得在当前驾驶场景可以获取相应的目标像面感兴趣区域的分辨率调整后的图像数据,提高图像质量,进而基于高质量的图像数据进行环境感知,获得第一感知结果作为总感知结果的一部分,用于辅助控制车辆的行驶状态,有效提高了感知结果的精度和可靠性,从而提高车辆控制的精准度,进而提高车辆自动驾驶的安全性,且无需增加传感器,有效解决了现有技术通过增加传感器优化感知结果造成数据处理效率低、成本高等问题。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开提供的自动驾驶控制方法的一个示例性的应用场景;
图2是本公开一示例性实施例提供的自动驾驶控制方法的流程示意图;
图3是本公开另一个示例性实施例提供的自动驾驶控制方法的流程示意图;
图4是本公开再一示例性实施例提供的自动驾驶控制方法的流程示意图;
图5是本公开一示例性实施例提供的步骤201的流程示意图;
图6是本公开一示例性实施例提供的步骤203的流程示意图;
图7是本公开一示例性实施例提供的自动驾驶控制装置的结构示意图;
图8是本公开另一示例性实施例提供的自动驾驶控制装置的结构示意图;
图9是本公开一示例性实施例提供的第一获取模块的结构示意图;
图10是本公开一示例性实施例提供的第二获取模块的结构示意图;
图11是本公开电子设备一个应用实施例的结构示意图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
本公开概述
在实现本公开的过程中,发明人发现,已有的通过增加传感器来增加冗余信息从而提高感知结果的可靠性的方法,会增加冗余的感知输入,为了处理这些增加的感知输入,相应的需要增加感知模型的运算量,进而会大大提高对处理设备的算力要求,降低数据处理效率,且增加了成本。
示例性概述
图1是本公开提供的自动驾驶控制方法的一个示例性的应用场景。
为了提高感知结果的可靠性,本公开提供的技术方案可以在不同的驾驶场景,设置不同的感兴趣区域,具体驾驶场景类型及对应需要重点关注的感兴趣区域可以根据实际需求设置,比如倒车场景(需要后视摄像头重点关注车辆后方近处的目标信息)、左转场景(需要右侧摄像头重点关注近距离或中距离的目标信息)、向左换道场景(需要左前摄像头重点关注左后方近距离或中距离的目标信息),等等,不同驾驶场景需要重点关注的感兴趣区域对应到车辆相应摄像头拍摄图像上的感兴趣区域,图像上的感兴趣区域可以称为像面感兴趣区域。当车辆在某一驾驶场景时,可以基于该驾驶场景对应的摄像头及该摄像头在该驾驶场景下的像面感兴趣区域,获取该像面感兴趣区域对应的图像数据,进而对该图像数据进行分辨率调整,以提高图像质量,获得调整后的图像数据,基于调整后的图像数据获得该区域对应的感知结果,作为总感知结果的一部分,用于辅助车辆行驶状态的控制,总感知结果除了包括重点关注区域的感知结果外,还包括基于车辆上各其他传感器获得的感知结果,本公开实施例由于提高了当前驾驶场景下的重点关注区域的图像质量,从而可以有效提高感知结果的可靠性,实现了无需增加冗余传感器即可提高感知结果的可靠性。比如,图1中以车辆要向左换道为例,需要左前摄像头重点关注左后方近距离或者中距离的目标信息,而左前摄像头的拍摄范围较大,可以根据实际需求将车辆左后方一定区域范围在左前摄像头拍摄图像中对应的图像区域作为该驾驶场景下左前摄像头的目标像面感兴趣区域,从而可以对该目标像面感兴趣区域对应的图像数据进行分辨率调整,提高图像质量,从而提高感知结果的精度和可靠性。
示例性方法
图2是本公开一示例性实施例提供的自动驾驶控制方法的流程示意图。本实施例可应用在电子设备上,具体比如车载计算平台上,如图2所示,包括如下步骤:
步骤201,获取车辆的当前驾驶场景。
其中,当前驾驶场景是指车辆当前所处的场景类型,场景类型具体可以根据实际需求设置,比如场景类型可以包括左转场景、右转场景、倒车场景、左换道场景、右换道场景,等等,还可以根据实际需求设置更多其他类型的场景。
在一个可选示例中,当前驾驶场景可以根据车辆的当前状态来确定,比如根据车辆朝向及车轮角度判断是否是左转场景或右转场景;或者,当前驾驶场景也可以根据车辆前一控制流程中的感知结果来确定;具体可以根据实际需求设置,本实施例不做限定。
步骤202,基于当前驾驶场景,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域。
其中,目标图像传感器可以是安装在车辆上的摄像头,目标像面感兴趣区域是指摄像头所拍摄图像上的感兴趣区域,目标像面感兴趣区域与对应驾驶场景下需要重点关注的地理感兴趣区域对应,目标像面感兴趣区域可以包括区域坐标信息,比如目标像面感兴趣区域为长方形区域,则包括区域中心点坐标及至少两个角点坐标,或者包括区域四个角点坐标;目标像面感兴趣区域也可以是包括区域中心点坐标及能确定区域形状的属性信息,比如目标像面感兴趣区域为圆形区域,则可以包括中心点坐标及半径;像面感兴趣区域的具体表示方式可以根据实际需求设置,本实施例不做限定,其中涉及的坐标可以是图像传感器的像素坐标,也可以是根据车辆需求转换成的车辆坐标系下的坐标,具体可以根据实际需求设置,像素坐标与车辆坐标系下的坐标之间的转换原理不再赘述。在实际应用中,可以预先设置不同驾驶场景与图像传感器及其像面感兴趣区域的对应关系并进行存储,当确定了当前驾驶场景后,可以基于当前驾驶场景及该预先获得的对应关系来确定当前驾驶场景对应的目标图像传感器及该目标图像传感器的目标像面感兴趣区域。
步骤203,获取目标像面感兴趣区域对应的第一图像数据,第一图像数据为分辨率调整后的图像数据。
其中,第一图像数据可以是从目标图像传感器直接获得,即在确定了目标像面感兴趣区域之后,可以控制目标图像传感器对焦到目标像面感兴趣区域,使得目标图像传感器自动实现分辨率调整,从而直接采集目标像面感兴趣区域对应的分辨率调整后的第一图像数据。或者,第一图像数据还可以是先获得目标图像传感器采集的原图像数据,从原图像数据中获取目标像面感兴趣区域对应的目标图像数据,再对目标图像数据进行分辨率调整获得调整后的第一图像数据,具体可以根据实际需求设置。
步骤204,基于第一图像数据,获得目标像面感兴趣区域对应的第一感知结果。
其中,第一感知结果是对第一图像数据进行目标检测获得的检测结果,比如可以包括检测获得的至少一种目标对象及其位置信息,其中,目标对象可以包括检测到的行人、其他车辆及其他对象。目标对象的位置信息是指目标对象在第一图像数据中的位置信息。
步骤205,将第一感知结果作为总感知结果的一部分,用于对车辆的行驶状态进行控制。
其中,总感知结果包括对周围环境及车辆自身状态的总体感知,在获得第一感知结果后,则可以将第一感知结果加入总感知结果,作为总感知结果的一部分,用于辅助车辆的决策及控制,从而更好地控制车辆的行驶状态,具体基于总感知结果对车辆行驶状态进行控制的原理不再赘述。
本实施例提供的自动驾驶控制方法,通过针对不同驾驶场景,可以获取该驾驶场景下需要重点关注区域对应的分辨率调整后的图像数据,提高该区域的图像质量,从而提高感知结果的精度和可靠性,而无需增加冗余传感器,解决了现有技术通过增加冗余传感器提高感知结果可靠性导致对处理设备算力要求高、数据处理效率低且成本高的问题。
在一个可选示例中,图3是本公开另一个示例性实施例提供的自动驾驶控制方法的流程示意图,本示例中,在基于第一感知结果对车辆的行驶状态进行控制之前,本公开的方法还包括:
步骤301,获取车辆各传感器采集的第一传感数据。
其中,传感器可以包括摄像头、激光雷达、毫米波雷达、超声波雷达、速度传感器、加速度传感器、陀螺仪、IMU(惯性测量单元),等等,这里传感器可以包括上述的目标图像传感器。
步骤302,基于第一传感数据,获得第二感知结果。
其中,第二感知结果是基于车辆上各传感器采集的第一传感数据获得的感知结果,可以包括感知到的车辆状态信息及周围环境信息,比如车辆状态信息可以包括车辆速度、车辆加速度、车辆YAW角(即偏航角)、车轮朝向,等等;周围环境信息可以包括感知到的道路边界、其他车辆、行人、指示牌、红绿灯等对象及其位置信息,等等。
基于第一传感数据获得第二感知结果的方式可以采用任意可实施的方式,比如可以采用预设的感知模型获得,感知模型可以采用任意可实施的模型,比如感知模型可以包括速度感知部分、加速度感知部分、偏航角感知部分、基于摄像头和雷达的传感数据的多任务目标检测模型,等等,多任务目标检测模型需要预先进行训练获得,具体可以根据实际需求设置。
相应的,步骤205具体包括:
步骤2051,将第一感知结果和第二感知结果作为总感知结果,用于对车辆的行驶状态进行控制。
本公开结合第一感知结果和第二感知结果共同进行决策控制,也即基于第一感知结果提高对重点关注区域的感知结果的可靠性,基于第二感知结果保证对整体环境的感知,从而在整体感知的条件下,提高重点关注区域的感知结果的精度和可靠性,进而提高车辆的安全性。
在一个可选示例中,在基于第一传感数据,获得第二感知结果之后,还包括:
步骤401,基于第一感知结果和第二感知结果确定当前车辆的驾驶场景,作为下一控制流程的当前驾驶场景。
具体的,可以基于第一感知结果和第二感知结果进行驾驶场景分类,比如采用训练好的分类模型进行分类,分类模型可以采用任意可实施的模型,比如基于强化学习的神经网络模型,本实施例不做限定。还可以基于第一感知结果和第二感知结果及预设分类规则进行分类,预设分类规则包括第一感知结果和第二感知结果不同情况与驾驶场景的对应关系,比如当感知结果中存在红绿灯且车轮角度向左且大于预设角度阈值,则确定车辆驾驶场景为在路口左转,具体分类规则可以根据实际需求设置。
在一个可选示例中,步骤401可以是在车辆自动驾驶系统的决策层实现,在基于第一感知结果和第二感知结果进行本次决策及控制的同时,基于第一感知结果和第二感知结果确定当前车辆的驾驶场景并进行存储,作为下一控制流程的驾驶场景依据,在下一控制流程再确定其下一控制流程的驾驶场景,以此类推。
图4是本公开再一示例性实施例提供的自动驾驶控制方法的流程示意图。
在一个可选示例中,步骤201具体包括:
步骤2011,获取前一控制流程中基于感知结果确定的第一驾驶场景作为当前驾驶场景。
具体的,由于在当前控制流程的前一控制流程中,已存储了第一驾驶场景,在当前控制流程则可以直接获取其前一控制流程存储的第一驾驶场景,作为当前控制流程的当前驾驶场景。
本公开通过在前一控制流程确定下一控制流程的驾驶场景,保证了每一控制流程的当前驾驶场景获取的及时性,减少对决策控制的延迟。
在一个可选示例中,步骤202的基于当前驾驶场景,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域,具体包括:
步骤2021,基于当前驾驶场景及预设映射关系,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域;预设映射关系包括不同驾驶场景需要重点注意的图像传感器及对应的像面感兴趣区域。
具体的,可以针对不同驾驶场景,设置需要重点注意的图像传感器以及该图像传感器需要的像面感兴趣区域,并将对应关系进行存储作为预设映射关系,在获取到当前驾驶场景后,则可以根据该预设映射关系来确定当前驾驶场景对应的目标图像传感器及该目标图像传感器需要的目标像面感兴趣区域。可选地,一个驾驶场景需要重点注意的图像传感器可以包括一个或多个图像传感器,每个图像传感器需要的像面感兴趣区域可以包括一个或多个区域,具体可以根据实际需求设置,本实施例不做限定。
在一个可选示例中,图5是本公开一示例性实施例提供的步骤201的流程示意图,本示例中,步骤201的获取车辆的当前驾驶场景,具体可以包括:
步骤201a,获取车辆的当前状态。
步骤201b,根据当前状态,确定车辆的当前驾驶场景。
其中,车辆的当前状态可以包括车辆的当前朝向、当前速度、当前偏航角、车轮的当前角度等状态,基于车辆的当前状态实时确定车辆的当前驾驶场景。具体来说,可以根据实际需求设置车辆的不同状态与驾驶场景的对应关系,进而可以基于车辆的当前状态及该对应关系确定当前驾驶场景。
示例性的,基于车辆的当前偏航角和车轮的当前角度可以确定当前驾驶场景是否为左转场景或右转场景;基于车辆的当前偏航角及车辆的当前朝向可以确定当前驾驶场景是否为倒车场景,等等,具体可以根据实际需求设置。
在一个可选示例中,步骤204的基于第一图像数据,获得目标像面感兴趣区域对应的第一感知结果,具体包括:
步骤2041,基于第一图像数据及预先训练获得的多任务目标检测模型,获得目标像面感兴趣区域对应的第一感知结果,第一感知结果包括检测获得的至少一种目标对象及其位置信息。
具体的,多任务目标检测模型可以采用任意可实施的目标检测模型,比如基于卷积神经网络CNN的神经网络模型,基于深度学习的神经网络模型,等等,本实施例不做限定。
多任务目标检测模型的训练可以是各任务单独训练,也可以是多任务联合训练,具体可以根据实际需求设置,具体训练原理及过程不再赘述。
在一个可选示例中,还可以针对不同的驾驶场景训练对应的多任务目标检测模型,也即每种驾驶场景对应一个多任务目标检测模型,不同驾驶场景的多任务目标检测模型的网络结构可以相同也可以不同,具体可以根据实际需求设置。
针对第一图像数据,所采用的多任务目标检测模型(可以称为第一多任务目标检测模型)可以是与第一传感数据采用的多任务目标检测模型(可以称为第二多任务目标检测模型)相同也可以不同,可以针对不同驾驶场景的重点感兴趣区域的感知单独训练一个第一多任务目标检测模型。
在一个可选示例中,图6是本公开一示例性实施例提供的步骤203的流程示意图,本示例中,步骤203具体包括:
步骤2031,获取目标像面感兴趣区域对应的目标图像数据。
其中,目标图像数据是目标图像传感器采集的图像数据中属于目标像面感兴趣区域的部分图像数据,具体可以根据目标像面感兴趣区域从目标图像传感器获取对应的目标图像数据,也可以是先从目标图像传感器获取当前采集整体的原图像数据,再根据目标像面感兴趣区域从整体的原图像数据中提取出目标图像数据,具体获取目标像面感兴趣区域的方式可以根据实际需求设置,本公开不做限定。
步骤2032,对目标图像数据进行分辨率调整,获得第一图像数据。
其中,分辨率调整是为了提高目标图像数据对应的图像质量,分辨率调整方式可以是采用上采样方式或其他可实施的方式,本实施例不做限定。
在一个可选示例中,步骤2032具体包括:获取目标图像传感器对应的目标调整规则;基于目标调整规则对目标图像数据进行上采样处理,获得第一图像数据。
具体的,可以针对不同驾驶场景,设置其重点关注的图像传感器对应的调整规则,针对不同驾驶场景,调整规则可以相同也可以不同,具体可以根据实际需求设置,比如不同驾驶场景需要重点关注的感兴趣区域不同,对应的像面感兴趣区域的大小可能不同,对目标像面感兴趣区域对应的目标图像数据进行调整后获得的第一图像数据需要符合多任务目标检测模型的输入要求,因此不同大小的像面感兴趣区域对应的调整规则不同;调整规则除了大小的规则之外,还包括调整方式,不同的图像传感器可以设置不同或相同的调整方式,调整方式可以包括上采样的具体实现方式,上采样通常通过插值算法实现,即在原有图像像素的基础上在像素点之间采用合适的差值算法插入新的元素。插值算法包括多种算法,比如基于边缘的图像插值算法、基于区域的图像插值算法,等等,针对不同图像传感器可以设置相同的插值算法也可以设置不同的插值算法,具体可以根据实际需求设置,本公开实施例不做限定。
本公开针对不同驾驶场景,为其需要重点关注的图像传感器设置相应的调整规则,从而保证调整后的图像数据均符合多任务目标检测模型的输入需求。
本公开的方法根据当前驾驶场景调整重点关注区域图像的分辨率,将注意力集中于感兴趣区域,忽略冗余的驾驶信息,有助于提升感知结果的精度,且不依赖冗余的传感器,不依赖高算力芯片,成本要求低。
本公开实施例提供的任一种自动驾驶控制方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种自动驾驶控制方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种自动驾驶控制方法。下文不再赘述。
示例性装置
图7是本公开一示例性实施例提供的自动驾驶控制装置的结构示意图。该实施例的装置可用于实现本公开相应的方法实施例,如图7所示的装置包括:第一获取模块501、第一确定模块502、第二获取模块503、第一处理模块504和控制模块505。
第一获取模块501,用于获取车辆的当前驾驶场景。
第一确定模块502,用于基于第一获取模块501获取的当前驾驶场景,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域。
第二获取模块503,用于获取第一确定模块502确定的目标像面感兴趣区域对应的第一图像数据获取目标像面感兴趣区域对应的第一图像数据,第一图像数据为分辨率调整后的图像数据。
第一处理模块504,用于基于第二获取模块503获取的第一图像数据,获得目标像面感兴趣区域对应的第一感知结果。
控制模块505,用于将第一处理模块504获得的第一感知结果作为总感知结果的一部分,用于对车辆的行驶状态进行控制。
在一个可选示例中,图8是本公开另一示例性实施例提供的自动驾驶控制装置的结构示意图。本示例中,本公开的装置还包括:第三获取模块506和第三处理模块507。第三获取模块506,用于获取车辆各传感器采集的第一传感数据;第三处理模块507,用于基于第一传感数据,获得第二感知结果;相应的,控制模块505,具体用于将第一感知结果和第二感知结果作为总感知结果,用于对车辆的行驶状态进行控制。
在一个可选示例中,本公开的装置还包括:第四处理模块508,用于基于第一感知结果和第二感知结果确定当前车辆的驾驶场景,作为下一控制流程的当前驾驶场景。
在一个可选示例中,第一获取模块501,具体用于获取前一控制流程中基于感知结果确定的第一驾驶场景作为当前驾驶场景。
在一个可选示例中,第一确定模块502,具体用于基于当前驾驶场景及预设映射关系,确定对应的目标图像传感器及目标图像传感器所拍摄图像中的目标像面感兴趣区域;预设映射关系包括不同驾驶场景需要重点注意的图像传感器及对应的像面感兴趣区域。
在一个可选示例中,图9是本公开一示例性实施例提供的第一获取模块的结构示意图。本示例中,第一获取模块501,具体包括:第一单元5011和第二单元5012。第一单元5011,用于获取车辆的当前状态;第二单元5012,用于根据当前状态,确定车辆的当前驾驶场景。
在一个可选示例中,第一处理模块504具体用于:基于第一图像数据及预先训练获得的多任务目标检测模型,获得目标像面感兴趣区域对应的第一感知结果,第一感知结果包括检测获得的至少一种目标对象及其位置信息。
在一个可选示例中,图10是本公开一示例性实施例提供的第二获取模块的结构示意图,本示例中,第二获取模块503包括:第三单元5031和第四单元5032。第三单元5031,用于获取所述目标像面感兴趣区域对应的目标图像数据;第四单元5032,用于对所述目标图像数据进行分辨率调整,获得所述第一图像数据。
在一个可选示例中,第四单元5032,具体用于获取目标图像传感器对应的目标调整规则,基于目标调整规则对目标图像数据进行上采样处理,获得第一图像数据。
示例性电子设备
本公开实施例还提供了一种电子设备,包括:存储器,用于存储计算机程序;处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现本公开上述任一实施例所述的自动驾驶控制方法。
图11是本公开电子设备一个应用实施例的结构示意图。本实施例中,该电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本公开的各个实施例的自动驾驶控制方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,该输入装置13可以是上述的麦克风或麦克风阵列,用于捕捉声源的输入信号。
此外,该输入装置13还可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图11中仅示出了该电子设备10中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的自动驾驶控制方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本公开各种实施例的自动驾驶控制方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的自动驾驶控制方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (12)

1.一种自动驾驶控制方法,包括:
获取车辆的当前驾驶场景;
基于所述当前驾驶场景,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域;
获取所述目标像面感兴趣区域对应的第一图像数据,所述第一图像数据为分辨率调整后的图像数据;
基于所述第一图像数据,获得所述目标像面感兴趣区域对应的第一感知结果;
将所述第一感知结果作为总感知结果的一部分,用于对所述车辆的行驶状态进行控制。
2.根据权利要求1所述的方法,在将所述第一感知结果作为总感知结果的一部分用于对所述车辆的行驶状态进行控制之前,还包括:
获取所述车辆各传感器采集的第一传感数据;
基于所述第一传感数据,获得第二感知结果;
所述将所述第一感知结果作为总感知结果的一部分,用于对所述车辆的行驶状态进行控制,包括:
将所述第一感知结果和所述第二感知结果作为所述总感知结果,用于对所述车辆的行驶状态进行控制。
3.根据权利要求2所述的方法,在基于所述第一传感数据,获得第二感知结果之后,还包括:
基于所述第一感知结果和所述第二感知结果确定当前车辆的驾驶场景,作为下一控制流程的当前驾驶场景。
4.根据权利要求2所述的方法,其中,获取车辆的当前驾驶场景,包括:
获取前一控制流程中基于感知结果确定的第一驾驶场景作为所述当前驾驶场景。
5.根据权利要求1所述的方法,其中,所述基于所述当前驾驶场景,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域,包括:
基于所述当前驾驶场景及预设映射关系,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域;所述预设映射关系包括不同驾驶场景需要重点注意的图像传感器及对应的像面感兴趣区域。
6.根据权利要求1所述的方法,其中,获取车辆的当前驾驶场景,包括:
获取所述车辆的当前状态;
根据所述当前状态,确定所述车辆的当前驾驶场景。
7.根据权利要求1所述的方法,其中,所述基于所述第一图像数据,获得所述目标像面感兴趣区域对应的第一感知结果,包括:
基于所述第一图像数据及预先训练获得的多任务目标检测模型,获得所述目标像面感兴趣区域对应的第一感知结果,所述第一感知结果包括检测获得的至少一种目标对象及其位置信息。
8.根据权利要求1-7任一所述的方法,其中,所述获取所述目标像面感兴趣区域对应的第一图像数据,包括:
获取所述目标像面感兴趣区域对应的目标图像数据;
对所述目标图像数据进行分辨率调整,获得所述第一图像数据。
9.根据权利要求8所述的方法,其中,所述对所述目标图像数据进行分辨率调整,获得调整后的第一图像数据,包括:
获取所述目标图像传感器对应的目标调整规则;
基于所述目标调整规则对所述目标图像数据进行上采样处理,获得所述第一图像数据。
10.一种自动驾驶控制装置,包括:
第一获取模块,用于获取车辆的当前驾驶场景;
第一确定模块,用于基于所述当前驾驶场景,确定对应的目标图像传感器及所述目标图像传感器所拍摄图像中的目标像面感兴趣区域;
第二获取模块,用于获取所述目标像面感兴趣区域对应的第一图像数据,所述第一图像数据为分辨率调整后的图像数据;
第一处理模块,用于基于所述第一图像数据,获得所述目标像面感兴趣区域对应的第一感知结果;
控制模块,用于将所述第一感知结果作为总感知结果的一部分,用于对所述车辆的行驶状态进行控制。
11.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-9任一所述的自动驾驶控制方法。
12.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-9任一所述的自动驾驶控制方法。
CN202111472753.9A 2021-12-03 2021-12-03 自动驾驶控制方法和装置、电子设备和存储介质 Active CN114170826B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111472753.9A CN114170826B (zh) 2021-12-03 2021-12-03 自动驾驶控制方法和装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111472753.9A CN114170826B (zh) 2021-12-03 2021-12-03 自动驾驶控制方法和装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN114170826A true CN114170826A (zh) 2022-03-11
CN114170826B CN114170826B (zh) 2022-12-16

Family

ID=80483104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111472753.9A Active CN114170826B (zh) 2021-12-03 2021-12-03 自动驾驶控制方法和装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN114170826B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115134496A (zh) * 2022-06-24 2022-09-30 重庆长安汽车股份有限公司 一种智能驾驶控制方法、系统、电子设备及存储介质
CN116434041A (zh) * 2022-12-05 2023-07-14 北京百度网讯科技有限公司 错误感知数据的挖掘方法、装置、设备及自动驾驶车辆
WO2023179030A1 (zh) * 2022-03-24 2023-09-28 商汤集团有限公司 一种道路边界检测方法、装置、电子设备、存储介质和计算机程序产品

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930719A (zh) * 2012-10-09 2013-02-13 北京航空航天大学 用于交通路口场景并基于网络物理系统的视频图像前景检测方法
CN104656651A (zh) * 2013-11-21 2015-05-27 现代摩比斯株式会社 基于融合传感器的自动行驶控制装置及方法
US20170001564A1 (en) * 2015-07-01 2017-01-05 MAGNETI MARELLI S.p.A. Vehicle on board system and method for the detection of objects in an environment surrounding a vehicle
CN106347374A (zh) * 2016-09-28 2017-01-25 深圳市元征科技股份有限公司 车辆环境采集融合装置及方法
US20180148051A1 (en) * 2018-01-24 2018-05-31 GM Global Technology Operations LLC Systems and methods for unprotected maneuver mitigation in autonomous vehicles
US20190042860A1 (en) * 2017-08-04 2019-02-07 Samsung Electronics Co., Ltd. Method and apparatus of detecting object of interest
CN109849910A (zh) * 2018-12-21 2019-06-07 重庆长安汽车股份有限公司 无人驾驶车辆多目标决策控制方法、装置及计算机可读存储介质
CN110992424A (zh) * 2019-11-27 2020-04-10 苏州智加科技有限公司 基于双目视觉的定位方法和系统
CN112616318A (zh) * 2020-01-03 2021-04-06 深圳市速腾聚创科技有限公司 激光雷达及自动驾驶设备
CN113415270A (zh) * 2020-03-03 2021-09-21 伟摩有限责任公司 基于多传感器数据的传感器感兴趣区域选择
CN113551662A (zh) * 2020-04-24 2021-10-26 深圳裹动科技有限公司 应用于自动驾驶车辆的感知方法、动态感知装置、以及自动驾驶车辆

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930719A (zh) * 2012-10-09 2013-02-13 北京航空航天大学 用于交通路口场景并基于网络物理系统的视频图像前景检测方法
CN104656651A (zh) * 2013-11-21 2015-05-27 现代摩比斯株式会社 基于融合传感器的自动行驶控制装置及方法
US20170001564A1 (en) * 2015-07-01 2017-01-05 MAGNETI MARELLI S.p.A. Vehicle on board system and method for the detection of objects in an environment surrounding a vehicle
CN106347374A (zh) * 2016-09-28 2017-01-25 深圳市元征科技股份有限公司 车辆环境采集融合装置及方法
US20190042860A1 (en) * 2017-08-04 2019-02-07 Samsung Electronics Co., Ltd. Method and apparatus of detecting object of interest
US20180148051A1 (en) * 2018-01-24 2018-05-31 GM Global Technology Operations LLC Systems and methods for unprotected maneuver mitigation in autonomous vehicles
CN109849910A (zh) * 2018-12-21 2019-06-07 重庆长安汽车股份有限公司 无人驾驶车辆多目标决策控制方法、装置及计算机可读存储介质
CN110992424A (zh) * 2019-11-27 2020-04-10 苏州智加科技有限公司 基于双目视觉的定位方法和系统
CN112616318A (zh) * 2020-01-03 2021-04-06 深圳市速腾聚创科技有限公司 激光雷达及自动驾驶设备
CN113415270A (zh) * 2020-03-03 2021-09-21 伟摩有限责任公司 基于多传感器数据的传感器感兴趣区域选择
CN113551662A (zh) * 2020-04-24 2021-10-26 深圳裹动科技有限公司 应用于自动驾驶车辆的感知方法、动态感知装置、以及自动驾驶车辆

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王廷银等: "基于北斗RDSS的核辐射监测应急通讯方法", 《计算机系统应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023179030A1 (zh) * 2022-03-24 2023-09-28 商汤集团有限公司 一种道路边界检测方法、装置、电子设备、存储介质和计算机程序产品
CN115134496A (zh) * 2022-06-24 2022-09-30 重庆长安汽车股份有限公司 一种智能驾驶控制方法、系统、电子设备及存储介质
CN116434041A (zh) * 2022-12-05 2023-07-14 北京百度网讯科技有限公司 错误感知数据的挖掘方法、装置、设备及自动驾驶车辆

Also Published As

Publication number Publication date
CN114170826B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
CN114170826B (zh) 自动驾驶控制方法和装置、电子设备和存储介质
CN110494863B (zh) 确定自主车辆的可驾驶自由空间
US10846831B2 (en) Computing system for rectifying ultra-wide fisheye lens images
US11170299B2 (en) Distance estimation to objects and free-space boundaries in autonomous machine applications
CN113168505B (zh) 用于自主驾驶机器的基于回归的线检测
EP3627180B1 (en) Sensor calibration method and device, computer device, medium, and vehicle
US11017249B2 (en) Primary preview region and gaze based driver distraction detection
CN109389026B (zh) 车道检测方法和设备
CN111695717A (zh) 自主机器应用中的时间信息预测
CN114631117A (zh) 使用机器学习的用于自主机器应用的传感器融合
CN112347829A (zh) 利用障碍物和车道检测来确定环境中对象的车道分配
CN113096151B (zh) 对目标的运动信息进行检测的方法和装置、设备和介质
CN115136148A (zh) 投影使用鱼眼镜头捕获的图像用于自主机器应用中的特征检测
JP2022132075A (ja) 自律運転アプリケーションにおけるディープ・ニューラル・ネットワーク知覚のためのグラウンド・トゥルース・データ生成
KR20210006428A (ko) 타겟 대상 방향 결정 방법, 지능형 운전 제어 방법 및 장치 및 기기
CN113095228B (zh) 图像中的目标检测方法、装置及计算机可读存储介质
CN113160322A (zh) 摄像装置标定方法和设备、介质以及电子设备
JP2022536030A (ja) ビデオ分析アプリケーションにおける相関フィルタを使用した複数物体追跡
CN115123291B (zh) 一种基于障碍物识别的行为预测方法及装置
JP2023088849A (ja) 自律型システム及びアプリケーションにおける特徴ディスクリプタ・マッピングを使用した単一及びアクロス・センサ物体追跡
US20230294729A1 (en) Method and system for assessment of sensor performance
CN114913329A (zh) 一种图像处理方法、语义分割网络的训练方法及装置
JP2023087616A (ja) 自律システム及びアプリケーションのための画像コントラスト分析を使用した眩しさ軽減
CN113516013A (zh) 目标检测方法、装置、电子设备、路侧设备和云控平台
CN114511834A (zh) 一种确定提示信息的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant