CN110660254B - 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备 - Google Patents

交通信号灯检测及智能驾驶方法和装置、车辆、电子设备 Download PDF

Info

Publication number
CN110660254B
CN110660254B CN201810697683.9A CN201810697683A CN110660254B CN 110660254 B CN110660254 B CN 110660254B CN 201810697683 A CN201810697683 A CN 201810697683A CN 110660254 B CN110660254 B CN 110660254B
Authority
CN
China
Prior art keywords
traffic signal
signal lamp
state
traffic
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810697683.9A
Other languages
English (en)
Other versions
CN110660254A (zh
Inventor
王贺璋
马宇宸
胡天晓
曾星宇
闫俊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201810697683.9A priority Critical patent/CN110660254B/zh
Priority to SG11202007333PA priority patent/SG11202007333PA/en
Priority to PCT/CN2019/089062 priority patent/WO2020001223A1/zh
Priority to KR1020207029615A priority patent/KR102447352B1/ko
Priority to JP2020550090A priority patent/JP7111827B2/ja
Publication of CN110660254A publication Critical patent/CN110660254A/zh
Priority to US16/944,234 priority patent/US20200353932A1/en
Application granted granted Critical
Publication of CN110660254B publication Critical patent/CN110660254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

本申请实施例公开了一种交通信号灯检测及智能驾驶方法和装置、车辆、电子设备,其中,交通信号灯检测方法,包括:获取包括有交通信号灯的视频流;确定所述视频流的至少一帧图像中交通信号灯的候选区域;基于所述候选区域确定所述图像中交通信号灯的至少两种属性。基于本申请上述实施例,通过获得交通信号灯的至少两种属性实现对信号灯的多种信息的识别,减少了识别时间,并提高了交通信号灯识别的准确率。

Description

交通信号灯检测及智能驾驶方法和装置、车辆、电子设备
技术领域
本申请涉及计算机视觉技术,尤其是一种交通信号灯检测及智能驾驶方法和装置、车辆、电子设备。
背景技术
红绿灯检测及其状态判定是智能驾驶领域的重要问题。红绿灯是重要的交通信号,在现代交通系统中有着不可替代的作用。红绿灯检测及其状态判定可以在自动驾驶中指示车辆的停止、前进,保证车辆的安全行驶。
发明内容
本申请实施例提供一种交通信号灯检测及智能驾驶技术。
本申请实施例的一方面,提供了一种交通信号灯检测方法,所述检测网络包括:基于区域的全卷积网络和多任务识别网络,包括:
获取包括有交通信号灯的视频流;
确定所述视频流的至少一帧图像中交通信号灯的候选区域;
基于所述候选区域确定所述图像中交通信号灯的至少两种属性。
可选地,所述交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域,包括:利用基于区域的全卷积网络,确定所述视频流的至少一帧图像中交通信号灯的候选区域。
可选地,所述基于所述候选区域确定所述图像中交通信号灯的至少两种属性,包括:利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性。
可选地,所述多任务识别网络包括特征提取分支、以及分别与所述特征提取分支连接的至少两个任务分支,不同的任务分支用于确定所述交通信号灯的不同种类属性;
所述利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,包括:
基于所述特征提取分支对所述候选区域进行特征提取,得到候选特征;
分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性。
可选地,所述至少两个任务分支包括:检测分支、识别分支和分类分支;
所述分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性,包括:
经所述检测分支对所述候选特征进行位置检测,确定交通信号灯的位置区域;
经所述分类分支对所述候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定所述交通信号灯的颜色;
经所述识别分支对所述候选特征进行形状识别,确定所述交通信号灯所在位置区域的形状,确定所述交通信号灯的形状。
可选地,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域之前,还包括:
对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
基于所述跟踪结果对所述交通信号灯的位置区域进行调整。
可选地,所述对所述视频流中的交通信号灯的关键点进行跟踪,包括:
基于连续两帧所述图像中各所述交通信号灯的关键点之间的距离;
基于各所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪。
可选地,基于所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪,包括:
基于各所述交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;
根据所述同一交通信号灯的关键点在连续两帧所述图像中的位置区域,在所述视频流中对交通信号灯的关键点进行跟踪。
可选地,所述基于所述跟踪结果对所述信号灯的位置区域进行调整,包括:
对比所述跟踪结果与所述信号灯的位置区域是否重合,得到比对结果;
基于所述对比结果对所述信号灯的位置区域进行调整。
可选地,所述基于所述对比结果对所述信号灯的位置区域进行调整,包括:
响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
可选地,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域之前,还包括:
基于采集的训练图像集训练所述基于区域的全卷积网络,所述训练图像集包括多个具有标注属性的训练图像;
基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数。
可选地,所述基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数之前,还包括:
基于所述训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;
基于所述新训练图像集训练分类网络;所述分类网络用于基于所述交通信号灯的颜色对所述训练图像进行分类。
可选地,所述预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
所述交通信号灯的颜色包括红色、黄色和绿色。
可选地,所述基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络的参数之前,还包括:
基于所述训练后的分类网络的参数初始化所述多任务识别网络中的至少部分参数。
可选地,还包括:
基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
根据所述交通信号灯的状态对所述车辆进行智能驾驶控制。
可选地,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
可选地,还包括:
存储所述交通信号灯的属性、状态及其对应的所述图像。
可选地,所述交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
所述基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态,包括以下至少之一:
响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
可选地,所述根据所述交通信号灯的状态对所述车辆进行智能驾驶控制,包括:
响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
根据本申请实施例的另一个方面,提供了一种智能驾驶方法,包括:
基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流;
确定所述视频流的至少一帧图像中交通信号灯的候选区域;
基于所述候选区域确定所述图像中交通信号灯的至少两种属性;
基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
根据所述交通信号灯的状态对所述车辆进行智能驾驶控制。
可选地,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
可选地,还包括:
存储所述交通信号灯的属性、状态及其对应的所述图像。
可选地,所述交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,所述交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
所述基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态,包括:
响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
可选地,所述根据所述交通信号灯的状态对所述车辆进行智能驾驶控制,包括:
响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
根据本申请实施例的又一个方面,提供了一种交通信号灯检测装置,包括:
视频流获取单元,用于获取包括有交通信号灯的视频流;
区域确定单元,用于确定所述视频流的至少一帧图像中交通信号灯的候选区域;
属性识别单元,用于基于所述候选区域确定所述图像中交通信号灯的至少两种属性。
可选地,所述交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,所述区域确定单元,用于利用基于区域的全卷积网络,确定所述视频流的至少一帧图像中交通信号灯的候选区域。
可选地,所述属性识别单元,用于利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性。
可选地,所述多任务识别网络包括特征提取分支、以及分别与所述特征提取分支连接的至少两个任务分支,不同的任务分支用于确定所述交通信号灯的不同种类属性;
所述属性识别单元,包括:
特征提取模块,用于基于所述特征提取分支对所述候选区域进行特征提取,得到候选特征;
分支属性模块,用于分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性。
可选地,所述至少两个任务分支包括:检测分支、识别分支和分类分支;
所述分支属性模块,具体用于经所述检测分支对所述候选特征进行位置检测,确定交通信号灯的位置区域;经所述分类分支对所述候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定所述交通信号灯的颜色;经所述识别分支对所述候选特征进行形状识别,确定所述交通信号灯所在位置区域的形状,确定所述交通信号灯的形状。
可选地,还包括:
关键点确定单元,用于对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
关键点跟踪单元,用于对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
位置调整单元,用于基于所述跟踪结果对所述交通信号灯的位置区域进行调整。
可选地,所述关键点跟踪单元,用于基于连续两帧所述图像中各所述交通信号灯的关键点之间的距离;基于各所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪。
可选地,所述关键点跟踪单元基于所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪时,用于基于各所述交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;根据所述同一交通信号灯的关键点在连续两帧所述图像中的位置区域,在所述视频流中对交通信号灯的关键点进行跟踪。
可选地,所述位置调整单元,用于对比所述跟踪结果与所述信号灯的位置区域是否重合,得到比对结果;基于所述对比结果对所述信号灯的位置区域进行调整。
可选地,所述位置调整单元基于所述对比结果对所述信号灯的位置区域进行调整时,用于响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
可选地,还包括:
预训练单元,用于基于采集的训练图像集训练所述基于区域的全卷积网络,所述训练图像集包括多个具有标注属性的训练图像;
训练单元,用于基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数。
可选地,还包括:
分类训练单元,用于基于所述训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;基于所述新训练图像集训练分类网络;所述分类网络用于基于所述交通信号灯的颜色对所述训练图像进行分类。
可选地,所述预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
所述交通信号灯的颜色包括红色、黄色和绿色。
可选地,还包括:
初始化单元,用于基于所述训练后的分类网络的参数初始化所述多任务识别网络中的至少部分参数。
可选地,还包括:
状态确定单元,用于基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
智能控制单元,用于根据所述交通信号灯的状态对所述车辆进行智能驾驶控制。
可选地,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
可选地,还包括:
存储单元,用于存储所述交通信号灯的属性、状态及其对应的所述图像。
可选地,所述交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
所述状态确定单元,用于响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
可选地,所述智能控制单元,用于响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
本申请实施例的还一方面,提供了一种智能驾驶装置,包括:
视频流获取单元,用于基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流;
区域确定单元,用于确定所述视频流的至少一帧图像中交通信号灯的候选区域;
属性识别单元,用于基于所述候选区域确定所述图像中交通信号灯的至少两种属性;
状态确定单元,用于基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
智能控制单元,用于根据所述交通信号灯的状态对所述车辆进行智能驾驶控制。
可选地,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
可选地,还包括:
存储单元,用于存储所述交通信号灯的属性、状态及其对应的所述图像。
可选地,所述交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,所述交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
所述状态确定单元,用于响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
可选地,所述智能控制单元,用于响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
本申请实施例的再一方面,提供了一种车辆,包括如上任意一项所述的交通信号灯检测装置或如上任意一项所述的智能驾驶装置。
本申请实施例的再一方面,提供了一种电子设备,包括处理器,所述处理器包括如上任意一项所述的交通信号灯检测装置或如上任意一项所述的智能驾驶装置。
本申请实施例的另一方面,提供了一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成如上任意一项所述交通信号灯检测方法的操作,或完成如上任意一项所述的智能驾驶方法的操作。
本申请实施例的又一方面,提供了一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行如上任意一项所述交通信号灯检测方法或如上任意一项所述的智能驾驶方法的操作。
本申请实施例的另一方面,提供了一种计算机程序产品,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现如上任意一项所述交通信号灯检测方法或如上任意一项所述的智能驾驶方法的指令。
基于本申请上述实施例提供的一种交通信号灯检测及智能驾驶方法和装置、车辆、电子设备,获取包括有交通信号灯的视频流;确定视频流的至少一帧图像中交通信号灯的候选区域;基于候选区域确定图像中交通信号灯的至少两种属性,通过获得交通信号灯的至少两种属性实现对信号灯的多种信息的识别,减少了识别时间,并提高了交通信号灯识别的准确率。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请交通信号灯检测方法一个实施例的流程图。
图2为本申请交通信号灯检测装置一个实施例的结构示意图。
图3为本申请智能驾驶方法一个实施例的流程图。
图4为本申请智能驾驶装置一个实施例的结构示意图。
图5为适于用来实现本申请实施例的终端设备或服务器的电子设备的结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
图1为本申请交通信号灯检测方法一个实施例的流程图。如图1所示,该实施例方法包括:
步骤110,获取包括有交通信号灯的视频流。
可选地,对于交通信号灯的识别,通常是以车辆行进过程中记录的车载视频为基础进行的,对车载视频进行解析,获得包括至少一帧图像的视频流,例如可通过安装在车辆上的摄像装置拍摄车辆前向或周围环境的视频,如果车辆前向或周围环境中存在交通信号灯,则会被摄像装置拍摄到,所拍摄的视频流即为包括有交通信号灯的视频流。该视频流中的图像可以每帧图像都包括交通信号灯,或至少有一帧图像中包括交通信号灯。
步骤120,确定视频流的至少一帧图像中交通信号灯的候选区域。
可选地,从视频流中包括有交通信号灯的图像中确定候选区域,该候选区域指在图像中可能包括交通信号灯的区域。
交通信号灯的区域的检测可基于神经网络或其他类型的检测模型进行。在一个或多个可选的实施例中,利用基于区域的全卷积网络,确定视频流的至少一帧图像中交通信号灯的候选区域。通过基于区域的全卷积网络R-FCN(region-based,fully convolutionalnetworks)对信号图像进行检测,得到可能包括交通信号灯的候选区域,R-FCN可以看做是Faster RCNN(Faster Regions with CNN)的改进版,检测速度相对Faster RCNN有加快。
步骤130,基于候选区域确定图像中交通信号灯的至少两种属性。
交通信号灯的属性用于描述交通信号灯,可根据实际需要进行定义,例如,可以包括用于描述交通信号灯绝对位置或相对位置的位置区域属性,用于描述交通信号灯的颜色(如红色、绿色、黄色等)属性,用于描述交通信号灯的形状的(如圆形、直线箭头、折线箭头等)属性,以及用于描述交通信号灯的其他方面的其他属性。
可选地,交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,交通信号灯的颜色包括红、黄、绿三种颜色,形状包括箭头形、圆形或其他形状等,对于不同形状的交通信号灯,如果仅识别其位置,可能无法准确的将信号识别出来,因此,本实施例通过识别位置区域、颜色和形状中的至少两种,例如:当确定交通信号灯的位置区域和颜色,即可确定当前交通信号灯在图像中哪个位置(对应车辆的哪个方向),通过颜色即可确定交通信号灯显示的状态(红色、绿色或黄色分别对应不同状态),通过识别到交通信号灯的不同状态可实现辅助驾驶或自动驾驶;当确定交通信号灯的位置区域和形状,即可确定当前交通信号灯在图像中哪个位置(对应车辆的哪个方向),通过形状即可确定交通信号灯显示的状态(例如:朝向不同方向的箭头表示不同状态,或不同形状的人体图形表示不同状态);当确定交通信号灯的颜色和形状,可基于颜色和形状相结合确定当前交通信号灯的状态(例如:指向左侧的绿色箭头表示左转通行,指向前方的红色箭头表示前方禁行);而当确定交通信号灯的位置区域、颜色和形状时,在获得交通信号灯在图像中哪个位置的基础上,还可以基于颜色和形状相结合确定当前交通信号灯的状态,本实施例通过这三种属性中的两种或两种以上组合,可更突出交通信号灯的属性特征,有利于提高检测、识别等处理效果。
基于本申请上述实施例提供的一种交通信号灯检测方法,获取包括有交通信号灯的视频流;确定视频流的至少一帧图像中交通信号灯的候选区域;基于候选区域确定图像中交通信号灯的至少两种属性,通过获得交通信号灯的至少两种属性实现对信号灯的多种信息的识别,减少了识别时间,并提高了交通信号灯识别的准确率。
交通信号灯的至少两种属性的确定可基于神经网络或其他类型的识别模型进行。在一个或多个可选的实施例中,操作130可以包括:
利用多任务识别网络,基于候选区域确定图像中交通信号灯的至少两种属性。
本实施例通过一个网络实现对交通信号灯的至少两种属性进行识别,相对于分别基于至少两个网络识别至少两种属性的情况,减小了网络的大小,提高了交通信号灯的属性识别的效率。
通过多任务识别网络对可能包括交通信号灯的候选区域进行识别,识别的过程可以包括特征提取和属性识别两个部分,为了实现这两部分功能,多任务识别网络可以包括特征提取分支、以及分别与特征提取分支连接的至少两个任务分支,不同的任务分支用于确定交通信号灯的不同种类属性。
每个属性识别任务都需要对候选区域进行特征提取,本实施例将特征提取分支分别于至少两个任务分支相连接,使至少两个任务分支的特征提取操作合并在同一特征提取分支进行,避免了分别对每个任务分支分别进行特征提取的过程,缩减了多任务识别网络的结构,加快了属性识别的速度。
可选地,获得至少两种属性的过程可以包括:
基于特征提取分支对候选区域进行特征提取,得到候选特征;
分别利用各任务分支基于候选特征获取图像中交通信号灯的至少两种属性。
可选地,特征提取分支可以包括至少一层卷积层,将候选区域作为输入图像,通过特征提取分支对候选区域进行特征提取,得到候选区域的候选特征(特征图或者特征向量),基于该候选特征,通过各任务分支可得到交通信号灯的位置和颜色,或交通信号灯的位置和形状,或交通信号灯的颜色和形状,在一个效果较好的实施例中,通过多任务分支同时得到信号灯的颜色、位置和形状;实现在检查信号灯位置的同时,通过信号灯颜色识别到当前信号灯的状态,在自动驾驶领域可以得到很好的应用,通过对信号灯形状的识别可提高信号灯识别的准确率。
可选地,至少两个任务分支包括:检测分支、识别分支和分类分支;
分别利用各任务分支基于候选特征获取图像中交通信号灯的至少两种属性,包括:
经检测分支对候选特征进行位置检测,确定交通信号灯的位置区域;
经分类分支对候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定交通信号灯的颜色;
经识别分支对候选特征进行形状识别,确定交通信号灯所在位置区域的形状,确定交通信号灯的形状。
本实施例可以通过不同分支同时实现对交通信号灯的位置区域、颜色、形状中的任意两种或三种属性进行识别,节省了多任务识别的时间,缩小了检测网络的大小,使多任务识别网络在训练和应用过程都更快,而如果先获得交通信号灯的位置区域,可以更快的获得交通信号灯的颜色和形状;由于信号灯颜色通常只有三种(红色、绿色和黄色),因此,对于颜色的识别可采用训练后的分类分支(可以采用普通多任务识别网络中除了卷积层的其他网络层)实现。
实际场景中的红绿灯检测及其状态判定十分困难,首先,受光照、天气等环境因素的干扰,红绿灯的颜色判定十分困难,并且,复杂的现实场景中存在较多相似的干扰,如车灯、路灯等,对红绿灯的检测造成影响。基于本申请上述实施例同时检测交通信号灯的位置区域、颜色、形状中的两种以上,在节省检测时间的基础上,提高了检测的准确度。
在一个或多个可选的实施例中,步骤120之前,还可以包括:
对视频流中的图像进行关键点识别,确定图像中的交通信号灯的关键点;
对视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
基于跟踪结果对交通信号灯的位置区域进行调整。
在视频流的连续帧之间存在的差异可能很小,仅基于每帧图像中交通信号灯的候选区域进行交通信号灯的位置识别,有可能将连续帧中的位置区域识别成相同的位置区域,从而导致识别到的位置区域不准确,本实施例通过图像中进行关键点识别,基于关键点确定交通信号灯在图像中的位置区域,基于该关键点的位置区域调整多任务识别网络获得的交通信号灯的位置,避免了位置区域识别不准确的问题。
关键点识别和/或跟踪可基于现有技术中可实现关键点识别和/或跟踪的任意一个技术实现。可选地,通过基于静态关键点跟踪技术实现对视频流中的交通信号灯的关键点的跟踪,以获得在视频流中交通信号灯的关键点可能存在的区域。
经检测分支得到的交通信号灯的位置区域,由于连续图像间的细微差距和阈值的选取很容易造成某些帧的漏检测,通过基于静态关键点跟踪技术,提升检测网络对车载视频的检测效果。
图像的特征点可以简单的理解为图像中比较显著的点,如角点、较暗区域中的亮点等。首先对于视频图像中的ORB(ORiented Brief)特征点进行识别:ORB特征点的定义基于特征点周围的图像灰度值,在检测时,考虑候选特征点周围一圈的像素值,如果候选点周围领域内有足够多的像素点与该候选特征点的灰度值差别达到预设值,则认为该候选点为一个关键特征点。本实施例是对交通信号灯的关键点的识别,因此,关键点为交通信号灯的关键点,以该交通信号灯的关键点可实现在视频流中对交通信号灯的静态追踪,由于交通信号灯在图像通常不仅占用一个像素点,即本实施例获得的交通信号灯的关键点包括至少一个像素点,可理解为交通信号灯的关键点对应一个位置区域。
可选地,对视频流中的交通信号灯的关键点进行跟踪,包括:
基于连续两帧图像中各交通信号灯的关键点之间的距离;
基于各交通信号灯的关键点之间的距离对视频流中的交通信号灯的关键点进行跟踪。
本实施例中所指连续两帧可以为视频流中时序连续的两个采集帧,也可以视频流中时序连续的两个检测帧(由于视频流中可以逐帧检测,也可以采样检测,因此检测帧和采集帧二者的含义并非完全相同);通过对视频流中多个连续两帧图像的交通信号灯的关键点建立关联,即可实现在视频流中对交通信号灯的关键点进行跟踪,基于跟踪结果即可对视频流中的每帧图像进行位置区域的调整。可选地,可基于交通信号灯的关键点之间的汉明距离、欧几里得距离、联合贝叶斯距离或余弦距离等实现在视频流中对交通信号灯的关键点的跟踪,本实施不限制具体基于交通信号灯的关键点之间的哪种距离。
其中,汉明距离是使用在数据传输差错控制编码里面的,汉明距离是一个概念,它表示两个(相同长度)字对应位不同的数量,对两个字符串进行异或运算,并统计结果为1的个数,那么这个数就是汉明距离,两个图像之间的汉明距离为两个图像之间不相同的数据位数量。基于两帧信号图像中各交通信号灯的关键点之间的汉明距离可知两信号图像之间信号灯移动的距离,即可实现对交通信号灯的关键点的跟踪。
可选地,基于交通信号灯的关键点之间的距离对视频流中的交通信号灯的关键点进行跟踪,包括:
基于各交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;
根据同一交通信号灯的关键点在连续两帧图像中的位置区域,在视频流中对交通信号灯的关键点进行跟踪。
交通信号灯通常不是单个出现,并且由于交通信号灯在图像中不能由一个关键点进行表示,因此,每帧图像中包括至少一个交通信号灯的关键点,而对于不同交通信号灯(如:同一图像中可同时显示前向交通灯、左转交通灯)需要分别进行跟踪,本实施例通过基于同一交通信号灯的关键点在连续帧中进行跟踪,克服了不同交通信号灯跟踪混乱的问题。
可选地,确定连续两帧图像中同一交通信号灯的关键点的位置区域可基于各交通信号灯的关键点之间的汉明距离的最小值进行确定。
例如,可以通过对前后两帧中图像坐标系汉明距离较小的特征点(交通信号灯的关键点)描述子用Brute Force算法进行匹配,即对于每对交通信号灯的关键点计算其特征子的汉明距离,基于汉明距离最小的交通信号灯的关键点实现前后帧中的ORB特征点匹配,实现静态特征点跟踪。同时,由于交通信号灯的关键点的图片坐标系位于信号灯的候选区域内,判定该交通信号灯的关键点是信号灯检测中的静态关键点。暴风(Brute Force)算法,是普通的模式匹配算法,Brute Force算法的思想就是将目标串S的第一个字符与模式串T的第一个字符进行匹配,若相等,则继续比较S的第二个字符和T的第二个字符;若不相等,则比较S的第二个字符和T的第一个字符,依次比较下去,直到得出最后的匹配结果,Brute Force算法是一种蛮力算法。
在一个或多个可选的实施例中,基于跟踪结果对信号灯的位置区域进行调整,包括:
对比跟踪结果与信号灯的位置区域是否重合,得到对比结果;
基于对比结果对信号灯的位置区域进行调整。
基于跟踪结果对信号灯的位置区域进行调整后,使得信号灯的位置区域更加稳定,更适合应用于视频场景中。
本实施例中基于跟踪结果可确定视频流中各帧图像中交通信号灯的关键点对应的位置区域,当跟踪结果中的位置区域与信号灯的位置区域之间的重合部分在信号灯的位置区域中占比超出设定比例,即可确定跟踪结果与信号灯的位置区域重合,否则,确定跟踪结果与信号灯的位置区域不重合。
可选地,基于对比结果对信号灯的位置区域进行调整,包括:
响应于交通信号灯的关键点对应的位置区域和信号灯的位置区域不重合,以交通信号灯的关键点对应的位置区域替换信号灯的位置区域。
对比信号图像中的交通信号灯的关键点对应的位置区域和信号灯的位置区域是否重合的对比结果。可以包括以下三种情况:
如果交通信号灯的关键点对应的位置区域和信号灯的位置区域匹配(重合),即前后两帧中相匹配的交通信号灯的关键点位置区域移动与检测得到的信号灯的位置区域相同,则无需更正;如果交通信号灯的关键点的位置区域和检测得到的信号灯的位置区域大致匹配,则根据前后帧中交通信号灯的关键点的位置区域的偏移,保持检测信号灯的位置宽、高不变的前提下,按照交通信号灯的关键点位置区域移动计算当前帧检测框的位置区域;如果当前帧中没有检测到交通信号灯的位置区域,但上一帧检测得到了交通信号灯的位置区域,则根据交通信号灯的关键点确定当前帧换信号灯的位置区域并没有超出摄像头范围,若没有超出范围,则以交通信号灯的关键点计算的结果确定当前帧交通信号灯的位置区域,以减少漏检。
在一个或多个可选的实施例中,操作120之前,还可以包括:
基于采集的训练图像集训练基于区域的全卷积网络,训练图像集包括多个具有标注属性的训练图像;
基于训练图像集调整基于区域的全卷积网络和多任务识别网络中的参数。
现实场景中,交通信号灯中的黄灯仅是红灯和绿灯中间的一个过渡状态,因此存在的时长较红灯和绿灯较短。现有技术中基于R-FCN的检测框架由于一次仅输入有限的图像,图像中的黄灯数目较红灯和绿灯相比极少,无法有效的训练检测网络,提升模型对黄灯的敏感度,因此,本申请通过对基于区域的全卷积网络和多任务识别网络训练获得同时对信号灯的位置、颜色和/或形状进行识别。
为了提高检测网络对黄灯的敏感度,可选地,在基于训练图像集调整基于区域的全卷积网络和多任务识别网络中的参数之前,还可以包括:
基于训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;
基于新训练图像集训练分类网络;分类网络用于基于交通信号灯的颜色对训练图像进行分类。
可选地,该分类网络是现有技术中的检测网络去掉RPN(Region ProposalNetwork)候选区域网络和提议(propasal)层得到的,可选地,该分类网络可以对应包括多任务识别网络中的特征提取分支和分类分支;通过单独基于预设比例的新训练图像集训练分类网络,可提高分类网络对交通信号灯的颜色分类的准确率。
通过采集获得训练网络的训练图像集,以采集的训练图像集训练R-FCN基于区域的全卷积网络;对采集得到的训练图像集中红绿灯和黄灯的数量进行调整,可选地,预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
交通信号灯的颜色包括红色、黄色和绿色。
由于实际黄灯出现的概率远远低于红灯和绿灯,因此,采集到的训练图像中黄灯所占比例远小于红灯和绿灯,本实施例为了提高分类网络的准确性,可选择将红、黄、绿三种颜色的比例预设为相同比例(如:红色:黄色:绿色为1:1:1),或控制红、黄、绿三种颜色的数量差异小于容许阈值,使三种颜色的比例接近于1:1:1。可通过从训练图像集中抽取交通信号灯为相应颜色的训练图像,构成新训练图像集;或者,将训练图像集中的黄灯图像重复调用,以使黄灯图像的数量与红灯图像和绿灯图像的数量符合预设比例),以该调整后的新训练图像集训练分类网络,克服黄灯图像数量远小于红绿灯图像数据的缺点,提高了分类网络对黄灯的识别准确率。
可选地,基于训练图像集调整基于区域的全卷积网络和多任务识别网络的参数之前,还包括:
基于训练后的分类网络的参数初始化多任务识别网络中的至少部分参数。
可选地,可基于训练后的分类网络的参数初始化多任务识别网络中的部分或全部惨,例如:以训练后的分类网络的参数对多任务识别网络中特征提取分支和分类分支进行初始化;其中,参数例如可以包括卷积核的大小、卷积连接的权重等等。
在获得对黄灯提高识别准确率的分类网络之后,再以初始的训练图像集训练基于区域的全卷积网络和多任务识别网络,在训练之前,以训练后的分类网络中的参数对检测网络中部分参数进行初始化,此时得到的特征提取分支和分类分支对交通信号灯的颜色分类具有较好的效果,并且针对黄灯能够准确的进行分类。
本申请交通信号灯检测方法可以应用在智能驾驶、高精度地图等领域;
可以将车载视频作为输入,输出红绿灯的位置和其状态,辅助车辆的安全行驶。
还可以用于建立高精度地图,检测其中的红绿灯位置。
在一个或多个可选的实施例中,还包括:
基于图像中交通信号灯的至少两种属性确定交通信号灯的状态;
根据交通信号灯的状态对车辆进行智能驾驶控制。
本实施例自动识别到交通信号灯的至少两种属性,并获得了视频流中交通信号灯的状态,无需驾驶员在驾驶过程中分心观察交通信号灯,避免了交通安全隐患,一定程度上避免了由于人为失误导致的交通危险。
可选地,智能驾驶控制包括:发出提示信息或告警信息,和/或,根据交通信号灯的状态控制车辆的行驶状态。
识别交通信号灯的至少两种属性可为智能驾驶提供基础,智能驾驶包括自动驾驶和辅助驾驶,自动驾驶的情况下,根据交通信号灯的状态控制车辆的行驶状态(如:停车、减速、转向等),同时还可以发出提示信息或告警信息以告知驾驶员当前交通信号灯的状态;而在辅助驾驶的情况下,通常只发出提示信息或告警信息,控制车辆的权限仍然属于驾驶员,驾驶员根据提示信息或告警信息对车辆进行相应的控制。
可选地,还包括:存储交通信号灯的属性、状态及其对应的图像。
本实施例通过存储交通信号灯的属性、状态及其对应的图像,获取更多交通信号灯的信息(属性、状态及其对应的图像),为智能驾驶提供更多操作依据。还可以根据存储的交通信号灯对应的时间和位置建立高精度地图,基于存储的交通信号灯对应的图像确定高精度地图中红绿灯的位置。
可选地,交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
基于图像中交通信号灯的至少两种属性确定交通信号灯的状态,包括以下至少之一:
响应于交通信号灯的颜色为绿色和/或形状为第一预设形状,确定交通信号灯的状态为允许通行状态。
响应于交通信号灯的颜色为红色和/或形状为第二预设形状,确定交通信号灯的状态为禁止通行状态。
响应于交通信号灯的颜色为黄色和/或形状为第三预设形状,确定交通信号灯的状态为等待状态。
根据现行交通法规可知,交通信号灯的颜色包括红色、绿色和黄色,不同颜色对应不同的通行状态,红色表示禁止车辆和/或行人通行,绿色表示允许车辆和/或行人通行、黄色表示车辆和/或行人通需要暂停等待;而辅助颜色的还可以包括交通信号等的形状,例如:加号形状(一种可选的第一预设形状)表示允许通行,叉形状(一种可选的第二预设形状)表示禁止通行,减号形状(一种可选的第三预设形状)表示等待状态等。针对不同交通信号灯的状态提供不同的应对策略,实现自动、半自动的智能驾驶,提高了驾驶的安全性。
可选地,根据交通信号灯的状态对车辆进行智能驾驶控制,包括:
响应于交通信号灯的状态为允许通行状态,控制车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯等控制车辆通行过程中所需的其他控制中的一种或多种操作;
响应于交通信号灯的状态为禁止通行状态或等待状态,控制车辆停车、减速、开启刹车灯、控制车辆禁止通行或处于等待状态过程中所需的其他控制中的一种或多种操作。
例如:当交通信号灯的颜色为绿色且形状为向左指向的箭头时,可控制车辆自动转向(向左)和/或自动开启转向灯(左转向灯);当交通信号灯的颜色为绿色且形状为向前指向的箭头时,可控制车辆减速行驶通过路口;当然,具体控制车辆如何行驶是根据当前车辆设定的目的地与当前交通信号灯的状态综合的结果;通过自动控制车辆执行对应交通信号灯的状态的操作,可实现安全性更高的智能驾驶,避免由于人为操作失误导致的安全隐患。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图2为本申请交通信号灯检测装置一个实施例的结构示意图。该实施例的交通信号灯检测装置可用于实现本申请上述各交通信号灯检测方法实施例。如图2所示,该实施例的装置包括:
视频流获取单元21,用于获取包括有交通信号灯的视频流。
可选地,对于交通信号灯的识别,通常是以车辆行进过程中记录的车载视频为基础进行的,对车载视频进行解析,获得包括至少一帧图像的视频流,例如可通过安装在车辆上的摄像装置拍摄车辆前向或周围环境的视频,如果车辆前向或周围环境中存在交通信号灯,则会被摄像装置拍摄到,所拍摄的视频流即为包括有交通信号灯的视频流。该视频流中的图像可以每帧图像都包括交通信号灯,或至少有一帧图像中包括交通信号灯。
区域确定单元22,用于确定视频流的至少一帧图像中交通信号灯的候选区域。
可选地,从视频流中包括有交通信号灯的图像中确定候选区域,该候选区域指在图像中可能包括交通信号灯的区域。
交通信号灯的区域的检测可基于神经网络或其他类型的检测模型进行。在一个或多个可选的实施例中,利用基于区域的全卷积网络,确定视频流的至少一帧图像中交通信号灯的候选区域。通过基于区域的全卷积网络R-FCN(region-based,fully convolutionalnetworks)对信号图像进行检测,得到可能包括交通信号灯的候选区域,R-FCN可以看做是Faster RCNN的改进版,检测速度相对Faster RCNN有加快。
属性识别单元23,用于基于候选区域确定图像中交通信号灯的至少两种属性。
交通信号灯的属性用于描述交通信号灯,可根据实际需要进行定义,例如,可以包括用于描述交通信号灯绝对位置或相对位置的位置区域属性,用于描述交通信号灯的颜色(如红色、绿色、黄色等)属性,用于描述交通信号灯的形状的(如圆形、直线箭头、折线箭头等)属性,以及用于描述交通信号灯的其他方面的其他属性。
基于本申请上述实施例提供的一种交通信号灯检测装置,通过获得交通信号灯的至少两种属性实现对信号灯的多种信息的识别,减少了识别时间,并提高了交通信号灯识别的准确率。
可选地,交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
交通信号灯的至少两种属性的确定可基于神经网络或其他类型的识别模型进行。在一个或多个可选的实施例中,属性识别单元23,用于利用多任务识别网络,基于候选区域确定图像中交通信号灯的至少两种属性。
本实施例通过一个网络实现对交通信号灯的至少两种属性进行识别,相对于分别基于至少两个网络识别至少两种属性的情况,减小了网络的大小,提高了交通信号灯的属性识别的效率。
可选地,多任务识别网络包括特征提取分支、以及分别与所述特征提取分支连接的至少两个任务分支,不同的任务分支用于确定交通信号灯的不同种类属性;
属性识别单元23,包括:
特征提取模块,用于基于特征提取分支对所述候选区域进行特征提取,得到候选特征;
分支属性模块,用于分别利用各任务分支基于候选特征获取图像中交通信号灯的至少两种属性。
可选地,至少两个任务分支包括:检测分支、识别分支和分类分支;
分支属性模块,具体用于经检测分支对候选特征进行位置检测,确定交通信号灯的位置区域;经分类分支对候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定交通信号灯的颜色;经识别分支对候选特征进行形状识别,确定交通信号灯所在位置区域的形状,确定交通信号灯的形状。
在一个或多个可选的实施例中,还包括:
关键点确定单元,用于对视频流中的图像进行关键点识别,确定图像中的交通信号灯的关键点;
关键点跟踪单元,用于对视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
位置调整单元,用于基于跟踪结果对交通信号灯的位置区域进行调整。
在视频流的连续帧之间存在的差异可能很小,仅基于每帧图像中交通信号灯的候选区域进行交通信号灯的位置识别,有可能将连续帧中的位置区域识别成相同的位置区域,从而导致识别到的位置区域不准确,本实施例通过图像中进行关键点识别,基于关键点确定交通信号灯在图像中的位置区域,基于该关键点的位置区域调整多任务识别网络获得的交通信号灯的位置,避免了位置区域识别不准确的问题。
关键点识别和/或跟踪可基于现有技术中可实现关键点识别和/或跟踪的任意一个技术实现。可选地,通过基于静态关键点跟踪技术实现对视频流中的交通信号灯的关键点的跟踪,以获得在视频流中交通信号灯的关键点可能存在的区域。
可选地,关键点跟踪单元,用于基于连续两帧图像中各交通信号灯的关键点之间的距离;基于各交通信号灯的关键点之间的距离对视频流中的交通信号灯的关键点进行跟踪。
本实施例中所指连续两帧可以为视频流中时序连续的两个采集帧,也可以视频流中时序连续的两个检测帧(由于视频流中可以逐帧检测,也可以采样检测,因此检测帧和采集帧二者的含义并非完全相同);通过对视频流中多个连续两帧图像的交通信号灯的关键点建立关联,即可实现在视频流中对交通信号灯的关键点进行跟踪,基于跟踪结果即可对视频流中的每帧图像进行位置区域的调整。可选地,可基于交通信号灯的关键点之间的汉明距离、欧几里得距离、联合贝叶斯距离或余弦距离等实现在视频流中对交通信号灯的关键点的跟踪,本实施不限制具体基于交通信号灯的关键点之间的哪种距离。
可选地,关键点跟踪单元基于交通信号灯的关键点之间的距离对视频流中的交通信号灯的关键点进行跟踪时,用于基于各交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;根据同一交通信号灯的关键点在连续两帧图像中的位置区域,在视频流中对交通信号灯的关键点进行跟踪。
在一个或多个可选的实施例中,位置调整单元,用于对比跟踪结果与信号灯的位置区域是否重合,得到比对结果;基于对比结果对信号灯的位置区域进行调整。
基于跟踪结果对信号灯的位置区域进行调整后,使得信号灯的位置区域更加稳定,更适合应用于视频场景中。
本实施例中基于跟踪结果可确定视频流中各帧图像中交通信号灯的关键点对应的位置区域,当跟踪结果中的位置区域与信号灯的位置区域之间的重合部分在信号灯的位置区域中占比超出设定比例,即可确定跟踪结果与信号灯的位置区域重合,否则,确定跟踪结果与信号灯的位置区域不重合。
可选地,位置调整单元基于对比结果对信号灯的位置区域进行调整时,用于响应于交通信号灯的关键点对应的位置区域和信号灯的位置区域不重合,以交通信号灯的关键点对应的位置区域替换信号灯的位置区域。
在一个或多个可选的实施例中,还可以包括:
预训练单元,用于基于采集的训练图像集训练基于区域的全卷积网络,训练图像集包括多个具有标注属性的训练图像;
训练单元,用于基于训练图像集调整基于区域的全卷积网络和多任务识别网络中的参数。
现实场景中,交通信号灯中的黄灯仅是红灯和绿灯中间的一个过渡状态,因此存在的时长较红灯和绿灯较短。现有技术中基于R-FCN的检测框架由于一次仅输入有限的图像,图像中的黄灯数目较红灯和绿灯相比极少,无法有效的训练检测网络,提升模型对黄灯的敏感度,因此,本申请通过对基于区域的全卷积网络和多任务识别网络训练获得同时对信号灯的位置、颜色和/或形状进行识别。
为了提高检测网络对黄灯的敏感度,可选地,预训练单元和训练单元之间还可以包括:
分类训练单元,用于基于训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;基于新训练图像集训练分类网络;分类网络用于基于交通信号灯的颜色对训练图像进行分类。
可选地,预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
交通信号灯的颜色包括红色、黄色和绿色。
由于实际黄灯出现的概率远远低于红灯和绿灯,因此,采集到的训练图像中黄灯所占比例远小于红灯和绿灯,本实施例为了提高分类网络的准确性,可选择将红、黄、绿三种颜色的比例预设为相同比例(如:红色:黄色:绿色为1:1:1),或控制红、黄、绿三种颜色的数量差异小于容许阈值,使三种颜色的比例接近于1:1:1。可通过从训练图像集中抽取交通信号灯为相应颜色的训练图像,构成新训练图像集;或者,将训练图像集中的黄灯图像重复调用,以使黄灯图像的数量与红灯图像和绿灯图像的数量符合预设比例),以该调整后的新训练图像集训练分类网络,克服黄灯图像数量远小于红绿灯图像数据的缺点,提高了分类网络对黄灯的识别准确率。
可选地,在分类训练单元之后还可以包括:
初始化单元,用于基于训练后的分类网络的参数初始化多任务识别网络中的至少部分参数。
在一个或多个可选的实施例中,本实施例装置还可以包括:
状态确定单元,用于基于图像中交通信号灯的至少两种属性确定交通信号灯的状态;
智能控制单元,用于根据交通信号灯的状态对车辆进行智能驾驶控制。
本实施例自动识别到交通信号灯的至少两种属性,并获得了视频流中交通信号灯的状态,无需驾驶员在驾驶过程中分心观察交通信号灯,避免了交通安全隐患,一定程度上避免了由于人为失误导致的交通危险。
可选地,智能驾驶控制包括:发出提示信息或告警信息,和/或,根据交通信号灯的状态控制车辆的行驶状态。
可选地,还包括:
存储单元,用于存储交通信号灯的属性、状态及其对应的所述图像。
可选地,交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
状态确定单元,用于响应于交通信号灯的颜色为绿色和/或形状为第一预设形状,确定交通信号灯的状态为允许通行状态;
响应于交通信号灯的颜色为红色和/或形状为第二预设形状,确定交通信号灯的状态为禁止通行状态;
响应于交通信号灯的颜色为黄色和/或形状为第三预设形状,确定交通信号灯的状态为等待状态。
可选地,智能控制单元,用于响应于交通信号灯的状态为允许通行状态,控制车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于交通信号灯的状态为禁止通行状态或等待状态,控制车辆停车、减速、开启刹车灯中的一种或多种操作。
本申请实施例提供的交通信号灯检测装置任一实施例的工作过程以及设置方式均可以参照本申请上述相应方法实施例的具体描述,限于篇幅,在此不再赘述。
图3为本申请智能驾驶方法一个实施例的流程图。如图3所示,该实施例方法包括:
步骤310,基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流。
可选地,以车辆行进过程中记录的车载视频为基础进行的,对车载视频进行解析,获得包括至少一帧图像的视频流,例如可通过安装在车辆上的摄像装置拍摄车辆前向或周围环境的视频,如果车辆前向或周围环境中存在交通信号灯,则会被摄像装置拍摄到,所拍摄的视频流即为包括有交通信号灯的视频流。该视频流中的图像可以每帧图像都包括交通信号灯,或至少有一帧图像中包括交通信号灯。
步骤320,确定视频流的至少一帧图像中交通信号灯的候选区域。
步骤330,基于候选区域确定图像中交通信号灯的至少两种属性。
交通信号灯的属性用于描述交通信号灯,可根据实际需要进行定义,例如,可以包括用于描述交通信号灯绝对位置或相对位置的位置区域属性,用于描述交通信号灯的颜色(如红色、绿色、黄色等)属性,用于描述交通信号灯的形状的(如圆形、直线箭头、折线箭头等)属性,以及用于描述交通信号灯的其他方面的其他属性。
可选地,交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,交通信号灯的颜色包括红、黄、绿三种颜色,形状包括箭头形、圆形或其他形状等,对于不同形状的交通信号灯,如果仅识别其位置,可能无法准确的将信号识别出来,因此,本实施例通过识别位置区域、颜色和形状中的至少两种,例如:当确定交通信号灯的位置区域和颜色,即可确定当前交通信号灯在图像中哪个位置(对应车辆的哪个方向),通过颜色即可确定交通信号灯显示的状态(红色、绿色或黄色分别对应不同状态),通过识别到交通信号灯的不同状态可实现辅助驾驶或自动驾驶;当确定交通信号灯的位置区域和形状,即可确定当前交通信号灯在图像中哪个位置(对应车辆的哪个方向),通过形状即可确定交通信号灯显示的状态(例如:朝向不同方向的箭头表示不同状态,或不同形状的人体图形表示不同状态);当确定交通信号灯的颜色和形状,可基于颜色和形状相结合确定当前交通信号灯的状态(例如:指向左侧的绿色箭头表示左转通行,指向前方的红色箭头表示前方禁行);而当确定交通信号灯的位置区域、颜色和形状时,在获得交通信号灯在图像中哪个位置的基础上,还可以基于颜色和形状相结合确定当前交通信号灯的状态。
步骤340,基于图像中交通信号灯的至少两种属性确定交通信号灯的状态。
现有的图像处理方法通常只能针对一种任务进行处理(例如:位置识别或颜色分类中的一种),而交通信号灯包括位置区域、颜色和形状等信息,当需要确定交通信号灯的状态时,不仅需要确定交通信号等的位置区域,至少还需要确定颜色或形状,因此,如应用通常的图像处理方法,至少需要两个神经网络对视频流进行处理,还需要对处理结果进行综合,才能确定当前交通信号灯的状态;本实施例同时获得交通信号灯的至少两种属性,以至少两种属性确定交通信号灯的状态,快速准确的识别交通信号灯的状态。
步骤350,根据交通信号灯的状态对车辆进行智能驾驶控制。
本实施例通过车辆上的图像采集装置可实时获得视频流,实现实时识别交通信号灯的属性,以确定交通信号灯的状态,基于交通信号灯的状态实现智能驾驶,无需驾驶员在驾驶过程中分心观察交通信号灯,避免了交通安全隐患,一定程度上避免了由于人为失误导致的交通危险。智能驾驶可以包括辅助驾驶和自动驾驶,通常,辅助驾驶是利用信号灯进行预警提示,自动驾驶利用信号灯进行驾驶控制。
可选地,智能驾驶控制包括:发出提示信息或告警信息,和/或,根据交通信号灯的状态控制车辆的行驶状态。
识别交通信号灯的至少两种属性可为智能驾驶提供基础,智能驾驶包括自动驾驶和辅助驾驶,自动驾驶的情况下,根据交通信号灯的状态控制车辆的行驶状态(如:停车、减速、转向等),同时还可以发出提示信息或告警信息以告知驾驶员当前交通信号灯的状态;而在辅助驾驶的情况下,通常只发出提示信息或告警信息,控制车辆的权限仍然属于驾驶员,驾驶员根据提示信息或告警信息对车辆进行相应的控制。
可选地,还包括:
存储交通信号灯的属性、状态及其对应的图像。
本实施例通过存储交通信号灯的属性、状态及其对应的图像,获取更多交通信号灯的信息(属性、状态及其对应的图像),为智能驾驶提供更多操作依据。还可以根据存储的交通信号灯对应的时间和位置建立高精度地图,基于存储的交通信号灯对应的图像确定高精度地图中红绿灯的位置。
可选地,交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
步骤340可以包括:
响应于交通信号灯的颜色为绿色和/或形状为第一预设形状,确定交通信号灯的状态为允许通行状态;
响应于交通信号灯的颜色为红色和/或形状为第二预设形状,确定交通信号灯的状态为禁止通行状态;
响应于交通信号灯的颜色为黄色和/或形状为第三预设形状,确定交通信号灯的状态为等待状态。
根据现行交通法规可知,交通信号灯的颜色包括红色、绿色和黄色,不同颜色对应不同的通行状态,红色表示禁止车辆和/或行人通行,绿色表示允许车辆和/或行人通通行、黄色表示车辆和/或行人通需要暂停等待;而辅助颜色的还可以包括交通信号等的形状,例如:加号形状(一种可选的第一预设形状)表示允许通行,叉形状(一种可选的第二预设形状)表示禁止通行,减号形状(一种可选的第三预设形状)表示等待状态等。针对不同交通信号灯的状态提供不同的应对策略,实现自动、半自动的智能驾驶,提高了驾驶的安全性。
可选地,步骤350可以包括:
响应于交通信号灯的状态为允许通行状态,控制车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯、控制车辆通行过程中所需的其他控制中的一种或多种操作;
响应于交通信号灯的状态为禁止通行状态或等待状态,控制车辆停车、减速、开启刹车灯、控制车辆禁止通行或处于等待状态过程中所需的其他控制中的一种或多种操作。
例如:当交通信号灯的颜色为绿色且形状为向左指向的箭头时,可控制车辆自动转向(向左)和/或自动开启转向灯(左转向灯);当交通信号灯的颜色为绿色且形状为向前指向的箭头时,可控制车辆减速行驶通过路口;当然,具体控制车辆如何行驶是根据当前车辆设定的目的地与当前交通信号灯的状态综合的结果;通过自动控制车辆执行对应交通信号灯的状态的操作,可实现安全性更高的智能驾驶,避免由于人为操作失误导致的安全隐患。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图4为本申请智能驾驶装置一个实施例的结构示意图。该实施例的智能驾驶装置可用于实现本申请上述各智能驾驶方法实施例。如图4所示,该实施例的装置包括:
视频流获取单元21,用于基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流。
可选地,以车辆行进过程中记录的车载视频为基础进行的,对车载视频进行解析,获得包括至少一帧图像的视频流,例如可通过安装在车辆上的摄像装置拍摄车辆前向或周围环境的视频,如果车辆前向或周围环境中存在交通信号灯,则会被摄像装置拍摄到,所拍摄的视频流即为包括有交通信号灯的视频流。该视频流中的图像可以每帧图像都包括交通信号灯,或至少有一帧图像中包括交通信号灯。
区域确定单元22,用于确定视频流的至少一帧图像中交通信号灯的候选区域。
属性识别单元23,用于基于候选区域确定图像中交通信号灯的至少两种属性。
交通信号灯的属性用于描述交通信号灯,可根据实际需要进行定义,例如,可以包括用于描述交通信号灯绝对位置或相对位置的位置区域属性,用于描述交通信号灯的颜色(如红色、绿色、黄色等)属性,用于描述交通信号灯的形状的(如圆形、直线箭头、折线箭头等)属性,以及用于描述交通信号灯的其他方面的其他属性。
状态确定单元44,用于基于图像中交通信号灯的至少两种属性确定交通信号灯的状态。
现有的图像处理方法通常只能针对一种任务进行处理(例如:位置识别或颜色分类中的一种),而交通信号灯包括位置区域、颜色和形状等信息,当需要确定交通信号灯的状态时,不仅需要确定交通信号等的位置区域,至少还需要确定颜色或形状,因此,如应用通常的图像处理方法,至少需要两个神经网络对视频流进行处理,还需要对处理结果进行综合,才能确定当前交通信号灯的状态;本实施例同时获得交通信号灯的至少两种属性,以至少两种属性确定交通信号灯的状态,快速准确的识别交通信号灯的状态。
智能控制单元45,用于根据交通信号灯的状态对车辆进行智能驾驶控制。
本实施例通过车辆上的图像采集装置可实时获得视频流,实现实时识别交通信号灯的属性,以确定交通信号灯的状态,基于交通信号灯的状态实现智能驾驶,无需驾驶员在驾驶过程中分心观察交通信号灯,避免了交通安全隐患,一定程度上避免了由于人为失误导致的交通危险。智能驾驶可以包括辅助驾驶和自动驾驶,通常,辅助驾驶是利用信号灯进行预警提示,自动驾驶利用信号灯进行驾驶控制。
可选地,智能驾驶控制包括:发出提示信息或告警信息,和/或,根据交通信号灯的状态控制车辆的行驶状态。
可选地,还包括:
存储单元,用于存储交通信号灯的属性、状态及其对应的图像。
可选地,交通信号灯的至少两种属性包括以下任意两种或两种以上:位置区域、颜色和形状。
可选地,交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
状态确定单元44,用于响应于交通信号灯的颜色为绿色和/或形状为第一预设形状,确定交通信号灯的状态为允许通行状态;
响应于交通信号灯的颜色为红色和/或形状为第二预设形状,确定交通信号灯的状态为禁止通行状态;
响应于交通信号灯的颜色为黄色和/或形状为第三预设形状,确定交通信号灯的状态为等待状态。
可选地,智能控制单元45,用于响应于交通信号灯的状态为允许通行状态,控制车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于交通信号灯的状态为禁止通行状态或等待状态,控制车辆停车、减速、开启刹车灯中的一种或多种操作。
本申请实施例提供的智能驾驶装置任一实施例的工作过程以及设置方式均可以参照本申请上述相应方法实施例的具体描述,限于篇幅,在此不再赘述。
根据本申请实施例的另一个方面,提供了一种车辆,包括如上任意一实施例所述的交通信号灯检测装置或如上任意一实施例所述的智能驾驶装置。
根据本申请实施例的另一个方面,提供的一种电子设备,包括处理器,所述处理器包括如上任意一项所述的交通信号灯检测装置或如上任意一实施例所述的智能驾驶装置。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成如上任意一实施例所述交通信号灯检测方法的操作,或完成如上任意一实施例所述的智能驾驶方法的操作。
本申请实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图5,其示出了适于用来实现本申请实施例的终端设备或服务器的电子设备500的结构示意图:如图5所示,电子设备500包括一个或多个处理器、通信部等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU)501,和/或一个或多个图像处理器(GPU)513等,处理器可以根据存储在只读存储器(ROM)502中的可执行指令或者从存储部分508加载到随机访问存储器(RAM)503中的可执行指令而执行各种适当的动作和处理。通信部512可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡。
处理器可与只读存储器502和/或随机访问存储器503中通信以执行可执行指令,通过总线504与通信部512相连、并经通信部512与其他目标设备通信,从而完成本申请实施例提供的任一项方法对应的操作,例如,获取包括有交通信号灯的视频流;确定视频流的至少一帧图像中交通信号灯的候选区域;基于候选区域确定图像中交通信号灯的至少两种属性。
此外,在RAM 503中,还可存储有装置操作所需的各种程序和数据。CPU501、ROM502以及RAM503通过总线504彼此相连。在有RAM503的情况下,ROM502为可选模块。RAM503存储可执行指令,或在运行时向ROM502中写入可执行指令,可执行指令使中央处理单元501执行上述通信方法对应的操作。输入/输出(I/O)接口505也连接至总线504。通信部512可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
需要说明的,如图5所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图5的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU513和CPU501可分离设置或者可将GPU513集成在CPU501上,通信部512可分离设置,也可集成设置在CPU501或GPU513上,等等。这些可替换的实施方式均落入本申请公开的保护范围。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本申请实施例提供的方法步骤对应的指令,例如,获取包括有交通信号灯的视频流;确定视频流的至少一帧图像中交通信号灯的候选区域;基于候选区域确定图像中交通信号灯的至少两种属性。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法中限定的上述功能的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,该指令被执行时执行如上任意一项所述交通信号灯检测方法或如上任意一项所述的智能驾驶方法的操作。
根据本申请实施例的再一个方面,提供的一种计算机程序产品,包括计算机可读代码,当计算机可读代码在设备上运行时,该设备中的处理器执行用于实现如上任意一项所述交通信号灯检测方法或如上任意一项所述的智能驾驶方法的指令。
可能以许多方式来实现本申请的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本申请的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本申请的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本申请实施为记录在记录介质中的程序,这些程序包括用于实现根据本申请的方法的机器可读指令。因而,本申请还覆盖存储用于执行根据本申请的方法的程序的记录介质。
本申请的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本申请限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本申请的原理和实际应用,并且使本领域的普通技术人员能够理解本申请从而设计适于特定用途的带有各种修改的各种实施例。

Claims (44)

1.一种交通信号灯检测方法,其特征在于,包括:
获取包括有交通信号灯的视频流;
确定所述视频流的至少一帧图像中交通信号灯的候选区域;
利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,其中,所述至少两种属性包括信号灯的位置区域以及以下至少之一:颜色和形状;
其中,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域之前,还包括:
对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
对比所述跟踪结果与所述信号灯的位置区域是否重合;
响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
2.根据权利要求1所述的方法,其特征在于,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域,包括:利用基于区域的全卷积网络,确定所述视频流的至少一帧图像中交通信号灯的候选区域。
3.根据权利要求1或2所述的方法,其特征在于,所述多任务识别网络包括特征提取分支、以及分别与所述特征提取分支连接的至少两个任务分支,不同的任务分支用于确定所述交通信号灯的不同种类属性;
所述利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,包括:
基于所述特征提取分支对所述候选区域进行特征提取,得到候选特征;
分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性。
4.根据权利要求3所述的方法,其特征在于,所述至少两个任务分支包括:检测分支、识别分支和分类分支;
所述分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性,包括:
经所述检测分支对所述候选特征进行位置检测,确定交通信号灯的位置区域;
经所述分类分支对所述候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定所述交通信号灯的颜色;
经所述识别分支对所述候选特征进行形状识别,确定所述交通信号灯所在位置区域的形状,确定所述交通信号灯的形状。
5.根据权利要求1或2所述的方法,其特征在于,所述对所述视频流中的交通信号灯的关键点进行跟踪,包括:
基于连续两帧所述图像中各所述交通信号灯的关键点之间的距离;
基于各所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪。
6.根据权利要求5所述的方法,其特征在于,所述基于所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪,包括:
基于各所述交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;
根据所述同一交通信号灯的关键点在连续两帧所述图像中的位置区域,在所述视频流中对交通信号灯的关键点进行跟踪。
7.根据权利要求1-2任一所述的方法,其特征在于,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域之前,还包括:
基于采集的训练图像集训练所述基于区域的全卷积网络,所述训练图像集包括多个具有标注属性的训练图像;
基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数。
8.根据权利要求7所述的方法,其特征在于,所述基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数之前,还包括:
基于所述训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;
基于所述新训练图像集训练分类网络;所述分类网络用于基于所述交通信号灯的颜色对所述训练图像进行分类。
9.根据权利要求8所述的方法,其特征在于,所述预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
所述交通信号灯的颜色包括红色、黄色和绿色。
10.根据权利要求9所述的方法,其特征在于,所述基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络的参数之前,还包括:
基于所述训练后的分类网络的参数初始化所述多任务识别网络中的至少部分参数。
11.根据权利要求1-2任一所述的方法,其特征在于,还包括:
基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
根据所述交通信号灯的状态对车辆进行智能驾驶控制。
12.根据权利要求11所述的方法,其特征在于,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
13.根据权利要求11所述的方法,其特征在于,还包括:
存储所述交通信号灯的属性、状态及其对应的所述图像。
14.根据权利要求11所述的方法,其特征在于,所述交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
所述基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态,包括以下至少之一:
响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
15.根据权利要求14所述的方法,其特征在于,所述根据所述交通信号灯的状态对所述车辆进行智能驾驶控制,包括:
响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
16.一种智能驾驶方法,其特征在于,包括:
基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流;
确定所述视频流的至少一帧图像中交通信号灯的候选区域;
利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,其中,所述至少两种属性包括信号灯的位置区域以及以下至少之一:颜色和形状;
基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
根据所述交通信号灯的状态对所述车辆进行智能驾驶控制;
其中,所述确定所述视频流的至少一帧图像中交通信号灯的候选区域之前,还包括:
对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
对比所述跟踪结果与所述信号灯的位置区域是否重合;
响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
17.根据权利要求16所述的方法,其特征在于,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
18.根据权利要求16或17所述的方法,其特征在于,还包括:
存储所述交通信号灯的属性、状态及其对应的所述图像。
19.根据权利要求16所述的方法,其特征在于,所述交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
所述基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态,包括:
响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
20.根据权利要求17所述的方法,其特征在于,所述根据所述交通信号灯的状态对所述车辆进行智能驾驶控制,包括:
响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
21.一种交通信号灯检测装置,其特征在于,包括:
视频流获取单元,用于获取包括有交通信号灯的视频流;
区域确定单元,用于确定所述视频流的至少一帧图像中交通信号灯的候选区域;
属性识别单元,用于利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,其中,所述至少两种属性包括信号灯的位置区域以及以下至少之一:颜色和形状;
还包括:
关键点确定单元,用于对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
关键点跟踪单元,用于对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
位置调整单元,用于对比所述跟踪结果与所述信号灯的位置区域是否重合,得到对比结果;基于所述对比结果对所述信号灯的位置区域进行调整;所述位置调整单元基于所述对比结果对所述信号灯的位置区域进行调整时,用于响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
22.根据权利要求21所述的装置,其特征在于,所述区域确定单元,用于利用基于区域的全卷积网络,确定所述视频流的至少一帧图像中交通信号灯的候选区域。
23.根据权利要求21或22所述的装置,其特征在于,
所述多任务识别网络包括特征提取分支、以及分别与所述特征提取分支连接的至少两个任务分支,不同的任务分支用于确定所述交通信号灯的不同种类属性;
所述属性识别单元,包括:
特征提取模块,用于基于所述特征提取分支对所述候选区域进行特征提取,得到候选特征;
分支属性模块,用于分别利用各所述任务分支基于所述候选特征获取所述图像中交通信号灯的至少两种属性。
24.根据权利要求23所述的装置,其特征在于,所述至少两个任务分支包括:检测分支、识别分支和分类分支;
所述分支属性模块,具体用于经所述检测分支对所述候选特征进行位置检测,确定交通信号灯的位置区域;经所述分类分支对所述候选特征进行颜色分类,确定交通信号灯所在位置区域的颜色,确定所述交通信号灯的颜色;经所述识别分支对所述候选特征进行形状识别,确定所述交通信号灯所在位置区域的形状,确定所述交通信号灯的形状。
25.根据权利要求21或22所述的装置,其特征在于,所述关键点跟踪单元,用于基于连续两帧所述图像中各所述交通信号灯的关键点之间的距离;基于各所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪。
26.根据权利要求25所述的装置,其特征在于,所述关键点跟踪单元基于所述交通信号灯的关键点之间的距离对所述视频流中的交通信号灯的关键点进行跟踪时,用于基于各所述交通信号灯的关键点之间的距离,确定连续两帧图像中同一交通信号灯的关键点的位置区域;根据所述同一交通信号灯的关键点在连续两帧所述图像中的位置区域,在所述视频流中对交通信号灯的关键点进行跟踪。
27.根据权利要求21-22任一所述的装置,其特征在于,还包括:
预训练单元,用于基于采集的训练图像集训练所述基于区域的全卷积网络,所述训练图像集包括多个具有标注属性的训练图像;
训练单元,用于基于所述训练图像集调整所述基于区域的全卷积网络和所述多任务识别网络中的参数。
28.根据权利要求27所述的装置,其特征在于,还包括:
分类训练单元,用于基于所述训练图像集获取交通信号灯的颜色比例符合预设比例的新训练图像集;基于所述新训练图像集训练分类网络;所述分类网络用于基于所述交通信号灯的颜色对所述训练图像进行分类。
29.根据权利要求28所述的装置,其特征在于,所述预设比例中不同颜色的交通信号灯的数量相同或者数量差异小于容许阈值;
所述交通信号灯的颜色包括红色、黄色和绿色。
30.根据权利要求29所述的装置,其特征在于,还包括:
初始化单元,用于基于所述训练后的分类网络的参数初始化所述多任务识别网络中的至少部分参数。
31.根据权利要求21-22任一所述的装置,其特征在于,还包括:
状态确定单元,用于基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
智能控制单元,用于根据所述交通信号灯的状态对车辆进行智能驾驶控制。
32.根据权利要求31所述的装置,其特征在于,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
33.根据权利要求31所述的装置,其特征在于,还包括:
存储单元,用于存储所述交通信号灯的属性、状态及其对应的所述图像。
34.根据权利要求31所述的装置,其特征在于,所述交通信号灯的状态包括:允许通行状态、禁止通行状态或等待状态;
所述状态确定单元,用于响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
35.根据权利要求32所述的装置,其特征在于,所述智能控制单元,用于响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
36.一种智能驾驶装置,其特征在于,包括:
视频流获取单元,用于基于设置在车辆上的图像采集装置获取包括有交通信号灯的视频流;
区域确定单元,用于确定所述视频流的至少一帧图像中交通信号灯的候选区域;
属性识别单元,用于利用多任务识别网络,基于所述候选区域确定所述图像中交通信号灯的至少两种属性,其中,所述至少两种属性包括信号灯的位置区域以及以下至少之一:颜色和形状;
状态确定单元,用于基于所述图像中交通信号灯的至少两种属性确定所述交通信号灯的状态;
智能控制单元,用于根据所述交通信号灯的状态对所述车辆进行智能驾驶控制;
还包括:
关键点确定单元,用于对所述视频流中的所述图像进行关键点识别,确定所述图像中的交通信号灯的关键点;
关键点跟踪单元,用于对所述视频流中的交通信号灯的关键点进行跟踪,得到跟踪结果;
位置调整单元,用于对比所述跟踪结果与所述信号灯的位置区域是否重合,得到对比结果;基于所述对比结果对所述信号灯的位置区域进行调整;所述位置调整单元基于所述对比结果对所述信号灯的位置区域进行调整时,用于响应于所述交通信号灯的关键点对应的位置区域和所述信号灯的位置区域不重合,以所述交通信号灯的关键点对应的位置区域替换所述信号灯的位置区域。
37.根据权利要求36所述的装置,其特征在于,所述智能驾驶控制包括:发出提示信息或告警信息,和/或,根据所述交通信号灯的状态控制所述车辆的行驶状态。
38.根据权利要求36或37所述的装置,其特征在于,还包括:
存储单元,用于存储所述交通信号灯的属性、状态及其对应的所述图像。
39.根据权利要求36或37所述的装置,其特征在于,所述交通信号灯的状态包括:允许通行状态、禁止通行状态和等待状态;
所述状态确定单元,用于响应于所述交通信号灯的颜色为绿色和/或形状为第一预设形状,确定所述交通信号灯的状态为允许通行状态;
响应于所述交通信号灯的颜色为红色和/或形状为第二预设形状,确定所述交通信号灯的状态为禁止通行状态;
响应于所述交通信号灯的颜色为黄色和/或形状为第三预设形状,确定所述交通信号灯的状态为等待状态。
40.根据权利要求39所述的装置,其特征在于,所述智能控制单元,用于响应于所述交通信号灯的状态为允许通行状态,控制所述车辆执行启动、保持行驶状态、减速、转向、开启转向灯、开启刹车灯中的一种或多种操作;
响应于所述交通信号灯的状态为禁止通行状态或等待状态,控制所述车辆停车、减速、开启刹车灯中的一种或多种操作。
41.一种车辆,其特征在于,包括权利要求21至35任意一项所述的交通信号灯检测装置或权利要求36至40任意一项所述的智能驾驶装置。
42.一种电子设备,其特征在于,包括处理器,所述处理器包括权利要求21至35任意一项所述的交通信号灯检测装置或权利要求36至40任意一项所述的智能驾驶装置。
43.一种电子设备,其特征在于,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成权利要求1至15任意一项所述交通信号灯检测方法的操作,或完成权利要求16至20任意一项所述的智能驾驶方法的操作。
44.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1至15任意一项所述交通信号灯检测方法或权利要求16至20任意一项所述的智能驾驶方法的操作。
CN201810697683.9A 2018-06-29 2018-06-29 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备 Active CN110660254B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201810697683.9A CN110660254B (zh) 2018-06-29 2018-06-29 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备
SG11202007333PA SG11202007333PA (en) 2018-06-29 2019-05-29 Traffic light detection method and apparatus, intelligent driving method and apparatus, vehicle, and electronic device
PCT/CN2019/089062 WO2020001223A1 (zh) 2018-06-29 2019-05-29 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备
KR1020207029615A KR102447352B1 (ko) 2018-06-29 2019-05-29 교통 신호등 검출 및 지능형 주행을 위한 방법 및 디바이스, 차량, 및 전자 디바이스
JP2020550090A JP7111827B2 (ja) 2018-06-29 2019-05-29 交通信号灯検出方法、インテリジェントドライブ方法及び装置、車両並びに電子機器
US16/944,234 US20200353932A1 (en) 2018-06-29 2020-07-31 Traffic light detection method and apparatus, intelligent driving method and apparatus, vehicle, and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810697683.9A CN110660254B (zh) 2018-06-29 2018-06-29 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备

Publications (2)

Publication Number Publication Date
CN110660254A CN110660254A (zh) 2020-01-07
CN110660254B true CN110660254B (zh) 2022-04-08

Family

ID=68985543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810697683.9A Active CN110660254B (zh) 2018-06-29 2018-06-29 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备

Country Status (6)

Country Link
US (1) US20200353932A1 (zh)
JP (1) JP7111827B2 (zh)
KR (1) KR102447352B1 (zh)
CN (1) CN110660254B (zh)
SG (1) SG11202007333PA (zh)
WO (1) WO2020001223A1 (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866046B2 (en) * 2017-12-10 2024-01-09 Anatoly S. Weiser Smart traffic control devices and beacons, methods of their operation, and use by vehicles of information provided by the devices and beacons
US10836393B2 (en) * 2017-12-10 2020-11-17 Anatoly S. Weiser Smart traffic control devices and beacons, methods of their operation, and use by vehicles of information provided by the devices and beacons
CN110688500B (zh) * 2018-06-20 2021-09-14 华为技术有限公司 一种数据库构建方法、一种定位方法及其相关设备
WO2020243484A1 (en) * 2019-05-29 2020-12-03 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
CN112149697A (zh) * 2019-06-27 2020-12-29 商汤集团有限公司 指示灯的指示信息识别方法及装置、电子设备和存储介质
CN111292531B (zh) * 2020-02-06 2022-07-29 阿波罗智能技术(北京)有限公司 交通信号灯的跟踪方法、装置、设备及存储介质
CN111400531B (zh) * 2020-03-13 2024-04-05 广州文远知行科技有限公司 目标标注方法、装置、设备与计算机可读存储介质
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7359735B2 (ja) * 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US11328519B2 (en) 2020-07-23 2022-05-10 Waymo Llc Detecting traffic signaling states with neural networks
CN112289021A (zh) * 2020-09-24 2021-01-29 深圳一清创新科技有限公司 一种交通信号灯的检测方法、装置及自动驾驶汽车
KR20220083945A (ko) * 2020-12-11 2022-06-21 현대자동차주식회사 신호등 정보 제공 장치, 그를 포함한 차량 시스템 및 그 방법
CN112507951B (zh) * 2020-12-21 2023-12-12 阿波罗智联(北京)科技有限公司 指示灯识别方法、装置、设备、路侧设备和云控平台
US11776281B2 (en) * 2020-12-22 2023-10-03 Toyota Research Institute, Inc. Systems and methods for traffic light detection and classification
CN112699773B (zh) * 2020-12-28 2023-09-01 阿波罗智联(北京)科技有限公司 交通灯识别方法、装置及电子设备
CN112349101B (zh) * 2021-01-08 2021-04-27 深圳裹动智驾科技有限公司 高精地图生成方法、以及识别交通灯的方法及系统
CN113011251B (zh) * 2021-02-03 2024-06-04 深圳大学 一种基于交通灯几何属性的行人交通灯识别方法
US12014549B2 (en) 2021-03-04 2024-06-18 Toyota Research Institute, Inc. Systems and methods for vehicle light signal classification
CN113033464B (zh) * 2021-04-10 2023-11-21 阿波罗智联(北京)科技有限公司 信号灯检测方法、装置、设备以及存储介质
CN113077630B (zh) * 2021-04-30 2022-06-28 安徽江淮汽车集团股份有限公司 基于深度学习的红绿灯检测方法、装置、设备及存储介质
CN113450588B (zh) * 2021-06-28 2023-04-07 通视(天津)信息技术有限公司 交通信号灯时信息的处理方法、装置以及电子设备
CN113469109B (zh) * 2021-07-16 2022-09-13 阿波罗智联(北京)科技有限公司 交通灯识别结果处理方法、装置、路侧设备及云控平台
CN113674544A (zh) 2021-07-21 2021-11-19 阿波罗智联(北京)科技有限公司 信号机的报警方法、装置、电子设备和可读存储介质
CN113989774A (zh) * 2021-10-27 2022-01-28 广州小鹏自动驾驶科技有限公司 一种交通灯检测方法、装置、车辆和可读存储介质
KR102472649B1 (ko) * 2021-12-28 2022-11-30 포티투닷 주식회사 객체를 트래킹하기 위한 방법 및 장치
CN114782924B (zh) * 2022-05-10 2024-07-12 智道网联科技(北京)有限公司 用于自动驾驶的交通灯检测方法、装置及电子设备
CN114973205B (zh) * 2022-06-28 2024-08-13 深圳一清创新科技有限公司 一种红绿灯跟踪方法、装置、及无人驾驶汽车
CN115984823B (zh) * 2023-02-27 2023-06-09 安徽蔚来智驾科技有限公司 交通信号灯感知方法、车辆控制方法、设备、介质及车辆
WO2024197629A1 (zh) * 2023-03-29 2024-10-03 华为技术有限公司 检测方法、装置以及智能驾驶设备
CN116681935B (zh) * 2023-05-31 2024-01-23 国家深海基地管理中心 一种深海热液喷口自主识别定位方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256917B1 (en) * 2001-05-11 2005-03-09 Fujitsu Limited Vehicle warning method and apparatus
CN103489324A (zh) * 2013-09-22 2014-01-01 北京联合大学 一种基于无人驾驶的实时动态红绿灯检测识别方法
CN106023623A (zh) * 2016-07-28 2016-10-12 南京理工大学 基于机器视觉的车载交通信号与标志的识别及预警方法
CN106570494A (zh) * 2016-11-21 2017-04-19 北京智芯原动科技有限公司 基于卷积神经网络的交通信号灯识别方法及装置
CN106897742A (zh) * 2017-02-21 2017-06-27 北京市商汤科技开发有限公司 用于检测视频中物体的方法、装置和电子设备
CN106909937A (zh) * 2017-02-09 2017-06-30 北京汽车集团有限公司 交通信号灯识别方法、车辆控制方法、装置及车辆

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999004B2 (en) * 2002-06-17 2006-02-14 Siemens Corporate Research, Inc. System and method for vehicle detection and tracking
KR20150047214A (ko) * 2013-10-24 2015-05-04 현대모비스 주식회사 카메라 센서를 이용한 scc 시스템 및 방법
WO2015077514A1 (en) * 2013-11-20 2015-05-28 Certusview Technologies, Llc Systems, methods, and apparatus for tracking an object
CN103729863B (zh) * 2013-12-06 2016-05-25 南京金智视讯技术有限公司 基于自主学习的交通信号灯全自动定位识别的方法
US9365214B2 (en) * 2014-01-30 2016-06-14 Mobileye Vision Technologies Ltd. Systems and methods for determining the status of a turn lane traffic light
WO2015175826A1 (en) * 2014-05-14 2015-11-19 Kapach Yair Systems and methods for detecting traffic signs
US9779314B1 (en) 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
CN105893971A (zh) * 2016-04-01 2016-08-24 上海理工大学 一种基于Gabor和稀疏表示的交通信号灯识别方法
CN107527511B (zh) * 2016-06-22 2020-10-09 杭州海康威视数字技术股份有限公司 一种智能车辆行车提醒方法及装置
CN106650641B (zh) * 2016-12-05 2019-05-14 北京文安智能技术股份有限公司 一种交通信号灯定位识别方法、装置及系统
CN106837649B (zh) * 2017-03-03 2018-06-22 吉林大学 基于信号灯倒计时识别的自学习智能起停系统
WO2018175441A1 (en) * 2017-03-20 2018-09-27 Mobileye Vision Technologies Ltd. Navigation by augmented path prediction
US10699142B2 (en) * 2017-04-20 2020-06-30 GM Global Technology Operations LLC Systems and methods for traffic signal light detection
CN107978165A (zh) * 2017-12-12 2018-05-01 南京理工大学 基于计算机视觉的交叉口标志标线与信号灯智能感知方法
CN108108761B (zh) * 2017-12-21 2020-05-01 西北工业大学 一种基于深度特征学习的快速交通信号灯检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256917B1 (en) * 2001-05-11 2005-03-09 Fujitsu Limited Vehicle warning method and apparatus
CN103489324A (zh) * 2013-09-22 2014-01-01 北京联合大学 一种基于无人驾驶的实时动态红绿灯检测识别方法
CN106023623A (zh) * 2016-07-28 2016-10-12 南京理工大学 基于机器视觉的车载交通信号与标志的识别及预警方法
CN106570494A (zh) * 2016-11-21 2017-04-19 北京智芯原动科技有限公司 基于卷积神经网络的交通信号灯识别方法及装置
CN106909937A (zh) * 2017-02-09 2017-06-30 北京汽车集团有限公司 交通信号灯识别方法、车辆控制方法、装置及车辆
CN106897742A (zh) * 2017-02-21 2017-06-27 北京市商汤科技开发有限公司 用于检测视频中物体的方法、装置和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Sparse-Representation-Based Graph Embedding》;Ke Lu, Zhengming Ding, and Sam Ge;《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》;20121231;第13卷(第4期);全文 *
《智能汽车交通灯识别方法研究》;付强;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20180215(第02期);第C035-343页 *

Also Published As

Publication number Publication date
KR20200128145A (ko) 2020-11-11
JP2021519968A (ja) 2021-08-12
CN110660254A (zh) 2020-01-07
KR102447352B1 (ko) 2022-09-23
JP7111827B2 (ja) 2022-08-02
SG11202007333PA (en) 2020-08-28
WO2020001223A1 (zh) 2020-01-02
US20200353932A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
CN110660254B (zh) 交通信号灯检测及智能驾驶方法和装置、车辆、电子设备
JP7106664B2 (ja) 知的運転制御方法および装置、電子機器、プログラムならびに媒体
CN108725440B (zh) 前向碰撞控制方法和装置、电子设备、程序和介质
CN106652465B (zh) 一种道路异常驾驶行为的识别方法及系统
Chen et al. A real-time vision system for nighttime vehicle detection and traffic surveillance
US10650257B2 (en) Method and device for identifying the signaling state of at least one signaling device
Wu et al. Lane-mark extraction for automobiles under complex conditions
Kuo et al. Vision-based vehicle detection for a driver assistance system
EP1930863B1 (en) Detecting and recognizing traffic signs
US7724962B2 (en) Context adaptive approach in vehicle detection under various visibility conditions
CN110879950A (zh) 多级目标分类及交通标志检测方法和装置、设备、介质
US9965677B2 (en) Method and system for OCR-free vehicle identification number localization
KR20210080459A (ko) 차선 검출방법, 장치, 전자장치 및 가독 저장 매체
US11250279B2 (en) Generative adversarial network models for small roadway object detection
CN106257490A (zh) 检测行驶车辆信息的方法及系统
CN111767831B (zh) 用于处理图像的方法、装置、设备及存储介质
CN111191611A (zh) 基于深度学习的交通标志标号识别方法
CN110969647B (zh) 一种整合车辆的识别跟踪与车灯检测的方法
Gao et al. On‐line vehicle detection at nighttime‐based tail‐light pairing with saliency detection in the multi‐lane intersection
Krasner et al. Automatic parking identification and vehicle guidance with road awareness
Liu et al. Real-time traffic light recognition based on smartphone platforms
CN111967384A (zh) 车辆信息处理方法、装置、设备及计算机可读存储介质
FAN et al. Robust lane detection and tracking based on machine vision
Dai et al. A driving assistance system with vision based vehicle detection techniques
CN107273848A (zh) 基于号码识别的视频分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant