CN108846336B - 目标检测方法、装置及计算机可读存储介质 - Google Patents

目标检测方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN108846336B
CN108846336B CN201810554659.XA CN201810554659A CN108846336B CN 108846336 B CN108846336 B CN 108846336B CN 201810554659 A CN201810554659 A CN 201810554659A CN 108846336 B CN108846336 B CN 108846336B
Authority
CN
China
Prior art keywords
data
detection
target
learning model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810554659.XA
Other languages
English (en)
Other versions
CN108846336A (zh
Inventor
刘新
宋朝忠
郭烽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Echiev Autonomous Driving Technology Co ltd
Original Assignee
Shenzhen Echiev Autonomous Driving Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Echiev Autonomous Driving Technology Co ltd filed Critical Shenzhen Echiev Autonomous Driving Technology Co ltd
Priority to CN201810554659.XA priority Critical patent/CN108846336B/zh
Publication of CN108846336A publication Critical patent/CN108846336A/zh
Application granted granted Critical
Publication of CN108846336B publication Critical patent/CN108846336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Remote Sensing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种目标检测方法,包括:基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。本发明还公开了一种目标检测装置、计算机可读存储介质。本发明能够弥补人眼观察目标的不足,提高驾驶的安全性。

Description

目标检测方法、装置及计算机可读存储介质
技术领域
本发明涉及图像处理领域,尤其涉及一种目标检测方法、装置及计算机可读存储介质。
背景技术
在生活水平逐步提高的同时,人们的工作节奏也在加快,机动车的数量迅速增加。在现有技术中,人们在驾驶汽车时,一般通过眼睛来确定前方是否存在车辆和前方车辆距离本车的距离,当人们驾驶的过程中出现分神或视线转移等情况时,失去对前方车辆的关注,容易导致交通事故的发生。
发明内容
本发明的主要目的在于提供一种目标检测方法、系统及计算机可读存储介质,旨在解决现有技术人们驾驶的过程中出现分神或视线转移等情况时,失去对前方车辆的关注,容易导致交通事故的发生的问题。
为实现上述目的,本发明提供一种目标检测方法,所述目标检测方法包括:
基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;
基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。
优选地,所述基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型的步骤包括:
根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
优选地,所述图像检测数据至少包括目标的图像数据和对应目标的图像检测距离。
优选地,所述根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型的步骤包括:
将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
优选地,所述基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测的步骤之后包括:
在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
为实现上述目的,本发明还提供一种目标检测装置,其中,所述目标检测装置至少包括存储器、处理器以及存储在所述存储器上的目标检测程序,所述目标检测程序被所述处理器执行时实现以下步骤:
基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;
基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。
优选地,所述目标检测程序被所述处理器执行时还实现以下步骤:
根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
优选地,所述目标检测程序被所述处理器执行时还实现以下步骤:
将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
优选地,所述目标检测程序被所述处理器执行时还实现以下步骤:
在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
此外,为实现上述目的,本发明还提供一种目标检测计算机可读存储介质,其中,所述计算机可读存储介质上存储有目标检测程序,所述目标检测程序被处理器执行时实现如上所述的目标检测方法的步骤。
本发明提供一种目标检测方法,所述目标检测方法包括:基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。通过上述方式,先基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据,并结合图像检测数据与点云数据,对第一半监督学习模型进行训练,获得第二半监督学习模型。结合图像检测数据和雷达的点云数据可以对目标的实际数据进行校正,重新训练的第二半监督学习模型比第一半监督学习模型的目标检测更加准确。在车辆行驶过程中,利用第二半监督学习模型进行目标检测可以获得更准确的目标检测结果,从而车载系统可以自动感知行驶前方的交通状态,基于第二半监督学习模型对车载系统行驶行为进行辅助,可以避免交通事故的发生。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的装置所属终端结构示意图;
图2为本发明目标检测方法第一实施例的流程示意图;
图3为本发明目标检测方法第二实施例的流程示意图;
图4为本发明目标检测方法第三实施例的流程示意图;
图5为本发明目标检测方法第四实施例的流程示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在现有技术中,人们在驾驶汽车时,一般通过眼睛来确定前方是否存在车辆和前方车辆距离本车的距离,当人们驾驶的过程中出现分神或视线转移等情况时,失去对前方车辆的关注,容易导致交通事故的发生。
为了解决上述技术问题,本发明提供一种目标检测方法,在本方法中,先基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据,再基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。从而弥补人眼视觉的不足,避免交通事故的发生,提高车辆行驶的安全性。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的系统结构示意图。
本发明实施例终端可以是PC,也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、便携计算机等具有显示功能的可移动式终端设备。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可选地,终端还可以包括摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。其中,传感器比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示屏的亮度,接近传感器可在移动终端移动到耳边时,关闭显示屏和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;当然,移动终端还可配置陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及目标检测程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的目标检测程序,并执行以下操作:
基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;
基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。
进一步地,处理器1001可以调用存储器1005中存储的目标检测程序,还执行以下操作:
根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
进一步地,处理器1001可以调用存储器1005中存储的目标检测程序,还执行以下操作:
将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
进一步地,处理器1001可以调用存储器1005中存储的目标检测程序,还执行以下操作:
在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
参照图2,图2为本发明目标检测方法第一实施例流程示意图。
本发明目标检测方法主要应用于图像处理领域,例如应用于车载系统的目标检测与识别技术领域。在生活水平逐步提高的同时,人们的工作节奏也在加快,机动车的数量迅速增加。在现有技术中,人们在驾驶汽车时,一般通过眼睛来确定前方是否存在车辆和前方车辆距离本车的距离,当人们驾驶的过程中出现分神或视线转移等情况时,失去对前方车辆的关注,容易导致交通事故的发生。本发明提供一种基于车载摄像头获取的图像和激光雷达获取的目标距离的决策融合方法来实现对目标的识别和距离检测,从而弥补人眼观察目标的不足,提高驾驶的安全性。本事实例的实现过程包括一下步骤:
步骤S10,基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;其中,所述图像检测数据至少包括目标的图像数据和对应目标的图像检测距离。
在本实施例中,车辆上的固定位置配置有用来拍摄车辆前进方向的区域的车载摄像头。车辆在行驶的过程中,车载摄像头定时拍摄车辆前方区域的图像,即区域图像,并将获取的图像传输至车载系统。
在本实施例中,可以预先采集特定数量的汽车行驶过程中或者静态时拍摄的区域图像,并对预先采集的图像进行标注,标注目标的图像信息或目标识别信息以及目标的距离,利用已标注的图像数据进行半监督学习模型训练,获得基于已标注图像数据的第一半监督深度学习模型,并将第一半监督深度学习模型,并将该模型的模型数据存储在车载系统。车载系统获取车载摄像头发送的区域图像时,利用预存的第一半监督深度学习模型进行目标检测获得图像检测数据,即识别存在的目标,获得各个目标的的图像数据和对应的图像检测距离。在本实施例中,图像检测数据指的是从图像中获得的数据统称,包括目标的图像数据和对应目标的图像检测距离。目标的图像数据指的是基于图像获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的图像检测距离则指的是各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。本实施例的目标可以为行人、车辆或者障碍物等,目标的图像信息可以为区域图像中属于上述目标的子图像或者初步的目标图像识别分类;目标的图像检测距离指的是基于第一半监督深度学习模型的距离预测信息。
步骤S20,基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。
在本实施例中,在车辆前进利用车载摄像头采集车辆前方特定区域的区域图像的同时还可以利用激光雷达采集车辆前方的还可以利用激光雷达采集车辆前方的点云数据,基于点云数据与图像数据互相校正,并重新对第一半监督学习模型进行迭代训练,获得更精确的目标检测模型,即第二半监督学习模型,并在车辆行驶的过程中利用重新训练得到的第二半监督学习模型进行目标检测获得准确的目标检测结果,进而进行路径规划。在本实施例中,可以每次获得预设数量的时候对上一次以训练好的模型重新训练,以逐步提高训练模型的目标检测的准确性
具体地,可以基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。在本实施例中,以雷达检测距离对图像检测距离进行校正的方式可以是直接以雷达检测距离替换图像检测距离,也可以对图像检测距离和雷达检测距离预设特定的比例权重,然后将图像检测距离和雷达检测距离分别与各自的权重相乘得到校正距离。
在本实施例中,基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。通过上述方式,先基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据,并结合图像检测数据与点云数据,对第一半监督学习模型进行训练,获得第二半监督学习模型。结合图像检测数据和雷达的点云数据可以对目标的实际数据进行校正,重新训练的第二半监督学习模型比第一半监督学习模型的目标检测更加准确。在车辆行驶过程中,利用第二半监督学习模型进行目标检测可以获得更准确的目标检测结果,从而车载系统可以自动感知行驶前方的交通状态,基于第二半监督学习模型对车载系统行驶行为进行辅助,可以避免交通事故的发生。
进一步地,参照图3,图3为本发明目标检测方法第二实施例流程示意图,基于上述本发明目标检测方法实施例,提出本发明的第二实施例。
在本实施例中,在本实施例中,步骤S20包括:
步骤S30,根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
步骤S40,根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
在本实施例中,点云数据是指在一个三维坐标系统中的一组向量的集合。这些向量通常以X,Y,Z三维坐标的形式表示,而且一般主要用来代表一个物体的外表面形状。不仅如此,除(X,Y,Z)代表的几何位置信息之外,点云数据还可以表示一个点的RGB颜色、灰度值、深度目标距离及分割结果等。Eg.={Xi,Yi,Zi,…….}表示空间中的一个点,则PointCloud={P1,P2,P3,…..Pn}表示一组点云数据。大多数点云数据是由扫描设备产生的,例如激光雷达。在本实施例中,可以基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。
在本实施例中,根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。通过上述方式,可以基于点云数据中的目标的雷达数据以及雷达检测距离对第一半监督学习模型进行训练,获得目标检测效果更好的第二半监督学习模型。
进一步地,参照图4,图4为本发明目标检测方法第三实施例流程示意图,基于上述本发明目标检测方法实施例,提出本发明的第三实施例。
基于上述实施例,在本实施例中,步骤S40包括:
步骤S50,将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
步骤S60,基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
步骤S70,基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
基于上述实施例,在本实施例中,基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。在本实施例中,以雷达检测距离对图像检测距离进行校正的方式可以是直接以雷达检测距离替换图像检测距离,也可以对图像检测距离和雷达检测距离预设特定的比例权重,然后将图像检测距离和雷达检测距离分别与各自的权重相乘得到校正距离。
在本实施例中,将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
进一步的,参照图5,图5为本发明目标检测装置第四实施例流程示意图,基于上述本发明目标检测装置实施例,提出本发明的目标检测装置第四实施例。
基于上述实施例,在本实施例中,步骤S20之后包括:
步骤S80,在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
步骤S90,利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
步骤S100,将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
基于上述实施例,在本实施例中,在获得第二半监督学习模型后,将第二半监督学习模型存储在车载系统,在车辆行驶过程中,实时获取车辆前方区域的图像和点云数据,利用第二半监督学习模型对实时获得的区域图像进行图像检测,获得车辆行驶过程中实时的图像检测数据,并将实时的图像检测数据和实时的点云数据进行决策融合,获得融合后的目标图像数据和目标距离。获得融合后的目标图像数据和目标图像距离后,可以进行车辆行驶的协助控制,避免交通意外的发生。在本实施例中,决策融合指的是多个特征训练得到多个分类器,再对不同分类器加上权重,最终共同作用下得到一个目标判断结果。根据激光雷达所检测到的目标去匹配车载摄像头所检测到的目标,如果车载摄像头检测出某位置某个物体,而激光雷达也检测到了此距离的某个目标,此时激光雷达与车载摄像头实现了相互验证,此信息的可靠度得到提升。在本实施例中,可以预先设置图像检测数据的融合权重值和点云数据的融合权重值。车辆行驶过程中基于图像获得图像检测数据,包括目标的图像数据以及图像检测距离,同时,基于雷达点云数据获得目标的雷达数据以及雷达检测距离,根据预设的融合权重值,对获得的图像检测数据以及雷达的点云数据进行加权融合计算,获得融合后的目标图像数据和目标距离。进一步地,在每次目标检测获得融合后的目标数据和目标距离后,对车辆的行驶进行控制。具体地,根据融合后的目标距离确定是否存在距离小于或者等于预设距离阈值的对象目标,若存在,则执行减速提示或紧急制动。具体地,在本实施例中,可以预先一预设距离阈值1,当存在距离小于或等于预设距离阈值1的目标时,例如目标A的距离小于预设距离阈值1时,则通过语音等方式提示用户减速。在本实施例中,还可以预先设定一预设距离阈值2,当存在距离小于或等于预设距离阈值2的目标时,例如目标B的距离小于预设距离阈值2时,则发送紧急制动指令至制动系统,以使得制动系统进行紧急制动。
在本实施例中,在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。对车辆行驶过程中的图像检测数据和激光雷达的点云数据做决策融合,以融合后的目标图像数据和目标距离作为最终的目标检测结果,提高检测的精度与准确性。
进一步地,参照图2,图2为本发明目标检测装置第一实施例流程示意图。
在本实施例中,所述目标检测装置至少包括存储器、处理器以及存储在所述存储器上的目标检测程序,所述目标检测程序被所述处理器执行时实现以下步骤:
步骤S10,基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;其中,所述图像检测数据至少包括目标的图像数据和对应目标的图像检测距离。
在本实施例中,车辆上的固定位置配置有用来拍摄车辆前进方向的区域的车载摄像头。车辆在行驶的过程中,车载摄像头定时拍摄车辆前方区域的图像,即区域图像,并将获取的图像传输至车载系统。
在本实施例中,可以预先采集特定数量的汽车行驶过程中或者静态时拍摄的区域图像,并对预先采集的图像进行标注,标注目标的图像信息或目标识别信息以及目标的距离,利用已标注的图像数据进行半监督学习模型训练,获得基于已标注图像数据的第一半监督深度学习模型,并将第一半监督深度学习模型,并将该模型的模型数据存储在车载系统。车载系统获取车载摄像头发送的区域图像时,利用预存的第一半监督深度学习模型进行目标检测获得图像检测数据,即识别存在的目标,获得各个目标的的图像数据和对应的图像检测距离。在本实施例中,图像检测数据指的是从图像中获得的数据统称,包括目标的图像数据和对应目标的图像检测距离。目标的图像数据指的是基于图像获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的图像检测距离则指的是各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。本实施例的目标可以为行人、车辆或者障碍物等,目标的图像信息可以为区域图像中属于上述目标的子图像或者初步的目标图像识别分类;目标的图像检测距离指的是基于第一半监督深度学习模型的距离预测信息。
步骤S20,基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。
在本实施例中,在车辆前进利用车载摄像头采集车辆前方特定区域的区域图像的同时还可以利用激光雷达采集车辆前方的还可以利用激光雷达采集车辆前方的点云数据,基于点云数据与图像数据互相校正,并重新对第一半监督学习模型进行迭代训练,获得更精确的目标检测模型,即第二半监督学习模型,并在车辆行驶的过程中利用重新训练得到的第二半监督学习模型进行目标检测获得准确的目标检测结果,进而进行路径规划。在本实施例中,可以每次获得预设数量的时候对上一次以训练好的模型重新训练,以逐步提高训练模型的目标检测的准确性
具体地,可以基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。在本实施例中,以雷达检测距离对图像检测距离进行校正的方式可以是直接以雷达检测距离替换图像检测距离,也可以对图像检测距离和雷达检测距离预设特定的比例权重,然后将图像检测距离和雷达检测距离分别与各自的权重相乘得到校正距离。
在本实施例中,基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测。通过上述方式,先基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据,并结合图像检测数据与点云数据,对第一半监督学习模型进行训练,获得第二半监督学习模型。结合图像检测数据和雷达的点云数据可以对目标的实际数据进行校正,重新训练的第二半监督学习模型比第一半监督学习模型的目标检测更加准确。在车辆行驶过程中,利用第二半监督学习模型进行目标检测可以获得更准确的目标检测结果,从而车载系统可以自动感知行驶前方的交通状态,基于第二半监督学习模型对车载系统行驶行为进行辅助,可以避免交通事故的发生。
进一步的,参照图3,图3为本发明目标检测装置第二实施例流程示意图,基于上述本发明目标检测装置实施例,提出本发明的目标检测装置第二实施例。
基于上述实施例,在本实施例中,所述目标检测程序被所述处理器执行时还实现以下步骤:
在本实施例中,在本实施例中,步骤S20包括:
步骤S30,根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
步骤S40,根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
在本实施例中,点云数据是指在一个三维坐标系统中的一组向量的集合。这些向量通常以X,Y,Z三维坐标的形式表示,而且一般主要用来代表一个物体的外表面形状。不仅如此,除(X,Y,Z)代表的几何位置信息之外,点云数据还可以表示一个点的RGB颜色、灰度值、深度目标距离及分割结果等。Eg.={Xi,Yi,Zi,…….}表示空间中的一个点,则PointCloud={P1,P2,P3,…..Pn}表示一组点云数据。大多数点云数据是由扫描设备产生的,例如激光雷达。在本实施例中,可以基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。
在本实施例中,根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。通过上述方式,可以基于点云数据中的目标的雷达数据以及雷达检测距离对第一半监督学习模型进行训练,获得目标检测效果更好的第二半监督学习模型。
进一步的,参照图4,图4为本发明目标检测装置第三实施例流程示意图,基于上述本发明目标检测装置实施例,提出本发明的目标检测装置第三实施例。
基于上述实施例,在本实施例中,所述目标检测程序被所述处理器执行时还实现以下步骤:
步骤S50,将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
步骤S60,基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
步骤S70,基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
基于上述实施例,在本实施例中,基于激光雷达的点云数据获得各个目标的雷达数据和对应目标的雷达检测距离。其中,目标的雷达数据是基于激光雷达采集的点云数据获得的可描述目标空间轮廓和所占空间位置的数据。例如目标上各个点的空间坐标值,也可以是空间位置坐标的表达函数,而各个目标的雷达检测距离则指的是基于激光雷达的点云数据确定的各个目标距离本车的距离,目标各点距离本车的距离,也可以是车辆各点与本车各点最近的距离。在实际应用中图像检测的目标识别与确定比较准确,而距离检测能力较弱。而激光雷达的目标识别不如图像检测准确,但距离检测能力更强,可以利用雷达检测距离来对图像检测距离进行校正,获得校正检测距离,利用校正检测距离和目标的图像数据对在第一半监督学习模型的基础上重新进行迭代训练,获得第二半监督学习模型。然后,在车辆行驶的过程中,利用已经训练好的第二半监督学习模型进行目标检测,获得准确的目标检测结果。在本实施例中,以雷达检测距离对图像检测距离进行校正的方式可以是直接以雷达检测距离替换图像检测距离,也可以对图像检测距离和雷达检测距离预设特定的比例权重,然后将图像检测距离和雷达检测距离分别与各自的权重相乘得到校正距离。
在本实施例中,将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
进一步地,参照图5,图5为本发明目标检测装置第四实施例流程示意图,基于上述本发明目标检测装置实施例,提出本发明目标检测装置的第四实施例。
基于上述实施例,在本实施例中,所述目标检测程序被所述处理器执行时还实现以下步骤:
步骤S80,在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
步骤S90,利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
步骤S100,将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
基于上述实施例,在本实施例中,在获得第二半监督学习模型后,将第二半监督学习模型存储在车载系统,在车辆行驶过程中,实时获取车辆前方区域的图像和点云数据,利用第二半监督学习模型对实时获得的区域图像进行图像检测,获得车辆行驶过程中实时的图像检测数据,并将实时的图像检测数据和实时的点云数据进行决策融合,获得融合后的目标图像数据和目标距离。获得融合后的目标图像数据和目标图像距离后,可以进行车辆行驶的协助控制,避免交通意外的发生。在本实施例中,决策融合指的是多个特征训练得到多个分类器,再对不同分类器加上权重,最终共同作用下得到一个目标判断结果。根据激光雷达所检测到的目标去匹配车载摄像头所检测到的目标,如果车载摄像头检测出某位置某个物体,而激光雷达也检测到了此距离的某个目标,此时激光雷达与车载摄像头实现了相互验证,此信息的可靠度得到提升。在本实施例中,可以预先设置图像检测数据的融合权重值和点云数据的融合权重值。车辆行驶过程中基于图像获得图像检测数据,包括目标的图像数据以及图像检测距离,同时,基于雷达点云数据获得目标的雷达数据以及雷达检测距离,根据预设的融合权重值,对获得的图像检测数据以及雷达的点云数据进行加权融合计算,获得融合后的目标图像数据和目标距离。进一步地,在每次目标检测获得融合后的目标数据和目标距离后,对车辆的行驶进行控制。具体地,根据融合后的目标距离确定是否存在距离小于或者等于预设距离阈值的对象目标,若存在,则执行减速提示或紧急制动。具体地,在本实施例中,可以预先一预设距离阈值1,当存在距离小于或等于预设距离阈值1的目标时,例如目标A的距离小于预设距离阈值1时,则通过语音等方式提示用户减速。在本实施例中,还可以预先设定一预设距离阈值2,当存在距离小于或等于预设距离阈值2的目标时,例如目标B的距离小于预设距离阈值2时,则发送紧急制动指令至制动系统,以使得制动系统进行紧急制动。
在本实施例中,在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。对车辆行驶过程中的图像检测数据和激光雷达的点云数据做决策融合,以融合后的目标图像数据和目标距离作为最终的目标检测结果,提高检测的精度与准确性。
此外,本发明实施例还提出一种计算机可读存储介质。
本发明计算机可读存储介质上存储有目标检测程序,所述目标检测程序被处理器执行时实现如上所述的目标检测方法的步骤。
其中,在所述处理器上运行的目标检测程序被执行时所实现的方法可参照本发明目标检测方法各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种目标检测方法,其特征在于,所述目标检测方法包括:
基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;
基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测;
其中,所述基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型的步骤包括:
根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
2.如权利要求1所述的目标检测方法,其特征在于,所述图像检测数据至少包括目标的图像数据和对应目标的图像检测距离。
3.如权利要求2所述的目标检测方法,其特征在于,所述根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型的步骤包括:
将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
4.如权利要求1所述的目标检测方法,其特征在于,所述基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测的步骤之后包括:
在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
5.一种目标检测装置,其特征在于,所述目标检测装置至少包括存储器、处理器以及存储在所述存储器上的目标检测程序,所述目标检测程序被所述处理器执行时实现如下步骤:
基于利用标注数据训练的第一半监督学习模型对车载摄像头采集的区域图像进行图像检测,获得图像检测数据;
基于所述图像检测数据和激光雷达采集的点云数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型,以供基于所述第二半监督学习模型进行目标检测;
其中,所述目标检测程序被所述处理器执行时还实现以下步骤:
根据激光雷达采集的点云数据获得目标的雷达数据和对应目标的雷达检测距离;
根据目标的雷达数据和雷达检测距离以及所述图像检测数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
6.如权利要求5所述的目标检测装置,其特征在于,所述目标检测程序被所述处理器执行时还实现以下步骤:
将各个目标的图像数据和雷达数据进行关联,基于所述图像数据和所述雷达数据的关联关系将图像检测距离和雷达检测距离进行关联;
基于雷达检测距离对关联的图像检测距离进行校正,获得校正距离;
基于所述校正距离和对应的图像数据对所述第一半监督学习模型进行训练,获得第二半监督学习模型。
7.如权利要求5所述的目标检测装置,其特征在于,所述目标检测程序被所述处理器执行时还实现以下步骤:
在车辆行驶时利用所述车载摄像头采集前方区域图像,并利用所述激光雷达采集第二点云数据;
利用所述第二半监督学习模型对所述前方区域图像进行图像检测,获得第二图像检测数据;
将所述第二图像检测数据与所述第二点云数据进行决策融合,获得融合后的目标图像数据和目标距离。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有目标检测程序,所述目标检测程序被处理器执行时实现如权利要求1至4中任一项所述的目标检测方法的步骤。
CN201810554659.XA 2018-05-31 2018-05-31 目标检测方法、装置及计算机可读存储介质 Active CN108846336B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810554659.XA CN108846336B (zh) 2018-05-31 2018-05-31 目标检测方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810554659.XA CN108846336B (zh) 2018-05-31 2018-05-31 目标检测方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN108846336A CN108846336A (zh) 2018-11-20
CN108846336B true CN108846336B (zh) 2022-03-15

Family

ID=64211203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810554659.XA Active CN108846336B (zh) 2018-05-31 2018-05-31 目标检测方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN108846336B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008862B (zh) * 2019-03-22 2021-03-30 哈尔滨工业大学(深圳) 一种车辆目标检测方法及相关装置
US20200379471A1 (en) * 2019-06-03 2020-12-03 Byton North America Corporation Traffic blocking detection
CN110865421B (zh) * 2019-11-18 2022-04-15 北京百度网讯科技有限公司 自动驾驶业务模型训练方法、检测方法、装置和电子设备
CN111640300B (zh) * 2020-04-28 2022-06-17 武汉万集信息技术有限公司 一种车辆检测处理方法及装置
CN112766487A (zh) * 2021-01-08 2021-05-07 浙江大华技术股份有限公司 一种目标检测模型的更新方法及服务器

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107104971A (zh) * 2017-05-03 2017-08-29 哈尔滨工业大学 一种基于激光雷达和视频的联合监控方法、装置及系统
CN107202983A (zh) * 2017-05-19 2017-09-26 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4967666B2 (ja) * 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
US8355539B2 (en) * 2007-09-07 2013-01-15 Sri International Radar guided vision system for vehicle validation and vehicle motion characterization
CN102542843A (zh) * 2010-12-07 2012-07-04 比亚迪股份有限公司 防止车辆碰撞的预警方法及装置
CN103176185B (zh) * 2011-12-26 2015-01-21 上海汽车集团股份有限公司 用于检测道路障碍物的方法及系统
JP6361366B2 (ja) * 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
CN107741231B (zh) * 2017-10-11 2020-11-27 福州大学 一种基于机器视觉的多运动目标快速测距方法
CN107909100A (zh) * 2017-11-10 2018-04-13 广州视源电子科技股份有限公司 确定距离的方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107104971A (zh) * 2017-05-03 2017-08-29 哈尔滨工业大学 一种基于激光雷达和视频的联合监控方法、装置及系统
CN107202983A (zh) * 2017-05-19 2017-09-26 深圳佑驾创新科技有限公司 基于图像识别和毫米波雷达融合的自动刹车方法和系统

Also Published As

Publication number Publication date
CN108846336A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN108846336B (zh) 目标检测方法、装置及计算机可读存储介质
CN108052624B (zh) 点云数据处理方法、装置及计算机可读存储介质
US10803323B2 (en) Electronic device and method of detecting driving event of vehicle
US11282389B2 (en) Pedestrian detection for vehicle driving assistance
US10495753B2 (en) Video to radar
JP6364049B2 (ja) 点群データに基づく車両輪郭検出方法、装置、記憶媒体およびコンピュータプログラム
CN107944351B (zh) 图像识别方法、装置及计算机可读存储介质
CN108419446B (zh) 用于激光深度图取样的系统及方法
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP2019533209A (ja) 運転者監視のためのシステム及び方法
CN111797657A (zh) 车辆周边障碍检测方法、装置、存储介质及电子设备
KR20180042254A (ko) 오브젝트 추적을 위한 시스템들 및 방법들
US11373410B2 (en) Method, apparatus, and storage medium for obtaining object information
CN109977845B (zh) 一种可行驶区域检测方法及车载终端
US11295142B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN111989915B (zh) 用于图像中的环境的自动视觉推断的方法、介质、及系统
CN112078571B (zh) 自动泊车方法、设备、存储介质及装置
CN113205515B (zh) 目标检测方法、装置、及计算机存储介质
US20210382560A1 (en) Methods and System for Determining a Command of an Occupant of a Vehicle
WO2018052714A2 (en) Video to radar
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
CN116453109A (zh) 3d目标检测方法、装置、设备及存储介质
CN108881846B (zh) 信息融合方法、装置及计算机可读存储介质
KR101658089B1 (ko) 차선 유지 제어를 위한 차선 중심 추정 방법 및 그 장치
CN110852220B (zh) 人脸表情的智能识别方法、终端和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant