CN112347851B - 多目标检测网络的构建方法、多目标检测方法及装置 - Google Patents

多目标检测网络的构建方法、多目标检测方法及装置 Download PDF

Info

Publication number
CN112347851B
CN112347851B CN202011068579.7A CN202011068579A CN112347851B CN 112347851 B CN112347851 B CN 112347851B CN 202011068579 A CN202011068579 A CN 202011068579A CN 112347851 B CN112347851 B CN 112347851B
Authority
CN
China
Prior art keywords
network
target detection
visual
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011068579.7A
Other languages
English (en)
Other versions
CN112347851A (zh
Inventor
徐艺
高善尚
朱若瑜
王玉琼
桑晓青
孙峰
刘灿昌
刘秉政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Technology
Original Assignee
Shandong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Technology filed Critical Shandong University of Technology
Priority to CN202011068579.7A priority Critical patent/CN112347851B/zh
Publication of CN112347851A publication Critical patent/CN112347851A/zh
Application granted granted Critical
Publication of CN112347851B publication Critical patent/CN112347851B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种多目标检测网络的构建方法、多目标检测方法及装置,包括:采集目标对象的双目信息和模拟驾驶环境的环境信息;基于双目信息和环境信息,建立视觉检索区域子网络;其中,视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和第一核心区域对应的第一区域权重;基于双目信息和环境信息,建立视觉检索策略子网络;其中,视觉检索策略子网络用于确定真实驾驶场景中待视认对象的第一重要等级和第一视认顺序;基于视觉检索区域子网络和视觉检索策略子网络,构建多目标检测网络;其中,多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。本发明可以有效提高多目标检测的效率,以及提高多目标检测的准确度。

Description

多目标检测网络的构建方法、多目标检测方法及装置
技术领域
本发明涉及视觉识别技术领域,尤其是涉及一种多目标检测网络的构建方法、多目标检测方法及装置。
背景技术
随着智能交通系统研究的不断发展,面向多视认目标驾驶环境的多目标检测方法必将发挥更加重要的作用。目前,现有的多目标检测方法通常需要对道路上的待检测对象的整体进行识别,然而整体识别的复杂程度较高,导致多目标检测的效率较低,而且对于道路上被遮蔽的待检测对象,还存在检测精度较低的问题。
发明内容
有鉴于此,本发明的目的在于提供一种多目标检测网络的构建方法、多目标检测方法及装置,可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
第一方面,本发明实施例提供了一种多目标检测网络的构建方法,包括:采集目标对象的双目信息和模拟驾驶环境的环境信息;基于所述双目信息和所述环境信息,建立视觉检索区域子网络;其中,所述视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和所述第一核心区域对应的第一区域权重;基于所述双目信息和所述环境信息,建立视觉检索策略子网络;其中,所述视觉检索策略子网络用于确定所述真实驾驶场景中待视认对象的第一重要等级和第一视认顺序;基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络;其中,所述多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。
在一种实施方式中,所述基于所述双目信息和所述环境信息,建立视觉检索区域子网络的步骤,包括:基于所述双目信息和所述环境信息,确定所述目标对象的视线点信息;从所述视线点信息中提取目标视认点;利用聚类算法对所述目标视认点进行处理,得到所述目标视认点在所述模拟驾驶环境中所在的第二核心区域和所述第二核心区域对应的第二区域权重;基于所述模拟驾驶环境中的第二核心区域和所述第二核心区域对应的第二区域权重,建立视觉检索区域子网络。
在一种实施方式中,所述基于所述双目信息和所述环境信息,建立视觉检索策略子网络的步骤,包括:对所述双目信息进行多尺度几何分析和谐波分析,得到所述模拟驾驶环境中的待视认对象的第二重要等级;对所述目标视认点进行时域分析,得到所述模拟驾驶环境中的待视认对象的第二视认顺序;基于所述第二重要等级和所述第二视认顺序,建立视觉检索策略子网络。
在一种实施方式中,所述基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络的步骤,包括:根据预先建立的机器学习架构和所述视觉检索区域子网络,建立单目标检测网络;其中,所述机器学习架构是利用Fast R-CNN算法建立得到的;所述单目标检测网络用于检测所述真实驾驶场景中的待视认对象;基于所述单目标检测网络和所述视觉检索策略子网络,构建多目标检测网络。
在一种实施方式中,所述根据预先建立的机器学习架构和所述视觉检索区域子网络,建立单目标检测网络的步骤,包括:利用Petri网离散系统建模算法,基于所述视觉检索区域子网络,建立视觉检索网络库;其中,所述视觉检索网络库包括第二核心区域和所述第二核心区域对应的第二区域权重;利用所述视觉检索网络库对预先建立的机器学习架构进行训练,得到单目标检测网络。
在一种实施方式中,所述基于所述单目标检测网络和所述视觉检索策略子网络,构建多目标检测网络的步骤,包括:基于所述视觉检索策略子网络,建立多目标检测层级架构;其中,所述多目标检测层级架构用于确定所述真实驾驶场景中的待视认对象的重要等级,并基于所述重要等级对所述真实驾驶场景中的待视认对象进行视认处理;结合所述单目标检测网络和所述多目标检测层级架构,得到目标检测网络。
第二方面,本发明实施例还提供一种多目标检测方法,包括:采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果;其中,所述多目标检测网络是基于如第一方面提供的任一项所述的方法构建得到的。
第三方面,本发明实施例还提供一种多目标检测网络的构建装置,包括:信息采集模块,用于采集目标对象的双目信息和模拟驾驶环境的环境信息;第一网络建立模块,用于基于所述双目信息和所述环境信息,建立视觉检索区域子网络;其中,所述视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和所述第一核心区域对应的第一区域权重;第二网络建立模块,用于基于所述双目信息和所述环境信息,建立视觉检索策略子网络;其中,所述视觉检索策略子网络用于确定所述真实驾驶场景中待视认对象的第一重要等级和第一视认顺序;检测网络建立模块,用于基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络;其中,所述多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。
第四方面,本发明实施例还提供一种多目标检测装置,包括:目标检测模块,用于采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果;其中,所述多目标检测网络是基于如第一方面提供的任一项所述的方法构建得到的。
第五方面,本发明实施例还提供一种电子设备,包括处理器和存储器;所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如第一方面提供的任一项所述的方法,或执行如第二方面提供的所述的方法。
第六方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面提供的任一项所述的方法的步骤,或,执行上述第二方面提供的所述的方法的步骤。
本发明实施例提供的一种多目标检测网络的构建方法及装置,首先采集目标对象的双目信息和模拟驾驶环境的环境信息,以分别基于双目信息和环境信息,建立用于从真实驾驶场景中确定第一核心区域和第一核心区域对应的第一区域权重的视觉检索区域子网络,和基于双目信息和环境信息,建立用于确定真实驾驶场景中待视认对象的第一重要等级和第一视认顺序的视觉检索策略子网络,进而基于视觉检索区域子网络和视觉检索策略子网络,构建多目标检测网络,其中,多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。上述方法基于采集的双目信息和环境信息,分别建立视觉检索区域子网络和视觉检索策略子网络,进而建立得到多目标检测网络,本发明实施例基于第一核心区域、第一核心区域的区域权重、第一重要等级和第一视认顺序可以较好地对真实驾驶场景中的待视认对象进行识别,从而可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
本发明实施例提供的一种多目标检测方法及装置,采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果。上述方法利用具有较高检测效率和较高检测准确度的多目标检测网络对真实驾驶场景汇总的待视认对象进行检测,可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种多目标检测网络的构建方法的流程示意图;
图2为本发明实施例提供的一种视觉检索区域子网络的架构示意图;
图3为本发明实施例提供的一种建立视觉检索区域子网络的过程示意图;
图4为本发明实施例提供的一种视觉检索策略子网络的架构示意图;
图5为本发明实施例提供的一种建立视觉检索策略子网络的过程示意图;
图6为本发明实施例提供的一种建立机器学习架构的过程示意图;
图7为本发明实施例提供的一种多目标检测网络的构建方法的框架示意图;
图8为本发明实施例提供的一种多目标检测方法的流程示意图;
图9为本发明实施例提供的一种多目标检测网络的构建装置的结构示意图;
图10为本发明实施例提供的一种多目标检测装置的结构示意图;
图11为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,现有的多目标检测方法存在检测效率较低和检测准确度较低的问题,诸如,相关技术公开了一种利用毫米波雷达的多目标检测方法,对接收的FMCW(FrequencyModulated Continuous Wave,调频连续波)和CW(continuous wave,连续多普勒)的波形信号进行傅里叶变换后,采用频率聚类算法分别对2个波形进行相关处理,对目标的检测结果有较高的准确性;相关技术公开了一种基于格雷互补波形的多目标检测方法,对于检测场景中获得的雷达信号,使用标准匹配滤波方法和二项式设计匹配滤波方法分别获得模糊函数图像,两者进行互补优化为一幅模糊函数图像,具有较高的多普勒分辨率和较低的漏检率;相关技术公开了一种基于上下文信息的多目标检测方法,该方法针对目标本身信息不足问题,借助于摄像机获取的图片或视频中来自于目标外的相关信息,为目标检测提供辅助信息,提高了多目标检测的准确性;相关技术公开了一种基于高层场景信息的地面运动目标检测方法,在使用帧间差分法提取初步目标检测结果的基础上,计算每个点的光流矢量实现对目标的光流关联,去除部分虚警,最后利用场景的高层信息基本矩阵F判断运动点和背景点,去除了大量的虚警。上述方法虽然能够实现多目标检测,但是均存在检测效率较低和检测准确度较低的问题,并且,上述对视觉检索机制的研究多仅停留在驾驶行为分析和驾驶意图预测层面,而面向环境感知的视觉检索机制应用研究较少,以驾驶人视觉检索机制为指导的环境感知方法仍有较大的优化空间。基于此,本发明实施提供了一种多目标检测网络的构建方法、多目标检测方法及装置,可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种多目标检测网络的构建方法进行详细介绍,参见图1所示的一种多目标检测网络的构建方法的流程示意图,该方法主要包括以下步骤S102至步骤S108:
步骤S102,采集目标对象的双目信息和模拟驾驶环境的环境信息。其中,双目信息可以包括诸如瞬目反射信息、瞳孔直径信息、视线位置信息或注视时间信息等,环境信息也即模拟驾驶环境的影像信息。
步骤S104,基于双目信息和环境信息,建立视觉检索区域子网络。其中,视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和第一核心区域对应的第一区域权重,第一核心区域可以理解为真实驾驶场景中各个邻近视认点间的距离小于一定阈值的视认点集合所在的区域,第一核心区域对应的第一区域权重可以用于表征该第一核心区域的重要程度。
在一种实施方式中,可以基于双目信息和环境信息确定目标视认点,通过对目标视认点进行聚类处理可以得到多个视认点集合,进而将各个视认点集合所在的区域分别确定为模拟驾驶环境中的第二核心区域;并且对于每个第二核心区域,基于该第二核心区域内所包含的视线点信息的密度,确定该第二核心区域的区域权重,进而基于模拟驾驶环境中的第二核心区域和第二核心区域对应的第二区域权重,建立视觉检索区域子网络,以通过视觉检索区域子网络从真实驾驶场景中确定第一核心区域和第一核心区域对应的第一区域权重。其中,视线点是指目标对象的视线与驾驶场景显示平面的交点,视认点是指目标对象视线与驾驶场景显示平面的交点且注视持续时间大于设定阈值的视线点。
步骤S106,基于双目信息和环境信息,建立视觉检索策略子网络。其中,视觉检索策略子网络用于确定真实驾驶场景中待视认对象的第一重要等级和第一视认顺序,第一重要等级用于表征真实驾驶场景中待视认对象的重要程度,第一视认顺序用于表征目标对象在真实驾驶场景中观察各个待视认对象的顺序。在一种实施方式中,可以对基于双目信息和环境信息得到的目标视认点进行时域分析,得到模拟驾驶环境中的待视认对象的第二视认顺序;还可以对双目信息进行多尺度几何分析和谐波分析,得到模拟驾驶环境中的待视认对象的第二重要等级,从而基于模拟驾驶环境中待视认对象的第二重要等级和第二视认顺序,建立视觉检索策略子网络,利用视觉检索策略子网络以确定真实驾驶场景中待视认对象的第一重要等级和第一视认顺序。
步骤S108,基于视觉检索区域子网络和视觉检索策略子网络,构建多目标检测网络。其中,多目标检测网络用于对真实驾驶场景中的待视认对象进行检测,在一种实施方式中,可以预先建立机器学习架构,并利用视觉检索子网络对机器学习架构进行训练,从而基于训练后的机器学习架构和视觉检索策略子网络构建多目标检测网络。
本发明实施例提供的上述多目标检测网络的构建方法,基于采集的双目信息和环境信息,分别建立视觉检索区域子网络和视觉检索策略子网络,进而建立得到多目标检测网络,本发明实施例基于第一核心区域、第一核心区域的区域权重、第一重要等级和第一视认顺序可以较好地对真实驾驶场景中的待视认对象进行识别,从而可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
在实际应用中,上述方法可应用于驾驶模拟器,驾驶模拟器为模拟驾驶环境的实验装置,包括实验轿车、眼动仪和模拟器屏幕,眼动仪又包括场景相机和眼动相机。在一种实施方式中,可以通过眼动仪同步采集双目信息和环境信息。在实际应用中,可以通过使用模拟器屏幕显示多视认目标的模拟驾驶环境;通过调换模拟器屏幕,采集目标对象在不同模拟驾驶环境下的双目信息和环境信息;通过给驾驶员下达指令,实现不同的驾驶任务;实验进行10次以上的信息采集,以保证信息的准确性。
本发明实施例中,上述视觉检索区域子网络是逐次针对单一视认目标,视觉检索策略子网络针对不同驾驶任务下包含多类视认目标的驾驶环境,为便于对视觉检索区域子网络和视觉检索策略子网络进行理解,本发明实施例分别提供了基于双目信息和环境信息建立视觉检索子网络和基于双目信息和环境信息建立视觉检索策略子网络的实施方式。
在上述驾驶模拟器的基础上,本发明实施例提供了一种基于双目信息和环境信息,建立视觉检索区域子网络的实施方式,参见如下步骤a1至步骤a4:
步骤a1,基于双目信息和环境信息,确定目标对象的视线点信息。其中,视线点信息也即目标对象实现与模拟驾驶环境显示平面的交点。
步骤a2,从视线点信息中提取目标视认点。其中,目标视认点也即注视持续时间大于预设阈值的视线点。在一种实施方式中,可将视线点信息划分为常规扫视视线点和目标视认点,可选的,统计一定时间t内目标对象眼睛的视线点落在模拟驾驶环境某区域内的次数为n,视线点出现频率为m=n/t,根据落在某目标区域内的视线点的出现频率m对视线点进行划分,设置视线点的出现频率阈值s,出现频率m>s的视线点划分为目标视认点,出现频率m≤s的视线点划分为常规扫视视线点。
步骤a3,利用聚类算法对目标视认点进行处理,得到目标视认点在模拟驾驶环境中所在的第二核心区域和第二核心区域对应的第二区域权重。其中,聚类算法可以采用基于DBSCAN(Density-Based Spatial Clustering of Applications with Noise)密度的聚类算法,基于DBSCAN密度的聚类算法是一种简单有效的基于密度的聚类算法,能在具有噪声的空间信息库中发现任意形状的簇。为便于对上述步骤a3进行理解,本发明实施例提供了一种确定聚类簇的实施方式,给定信息集D,若一个点簇可由其中的任何核心对象唯一确定,对于某一点簇中的对象,给定半径rE的邻域内信息对象个数必须大于给定值Mp,然后参见如下(1)至(5):
(1)确定rE邻域。给定信息对象p的rE邻域NEps(p),定义以p为核心,以rE为半径的球体区域,即:NEps(p)={q∈D|dist(p,q)≤rE},其中,dist(p,q)为给定信息集D中给定对象信息p与给定信息对象q的距离。
(2)确定核心点与边界点。对于信息对象p∈D,给定整数Mp,若p的rE邻域内对象个数满足|NEps(p)|≥Mp,则称p为核心点;落在核心点rE邻域内的非核心点对象定义为边界点。
(3)确定直接密度可达。给定rE与Mp,若给定对象信息p与给定信息对象q满足p∈NEps(p)或|NEps(p)|≥Mp,则称给定对象信息p与给定信息对象q出发直接密度可达。
(4)确定密度可达。给定信息集D,存在一个对象链pi(i=1,2,...,n,p1=q,pn=p),对于pi∈D,若在条件pi+1从pi直接密度可达,则称给定对象信息p与给定信息对象q密度可达。
(5)确定簇与噪声。由任意一个核心点对象开始,从该对象密度可达的所有对象构成一个聚类簇,不属于任何簇的对象为噪声。
步骤a4,基于模拟驾驶环境中的第二核心区域和第二核心区域对应的第二区域权重,建立视觉检索区域子网络。为便于对视觉检索区域子网络进行理解,本发明实施例提供了一种视觉检索区域子网络的架构示意图,如图2所示,通过驾驶模拟器设置一个只包含单一视认目标的模拟驾驶环境,将驾驶人在单一视认目标区域上的视线点位置信息作为信息集D,通过上述步骤a3对信息集D进行聚类分析(t1),将聚类簇所覆盖的区域作为待视认对象的各个第二核心区域A1、A2、A3,其中,第二核心区域的数量为不定值,然后根据第二核心区域内所包含的视线点的密度,对待视认对象的各个第二核心区域A1、A2、A3进行区域权重分配(t2),得到各个第二核心区域分别对应的第二区域权重B1、B2、B3,重复此过程,逐次对其他模拟驾驶环境中单一视认目标进行分析,构建出的一种对样本规模需求低的样本处理网络(也即,上述视觉检索区域子网络)。图2中,t1表示聚类分析过程,t2表示区域权重分配过程,A1、A2、A3表示多个第二核心区域,B1、B2、B3表示各个第二核心区域分别对应的第二区域权重。
为进一步对上述步骤a1至步骤a4所述的建立视觉检索区域子网络的方法进行理解,本发明实施例还提供了如图3所示的一种建立视觉检索区域子网络的过程示意图,如图3所示,建立动态坐标系以及在动态坐标系下不同时刻视线点分布,然后将视线点信息映射至同一动态坐标系,并对目标区域范围内的视线点信息进行空间位置分析,以及对目标区域范围内的视线点信息进行驻留时长分析确定长时间驻留视线点(也即上述目标视认点),利用聚类算法对长时间驻留视线点进行处理,得到多个第二核心区域(包括A1、A2、A3),并基于第二核心区域内所包含的视线点的密度对第二核心区域对应的第二区域权重(包括B1、B2、B3)进行分配,从而得到视觉检索区域子网络。
在上述驾驶模拟器的基础上,本发明实施例提供了一种基于双目信息和环境信息,建立视觉检索策略子网络的实施方式,参见如下步骤b1至步骤b3:
步骤b1,对双目信息进行多尺度几何分析和谐波分析,得到模拟驾驶环境中的待视认对象的第二重要等级。其中,多尺度几何分析方法是指使用小波变换分析方法。在一种实施方式中,可以对双目信息中的瞳孔直径信息进行多尺度几何分析,以及对双目信息中的瞬目反射信息进行谐波分析。可选的,多尺度几何分析方法是指使用小波变换分析方法,把采集到的驾驶员瞳孔直径信息分解在不同的尺度上,对采集到的双目信息进行不同精度拆分,深入剖析处理。峰值信息对应瞳孔变大时刻,将此时刻待视认对象作为重要对象,其余为常规对象。
本发明实施例提供了一种对双目信息中的瞳孔直径信息进行多尺度几何分析的实施方式,假设M(t)是采集到的瞳孔直径信息,该瞳孔直径信息的小波变换可表示成下列形式:
Figure BDA0002710986710000121
其中,
Figure BDA0002710986710000122
a>0,而
Figure BDA0002710986710000123
符合以下条件:
Figure BDA0002710986710000124
Figure BDA0002710986710000125
在此代表定义在有限区间里的小波函数,
Figure BDA0002710986710000126
为其在频域空间的转换函数,参数a是扩张函数,b是位移参数,它表示在时间轴上小波区段的位置。记变换后函数N(t)的峰值为Nmax。以一定时间T为周期将函数N(t)分为t个时间段,提取各个时间段的瞳孔直径信息并对其进行均值化处理,得到瞳孔直径均值信息
Figure BDA0002710986710000127
本发明实施例提供了一种对双目信息中的瞬目反射信息进行谐波分析的实施方式,对含p个分量的瞬目反射信息采样得到采样点的集合x(n),任取采样点的集合x(n)中N个瞬目反射信息,对其进行离散傅里叶变换后得到新的信息信号集X(k),公式为:
Figure BDA0002710986710000128
其中,(k=0,1,2,...,N-1),对傅里叶变换后得到的瞬目反射信息集合X(k)进行分析。以一定时间T为周期将函数X(k)分为t个时间段,提取各个时间段的眨眼持续时间(是指眼睛一次完全睁开到下一次完全睁开所经历的时间),并对眨眼持续时间进行均值处理,记眨眼时间均值为
Figure BDA0002710986710000129
然后基于瞳孔直径均值信息
Figure BDA00027109867100001210
和眨眼时间均值为
Figure BDA00027109867100001211
得到模拟驾驶环境中的待视认对象的第二重要等级,在一种具体的实施方式中,可以按照如下公式基于瞳孔直径均值信息和眨眼时间均值计算li
Figure BDA0002710986710000131
其中,n1=0.65,n2=0.35,li可以用于表征待视认对象的重要性,在一种可选的实施方式中,可以通过li的大小将其对应的待视认对象进行排序,得到模拟驾驶环境中的待视认对象的第二重要等级。
步骤b2,对目标视认点进行时域分析,得到模拟驾驶环境中的待视认对象的第二视认顺序。时域分析是指控制系统在视线点位置及注视时间这两个输入量的条件下,根据输出量的时域表达式,直观、准确地分析出待视认对象的第二视认顺序。本发明实施例提供了一种对目标视认点进行时域分析的具体实施方式,将驾驶人视线与模拟驾驶环境显示平面的交点作为驾驶人视线点位置。设某采样点对应时刻的视线方向向量分别为
Figure BDA0002710986710000132
其中,i=1,2,...,n,已知驾驶人与模拟驾驶环境显示平面间的水平距离为d,则其视线点位置坐标
Figure BDA0002710986710000133
采集注视持续时间大于预设阈值S时获取的目标的视线点位置(也即,上述目标视认点)。统计固定时间段内视线点位置坐标密集区域集合,根据时间的先后顺序,对视线点各个密集区域集合对应的待视认对象进行排序,得到模拟驾驶环境中的待视认对象的第二视认顺序。
步骤b3,基于第二重要等级和第二视认顺序,建立视觉检索策略子网络。在一种实施方式中,结合时域分析法分析目标视认点与不同待视认对象的相对位置关系,确定不同驾驶任务下对各待视认对象的第二视认顺序,最终根据第二重要等级和第二视认顺序构建出视觉检索策略子网络。为便于对视觉检索策略子网络进行理解,本发明实施例提供了一种视觉检索策略子网络的架构示意图,如图4所示,s1表示多尺度几何分析过程,s2表示谐波分析过程,s3表示时域分析过程,s4表示基于M1和N1得到第二重要等级的过程,s5表示基于S1和S2得到第二视认顺序的过程,M表示瞳孔直径信息,N表示瞬目反射信息,S表示目标视认点,M1表示M经多尺度几何分析得到的信息,N1表示N经谐波分析得到的信息,S1和S2表示S经时域分析得到的信息,L1、L2、L3表示不同的第二重要等级,K1、K2、K3表示第二视认顺序,Time1、Time2、Time3表示不同的视认时间。
基于上述图4,本发明实施例进一步提供了如图5所示的一种建立视觉检索策略子网络的过程示意图,对瞳孔直径信息进行多尺度几何分析以及对瞬目反射信息进行谐波分析,并结合认知神经学和认知心理学得到第二重要等级,对视线点信息进行视线点划分确定目标视认点,并对目标视认点进行时域分析,得到第二视认顺序,最终利用Petri网离散建模方法基于第二重要等级和第二视认顺序,建立视觉检索策略子网络。
为便于对上述步骤S108进行理解,本发明实施例还提供了一种基于视觉检索区域子网络和视觉检索策略子网络,构建多目标检测网络的实施方式,参见如下步骤1至步骤2:
步骤1,根据预先建立的机器学习架构和视觉检索区域子网络,建立单目标检测网络。其中,机器学习架构是利用Fast R-CNN算法建立得到的,Faster R-CNN算法是指通过区域建议网络来提取样本的候选区域,之后将候选区域输入到快速区域卷积神经网络提取特征,通过softmax分类函数来进行特征分类和多任务损失函数进行边框回归,建立前方车辆的单目标检测网络,将测试样本输入到单目标检测网络(可用于检测诸如行人、机动车、非机动车、标志标线等待视认对象),得到待视认对象的检测结果。单目标检测网络用于检测真实驾驶场景中的待视认对象。本发明实施例还提供了一种建立机器学习架构的实施方式,参见图6所示的一种建立机器学习架构的过程示意图,Faster R-CNN算法输入驾驶过程中通过场景相机获取的驾驶环境图像(也即,上述环境信息)后,通过ZF-Net特征提取网络对驾驶环境图像做特征提取,输出的特征图分为两部分被RPN(RegionProposal Network,区域候选网络)层和RoI pooling(感兴趣区域池化)层共享,其中一部分特征图经过RPN层生成具有3种不同的面积和3种宽高比的窗口,即在每个滑动位置产生k=9个基准矩形框。之后候选区域生成网络对于每个基准矩形框会输出4个修正参数tx、ty、tw、th,利用这4个修正参数对基准矩形框进行修正即可得出候选区域,下式为基准矩形框的修正式:
x=watx+xa、y=haty+ya、w=waexp(tw)、h=haexp(th)。
上式中,x,y,w,h分别表示候选区域的中心横坐标、中心纵坐标、宽度、高xa、ya、wa、ha分别表示基准矩形框的中心横坐标、中心纵坐标、宽度、高度。
候选区域生成网络的损失函数一个多任务损失函数,通过该多任务损失函数将候选区域的类别置信度和修正参数的训练任务统一起来。下式为候选区域生成网络的损失函数:
Figure BDA0002710986710000151
上式中,i是基准框的序号,pi是第i个基准框内包含待测目标的预测置信度,pi *是第i个基准框的标签,pi *=1代表第i个基准框内包含待测目标,pi *=0代表第i个基准框内不包含待测目标,ti是基准框的预测修正参数,ti *是基准框相对于目标标签框的修正参数,λ用于调节两个子损失函数的相对重要程度,设λ=10。Lcls表示目标与非目标对数损失,Lreg是包含待测目标锚点边框的回归损失,Lreg(ti,ti *)=smoothL1是鲁棒回归损失函数,如下式所示:
Figure BDA0002710986710000152
将候选区域投影到另一部分的特征图上共同输入RoI Pooling层,通过RoIPooling层将候选区域所包含的特征池化成大小、形状相同的特征图;然后使用全连接层输出候选区域对应各个类别的分数和修正参数,最后利用Softmax Loss(探测分类概率)和smoothL1损失(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练,输出候选区域对应的目标类别及其置信度与边界框的修正参数。
在一种实施方式中,可按照如下步骤1.1至步骤1.2执行根据预先建立的机器学习架构和视觉检索区域子网络,建立单目标检测网络的步骤:
步骤1.1,利用Petri网离散系统建模算法,基于视觉检索区域子网络,建立视觉检索网络库。其中,视觉检索网络库包括第二核心区域和第二核心区域对应的第二区域权重,视觉检索网络库是指驾驶任务下具有各待视认对象的核心区域的集合,是对待视认对象进行决策分析的基础依据。
步骤1.2,利用视觉检索网络库对预先建立的机器学习架构进行训练,得到单目标检测网络。本发明实施例提取核心区域建立视觉检索网络库,以该视觉检索网络库作为训练样本,对机器学习架构进行训练,降低了样本整体规模需求,提高了对待视认对象的感知精度和响应速度。
本发明实施例基于视觉检索区域子网络构建视觉检索网络库,并以之为目标识别机制结合机器学习架构,构建出的一种优化的仿视觉检索的单目标检测方法,对被遮蔽目标具有较高的检测精度和检测速度的一种检测方法。
步骤2,基于单目标检测网络和视觉检索策略子网络,构建多目标检测网络。在一种实施方式中,可按照如下步骤2.1至步骤2.2执行基于单目标检测网络和视觉检索策略子网络,构建多目标检测网络的步骤:
步骤2.1,基于视觉检索策略子网络,建立多目标检测层级架构。其中,多目标检测层级架构用于确定真实驾驶场景中的待视认对象的重要等级,并基于重要等级对真实驾驶场景中的待视认对象进行视认处理。本发明实施例面向不同驾驶任务下的多视认目标环境,根据视觉检索策略子网络,建立一种仿视觉检索的多目标检测层级架构,该架构能对重要目标和常规目标进行不同程度的识别处理。
步骤2.2,结合单目标检测网络和多目标检测层级架构,得到目标检测网络。在一种实施方式中,将仿视觉检索的单目标检测方法作为检测功能节点,置于仿视觉检索策略的多目标检测层级架构中,建立一种仿视觉检索机制的多目标检测网络。
为便于对上述实施例提供的多目标检测网络的构建方法进行理解,本发明实施例还提供了一种多目标检测网络的构建方法的应用实例,参见图7所示的一种多目标检测网络的构建方法的框架示意图,首先采集信息(包括双目信息和环境信息);然后基于采集到的信息确定目标视线点(也即,上述目标视认点),利用DBSCAN算法确定核心区域,并进一步对各个核心区域进行区域区域权重划分,然后利用Petri网算法基于核心区域和区域区域权重划分构建视觉检索区域子网络,进而得到视觉检索网络库,此时结合预先建立的机器学习架构,利用Fast R-CNN算法建立单目标检测网络;同时,基于采集到的信息中的瞳孔直径、瞬目反射进行重要性分级(也即,上述第二重要等级),以及基于采集到的信息中的视线位置和注视时间确定视认顺序,并利用Petri网算法基于重要性分级和视认顺序建立视觉检索子网络,进而得到视认层级架构(也即,上述多目标检测层级架构),最终基于单目标检测网络和视认层级架构,得到多目标检测网络。
综上所述,本发明实施例提供的上述多目标检测网络的构建方法,至少具有以下特点:
(1)提取核心区域建立视觉检索网络库,以该视觉检索网络库作为训练样本,降低了样本整体规模需求,提高了对待视认对象的感知精度和响应速度。
(2)以视觉检索网络库作为训练样本结合机器学习方法构建一种优化的单目标检测方法,有效提高被遮蔽目标检测精度,实质性地提高了目标感知效率。
(3)提出的视觉检索策略,可使智能车对于复杂环境下多视认目标的反应更加真实准确,可以确定重要目标,减少需持续跟踪目标的数量,从而缩短复杂环境感知所需的时间,提高了感知效率,使智能车在复杂的多目标环境下的行驶更为安全可靠。
基于上述实施例提供的多目标检测网络的构建方法,本发明实施例还提供了一种多目标检测方法,参见图8所示的一种多目标检测方法的流程示意图,该方法主要包括:步骤S802,采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果。其中,多目标检测网络是基于如前述实施例提供的多目标检测网络的构建方法构建得到的。具体可参见前述实施例,本发明实施例对此不进行限制。
本发明实施例提供的上述多目标检测方法,利用具有较高检测效率和较高检测准确度的多目标检测网络对真实驾驶场景汇总的待视认对象进行检测,可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
对于上述实施例提供的多目标检测网络的构建方法,本发明实施例提供了一种多目标检测网络的构建装置,参见图9所示的一种多目标检测网络的构建装置的结构示意图,该装置主要包括以下部分:
信息采集模块902,用于采集目标对象的双目信息和模拟驾驶环境的环境信息。
第一网络建立模块904,用于基于双目信息和环境信息,建立视觉检索区域子网络;其中,视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和第一核心区域对应的第一区域权重。
第二网络建立模块906,用于基于双目信息和环境信息,建立视觉检索策略子网络;其中,视觉检索策略子网络用于确定真实驾驶场景中待视认对象的第一重要等级和第一视认顺序。
检测网络建立模块908,用于基于视觉检索区域子网络和视觉检索策略子网络,构建多目标检测网络;其中,多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。
本发明实施例提供的上述多目标检测网络的构建装置,基于采集的双目信息和环境信息,分别建立视觉检索区域子网络和视觉检索策略子网络,进而建立得到多目标检测网络,本发明实施例基于第一核心区域、第一核心区域的区域权重、第一重要等级和第一视认顺序可以较好地对真实驾驶场景中的待视认对象进行识别,从而可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
在一种实施方式中,第一网络建立模块904还用于:基于双目信息和环境信息,确定目标对象的视线点信息;从视线点信息中提取目标视认点;利用聚类算法对目标视认点进行处理,得到目标视认点在模拟驾驶环境中所在的第二核心区域和第二核心区域对应的第二区域权重;基于模拟驾驶环境中的第二核心区域和第二核心区域对应的第二区域权重,建立视觉检索区域子网络。
在一种实施方式中,第二网络建立模块906还用于:对双目信息进行多尺度几何分析和谐波分析,得到模拟驾驶环境中的待视认对象的第二重要等级;对目标视认点进行时域分析,得到模拟驾驶环境中的待视认对象的第二视认顺序;基于第二重要等级和第二视认顺序,建立视觉检索策略子网络。
在一种实施方式中,检测网络建立模块908还用于:根据预先建立的机器学习架构和视觉检索区域子网络,建立单目标检测网络;其中,机器学习架构是利用Fast R-CNN算法建立得到的;单目标检测网络用于检测真实驾驶场景中的待视认对象;基于单目标检测网络和视觉检索策略子网络,构建多目标检测网络。
在一种实施方式中,检测网络建立模块908还用于:利用Petri网离散系统建模算法,基于视觉检索区域子网络,建立视觉检索网络库;其中,视觉检索网络库包括第二核心区域和第二核心区域对应的第二区域权重;利用视觉检索网络库对预先建立的机器学习架构进行训练,得到单目标检测网络。
在一种实施方式中,检测网络建立模块908还用于:基于视觉检索策略子网络,建立多目标检测层级架构;其中,多目标检测层级架构用于确定真实驾驶场景中的待视认对象的重要等级,并基于重要等级对真实驾驶场景中的待视认对象进行视认处理;结合单目标检测网络和多目标检测层级架构,得到目标检测网络。
对于前述实施例提供的多目标检测方法,本发明实施例提供了一种多目标检测装置,参见图10所示的一种多目标检测装置的结构示意图,该装置主要包括以下部分:目标检测模块1002,用于采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果;其中,多目标检测网络是基于如前述实施例提供的任一项的多目标检测网络的构建方法构建得到的。
本发明实施例提供的上述多目标检测装置,利用具有较高检测效率和较高检测准确度的多目标检测网络对真实驾驶场景汇总的待视认对象进行检测,可以有效提高多目标检测的效率,以及提高多目标检测的准确度。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例提供了一种电子设备,具体的,该电子设备包括处理器和存储装置;存储装置上存储有计算机程序,计算机程序在被所述处理器运行时执行如上所述实施方式的任一项所述的方法。
图11为本发明实施例提供的一种电子设备的结构示意图,该电子设备100包括:处理器110,存储器111,总线112和通信接口113,所述处理器110、通信接口113和存储器111通过总线112连接;处理器110用于执行存储器111中存储的可执行模块,例如计算机程序。
本发明实施例所提供的可读存储介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见前述方法实施例,在此不再赘述。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (11)

1.一种多目标检测网络的构建方法,其特征在于,包括:
确定目标对象的双目信息和模拟驾驶环境的环境信息;
基于所述双目信息和所述环境信息,建立视觉检索区域子网络;其中,所述视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和所述第一核心区域对应的第一区域权重;其中,所述第一核心区域为所述真实驾驶场景中各个邻近视认点间的距离小于阈值的视认点集合所在的区域;
基于所述双目信息和所述环境信息,建立视觉检索策略子网络;其中,所述视觉检索策略子网络用于确定所述真实驾驶场景中待视认对象的第一重要等级和第一视认顺序;
基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络;其中,所述多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。
2.根据权利要求1所述的方法,其特征在于,所述基于所述双目信息和所述环境信息,建立视觉检索区域子网络的步骤,包括:
基于所述双目信息和所述环境信息,确定所述目标对象的视线点信息;
从所述视线点信息中提取目标视认点;
利用聚类算法对所述目标视认点进行处理,得到所述目标视认点在所述模拟驾驶环境中所在的第二核心区域和所述第二核心区域对应的第二区域权重;
基于所述模拟驾驶环境中的第二核心区域和所述第二核心区域对应的第二区域权重,建立视觉检索区域子网络。
3.根据权利要求1所述的方法,其特征在于,所述基于所述双目信息和所述环境信息,建立视觉检索策略子网络的步骤,包括:
对所述双目信息进行多尺度几何分析和谐波分析,得到所述模拟驾驶环境中的待视认对象的第二重要等级;
对目标视认点进行时域分析,得到所述模拟驾驶环境中的待视认对象的第二视认顺序;
基于所述第二重要等级和所述第二视认顺序,建立视觉检索策略子网络。
4.根据权利要求1所述的方法,其特征在于,所述基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络的步骤,包括:
根据预先建立的机器学习架构和所述视觉检索区域子网络,建立单目标检测网络;其中,所述机器学习架构是利用Fast R-CNN算法建立得到的;所述单目标检测网络用于检测所述真实驾驶场景中的待视认对象;
基于所述单目标检测网络和所述视觉检索策略子网络,构建多目标检测网络。
5.根据权利要求4所述的方法,其特征在于,所述根据预先建立的机器学习架构和所述视觉检索区域子网络,建立单目标检测网络的步骤,包括:
利用Petri网离散系统建模算法,基于所述视觉检索区域子网络,建立视觉检索网络库;其中,所述视觉检索网络库包括第二核心区域和所述第二核心区域对应的第二区域权重;
利用所述视觉检索网络库对预先建立的机器学习架构进行训练,得到单目标检测网络。
6.根据权利要求4所述的方法,其特征在于,所述基于所述单目标检测网络和所述视觉检索策略子网络,构建多目标检测网络的步骤,包括:
基于所述视觉检索策略子网络,建立多目标检测层级架构;其中,所述多目标检测层级架构用于确定所述真实驾驶场景中的待视认对象的重要等级,并基于所述重要等级对所述真实驾驶场景中的待视认对象进行视认处理;
结合所述单目标检测网络和所述多目标检测层级架构,得到目标检测网络。
7.一种多目标检测方法,其特征在于,包括:
采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果;其中,所述多目标检测网络是基于如权利要求1-6任一项所述的方法构建得到的。
8.一种多目标检测网络的构建装置,其特征在于,包括:
信息采集模块,用于采集目标对象的双目信息和模拟驾驶环境的环境信息;
第一网络建立模块,用于基于所述双目信息和所述环境信息,建立视觉检索区域子网络;其中,所述视觉检索区域子网络用于从真实驾驶场景中确定第一核心区域和所述第一核心区域对应的第一区域权重;其中,所述第一核心区域为所述真实驾驶场景中各个邻近视认点间的距离小于阈值的视认点集合所在的区域;
第二网络建立模块,用于基于所述双目信息和所述环境信息,建立视觉检索策略子网络;其中,所述视觉检索策略子网络用于确定所述真实驾驶场景中待视认对象的第一重要等级和第一视认顺序;
检测网络建立模块,用于基于所述视觉检索区域子网络和所述视觉检索策略子网络,构建多目标检测网络;其中,所述多目标检测网络用于对真实驾驶场景中的待视认对象进行检测。
9.一种多目标检测装置,其特征在于,包括:
目标检测模块,用于采用多目标检测网络对目标对象所处的真实驾驶场景中的待视认对象进行检测,得到多目标检测结果;其中,所述多目标检测网络是基于如权利要求1-6任一项所述的方法构建得到的。
10.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至6任一项所述的方法,或执行如权利要求7所述的方法。
11.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至6任一项所述的方法的步骤,或,执行上述权利要求7所述的方法的步骤。
CN202011068579.7A 2020-09-30 2020-09-30 多目标检测网络的构建方法、多目标检测方法及装置 Active CN112347851B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011068579.7A CN112347851B (zh) 2020-09-30 2020-09-30 多目标检测网络的构建方法、多目标检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011068579.7A CN112347851B (zh) 2020-09-30 2020-09-30 多目标检测网络的构建方法、多目标检测方法及装置

Publications (2)

Publication Number Publication Date
CN112347851A CN112347851A (zh) 2021-02-09
CN112347851B true CN112347851B (zh) 2023-02-21

Family

ID=74361496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011068579.7A Active CN112347851B (zh) 2020-09-30 2020-09-30 多目标检测网络的构建方法、多目标检测方法及装置

Country Status (1)

Country Link
CN (1) CN112347851B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106446830A (zh) * 2016-09-21 2017-02-22 广州视源电子科技股份有限公司 智能辅助睡眠中的催眠状态识别方法和系统
CN108369780A (zh) * 2015-12-17 2018-08-03 马自达汽车株式会社 视觉认知援助系统以及视认对象物的检测系统
CN108549901A (zh) * 2018-03-12 2018-09-18 佛山市顺德区中山大学研究院 一种基于深度学习的快速迭代目标检测方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
JP2020126214A (ja) * 2019-02-05 2020-08-20 オムロン株式会社 情報処理装置及び情報処理方法
CN111626221A (zh) * 2020-05-28 2020-09-04 四川大学 一种基于人眼信息增强的驾驶员注视区域估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200074233A1 (en) * 2018-09-04 2020-03-05 Luminar Technologies, Inc. Automatically generating training data for a lidar using simulated vehicles in virtual space

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108369780A (zh) * 2015-12-17 2018-08-03 马自达汽车株式会社 视觉认知援助系统以及视认对象物的检测系统
CN106446830A (zh) * 2016-09-21 2017-02-22 广州视源电子科技股份有限公司 智能辅助睡眠中的催眠状态识别方法和系统
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN108549901A (zh) * 2018-03-12 2018-09-18 佛山市顺德区中山大学研究院 一种基于深度学习的快速迭代目标检测方法
JP2020126214A (ja) * 2019-02-05 2020-08-20 オムロン株式会社 情報処理装置及び情報処理方法
CN111626221A (zh) * 2020-05-28 2020-09-04 四川大学 一种基于人眼信息增强的驾驶员注视区域估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Event-Based Neuromorphic Vision for Autonomous Driving: A Paradigm Shift for Bio-Inspired Visual Sensing and Perception";Guang Chen 等;《IEEE Signal Processing Magazine》;20200630;第34-49页 *
"基于仿真技术的驾驶员标志视认安全性研究";刘博华;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20130115;全文 *

Also Published As

Publication number Publication date
CN112347851A (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
CN109284670B (zh) 一种基于多尺度注意力机制的行人检测方法及装置
CN110598736A (zh) 一种电力设备红外图像故障定位、识别与预测方法
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
WO2022134120A1 (zh) 基于目标活动预测的停车场管控方法、装置及电子设备
CN107985189B (zh) 面向高速驾驶环境下的驾驶员变道深度预警方法
CN114022830A (zh) 一种目标确定方法以及目标确定装置
CN105956632A (zh) 一种检测目标的方法和装置
CN114898319B (zh) 基于多传感器决策级信息融合的车型识别方法及系统
CN112634368A (zh) 场景目标的空间与或图模型生成方法、装置及电子设备
CN104915642A (zh) 前方车辆测距方法及装置
Qi et al. Small infrared target detection utilizing local region similarity difference map
CN111178178B (zh) 结合区域分布的多尺度行人重识别方法、系统、介质及终端
CN109829405A (zh) 视频目标的数据关联方法、装置及存储介质
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN115690545B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN117130010B (zh) 用于无人驾驶的障碍物感知方法、系统及无人驾驶汽车
CN114241448A (zh) 障碍物航向角的获取方法、装置、电子设备及车辆
CN116823884A (zh) 多目标跟踪方法、系统、计算机设备及存储介质
CN112949519A (zh) 目标检测方法、装置、设备及存储介质
CN112347851B (zh) 多目标检测网络的构建方法、多目标检测方法及装置
CN116935356A (zh) 基于弱监督的自动驾驶多模态图片和点云实例分割方法
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
CN114067359B (zh) 融合人体关键点与可见部位注意力特征的行人检测方法
CN115331162A (zh) 一种跨尺度红外行人检测方法、系统、介质、设备及终端
CN117949942B (zh) 基于雷达数据和视频数据融合的目标跟踪方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant