CN113516013B - 目标检测方法、装置、电子设备、路侧设备和云控平台 - Google Patents

目标检测方法、装置、电子设备、路侧设备和云控平台 Download PDF

Info

Publication number
CN113516013B
CN113516013B CN202110384001.0A CN202110384001A CN113516013B CN 113516013 B CN113516013 B CN 113516013B CN 202110384001 A CN202110384001 A CN 202110384001A CN 113516013 B CN113516013 B CN 113516013B
Authority
CN
China
Prior art keywords
angle
image
target detection
information
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110384001.0A
Other languages
English (en)
Other versions
CN113516013A (zh
Inventor
夏春龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Zhilian Beijing Technology Co Ltd
Original Assignee
Apollo Zhilian Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Zhilian Beijing Technology Co Ltd filed Critical Apollo Zhilian Beijing Technology Co Ltd
Priority to CN202110384001.0A priority Critical patent/CN113516013B/zh
Publication of CN113516013A publication Critical patent/CN113516013A/zh
Application granted granted Critical
Publication of CN113516013B publication Critical patent/CN113516013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开公开了目标检测方法、装置、电子设备、路侧设备和云控平台,涉及计算机技术领域,尤其涉及深度学习、智能交通等人工智能技术领域。具体实现方案为:获取待处理的图像;将所述图像输入预设的目标检测模型,以获取所述图像中各个对象的属性信息,其中,所述属性信息包括:位置信息、所属的角度范围、相对于所述角度范围内中心角度的偏差角度;针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息;根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。

Description

目标检测方法、装置、电子设备、路侧设备和云控平台
技术领域
本公开涉及计算机技术领域,特别涉及深度学习、智能交通等人工智能技术领域,尤其涉及目标检测方法、装置、电子设备、路侧设备和云控平台。
背景技术
人工智能(Artificial Intelligence,简称AI),是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
随着深度学习的发展,目标检测技术成为智能安防、家居、无人驾驶等领域不可或缺的关键技术,提高目标检测结果的准确性,对于例如无人驾驶领域的轨迹预测等任务来说是十分重要和必要的。
发明内容
本公开提供了一种目标检测方法、装置、电子设备、存储介质、计算机程序产品、路侧设备和云控平台。
根据本公开的一方面,提供了一种目标检测方法,包括:获取待处理的图像;将所述图像输入预设的目标检测模型,以获取所述图像中各个对象的属性信息,其中,所述属性信息包括:位置信息、所属的角度范围、相对于所述角度范围内中心角度的偏差角度;针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息;根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果。
根据本公开的另一方面,提供了一种目标检测装置,包括:第一获取模块,用于获取待处理的图像;第二获取模块,用于将所述图像输入预设的目标检测模型,以获取所述图像中各个对象的属性信息,其中,所述属性信息包括:位置信息、所属的角度范围、相对于所述角度范围内中心角度的偏差角度;第一确定模块,用于针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息;生成模块,用于根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的目标检测方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的目标检测方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据如上所述的目标检测方法。
根据本公开的另一方面,提供了一种路侧设备,包括如上所述的电子设备。
根据本公开的另一方面,提供了一种云控平台,包括如上所述的电子设备。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的目标检测方法的流程示意图;
图2是根据本公开第二实施例的目标检测方法的流程示意图;
图3是根据本公开第三实施例的目标检测方法的流程示意图;
图4是根据本公开第四实施例的目标检测装置的结构示意图;
图5是根据本公开第五实施例的目标检测装置的结构示意图;
图6是用来实现本公开实施例的目标检测方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
可以理解的是,随着深度学习的发展,目标检测技术成为智能安防、家居、无人驾驶等领域不可或缺的关键技术,提高目标检测结果的准确性,对于例如无人驾驶领域的轨迹预测等任务来说是十分重要和必要的。
本公开为了提高目标检测结果的准确性,提出一种目标检测方法,该目标检测方法,首先获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
本申请实施例涉及深度学习、智能交通等人工智能技术领域。
其中,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
智能交通,是将科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造。
下面参考附图描述本公开实施例的目标检测方法、装置、电子设备、非瞬时计算机可读存储介质、计算机程序产品、路侧设备、以及云控平台。
首先结合图1,对本公开提供的目标检测方法进行详细描述。
图1是根据本公开第一实施例的目标检测方法的流程示意图。其中,需要说明的是,本实施例提供的目标检测方法,由目标检测装置执行,其中,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等,以提高目标检测结果的准确性。
其中,电子设备,可以是任意能够进行数据处理的计算设备,例如笔记本电脑、智能手机、可穿戴设备等计算设备,本公开对此不作限制。
如图1所示,目标检测方法,可以包括以下步骤:
步骤101,获取待处理的图像。
其中,待处理的图像,可以是目标检测装置所在的电子设备中的摄像设备拍摄得到的,也可以是目标检测装置从其它设备获取的,本申请对此不作限制。
比如,待处理的图像,可以是道路路口的摄像设备拍摄得到的图像,道路路口的摄像设备拍摄得到图像后,可以将图像发送至目标检测装置,从而目标检测装置可以获取到待处理的图像。
步骤102,将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度。
其中,图像中各个对象,即为图像中的各检测目标。某个对象的位置信息,用于表征该对象的实际位置,其可以包括图像中该对象的矩形包围框的中心点的坐标、矩形包围框的宽度、高度等信息。
在示例性实施例中,可以预先将图像中各个对象的实际角度的取值范围,划分为多个角度范围,并且预先确定各个角度范围内的中心角度。其中,某个角度范围内的中心角度,可以理解为将该角度范围内的各角度值按照角度值从大到小或者从小到大排序后,位于中间位置的角度值。某个对象所属的角度范围,即为该对象的实际角度所属的角度范围,其为预先确定的各角度范围中的一个;对象的相对于角度范围内中心角度的偏差角度,即为该对象的实际角度与该对象所属的角度范围内中心角度的偏差角度。
其中,各个对象的实际角度,可以为各个对象的矩形包围框的任意一个边与预设坐标轴的夹角。
其中,预设坐标轴,可以根据需要设置,比如可以以拍摄图像的摄像设备的光心为原点建立三维坐标系,预设坐标轴可以是三维坐标系中的X轴,或者Y轴。
需要说明的是,在指定将对象的矩形包围框的某个边与预设坐标轴的夹角作为对象的实际角度后,该边不再进行切换,即后续确定对象所属的角度范围、以及相对于角度范围内中心角度的偏差角度、对象的角度信息等时所指的对象的实际角度,均为矩形包围框的该边与预设坐标轴的夹角。
举例来说,假设对象的实际角度,为对象的矩形包围框的长边与预设坐标轴的夹角,对象的实际角度的取值范围为-90度到90度,即[-90,90],可以将[-90,90]划分为4个角度范围,这4个角度范围分别为[-90,-45]、[-45,0]、[0,45]、[45,90],并且,可以确定这4个角度范围内中心角度分别为-67.5度、-22.5度、22.5度、67.5度。则获取的待处理的图像中对象A的所属的角度范围例如可以为[0,45],且对象A的实际角度相对于该角度范围内中心角度的偏差角度例如可以为5度,对象B的所属的角度范围例如可以为[-90,-45],且对象B的实际角度相对于该角度范围内中心角度的偏差角度例如可以为10度。
在示例性实施例中,可以预先训练目标检测模型,目标检测模型的输入为图像,输出为图像中各个对象的属性信息,其中,属性信息包括位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,从而将待处理的图像输入训练好的目标检测模型,即可获取待处理的图像中各个对象的位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度。
其中,目标检测模型,可以是任意能够实现目标检测的模型,比如SSD(SingleShot MultiBox Detector,单镜头多盒检测器)、CenterNet检测模型等,本申请对目标检测模型的类型和结构等不作限制。
需要说明的是,将图像输入预设的目标检测模型,获取的图像中各个对象的属性信息,还可以包括各个对象的类别信息,比如对象为人、树、车等,另外,还可以获取输出结果的置信度等信息,本申请对此不作限制。
步骤103,针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息。
其中,对象的角度信息,即本申请实施例中预测到的对象的实际角度。
步骤104,根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。
在示例性实施例中,获取图像中各个对象的位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度后,即可针对每个对象,根据对象所属的角度范围以及相对于角度范围内中心角度的偏差角度,确定对象的角度信息,从而可以根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。
可以理解的是,相关技术中,目标检测模型的输出为图像中各对象的角度值,目标检测过程相当于一个角度值的回归任务,这种方式在进行目标检测模型的训练时,目标检测模型需要回归各对象的角度值,而角度值的取值范围跨度很大,易出现目标检测模型的训练过程不稳定的情况,从而导致训练好的目标检测模型的角度预测精度差。而本申请实施例中,由于将各对象的实际角度的取值范围划分为多个角度范围,目标检测模型确定图像中各对象所属的角度范围的过程相当于分类问题,针对每个类别中心又做了一次回归预测,在回归预测时目标检测模型只需回归各对象的实际角度相对于所属角度范围内中心角度的偏差角度,而偏差角度的取值范围跨度小,从而使得目标检测模型的训练过程更稳定,从而提高了目标检测模型的角度预测精度,进而提高了利用目标检测模型进行目标检测时的检测结果的准确性。
本公开实施例提供的目标检测方法,获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
下面结合图2,对本公开提供的目标检测方法进一步说明。
图2是根据本公开第二实施例的目标检测方法的流程示意图。如图2所示,目标检测方法,可以包括以下步骤:
步骤201,获取待处理的图像。
步骤202,将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度。
其中,步骤201-202的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
在示例性实施例中,可以预先将图像中各个对象的实际角度的取值范围,划分为多个角度范围,并且预先确定各个角度范围内的中心角度。某个对象所属的角度范围,即为该对象的实际角度所属的角度范围,其为预先确定的各角度范围中的一个;对象的相对于角度范围内中心角度的偏差角度,即为该对象的实际角度与该对象所属的角度范围内中心角度的偏差角度。
其中,各个对象的实际角度,可以为各个对象的矩形包围框的第一边与X轴的夹角。
其中,第一边,可以为各个对象的矩形包围框的任一边。X轴,可以为以拍摄图像的摄像设备的光心为原点建立的三维坐标系即相机坐标系中的X轴。
相应的,在示例性实施例中,可以先确定图像中各个对象的第一边与X轴的夹角的取值范围,再对夹角的取值范围进行划分,得到多个角度范围。
其中,对夹角的取值范围的划分方式,可以根据需要任意设置,本申请对此不作限制。
比如,采用目标检测技术中的180度定义法时,第一边,为各个对象的矩形包围框的长边,夹角的取值范围为[-90,90],可以设置将该取值范围划分为4个角度范围,这4个角度范围分别为[-90,-45]、[-45,0]、[0,45]、[45,90],或者,也可以将该取值范围划分为8个角度范围,这8个角度范围分别为[-90,-67.5]、[-67.5,-45]、[-45,-22.5]、[-22.5,0][0,22.5]、[22.5,45]、[45,67.5]、[67.5,90]。
通过将对象的角度信息确定为对象的第一边与X轴的夹角,并将夹角的取值范围划分为多个角度范围,可以使得训练目标检测模型时,只需确定图像中各对象所属的角度范围,并回归各对象的第一边与X轴的夹角相对于所属角度范围内中心角度的偏差角度,而偏差角度的取值范围跨度小,从而使得目标检测模型的训练过程更稳定。
可以理解的是,由于将对象的第一边与X轴的夹角的取值范围划分为多个角度范围,那么,对于各个角度范围之间的临近角度,在回归时可能出现跳变的情况,不利于目标检测模型的学习,在示例性实施例中,为了避免上述情况,可以在对对象的第一边与X轴的夹角的取值范围进行划分后,为每个角度范围增加一定角度的缓冲。
具体的,可以对对象的第一边与X轴的夹角的取值范围进行划分,再对划分得到的每个角度范围的最小值进行减预设角度值处理,且对划分得到的每个角度范围的最大值进行加预设角度处理后,从而得到多个角度范围。
举例来说,假设预设角度为5度,对象的第一边与X轴的夹角的取值范围为[-90,90],可以在将取值范围划分为[-90,-45]、[-45,0]、[0,45]、[45,90]这4个角度范围后,将每个角度范围的最小值减去5度,将每个角度范围的最大值加5度,从而得到[-95,-40]、[-50,5]、[-5,50]、[40,95]的4个最终的角度范围。
通过将角度范围设置为对对象的第一边与X轴的夹角的取值范围进行划分,且对划分得到的每个角度范围的最小值进行减预设角度值处理,且对划分得到的每个角度范围的最大值进行加预设角度处理后得到的角度范围,避免了各个角度范围之间的临近角度在回归时出现跳变的情况,从而使得目标检测模型可以更好的学习角度值处于各角度范围的临近角度的情况,进一步提高目标检测模型的性能,从而进一步提高利用目标检测模型进行目标检测时的检测结果的准确性。
在示例性实施例中,可以采用下述方法,训练得到预设的目标检测模型:
获取训练数据,其中,训练数据包括:样本图像,以及样本图像中各个对象的样本属性信息;
采用样本图像以及样本图像中各个对象的样本属性信息,对初始的目标检测模型进行训练,得到预设的目标检测模型。
其中,初始的目标检测模型,可以是任意能够实现目标检测的模型,比如SSD、CenterNet检测模型等,本公开对此不作限制。
其中,样本图像中各个对象的样本属性信息,可以包括样本图像中各个对象的位置信息、所属的角度范围、相对于所属角度范围内中心角度的偏差角度。
在示例性实施例中,采用样本图像以及样本图像中各个对象的样本属性信息,对初始的目标检测模型进行训练时,例如可以通过深度学习的方式进行训练,相比于其它机器学习方法,深度学习在大数据集上的表现更好。
通过深度学习的方式训练初始的目标检测模型时,可以先将训练数据中的一个样本图像作为输入,输入初始的目标检测模型,获取该样本图像中各个对象的属性信息,并结合该样本图像中各对象的样本属性信息,对初始的目标检测模型的模型参数进行调整,得到调整后的目标检测模型。再将训练数据中的另一样本图像作为输入,输入调整后的目标检测模型,获取该样本图像中各个对象的属性信息,并结合该样本图像中各个对象的样本属性信息,对调整后的目标检测模型的模型参数进行调整,得到进一步调整后的目标检测模型。由此,通过不断地调整初始的目标检测模型的模型参数对初始的目标检测模型进行迭代训练,直至目标检测模型输出的图像中各个对象的属性信息的准确率满足预先设定的阈值,训练结束,得到训练好的目标检测模型。进而即可利用训练好的目标检测模型对待处理的图像进行目标检测。
由于训练目标检测模型时,只需回归各对象的实际角度相对于所属角度范围内中心角度的偏差角度,而偏差角度的取值范围跨度小,从而使得目标检测模型的训练过程更稳定,从而提高了目标检测模型的角度预测精度,进而提高了利用目标检测模型进行目标检测时的检测结果的准确性。
步骤203,针对每个对象,确定对象所属的角度范围内的中心角度。
在示例性实施例中,针对每个对象,确定对象所属的角度范围后,可以直接根据预先确定的各角度范围内的中心角度,确定该对象所属的角度范围内的中心角度。或者,针对每个对象,确定对象所属的角度范围后,可以将该角度范围内的各角度值按照角度值从大到小或者从小到大排序,从而将位于中间位置的角度值确定为该角度范围内的中心角度。或者,针对每个对象,确定对象所属的角度范围后,可以将该角度范围内的最大角度值和最小角度值的平均值,确定为该角度范围内的中心角度。或者,也可以通过其他方式确定每个对象所属的角度范围内的中心角度,本申请对此不作限制。
步骤204,将中心角度与对象的偏差角度的和值,确定为对象的角度信息,其中,对象的角度信息,为对象的第一边与X轴的夹角,其中,X轴为,拍摄图像的摄像设备的坐标系中的轴。
其中,对象的角度信息,即本申请实施例中预测到的对象的实际角度,即对象的第一边与X轴的夹角。
在示例性实施例中,针对每个对象,可以将该对象所属角度范围内的中心角度,与该对象的实际角度与该对象所属的角度范围内中心角度的偏差角度的和值,确定为该对象的角度信息,由此,即可根据目标检测模型的输出结果,通过简单的运算,得到图像中各个对象的角度信息。
步骤205,根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。
本公开实施例提供的目标检测方法,首先获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,确定对象所属的角度范围内的中心角度,将中心角度与对象的偏差角度的和值,确定为对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
下面以目标检测方法的应用场景为无人驾驶车辆的行驶控制为例,对本公开提供的目标检测方法进一步说明。其中,目标检测方法的执行主体为目标检测装置,该装置可以配置在云端服务器中。
图3是根据本公开第三实施例的目标检测方法的流程示意图。如图3所示,目标检测方法,可以包括以下步骤:
步骤301,获取待处理的多个图像,其中,图像为位于道路路口的摄像设备拍摄得到的图像。
可以理解的是,每个道路路口的摄像设备均可以对道路路口进行拍摄,从而得到多个图像,多个摄像设备可以将拍摄得到的图像上传至目标检测装置中,从而目标检测装置可以获取待处理的多个图像。
步骤302,将多个图像分别输入预设的目标检测模型,以获取每个图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度。
其中,图像中各个对象,可以为图像中的人、车、树等检测目标。
步骤303,针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息。
步骤304,根据每个图像中各个对象的位置信息和角度信息,生成多个图像的检测结果。
在示例性实施例中,将多个图像分别输入预设的目标检测模型,即可获取每个图像中各个对象的位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,进而可以针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,从而根据每个图像中各个对象的位置信息和角度信息,生成多个图像的检测结果。
其中,上述步骤301-304的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
步骤305,根据多个图像的检测结果,确定道路上的车辆数据。
其中,车辆数据,可以包括道路上各车辆的位置、姿态等数据。
步骤306,根据道路上的车辆数据,对道路上的无人车辆进行行驶控制。
在示例性实施例中,根据多个图像的检测结果,即可确定道路上的车辆数据,进而可以根据道路上的车辆数据,对道路上的各车辆进行轨迹预测,从而根据预测结果对道路上的无人车辆进行行驶控制。
比如,假设道路为3车道,根据图像1的检测结果,确定道路上车辆a在中间车道上行驶,且车头相对于行驶方向朝左偏5度,根据图像2的检测结果,确定道路上车辆b在中间车道上行驶,且根据两个图像的检测结果,确定车辆b在车辆a前方行驶,则可以确定车辆a想要超车,从而可以控制车辆b不进行超车等操作,以保证各个车辆的行驶安全。
本申请实施例中,通过将多个图像分别输入预设的目标检测模型,以获取每个图像中各个对象的位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,进而生成多个图像的检测结果,并根据多个图像的检测结果,确定道路上的车辆数据,进而根据道路上的车辆数据,对道路上的无人车辆进行行驶控制,实现了对道路上的车辆数据的准确检测,从而保证了无人车辆的行驶安全。
下面结合图4,对本公开提供的目标检测装置进行说明。
图4是根据本公开第四实施例的目标检测装置的结构示意图。
如图4所示,本公开提供的目标检测装置400,包括:第一获取模块401、第二获取模块402、第一确定模块403和生成模块404。
其中,第一获取模块401,用于获取待处理的图像;
第二获取模块402,用于将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度;
第一确定模块403,用于针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息;
生成模块404,用于根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。
需要说明的是,本实施例提供的目标检测装置,可以执行前述实施例的目标检测方法,以提高目标检测结果的准确性。
需要说明的是,前述对于目标检测方法的实施例的说明,也适用于本公开提供的目标检测装置,此处不再赘述。
本公开实施例提供的目标检测装置,首先获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
下面结合图5,对本公开提供的目标检测装置进行说明。
图5是根据本公开第五实施例的目标检测装置的结构示意图。
如图5所示,目标检测装置500,具体可以包括:第一获取模块501、第二获取模块502、第一确定模块503和生成模块504,其中,图5中第一获取模块501、第二获取模块502、第一确定模块503和生成模块504与图4中第一获取模块401、第二获取模块402、第一确定模块403和生成模块404具有相同功能和结构。
在示例性实施例中,上述第一确定模块503,包括:
第一确定单元,用于针对每个对象,确定对象所属的角度范围内的中心角度;
第二确定单元,用于将中心角度与对象的偏差角度的和值,确定为对象的角度信息。
在示例性实施例中,对象的角度信息,为对象的第一边与X轴的夹角,其中,X轴为,拍摄图像的摄像设备的坐标系中的轴;
角度范围为,对夹角的取值范围进行划分得到的多个角度范围。
在示例性实施例中,对象的角度信息,为对象的第一边与X轴的夹角,其中,X轴为,拍摄图像的摄像设备的坐标系中的轴;
角度范围为,对夹角的取值范围进行划分,且对划分得到的每个角度范围的最小值进行减预设角度值处理,且对划分得到的每个角度范围的最大值进行加预设角度处理后得到的角度范围。
在示例性实施例中,上述目标就检测装置500,还可以包括:
第三获取模块505,用于获取训练数据,其中,训练数据包括:样本图像,以及样本图像中各个对象的样本属性信息;
训练模块506,用于采用样本图像以及样本图像中各个对象的样本属性信息,对初始的目标检测模型进行训练,得到预设的目标检测模型。
在示例性实施例中,图像为位于道路路口的摄像设备拍摄得到的图像;
目标检测装置500,还可以包括:
第二确定模块507,用于根据多个图像的检测结果,确定道路上的车辆数据;
控制模块508,用于根据道路上的车辆数据,对道路上的无人车辆进行行驶控制。
需要说明的是,前述对于目标检测方法的实施例的说明,也适用于本公开提供的目标检测装置,此处不再赘述。
本公开实施例提供的目标检测装置,获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如目标检测方法。例如,在一些实施例中,目标检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的目标检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本公开的实施例,本公开还提供了一种路侧设备,其中,路侧设备可以包括如前述实施例所述的电子设备。
可选的,路侧设备除了包括电子设备,还可以包括通信部件等,电子设备可以和通信部件一体集成,也可以分体设置。电子设备可以获取感知设备(如路侧相机)的数据,例如图片和视频等,从而进行图像视频处理和数据计算。
可选的,电子设备自身也可以具备感知数据获取功能和通信功能,例如是AI相机,电子设备可以直接基于获取的感知数据进行图像视频处理和数据计算。
根据本公开的实施例,本公开还提供了一种云控平台,其中,云控平台可以包括如前述实施例所述的电子设备。
可选的,云控平台在云端执行处理,云控平台包括的电子设备可以获取感知设备(如路侧相机)的数据,例如图片和视频等,从而进行图像视频处理和数据计算;云控平台也可以称为车路协同管理平台、边缘计算平台、云计算平台、中心系统、云端服务器等。
根据本公开实施例的技术方案,获取待处理的图像,再将图像输入预设的目标检测模型,以获取图像中各个对象的属性信息,其中,属性信息包括:位置信息、所属的角度范围、相对于角度范围内中心角度的偏差角度,再针对每个对象,根据对象所属的角度范围以及对象的偏差角度,确定对象的角度信息,进而根据图像中各个对象的位置信息和角度信息,生成图像的检测结果。由此,提高了目标检测模型的角度预测精度,进而提高了目标检测结果的准确性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (13)

1.一种目标检测方法,包括:
获取待处理的图像;
将所述图像输入预设的目标检测模型,以获取所述图像中各个对象的属性信息,其中,所述属性信息包括:位置信息、所属的角度范围、相对于所述角度范围内中心角度的偏差角度;
针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息;
根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果;
其中,所述对象的角度信息,为所述对象的第一边与X轴的夹角,其中,所述X轴为,拍摄所述图像的摄像设备的坐标系中的轴;
所述角度范围为,对所述夹角的取值范围进行划分得到的多个角度范围;
在将所述图像输入预设的目标检测模型之前,还包括:
获取训练数据,其中,所述训练数据包括:样本图像,以及所述样本图像中各个对象的样本属性信息;
采用所述样本图像以及所述样本图像中各个对象的样本属性信息,对初始的目标检测模型进行训练,得到所述预设的目标检测模型。
2.根据权利要求1所述的方法,其中,所述针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息,包括:
针对每个对象,确定所述对象所属的角度范围内的中心角度;
将所述中心角度与所述对象的偏差角度的和值,确定为所述对象的角度信息。
3.根据权利要求1或2所述的方法,其中,所述对象的角度信息,为所述对象的第一边与X轴的夹角,其中,所述X轴为,拍摄所述图像的摄像设备的坐标系中的轴;
所述角度范围为,对所述夹角的取值范围进行划分,且对划分得到的每个角度范围的最小值进行减预设角度值处理,且对划分得到的每个角度范围的最大值进行加预设角度处理后得到的角度范围。
4.根据权利要求1所述的方法,其中,所述图像为位于道路路口的摄像设备拍摄得到的图像;
在根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果之后,还包括:
根据多个所述图像的检测结果,确定道路上的车辆数据;
根据所述道路上的车辆数据,对所述道路上的无人车辆进行行驶控制。
5.一种目标检测装置,包括:
第一获取模块,用于获取待处理的图像;
第二获取模块,用于将所述图像输入预设的目标检测模型,以获取所述图像中各个对象的属性信息,其中,所述属性信息包括:位置信息、所属的角度范围、相对于所述角度范围内中心角度的偏差角度;
第一确定模块,用于针对每个对象,根据所述对象所属的角度范围以及所述对象的偏差角度,确定所述对象的角度信息;
生成模块,用于根据所述图像中各个对象的位置信息和角度信息,生成所述图像的检测结果;
其中,所述对象的角度信息,为所述对象的第一边与X轴的夹角,其中,所述X轴为,拍摄所述图像的摄像设备的坐标系中的轴;
所述角度范围为,对所述夹角的取值范围进行划分得到的多个角度范围;
第三获取模块,用于获取训练数据,其中,所述训练数据包括:样本图像,以及所述样本图像中各个对象的样本属性信息;
训练模块,用于采用所述样本图像以及所述样本图像中各个对象的样本属性信息,对初始的目标检测模型进行训练,得到所述预设的目标检测模型。
6.根据权利要求5所述的装置,其中,所述第一确定模块,包括:
第一确定单元,用于针对每个对象,确定所述对象所属的角度范围内的中心角度;
第二确定单元,用于将所述中心角度与所述对象的偏差角度的和值,确定为所述对象的角度信息。
7.根据权利要求5或6所述的装置,其中,所述对象的角度信息,为所述对象的第一边与X轴的夹角,其中,所述X轴为,拍摄所述图像的摄像设备的坐标系中的轴;
所述角度范围为,对所述夹角的取值范围进行划分,且对划分得到的每个角度范围的最小值进行减预设角度值处理,且对划分得到的每个角度范围的最大值进行加预设角度处理后得到的角度范围。
8.根据权利要求5所述的装置,其中,所述图像为位于道路路口的摄像设备拍摄得到的图像;
所述装置,还包括:
第二确定模块,用于根据多个所述图像的检测结果,确定道路上的车辆数据;
控制模块,用于根据所述道路上的车辆数据,对所述道路上的无人车辆进行行驶控制。
9. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-4中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-4中任一项所述的方法。
12.一种路侧设备,包括如权利要求9所述的电子设备。
13.一种云控平台,包括如权利要求9所述的电子设备。
CN202110384001.0A 2021-04-09 2021-04-09 目标检测方法、装置、电子设备、路侧设备和云控平台 Active CN113516013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110384001.0A CN113516013B (zh) 2021-04-09 2021-04-09 目标检测方法、装置、电子设备、路侧设备和云控平台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110384001.0A CN113516013B (zh) 2021-04-09 2021-04-09 目标检测方法、装置、电子设备、路侧设备和云控平台

Publications (2)

Publication Number Publication Date
CN113516013A CN113516013A (zh) 2021-10-19
CN113516013B true CN113516013B (zh) 2024-05-14

Family

ID=78061441

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110384001.0A Active CN113516013B (zh) 2021-04-09 2021-04-09 目标检测方法、装置、电子设备、路侧设备和云控平台

Country Status (1)

Country Link
CN (1) CN113516013B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187349B (zh) * 2021-11-03 2022-11-08 深圳市正运动技术有限公司 产品加工方法、装置、终端设备以及存储介质

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0532053A2 (en) * 1991-09-12 1993-03-17 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
CN105091744A (zh) * 2015-05-07 2015-11-25 中国科学院自动化研究所 一种基于视觉传感器和激光测距仪的位姿检测装置与方法
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备
WO2020042345A1 (zh) * 2018-08-28 2020-03-05 初速度(苏州)科技有限公司 一种单相机采集人眼视线方向的方法及系统
WO2020042800A1 (zh) * 2018-08-31 2020-03-05 阿里巴巴集团控股有限公司 用于辅助车辆定损图像拍摄的方法、装置及设备
WO2020108311A1 (zh) * 2018-11-29 2020-06-04 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
CN111476159A (zh) * 2020-04-07 2020-07-31 哈尔滨工业大学 一种基于双角回归的检测模型训练、检测方法及装置
CN111787489A (zh) * 2020-07-17 2020-10-16 北京百度网讯科技有限公司 实采兴趣点的位置确定方法、装置、设备和可读存储介质
CN111860097A (zh) * 2020-04-16 2020-10-30 西安电子科技大学 一种基于模糊理论的异常行为检测方法
CN112001953A (zh) * 2020-07-27 2020-11-27 浙江大华技术股份有限公司 温度检测的方法、装置、设备和计算机设备
CN112184914A (zh) * 2020-10-27 2021-01-05 北京百度网讯科技有限公司 目标对象三维位置的确定方法、装置和路侧设备
CN112258504A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 一种图像检测方法、设备及计算机可读存储介质
CN112364805A (zh) * 2020-11-21 2021-02-12 西安交通大学 一种旋转手掌图像检测方法
CN112528932A (zh) * 2020-12-22 2021-03-19 北京百度网讯科技有限公司 用于优化位置信息的方法、装置、路侧设备和云控平台
CN112597895A (zh) * 2020-12-22 2021-04-02 北京百度网讯科技有限公司 基于偏移量检测的置信度确定方法、路侧设备及云控平台

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110245612A (zh) * 2019-06-14 2019-09-17 百度在线网络技术(北京)有限公司 人脸图像的检测方法和装置

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0532053A2 (en) * 1991-09-12 1993-03-17 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
CN105091744A (zh) * 2015-05-07 2015-11-25 中国科学院自动化研究所 一种基于视觉传感器和激光测距仪的位姿检测装置与方法
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
WO2020042345A1 (zh) * 2018-08-28 2020-03-05 初速度(苏州)科技有限公司 一种单相机采集人眼视线方向的方法及系统
WO2020042800A1 (zh) * 2018-08-31 2020-03-05 阿里巴巴集团控股有限公司 用于辅助车辆定损图像拍摄的方法、装置及设备
WO2020108311A1 (zh) * 2018-11-29 2020-06-04 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备
CN111476159A (zh) * 2020-04-07 2020-07-31 哈尔滨工业大学 一种基于双角回归的检测模型训练、检测方法及装置
CN111860097A (zh) * 2020-04-16 2020-10-30 西安电子科技大学 一种基于模糊理论的异常行为检测方法
CN111787489A (zh) * 2020-07-17 2020-10-16 北京百度网讯科技有限公司 实采兴趣点的位置确定方法、装置、设备和可读存储介质
CN112001953A (zh) * 2020-07-27 2020-11-27 浙江大华技术股份有限公司 温度检测的方法、装置、设备和计算机设备
CN112184914A (zh) * 2020-10-27 2021-01-05 北京百度网讯科技有限公司 目标对象三维位置的确定方法、装置和路侧设备
CN112258504A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 一种图像检测方法、设备及计算机可读存储介质
CN112364805A (zh) * 2020-11-21 2021-02-12 西安交通大学 一种旋转手掌图像检测方法
CN112528932A (zh) * 2020-12-22 2021-03-19 北京百度网讯科技有限公司 用于优化位置信息的方法、装置、路侧设备和云控平台
CN112597895A (zh) * 2020-12-22 2021-04-02 北京百度网讯科技有限公司 基于偏移量检测的置信度确定方法、路侧设备及云控平台

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于目标运动的复眼式双目视觉测距法;高文静 等;《应用光学》;第41卷(第3期);571-579 *

Also Published As

Publication number Publication date
CN113516013A (zh) 2021-10-19

Similar Documents

Publication Publication Date Title
JP6571274B2 (ja) レーザ深度マップサンプリングのためのシステム及び方法
CN113264066B (zh) 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备
CN112668460A (zh) 目标检测方法、电子设备、路侧设备和云控平台
CN111209978B (zh) 三维视觉重定位方法、装置及计算设备、存储介质
CN113377888B (zh) 训练目标检测模型和检测目标的方法
CN112785625A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN110675635B (zh) 相机外参的获取方法、装置、电子设备及存储介质
CN113392794B (zh) 车辆跨线识别方法、装置、电子设备和存储介质
CN113859264B (zh) 车辆控制方法、装置、电子设备及存储介质
CN115147831A (zh) 三维目标检测模型的训练方法和装置
CN114815851A (zh) 机器人跟随方法、装置、电子设备以及存储介质
CN113516013B (zh) 目标检测方法、装置、电子设备、路侧设备和云控平台
CN113177980B (zh) 用于自动驾驶的目标对象速度确定方法、装置及电子设备
CN113111787A (zh) 目标检测方法、装置、设备以及存储介质
CN114429631B (zh) 三维对象检测方法、装置、设备以及存储介质
CN113762397B (zh) 检测模型训练、高精度地图更新方法、设备、介质及产品
CN112489450B (zh) 交通路口处的车辆流量控制方法、路侧设备及云控平台
CN112630736B (zh) 路侧雷达的参数确定方法、装置、设备及存储介质
CN113591569A (zh) 障碍物检测方法、装置、电子设备以及存储介质
CN112987707A (zh) 一种车辆的自动驾驶控制方法及装置
CN113012281B (zh) 人体模型的确定方法、装置、电子设备及存储介质
CN115147809B (zh) 一种障碍物检测方法、装置、设备以及存储介质
CN112507951B (zh) 指示灯识别方法、装置、设备、路侧设备和云控平台
CN117252296A (zh) 轨迹预测方法、装置、系统、电子设备及自动驾驶车辆
CN115431968A (zh) 车辆控制器、车辆及车辆控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant