CN112766241B - 一种目标物识别方法以及装置 - Google Patents

一种目标物识别方法以及装置 Download PDF

Info

Publication number
CN112766241B
CN112766241B CN202110369657.5A CN202110369657A CN112766241B CN 112766241 B CN112766241 B CN 112766241B CN 202110369657 A CN202110369657 A CN 202110369657A CN 112766241 B CN112766241 B CN 112766241B
Authority
CN
China
Prior art keywords
target object
image
determining
target
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110369657.5A
Other languages
English (en)
Other versions
CN112766241A (zh
Inventor
夏华夏
乔健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202110369657.5A priority Critical patent/CN112766241B/zh
Publication of CN112766241A publication Critical patent/CN112766241A/zh
Application granted granted Critical
Publication of CN112766241B publication Critical patent/CN112766241B/zh
Priority to PCT/CN2022/084308 priority patent/WO2022213867A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本说明书公开了一种目标物识别方法以及装置,通过对采集图像中目标物对应区域的提取,减少噪声引起的识别准确率下降的问题,同时通过两阶段的识别,可以进一步精细化确定每个目标物对应的区域,以及每个目标物的识别结果,最后通过两阶段识别结果,确定最终识别结果,提高对目标物识别准确率。

Description

一种目标物识别方法以及装置
技术领域
本说明书涉及无人驾驶技术领域,尤其涉及一种目标物识别方法以及装置。
背景技术
目前,无人驾驶设备的控制,依赖于对周围环境中目标物的识别,以基于识别结果控制无人驾驶设备行驶。其中,目标物通常是指:障碍物、指示牌、信号灯等会影响无人驾驶设备行驶的对象。
以信号灯为例进行说明,在现有技术中,对信号灯的识别主要是基于高精地图,通过实时确定出的车辆位姿,以及图像传感器位姿,在采集的图像中大致确定各信号灯所在的区域,之后,再确定包围各信号灯所在的区域的图像(如,确定各信号灯的最小外接矩形),将确定出的图像输入预先训练的信号灯识别模型,得到该信号灯识别模型输出的各信号灯的状态,作为识别结果。其中,信号灯的状态包括如:红灯、黄灯、绿灯或者是熄灭等状态。
将包围各信号灯所在的区域的图像作为输入,可以减少计算量,使得只需一次便可确定各信号灯的识别结果。但是,一般来说包围各信号灯所在的区域的图像中仍然可能包含大量噪声,例如,信号灯之间背景图像,或者路上的其他障碍物,临街店铺的灯光等等,容易对信号灯的识别产生干扰。并且,当信号灯距离较远时,信号灯在图像中的尺寸较小,而对小目标的检测一般较为困难,因此还容易产生漏检现象。
发明内容
本说明书实施例提供一种目标物识别方法以及装置,以部分解决上述现有技术存在的问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种目标物识别方法,包括:
从采集的图像中,确定各目标物分别对应的第一区域;
根据所述图像中各目标物分别对应的第一区域的图像,确定待识别图像;
将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中分别对应的第二区域,以及各目标物的第一识别结果,所述第二区域的范围小于所述第一区域的范围;
将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果;
根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
可选地,从采集的图像中,分别确定各目标物对应的各第一区域,具体包括:
根据采集图像时的采集设备位姿,在预存的高精地图中确定所述采集设备采集的所述图像时,采集范围内的各目标物;
根据确定出的各目标物的位置以及各目标物的属性,在采集的所述图像中分别确定各目标物对应的区域;
根据放大参数,分别对各目标物对应的区域进行放大,将放大后的区域作为各目标物对应的第一区域。
可选地,根据所述图像中各目标物分别对应的第一区域的图像,确定待识别图像,具体包括:
按照确定出的各目标物分别对应的第一区域,从所述图像中提取出各目标物的子图像;
将各目标物的子图像进行拼接后的图像,作为待识别图像。
可选地,将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果,具体包括:
针对每个目标物,根据所述目标检测模型输出的该目标物对应的第二区域,从所述待识别图像中,提取该目标物对应的第二区域的图像;
将该目标物对应的第二区域的图像,输入训练完成的分类模型,确定该目标物的第二识别结果。
可选地,所述第一识别结果以及所述第二识别结果为目标物属于各预设分类的概率;
根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果,具体包括:
针对每个目标物,根据该目标物的第一识别结果、第二识别结果、第一权重以及第二权重,确定该目标物分别属于各预设分类的加权平均概率;
根据该目标物分别属于各预设分类的加权平均概率,确定该目标物的最终识别结果。
可选地,根据放大参数,分别对各目标物对应的区域进行放大,具体包括:
针对每个目标物,根据该目标物的位置、该目标物的属性以及采集图像时的所述采集设备位姿,确定该目标物对应的放大参数;
按照确定出的放大参数,对该目标物对应的区域进行放大。
可选地,所述方法还包括:
针对每个目标物,根据该目标物在所述待识别图像中对应的第二区域的位置,确定该目标物在对应的第一区域的图像中的位置;
根据该目标物在所述采集的图像中对应的第一区域的位置,以及该目标物在对应的第一区域的图像中的位置,确定该目标物在所述采集的图像中的位置;
根据该目标物在所述采集的图像中的位置,在所述采集的图像中标注该目标物。
本说明书提供的一种目标物识别装置,包括:
确定模块,根据预存的目标物的位置以及采集图像时的采集设备位姿,在采集的所述图像中分别确定各目标物对应的第一区域;
提取模块,提取所述图像中各目标物对应的第一区域的图像,确定待识别图像;
第一识别模块,将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中的对应的第二区域,以及各目标物的第一识别结果,所述第二区域范围小于所述第一区域的范围;
第二识别模块,将各目标物对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果;
第三识别模块,根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的目标物识别方法。
本说明书提供的一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的目标物识别方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书中,从采集的图像中确定各目标物的第一区域,根据各目标物的第一区域的图像,确定待识别图像,通过目标检测模型,确定该待识别图像中各目标物的第二区域和第一识别结果,通过分类模型,从各目标物的第二区域的图像中,确定各目标物的第二识别结果,根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
从上述方法可以看出,本方法通过对采集图像中目标物对应区域的提取,减少噪声引起的识别准确率下降的问题,同时通过两阶段的识别,可以进一步精细化确定每个目标物对应的区域,以及每个目标物的识别结果,最后通过两阶段识别结果,确定最终识别结果,提高对目标物识别准确率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书提供的目标物识别方法的流程示意图;
图2为本说明书提供的确定待识别图像的示意图;
图3为本说明书提供的确定第二区域的示意图;
图4为本说明书提供的确定第一识别结果的示意图;
图5为本说明书提供的确定第二识别结果的示意图;
图6为本说明书提供的确定目标物对应的第一区域的示意图;
图7为本说明书提供的目标物识别装置的结构示意图;
图8为本说明书提供的对应于图1的无人驾驶设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书提供的目标物识别方法的流程示意图,包括:
S100:从采集的图像中,确定各目标物分别对应的第一区域。
一般的,在无人驾驶设备行驶过程中,周围环境会随着时间改变,因此,该无人驾驶设备可通过无人驾驶设备上设置的采集设备,连续采集自身四周或前进方向上的图像,并在需要对目标物进行识别时,确定当前时刻采集的图像。于是,可基于当前时刻采集到的图像,对无人驾驶设备周围的目标物进行识别,进而基于识别结果控制无人驾驶设备行驶,以保证无人驾驶设备的安全行驶。
通常情况下,在采集到当前图像后,可由无人驾驶设备本身对该图像进行识别,确定各目标物的识别结果,进而确定下一时刻自身的运动策略。为了方便描述,后续以无人驾驶设备执行该目标物识别方法为了进行说明。
在本说明书提供的一个或多个实施例中,在采集到当前图像后,该无人驾驶设备可从该采集到的图像中,确定各目标物分别对应的第一区域。其中,各目标物可为障碍物、指示牌、信号灯等会影响无人驾驶设备行驶的对象。为了方便描述,后续以信号灯为例进行说明。
具体的,在无人驾驶设备中,通常预存有高精地图,以使无人驾驶设备可根据高精地图以及采集设备采集到的图像确定自身位置等信息,并基于确定出的自身位置等信息确定运动策略。因此,在确定出图像后,该无人驾驶设备可首先根据采集图像时的采集设备位姿,从预存的高精地图中,确定该采集设备采集该图像时,采集范围内的目标物。其中,位姿用于表示无人驾驶设备采集待识别图像时所处的朝向、加速度、转向等信息。而由于图像采集器在无人驾驶设备上的位置是固定的,所以,一旦确定出无人驾驶设备采集该待识别图像时所基于的位姿,即可确定出该采集设备在采集该待识别图像时所对应的图像采集范围,也即无人驾驶设备位于采集位置时所对应的图像采集范围。高精地图是为了便于无人驾驶设备行驶而准确地标注了各目标物的位置信息的地图。也就是说,只要标注出各目标物的位置信息的地图,都可作为本说明书中的高精地图。
然后,在确定出该图像中的各目标物后,该无人驾驶设备可根据确定出的各目标物的位置以及各目标物的属性,从该图像中分别确定各目标物对应的区域,作为各目标物对应的第一区域。其中,各目标物的属性可包括目标物的种类、尺寸、以及形状等。如,信号灯的形状为矩形,交通指示牌的形状可为圆形、三角形、矩形等。
在本说明书中,无人驾驶设备可以是指无人车、机器人、自动配送设备等能够实现自动驾驶的设备。基于此,应用本说明书提供的目标识别的方法的无人驾驶设备可以用于执行配送领域的配送任务,如,使用无人驾驶设备进行快递、物流、外卖等配送的业务场景,而为了保证无人驾驶设备在配送业务场景中的安全行驶,需要通过采集到的图像,对道路中设置的交通灯、交通指示牌等具体交通指示功能的静态目标物进行识别。
S102:根据所述图像中各目标物分别对应的第一区域的图像,确定待识别图像。
在本说明书提供的一个或多个实施例中,在确定出各目标物分别对应的第一区域后,该无人驾驶设备可根据该图像中各目标物分别对应的第一区域的图像,确定待识别图像。
具体的,该无人驾驶设备可根据步骤S100中确定出的各目标物分别对应的第一区域,从该图像中提取出各目标物的子图像,并将获取到的各目标物的子图像进行拼接后的图像,作为待识别图像,如图2所示。
图2为本说明书提供的确定待识别图像的示意图,左边部分为无人驾驶设备位于路口时采集到的图像,可见,该图像中有多个信号灯,于是,该无人驾驶设备可基于高精地图、车辆位姿、图像传感器位姿等,确定各信号灯的大致位置,即,图像中的区域A、B、C、D、E,作为各信号灯对应的第一区域。则该无人驾驶设备根据左边部分的区域A、B、C、D、E对应的图像,可确定出右侧部分的待识别图像,可见,待识别图像由各目标物对应的第一区域的图像组成,区域A对应待识别图像的1部分,区域B对应待识别图像的2部分,区域C对应待识别图像的3部分,区域D对应待识别图像的4部分,区域E对待识别图对应的5部分。
需要说明的是,为了方便处理,待识别图像通常可设置为矩形,而不同的拼接规则可能会导致由各目标物的子图像拼接后的结果为非矩形,如图2中由1、2、3、4、5部分组成的多边形。因此,在本说明书中,该无人驾驶设备还可针对各非矩形的拼接结果,将该图像进行补全。当然,具体的确定待识别图像的方法可根据需要进行设置,本说明书对此不做限制。
S104:将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中分别对应的第二区域,以及各目标物的第一识别结果,所述第二区域的范围小于所述第一区域的范围。
在本说明书提供的一个或多个实施例中,该无人驾驶设备在确定出待识别图像后,还可将该待识别图像输入训练完成的目标检测模型,确定各目标物在该待识别图像中的第二区域,以及各目标物的第一识别结果。
具体的,针对每个目标物,在步骤S100中确定出的第一区域为该目标物的大致范围。因此,基于各目标物分别对应的第一区域的图像,确定出的待识别图像,也为各目标物的大致范围。于是,在确定出待识别图像后,该无人驾驶设备可根据该待识别图像与预先训练好的目标检测模型,确定各目标物在该待识别图像中的具体位置,作为各目标物在该待识别图像中对应的第二区域,如图3所示。
图3为本说明书提供的确定第二区域的示意图,左边部分为步骤S102中确定的待识别图像,中间部分为目标检测模型,右侧部分为该待识别图像中各目标物分别对应的第二区域,可见,各目标物分别对应的第二区域,为基于该识别图像确定出的,各目标物的具体范围,因此,针对每个目标物,该目标物对应的第二区域的范围小于第一区域的范围。
在本说明书提供的一个或多个实施例中,在确定各目标物分别对应的第二区域的同时,该无人驾驶设备还可通过目标检测模型,确定该待识别图像中的目标物的类型,作为各目标物的第一识别结果,如图4所示。
图4为本说明书提供的确定第一识别结果的示意图,左边部分为步骤S102中确定的待识别图像,假设信号灯由上向下分别为黄灯、红灯、绿灯,白色代表熄灭,黑色代表亮灯,则各目标物的子图像对应的信号灯状态为绿色,中间部分为目标检测模型,右侧部分为该待识别图像中各目标物分别对应的第一识别结果,其中,第一识别结果为各目标物分别对应的信号灯状态为熄灭、信号灯状态为红色、信号灯状态为黄色、信号灯状态为绿色分别对应的概率。可见,各目标物对应的第一识别结果中,信号灯状态为绿色的概率较高。
S106:将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果。
在本说明书提供的一个或多个实施例中,由于步骤S104中确定出的各目标物的第一识别结果为根据待识别图像确定出的,而待识别图像中各目标物的子图像,为各目标物的大致范围。因此,可能出现由于待识别图像中的各目标物的子图像中非目标物的内容太多,导致第一识别结果出现不够准确的情况,因此,该无人驾驶设备,还可根据步骤S104中确定的各目标物对应的第二区域,即,各目标物的准确范围,确定各目标物分别对应的第二范围的图像,并将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果。
具体的,针对每个目标物,该无人驾驶设备可根据步骤S104中确定出的该目标物对应的第二区域,从该待识别图像中,提取该目标物对应的图像,并将提取出的该目标物对应的第二区域的图像,输入到分类模型中,确定该目标物的第二识别结果,如图5所示。
图5为本说明书提供的确定第二识别结果的示意图,左边部分为目标物对应的第二区域的图像,与图4类似,假设信号灯由上向下分别为黄灯、红灯、绿灯,白色代表熄灭,黑色代表亮灯,则目标物对应的第二区域的图像对应的信号灯状态为绿色,中间部分为分类模型,右边部分为第二识别结果,与第一识别结果类似,第二识别结果分别为各目标物对应的信号灯状态为熄灭、信号灯状态为红色、信号灯状态为黄色、信号灯状态为绿色分别对应的概率。可见,目标物对应的第二区域的图像对应的第二识别结果中,信号灯状态为绿色的概率较高。
需要说明的是,本说明书中的第一识别结果与第二识别结果,都可仅为各目标物对应的预设分类,如,信号灯状态为红色、信号灯状态为熄灭等,也可为各目标物属于各预设分类的概率,如,信号灯状态为红色的概率、信号灯状态为绿色的概率等,具体的第一识别结果与第二识别结果的内容可根据需要进行设置,本说明书对此不做限制。
S108:根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
在本说明书提供的一个或多个实施例中,在确定出各目标物的第一识别结果以及第二识别结果后,该无人驾驶设备还可根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
具体的,在对目标物进行识别的过程中,步骤S104中确定的各目标物的第一识别结果,与步骤S106中确定的各目标物的第二识别结果,都可能出现识别不准确的情况,而若通过各目标物的第一识别结果与第二识别结果,以及各识别结果的权重,确定各目标物的最终识别结果,则可得到更为准确的识别结果。于是,可预设各目标物的第一识别结果和第二识别结果的权重,并在需要对目标物进行识别时,针对每个目标物,根据该目标物的第一识别结果及其权重、以及第二识别结果及其权重,将该目标物的第一识别结果及其权重,以及第二识别结果及其权重,输入预先确定的加权确定函数
Figure DEST_PATH_IMAGE002
,其中,
Figure DEST_PATH_IMAGE004
为该目标物对应的第一识别结果,
Figure DEST_PATH_IMAGE006
为第一识别结果对应的权重,
Figure DEST_PATH_IMAGE008
为该目标物对应的第二识别结果,
Figure DEST_PATH_IMAGE010
为第二识别结果对应的权重,则可得到该目标物的加权结果,该加权结果为该目标物分别属于各预设分类的加权平均概率。
在确定出该目标物分别属于各预设分类的加权平均概率后,该无人驾驶设备可从确定出的该目标物分别属于各预设分类的加权平均概率中,确定概率最高的状态,作为该目标物的最终识别结果。如,信号灯对应的状态为熄灭、红色、黄色、绿色的概率分别为10%、80%、2%、8%,则可确定该目标物的最终识别结果对应的信号灯状态为红色。
基于图1的目标物识别方法,从采集的图像中确定各目标物的第一区域,根据各目标物的第一区域的图像,确定待识别图像,通过目标检测模型,确定该待识别图像中各目标物的第二区域和第一识别结果,通过分类模型,从各目标物的第二区域的图像中,确定各目标物的第二识别结果,根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。通过对采集图像中目标物对应区域的提取,减少噪声引起的识别准确率下降的问题,同时通过两阶段的识别,可以进一步精细化确定每个目标物对应的区域,以及每个目标物的识别结果,最后通过两阶段识别结果,确定最终识别结果,提高对目标物识别准确率。
进一步的,在步骤S100中,根据高精地图确定出的目标物的位置仅为该目标物在图像中的大致位置,因此,为了保证确定出的第一区域的准确性,该无人驾驶设备还可根据放大参数,分别对各目标物对应的区域进行放大,并将放大后的区域作为各目标物对应的第一区域。如图6所示。
图6为本说明书提供的确定目标物对应的第一区域的示意图,根据高精地图可大致确定该目标物所在位置,实线框为该目标物的原始尺寸确定出的该目标物的第一区域,可见,若以该目标物原始尺寸确定该目标物的第一区域,显然不能准确确定出该目标物的识别结果。因此,该无人驾驶设备可根据放大参数,对该目标物对应的区域进行放大,虚线框为根据放大参数确定出的该目标物的第一区域。显然,根据放大后的第一区域的图像,在后续步骤中可准确确定该目标物的识别结果。其中,该目标物原始尺寸为根据无人驾驶设备当前位姿、高精地图等确定的,该放大参数可为预设的。
更进一步地,在步骤S100中,根据放大参数确定第一区域时,对于不同的目标物,放大参数不完全相同,如,距离无人驾驶设备越近的目标物,若放大参数过小,可能导致确定出的第一区域未完全包含该目标物,导致识别结果出现错误。而距离无人驾驶设备越远的目标物,若放大参数过大,可能导致确定出的第一区域中非目标物的内容过多,导致识别结果出现错误。因此,该无人驾驶设备,在根据放大参数对各目标物对应的区域进行放大时,还可针对每个目标物,根据该目标物的位置、该目标物的属性、以及采集图像时的采集设备的位姿,确定该目标物对应的放大参数。
例如,根据该目标物的位置以及采集图像时的采集设备的位姿,确定该目标物与无人驾驶设备的距离,进而根据该距离,确定该目标物对应的放大参数,其中,该距离与该放大参数负相关。也就是说,近大远小,可使距离较近的目标物对应的第一区域中完全包含该目标物,也可使距离较远的目标物的第一区域包含的非目标物内容较少,进而避免了由于待识别图像不准确导致识别结果错误的情况出现。或者,根据该目标物的属性,如具体为该目标物的尺寸,确定该目标物对应的放大参数,其中,目标物的尺寸与放大参数正相关。也就是说,同一图像中,按照相同的扩大参数确定第一区域时,可能出现尺寸较小的目标物对应的第一区域已完全包含该目标物、但尺寸较大的目标物对应的第一区域还未完全将该目标物包含在内的情况,因此,尺寸越大的目标物在确定第一区域时,需要的扩大参数越大。
另外,也可根据该目标物的属性中的其他信息,如,该目标物的形状,确定放大参数,如,同一尺寸的圆形的目标物比三角形的目标物的放大参数更小。当然,具体放大参数的确定方式可根据需要进行设置,本说明书对此不做限制。
需要说明的是,在无人驾驶设备行驶过程中,还可考虑如交通信息等情况,如,某路段的信号灯在当前时间段处于断电状态,则该无人驾驶设备在经过该路段时,可暂时不考虑信号灯对运动策略的影响。因此,各目标物的属性还可包括交通信息,具体的各目标物的属性还可根据需要进行设置,本说明书对此不做限制,其中,交通信息可通过服务器下发或主动查询等方式获得。
进一步的,在确定出各目标物的第一区域和第二区域后,该无人驾驶设备还可根据各目标物的第一区域和第二区域,确定无人驾驶设备采集到图像中,各目标物所在位置并进行标注。于是,针对每个目标物,该无人驾驶设备可根据该目标物在待识别图像中对应的第二区域的位置,确定该目标物在对应的第一区域的图像中的位置。
然后,在确定出该目标物在第一区域的图像中的位置后,该无人驾驶设备还可根据该目标物在采集的图像中对应的第一区域的位置,以及该目标物在对应的第一区域的图像中的位置,确定目标物在所述采集的图像中的位置。
最后,在确定出该目标物在采集的图像中的位置后,该无人驾驶设备可根据该目标物在所述采集的图像中的位置,在采集的图像中标注该目标物。以便基于各目标物的位置及识别结果,确定无人驾驶设备的运动策略。
另外,在步骤S102中,该无人驾驶设备还可针对每个目标物的子图像,将该目标物的子图像,作为单独的待识别图像,并继续执行后续步骤,使得可分别对各待识别图像分别进行处理,分别确定每个目标物的最终识别结果。
上述为以无人驾驶设备为例对该说明书进行说明,在实际应用中,该目标物识别方法还可由服务器执行,具体的,无人驾驶设备还可将该图像发送至检测目标物的服务器,由该服务器根据接收到的图像,对图像中的目标物进行识别,并将识别结果发送至无人驾驶设备或确定无人驾驶设备控制策略的服务器,确定该无人驾驶设备下一时刻的运动策略。
在本说明书提供的一个或多个实施例中,本说明书提供的目标物识别方法,可应用于确定无人驾驶设备运动策略时,具体用于确定无人驾驶设备环境图像中的各目标物位置与类型的场景中,以使无人驾驶设备能够基于确定出的目标物类型,在确定下一时刻该无人驾驶设备的运动策略时,采取相应的策略,以使下一时刻无人驾驶设备正常行驶而不发生交通事故。具体的根据目标物类型与位置等确定无人驾驶设备运动策略的方法已经是现有较为成熟的技术,本说明书对此不再赘述。
更进一步的,在本说明书中,步骤S104中的目标检测模型,可由训练模型的服务器预先训练获得。在训练模型时,可获取通过由采集设备历史上采集到的若干图像,确定出的各目标物对应的第一区域确定的待识别图像,作为各训练样本,并对各训练样本中的各目标物进行标注,将各训练样本中的目标物的位置及类型作为训练标签。然后,该服务器可将各训练样本输入到待训练的目标检测模型中,确定各目标物的检测结果,以最小化各训练样本的检测结果与样本标签之间的差异最小化为优化目标,对该目标检测模型进行训练。
另外,在本说明书中,步骤S106中的分类模型,可由训练模型的服务器预先训练获得,在训练分类模型时,可获取若干有标注的目标物图像,作为训练样本。输入到待训练的分类模型中,确定各训练样本的分类结果,以各训练样本的分类结果与标注之前的差异最小化为优化目标,对该目标检测模型进行训练。
基于图1所示的目标物识别方法,本说明书实施例还对应提供一种目标物识别装置的结构示意图,如图7所示。
图7为本说明书实施例提供的目标物识别装置的结构示意图,所述装置包括:
确定模块200,用于根据预存的目标物的位置以及采集图像时的采集设备位姿,在采集的所述图像中分别确定各目标物对应的第一区域;
提取模块202,用于提取所述图像中各目标物对应的第一区域的图像,确定待识别图像;
第一识别模块204,用于将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中的对应的第二区域,以及各目标物的第一识别结果,所述第二区域范围小于所述第一区域的范围;
第二识别模块206,用于将各目标物对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果;
第三识别模块208,用于根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果。
可选地,所述确定模块200,具体用于根据采集图像时的采集设备位姿,在预存的高精地图中确定所述采集设备采集的所述图像时,采集范围内的各目标物,根据确定出的各目标物的位置以及各目标物的属性,在采集的所述图像中分别确定各目标物对应的区域,根据放大参数,分别对各目标物对应的区域进行放大,将放大后的区域作为各目标物对应的第一区域。
可选地,所述提取模块202,具体用于按照确定出的各目标物分别对应的第一区域,从所述图像中提取出各目标物的子图像,将各目标物的子图像进行拼接后的图像,作为待识别图像。
可选地,所述第二识别模块206,具体用于针对每个目标物,根据所述目标检测模型输出的该目标物对应的第二区域,从所述待识别图像中,提取该目标物对应的第二区域的图像,将该目标物对应的第二区域的图像,输入训练完成的分类模型,确定该目标物的第二识别结果。
可选地,所述第一识别结果以及所述第二识别结果为目标物属于各预设分类的概率,所述第三识别模块208,具体用于针对每个目标物,根据该目标物的第一识别结果、第二识别结果、第一权重以及第二权重,确定该目标物分别属于各预设分类的加权平均概率,根据该目标物分别属于各预设分类的加权平均概率,确定该目标物的最终识别结果。
可选地,所述确定模块200,针对每个目标物,根据该目标物的位置、该目标物的属性以及采集图像时的所述采集设备位姿,确定该目标物对应的放大参数,按照确定出的放大参数,对该目标物对应的区域进行放大。
可选地,所述第三识别模块208,具体用于针对每个目标物,根据该目标物在所述待识别图像中对应的第二区域的位置,确定该目标物在对应的第一区域的图像中的位置,根据该目标物在所述采集的图像中对应的第一区域的位置,以及该目标物在对应的第一区域的图像中的位置,确定该目标物在所述采集的图像中的位置,根据该目标物在所述采集的图像中的位置,在所述采集的图像中标注该目标物。
本说明书还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可用于执行上述提供的目标物识别方法。
基于上述提供的目标物识别方法,本说明书实施例还提供了图8所示的无人驾驶设备的结构示意图。如图8,在硬件层面,该无人驾驶设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述的目标物识别方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种目标物识别方法,其特征在于,包括:
从采集的图像中,确定各目标物分别对应的第一区域;
从所述图像中提取各目标物分别对应的第一区域的图像,将各第一区域的图像拼接,确定待识别图像;
将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中分别对应的第二区域,以及各目标物的第一识别结果,所述第二区域的范围小于所述第一区域的范围;
将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果,所述第一识别结果、所述第二识别结果为目标物处于不同状态的概率;
根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果,所述最终识别结果为目标物的状态。
2.如权利要求1所述的方法,其特征在于,从采集的图像中,分别确定各目标物对应的各第一区域,具体包括:
根据采集图像时的采集设备位姿,在预存的高精地图中确定所述采集设备采集的所述图像时,采集范围内的各目标物;
根据确定出的各目标物的位置以及各目标物的属性,在采集的所述图像中分别确定各目标物对应的区域;
根据放大参数,分别对各目标物对应的区域进行放大,将放大后的区域作为各目标物对应的第一区域。
3.如权利要求1所述的方法,其特征在于,从所述图像中提取各目标物分别对应的第一区域的图像,将各第一区域的图像拼接,确定待识别图像,具体包括:
按照确定出的各目标物分别对应的第一区域,从所述图像中提取出各目标物的子图像;
将各目标物的子图像进行拼接后的图像,作为待识别图像。
4.如权利要求1所述的方法,其特征在于,将各目标物分别对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果,具体包括:
针对每个目标物,根据所述目标检测模型输出的该目标物对应的第二区域,从所述待识别图像中,提取该目标物对应的第二区域的图像;
将该目标物对应的第二区域的图像,输入训练完成的分类模型,确定该目标物的第二识别结果。
5.如权利要求1所述的方法,其特征在于,所述第一识别结果以及所述第二识别结果为目标物处于不同状态的概率;
根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果,具体包括:
针对每个目标物,根据该目标物的第一识别结果、第二识别结果、第一权重以及第二权重,确定该目标物分别属于各不同状态的加权平均概率;
根据该目标物分别属于各不同状态的加权平均概率,确定该目标物的最终识别结果。
6.如权利要求2所述的方法,其特征在于,根据放大参数,分别对各目标物对应的区域进行放大,具体包括:
针对每个目标物,根据该目标物的位置、该目标物的属性以及采集图像时的所述采集设备位姿,确定该目标物对应的放大参数;
按照确定出的放大参数,对该目标物对应的区域进行放大。
7.如权利要求1所述的方法,其特征在于,所述方法还包括:
针对每个目标物,根据该目标物在所述待识别图像中对应的第二区域的位置,确定该目标物在对应的第一区域的图像中的位置;
根据该目标物在所述采集的图像中对应的第一区域的位置,以及该目标物在对应的第一区域的图像中的位置,确定该目标物在所述采集的图像中的位置;
根据该目标物在所述采集的图像中的位置,在所述采集的图像中标注该目标物。
8.一种目标物识别装置,其特征在于,包括:
确定模块,根据预存的目标物的位置以及采集图像时的采集设备位姿,在采集的所述图像中分别确定各目标物对应的第一区域;
提取模块,从所述图像中提取各目标物对应的第一区域的图像,将各第一区域的图像拼接,确定待识别图像;
第一识别模块,将所述待识别图像输入训练完成的目标检测模型,确定各目标物在所述待识别图像中的对应的第二区域,以及各目标物的第一识别结果,所述第二区域范围小于所述第一区域的范围;
第二识别模块,将各目标物对应的第二区域的图像输入训练完成的分类模型,确定各目标物的第二识别结果,所述第一识别结果、所述第二识别结果为目标物处于不同状态的概率;
第三识别模块,根据各目标物的第一识别结果以及第二识别结果,确定各目标物的最终识别结果,所述最终识别结果为目标物的状态。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一项所述的方法。
10.一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一项所述的方法。
CN202110369657.5A 2021-04-07 2021-04-07 一种目标物识别方法以及装置 Active CN112766241B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110369657.5A CN112766241B (zh) 2021-04-07 2021-04-07 一种目标物识别方法以及装置
PCT/CN2022/084308 WO2022213867A1 (zh) 2021-04-07 2022-03-31 目标物识别

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110369657.5A CN112766241B (zh) 2021-04-07 2021-04-07 一种目标物识别方法以及装置

Publications (2)

Publication Number Publication Date
CN112766241A CN112766241A (zh) 2021-05-07
CN112766241B true CN112766241B (zh) 2021-07-30

Family

ID=75691162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110369657.5A Active CN112766241B (zh) 2021-04-07 2021-04-07 一种目标物识别方法以及装置

Country Status (2)

Country Link
CN (1) CN112766241B (zh)
WO (1) WO2022213867A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112766241B (zh) * 2021-04-07 2021-07-30 北京三快在线科技有限公司 一种目标物识别方法以及装置
CN113344198B (zh) * 2021-06-09 2022-08-26 北京三快在线科技有限公司 一种模型训练的方法及装置
CN114155466B (zh) * 2021-11-30 2024-08-13 云控智行科技有限公司 一种基于深度学习的目标识别方法及装置
CN115880442B (zh) * 2023-02-06 2023-06-09 宝略科技(浙江)有限公司 一种基于激光扫描的三维模型重建方法以及系统
CN115827880B (zh) * 2023-02-10 2023-05-16 之江实验室 一种基于情感分类的业务执行方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944351A (zh) * 2017-11-07 2018-04-20 深圳市易成自动驾驶技术有限公司 图像识别方法、装置及计算机可读存储介质
CN110555511A (zh) * 2019-07-24 2019-12-10 北京踏歌智行科技有限公司 识别区域的方法、装置、电子设备和计算机可读存储介质
CN111563398A (zh) * 2019-02-13 2020-08-21 北京京东尚科信息技术有限公司 用于确定目标物的信息的方法和装置
CN111797698A (zh) * 2020-06-10 2020-10-20 北京三快在线科技有限公司 目标物的识别方法及识别装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200069084A (ko) * 2018-12-06 2020-06-16 팅크웨어(주) 도로 제한 속도 판단 방법, 도로 제한 속도 판단 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN110287850A (zh) * 2019-06-20 2019-09-27 北京三快在线科技有限公司 一种模型训练以及目标物识别的方法及装置
CN112766241B (zh) * 2021-04-07 2021-07-30 北京三快在线科技有限公司 一种目标物识别方法以及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107944351A (zh) * 2017-11-07 2018-04-20 深圳市易成自动驾驶技术有限公司 图像识别方法、装置及计算机可读存储介质
CN111563398A (zh) * 2019-02-13 2020-08-21 北京京东尚科信息技术有限公司 用于确定目标物的信息的方法和装置
CN110555511A (zh) * 2019-07-24 2019-12-10 北京踏歌智行科技有限公司 识别区域的方法、装置、电子设备和计算机可读存储介质
CN111797698A (zh) * 2020-06-10 2020-10-20 北京三快在线科技有限公司 目标物的识别方法及识别装置

Also Published As

Publication number Publication date
CN112766241A (zh) 2021-05-07
WO2022213867A1 (zh) 2022-10-13

Similar Documents

Publication Publication Date Title
CN112766241B (zh) 一种目标物识别方法以及装置
CN112801229B (zh) 一种识别模型的训练方法及装置
CN111311709B (zh) 一种生成高精地图的方法及装置
CN111508258B (zh) 一种定位方法及装置
CN112036462A (zh) 一种模型训练以及目标检测的方法及装置
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN113642620B (zh) 一种障碍物检测模型训练以及障碍物检测方法及装置
CN111797698A (zh) 目标物的识别方法及识别装置
CN111797711A (zh) 一种模型训练的方法及装置
CN111127551A (zh) 一种目标检测的方法及装置
CN112861831A (zh) 一种目标物的识别方法、装置、存储介质及电子设备
CN112990099B (zh) 一种车道线检测的方法以及装置
CN112365513A (zh) 一种模型训练的方法及装置
CN112818968A (zh) 一种目标物分类方法及装置
CN112883871B (zh) 一种模型训练以及确定无人车运动策略方法及装置
CN114332808A (zh) 一种预测转向意图的方法及装置
CN111426299B (zh) 一种基于目标物的景深进行测距的方法及装置
CN117197781B (zh) 一种交通标志识别的方法、装置、存储介质及电子设备
CN114495065A (zh) 一种目标物识别的方法及装置
CN114332201A (zh) 一种模型训练、目标检测的方法以及装置
CN112561961A (zh) 一种实例追踪的方法及装置
CN114187355A (zh) 一种图像标定方法及装置
CN113642616B (zh) 一种基于环境数据的训练样本的生成方法及装置
CN113344198B (zh) 一种模型训练的方法及装置
CN113706552A (zh) 一种激光反射率底图语义分割标注数据的生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant