CN113065483A - 一种定位方法、装置、电子设备、介质及机器人 - Google Patents

一种定位方法、装置、电子设备、介质及机器人 Download PDF

Info

Publication number
CN113065483A
CN113065483A CN202110383291.7A CN202110383291A CN113065483A CN 113065483 A CN113065483 A CN 113065483A CN 202110383291 A CN202110383291 A CN 202110383291A CN 113065483 A CN113065483 A CN 113065483A
Authority
CN
China
Prior art keywords
target object
width
target
monocular camera
detection frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110383291.7A
Other languages
English (en)
Inventor
李梦男
支涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yunji Technology Co Ltd
Original Assignee
Beijing Yunji Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yunji Technology Co Ltd filed Critical Beijing Yunji Technology Co Ltd
Priority to CN202110383291.7A priority Critical patent/CN113065483A/zh
Publication of CN113065483A publication Critical patent/CN113065483A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种定位方法、装置、电子设备、介质及机器人,方法应用于单目相机,包括:对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;根据所述目标检测框,获得所述目标物体的像素宽度;根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。本发明公开的定位方法用以解决现有的定位方法计算量大,检测频率低、实时性不足的技术问题。

Description

一种定位方法、装置、电子设备、介质及机器人
技术领域
本发明涉及机器人定位技术领域,尤其涉及一种定位方法、装置、电子设备、介质及机器人。
背景技术
目前,室内机器人越来越广受公众关注,在实现具体的功能的过程中,其自主定位技术的好坏是决定室内机器人能否得以应用的关键。
现在业内常用的定位方式是采用深度摄像头检测环境中的目标物体,例如RGB-D摄像头和双目摄像头等,但RGB-D摄像头FOV小(Field of View,视场角),实际应用中很难持续跟踪目标物体,而且在面对特殊材料物体时,深度数据噪点很多,影响目标定位,而双目摄像头则小型化困难,且计算量大,占用资源多,深度数据精度差。单目摄像头相对于深度摄像头来说,成本较低,但目前采用2D-3D匹配算法,计算量大,不能满足实时性,且容易丢失特征信息,造成目标跟踪失败。
也就是说,目前的室内机器人的定位方案存在计算量大,检测频率低,检测实时性不足的技术问题。
发明内容
本申请实施例通过提供一种定位方法、装置、电子设备、介质及机器人,解决了现有技术中室内机器人的定位方案计算量大,检测频率低,检测实时性不足的技术问题,实现了降低计算量,提高检测频率及检测实时性的技术效果。
第一方面,本申请提供一种定位方法,应用于单目相机,包括:
对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
根据所述目标检测框,获得所述目标物体的像素宽度;
根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
可选地,所述根据所述目标检测框,获得所述目标物体的像素宽度,包括:
对所述目标检测框进行语义分割,以获得所述目标物体在所述图像区域上的像素分布区;
计算所述像素分布区的宽度,以获得所述目标物体的像素宽度。
可选地,所述先验知识数据包括所述目标物体的真实宽度数据,所述先验知识数据的获取方式包括:
采用激光雷达实时获取所述目标物体的二维宽度数据,并对所述二维宽度数据进行预设的处理;
或者,预先收集环境中所述目标物体的真实宽度数据,并制作成先验知识数据表。
可选地,所述对所述二维宽度数据进行预设的处理,包括:
根据所述单目相机的基准坐标系与所述激光雷达的基准坐标系之间的方向和位置参数,计算所述检测框在所述二维宽度数据中对应的激光点云数据;
通过聚类去除所述激光点云数据中与所述检测框不相关的数据,计算剩下的所述激光点云数据中首尾点之间的距离,以获得所述目标物体的真实宽度。
可选地,在所述对目标物体进行识别,并输出目标检测框之前,还包括:
获取所述单目相机的内参矩阵以及畸变参数,以构建相机模型。
可选地,所述相机模型为针孔模型,所述根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离,包括:
根据针孔模型的相似三角形原理,按照公式D/f=Wo/Wp,获得所述目标物体与所述单目相机之间的距离;
其中,D为所述目标物体与所述单目相机之间的距离,f为所述单目相机的焦距,Wo为所述真实宽度,Wp为所述像素宽度。
第二方面,基于同一发明构思,提供一种室内机器人,包括单目相机,所述单目相机按照上述第一方面提供的任一方法进行定位。
第三方面,基于同一发明构思,提供一种定位装置,所述定位装置为单目相机,包括:
目标物体检测模块,用于对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
像素宽度获取模块,用于根据所述目标检测框,获得所述目标物体的像素宽度;
真实宽度获取模块,用于根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
目标距离获取模块,用于根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
第四方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述第一方面中任一项方法的步骤。
第五方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一方面中任一项方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请设置采用单目相机对目标物体进行定位。在定位的过程中,首先对目标物体进行识别,并输出目标检测框,根据该目标检测框,可以获得目标物体的像素宽度;同时,根据目标物体的先验知识数据集,获取目标物体的真实宽度,最后,根据目标物体的像素宽度和真实宽度,可以获得目标物体与单目相机之间的距离。由于采用先验知识数据集,极大地减少了数据量,因此可以提高单目相机的检测频率,进而能够满足对目标物体检测的实时性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中的定位方法流程图;
图2为本申请实施例中的室内机器人示意图;
图3为本申请实施例中的定位装置示意图;
图4为本申请实施例中的电子设备示意图;
图5为本申请实施例中的计算机存储介质示意图。
具体实施方式
本申请实施例通过提供一种定位方法,解决了现有技术中室内机器人的定位检测频率低以及定位实时性偏低的技术问题。
本申请实施例的技术方案为解决上述技术问题,总体思路如下:
对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
根据所述目标检测框,获得所述目标物体的像素宽度;
根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本实施例提供一种定位方法,应用于单目相机,如图1所示,包括:
步骤S101,对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
步骤S102,根据所述目标检测框,获得所述目标物体的像素宽度;
步骤S103,根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
步骤S104,根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
采用单目相机来实现室内机器人的定位,与采用双目摄像头以及RGB-D摄像头相比,成本更低;同时,由于根据目标物体的先验知识数据集获取其真实宽度,可以降低处理器在定位过程的的计算量,从而提高室内机器人在定位过程中的检测频率,进而提高定位的实时性。
下面结合图1详细介绍本实施例提供的方法的具体实施步骤:
首先,执行步骤S101,对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域。
在具体的实施过程中,在执行该步骤之前,首先要对单目相机进行内参标定,以获得单目相机的内部参数和相机畸变参数。这是因为,单目相机对目标物体进行定位的过程实际上是一个图像处理的过程,因此为了确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机模型,而相机模型则是由相机参数构成,对这些参数的求解过程就是参数标定,标定结果的精度及算法的稳定性直接影响相机工作结果的准确性。在具体的实施过程中,参数标定分为内参标定和外参标定,当单目相机与其他传感器联动使用时,还要对单目相机以及其他传感器之间进行外参标定。具体来讲,在进行内参标定时,可以采用棋盘格作为标定板,调整标定板的方向,用单目相机从不同的方向为该标定板拍摄照片,然后从拍摄的照片中提取棋盘格角点,应用最小二乘法估算实际存在的畸变系数,再利用极大似然法,优化该估算值,以提升估计精度。当然,在具体的实施过程中,还有其他的内参标定方法,只要能实现单目相机的内参标定即可,本申请对此不作限制。在进行内参标定以后,可以确定相机模型,例如针孔模型。然后,可以基于神经网络模型对室内场景中的目标物体进行识别,并输出检测框,该检测框表征目标物体的图像区域。在具体的实施例中,可以采用卷积神经网络、反卷积神经网络等常用的神经网络模型来输出检测框,本申请对此不做限制。
然后,执行步骤S102,根据所述目标检测框,获得所述目标物体的像素宽度。在具体的实施过程中,可以先对目标检测框进行语义分割,以获得目标物体在图像区域上的像素分布区,然后计算该像素分布区的宽度,即可获得所述目标物体的像素宽度。具体来讲,可以采用任何一种现有的语义分割方法,例如基于区域的语义分割、弱监督语义分割或者全卷积网络语义分割等,本申请对此不作限制,只要能得到目标物体在图像区域的像素分布区即可。
之后,执行步骤S103,根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度。在具体的实施过程中,获取方式先验知识数据的方式可以是采用激光雷达实时获取目标物体的二维宽度数据,并对所述二维宽度数据进行预设的处理。具体来讲,就是根据所述单目相机的基准坐标系与所述激光雷达的基准坐标系之间的方向和位置参数,计算前述步骤中的检测框在二维宽度数据中对应的激光点云数据,通过聚类去除该激光点云数据中与检测框不相关的数据(即去除激光点云数据中未覆盖到检测框的那部分数据),然后计算剩下的激光点云数据中首尾点之间的距离,可以获得目标物体的真实宽度。由于激光雷达获取到的是目标物体的二维宽度数据,因此与其他定位方法中的深度数据相比,系统需要处理的数据量能显著减少,从而降低系统资源消耗,提高对目标物体的检测频率。
在另一个实施例中,还可以预先收集环境中所述目标物体的真实宽度数据,并制作成先验知识数据表,当检测到具体的目标物体时,系统直接调用该先验知识数据表中的数据,同样可以降低系统的数据处理量,从而降低系统资源消耗,提高对目标物体的检测频率。在具体的实施过程中,可以先确定单目相机的实际应用场景,然后测量该应用场景中各目标物体的真实宽度、高度等信息,将这些信息按照设计好的格式进行统一编辑,整理为一张先验知识数据表存入系统,当单目相机在实际的应用场景中进行定位工作时,可以先识别出目标物体,然后直接调用该先验知识数据集中目标物体对应的真实宽度即可。
最后,执行步骤S104,根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。在具体的实施过程中,相机模型为针孔模型,根据针孔模型的相似三角形原理,按照公式D/f=Wo/Wp,可以获得目标物体与单目相机之间的距离,其中,D为所述目标物体与所述单目相机之间的距离,f为所述单目相机的焦距,Wo为所述真实宽度,Wp为所述像素宽度。
第二方面,基于同一发明构思,提供一种室内机器人,如图2所示,该室内机器人201装有单目相机202,单目相机202按照上述第一方面提供的方法进行定位,可以降低机器人制造成本,而且能提高对目标物体的检测频率,进而保证定位的实时性。
本方案的室内机器人可以是智能服务机器人,可以运用在诸如酒店自动送餐、银行服务引导等场合,由于本方案提供的室内机器人是按照上述第一方面提供的方法进行定位,为了说明书的简洁,在此不再详述室内机器人的定位方法,应该明确的是,只要是采用第一方面提供的定位方法进行定位的室内机器人都属于本申请所欲保护的范围。
第三方面,基于同一方面构思,提供一种定位装置,如图3所示,该定位装置是单目相机,包括:
目标物体检测模块301,用于对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
像素宽度获取模块302,用于根据所述目标检测框,获得所述目标物体的像素宽度;
真实宽度获取模块303,用于根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
目标距离获取模块304,用于根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
由于本发明实施例所介绍的装置,为实施本发明实施例的方法所采用的装置,故而基于本发明实施例所介绍的方法,本领域所属人员能够了解该装置的具体结构及变形,故而在此不再赘述。凡是本发明实施例的方法所采用的装置都属于本发明所欲保护的范围。
第四方面,基于同一方面构思,提供一种电子设备,如图4所示,包括存储器4010、处理器4020及存储在存储器2010上并可在处理器4020上运行的计算机程序4011,处理器4020执行程序4011时实现以下步骤:
对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
根据所述目标检测框,获得所述目标物体的像素宽度;
根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
在本发明实施例中,所述处理器4020执行所述计算机程序4011时可以实现本发明实施例的方法中任一实施方式。
由于本发明实施例所介绍的电子设备,为实施本发明实施例的方法所采用的设备,故而基于本发明实施例所介绍的方法,本领域所属人员能够了解该设备的具体结构及变形,故而在此不再赘述。凡是本发明实施例的方法所采用的设备都属于本发明所欲保护的范围。
第五方面,提供一种计算机可读存储介质,其上存储有计算机程序501,该程序被处理器执行时实现以下步骤:
对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
根据所述目标检测框,获得所述目标物体的像素宽度;
根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
在具体实施过程中,该计算机程序501被处理器执行时,可以实现本发明实施例的方法中任一实施方式。
由于本发明实施例所介绍的存储介质,为实施本发明实施例的方法对应的计算机程序所处于的存储介质,故而基于本发明实施例所介绍的方法,本领域所属人员能够了解该存储介质内存储的计算机程序,故而在此不再赘述。凡是本发明实施例的方法的计算机程序所存储于的存储介质都属于本发明所欲保护的范围。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
本申请设置采用单目相机对目标物体进行定位。在定位的过程中,首先对目标物体进行识别,并输出目标检测框,根据该目标检测框,可以获得目标物体的像素宽度;同时,根据目标物体的先验知识数据集,获取目标物体的真实宽度,因此可以极大地减少数据量,最后,根据目标物体的像素宽度和真实宽度,再结合单目相机的相机模型,可以获得目标物体与单目相机之间的距离。由于采用先验知识数据集,极大地减少了数据量,因此可以提高单目相机的检测频率,进而能够满足对目标物体检测的实时性。
另外,由于采用单目相机进行定位,与其他深度相机相比,成本也更低。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种定位方法,其特征在于,所述方法应用于单目相机,包括:
对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
根据所述目标检测框,获得所述目标物体的像素宽度;
根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
2.如权利要求1所述的方法,其特征在于,所述根据所述目标检测框,获得所述目标物体的像素宽度,包括:
对所述目标检测框进行语义分割,以获得所述目标物体在所述图像区域上的像素分布区;
计算所述像素分布区的宽度,以获得所述目标物体的像素宽度。
3.如权利要求1所述的方法,其特征在于,所述先验知识数据包括所述目标物体的真实宽度数据,所述先验知识数据的获取方式包括:
采用激光雷达实时获取所述目标物体的二维宽度数据,并对所述二维宽度数据进行预设的处理;
或者,预先收集环境中所述目标物体的真实宽度数据,并制作成先验知识数据表。
4.如权利要求3所述的方法,其特征在于,所述对所述二维宽度数据进行预设的处理,包括:
根据所述单目相机的基准坐标系与所述激光雷达的基准坐标系之间的方向和位置参数,计算所述检测框在所述二维宽度数据中对应的激光点云数据;
通过聚类去除所述激光点云数据中与所述检测框不相关的数据,计算剩下的所述激光点云数据中首尾点之间的距离,以获得所述目标物体的真实宽度。
5.如权利要求1所述的方法,其特征在于,在所述对目标物体进行识别,并输出目标检测框之前,还包括:
获取所述单目相机的内参矩阵以及畸变参数,以构建相机模型。
6.如权利要求5所述的方法,其特征在于,所述相机模型为针孔模型,所述根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离,包括:
根据针孔模型的相似三角形原理,按照公式D/f=Wo/Wp,获得所述目标物体与所述单目相机之间的距离;
其中,D为所述目标物体与所述单目相机之间的距离,f为所述单目相机的焦距,Wo为所述真实宽度,Wp为所述像素宽度。
7.一种室内机器人,其特征在于,包括单目相机,所述单目相机按照权利要求1~6任一所述的方法进行定位。
8.一种定位装置,其特征在于,所述定位装置为单目相机,包括:
目标物体检测模块,用于对目标物体进行识别,并输出目标检测框,其中,所述目标检测框表征所述目标物体的图像区域;
像素宽度获取模块,用于根据所述目标检测框,获得所述目标物体的像素宽度;
真实宽度获取模块,用于根据所述目标物体的先验知识数据,获取所述目标物体的真实宽度;
目标距离获取模块,用于根据所述像素宽度和所述真实宽度,获得所述目标物体与所述单目相机之间的距离。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
CN202110383291.7A 2021-04-09 2021-04-09 一种定位方法、装置、电子设备、介质及机器人 Pending CN113065483A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110383291.7A CN113065483A (zh) 2021-04-09 2021-04-09 一种定位方法、装置、电子设备、介质及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110383291.7A CN113065483A (zh) 2021-04-09 2021-04-09 一种定位方法、装置、电子设备、介质及机器人

Publications (1)

Publication Number Publication Date
CN113065483A true CN113065483A (zh) 2021-07-02

Family

ID=76566583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110383291.7A Pending CN113065483A (zh) 2021-04-09 2021-04-09 一种定位方法、装置、电子设备、介质及机器人

Country Status (1)

Country Link
CN (1) CN113065483A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114162463A (zh) * 2021-11-13 2022-03-11 深圳市坤同智能仓储科技有限公司 一种基于图像识别的料盒与料盒定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343041A (zh) * 2018-09-11 2019-02-15 昆山星际舟智能科技有限公司 用于高级智能辅助驾驶的单目测距方法
US20200118283A1 (en) * 2018-10-10 2020-04-16 Samsung Electronics Co., Ltd. Distance estimating method and apparatus
CN112435287A (zh) * 2019-08-08 2021-03-02 三星电子株式会社 距离估计设备及其操作方法和主车辆设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343041A (zh) * 2018-09-11 2019-02-15 昆山星际舟智能科技有限公司 用于高级智能辅助驾驶的单目测距方法
US20200118283A1 (en) * 2018-10-10 2020-04-16 Samsung Electronics Co., Ltd. Distance estimating method and apparatus
CN112435287A (zh) * 2019-08-08 2021-03-02 三星电子株式会社 距离估计设备及其操作方法和主车辆设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114162463A (zh) * 2021-11-13 2022-03-11 深圳市坤同智能仓储科技有限公司 一种基于图像识别的料盒与料盒定位方法

Similar Documents

Publication Publication Date Title
CN110426051B (zh) 一种车道线绘制方法、装置及存储介质
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
CN108520536B (zh) 一种视差图的生成方法、装置及终端
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
US8498472B2 (en) Image-based localization feature point registration apparatus, method and computer-readable medium
US10452949B2 (en) System and method for scoring clutter for use in 3D point cloud matching in a vision system
JP6955783B2 (ja) 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品
CN107588721A (zh) 一种基于双目视觉的零件多尺寸的测量方法及系统
CN109447908A (zh) 一种基于立体视觉的钢卷识别定位方法
CN112967345B (zh) 鱼眼相机的外参标定方法、装置以及系统
CN111640152A (zh) 一种鱼类生长监控方法和系统
CN110207702B (zh) 目标定位的方法及装置
CN111798507A (zh) 一种输电线安全距离测量方法、计算机设备和存储介质
CN115690469A (zh) 一种双目图像匹配方法、装置、设备和存储介质
CN110851978B (zh) 一种基于可见性的摄像机位置优化方法
CN115381354A (zh) 清洁机器人的避障方法、避障装置、存储介质和设备
CN118429524A (zh) 基于双目立体视觉的车辆行驶环境建模方法及系统
CN113065483A (zh) 一种定位方法、装置、电子设备、介质及机器人
CN114049380B (zh) 目标物体定位追踪方法、装置、计算机设备和存储介质
CN115880428A (zh) 一种基于三维技术的动物检测数据处理方法、装置及设备
CN115546216A (zh) 一种托盘检测方法、装置、设备及存储介质
CN115937002A (zh) 用于估算视频旋转的方法、装置、电子设备和存储介质
CN117372494B (zh) 基于单双目视觉协同的电网作业人员视差估计及定位方法
CN117830392B (zh) 一种环境物体识别方法和成像系统
CN110675454A (zh) 物体定位方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089

Applicant after: Beijing Yunji Technology Co.,Ltd.

Address before: Room 702, 7 / F, 67 North Fourth Ring Road West, Haidian District, Beijing

Applicant before: BEIJING YUNJI TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information