CN111815683B - 目标定位方法及装置、电子设备和计算机可读介质 - Google Patents

目标定位方法及装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN111815683B
CN111815683B CN201910295106.1A CN201910295106A CN111815683B CN 111815683 B CN111815683 B CN 111815683B CN 201910295106 A CN201910295106 A CN 201910295106A CN 111815683 B CN111815683 B CN 111815683B
Authority
CN
China
Prior art keywords
coordinate system
target
point cloud
view angle
target scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910295106.1A
Other languages
English (en)
Other versions
CN111815683A (zh
Inventor
沈伯玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingbangda Trade Co Ltd
Beijing Jingdong Qianshi Technology Co Ltd
Original Assignee
Beijing Jingdong Qianshi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Qianshi Technology Co Ltd filed Critical Beijing Jingdong Qianshi Technology Co Ltd
Priority to CN201910295106.1A priority Critical patent/CN111815683B/zh
Publication of CN111815683A publication Critical patent/CN111815683A/zh
Application granted granted Critical
Publication of CN111815683B publication Critical patent/CN111815683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开提供一种目标定位方法、装置以及电子设备和计算机可读介质,涉及计算机视觉技术领域,该方法包括:获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵;获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵;根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。本公开实施例提出的方法,能自动、有效的定位出目标物体的中心位置,并且定位精度高。

Description

目标定位方法及装置、电子设备和计算机可读介质
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种目标定位方法及装置、电子设备和计算机可读介质。
背景技术
目标识别、定位是机器视觉领域中里非常重要的基础研究。其研究的目标就是通过图像信息、视频信息或者空间信息来对环境进行感知、对物体进行识别定位,理解场景所表达的信息。例如室内环境识别食品、家具等等。
对目标物体进行识别定位的相关技术中,不能准确的识别出目标物体的中心点位置,对于一些需要定位出目标物体中心位置的场景,例如机器人对目标物体进行抓取、跟踪,相关技术无法满足需求。无疑,找到一种定位目标物体中心位置的方法是极其具有意义的。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本公开提供一种目标定位方法及装置、电子设备和计算机可读介质,能够在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的第一个方面,提出一种目标定位方法,该目标定位方法包括:获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵;获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵;根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
在示例性实施例中,所述方法还包括:获得第一目标场景在各个视角下的第一相机坐标系中的三维点云信息;根据所述第一目标场景在各个视角下的第一相机坐标系中的三维点云信息,获得第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息;获得所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的第二变换矩阵;其中,所述目标变换矩阵选取自所述第二变换矩阵。
在示例性实施例中,所述方法还包括:将所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到同一坐标系下以生成所述目标物体的三维模型;以所述目标物体的三维模型的中心为所述目标物体的物体坐标系的原点,以构建所述目标物体的物体坐标系。
在示例性实施例中,所述方法还包括:使用主成分分析算法分析所述目标物体的三维模型,将分析得到的前三个特征向量分别当作所述物体坐标系的X、Y、Z轴。
在示例性实施例中,所述方法还包括:获得第二目标场景在所述当前视角下的当前相机坐标系中的彩色点云信息;根据所述第二目标场景的彩色点云信息获得所述第二目标场景中各个待识别物体的彩色图像;获取所述第一目标场景中目标物体在所述各个视角下的彩色图像;根据所述各个待识别物体的彩色图像和所述第一目标场景中目标物体的彩色图像在所述各个待识别物体中识别出所述目标物体。
在示例性实施例中,所述根据所述第二目标场景的彩色点云信息获得第二目标场景中各个待识别物体的彩色图像包括:对所述第二目标场景的彩色点云进行物体分割以获得第二目标场景中各个待识别物体的彩色点云;根据所述第二目标场景中各个待识别物体的彩色点云获得所述第二目标场景中各个待识别物体的彩色图像。
在示例性实施例中,所述根据所述第二目标场景的彩色点云信息获得第二目标场景中各个待识别物体的彩色图像还包括:对所述第二目标场景的彩色点云进行去噪、去背景处理,并根据处理后的第二目标场景的彩色点云生成所述第二目标场景的彩色图像;对所述第二目标场景的彩色图像进行形态学处理以去除彩色图像的边缘毛刺,并根据处理后的彩色图像生成第二目标场景的彩色点云。
根据本公开实施例的第二方面,提出一种目标定位装置,该定位装置包括:点云获取模块,配置为获取目标物体在当前视角下的当前相机坐标系中的点云信息;第一变换矩阵获取模块,配置为生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵;目标变换矩阵获取模块,配置为获得所述目标物体在当前视角下的第一相机坐标系中点云信息转换到所述目标物体的物体坐标系的目标变换矩阵;中心位置确定模块,配置为根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
根据本公开实施例的第三方面,提出一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一项所述的目标定位方法。
根据本公开实施例的第四方面,提出一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如上述任一项所述的目标定位方法。
本公开某些实施例提供的目标定位方法、装置及电子设备和计算机可读介质,通过获取目标物体在当前视角下的当前相机坐标系中的三维点云信息,并获得该目标物体在该当前视角下的第一相机坐标系,从而可以生成该当前视角下的该第一相机坐标系与该当前相机坐标系的第一变换矩阵;此外,还可以通过构建该目标物体的物体坐标系,获得将该目标物体在该当前视角下的第一相机坐标系中的三维点云信息转换到该目标物体的物体坐标系的目标变换矩阵,进而可以实现根据获得的该第一变换矩阵和该目标变换矩阵,确定该目标物体的物体中心在该目标物体的物体坐标系中的位置信息,即可以通过坐标系的转化实现目标物体中心位置的定位,该定位方法定位精度高,实施简单,可以广泛应用于需要准确定位出目标物体中心位置的场景,例如机器人对目标物体进行抓取、跟踪等。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。下面描述的附图仅仅是本公开的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用于本发明实施例的目标定位方法或目标定位装置的示例性系统架构的示意图。
图2是根据本发明实施例示出的一种目标定位方法的流程图。
图3是根据本发明实施例示出的一种三种坐标通过平移转换矩阵相互转换的示意图。
图4根据本发明实施例示出的另一种目标定位方法的流程图。
图5根据本发明实施例示出的又一种目标定位方法的流程图。
图6根据本发明实施例示出的再一种目标定位方法流程图。
图7根据本发明实施例示出的再一种目标定位方法流程图。
图8根据本发明实施例示出的再一种目标定位方法流程图。
图9根据一示例性实施例示出的一种目标定位装置的框图。
图10据另一示例性实施例示出的一种目标定位装置的框图。
图11据又一示例性实施例示出的一种目标定位装置的框图。
图12据再一示例性实施例示出的一种目标定位装置的框图。
图13据再一示例性实施例示出的一种目标定位装置的框图。
图14据再一示例性实施例示出的一种目标定位装置的框图。
图15是根据一示例性实施例示出的一种应用于目标定位装置的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本发明将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而省略特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图仅为本发明的示意性图解,图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和步骤,也不是必须按所描述的顺序执行。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本说明书中,用语“一个”、“一”、“该”、“所述”和“至少一个”用以表示存在一个或多个要素/组成部分/等;用语“包含”、“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”、“第二”和“第三”等仅作为标记使用,不是对其对象的数量限制。
下面结合附图对本发明示例实施方式进行详细说明。
图1示出了可以应用于本发明实施例的目标定位方法或目标定位装置的示例性系统架构的示意图。
如图1所示,系统架构100可以包括点云获取装置101、终端设备102、103,网络104和服务器105。网络104用以在点云获取装置101、终端设备102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备102、103通过网络104与服务器105交互,以接收或发送消息等。其中,终端设备102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
点云获取装置101用以获取目标物体的点云,点云获取装置101获得目标物体的点云之后会将该点云经网络104上传至服务器105。该点云获取装置101可例如是深度相机、三维激光扫描仪或照相式扫描仪等可以获取目标物体的点云信息的装置。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备102、103所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
服务器105可例如获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;服务器105可例如生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵;服务器105可例如获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵;服务器105可例如根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
应该理解,图1中的点云获取装置、终端设备、网络和服务器的数目仅仅是示意性的,服务器105可以是一个实体的服务器,还可以为多个服务器组成,根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2是根据一示例性实施例示出的一种目标定位方法的流程图。
参照图2,本实施例提供的目标定位方法可以包括以下步骤。
步骤S201,获取目标物体在当前视角下的当前相机坐标系中的三维点云信息。
本发明实施例中,所述目标物体例如可以是在分拣仓内待分拣包装盒,其形状大小等已知。在机器臂抓取包装盒进行分拣的过程中,包装盒可以作为目标物体被机器臂抓取。
本发明实施例中,通过测量仪器得到的产品外观表面的点数据集合称之为三维点云,它包括三维坐标X、Y、Z,可以表示目标物体表面的三维位置。点云可以在各个坐标系之间进行转换。
其中,相机坐标系可以指的是坐标系原点在相机内部的坐标系。但本公开并不限定于此,例如本公开实施例中相机坐标系不限定是相机的坐标系,可能是扫描仪的坐标系或者其它任意获取点云的装置的坐标系。其中,点云获取装置可以是深度相机、三维扫描仪等,本公开对此不做限制。
在本公开实施例中,所述当前视角指的是获取目标物体三维点云的点云获取装置在当前位置相对于目标物体的视角位置。
本公开实施例中,所述当前相机坐标系指的是坐标系原点在当前获取目标物体点云的点云获取装置内的坐标系,所以当前视角下的当前相机坐标系指的是坐标系原点在当前视角下的点云获取装置内的坐标系。
步骤S202,生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵。
需要说明的是,第一相机坐标系并不限定是一个坐标系,而可以是一类相机坐标系集合,也可称为第一相机坐标系集合。在第一相机坐标系集合中会存在对应于多个视角下的第一相机坐标系,其中包括当前视角下的第一相机坐标系。
本公开实施例中,两个坐标系之间的变换关系可以通过一个旋转平移矩阵描述。即第一变换矩阵可以是从所述当前视角下的当前相机坐标系向当前视角下的第一相机坐标系转换的旋转平移矩阵。
例如,假如目标物体为眼镜,在当前视角下的当前相机坐标系中该眼镜的三维点云信息可以用Pi表示,在当前视角下的第一相机坐标系中该眼镜的三维点云信息可以用Nk表示,i和k分别表示在各自坐标系下该眼镜的点云个数。通过一个旋转平移矩阵T,可以将当前视角下的当前相机坐标系中的点云Pi旋转平移至当前视角下的第一相机坐标系中。该过程可以用公式(1)表示。
Nk=T*Pi (1)
在本公开实施例中,旋转平移矩阵T可以表示为如下形式:
其中,R3×3为旋转矩阵,包含了姿态信息,可以从旋转矩阵里得到目标物体的旋转角度。t3×1为平移矩阵,包含了位置信息,从中可以平移矩阵中得到目标物体的位置信息平移位置信息。
如图3所示,图3是根据本发明实施例示出的一种三种坐标通过平移转换矩阵相互转换的示意图。在一些实施例中,通过第一变换矩阵可以将当前视角下的当前相机坐标系C转换为当前视角下的第一相机坐标系B。
步骤S203,获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵。
在本公开实施例中,目标物体的物体坐标系的原点可以在目标物体的中心位置处。
继续参考图3,目标变换矩阵可以将当前视角下的第一相机坐标系转换为物体坐标系。
步骤S204,根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
本公开实施例中,根据所述第一变换矩阵和所述目标变换矩阵可以将所述目标物体在物体坐标系中表示,其中物体坐标系的原点位置处就是该目标物体的中心位置。
如图3所示,已知第一变换矩阵和目标变换矩阵/>那么物体坐标系转换为当前相机坐标系的平移转换矩阵/>就可以求出,有了/>就可以进一步的求出当前相机坐标系转换为物体坐标系的旋转平移矩阵/>在示例性实施例中,已知当前相机坐标系转换为物体坐标系的旋转平移矩阵/>就可以将当前相机坐标系下的目标物体的三维点云向物体坐标系转换,然后就可以得到目标物体在物体坐标系下的三维点云。其中,物体坐标系的原点位置处就是该目标物体的中心位置。
图2所示实施例所提供的技术方案中,通过第一变换矩阵和目标变换矩阵,将目标物体在当时视角下的当前相机坐标系中的三维点云转化为物体坐标系下的三维点云。该技术方案通过矩阵的变换将目标物体的三维点云转换至物体坐标系下,精准的找到了目标物体的中心位置。
图4根据本发明实施例示出的另一种目标定位方法的流程图。
在本公开实施例中,对目标物体定位之前首先要构建目标物体的物体坐标系。构建目标物体的物体坐标系可以包括以下步骤:步骤S401,将第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到同一坐标系下以生成所述目标物体的三维模型;步骤S402,以所述目标物体的三维模型的中心为所述目标物体的物体坐标系的原点,以构建所述目标物体的物体坐标系。
在示例性实施例中,所述第一目标场景是指三维建模前获取目标物体的三维点云时,目标物体所在场景。该第一目标场景例如可以是车间、厂房等,本公开对此不做限制。在各个视角下获取该第一目标场景三维点云的点云获取装置自身都可以单独构成一个相机坐标系,将上述各个视角下获取的点云获取装置构成的相机坐标系统称为第一相机坐标系。
在本公开实施例中,多帧点云通过闭环优化算法来获得最终的目标物体的三维点云模型,作为后续识别定位的基础。
在示例性实施例中,在已知第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息的前提下,可以选择上述各个视角下的第一相机坐标系中的某一视角下的相机坐标系作为参考相机坐标系。例如,可以选择目标物体正向视角下的第一相机坐标系作为参考相机坐标系。在本公开实施例中,假设目标物体有正面、背面、上面、下面、左侧面、右侧面等至少六个面,点云获取装置从目标物体正面所对的方向获取该目标物体表面的三维点云,则该点云获取装置就是目标物体正向视角下的点云获取装置。
在本公开实施例中,将目标物体在其他各个视角下的点云与正向视角下的点云做配准。例如可以采用快速特征直方图描述子作为匹配依据,将各个视角下的点云与正向视角下的点云做配准,然后采用ICP(Iterative Closest Point)配准将目标物体在各个视角下的三维点云转换到同一坐标系下以生成目标物体的三维模型。
在示例性实施例中,可以选择目标物体的三维模型的中心为所述目标物体的物体坐标系的原点,以构建所述目标物体的物体坐标系,并使用主成分分析(PrincipalComponents Analysis,PCA)算法分析所述目标物体的三维模型,将主成分分析得到的前三个特征向量分别作为所述物体坐标系的X、Y、Z轴。由此目标物体的物体坐标系构建完成。
在上述步骤S401中,将所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到同一坐标系下以生成所述目标物体的三维模型过程中,就可以生成第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云转换到物体坐标系的第二变换矩阵。其中,第二变换矩阵是一个矩阵集合,包括至少一个矩阵。第二变换矩阵包括第一目标场景在各个视角下的第一相机坐标系的三维点云转换到同一坐标系下对应的多个平移转换矩阵。其中,所述同一坐标系可以指定任意一个坐标系,本公开对此不做限制。
如图5所示,生成第二变换矩阵可以包括以下步骤。
步骤S501,获得第一目标场景在各个视角下的第一相机坐标系中的三维点云信息。
在示例性实施例中,可以使用点云获取装置从相对于该目标物体的不同的角度获取第一目标场景的三维点云信息。例如,可以通过kinect传感器从不同的角度获取第一目标场景的RGB-D图像,该RGB-D图像包括深度图和彩色图。获得RGB-D图像后可以通过相机标定、对齐等操作获取第一目标场景的RGB点云,该RGB点云既可以包括第一目标场景在各个视角下的第一相机坐标系中的三维点云信息,还可以包括第一目标场景表面的颜色信息。
步骤S502,根据所述第一目标场景的三维点云信息,获得第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息。
在示例性实施例中,获得第一目标场景的各个视角的点云之后可以进行一些预处理。例如,采用深度方向直通滤波等来去除背景点云,然后使用采样一致性的算法来拟合目标物体所在平面,并将该平面点云去掉。
例如,假设目标物体(这里可以假设是装有用户已经下单的物品的包装盒)置放于车间的传送带上,可以通过kinect传感器从不同的角度获取包装盒在传送带上的场景的RGB-D图像,该RGB-D图像包括深度图和彩色图。通过相机标定、对齐等操作后可以获取盒子在传送带上的场景的RGB点云。然后通过采样一致性的算法拟合出传送带的平面,并去除该传送带平面的点云。去除背景点云和平面点云后可以得到各个视角下包装盒的RGB点云信息。但是该物体的RGB点云信息相对来说还存在一些毛刺点。接下来还需要将包装盒RGB点云转换到图像坐标系下,采用图像处理技术去除图片中边缘毛刺等,然后再将包装盒的彩色图像投影到三维空间。由此便可以获得第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维RGB点云。
步骤S503,获得所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的第二变换矩阵;其中,所述目标变换矩阵选取自所述第二变换矩阵。
在示例性实施例中,已知目标物体的物体坐标系和目标物体在各个视角下的第一相机坐标系中的三维点云,可以求出所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的第二变换矩阵。
图5所示实施例提供的目标定位方法,通过将第一目标场景中目标物体在各个视角下的三维点云信息转换到同一坐标系下以实现对目标物体的三维建模,然后根据目标物体的三维模型可以获取目标物体在各个视角下的第一相机坐标系中的三维点云,获取各个视角下的第一相机坐标系与物体坐标系至今的第二变换矩阵,该第二变换矩阵不是单指一个矩阵,而是一个矩阵集合。
图6根据本发明实施例示出的另一种目标定位方法的流程图。
参照图6,本实施例提供的目标定位方法可以包括以下步骤。
步骤S601,获得第二目标场景在所述当前视角下的当前相机坐标系中的彩色点云信息。
本公开实施例中,所述彩色点云信息可以是那些既具备三维坐标信息又具备彩色信息的点的集合,该彩色信息可以例如是RGB信息,也可例如是HSV信息等,本公开对此不做限定。在本公开实施例中均以RGB为例进行举例说明。
在示例性实施例中,可以使用深度相机获得第二目标场景的彩色点云信息,例如可以使用kinect传感器获得第二目标场景的RGB图像和深度图像,然后经过相机标定和对齐以获得第二目标场景的彩色点云。
对目标进行定位是因为系统无法判断一个场景中目标物体的具体位置。在示例性实施例中,将待识别物体所在场景统一可以称为第二目标场景。该第二目标场景可以是包括目标物体的车间、厂房等空间,另外在该第二目标场景中不仅包含了目标物体还可能包含了其它非目标物体,可以将第二目标场景中包含的物体统称为待识别物体。
在本公开示例性实施例中,当前视角指的是获取目标物体三维点云的点云获取装置当前位置相对于目标物体的视角位置,当前相机坐标系指的坐标系原点在当前获取目标物体点云的点云获取装置内的坐标系,所以当前视角下的当前相机坐标系指的是坐标系原点在当前视角下的点云获取装置内的坐标系。
步骤S602,根据所述第二目标场景的彩色点云信息获得所述第二目标场景中各个待识别物体的彩色图像。
在示例性实施例中,根据所述第二目标场景的彩色点云信息获得所述第二目标场景中各个待识别物体的彩色图像之前需要对第二目标场景的彩色点云进行一些去噪、去背景处理,主要包括如图7所示步骤。
步骤S701,对所述第二目标场景的彩色点云进行去噪、去背景处理,并根据处理后的第二目标场景的彩色点云生成所述第二目标场景的彩色图像。
在示例性实施例中,获得第二目标场景的各个视角的彩色点云之后需进行一些预处理。比如采用深度方向直通滤波等来去除背景点云,然后使用采样一致性的算法来拟合目标物体所在平面,并将该平面点云去掉。例如,如果目标物体盒子置放于车间的传送带上,我们可以通过采样一致性的算法拟合出传送带的平面,并去除该传送带平面的点云。
步骤S702,对所述第二目标场景的彩色图像进行形态学处理以去除彩色图像的边缘毛刺,并根据处理后的彩色图像生成第二目标场景的彩色点云。
去除背景点云和平面点云后可以得到各个视角下较粗糙的目标物体的彩色点云信息,接下来还需要将目标物体粗糙的彩色点云转换到图像坐标系下,采用图像处理技术去除图片中边缘毛刺等,然后再将目标物体的彩色图像投影到三维空间。由此便可以获得第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维彩色点云。
通过上述实施例提供的去噪、去背景方法可以有效的去除第二目标场景中无效彩色点云,使得第二目标场景中的彩色点云只保留了待识别物体的彩色点云。
在示例性实施例中,获得第二目标场景中待识别物体的彩色点云后可以通过如图8所示的步骤获待识别物体的彩色点云。
步骤S801,对所述第二目标场景的彩色点云进行物体分割以获得第二目标场景中各个待识别物体的彩色点云。
在示例性实施例中,可以通过点云的物体分割对第二目标场景中的各个待识别物体进行分割聚类。例如,可以通过欧式聚类分割将具有一定间隔的待识别物体分割出来,再例如,可以通过基于法线与曲率的区域生成算法将表面法线变换的相邻物体分割出来。
步骤S802,根据所述第二目标场景中各个待识别物体的彩色点云,获得所述第二目标场景中各个待识别物体的彩色图像。
通过步骤S801,可以将第二目标场景中各个待识别物体的彩色点云分割出来。由于彩色点云本身具又彩色信息,所以我们可一根据待识别物体的彩色点云生成各个待识别物体的彩色图像。
在示例性实施例中,获得所述第二目标场景中各个待识别物体的彩色图像之后需要执行步骤S603。
步骤S603,获取所述第一目标场景中目标物体在所述各个视角下的彩色图像。
在示例性实施例中,不仅可以获取目标物体在各个视角的第一相机坐标系下的三维点云,还可以获取目标物体在各个视角下的彩色图像。例如,可以使用深度相机获取第一目标场景中目标物体在各个视角下的第一相机坐标系中的彩色点云,该彩色点云同样也包括了目标物体的彩色信息。根据目标物体在各个视角下第一相机坐标系的彩色点云获取目标物体在各个视角下的彩色图像。
步骤S604,根据所述各个待识别物体的彩色图像和所述第一目标场景中目标物体在所述各个视角下的彩色图像,在所述各个待识别物体中识别出所述目标物体。
在示例性实施例中,将各个待识别物体的彩色图像和所述第一目标场景中目标物体在各个视角下的彩色图像做匹配。例如,可以选取ORB特征作为特征描述子,与模型库中目标物体在各个视角下的彩色图像做匹配,该模型库可以包括目标物体的三维点云模型,目标物体在各个视角下的彩色图像以及所述第二变换矩阵等。上述模型库的构建过程已在图4所示实施例中描述,此处不再赘述。在上述过程中,首先可以确定待识别物体中的哪个物体是目标物体,同时可以确定第一目标场景中目标物体在各个视角下的彩色图像中哪一幅彩色图像的视角与目标物体的视角最为相似。
例如,假设目前要定位的目标物体是一个彩色盒子,该盒子所在的第一目标场景是一个车间传送带上,该传送带上同时存在杯子、书本等物品。另外,必须说明的是,在进行定位之前,系统已经在第二目标场景中例如从前、后、左、右、上、下等六个视角方向获得了该盒子的彩色图。定位时,假设通过深度相机从正面视角获得了待识别物体的彩色点云,待识别物体可以包括盒子、杯子、书本等。通过预处理和点云物体分割可以获得各个待识别物体的彩色点云,通过各个待识别物体的彩色点云可以生成各个待识别物体的正面彩色图。将各个待识别物体的正面彩色图与第二目标场景中的盒子的六个视角下的彩色图做匹配。经过匹配后可以确定第一目标场景中的待识别物体中的目标物体,另外还可在第二目标场景中六个视角下的彩色图中确定一个拍摄视角为正向的彩色图像。
在上述示例性实施例中,可以通过将第二目标场景中的待识别物体和第一目标场景中各个视角下的目标物体做匹配,在第二目标场景中的待识别物体中确定目标物体,同样可以在第一目标场景中确定一个与第二目标场景中的目标物体获取视角相同的目标物体的三维点云信息。
通过图6所示实施例可以获取目标物体在当前视角下的当前相机坐标系中的三维点云信息。然后就可以生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵。
在示例性实施例中,当前视角下的第一相机坐标系指的是第一目标场景中与第二目标场景中的目标物体获取视角相同的目标物体所在的相机坐标系。
在示例性实施例中,获得第一变换矩阵后还要获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵。
在示例性实施例中,已知所述第一变换矩阵和所述目标变换矩阵,可以将第二目标场景中的目标物体在当前视角下的当前坐标系中的三维点云转换到相机坐标系下,以确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
图9根据一示例性实施例示出的一种目标定位装置的框图。参照图9,该装置900包括:点云获取模块901、第一变换矩阵获取模块902、目标变换矩阵获取模块903和中心位置确定模块904。
其中,点云获取模块901可以配置为获取目标物体在当前视角下的当前相机坐标系中的点云信息。
第一变换矩阵获取模块902可以配置为生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵。
目标变换矩阵获取模块903可以配置为获得所述目标物体在当前视角下的第一相机坐标系中点云信息转换到所述目标物体的物体坐标系的目标变换矩阵。
中心位置确定模块904可以配置为根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
图10据一示例性实施例示出的一种目标定位装置的框图。如图10所示,目标变换矩阵获取模块903包括:第一目标场景三维点云获取单元9031,可以配置为获得第一目标场景在各个视角下的第一相机坐标系中的三维点云信息;目标物体三维点云获取单元9032,可以配置为根据所述第一目标场景在各个视角下的第一相机坐标系中的三维点云信息,获得第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息;第二变换矩阵生成单元9033,可以配置为获得所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的第二变换矩阵。其中,所述目标变换矩阵选取自所述第二变换矩阵。
图11根据一示例性实施例示出的一种目标定位装置的框图。该第二变换矩阵生成单元9033可以包括:三维模型生成子单元90331,可以配置为将所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到同一坐标系下以生成所述目标物体的三维模型;原点选择子单元90332,以所述目标物体的三维模型的中心为所述目标物体的物体坐标系的原点,以构建所述目标物体的物体坐标系。
图12根据一示例性实施例示出的一种目标定位装置的框图。参考图12,该目标定位装置900可以包括:第二目标场景彩色点云获取模块905,可以配置为获得第二目标场景在所述当前视角下的当前相机坐标系中的彩色点云信息;待识别物体彩色图像获取模块906,可以配置为根据所述第二目标场景的彩色点云信息获得所述第二目标场景中各个待识别物体的彩色图像;目标物体彩色图像获取模块907,可以配置为获取所述第一目标场景中目标物体在所述各个视角下的彩色图像;目标物体识别模块908,可以配置为根据所述各个待识别物体的彩色图像和所述第一目标场景中目标物体的彩色图像在所述各个待识别物体中识别出所述目标物体。
图13根据一示例性实施例示出的一种目标定位装置的框图。如图13所示,待识别物体彩色图像获取模块906包括:待识别物体彩色点云获取单元9061,可以配置为对所述第二目标场景的彩色点云进行物体分割以获得第二目标场景中各个待识别物体的彩色点云;获取待识别物体彩色图像单元9062,可以配置为根据所述第二目标场景中各个待识别物体的彩色点云,获得所述第二目标场景中各个待识别物体的彩色图像。
图14根据一示例性实施例示出的一种目标定位装置的框图。如图14所示,待识别物体彩色图像获取模块906还包括:预处理单元9063,可以配置为对所述第二目标场景的彩色点云进行去噪、去背景处理,并根据处理后的第二目标场景的彩色点云生成所述第二目标场景的彩色图像;第二目标场景彩色点云获取单元9064,可以配置为对所述第二目标场景的彩色图像进行形态学处理以去除彩色图像的边缘毛刺,并根据处理后的彩色图像生成第二目标场景的彩色点云。
由于本发明的示例实施例的目标定位装置900的各个功能模块与上述目标定位方法的示例实施例的步骤对应,因此在此不再赘述。
下面参考图15,其示出了适于用来实现本申请实施例的终端设备的计算机系统1500的结构示意图。图15示出的终端设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图15所示,计算机系统1500包括中央处理单元(CPU)1501,其可以根据存储在只读存储器(ROM)1502中的程序或者从存储部分1508加载到随机访问存储器(RAM)1503中的程序而执行各种适当的动作和处理。在RAM 1503中,还存储有系统1500操作所需的各种程序和数据。CPU 1501、ROM 1502以及RAM 1503通过总线1504彼此相连。输入/输出(I/O)接口1505也连接至总线1504。
以下部件连接至I/O接口1505:包括键盘、鼠标等的输入部分1506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1507;包括硬盘等的存储部分1508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1509。通信部分1509经由诸如因特网的网络执行通信处理。驱动器1510也根据需要连接至I/O接口1505。可拆卸介质1511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1510上,以便于从其上读出的计算机程序根据需要被安装入存储部分1508。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的示例性实施例中,该计算机程序可以通过通信部分1509从网络上被下载和安装,和/或从可拆卸介质1511被安装。在该计算机程序被中央处理单元(CPU)1501执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请示例性实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括发送单元、获取单元、确定单元和第一处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述示例性实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备可实现功能包括:获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;生成所述当前视角下的第一相机坐标系与所述当前相机坐标系的第一变换矩阵;获得所述目标物体在所述当前视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的目标变换矩阵;根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者智能设备等)执行根据本发明实施例的方法,例如图2的一个或多个所示的步骤。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本公开旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未申请的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由权利要求指出。
应当理解的是,本发明并不限于这里已经示出的详细结构、附图方式或实现方法,相反,本发明意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。

Claims (10)

1.一种目标定位方法,其特征在于,包括:
在第二目标场景中获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;其中所述当前视角是获取所述三维点云信息的点云获取装置在当前位置相对于所述目标物体的视角位置;其中所述当前相机坐标系是坐标系原点在所述点云获取装置内的坐标系;
获取所述当前视角下的第一相机坐标系,所述当前视角下的第一相机坐标系是在第一目标场景中预先构建的、且与所述第二目标场景中的所述目标物体的获取视角相同的相机坐标系;其中所述第一目标场景与所述第二目标场景是两个不同的场景;
生成所述当前视角下的第一相机坐标系与所述当前视角下的所述当前相机坐标系的第一变换矩阵;
获取从所述当前视角下的第一相机坐标系转换到所述目标物体的物体坐标系的目标变换矩阵;
根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
2.根据权利要求1所述方法,其特征在于,所述方法还包括:
获取所述第一目标场景在各个视角下的第一相机坐标系中的三维点云信息;
根据所述第一目标场景在各个视角下的第一相机坐标系中的三维点云信息,获得所述第一目标场景中的所述目标物体在各个视角下的第一相机坐标系中的三维点云信息;
获取所述第一目标场景中所述目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到所述目标物体的物体坐标系的第二变换矩阵;
其中,所述目标变换矩阵选取自所述第二变换矩阵。
3.根据权利要求2所述方法,其特征在于,所述方法还包括:
将所述第一目标场景中目标物体在各个视角下的第一相机坐标系中的三维点云信息转换到同一坐标系下以生成所述目标物体的三维模型;
以所述目标物体的三维模型的中心为所述目标物体的物体坐标系的原点,以构建所述目标物体的物体坐标系。
4.根据权利要求3所述方法,其特征在于,所述方法还包括:
使用主成分分析算法分析所述目标物体的三维模型,将分析得到的前三个特征向量分别作为所述物体坐标系的X、Y、Z轴。
5.根据权利要求1所述方法,其特征在于,所述方法还包括:
获得第二目标场景在所述当前视角下的当前相机坐标系中的彩色点云信息;
根据所述第二目标场景的彩色点云信息获得所述第二目标场景中各个待识别物体的彩色图像;
获取第一目标场景中目标物体在各个视角下的彩色图像;
根据所述各个待识别物体的彩色图像和所述第一目标场景中目标物体的彩色图像在所述各个待识别物体中识别出所述目标物体。
6.根据权利要求5所述方法,其特征在于,所述根据所述第二目标场景的彩色点云信息获得第二目标场景中各个待识别物体的彩色图像包括:
对所述第二目标场景的彩色点云进行物体分割以获得第二目标场景中各个待识别物体的彩色点云;
根据所述第二目标场景中各个待识别物体的彩色点云,获得所述第二目标场景中各个待识别物体的彩色图像。
7.根据权利要求6所述方法,其特征在于,所述根据所述第二目标场景的彩色点云信息获得第二目标场景中各个待识别物体的彩色图像还包括:
对所述第二目标场景的彩色点云进行去噪、去背景处理,并根据处理后的第二目标场景的彩色点云生成所述第二目标场景的彩色图像;
对所述第二目标场景的彩色图像进行形态学处理以去除彩色图像的边缘毛刺,并根据处理后的彩色图像生成第二目标场景的彩色点云。
8.一种目标定位装置,其特征在于,包括:
点云获取模块,配置为在第二目标场景中获取目标物体在当前视角下的当前相机坐标系中的三维点云信息;其中所述当前视角是获取所述三维点云信息的点云获取装置在当前位置相对于所述目标物体的视角位置;其中所述当前相机坐标系是坐标系原点在所述点云获取装置内的坐标系;
获取所述当前视角下的第一相机坐标系,所述当前视角下的第一相机坐标系是在第一目标场景中预先构建的、且与所述第二目标场景中的所述目标物体的获取视角相同的相机坐标系;其中所述第一目标场景与所述第二目标场景是两个不同的场景;
第一变换矩阵获取模块,配置为生成所述当前视角下的第一相机坐标系与所述当前视角下的所述当前相机坐标系的第一变换矩阵;
目标变换矩阵获取模块,配置为获取从所述当前视角下的第一相机坐标系转换到所述目标物体的物体坐标系的目标变换矩阵;
中心位置确定模块,配置为根据所述第一变换矩阵和所述目标变换矩阵确定所述目标物体的物体中心在所述物体坐标系中的位置信息。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
CN201910295106.1A 2019-04-12 2019-04-12 目标定位方法及装置、电子设备和计算机可读介质 Active CN111815683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910295106.1A CN111815683B (zh) 2019-04-12 2019-04-12 目标定位方法及装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910295106.1A CN111815683B (zh) 2019-04-12 2019-04-12 目标定位方法及装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN111815683A CN111815683A (zh) 2020-10-23
CN111815683B true CN111815683B (zh) 2024-05-17

Family

ID=72843968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910295106.1A Active CN111815683B (zh) 2019-04-12 2019-04-12 目标定位方法及装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN111815683B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561990B (zh) * 2021-01-21 2022-05-31 禾多科技(北京)有限公司 定位信息生成方法、装置、设备和计算机可读介质
CN113345023B (zh) * 2021-07-05 2024-03-01 北京京东乾石科技有限公司 箱体的定位方法、装置、介质和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1596333A1 (en) * 2004-05-14 2005-11-16 Canon Kabushiki Kaisha Camera calibration for mixed reality
CN102848388A (zh) * 2012-04-05 2013-01-02 上海大学 基于多传感器的服务机器人定位和抓取方法
CN105976353A (zh) * 2016-04-14 2016-09-28 南京理工大学 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN107230225A (zh) * 2017-04-25 2017-10-03 华为技术有限公司 三维重建的方法和装置
JP2017207385A (ja) * 2016-05-19 2017-11-24 富士通株式会社 3次元認識装置、3次元認識方法、及び3次元認識プログラム
CN107958481A (zh) * 2016-10-17 2018-04-24 杭州海康威视数字技术股份有限公司 一种三维重建方法及装置
CN108881886A (zh) * 2018-05-31 2018-11-23 成都中绳科技有限公司 一种基于相机矩阵技术实现在显示端进行大数据无损交互应用的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8630456B2 (en) * 2009-05-12 2014-01-14 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
US8891900B2 (en) * 2011-06-08 2014-11-18 Xerox Corporation Frame-based coordinate space transformations of graphical image data in an image processing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1596333A1 (en) * 2004-05-14 2005-11-16 Canon Kabushiki Kaisha Camera calibration for mixed reality
CN102848388A (zh) * 2012-04-05 2013-01-02 上海大学 基于多传感器的服务机器人定位和抓取方法
CN105976353A (zh) * 2016-04-14 2016-09-28 南京理工大学 基于模型和点云全局匹配的空间非合作目标位姿估计方法
JP2017207385A (ja) * 2016-05-19 2017-11-24 富士通株式会社 3次元認識装置、3次元認識方法、及び3次元認識プログラム
CN107958481A (zh) * 2016-10-17 2018-04-24 杭州海康威视数字技术股份有限公司 一种三维重建方法及装置
CN107230225A (zh) * 2017-04-25 2017-10-03 华为技术有限公司 三维重建的方法和装置
CN108881886A (zh) * 2018-05-31 2018-11-23 成都中绳科技有限公司 一种基于相机矩阵技术实现在显示端进行大数据无损交互应用的方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
A 3D Modeling Method of Indoor Objects Using Kinect Sensor;Bowei Shen等;2017 10th International Symposium on Computational Intelligence and Design (ISCID);全文 *
A Radar Target Tracking Method based on Coordinate Transformation KF;Liang Jianxing等;2018 IEEE 3rd Advanced Information Technology, Electronic and Automation Control Conference (IAEAC);全文 *
一种基于校正点云主成分坐标系的快速全局配准算法;陈旭;何炳蔚;;激光与光电子学进展(第06期);全文 *
基于RGB-D图像的物体识别与位置估计方法;刘海龙;肖攀;邱明玮;刘岩;李兵兵;马春生;柴庆冕;刘志炜;;机械制造(第07期);全文 *
基于人工势场和NDT算法融合的三维重建方法;韩太军;杨晶东;许金波;刘通;;电子科技(第02期);全文 *
基于相对坐标ICP的室内场景三维重建算法;李策;卢冰;肖利梅;陈晓雷;;兰州理工大学学报(第03期);全文 *
基于相机视角的标定和定位算法的研究;朱子奇;丁艳;;光学技术(第02期);全文 *

Also Published As

Publication number Publication date
CN111815683A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN111754515B (zh) 堆叠物品的顺序抓取方法和装置
US10924729B2 (en) Method and device for calibration
EP3502621B1 (en) Visual localisation
TWI587205B (zh) Method and system of three - dimensional interaction based on identification code
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
US11321822B2 (en) Determining image defects using image comparisons
US9349180B1 (en) Viewpoint invariant object recognition
CN110349212B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
CN113724368B (zh) 图像采集系统、三维重建方法、装置、设备以及存储介质
CN108430032B (zh) 一种实现vr/ar设备位置共享的方法及设备
CN108597034B (zh) 用于生成信息的方法和装置
CN111815683B (zh) 目标定位方法及装置、电子设备和计算机可读介质
CN108492284B (zh) 用于确定图像的透视形状的方法和装置
CN112733641A (zh) 物体尺寸测量方法、装置、设备及存储介质
CN113689508B (zh) 点云标注方法、装置、存储介质及电子设备
CN108305281A (zh) 图像的校准方法、装置、存储介质、程序产品和电子设备
CN117313364A (zh) 一种数字孪生三维场景构建方法及装置
Seo et al. Real-time visual tracking of less textured three-dimensional objects on mobile platforms
CN115031635A (zh) 测量方法及装置、电子设备及存储介质
CN110377776B (zh) 生成点云数据的方法和装置
CN108256477B (zh) 一种用于检测人脸的方法和装置
CN115115699A (zh) 姿态估计方法、装置、相关设备和计算机产品
CN114638846A (zh) 拾取位姿信息确定方法、装置、设备和计算机可读介质
CN113793349A (zh) 目标检测方法及装置、计算机可读存储介质、电子设备
CN111428729A (zh) 一种目标检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210305

Address after: 101, 1st floor, building 2, yard 20, Suzhou street, Haidian District, Beijing 100080

Applicant after: Beijing Jingbangda Trading Co.,Ltd.

Address before: 100086 8th Floor, 76 Zhichun Road, Haidian District, Beijing

Applicant before: BEIJING JINGDONG SHANGKE INFORMATION TECHNOLOGY Co.,Ltd.

Applicant before: BEIJING JINGDONG CENTURY TRADING Co.,Ltd.

Effective date of registration: 20210305

Address after: Room a1905, 19 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Beijing Jingdong Qianshi Technology Co.,Ltd.

Address before: 101, 1st floor, building 2, yard 20, Suzhou street, Haidian District, Beijing 100080

Applicant before: Beijing Jingbangda Trading Co.,Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant