CN113942013A - 基于数据可视化的快速手眼标定方法及系统 - Google Patents
基于数据可视化的快速手眼标定方法及系统 Download PDFInfo
- Publication number
- CN113942013A CN113942013A CN202111287816.3A CN202111287816A CN113942013A CN 113942013 A CN113942013 A CN 113942013A CN 202111287816 A CN202111287816 A CN 202111287816A CN 113942013 A CN113942013 A CN 113942013A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- data
- rendering
- eye calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Eye Examination Apparatus (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了基于数据可视化的快速手眼标定方法及系统,其中,方法包含以下步骤:获取标定板的点云数据;对获取的点云数据进行分析判断其是否符合标准;对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过显示颜色来区分其是否符合标准;在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。本发明的基于数据可视化的快速手眼标定方法及系统通过将数据进行可视化呈现,让用户在标定阶段明显感知到所标定的不同位姿点之间差别,有效进行标定板位姿的选取,可在最短时间内完成手眼标定。
Description
技术领域
本发明涉及快速手眼标定技术领域,具体涉及一种基于数据可视化的快速手眼标定方法及系统。
背景技术
标定3D相机与机器人之间坐标关系被称为手眼标定。当下市面上普遍采取的手眼标定方法为:将标定板安装到机械臂末端,通过移动机械臂来移动标定板,在3D相机(以下均称之为相机)视野下选取8-10个合适的标定点位姿,读取相机以及机器人的位姿数据,调用手眼标定算法对所读取的数据进行计算,最终得到标定结果,完成手眼标定过程。然而,此类方法主要有两点缺陷:第一点,在标定过程中,系统记录的仅仅是抽象的位姿数据,导致用户无法感知所记录的不同标定点之间的位姿差别。第二点,若标定结果有问题,用户无法找到并且查看不合格的标定点位姿,只能重新开始标定。综上两点,此类方法非常耗时耗力。
发明内容
本发明提供了基于数据可视化的快速手眼标定方法及系统,采用如下的技术方案:
一种基于数据可视化的快速手眼标定方法,包含以下步骤:
获取标定板的点云数据;
对获取的点云数据进行分析判断其是否符合标准;
对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过显示颜色来区分其是否符合标准;
在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。
进一步地,获取标定板的点云数据的方法为:
系统发送拍照信号给3D相机,触发3D相机拍照;
3D相机开始投影,将事先编码好的结构光打到标定板上;
投影完成,获取此刻3D相机视野下标定板位姿;
3D相机调用点云生成算法,生成标定板位姿的点云数据;
3D相机将点云数据传给系统,系统保存至后台数据库中。
进一步地,对获取的点云数据进行分析判断其是否符合标准的具体方法为:
获取系统后台保存的所有点云数据;
调用手眼标定算法处理点云数据;
判断用户所标定的点云数据是否符合最佳的点云位姿,并且返回相应结果;
若不符合,则判定该点云数据不通过,计算更适合的位姿数据,返回结果0和该推荐的位姿数据;
若符合,则判定该点云数据通过,同时返回结果1。
进一步地,对获取的点云数据进行渲染并将渲染结果显示给用户的具体方法为:
获取系统后台保存的当前获取的点云数据;
调用系统点云处理算法处理点云数据;
根据处理后的点云数据是否符合标准将其渲染成不同的颜色,将渲染结果显示给用户。
进一步地,调用系统点云处理算法处理点云数据的具体方法为:
对点云数据进行分割聚类和噪声处理,去除多余无用的点云,只留下系统所需要的点云数据。
进一步地,在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据的具体方法为:
当获取到预设数量的点云数据时,调取所有的点云数据;
依次处理点云数据;
将处理后的点云数据与前一个处理好的点云数据进行融合;
判断所进行融合的点云数据是否为最后一张点云数据,直到所融合的点云数据为最后一张点云数据;
融合后得到一份融合的完整点云数据。
进一步地,依次处理点云数据具体方法为:
去除点云数据中的无效部分;
对点云数据进行滤波处理。
一种基于数据可视化的快速手眼标定系统,包含:
图像获取模块,用于获取标定板的点云数据;
数据分析模块,用于对获取的点云数据进行分析判断其是否符合标准;
图像渲染模块,用于对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过其显示的颜色来区分其是否符合标准;
图像融合模块,用于在图像获取模块获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。
进一步地,图像获取模块为3D相机;
图像获取模块获取标定板的点云数据的方法为:
系统发送拍照信号给3D相机,触发3D相机拍照;
3D相机开始投影,将事先编码好的结构光打到标定板上;
投影完成,获取此刻3D相机视野下标定板位姿;
3D相机调用点云生成算法,生成标定板位姿的点云数据;
3D相机将点云数据传给系统,系统保存至后台数据库中。
进一步地,数据分析模块对获取的点云数据进行分析判断其是否符合标准的具体方法为:
获取系统后台保存的所有点云数据;
调用手眼标定算法处理点云数据;
判断用户所标定的点云数据是否符合最佳的点云位姿,并且返回相应结果;
若不符合,则判定该点云数据不通过,计算更适合的位姿数据,返回结果0和该推荐的位姿数据;
若符合,则判定该点云数据通过,同时返回结果1。
进一步地,图像渲染模块对获取的点云数据进行渲染并将渲染结果显示给用户的具体方法为:
获取系统后台保存的当前获取的点云数据;
调用系统点云处理算法处理点云数据;
根据处理后的点云数据是否符合标准将其渲染成不同的颜色,将渲染结果显示给用户。
进一步地,图像渲染模块调用系统点云处理算法处理点云数据的具体方法为:
对点云数据进行分割聚类和噪声处理,去除多余无用的点云,只留下系统所需要的点云数据。
进一步地,图像融合模块在图像获取模块获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据的具体方法为:
当图像获取模块获取到预设数量的点云数据时,图像融合模块调取所有的点云数据;
依次处理点云数据;
将处理后的点云数据与前一个处理好的点云数据进行融合;
判断所进行融合的点云数据是否为最后一张点云数据,直到所融合的点云数据为最后一张点云数据;
融合后得到一份融合的完整点云数据。
进一步地,图像融合模块依次处理点云数据具体方法为:
去除点云数据中的无效部分;
对点云数据进行滤波处理。
一种终端设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现前述的基于数据可视化的快速手眼标定方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现前述的基于数据可视化的快速手眼标定方法的步骤。
本发明的有益之处在于所提供的基于数据可视化的快速手眼标定方法及系统通过将数据进行可视化呈现,让用户在标定阶段明显感知到所标定的不同位姿点之间的差别,有效进行标定板位姿的选取,并且还可推荐合适的标定板位姿,用户无需重新进行手眼标定。让用户可在最短时间内完成手眼标定。
附图说明
图1是本发明的基于数据可视化的快速手眼标定方法的示意图;
图2是本发明的基于数据可视化的快速手眼标定系统的示意图;
图3是本发明的终端设备的示意图;
图像获取模块11,数据分析模块12,图像渲染模块13,图像融合模块14。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
如图1所示为本申请的一种基于数据可视化的快速手眼标定方法,包含以下步骤:步骤S1:获取标定板的点云数据。步骤S2:对获取的点云数据进行分析判断其是否符合标准。步骤S3:对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过显示颜色来区分其是否符合标准。步骤S4:在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。以下具体介绍上述步骤。
对于步骤S1:获取标定板的点云数据。
具体而言,获取标定板的点云数据的方法为:系统发送拍照信号给3D相机,触发3D相机拍照。3D相机开始投影,将事先编码好的结构光打到标定板上。投影完成,获取此刻3D相机视野下标定板位姿。3D相机调用点云生成算法,生成标定板位姿的点云数据。3D相机将点云数据传给系统,系统保存至后台数据库中。
对于步骤S2:对获取的点云数据进行分析判断其是否符合标准。
具体而言,对获取的点云数据进行分析判断其是否符合标准的具体方法为:获取系统后台保存的所有点云数据。调用手眼标定算法处理点云数据。判断用户所标定的点云数据是否符合最佳的点云位姿,并且返回相应结果。若不符合,则判定该点云数据不通过,计算更适合的位姿数据,返回结果0和该推荐的位姿数据。若符合,则判定该点云数据通过,同时返回结果1。
对于步骤S3:对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过显示颜色来区分其是否符合标准。
对获取的点云数据进行渲染并将渲染结果显示给用户的具体方法为:获取系统后台保存的当前获取的点云数据。调用系统点云处理算法处理点云数据。根据处理后的点云数据是否符合标准将其渲染成不同的颜色,将渲染结果显示给用户。其中,调用系统点云处理算法处理所述点云数据的具体方法为:对点云数据进行分割聚类和噪声处理,去除多余无用的点云,只留下系统所需要的点云数据。
可以理解的是,基于步骤S2中的分析,可以判断当前获取的点云数据是否符合要求,在进行渲染后,通过渲染图像的颜色来进行区分。本申请中,对于符合标准的点云数据,渲染后用绿色显示,对于不符合标准的点云数据,渲染后用红色显示。同时,用户可以在当前的点云数据不符合标准时,根据步骤S2中推荐的位姿数据,重新获取符合标准的点云数据。当然,用户也可以根据需要,保留当前不符合标准的点云数据。
不断调整标定板的位姿,重复执行步骤S1-S3获取多个点云数据,每获取一个点云数据,都经过步骤S1-S3的渲染-分析-显示,供用户进行判断,直至获取到预设数量的点云数据后,执行步骤S4。本申请中,预设数量选择为8,预设数量可以根据需要进行适应性调整。
可以理解的是,步骤S2的判断步骤中,每一次均获取之前所有获取到的点云数据来综合分析当前这份点云数据是否符合标准。而步骤S3的渲染步骤,每个都仅仅调取刚刚获取到的点云数据进行渲染。
对于步骤S4:在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。
针对步骤S4,在获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据的具体方法为:当获取到预设数量的点云数据时,调取所有的点云数据。依次处理点云数据。将处理后的点云数据与前一个处理好的点云数据进行融合。判断所进行融合的点云数据是否为最后一张点云数据,直到所融合的点云数据为最后一张点云数据。融合后得到一份融合的完整点云数据。完整点云数据可以用于进行渲染以及分析,这样,渲染后的结果是在显示界面中同时显示8个标定板的点云数据,并且每一个点云数据通过显示绿色或红色来表示是否符合标准。其中,依次处理点云数据具体方法为:去除点云数据中的无效部分,再对点云数据进行滤波处理。
如图2所示,本发明还提供了一种基于数据可视化的快速手眼标定系统,包含:图像获取模块11、数据分析模块12、图像渲染模块13和图像融合模块14。图像获取模块11用于获取标定板的点云数据。数据分析模块12用于对获取的点云数据进行分析判断其是否符合标准。图像渲染模块13用于对获取的点云数据进行渲染并将渲染结果显示给用户,渲染结果通过其显示的颜色来区分其是否符合标准。图像融合模块14用于在图像获取模块11获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据。
具体地,图像获取模块11为上述的3D相机。图像获取模块11获取标定板的点云数据的方法为:系统发送拍照信号给3D相机,触发3D相机拍照。3D相机开始投影,将事先编码好的结构光打到标定板上。投影完成,获取此刻3D相机视野下标定板位姿。3D相机调用点云生成算法,生成标定板位姿的点云数据。3D相机将点云数据传给系统,系统保存至后台数据库中。图像获取模块11的核心工作是拍摄此刻相机视野下的标定板点云信息,同时将此数据保存至系统后台,为图像融合模块14以及图像渲染模块13提供基础。
数据分析模块12对获取的点云数据进行分析判断其是否符合标准的具体方法为:获取系统后台保存的所有点云数据。调用手眼标定算法处理点云数据。判断用户所标定的点云数据是否符合最佳的点云位姿,并且返回相应结果。若不符合,则判定该点云数据不通过,计算更适合的位姿数据,返回结果0和该推荐的位姿数据。若符合,则判定该点云数据通过,同时返回结果1。数据分析模块12的核心工作是调用手眼标定算法来判断用户当前所标定的位姿数据是否符合要求,处理完成后返回判定结果,同时将结果交由图像渲染模块13。通过图像渲染模块13呈现给用户查看,用户所看到的若为合格,则图像呈现绿色,表示合格。若不合格,则图像呈现红色,表示不合格,同时给出推荐的位姿处,用户可以移动标定板至该推荐的位姿处。也可以不进行调整,保留获取到的点云数据。
图像渲染模块13对获取的点云数据进行渲染并将渲染结果显示给用户的具体方法为:获取系统后台保存的当前获取的点云数据。调用系统点云处理算法处理点云数据。根据处理后的点云数据是否符合标准将其渲染成不同的颜色,将渲染结果显示给用户。其中,图像渲染模块13调用系统点云处理算法处理点云数据的具体方法为:对点云数据进行分割聚类和噪声处理,去除多余无用的点云,只留下系统所需要的点云数据。
图像融合模块14在图像获取模块11获取到预设数量的点云数据后对这些点云数据进行处理融合处理得到一份融合的完整点云数据的具体方法为:当图像获取模块11获取到预设数量的点云数据时,图像融合模块14调取所有的点云数据。依次处理点云数据。将处理后的点云数据与前一个处理好的点云数据进行融合。判断所进行融合的点云数据是否为最后一张点云数据,直到所融合的点云数据为最后一张点云数据。融合后得到一份融合的完整点云数据。
图像融合模块14依次处理点云数据具体方法为:去除点云数据中的无效部分,对点云数据进行滤波处理。
如图3所示,本发明还公开了一种终端设备,该终端设备包括存储器401和处理器402,存储器401存储有计算机程序,处理器402执行计算机程序时实现上述实施例的基于数据可视化的快速手眼标定方法的步骤。
本发明还公开了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例的基于数据可视化的快速手眼标定方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,上述实施例不以任何形式限制本发明,凡采用等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (10)
1.一种基于数据可视化的快速手眼标定方法,其特征在于,包含以下步骤:
获取标定板的点云数据;
对获取的所述点云数据进行分析判断其是否符合标准;
对获取的所述点云数据进行渲染并将渲染结果显示给用户,所述渲染结果通过显示颜色来区分其是否符合标准;
在获取到预设数量的所述点云数据后对这些所述点云数据进行处理融合处理得到一份融合的完整点云数据。
2.根据权利要求1所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述获取标定板的点云数据的方法为:
系统发送拍照信号给3D相机,触发3D相机拍照;
3D相机开始投影,将事先编码好的结构光打到标定板上;
投影完成,获取此刻3D相机视野下标定板位姿;
3D相机调用点云生成算法,生成标定板位姿的所述点云数据;
3D相机将所述点云数据传给系统,系统保存至后台数据库中。
3.根据权利要求2所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述对获取的所述点云数据进行分析判断其是否符合标准的具体方法为:
获取系统后台保存的所有所述点云数据;
调用手眼标定算法处理点云数据;
判断用户所标定的点云数据是否符合最佳的点云位姿,并且返回相应结果;
若不符合,则判定该点云数据不通过,计算更适合的位姿数据,返回结果0和该推荐的位姿数据;
若符合,则判定该点云数据通过,同时返回结果1。
4.根据权利要求3所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述对获取的所述点云数据进行渲染并将渲染结果显示给用户的具体方法为:
获取系统后台保存的当前获取的所述点云数据;
调用系统点云处理算法处理所述点云数据;
根据处理后的所述点云数据是否符合标准将其渲染成不同的颜色,将渲染结果显示给用户。
5.根据权利要求4所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述调用系统点云处理算法处理所述点云数据的具体方法为:
对所述点云数据进行分割聚类和噪声处理,去除多余无用的点云,只留下系统所需要的点云数据。
6.根据权利要求4所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述在获取到预设数量的所述点云数据后对这些所述点云数据进行处理融合处理得到一份融合的完整点云数据的具体方法为:
当获取到预设数量的所述点云数据时,调取所有的所述点云数据;
依次处理所述点云数据;
将处理后的所述点云数据与前一个处理好的所述点云数据进行融合;
判断所进行融合的所述点云数据是否为最后一张点云数据,直到所融合的所述点云数据为最后一张点云数据;
融合后得到一份融合的所述完整点云数据。
7.根据权利要求6所述的基于数据可视化的快速手眼标定方法,其特征在于,
所述依次处理所述点云数据具体方法为:
去除所述点云数据中的无效部分;
对所述点云数据进行滤波处理。
8.一种基于数据可视化的快速手眼标定系统,其特征在于,包含:
图像获取模块,用于获取标定板的点云数据;
数据分析模块,用于对获取的所述点云数据进行分析判断其是否符合标准;
图像渲染模块,用于对获取的所述点云数据进行渲染并将渲染结果显示给用户,所述渲染结果通过其显示的颜色来区分其是否符合标准;
图像融合模块,用于在所述图像获取模块获取到预设数量的所述点云数据后对这些所述点云数据进行处理融合处理得到一份融合的完整点云数据。
9.一种终端设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7中任一所述基于数据可视化的快速手眼标定方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任一所述基于数据可视化的快速手眼标定方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111287816.3A CN113942013B (zh) | 2021-11-02 | 2021-11-02 | 基于数据可视化的快速手眼标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111287816.3A CN113942013B (zh) | 2021-11-02 | 2021-11-02 | 基于数据可视化的快速手眼标定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113942013A true CN113942013A (zh) | 2022-01-18 |
CN113942013B CN113942013B (zh) | 2023-05-12 |
Family
ID=79337331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111287816.3A Active CN113942013B (zh) | 2021-11-02 | 2021-11-02 | 基于数据可视化的快速手眼标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113942013B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800520A (zh) * | 2022-05-23 | 2022-07-29 | 北京迁移科技有限公司 | 高精度的手眼标定方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489224A (zh) * | 2013-10-12 | 2014-01-01 | 厦门大学 | 一种交互式三维点云颜色编辑方法 |
CN109459984A (zh) * | 2018-11-02 | 2019-03-12 | 宁夏巨能机器人股份有限公司 | 一种基于三维点云的定位抓取系统及其使用方法 |
CN110653823A (zh) * | 2019-10-12 | 2020-01-07 | 四川长虹电器股份有限公司 | 基于数据反演的手眼标定结果可视化方法 |
CN111612853A (zh) * | 2020-05-25 | 2020-09-01 | 追创科技(苏州)有限公司 | 相机参数标定方法及装置 |
CN111612845A (zh) * | 2020-04-13 | 2020-09-01 | 江苏大学 | 一种基于移动标定板的激光雷达与相机联合标定方法 |
US20200388044A1 (en) * | 2019-06-06 | 2020-12-10 | Zhejiang University | Plant point cloud acquisition, registration and optimization method based on tof camera |
CN112562000A (zh) * | 2020-12-23 | 2021-03-26 | 安徽大学 | 基于特征点检测和误匹配筛选的机器人视觉定位方法 |
CN112917513A (zh) * | 2021-01-06 | 2021-06-08 | 徐礼达 | 一种基于机器视觉的三维点胶针头的tcp标定方法 |
CN113400301A (zh) * | 2021-05-28 | 2021-09-17 | 深圳市智能机器人研究院 | 一种机器人3d手眼标定方法、系统、装置及介质 |
-
2021
- 2021-11-02 CN CN202111287816.3A patent/CN113942013B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489224A (zh) * | 2013-10-12 | 2014-01-01 | 厦门大学 | 一种交互式三维点云颜色编辑方法 |
CN109459984A (zh) * | 2018-11-02 | 2019-03-12 | 宁夏巨能机器人股份有限公司 | 一种基于三维点云的定位抓取系统及其使用方法 |
US20200388044A1 (en) * | 2019-06-06 | 2020-12-10 | Zhejiang University | Plant point cloud acquisition, registration and optimization method based on tof camera |
CN110653823A (zh) * | 2019-10-12 | 2020-01-07 | 四川长虹电器股份有限公司 | 基于数据反演的手眼标定结果可视化方法 |
CN111612845A (zh) * | 2020-04-13 | 2020-09-01 | 江苏大学 | 一种基于移动标定板的激光雷达与相机联合标定方法 |
CN111612853A (zh) * | 2020-05-25 | 2020-09-01 | 追创科技(苏州)有限公司 | 相机参数标定方法及装置 |
CN112562000A (zh) * | 2020-12-23 | 2021-03-26 | 安徽大学 | 基于特征点检测和误匹配筛选的机器人视觉定位方法 |
CN112917513A (zh) * | 2021-01-06 | 2021-06-08 | 徐礼达 | 一种基于机器视觉的三维点胶针头的tcp标定方法 |
CN113400301A (zh) * | 2021-05-28 | 2021-09-17 | 深圳市智能机器人研究院 | 一种机器人3d手眼标定方法、系统、装置及介质 |
Non-Patent Citations (1)
Title |
---|
袁康正等: "机器人末端位移传感器的安装位置标定方法", 《浙江大学学报(工学版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800520A (zh) * | 2022-05-23 | 2022-07-29 | 北京迁移科技有限公司 | 高精度的手眼标定方法 |
CN114800520B (zh) * | 2022-05-23 | 2024-01-23 | 北京迁移科技有限公司 | 高精度的手眼标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113942013B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015192738A1 (en) | Image processing method and apparatus | |
CN110827202A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN111383270B (zh) | 物体定位方法、装置、计算机设备及存储介质 | |
WO2021184564A1 (zh) | 基于图像的事故定责方法、装置、计算机设备和存储介质 | |
CN113850807B (zh) | 图像亚像素匹配定位方法、系统、设备及介质 | |
CN113942013B (zh) | 基于数据可视化的快速手眼标定方法及系统 | |
CN112198963A (zh) | 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质 | |
CN110796709A (zh) | 车架号尺寸获取方法、装置、计算机设备和存储介质 | |
CN115272961A (zh) | 基于人工智能的vr设备预警监测方法及系统 | |
CN109191530B (zh) | 全景相机标定方法、系统、计算机设备和存储介质 | |
CN114998856A (zh) | 一种多相机图像的3d目标检测方法、装置、设备及介质 | |
CN109279542A (zh) | 叉车入叉方法、装置、计算机设备和存储介质 | |
CN116469101A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
CN111899263B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN111179332B (zh) | 图像处理方法及装置、电子设备及存储介质 | |
CN112233020A (zh) | 无人机图像拼接方法、装置、计算机设备及存储介质 | |
CN112672067A (zh) | 深度相机的自动曝光方法、系统、计算机设备和存储介质 | |
CN114095643B (zh) | 一种多主体融合成像的方法、装置、存储介质及电子设备 | |
CN107885180B (zh) | 测试设备和测试方法 | |
CN114049355B (zh) | 一种散乱工件的识别标注方法、系统和装置 | |
CN115481736B (zh) | 焊渣图模型的训练方法、焊渣切割模型的生成方法、设备 | |
CN111681201B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN117056749B (zh) | 点云数据处理方法、装置、电子设备及可读存储介质 | |
CN112364685A (zh) | 痤疮检测方法、痤疮检测模型训练方法及相关装置 | |
CN117074412A (zh) | 焊锡外观缺陷检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information |
Inventor after: Zhang Guohao Inventor after: Ye Yiwu Inventor after: Li Hongkun Inventor before: Zhang Guohao Inventor before: Du Huan Inventor before: Li Hongkun |
|
CB03 | Change of inventor or designer information |