CN106078771A - 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法 - Google Patents

一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法 Download PDF

Info

Publication number
CN106078771A
CN106078771A CN201610654716.2A CN201610654716A CN106078771A CN 106078771 A CN106078771 A CN 106078771A CN 201610654716 A CN201610654716 A CN 201610654716A CN 106078771 A CN106078771 A CN 106078771A
Authority
CN
China
Prior art keywords
kinect
many
array
control module
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610654716.2A
Other languages
English (en)
Other versions
CN106078771B (zh
Inventor
刘辉
李燕飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201610654716.2A priority Critical patent/CN106078771B/zh
Publication of CN106078771A publication Critical patent/CN106078771A/zh
Application granted granted Critical
Publication of CN106078771B publication Critical patent/CN106078771B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供了一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法,全视角识别装置采用了一种基于多Kinect协同的圆盘阵列装置,该圆盘阵列装置设计巧妙,现了移动机器人对运动周围环境的360°全视角测量,做到对室内环境无死角的测量;并具有冗余式设计,具有价格便宜、安装维修方便等优点。在控制系统中,通过引入多Kinect分组切换模块,实现对多个kinect的同时开启或任意kinect的控制,使得机器人可以根据需要任何开启某个方向或是某几个方向的kinect实现对人、物等对象的测量与识别。利用该控制方法对识别装置进行控制时,控制过程简单,操作方便且准确度高。

Description

一种基于多Kinect协同的移动机器人室内全视角识别装置及 其控制系统和方法
技术领域
本发明属于机器人控制领域,特别涉及一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法。
背景技术
近年来,移动机器人被大量地应用于各类室内环境用于实现室内运输任务,比如制造工厂内搬运各种制造零件、在现代实验室内运输各类试验原料等。在室内环境中,机器人需要对室内的环境(包括建筑环境、障碍物和人)全视角测量才能进行有效的机器人室内退避、人机互动等高级功能。然而,单个Kinect的测量范围不是全视角的,如第一代Kinect的水平测量范围为57°,垂直测量范围为70°。即使是2014年微软发布的第二代Kinect的水平测量范围也仅仅为70°,垂直测量范围为60°。由于角度量程限制的原因,如果采用单个Kinect,机器人无法自动对周围360°方向内的全视角测量与识别。
发明专利《仿人机器人自碰撞监控系统及监控方法》(专利号:201410032110.6)实现了仿人移动机器人对前面障碍物的防碰撞退避功能,但不能实现对机器人运用室内环境在360°方向内的全视角检测,这样该机器人即使拥有强大的退避算法也无法根据机器人周边的实时环境实现不同角度的灵活性的高质量防碰撞退避功能。发明专利《扫地机器人新型碰撞避障结构》(专利号:201410266629.0)提出了一种用于扫地移动机器人的碰撞壁障机构,并利用传感器能够检测前面180°范围内的障碍物。同样地,该专利提出的结构无法实现360°全视角范围内的碰撞壁障。由于该扫地机器人不能对360°全视角的周边环境(包括人和物)进行同步检测,那么机器人为了安全地避开自己身边的各类障碍物,就必须采取非直线的旋转运动来工作,这不仅直接影响了机器人的运动控制灵活性,也降低了机器人扫地的效率。
学术论文《多Kinect实时室内动态场景三维重建》提出了运用三台Kinect朝内对某个人体头型模型实现三维重构。该技术侧重于计算机图形学的领域,重点在于如何运用Kinect提高对三维模型的重构精度。而在机器人的室内运用场合中,机器人不需要对某个人体障碍物进行准确的三维重构与描述,重点在于要实现对整个三维室内环境的测量与辨识。如果利用该论文所提出的三维模型重构方法对机器人室内全视角环境进行重构与识别,那么所消耗的时间是不允许的。因此,该方法无法用于实际机器人系统中。
学术论文《基于多Kinect的三维人体重建系统》提出了运用两台Kienct上下安装实现对某个人体整身模型的三维重构。与前面提到那篇学术论文相似,虽然该论文提出了运用两台Kinect对人体整身模型进行有效重构,但所提出的方法无法满足机器人室内运输的实时性要求。此外,在机器人运输环境中,不仅有人,而且有其他类型的障碍物,比如其他类型的移动机器人、桌子等。
综上所述,在现有技术中机器人的识别角度无法达到360°全方位覆盖以及机器人应用多个Kinect时控制灵活性不够和控制实时性不足。
发明内容
针对上述技术或方法的不足,为满足移动机器人对室内环境全视角识别的迫切需要,本发明提供了一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法。
一种基于多Kinect协同的圆盘阵列装置,包括第一基准圆盘和第二基准圆盘,以及至少六个Kinect;
第一基准圆盘半径大于第二基准圆盘,第二基准圆盘安装在第一基准圆盘上,且两个基准圆盘的圆心位置相同;
以第一基准圆盘外周与XY坐标轴的四个交点作为Kinect安装点;
以第一基准圆盘外周上两相邻Kinect安装点的连线中点和圆心之间的连线与第二基准圆盘外周的四个交点作为Kinect安装点;
每个Kinect安装在一个Kinect安装点上,且安装在第一基准圆盘和第二基准圆盘上的Kinect分别与第一基准圆盘外周和第二基准圆盘外周相切。
包括八个Kinect,安装在各Kinect安装点。
为了让各个Kinect之间有冗余覆盖,圆盘阵列装置安装有8个Kinect。两个基准安装圆盘的半径可以跟根据移动机器人的实际物理尺寸灵活选择。
一种基于多Kinect协同的移动机器人室内全视角识别装置,包括电源插头、USB扩展器以及上述的基于多Kinect协同的圆盘阵列装置;
所述基于多Kinect协同的圆盘阵列装置固定在移动机器人上,且圆盘阵列装置上的Kinect通过电源插头由移动机器人上的车载电源模块供电,圆盘阵列装置上的Kinect通过USB扩展器与移动机器人上的车载笔记本进行通信连接。
在移动机器人不需要进行室内环境的360°全视角测量与识别时,阵列装置上面的Kinect个数也可以灵活减少。
一种基于多Kinect协同的移动机器人室内全视角识别装置的控制系统,用于对上述的基于多Kinect协同的移动机器人室内全视角识别装置进行控制,包括多Kinect分组切换模块、Kinect for Windows SDK类库软件模块、Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
每个Kinect上均设置有Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
所述Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块均与所述Kinect for Windows SDK类库软件模块相连;
所述多Kinect传感器分组切换模块与所述Kinect for Windows SDK类库软件模块相连;
其中,所述多Kinect传感器分组切换模块用于实现对整个圆盘阵列装置上面全部Kinect的切换控制;
所述Kinect for Windows SDK类库软件模块用于引用和控制所安装的全部Kinect的类库文件Microsoft.Kinect.dll,并调取Kinect的全部内置功能函数;
所述Kinect深度测量控制模块用于控制圆盘阵列装置中各Kinect对室内环境的深度采集,通过调用KinectSensor对象的DepthStream类实现;
所述Kinect图像采集控制模块用于控制圆盘阵列装置中各Kinect对室内环境的图像采集,通过调用KinectSensor对象的ColorStream类实现;
所述Kinect人体骨架追踪控制模块用于控制圆盘阵列装置中各Kinect对室内环境中人的识别和跟踪,通过调用KinectSensor对象的Skeleton类实现。
还包括与所述Kinect传感器图像采集控制模块相连的Emgu CV/Open CV类库软件模块;
所述Emgu CV/Open CV类库软件模块用于引用和控制Emgu CV的类库文件Emgu.CV.dll和Open CV的类库文件Open.CV.dll。
Emgu CV/Open CV类库软件模块用于补充Kinect for Windows SDK类库软件模块中除了Kinect SDK自身包括以外的其他最新图像处理函数,为将来升级圆盘阵列装置的功能提供软件支撑类库。
一种基于多Kinect协同的移动机器人室内全视角识别装置的控制方法,利用上述的控制系统,对上述的识别装置进行控制,具体过程如下:
开启移动机器人,利用多Kinect分组切换模块启动相应的Kinect;
通过Kinect深度测量控制模块控制Kinect对360°全视角内的物体障碍物进行扫描,测量获得距离机器人最近的物体障碍物离机器人的深度尺寸;
Kinect人体骨架追踪控制模块控制Kinect对360°全视角内的全部人进行扫描,测量获得距离机器人最近的人离机器人的距离;
Kinect图像采集控制模块控制Kinect对360°全视角内的室内环境进行图像捕捉。
有益效果
本发明提供了一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法,巧妙性地设计了一种基于多Kinect协同的圆盘阵列装置,采用两个圆盘叠加设计,并提出了冗余式设计,将该装置应用到移动机器人上时构建的识别装置,实现了移动机器人对运动周围环境的360°全视角测量,做到对室内环境无死角的测量,并且使得圆盘阵列装置对人或物体的有效测量距离从第二代Kinect自身的4.5米提高到了5.49米;当装有该阵列装置的移动机器人在室内环境与多个人进行交互控制的时候,机器人就可以灵活地通过本装置判断来人的方向和来人的行为;当识别装置在室内环境进行智能退避运动时,可以对机器人周围的任何方向进行障碍物测量与识别;相对于其他360°全视角室内测量系统或装置而言,如室内雷达定位装置,本发明所设计的装置具有价格便宜、安装维修方便等优点。在控制系统中,通过引入多Kinect分组切换模块,实现对多个kinect的同时开启或任意kinect的控制,使得机器人可以根据需要任何开启某个方向或是某几个方向的kinect实现对人、物等对象的测量与识别。利用该控制方法对识别装置进行控制时,控制过程简单,操作方便且准确度高。
附图说明
图1为本发明所述的装有多个Kinect的圆盘阵列装置结构示意图;
图2为本发明所述的识别装置的结构示意图;
图3为本发明所述的控制系统结构示意图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
一种基于多Kinect协同的圆盘阵列装置,包括第一基准圆盘和第二基准圆盘,以及至少六个Kinect;
第一基准圆盘半径大于第二基准圆盘,第二基准圆盘安装在第一基准圆盘上,且两个基准圆盘的圆心位置相同;
以第一基准圆盘外周与XY坐标轴的四个交点作为Kinect安装点;
以第一基准圆盘外周上两相邻Kinect安装点的连线中点和圆心之间的连线与第二基准圆盘外周的四个交点作为Kinect安装点;
每个Kinect安装在一个Kinect安装点上,且安装在第一基准圆盘和第二基准圆盘上的Kinect分别与第一基准圆盘外周和第二基准圆盘外周相切。
如图1所示:单个第二代Kinect的水平最大量程AC长为4.5米,可计算出本阵列装置的水平最大量程长为:
对比于超声波传感器所拥有的厘米级别的测量距离,圆盘阵列装置中所采用的Kinect传感器可以通过机器视觉的工作方式实现最长达5.49米的、更长距离的识别。此外,超声波传感器无法区分检测对象是移动的人还是移动的物体,而通过采用Kinect传感器内嵌的人体骨骼追踪模块可以方便地识别出检测到的移动对象是人还是物。再者,现有的超声波传感器技术还无法同步地对机器人周围360°全视角内的检测与识别。在移动机器人室内导航与智能退避方面,现有的红外线传感器也具有跟超声波传感器相类似的技术缺陷,即检测量程小、无法区分移动的人和物体、无法对机器人周围360°全视角内的检测。本发明所设计的圆盘阵列装置克服了上述超声波传感器和红外线传感器在这方面的全部技术不足。
虽然近年来发展起来的室内雷达模块通过对周边环境的旋转扫描能够实现360°全视角内的检测与识别,但其安装复杂和造价昂贵的缺点限制了它的推广和发展。此外,对比室内雷达模块,本发明所提出的圆盘阵列装置除了能够对360°全视角内的人和物体实现检测和识别,还可以根据现场的情况通过控制跟圆盘阵列装置相连的控制系统灵活地开启或关闭圆盘阵列装置上的一个或多个Kinect,从而开启或关闭360°全视角内的某些角度。将该圆盘阵列装置应用到机器人上时,可以让移动机器人更加灵活地按照需要对某个角度内的人或物体进行识别和检测。
一种基于多Kinect协同的移动机器人室内全视角识别装置的硬件连接结构如图2所示,包括电源插头、USB扩展器以及上述的基于多Kinect协同的圆盘阵列装置;圆盘阵列装置通过安装底座固定在移动机器人上,由于通常移动机器人的车载笔记本没有8个usb3.0接口,因此本装置需要外置一个多口的usb3.0扩展器。此外,需要一个外置电源插头从机器人的车载电源模块给全部的Kinect供电。外置电源插头呈并联结构。
如图3所示,一种基于多Kinect协同的移动机器人室内全视角识别装置的控制系统,用于对上述的基于多Kinect协同的移动机器人室内全视角识别装置进行控制,包括多Kinect分组切换模块、Kinect for Windows SDK类库软件模块、Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
每个Kinect上均设置有Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
所述Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块均与所述Kinect for Windows SDK类库软件模块相连;
所述多Kinect传感器分组切换模块与所述Kinect for Windows SDK类库软件模块相连;
其中,所述多Kinect传感器分组切换模块用于实现对整个圆盘阵列装置上面全部Kinect的切换控制;
所述Kinect for Windows SDK类库软件模块用于引用和控制所安装的全部Kinect的类库文件Microsoft.Kinect.dll,并调取Kinect的全部内置功能函数;
所述Kinect深度测量控制模块用于控制圆盘阵列装置中各Kinect对室内环境的深度采集,通过调用KinectSensor对象的DepthStream类实现;
所述Kinect图像采集控制模块用于控制圆盘阵列装置中各Kinect对室内环境的图像采集,通过调用KinectSensor对象的ColorStream类实现;
所述Kinect人体骨架追踪控制模块用于控制圆盘阵列装置中各Kinect对室内环境中人的识别和跟踪,通过调用KinectSensor对象的Skeleton类实现。
还包括与所述Kinect传感器图像采集控制模块相连的Emgu CV/Open CV类库软件模块;
所述Emgu CV/Open CV类库软件模块用于引用和控制Emgu CV的类库文件Emgu.CV.dll和Open CV的类库文件Open.CV.dll。
上述控制系统的控制方法过程如下:
(1)当移动机器人上点开机后,上述的圆盘阵列装置将自动启动。圆盘阵列装置中的“多Kinect分组切换模块”将按照操作认定的定义选择开启全部或是某个或是某个Kinect。在默认情况下,圆盘基座上的8个Kinect将全部开启。
(2)移动机器人在室内的运动过程中,圆盘阵列装置将实时对室内环境的各类物体和人障碍物进行检测。具体为:
Kinect深度测量控制模块控制Kinect对360°全视角内的物体障碍物进行扫描,测量获得距离机器人最近的物体障碍物离机器人的深度尺寸;单个Kinect的水平最大测量视角为70°,由于本实例中圆盘阵列装置拥有8个Kinect,因此本装置实现了360°全视角内的、任何障碍物的深度尺寸测量。对于移动机器人实现对静动态物体障碍物的高质量退避非常有利。
Kinect人体骨架追踪控制模块控制Kinect对360°全视角内的全部人进行扫描,测量获得距离机器人最近的人离机器人的距离。单个Kinect最多可以同时追踪6个人并计算出他们的骨骼中心距离机器人的实时距离。由于本实例中圆盘阵列装置拥有8个Kinect,因此本装置最多可以同时处理6×8=48个人。对于移动机器人实现对人的人机互动和对人的智能退避非常有利。
Kinect图像采集控制模块控制Kinect对360°全视角内的室内环境进行图像捕捉。如需要对所采集到图像进行处理,该模块可以灵活地读取Emgu CV/Open CV类库软件模块中的图像处理函数。比如进行人脸的边缘检测等。
当机器人发现360°全视角范围内出现某个物体障碍物或是人和机器人的距离超过机器人的安全运行距离,则机器人可以停止运行并开展退避运动。
(3)基于本发明所述的多Kinect圆盘阵列装置,机器人还可以根据需要在任何时刻、任何地点对某个Kinect进行独立的开启或关闭操作。比如,当机器人不需要对背面障碍物的检测,就可以关闭装置中后面位置的3个Kinect传感器,使得同样的机器人电源储备量可以用的时间更长。

Claims (6)

1.一种基于多Kinect协同的圆盘阵列装置,其特征在于,包括第一基准圆盘和第二基准圆盘,以及至少六个Kinect;
第一基准圆盘半径大于第二基准圆盘,第二基准圆盘安装在第一基准圆盘上,且两个基准圆盘的圆心位置相同;
以第一基准圆盘外周与XY坐标轴的四个交点作为Kinect安装点;
以第一基准圆盘外周上两相邻Kinect安装点的连线中点和圆心之间的连线与第二基准圆盘外周的四个交点作为Kinect安装点;
每个Kinect安装在一个Kinect安装点上,且安装在第一基准圆盘和第二基准圆盘上的Kinect分别与第一基准圆盘外周和第二基准圆盘外周相切。
2.根据权利要求1所述的圆盘阵列装置,其特征在于,包括八个Kinect,安装在各Kinect安装点。
3.一种基于多Kinect协同的移动机器人室内全视角识别装置,其特征在于,包括电源插头、USB扩展器以及权利要求1或2所述的基于多Kinect协同的圆盘阵列装置;
所述基于多Kinect协同的圆盘阵列装置固定在移动机器人上,且圆盘阵列装置上的Kinect通过电源插头由移动机器人上的车载电源模块供电,圆盘阵列装置上的Kinect通过USB扩展器与移动机器人上的车载笔记本进行通信连接。
4.一种基于多Kinect协同的移动机器人室内全视角识别装置的控制系统,其特征在于,用于对权利要求3所述的基于多Kinect协同的移动机器人室内全视角识别装置进行控制,包括多Kinect分组切换模块、Kinect for Windows SDK类库软件模块、Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
每个Kinect上均设置有Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块;
所述Kinect深度测量控制模块、Kinect图像采集控制模块以及Kinect人体骨架追踪控制模块均与所述Kinect for Windows SDK类库软件模块相连;
所述多Kinect传感器分组切换模块与所述Kinect for Windows SDK类库软件模块相连;
其中,所述多Kinect传感器分组切换模块用于实现对整个圆盘阵列装置上面全部Kinect的切换控制;
所述Kinect for Windows SDK类库软件模块用于引用和控制所安装的全部Kinect的类库文件Microsoft.Kinect.dll,并调取Kinect的全部内置功能函数;
所述Kinect深度测量控制模块用于控制圆盘阵列装置中各Kinect对室内环境的深度采集,通过调用KinectSensor对象的DepthStream类实现;
所述Kinect图像采集控制模块用于控制圆盘阵列装置中各Kinect对室内环境的图像采集,通过调用KinectSensor对象的ColorStream类实现;
所述Kinect人体骨架追踪控制模块用于控制圆盘阵列装置中各Kinect对室内环境中人的识别和跟踪,通过调用KinectSensor对象的Skeleton类实现。
5.根据权利要求4所述的控制系统,其特征在于,还包括与所述Kinect传感器图像采集控制模块相连的Emgu CV/Open CV类库软件模块;
所述Emgu CV/Open CV类库软件模块用于引用和控制Emgu CV的类库文件Emgu.CV.dll和Open CV的类库文件Open.CV.dll。
6.一种基于多Kinect协同的移动机器人室内全视角识别装置的控制方法,其特征在于,利用权利要求4或5所述的控制系统,对权利要求3所述的识别装置进行控制,具体过程如下:
开启移动机器人,利用多Kinect分组切换模块启动相应的Kinect;
通过Kinect深度测量控制模块控制Kinect对360°全视角内的物体障碍物进行扫描,测量获得距离机器人最近的物体障碍物离机器人的深度尺寸;
Kinect人体骨架追踪控制模块控制Kinect对360°全视角内的全部人进行扫描,测量获得距离机器人最近的人离机器人的距离;
Kinect图像采集控制模块控制Kinect对360°全视角内的室内环境进行图像捕捉。
CN201610654716.2A 2016-08-10 2016-08-10 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法 Active CN106078771B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610654716.2A CN106078771B (zh) 2016-08-10 2016-08-10 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610654716.2A CN106078771B (zh) 2016-08-10 2016-08-10 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法

Publications (2)

Publication Number Publication Date
CN106078771A true CN106078771A (zh) 2016-11-09
CN106078771B CN106078771B (zh) 2017-04-26

Family

ID=57456438

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610654716.2A Active CN106078771B (zh) 2016-08-10 2016-08-10 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法

Country Status (1)

Country Link
CN (1) CN106078771B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109895105A (zh) * 2017-12-11 2019-06-18 拉扎斯网络科技(上海)有限公司 一种智能装置
CN110861093A (zh) * 2019-12-06 2020-03-06 潍坊学院 一种并联机械臂智能5g导航避障系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0151417A1 (en) * 1984-01-19 1985-08-14 Hitachi, Ltd. Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
CN104867140A (zh) * 2015-05-13 2015-08-26 中国科学院光电技术研究所 一种基于仿生复眼的大视场定位系统
CN105014667A (zh) * 2015-08-06 2015-11-04 浙江大学 一种基于像素空间优化的相机与机器人相对位姿标定方法
CN105307116A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于移动机器人的分布式视觉定位系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0151417A1 (en) * 1984-01-19 1985-08-14 Hitachi, Ltd. Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor
CN103279987A (zh) * 2013-06-18 2013-09-04 厦门理工学院 基于Kinect的物体快速三维建模方法
CN104867140A (zh) * 2015-05-13 2015-08-26 中国科学院光电技术研究所 一种基于仿生复眼的大视场定位系统
CN105014667A (zh) * 2015-08-06 2015-11-04 浙江大学 一种基于像素空间优化的相机与机器人相对位姿标定方法
CN105307116A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于移动机器人的分布式视觉定位系统及方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109895105A (zh) * 2017-12-11 2019-06-18 拉扎斯网络科技(上海)有限公司 一种智能装置
CN110861093A (zh) * 2019-12-06 2020-03-06 潍坊学院 一种并联机械臂智能5g导航避障系统
CN110861093B (zh) * 2019-12-06 2021-03-12 潍坊学院 一种并联机械臂智能5g导航避障系统

Also Published As

Publication number Publication date
CN106078771B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
Fröhlich et al. Terrestrial laser scanning–new perspectives in 3D surveying
US11059174B2 (en) System and method of controlling obstacle avoidance of robot, robot and storage medium
CN107016667B (zh) 一种利用双目视觉获取大型零部件三维点云的装置
CN204374771U (zh) 实现清扫机器人地图边界建模的装置以及清扫机器人
CN101430214B (zh) 智能巡检机器小车
CN104090279B (zh) 一种基于激光雷达的挖掘作业面检测装置
US20090128557A1 (en) Method and apparatus for generating data for three-dimensional models from x-rays
CN103778566A (zh) 基于三维可视化展示的火电厂监测方法
CN110362090A (zh) 一种巡检机器人控制系统
CN102879080A (zh) 基于图像识别定位和声学传感器阵列测量的声场分析方法
CN102494657A (zh) 一种曲面轮廓测量及检测的测头半径补偿方法
CN105425806A (zh) 移动机器人的人体探测与跟踪方法及装置
CN101630418A (zh) 三维模型的测量和重建一体化方法及其系统
CN110196431A (zh) 基于arm的低成本室内3d激光扫描测距系统及方法
CN106078771A (zh) 一种基于多Kinect协同的移动机器人室内全视角识别装置及其控制系统和方法
CN201293837Y (zh) 月球车高速三维激光成像雷达系统
CN116067555B (zh) 一种城市轨道交通用螺栓松动检测系统、方法及存储介质
CN103336588B (zh) 一种激光跟踪式无线三维鼠标
Choi et al. Msc-rad4r: Ros-based automotive dataset with 4d radar
CN106980417A (zh) 一种基于激光扫描的非接触式按键系统
CN101738173A (zh) 基于单片机光栅双读数头的三维激光扫描测量系统
CN207516542U (zh) 一种地面三维激光雷达装置
CN110207619A (zh) 基于全方位移动平台搭载协作机械臂的测量系统及方法
CN107462153B (zh) 一种快速建立三维空间模型的方法
JP2017150977A (ja) 計測装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant