CN112789570A - 用于输入工作区域的方法和机器人系统 - Google Patents
用于输入工作区域的方法和机器人系统 Download PDFInfo
- Publication number
- CN112789570A CN112789570A CN201980066721.3A CN201980066721A CN112789570A CN 112789570 A CN112789570 A CN 112789570A CN 201980066721 A CN201980066721 A CN 201980066721A CN 112789570 A CN112789570 A CN 112789570A
- Authority
- CN
- China
- Prior art keywords
- image
- points
- laser
- area
- robot system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000010191 image analysis Methods 0.000 claims abstract description 14
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 2
- 238000002360 preparation method Methods 0.000 claims 2
- 238000004458 analytical method Methods 0.000 abstract description 6
- 230000003287 optical effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000001681 protective effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Abstract
一种用于在监视区域(14)中输入工作区域(4)的机器人系统(15),其中所述机器人系统(15)具有激光指示器(2)作为输入单元,用于由用户(1)输入多个激光点(3),其中所述机器人系统(15)具有第一摄像机(6),用于从第一视角来拍摄所述监视区域(14)的第一图像,其中所述机器人系统(15)具有移动机器人单元(9),所述移动机器人单元具有第二摄像机(10),用于从第二视角来拍摄所述监视区域(14)的第二图像,其中所述机器人系统(15)具有用于识别在所述第一图像中和在所述第二图像中的激光点(3)的第一图像解析单元(7)或者用于识别在所述第一图像中的激光点的第一图像解析单元(7)和用于识别在所述第二图像中的激光点的第二图像解析单元(11),其特征在于,所述机器人系统(15)具有分析单元(13),用于根据所识别出的激光点(3)来对确定所述工作区域的多边形链(5、33)进行确定。
Description
技术领域
本发明的出发点是一种根据独立权利要求的前序部分所述的用于输入移动机器人的工作区域的系统或方法。
背景技术
从DE10215167C1已知一种用于命令在工作场地中的半自主系统的装置。在此,摄像机用于监视工作场地并且激光指示器用于标记在工作场地内的对象点。
从US4887223公知一种对移动机器人进行控制的材料运输系统。在此,为了控制移动机器人,视觉导航系统对借助于安装在移动机器人上的摄像机所拍摄的图像进行分析。
从出版物“用于多移动机器人的光学引导系统”(Proceedings of the 20011EEEInternational Conference on Robotics & Automation, 首尔, 韩国,2001年IEEE)已知一种用于移动机器人的光学引导系统。在此,使用激光指示器,该激光指示器将移动机器人的目标位置投影到地面上。
从出版物“This Far, No Further: Introducing Virtual Borders to MobileRobots Using a Laser Pointer”(Arxiv preprint arxiv: 1708.06274,2017年)已知一种方法,其中通过激光指示器来输入移动机器人的工作区域。
DE 10 2016 224 693 A1涉及一种用于对机械手进行遥控的便携式手持操作设备,其中便携式手持操作设备具有用于产生集束光线的光学辐射源,而且其中该集束光线被设立用于将便携式手持操作设备与机械手耦合。该发明的其它方面涉及一种具有转盘的便携式手持操作设备、一种用于检测便携式手持操作设备的集束光线的传感器、一种用于使便携式手持操作设备与机械手的耦合状态可视化的耦合显示装置、一种用于使便携式手持操作设备与机械手耦合的系统和一种用于使便携式手持操作设备与机械手耦合的方法。
按照DE 20 2009 012 589 U1的用于对平面的或体积式的保护区域进行监视和光学检测的光电传感器具有:接收单元,用于接收来自保护区域的接收光线并且根据接收光来产生接收信号;以及控制和分析单元,用于根据接收信号来产生与切换状态“在保护区域内的对象”相对应的对象查明信号。按照该发明,设置至少一个光发射器,利用该光发射器能在保护区域内以视觉上可识别出的方式来呈现切换状态“在保护区域内的对象”,其中该光发射器为了切换状态显示而朝着对象所在的方向发出透射光线。
DE 10 2008 054 863 A1公开了一种用于依据光标记来控制机器人的方法,其中借助于光源来产生光标记,其中摄像机系统对光标记进行检测,该光标记以小于等于摄像机系统的亮/暗图像刷新率的二分之一来被扫描并且通过分析由摄像机系统所检测到的图像来被识别。
AT 512 350 B1涉及一种计算机系统,该计算机系统包括数据处理系统和可自由移动的输入设备,该输入设备包含至少一个位置改变传感器,从该位置改变传感器能将信息发送给数据处理系统。关于输入设备的绝对位置的信息能通过数据处理系统来被检测,其方式是该数据处理系统与光敏的位置敏感的输入区保持数据连接并且输入设备发出光线,该光线在该输入区上的入射位置能通过该输入区来被探测。
US 2008/0 063 400 A1公开了一种用于控制远处车辆的系统和方法,该系统包括手动控制器,该手动控制器具有用于产生激光光线的激光发生器。该手动控制器能被操纵用来使激光光线取向并且触发激光光线,以便确定远处车辆的目的地。远处车辆检测激光光线的反射并且向所希望的目的地移动。该手动控制器能够实现对远处车辆及其有效载荷中的一个或多个有效载荷的单手操作。
TROUVAIN, Boris A.;SCHNEIDER, Frank E.;WILDERMUTH, Dennis.的Integrating a multimodal human-robot interaction method into a multi-robotcontrol Station,在:Proceedings 10th IEEE International Workshop on Robot andHuman Interactive Communication. ROMAN 2001 (Cat. No. 01TH8591). IEEE, 2001年,468-472页,描述了一种用于将与激光指示器和语言的直接多模式人机交互集成到实验性多机器人控制站中的方案。
发明内容
与此相对应地,按照本发明的具有独立权利要求1的特征的用于在监视区域中输入工作区域的机器人系统具有如下优点:该机器人系统具有分析单元,用于根据激光点来对确定该工作区域的多边形链进行确定,这些激光点由用户利用激光指示器来输入并且这些激光点在利用第一摄像机从第一视角所拍摄到的图像和利用第二摄像机从第二视角所拍摄到的图像中被识别。原因在于,利用与移动机器人连接的第一摄像机和第二摄像机,可以监视更大的监视区域,在该监视区域中可以输入工作区域。
此外,按照本发明的具有独立权利要求2的方法步骤的用于输入移动机器人的工作区域的方法具有如下优点:根据激光点通过投影到三维坐标空间中来确定在该三维坐标空间中的点集,并且根据该点集来确定并分析用于确定工作区域的多边形链。这是因为用户可以通过使用激光指示器在监视区域中进行绘制来舒适地输入工作区域。
通过在从属权利要求中提及的措施,对在独立权利要求中说明的设备的有利的扩展方案和改进方案都是可能的。
有利的是,按照本发明的方法为该监视区域规定了占用概率。这是因为移动机器人可以将该监视区域的占用概率用于导航计划。还有利的是,分析该监视区域的占用概率是禁止区还是允许区来得出工作区域,利用该工作区域来为移动机器人规定其运动区域的边界。
还有利的是,为了确定工作区域,根据激光点来确定控制点,其中该控制点引起工作区域的占用概率的变化。这是因为通过利用激光指示器的输入可以规定禁止区或允许区,对该禁止区或允许区进行分析以确定工作区域。
还有利的是,按照本发明的方法在投影到三维坐标空间中的情况下使用平面模型。这是因为对投影的计算被简化。
还有利的是,在按照本发明的方法连续检测第一图像和第二图像的情况下,第一图像和/或第二图像包含深度信息。这是因为对激光点的位置计算被改善。
特别有利的是,按照本发明的方法在确定多边形链的情况下执行对点集中的点的编组。这是因为对于确定多边形链来说错误识别或错误输入的激光点可以被去除。
特别有利的是,按照本发明的方法在确定多边形链的情况下执行对点集中的点的稀疏化。这是因为对于确定多边形链来说在空间上冗余的点可以被剔出。
特别有利的是,按照本发明的方法在确定多边形链的情况下使用点集中的点的子集。这是因为可以快速计算多边形链。
附图说明
本发明的实施例在附图中示出并且在随后的描述中进一步予以阐述。其中:
图1示出了按照本发明的机器人系统的实施方式的示意图;
图2示出了按照本发明的方法;以及
图3示出了按照本发明的方法的方法步骤的示例性图解。
具体实施方式
在图1中示出了按照本发明的机器人系统的实施方式。按照本发明的用于在监视区域14中输入工作区域4的机器人系统15具有:激光指示器2;第一摄像机6;带第二摄像机10的移动机器人9;第一图像解析单元7;第二图像解析单元11;用于通信的第一接口8;用于通信的第二接口12;和分析单元13。激光指示器2被设计为输入单元,用于由用户1来输入激光点3。
用户1用手持有激光指示器2作为针对机器人系统15的输入单元并且将激光点3照到监视区域14的地面上。通过用户1用激光指示器2来在地面上绘制激光点3,用户1将工作区域4的边界输入到机器人系统15中。用户1还可以用激光指示器2来输入控制点,该控制点规定了工作区域4位于边界的哪一侧。
第一摄像机6从第一视角来拍摄监视区域14的第一图像。第一摄像机6固定地安装在墙壁上并且从上方拍摄第一图像。第一摄像机6与第一图像解析单元7连接,该第一图像解析单元用于识别第一图像中的激光点3。图像解析单元7例如经由无线电连接来与在机器人系统15中的用于通信的第一接口8连接。例如,第一摄像机6是用于拍摄彩色图像的RGB摄像机或者用于组合式地拍摄彩色图像和深度图像的RGBD摄像机。
移动机器人9具有第二摄像机10、第二图像解析单元11、第二接口12和分析单元13。第二摄像机10被设计用于从第二视角来拍摄监视区域14的第二图像。第二图像解析单元11被设计用于识别第二图像中的激光点3并且与第二摄像机10连接。第二接口12与第二图像解析单元11和分析单元13连接。第二接口12被设计用于在机器人系统15中的通信、例如经由无线电连接的通信。分析单元13被设计用于根据所识别出的激光点3来对确定工作区域4的多边形链5进行确定。例如,第二摄像机10是用于拍摄彩色图像的RGB摄像机或者用于组合式地拍摄彩色图像和深度图像的RGBD摄像机。
在图2中示出了按照本发明的用于在监视区域中输入移动机器人的工作区域的方法20。方法20具有六个方法步骤21、22、23、24、25、26。
在第一方法步骤21中,连续地从第一视角检测第一图像并从第二视角检测第二图像。在第二方法步骤22中,识别在第一图像和/或第二图像中的激光点3。在第三方法步骤23中,根据激光点3通过投影到三维坐标空间中,确定在三维坐标空间中的点集。例如,第一图像和/或第二图像包含灰度值、色值和/或深度值。例如,针对该投影使用平面模型。
在第四方法步骤24中,根据该点集来确定多边形链5。例如,在第四方法步骤24中,利用该点集中的点来执行编组或分组(Clustering),其中将未被分派给具有多个点的组的点滤出。为了进行编组,例如执行DBSCAN算法。
例如,在第四方法步骤24中,执行对该点集中的点的稀疏化或打薄。例如,局部相邻的点被根据其平均值所形成的点替代。
例如,在第四方法步骤24中,根据该点集或该点集的根据编组和过滤或稀疏化而得出的子集,按如下地形成多边形链5。从起点开始绘出与终点的连接,该终点在点集中最接近起点。接着,终点是下一个、当前的起点并且绘出与下一个、当前的终点的连接,该下一个、当前的终点又是在点集中最接近当前的起点并且还未曾被分配给多边形链5。该终点是下一个、当前的起点并且相对应地继续绘出连接,直至为了形成多边形链5已考虑了所有点为止。多边形链5例如可以是敞开的或闭合的。
在第五方法步骤25中,分析多边形链5,以确定工作区域4。例如,针对监视区域14创建网格,该网格具有带占用概率的单元格。在此,针对该网格的单元格的录入项可以说明该单元格是空闲、被占用还是有一定的概率被占用或空闲。例如,如果通过闭合的多边形链5来划界并且处在该多边形链5之内的单元格的占用概率被标记为空闲并且处在该多边形链5之外的单元格的占用概率被标记为占用,则该多边形链5可以确定工作区域4的外边界。借此,在多边形链5之内的区域被指定为允许区而在多边形链之外的区域被指定为禁止区,使得工作区域4被规定为处在多边形链5之内的区域。在执行任务时,移动机器人5只会允许在工作区域4之内移动。对于另一示例来说,在多边形链5之内的区域可能会被标记为以该占用概率被占用而在多边形链之外的区域可能会被标记为空闲,使得将除了在多边形链5内的区域之外的监视区域14规定为工作区域4。
在第六方法步骤26中,根据激光点3来确定控制点,该控制点引起工作区域4的占用概率的变化。例如,该控制点可以通过其位置来说明该控制点所在的区域是被标记为禁止区还是被标记为允许区,并且因此必要时可引起工作区域4的变化,其方式是允许区和禁止区可能会被交换。
图3图解说明了第五方法步骤25的示例。根据激光点所识别出的并且投影到三维坐标空间中的点集用作初始集30。在对初始集30进行分组和过滤之后,存在缩减的点集31。在缩减的点集31上执行打薄而得到稀疏化的点集32。根据稀疏化的点集32来生成多边形链33。
Claims (10)
1.一种用于在监视区域(14)中输入工作区域(4)的机器人系统(15),
其中所述机器人系统(15)具有激光指示器(2)作为输入单元,用于由用户(1)输入多个激光点(3)来标记所述工作区域(4),
其中所述机器人系统(15)具有第一摄像机(6),用于从第一视角来拍摄所述监视区域(14)的第一图像,
其中所述机器人系统(15)具有移动机器人单元(9),所述移动机器人单元具有第二摄像机(10),用于从第二视角来拍摄所述监视区域(14)的第二图像,
其中所述机器人系统(15)知道这两个摄像机(6、10)在空间中的精确位置,这两个图像记录了所述激光指示器(2)的相同的激光点(3),而且
其中所述机器人系统(15)具有用于识别在所述第一图像中和在所述第二图像中的激光点(3)的第一图像解析单元(7)或者用于识别在所述第一图像中的激光点的第一图像解析单元(7)和用于识别在所述第二图像中的激光点的第二图像解析单元(11),
其特征在于,
所述机器人系统(15)具有分析单元(13),用于通过将所识别出的激光点(3)投影到三维坐标空间中来确定(24)在所述坐标空间中的点集(30)并且根据所述点集(30)来分析(25)确定所述工作区域的多边形链(5、33)。
2.一种用于在监视区域(14)中输入由用户(1)利用激光指示器(2)通过多个激光点(3)为移动机器人(9)所标记的工作区域(4)的方法(20),
其中连续从所述机器人(9)知道的第一视角检测(21)第一图像并且连续从所述机器人(9)知道的第二视角检测(21)第二图像,其中在所述第一图像和所述第二图像中的相同的激光点(3)被识别(22),
其中根据所述激光点(3)通过投影到三维坐标空间中来确定(23)在所述三维坐标空间中的点集(30),
其特征在于,
根据所述点集(30)来分析(25)用于确定所述工作区域(4)的多边形链(5、33)。
3.根据权利要求2所述的方法,其特征在于,给所述监视区域(14)配备占用概率。
4.根据权利要求3所述的方法,其特征在于,分析所述占用概率是禁止区还是允许区来得出所述工作区域(4)。
5.根据权利要求4所述的方法,其特征在于,为了确定所述工作区域(4),根据所述激光点(3)来确定控制点,其中所述控制点引起所述工作区域(4)的占用概率的变化。
6.根据权利要求2所述的方法,其特征在于,在投影到所述三维坐标空间中的情况下使用平面模型。
7.根据权利要求2所述的方法,其特征在于,所述第一图像或所述第二图像包含深度信息。
8.根据权利要求2所述的方法,其特征在于,在确定所述多边形链(5、33)的情况下进行对所述点集(30)中的点的编组。
9.根据权利要求2所述的方法,其特征在于,在确定所述多边形链(5、33)的情况下进行对所述点集(30)中的点的稀疏化。
10.根据权利要求2所述的方法,其特征在于,根据所述点集(30)的子集来确定所述多边形链(5、33)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018125266.8A DE102018125266B3 (de) | 2018-10-12 | 2018-10-12 | Verfahren und Robotersystem zur Eingabe eines Arbeitsbereichs |
DE102018125266.8 | 2018-10-12 | ||
PCT/EP2019/077635 WO2020074722A1 (de) | 2018-10-12 | 2019-10-11 | Verfahren und robotersystem zur eingabe eines arbeitsbereichs |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112789570A true CN112789570A (zh) | 2021-05-11 |
Family
ID=68242675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980066721.3A Pending CN112789570A (zh) | 2018-10-12 | 2019-10-11 | 用于输入工作区域的方法和机器人系统 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN112789570A (zh) |
DE (1) | DE102018125266B3 (zh) |
WO (1) | WO2020074722A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019126903B3 (de) * | 2019-10-07 | 2020-09-24 | Fachhochschule Bielefeld | Verfahren und Robotersystem zur Eingabe eines Arbeitsbereichs |
US20230356737A1 (en) * | 2022-05-09 | 2023-11-09 | Continental Autonomous Mobility US, LLC | User-assisted drive-able area detection |
DE102022205884B4 (de) | 2022-06-09 | 2024-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | System und Verfahren zur Aufnahme von Elementen eines Werkstücks mittels eines Zeigegerätes |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251784A (zh) * | 2008-04-03 | 2008-08-27 | 上海交通大学 | 激光笔指示与光点轨迹识别方法 |
CN204790564U (zh) * | 2015-06-23 | 2015-11-18 | 现代富博(天津)智能装备科技有限公司 | 一种自主行走轨迹线的划定装置 |
CN105955255A (zh) * | 2016-04-26 | 2016-09-21 | 联想(北京)有限公司 | 一种控制方法、装置、控制器及控制系统 |
DE102017203055A1 (de) * | 2017-02-24 | 2018-08-30 | Robert Bosch Gmbh | Verfahren zu einer Erfassung zumindest eines Arbeitsbereichs eines autonomen Arbeitsgeräts |
DE102017104428A1 (de) * | 2017-03-02 | 2018-09-06 | RobArt GmbH | Verfahren zur Steuerung eines autonomen, mobilen Roboters |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4887223A (en) * | 1985-08-30 | 1989-12-12 | Texas Instruments Incorporated | Visual navigation system for a mobile robot having capabilities of regenerating of hidden images |
DE10215167C1 (de) * | 2002-04-05 | 2003-06-18 | Daimler Chrysler Ag | Anordnung und Laserpointer zur Kommandierung eines semiautonomen Systems |
WO2008060690A2 (en) * | 2006-05-12 | 2008-05-22 | Irobot Corporation | Method and device for controlling a remote vehicle |
DE102008054863A1 (de) * | 2008-12-18 | 2010-07-01 | Ifm Electronic Gmbh | System zur Steuerung eines Roboters anhand von Lichtmarken |
DE202009012589U1 (de) * | 2009-09-16 | 2011-02-03 | Sick Ag | Optoelektronischer Sensor |
AT512350B1 (de) * | 2011-12-20 | 2017-06-15 | Isiqiri Interface Tech Gmbh | Computeranlage und steuerungsverfahren dafür |
ES2656664T3 (es) * | 2013-12-19 | 2018-02-28 | Aktiebolaget Electrolux | Dispositivo robótico de limpieza con función de registro del perímetro |
DE102016224693B4 (de) * | 2016-12-12 | 2018-11-08 | Kuka Roboter Gmbh | Vorrichtungen und Verfahren zum Koppeln eines tragbaren Handbediengeräts mit einem Manipulator |
-
2018
- 2018-10-12 DE DE102018125266.8A patent/DE102018125266B3/de active Active
-
2019
- 2019-10-11 CN CN201980066721.3A patent/CN112789570A/zh active Pending
- 2019-10-11 WO PCT/EP2019/077635 patent/WO2020074722A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251784A (zh) * | 2008-04-03 | 2008-08-27 | 上海交通大学 | 激光笔指示与光点轨迹识别方法 |
CN204790564U (zh) * | 2015-06-23 | 2015-11-18 | 现代富博(天津)智能装备科技有限公司 | 一种自主行走轨迹线的划定装置 |
CN105955255A (zh) * | 2016-04-26 | 2016-09-21 | 联想(北京)有限公司 | 一种控制方法、装置、控制器及控制系统 |
DE102017203055A1 (de) * | 2017-02-24 | 2018-08-30 | Robert Bosch Gmbh | Verfahren zu einer Erfassung zumindest eines Arbeitsbereichs eines autonomen Arbeitsgeräts |
DE102017104428A1 (de) * | 2017-03-02 | 2018-09-06 | RobArt GmbH | Verfahren zur Steuerung eines autonomen, mobilen Roboters |
Also Published As
Publication number | Publication date |
---|---|
WO2020074722A1 (de) | 2020-04-16 |
DE102018125266B3 (de) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10379513B2 (en) | Monitoring system, monitoring device, and monitoring method | |
CN112789570A (zh) | 用于输入工作区域的方法和机器人系统 | |
US9933510B2 (en) | Safety scanner and optical safety system | |
US20090222134A1 (en) | Camera-based monitoring of machines with mobile machine elements for collision prevention | |
US10317516B2 (en) | Optical safety system | |
CN105729468A (zh) | 一种基于多深度摄像机增强的机器人工作台 | |
CN109141373A (zh) | 用于防护机器的传感器 | |
CN104023906A (zh) | 操作管理装置及操作管理系统 | |
US11833697B2 (en) | Method of programming an industrial robot | |
CN111988524A (zh) | 一种无人机与摄像头协同避障方法、服务器及存储介质 | |
US10482589B2 (en) | Method and apparatus for the start-up operation of a multi-axis system | |
KR20180017074A (ko) | 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택 | |
US11478932B2 (en) | Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program | |
Nickerson et al. | An autonomous mobile robot for known industrial environments | |
AU2020222504B2 (en) | Situational awareness monitoring | |
CN114730192A (zh) | 物体移动系统 | |
Chemweno et al. | Innovative safety zoning for collaborative robots utilizing Kinect and LiDAR sensory approaches | |
Nasti et al. | Obstacle avoidance during robot navigation in dynamic environment using fuzzy controller | |
TWI689743B (zh) | 物件定位系統 | |
KR20140053712A (ko) | 센서 융합에 의한 실내로봇용 위치인식 방법 | |
Day et al. | A depth sensing display for bomb disposal robots | |
US11024021B2 (en) | Check system of a process subject to execution rules | |
WO2022239355A1 (ja) | 位置測定システム | |
Duque-Suárez et al. | Deep Learning for Safe Human-Robot Collaboration | |
US20230356401A1 (en) | Method of Controlling a Construction Robot and Construction Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |