CN110065067B - 运动轨迹生成设备 - Google Patents
运动轨迹生成设备 Download PDFInfo
- Publication number
- CN110065067B CN110065067B CN201910058154.9A CN201910058154A CN110065067B CN 110065067 B CN110065067 B CN 110065067B CN 201910058154 A CN201910058154 A CN 201910058154A CN 110065067 B CN110065067 B CN 110065067B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- target object
- depth image
- excluded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001502 supplementing effect Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 20
- 239000013589 supplement Substances 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000009469 supplementation Effects 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37425—Distance, range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
公开了一种运动轨迹生成设备。该运动轨迹生成设备的操作处理器通过从深度图像传感器获取的目标物体附近的深度图像中提取与目标物体相对应的第一点云数据来指定目标物体;将第一点云数据从深度图像中的第二点云数据中排除,该第二点云数据是目标物体附近的点云数据;利用排除第一点云数据之后的第二点云数据来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于深度图像中的从中排除了第一点云数据的空间区域中;并且在从中排除了第一点云数据的空间区域中补充所估计的第三点云数据,并生成运动轨迹的计划。
Description
技术领域
本发明涉及抓持臂的运动轨迹生成设备。
背景技术
已知一种运动轨迹生成设备,其被配置成当生成抓持臂的运动轨迹的计划(plan)时确定抓持目标物体附近的障碍物与抓持臂之间的干扰。日本未审查的专利申请公开第2015-009314号公开了一种运动轨迹生成设备,其被配置成排除已经从深度图像中指定的抓持目标物体的区域,在该深度图像中,包括抓持目标物体的工作环境由深度图像传感器进行测量,并且执行干扰确定,以确定从中排除了抓持目标物体区域的区域是否干扰抓持臂。
发明内容
然而,在日本未审查的专利申请公开第2015-009314号中公开的运动轨迹生成设备中,即使当抓持目标物体附近的障碍物到达了在从中排除了抓持目标物体区域的区域中位于抓持目标物体后面的空间区域时,仍假设在这个空间区域中没有障碍物。因此,当抓持臂基于已经生成的运动轨迹的计划而实际移动时,抓持臂和抓持目标物体中的至少一个可能会碰到抓持目标物体后面的障碍物。
本公开鉴于上述情况而做出,并且旨在提供一种运动轨迹生成设备,其能够在根据生成的运动轨迹操作抓持臂时,进一步减小抓持臂和抓持目标物体中的每一个干扰抓持目标物体附近的障碍物的可能性。
本公开是抓持臂的运动轨迹生成设备,该运动轨迹生成设备包括:抓持臂,其被配置成抓持目标物体;深度图像传感器,其被配置成获取包括点云数据的深度图像,该点云数据是对象表面上的多个点的坐标数据;以及操作处理器,其被配置成执行生成抓持臂的运动轨迹的计划的操作处理,其中操作处理器通过从深度图像传感器获取的目标物体附近的深度图像中提取与目标物体相对应的第一点云数据来指定目标物体,操作处理器将第一点云数据从深度图像中的第二点云数据中排除,该第二点云数据是目标物体附近的点云数据,利用第一点云数据和排除第一点云数据之后的第二点云数据中的至少一个来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物在深度图像中存在于从中排除第一点云数据的空间区域中,并且在从中排除第一点云数据的空间区域中补充第三点云数据,以及以抓持臂和目标物体都不干扰排除第一点云数据之后的第二点云数据和第三点云数据的方式生成运动轨迹的计划。
在深度图像中,利用在排除了与抓持目标物体相对应的第一点云数据之后的第二点云数据来估计第三点云数据,该第三点云数据是与存在于以下空间区域中的障碍物相对应的点云数据:从该空间区域中排除了第一点云数据,并且在该空间区域中补充所估计的第三点云数据。根据这个处理,在运动轨迹的计划的生成中,当从中排除了第一点云数据的空间区域中有障碍物时,考虑该障碍物的存在。因此,当根据已经生成的运动轨迹的计划来实际操作抓持臂时,可以减小抓持臂和抓持目标物体中的每一个干扰障碍物的可能性。
此外,操作处理器从排除第一点云数据之后的第二点云数据中指定存在于目标物体附近的平面,操作处理器将存在于目标物体附近的平面延伸至从中排除第一点云数据的空间区域,并且将与已经延伸的平面之中的、从中排除第一点云数据的空间区域中的部分相对应的点云数据估计为第三点云数据。
可以容易地从排除第一点云数据之后的第二点云数据中指定存在于目标物体附近的平面。当将指定的平面延伸至从中排除第一点云数据的空间区域时,可以容易地计算与已经延伸的平面之中的、从中排除第一点云数据的空间区域中的部分相对应的点云数据。也就是说,通过将与已经延伸的平面之中的、从中排除第一点云数据的空间区域中的部分相对应的点云数据估计为第三点云数据,可以在不执行复杂计算的情况下在从中排除第一点云数据的空间区域中补充存在的障碍物。
此外,操作处理器确定是否可以从深度图像中的第二点云数据中指定在相对于水平方向具有一定角度的方向上延伸的障碍物,并且当不能指定在具有该角度的方向上延伸的障碍物时,操作处理器从深度图像中的第二点云数据中排除第一点云数据,并且不执行用于在从中排除第一点云数据的空间区域中补充所估计的第三点云数据的处理。
根据上述处理,可以消除不必要的处理所需的计算时间,由此可以执行生成更平稳地操作抓持臂的轨迹的操作处理。
本公开是运动轨迹生成方法,其中利用被配置成获取包括点云数据的深度图像的深度图像传感器来生成抓持目标物体的抓持臂的运动轨迹的计划,该点云数据是对象表面上的多个点的坐标数据,该方法包括步骤:从深度图像传感器获取的目标物体附近的深度图像中指定与目标物体相对应的第一点云数据;从深度图像中的第二点云数据中排除第一点云数据,该第二点云数据是目标物体附近的点云数据;利用第一点云数据和排除第一点云数据之后的第二点云数据中的至少一个来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除第一点云数据的空间区域中,并且在从中排除第一点云数据的空间区域中补充所估计的第三点云数据;以及以抓持臂和目标物体都不干扰第二点云数据和第三点云数据的方式生成运动轨迹的计划。因此,当生成运动轨迹的计划时,可以进一步减小抓持臂和抓持目标物体中的每一个干扰抓持目标物体附近的障碍物的可能性。
本公开是用于使计算机执行以下处理过程的程序:该处理过程利用被配置成获取包括点云数据的深度图像的深度图像传感器来生成用于抓持目标物体的抓持臂的运动轨迹的计划,该点云数据是对象表面上的多个点的坐标数据,处理过程包括:从深度图像传感器获取的目标物体附近的深度图像中指定与目标物体相对应的第一点云数据;从深度图像中的第二点云数据中排除第一点云数据,该第二点云数据是目标物体附近的点云数据;利用第一点云数据和排除第一点云数据之后的第二点云数据中的至少一个来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于深度图像中的从中排除第一点云数据的空间区域中,以及在从中排除第一点云数据的空间区域中补充所估计的第三点云数据;以及以抓持臂和目标物体都不干扰第二点云数据和第三点云数据的方式生成运动轨迹的计划。因此,当生成运动轨迹的计划时,可以进一步减小抓持臂和抓持目标物体中的每一个干扰抓持目标物体附近的障碍物的可能性。
根据本公开,当根据生成的运动轨迹操作抓持臂时,可以进一步减小抓持臂和抓持目标物体中的每一个干扰抓持目标物体附近的障碍物的可能性。
以上的以及本公开的其它目标、特征以及优点将从以下的详细描述以及仅以示例方式给出的附图中得到更充分地理解,因此不视为对本发明的限制。
附图说明
图1是根据实施方式的作为运动轨迹生成设备的移动机器人的外部透视图;
图2是根据本实施方式的作为运动轨迹生成设备的移动机器人的控制框图;
图3是示出了根据本实施方式的作为运动轨迹生成设备的移动机器人中的操作处理流程的流程图,该操作处理用于生成操作抓持臂的轨迹。
图4是说明在用于生成操作抓持臂的轨迹的操作处理中的、对第三点云数据进行估计的方法的示意图,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了第一点云数据的空间区域中。
图5是说明根据比较示例在运动轨迹生成设备中生成操作抓持臂的轨迹的方法的问题的示意图。
图6是说明根据本实施方式在作为运动轨迹生成设备的移动机器人中生成操作抓持臂的轨迹的方法的示意图。
图7是示出了根据修改示例1生成操作抓持臂的轨迹的操作处理流程的流程图。
图8是说明根据修改示例2对第三点云数据进行估计的方法的示意图,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了对应于抓持目标物体的第一点云数据的空间区域中。
图9是说明根据修改示例3对第三点云数据进行估计的方法的示意图,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了对应于抓持目标物体的第一点云数据的空间区域中。
具体实施方式
在下文中,本公开将基于以下实施方式进行描述。然而,以下实施方式并不试图限制本公开。而且,不是绝对需要提供以下实施方式中描述的所有配置。
图1是根据本实施方式的作为运动轨迹生成设备的移动机器人100的外部透视图。如图1所示,移动机器人100包括抓持臂150、深度图像传感器140以及控制单元190。移动机器人100进一步包括附接有移动机构的推车基座110,以及附接有深度传感器140的上部本体基座120。
抓持臂150主要由多个臂和手柄构成。臂的一端由上部本体基座120支撑。臂的另一端支撑手柄。当由致动器(未示出)驱动抓持臂150时,抓持臂150根据给定的任务执行抓持操作,例如抓持运输物体的操作。
深度图像传感器140设置在上部本体基座120的前部。深度图像传感器140获取包括点云数据的深度图像,该点云数据是对象表面上的多个点的坐标数据。具体而言,深度图像传感器140包括照射单元,该照射单元用图案光(pattern light)照射目标空间。深度图像传感器140通过图像拾取装置接收图案光的反射光,并根据图像中的图案的大小或畸变获取按每个像素捕获的对象表面上的点的坐标数据。任何能够捕获目标空间的图像并且能够针对每个像素获取到对象的距离的传感器都可以作为深度图像传感器140。
推车基座110包括作为移动机构的两个驱动轮112和一个脚轮113。两个驱动轮112以其旋转轴相互匹配的方式,彼此相对地设置在推车基座110的各个侧部上。驱动轮112被发动机(未图示)相互独立地旋转地驱动。作为后轮的脚轮113被布置为使得在垂直方向上从推车基座110延伸的转动轴支撑轮子,使得它和轮子的旋转轴之间有一些空间,并且脚轮113根据推车基座110的移动方向进行追踪。例如,当两个驱动轮112在相同的方向上以相同的旋转速度旋转时,移动机器人100直线前进,而当两个驱动轮112在相反的方向上以相同的旋转速度旋转时,移动机器人100围绕通过重心的垂直轴而旋转。
推车基座110设有控制单元190。控制单元190包括操作处理器、存储器等,后面将对此进行说明。
以上部本体基座120能够相对于推车基座120围绕垂直轴旋转的方式,上部本体基座120被推车基座110支撑。上部本体基座120被发动机(未示出)转向,并且可以朝向相对于推车基座110的前进方向的预定方向。
包括在控制单元190中的操作处理器执行生成操作抓持臂150的轨迹的操作处理。生成操作抓持臂150的轨迹的操作处理的细节将在后面说明。
图2是移动机器人100的控制框图。例如,包括在控制单元190(见图1)中的操作处理器200是CPU,并且包括抓持目标分离单元201、缺失补充单元202、干扰确定单元203、操作规划单元204以及操作控制器205。
抓持目标分离单元201将抓持目标物体的区域与深度图像中除这一区域以外的区域分离开,并且提取除抓持目标物体以外的区域。缺失补充单元202对深度图像中的从中排除了对应于抓持目标物体的第一点云数据的空间区域进行补充。
当根据已经生成的运动轨迹的计划而操作臂单元220中所包括的抓持臂150时,干扰确定单元203确定抓持臂150和抓持目标物体中的每一个是否干扰周围的障碍物。操作规划单元204生成从抓持臂150抓持抓持目标物体的时间到抓持臂150取出抓持目标物体的时间的运动轨迹的计划。操作控制器205控制驱动抓持臂150的致动器,使得抓持臂150根据运动轨迹的计划而操作。
除抓持臂150外,臂单元220还包括用于驱动抓持臂150的驱动电路和致动器、用于检测致动器的操作量的编码器等。操作处理器200的操作控制器205通过向臂单元220发送驱动信号来操作致动器,并对抓持臂150执行姿态控制和抓持控制。此外,操作控制器205通过接收编码器的检测信号来计算抓持臂150的操作速度、操作距离、姿态等。
通过向驱动轮单元210、转向单元230、存储器240、深度图像传感器140等发送诸如命令或抽样数据的信息或者从它们接收所述信息,操作处理器200可以进一步执行关于移动机器人100的控制的各种计算。
驱动轮单元210被设置在推车基座110中,其包括用于驱动驱动轮112的驱动电路和发动机、用于检测发动机的旋转量的编码器等,并且其用作为自主移动的移动机构。转向单元230被设置为横跨推车基座110和上部本体基座120,并且该转向单元230包括用于转动上部本体基座120的发动机和驱动电路,用于检测发动机的旋转量的编码器等。存储器240是非易失性存储介质。存储器240存储了用于控制移动机器人100的控制程序,以及用于控制的各种参数值、函数、查找表等。
通过发送驱动信号给驱动轮单元210,操作处理器200的操作控制器205可以对驱动轮单元210中的发动机执行旋转控制。此外,通过接收编码器的检测信号,操作控制器205可以计算移动机器人100的移动速度、移动距离、转向角等。操作控制器205计算移动机器人100的移动速度、移动距离、转向角等,然后向转向单元230发送驱动信号,由此操作控制器205能够操作转向单元230中的发动机,并且例如能够使深度图像传感器被定向至特定的方向。
接下来,将详细说明生成操作抓持臂150的运动轨迹的操作处理。
图3是示出用于生成操作抓持臂150的轨迹的操作处理的流程的流程图。如图3所示,首先,深度图像传感器140获取抓持目标物体附近的深度图像(步骤S1)。也就是说,当深度图像传感器140接收到来自操作处理器200的控制信号时,深度图像传感器140获取抓持目标物体附近的深度图像,并且将该深度图像发送回操作处理器200。
接下来,操作处理器200的抓持目标分离单元201通过从深度图像传感器140获取的目标物体附近的深度图像中提取与目标物体相对应的第一点云数据来指定抓持目标物体(步骤S2)。
此外,抓持目标分离单元201将第一点云数据从第二点云数据中排除,该第二点云数据是深度图像中目标物体附近的点云数据(步骤S3)。也就是说,抓持目标物体的区域与深度图像数据中除抓持目标物体以外的区域是相互分离的,并且从中排除了抓持目标物体的区域的深度图像数据被生成。
接下来,利用排除第一点云数据之后的第二点云数据,操作处理器200的缺失补充单元202估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于深度图像中的从中排除了第一点云数据的空间区域内(步骤S4)。也就是说,缺失补充单元202基于深度图像数据中的抓持目标物体以外的区域中的障碍物的形状和抓持目标物体的形状中的至少一个,来估计从中排除了抓持目标物体的空间区域中存在的障碍物的形状。
此外,缺失补充单元202在从中排除了第一点云数据的空间区域中补充所估计的第三点云数据(步骤S5)。也就是说,缺失补充单元202以下述方式补充这个空间区域:这个估计的障碍物存在于深度图像中的这个空间区域内。
在步骤S5之后的处理(步骤S6-S9)中,抓持臂150的运动轨迹被生成,以使得防止抓持臂150和抓持目标物体中的每一个干扰排除第一点云数据之后的第二点云数据以及第三点云数据。
首先,操作规划单元204生成抓持臂150的运动轨迹的计划,并且将已经生成的运动轨迹的计划输出到干扰确定单元203(步骤S6)。已知的方法,诸如在日本专利第5724919号中公开的方法,可以用于生成运动轨迹的计划的方法。此外,当利用已经补充的深度图像根据生成的运动轨迹的计划来操作抓持臂150时,干扰确定单元203确定抓持臂150和抓持目标物体中的至少一个是否干扰排除第一点云数据之后的第二点云数据和第三点云数据(步骤S7)。
当步骤S7中确定干扰已经发生(是)时,操作规划单元204考虑已经发生干扰的部分的信息,再次生成抓持臂150的运动轨迹的计划,并且将已经生成的运动轨迹的计划输出给干扰确定单元203(步骤S8)。在步骤S8之后,处理再次返回步骤S7。
当步骤S7中确定干扰没有发生(否)时,操作控制器205执行控制,以便使抓持臂150根据已经生成的运动轨迹的计划进行操作(步骤S9)。也就是说,操作控制器205向抓持臂150的致动器发送控制信号,以便使抓持臂150根据已经生成的运动轨迹的计划进行操作。
接下来,将说明图3的步骤S5中的估计第三点云数据的方法,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了第一点云数据的空间区域中,该第一点云数据对应于抓持目标物体。
图4是说明估计第三点云数据D3的方法的示意图,该第三点云数据D3是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据D1的空间区域S1中。首先,如图4的上部所示,抓持目标分离单元201(见图2)将第一点云数据D1从深度图像G1中的抓持目标物体附近的第二点云数据中排除。其次,如图4的中部所示,缺失补充单元202(见图2)从排除第一点云数据D1之后的第二点云数据D2中指定存在于目标物体附近的平面P1和P2。接下来,缺失补充单元202(见图2)将存在于目标物体附近的平面延伸至空间区域S1,其中从该空间区域S1中排除了第一点云数据,并且将已经延伸的平面之中的、与从中排除第一点云数据的空间区域中的部分相对应的点云数据估计为第三点云数据D3。然后,缺失补充单元202(见图2)在从中排除第一点云数据的空间区域S1中补充所估计的第三点云数据D3(见图4的下部)。根据以上处理,可以在不执行复杂计算的情况下补充在从中排除第一点云数据D1的空间区域S1中存在的障碍物。
接下来,将会说明根据本实施方式的在作为运动轨迹生成设备的移动机器人100中生成操作抓持臂150的轨迹的方法的效果。
首先参照图5,将说明在根据比较例的运动轨迹生成设备中生成操作抓持臂150的轨迹的方法中可能会出现的问题。图5是用于说明根据比较例在运动轨迹生成设备中生成操作抓持臂150的轨迹的方法中的问题的示意图。
如图5的左上部所示,首先,深度图像传感器140获取目标物体附近的深度图像。然后,如图5的右上部所示,将深度图像数据中的抓持目标物体80的区域与障碍物90的区域分离开,该障碍物90是抓持目标物体80以外的物体,从而生成从中排除了抓持目标物体80的区域的深度图像数据。
此时,由于在深度图像中没有补充从中排除了抓持目标物体80的空间区域,所以干扰确定单元203将图5右上部的障碍物90中的一部分90a识别为“孔”。也就是说,即使当存在以下轨迹时,在干扰确定单元203中也确定没有干扰:在该轨迹中,抓持目标物体80穿过操作规划单元204已经生成的运动轨迹的计划中的部分90a的位置。
因此,当从图5的左下部示出的抓持目标物体80被抓持臂150抓持的状态开始根据运动轨迹的计划操作抓持臂150时,抓持目标物体80可能干扰障碍物90中的部分90a,如图5的右下部所示。
图6是说明根据本实施方式在作为运动轨迹生成设备的移动机器人100中生成操作抓持臂150的轨迹的方法的示意图。如图6的左上部所示,首先,深度图像传感器140获取抓持目标物体附近的深度图像。然后,如图6的右上部所示,将深度图像数据中的抓持目标物体80的区域与障碍物90的区域分离开,该障碍物90是抓持目标物体80以外的物体,从而生成从中排除了抓持目标物体80的区域的深度图像数据。
如图6的左中部所示,在深度图像中排除抓持目标物体80的区域之后,从中排除了抓持目标物体80的空间区域被缺失补充单元202进行补充。因此,障碍物90中的部分90a在干扰确定单元203中被识别为“障碍物”。也就是说,当存在以下轨迹时可以在干扰确定单元203中确定干扰已经发生:在所述轨迹中,抓持目标物体80穿过操作规划单元204已经生成的运动轨迹的计划中的部分90a的位置。
因此,如图6的左中部所示,当从抓持目标物体80被抓持臂150抓持的状态开始根据运动轨迹的计划来操作抓持臂150时,如图6的右下部和左下部所示,抓持臂150和抓持目标物体80都不干扰障碍物90中的部分90a。
根据上述讨论,根据本实施方式的作为运动轨迹生成设备的移动机器人100,当根据生成的运动轨迹操作抓持臂时,可以进一步减小抓持臂和抓持目标物体中的每一个干扰抓持目标附体附近的障碍物的可能性。
[修改示例1]
将说明用于生成操作抓持臂150的轨迹的操作处理的修改示例1。
当不能从深度图像中的排除第一点云数据之后的第二点云数据中指定在相对于水平方向具有一定角度的方向上延伸的障碍物时,这意味着没有可能干扰抓持臂150的障碍物。在这种情况下,不需要执行在从中排除了第一点云数据的空间区域中补充所估计的第三点云数据的处理。如上所述,第一点云数据是与抓持目标物体相对应的点云数据,以及第二点云数据是目标物体附近的点云数据。
图7是示出了根据修改示例1的生成操作抓持臂150的轨迹的操作处理流程的流程图。如图7所示,在根据修改示例1的操作处理中,将以下处理添加到图3所示的流程图中:确定是否需要执行在从中排除了第一点云数据的空间区域中补充所估计的第三点云数据的处理。也就是说,确定是否需要执行上述处理的步骤S3-2被添加在步骤S3和步骤S4之间。
在步骤S3-2中,操作处理器200中的抓持目标分离单元201确定是否可以从深度图像中的第二点云数据中指定在相对于水平方向具有一定角度的方向上延伸的障碍物。当在步骤S3-2中确定可以指定在相对于水平方向具有一定角度的方向上延伸的障碍物时(是),该处理进入步骤S4。当在步骤S3-2中确定不能指定在相对于水平方向具有一定角度的方向上延伸的障碍物时(否),处理进入步骤S6,无需执行步骤S4-S5的处理。
根据以上处理,可以消除不必要的处理所需要的计算时间,由此可以执行用于生成更平稳地操作抓持臂150的轨迹的操作处理。
顺便提及,在工厂或房子里布置的每一件人工制品通常是由水平方向的平面和垂直方向的平面形成的。因此,当预先知道只存在着由水平方向的平面和垂直方向的平面形成的人工制品作为抓持目标物体附近存在的障碍物时,图7的步骤S3-2中的处理可以变得更简单。也就是说,在图7的步骤S3-2中,操作处理器200中的抓持目标分离单元201确定是否可以从深度图像中的第二点云数据中指定在垂直方向上延伸的障碍物。假设抓持目标分离单元201识别出接近垂直方向的角度(例如,相对于垂直方向±5°)是垂直方向。根据这一处理,抓持目标分离单元201中的处理变得更加简单,并且相比于抓持目标分离单元201确定是否能够从深度图像中的第二点云数据中指定在相对于水平方向具有一定角度的方向上延伸的障碍物的情况,计算时间可以减少。
[修改示例2]
将说明估计第三点云数据的方法的修改示例2,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据的空间区域中。当已知抓持目标物体的形状时,可以通过根据修改示例2的方法来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据的空间区域中,该方法不同于参考图4所描述的方法。
图8是说明根据修改示例2的估计第三点云数据D23的方法的示意图,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据D21的空间区域S2中。第二点云数据D22是在从第二点云数据中排除第一点云数据D21之后获得的点云数据,其中该第二点云数据是目标物体附近的点云数据。
首先,如图8的上部所示,抓持目标分离单元201(见图2)从深度图像G2中的抓持目标物体附近的第二点云数据中排除第一点云数据D21。接下来,如图8的中部所示,在与抓持目标物体相对应的第一点云数据D21中,缺失补充单元202(见图2)提取存在于以下部分中的平面P3:该部分对于深度图像传感器140(见图1)而言是盲区。将与这一提取的平面P3相对应的点云数据估计成第三点云数据D23,该第三点云数据D23是与障碍物相对应的点云数据,该障碍物存在于从中排除了第一点云数据D21的空间区域S2中。然后,如图8的下部所示,缺失补充单元202(见图2)在图8的中部所示的从中排除了第一点云数据的空间区域S2中补充所估计的第三点云数据D23。根据上述处理,可以在不执行复杂计算的情况下补充在从中排除了第一点云数据的空间区域中存在的障碍物。
[修改示例3]
将说明估计第三点云数据的方法的修改示例3,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据的空间区域中。当已知抓持目标物体的形状时,可以通过根据修改示例3的方法来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据的空间区域中,该方法不同于修改示例2中描述的方法。
图9是说明根据修改示例3的估计第三点云数据D33的方法的示意图,该第三点云数据D33是与障碍物相对应的点云数据,该障碍物存在于从中排除了与抓持目标物体相对应的第一点云数据D31的空间区域S3中。第二点云数据D32是从第二点云数据中排除第一点云数据D31之后的点云数据,其中该第二点云数据是目标物体附近的点云数据。
首先,如图9的上部所示,抓持目标分离单元201(见图2)从深度图像G3中的抓持目标物体附近的第二点云数据中排除第一点云数据D31。其次,如图9的中部所示,缺失补充单元202(见图2)从第一点云数据D31中提取平面P4,P5,P6,该平面针对深度图像传感器140(见图1)而言是盲区。接着,缺失补充单元202从排除了第一点云数据D31的第二点云数据D32中提取与抓持目标物体的平面P4、P5、P6平行的平面P7和P8。在排除了第一点云数据D31的第二点云数据D32中,与抓持目标物体的平面P4平行的平面是平面P7,与抓持目标物体的平面P5平行的平面是P8,没有与抓持目标物体的平面P6平行的平面。
接下来,缺失补充单元202(见图2)将存在于目标物体附近的平面P7和P8延伸至从中排除了第一点云数据D31的空间区域S3,并且将与已经延伸的平面P7和P8中的、空间区域S3中的部分相对应的点云数据估计为第三点云数据D33。接着,如图9的下部所示,在从中排除了第一点云数据的空间区域S3中,缺失补充单元202补充所估计的第三点云数据D33。根据以上处理,可以在不执行复杂计算的情况下补充在从中排除了第一点云数据D31的空间区域中存在的障碍物。
本公开不限于上述实施方式,并且可以在不背离本公开精神的情况下进行变更。虽然上述实施方式中已经描述了运动轨迹生成设备是移动机器人100的配置,但这仅仅是一个示例。运动轨迹生成设备可以具有另一种结构,只要它至少包括抓持臂150、深度图像传感器140以及包括在控制单元190中的操作处理器200。
虽然在上述实施方式中将本公开描述为硬件配置,但本公开并不限于此。本公开可以通过使CPU执行计算机程序来实现每项处理。
在上述示例中,利用任何类型的非暂时性计算机可读介质,可以存储程序并且将其提供给计算机。非暂时性计算机可读介质包括任何类型的有形存储介质。非暂时性计算机可读介质的示例包括磁性存储介质(如软盘、磁带、硬盘驱动器等),光磁性存储介质(如磁光盘),CD-ROM,CD-R,CD-R/W,以及半导体存储器(如掩膜型ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、闪存ROM,RAM等)。可以利用任何类型的暂时性计算机可读介质将程序提供给计算机。暂时性计算机可读介质的示例包括电信号、光信号以及电磁波。暂时性计算机可读介质可以通过有线通信线路(如电线、光纤)或者无线通信线路将程序提供给计算机。
因此,根据所描述的公开,显然的是本公开的实施方式可以以多种方式改变。这些变化不被视为背离本公开的范围和精神,并且对本领域技术人员而言显而易见的所有这些修改意图包括在权利要求的范围内。
Claims (5)
1.一种抓持臂的运动轨迹生成设备,所述运动轨迹生成设备包括:
抓持臂,被配置成抓持目标物体;
深度图像传感器,被配置成获取包括点云数据的深度图像,该点云数据是对象表面上的多个点的坐标数据;以及
操作处理器,被配置成执行生成所述抓持臂的运动轨迹的计划的操作处理,其中
所述操作处理器通过从所述深度图像传感器获取的所述目标物体附近的深度图像中提取与所述目标物体相对应的第一点云数据来指定所述目标物体,
所述操作处理器将所述第一点云数据从所述深度图像中的第二点云数据中排除,所述第二点云数据是所述目标物体附近的点云数据,
所述操作处理器利用所述第一点云数据和排除所述第一点云数据之后的第二点云数据中的至少一个来估计第三点云数据,该第三点云数据是与障碍物相对应的点云数据,该障碍物在所述深度图像中存在于从中排除所述第一点云数据的空间区域中,并且所述操作处理器在从中排除所述第一点云数据的所述空间区域中补充所述第三点云数据,以及
所述操作处理器以所述抓持臂和所述目标物体都不干扰排除所述第一点云数据之后的所述第二点云数据和所述第三点云数据的方式生成所述运动轨迹的所述计划。
2.根据权利要求1所述的运动轨迹生成设备,其中所述操作处理器从排除所述第一点云数据之后的所述第二点云数据中指定存在于所述目标物体附近的平面,将存在于所述目标物体附近的所述平面延伸至从中排除第一点云数据的所述空间区域,并且将与已经延伸的所述平面之中的、从中排除所述第一点云数据的空间区域中的部分相对应的点云数据估计为所述第三点云数据。
3.根据权利要求1所述的运动轨迹生成设备,其中所述操作处理器确定是否可以从所述深度图像中的所述第二点云数据中指定在关于水平方向具有一定角度的方向上延伸的障碍物,并且当不能指定在具有所述角度的方向上延伸的所述障碍物时,所述操作处理器从所述深度图像中的所述第二点云数据中排除所述第一点云数据,并且不执行用于在从中排除第一点云数据的空间区域中补充所述估计的第三点云数据的处理。
4.一种运动轨迹生成方法,其中利用深度图像传感器产生抓持目标物体的抓持臂的运动轨迹的计划,所述深度图像传感器被配置成获取包括点云数据的深度图像,所述点云数据是对象表面上的多个点的坐标数据,所述方法包括步骤:
从所述深度图像传感器获取的所述目标物体附近的深度图像中指定与所述目标物体相对应的第一点云数据;
从所述深度图像中的第二点云数据中排除所述第一点云数据,所述第二点云数据是所述目标物体附近的点云数据;
利用所述第一点云数据和排除所述第一点云数据之后的所述第二点云数据中的至少一个来估计第三点云数据,所述第三点云数据是与障碍物相对应的点云数据,所述障碍物存在于所述深度图像中的从中排除所述第一点云数据的空间区域中,并且在从中排除所述第一点云数据的空间区域中补充所述估计的第三点云数据;以及
以所述抓持臂和所述目标物体都不干扰所述第二点云数据和所述第三点云数据的方式生成所述运动轨迹的所述计划。
5.一种用于使计算机执行处理过程的程序,所述处理过程利用被配置成获取包括点云数据的深度图像的深度图像传感器来生成抓持目标物体的抓持臂的运动轨迹的计划,所述点云数据是对象表面上的多个点的坐标数据,所述处理过程包括:
从所述深度图像传感器获取的所述目标物体附近的深度图像中指定与所述目标物体相对应的第一点云数据;
从所述深度图像中的第二点云数据中排除所述第一点云数据,所述第二点云数据是所述目标物体附近的点云数据;
利用所述第一点云数据和排除所述第一点云数据之后的所述第二点云数据中的至少一个来估计第三点云数据,所述第三点云数据是与障碍物相对应的点云数据,所述障碍物存在于所述深度图像中的从中排除所述第一点云数据的空间区域中,以及在从中排除所述第一点云数据的所述空间区域中补充所述估计的第三点云数据;以及
以所述抓持臂和所述目标物体都不干扰所述第二点云数据和所述第三点云数据的方式生成所述运动轨迹的所述计划。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-008819 | 2018-01-23 | ||
JP2018008819A JP6911777B2 (ja) | 2018-01-23 | 2018-01-23 | 動作軌道生成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110065067A CN110065067A (zh) | 2019-07-30 |
CN110065067B true CN110065067B (zh) | 2021-12-28 |
Family
ID=67298415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910058154.9A Active CN110065067B (zh) | 2018-01-23 | 2019-01-22 | 运动轨迹生成设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11117261B2 (zh) |
JP (1) | JP6911777B2 (zh) |
CN (1) | CN110065067B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7040147B2 (ja) * | 2018-03-09 | 2022-03-23 | セイコーエプソン株式会社 | 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 |
JP7008136B2 (ja) * | 2018-06-14 | 2022-01-25 | ヤマハ発動機株式会社 | 機械学習装置及びこれを備えたロボットシステム |
CN112956187A (zh) * | 2019-10-11 | 2021-06-11 | 深圳市大疆创新科技有限公司 | 移动物体监控的方法、装置及计算机存储介质 |
CN112668371B (zh) * | 2019-10-16 | 2024-04-09 | 北京京东乾石科技有限公司 | 用于输出信息的方法和装置 |
CN110992410B (zh) * | 2019-11-29 | 2020-10-30 | 广东技术师范大学 | 基于rgb-d数据融合的机器人视觉引导方法和装置 |
JP7399981B2 (ja) * | 2019-12-17 | 2023-12-18 | 株式会社安川電機 | ロボット、ロボットシステム及び制御方法 |
CN111230877B (zh) * | 2020-02-06 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 移动物品的方法及智能设备 |
CN113379748B (zh) * | 2020-03-09 | 2024-03-01 | 北京京东乾石科技有限公司 | 一种点云全景分割方法和装置 |
CN111582352B (zh) * | 2020-04-30 | 2023-06-27 | 上海高仙自动化科技发展有限公司 | 基于对象的感知方法、装置、机器人及存储介质 |
CN112000093B (zh) * | 2020-07-15 | 2021-03-05 | 珊口(深圳)智能科技有限公司 | 移动机器人的控制方法、控制系统及存储介质 |
CN111860321B (zh) * | 2020-07-20 | 2023-12-22 | 浙江光珀智能科技有限公司 | 一种障碍物识别方法及系统 |
CN112389686B (zh) * | 2020-11-24 | 2022-06-07 | 西北工业大学深圳研究院 | 一种基于空间多臂接触的被动目标同步消旋抓捕操作方法 |
WO2022119167A1 (ko) * | 2020-12-03 | 2022-06-09 | 삼성전자주식회사 | 매니퓰레이터 및 그 제어 방법 |
JP2022100030A (ja) * | 2020-12-23 | 2022-07-05 | 京セラ株式会社 | 干渉判定装置、ロボット制御システム、及び干渉判定方法 |
US11900652B2 (en) | 2021-03-05 | 2024-02-13 | Mujin, Inc. | Method and computing system for generating a safety volume list for object detection |
CN113580130B (zh) * | 2021-07-20 | 2022-08-30 | 佛山智能装备技术研究院 | 六轴机械臂避障控制方法、系统及计算机可读存储介质 |
JP7195476B1 (ja) | 2021-09-24 | 2022-12-23 | 株式会社ダイヘン | 作業プログラム作成システム及び作業プログラム作成方法 |
CN113910237B (zh) * | 2021-11-05 | 2023-02-28 | 江苏昱博自动化设备有限公司 | 多夹具的机械臂无序夹取方法及系统 |
WO2024004722A1 (ja) * | 2022-06-28 | 2024-01-04 | 京セラ株式会社 | 電子機器、制御方法および制御プログラム |
CN116859953A (zh) * | 2023-08-14 | 2023-10-10 | 北京小米机器人技术有限公司 | 机器人的控制方法、装置、介质及机器人 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014200882A (ja) * | 2013-04-04 | 2014-10-27 | トヨタ自動車株式会社 | 把持対象物の把持パターン検出方法およびロボット |
CN104249371A (zh) * | 2013-06-28 | 2014-12-31 | 佳能株式会社 | 信息处理装置和信息处理方法 |
JP2015104796A (ja) * | 2013-12-02 | 2015-06-08 | トヨタ自動車株式会社 | 把持方法、運搬方法及びロボット |
CN106461383A (zh) * | 2014-06-25 | 2017-02-22 | 微软技术许可有限责任公司 | 机器人臂/传感器/工作区系统的自动现场配准和校准 |
WO2017087521A1 (en) * | 2015-11-16 | 2017-05-26 | Abb Schweiz Ag | Three-dimensional visual servoing for robot positioning |
JP2017136677A (ja) * | 2015-07-29 | 2017-08-10 | キヤノン株式会社 | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS52141645A (en) | 1976-05-20 | 1977-11-26 | Fuji Xerox Co Ltd | Electrostatic recorder |
US10105844B2 (en) * | 2016-06-16 | 2018-10-23 | General Electric Company | System and method for controlling robotic machine assemblies to perform tasks on vehicles |
WO2008076942A1 (en) * | 2006-12-15 | 2008-06-26 | Braintech Canada, Inc. | System and method of identifying objects |
US7957583B2 (en) * | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
JP5724919B2 (ja) | 2012-03-22 | 2015-05-27 | トヨタ自動車株式会社 | 軌道生成装置、移動体、軌道生成方法及びプログラム |
US9844881B2 (en) * | 2015-06-22 | 2017-12-19 | GM Global Technology Operations LLC | Robotic device including machine vision |
US10029372B2 (en) * | 2015-12-11 | 2018-07-24 | General Electric Company | Control system and method for brake bleeding |
DE112017002114T5 (de) * | 2016-04-22 | 2019-01-03 | Mitsubishi Electric Corporation | Objekt-Handhabungsgerät und Objekthandhabungsverfahren |
DE102016212911A1 (de) * | 2016-07-14 | 2018-01-18 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zum Steuern einer Roboterbewegung eines Roboters anhand einer zweiten Trajektorie |
-
2018
- 2018-01-23 JP JP2018008819A patent/JP6911777B2/ja active Active
- 2018-12-13 US US16/219,105 patent/US11117261B2/en active Active
-
2019
- 2019-01-22 CN CN201910058154.9A patent/CN110065067B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014200882A (ja) * | 2013-04-04 | 2014-10-27 | トヨタ自動車株式会社 | 把持対象物の把持パターン検出方法およびロボット |
CN104249371A (zh) * | 2013-06-28 | 2014-12-31 | 佳能株式会社 | 信息处理装置和信息处理方法 |
JP2015104796A (ja) * | 2013-12-02 | 2015-06-08 | トヨタ自動車株式会社 | 把持方法、運搬方法及びロボット |
CN106461383A (zh) * | 2014-06-25 | 2017-02-22 | 微软技术许可有限责任公司 | 机器人臂/传感器/工作区系统的自动现场配准和校准 |
JP2017136677A (ja) * | 2015-07-29 | 2017-08-10 | キヤノン株式会社 | 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム |
WO2017087521A1 (en) * | 2015-11-16 | 2017-05-26 | Abb Schweiz Ag | Three-dimensional visual servoing for robot positioning |
Non-Patent Citations (2)
Title |
---|
Improving Robot Navigation and Obstacle Avoidance using Kinect 2.0;Amin Basiri等;《2017 5th RSI International Conference on Robotics and Mechatronics (ICRoM)》;20171027;全文 * |
基于多传感器的空间机械臂精细操作控制方法研究;王一帆;《中国知网》;20170228;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20190224847A1 (en) | 2019-07-25 |
JP6911777B2 (ja) | 2021-07-28 |
JP2019126866A (ja) | 2019-08-01 |
US11117261B2 (en) | 2021-09-14 |
CN110065067A (zh) | 2019-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110065067B (zh) | 运动轨迹生成设备 | |
JP4665857B2 (ja) | アームを誘導可能な移動体およびアームを誘導する方法 | |
US11241796B2 (en) | Robot system and method for controlling robot system | |
US10162364B2 (en) | Robot and control method thereof | |
US9244463B2 (en) | Automated guided vehicle and method of operating an automated guided vehicle | |
EP3392002A1 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
CN111673755B (zh) | 一种基于视觉伺服的采摘机器人控制系统及控制方法 | |
US11331799B1 (en) | Determining final grasp pose of robot end effector after traversing to pre-grasp pose | |
JP6280147B2 (ja) | 無人走行作業車 | |
JP5310285B2 (ja) | 自己位置推定装置及び自己位置推定方法 | |
JP3064348B2 (ja) | ロボット制御装置 | |
JP2009509779A (ja) | 視覚追跡のシステム及び方法 | |
JP2008142841A (ja) | 移動ロボット | |
JP6243944B2 (ja) | 無人走行作業車 | |
KR102220304B1 (ko) | 로봇 제어 장치 및 로봇 제어 방법 | |
CN113771045A (zh) | 视觉引导的直角机器人手机中框高适应定位抓取方法 | |
CN112631269A (zh) | 自主移动机器人及自主移动机器人的控制程序 | |
US10054952B2 (en) | Automatic operation vehicle | |
US11951628B2 (en) | Robot controlling method, motion computing device and robot system | |
US20240100691A1 (en) | Self-propelled Device | |
KR20190070531A (ko) | 이미지 처리를 기초로 하고, 그리퍼를 장착한 로봇 청소기 설계 | |
JP7138041B2 (ja) | 移動体 | |
JP2021122868A (ja) | ロボット、制御方法、情報処理装置およびプログラム | |
Chang et al. | Vision-Based Cooperative Manipulation of Mobile Robots. | |
JP5939505B2 (ja) | ロボットハンド装置と制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |