CN117355394A - 用于得出用于抓取物体的抓取装置的控制数据的方法 - Google Patents
用于得出用于抓取物体的抓取装置的控制数据的方法 Download PDFInfo
- Publication number
- CN117355394A CN117355394A CN202280036828.5A CN202280036828A CN117355394A CN 117355394 A CN117355394 A CN 117355394A CN 202280036828 A CN202280036828 A CN 202280036828A CN 117355394 A CN117355394 A CN 117355394A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- model
- gripping
- data
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 225
- 238000006073 displacement reaction Methods 0.000 claims abstract description 5
- 238000010801 machine learning Methods 0.000 claims description 256
- 230000009466 transformation Effects 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 22
- 238000011156 evaluation Methods 0.000 claims description 15
- 238000009795 derivation Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 description 77
- 238000013528 artificial neural network Methods 0.000 description 72
- 230000036544 posture Effects 0.000 description 30
- 238000004088 simulation Methods 0.000 description 24
- 230000001131 transforming effect Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000005484 gravity Effects 0.000 description 10
- 238000013461 design Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 238000003066 decision tree Methods 0.000 description 5
- 238000001454 recorded image Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001502050 Acis Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000000627 alternating current impedance spectroscopy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013497 data interchange Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39514—Stability of grasped objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39536—Planning of hand motion, grasping
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种用于得出用于抓取物体(200,210,220,300,310)的抓取装置(120,122)的控制数据的方法,包括以下步骤:‑捕获物体(200,210,220,300,310)的图像(132),‑确定捕获到的物体(200,210,220,300,310)的至少一个物体参数(202,212,222,302,312),‑得出用于在至少一个抓取点(205,215,225,305,315)处抓取物体(200,210,220,300,310)的抓取装置(120,122)的控制数据,其中使用关于物体(200,210,220,300,310)的至少一个能实现的稳定姿态的信息来得出物体(200,210,220,300,310)的至少一个抓取点(205,215,225,305,315),并且其中物体的能实现的稳定姿态设计和设置用于,使得将物体的所有如下姿态数据分配给所述能实现的稳定姿态,所述姿态数据通过围绕物体位于的支承面的表面法线旋转和/或位移而能够相互转换。
Description
技术领域
本发明涉及一种用于得出用于抓取物体的抓取装置的控制数据的方法,包括以下步骤:
-捕获物体的图像,
-确定物体的至少一个物体参数,
-得出用于在至少一个抓取点处抓取物体的抓取装置的控制数据。
背景技术
此类方法是现有技术中已知的。例如,公开申请US2020/0164531 A1公开了一种用于抓取物体的系统,其包括用于识别物体的身份、地点和定向的识别装置,以及用于为相应的物体选定抓取部位的选定系统。例如,抓取部位能够由用户选定。此外,借助于关于由用户选定的抓取部位的信息训练对应的系统,以便使用所述信息自动化抓取部位的确。
现有技术的缺点是:分别最终必须由用户执行用于抓取任何物体的抓取部位的确定。一方面,这是非常时间耗费的,另一方面,这是易出错的,因为用户评估也会不正确。
发明内容
因此,本发明的目的是提供一种方法或系统,其实现简化抓取物体。在此,相对于现有技术,这种方法或系统能够实现更安全的、更可靠的、更快速的和/或更高度的自动化的抓取。
所述目的通过具有权利要求1的特征的方法来实现。
这种方法构成用于得出用于抓取物体的抓取装置的控制数据,并且方法包括以下步骤:
-捕获物体的图像,
-确定捕获到的物体的至少一个物体参数,
-得出用于在至少一个抓取点处抓取物体的抓取装置的控制数据,其中,使用关于物体的至少一个能实现的稳定姿态的信息来得出物体的至少一个抓取点。
此外,能够提出:使用关于物体的至少一个能实现的稳定姿态的信息来确定至少一个物体参数和/或得出抓取装置的控制数据。
所描述的方法基于以下知识:在分析物体图像时,例如为了鉴别物体或确定其他物体参数,不必考虑物体的所有可能的定向,但能够基于:物体处于其能实现的稳定姿态中,例如处于平坦面上。这在对应图像分析时显著限制物体的可能的姿态的可能性数量。因此,将用于图像分析的算法限制于物体的能实现的稳定姿态允许显著减少分析耗费,因为物体的可能姿态大部分在此能够被忽略。以该方式,用于鉴别物体和/或确定其姿态的对应的分析方法能够更简单和/或更快速地运行。借此,同样相对于现有技术进一步简化为物体从中后续得出对应的抓取点。
在此,物体能够是任何具有固定外部空间形状的三维构成物。物体例如能够是材料片、构件、模块、设备等。
例如能够借助于相机、扫描仪(例如激光扫描仪)、距离雷达或用于捕获三维物体的类似装置来捕获物体的图像。捕获到的图像能够有利地是物体的二维图像或者是包括物体的映像的二维图像。此外,捕获到的图像还能够是或包括物体的三维表示。
至少一个物体参数例如能够是或包括关于物体的标识、关于物体的识别信息和/或物体的名称或简短描述或描述。在此,标识例如能够设计和设置用于,使得其允许对物体进行鉴别。在此,识别信息能够是相应物体的唯一的名称、标识等,或者能够包括这种信息。
此外,至少一个物体参数能够例如包括关于捕获到的物体的姿态、位置等。这种姿态例如能够通过特征点和特征点的姿态给出,和/或例如还能够通过捕获到的图像上的虚拟边界框的姿态或位置来限定,即所谓的“Bounding Box”。此外或附加地,这种姿态或位置例如还能够通过物体的中央点(例如重心)的姿态和相对于限定的或可限定的标准姿态的旋转角度来给出。
此外,至少一个物体参数还能够包括物体的特性,即例如颜色、材料或材料组合或类似的特性。
在此,为捕获到的物体确定至少一个物体参数涉及在捕获到的图像上示出的物体。因此,将至少一个物体参数分配给在捕获到的图像上示出的物体,如其在捕获到的物体上所示出的那样。
抓取装置例如能够设计和设置为具有用于抓取或机械紧固物体的对应的抓取器的机器人或机器人臂。这种抓取器例如能够钳状地构成,具有一个或多个吸力装置和/或允许或支持借助电磁力紧固待抓取的物体。
机器人或机器人臂例如能够设计和设置为6轴机器人或6轴工业机器人或机器人臂。此外,这种机器人或机器人臂例如能够设计和设置为笛卡尔机器人或设计和配置有对应的抓取器。
在此,用于在至少一个抓取点处抓取物体的抓取装置的控制数据是必须输送给抓取装置的控制装置或用于抓取装置的控制装置的数据,以便例如抓取装置的抓取器将捕获到的物体在至少一个抓取点处机械地紧固。用于抓取装置的这种控制装置例如能够设计和设置为所谓的机器人控制器、可编程逻辑控制器、计算机或类似的控制装置。
在此,控制数据例如能够包括抓取器空间中的点的坐标和抓取器的定向,抓取器必须采用定向以能够抓取物体。此外,控制数据还能够是物体在空间中的至少一个抓取点或者能够包括坐标。
用于抓取装置的控制装置于是能够使用所述信息以已知的方式来计算抓取装置以及抓取器的所需的移动。
在此,空间中的坐标例如被理解为其中待抓取的物体和抓取装置位于的坐标系。
控制数据于是例如能够是至少一个抓取点和/或至少一个模型抓取点的变换到所述真实空间中的坐标。此外,除了至少一个抓取点的坐标之外,在计算控制数据时还能够考虑物体在空间中的位置,以便例如实现抓取装置的抓取器无阻碍地接近至少一个抓取点。
因此,用于抓取装置的控制数据的得出例如能够如下进行:在捕获物体的图像之后,在确定至少一个物体参数的范围中得出物体的姿态。在从物体的3D模型中确定至少一个模型抓取点之后,然后能够根据真实物体的姿态信息将至少一个模型抓取点的坐标换算为物体的至少一个抓取点的对应的坐标。使用真实物体的至少一个抓取点的坐标和关于物体相对于抓取装置的位置的信息然后能够根据本说明书的用于抓取装置的控制数据来得出。
物体的稳定姿态、例如在面(例如基本上水平的平面或面)上的稳定姿态表述物体的如下一种或多种姿态,其中,壳体处于所述姿态中,而不自身从静止状态移出(例如倾斜或滚动)。
例如,通过将所述物体借助初始移动例如输送给面(例如使其落下到所述面上)并且然后等待直至物体不再移动的方式,能够得出物体的稳定姿态。通过借助不同的初始条件多次执行所述过程能够以该方式确定物体的稳定方位。在此,例如,能够在各种初始条件下将物体移动到对应的面上(例如,扔到其上或落到其上)。然后等待,直到物体不再移动。然后对应地捕获采用的稳定姿态。
稳定姿态的捕获、确认和/或存储例如能够通过登记采用的姿态来进行。所述登记例如能够经由图像记录、3D记录和/或捕获稳定姿态中的物体的一个或多个坐标来进行。此外,稳定姿态的捕获还能够包括分配对于物体的稳定姿态的唯一的标识。
在此,特定物体的所有捕获到的姿态数据能够分配给特定的稳定姿态,姿态数据能够通过围绕物体所处于的放置面的表面法线旋转和/或位移来彼此转换。然后,例如能够将所属的稳定姿态的特定的标识指派给全部姿态。
例如,能够半自动地通过以下方式得出物体的稳定姿态:即由用户选定特定物体,并且然后例如在各种初始条件下使其落下到面上或扔到该面上。然后等待,直到物体静止。然后捕获物体的图像,并借助于自动图像分析方法来检查:捕获到的物体的姿态是否能够通过围绕该面的表面法线的旋转和/或位移来变换为物体的已捕获到的姿态。如果是这种情况,则所述稳定姿态的标识也自动地分配给现在已记录的图像。
如果现在捕获到的物体的姿态不能相应地变换为已经捕获到的物体或物体图像的姿态,则将用于在其上采用的物体的稳定姿态的新标识分配给现在所记录的图像。然后能够自动地进行最后的步骤。
在另外的设计方案中,该得出例如也能够自动进行。例如,这能够通过使用物体的3D模型到面上的下落移动的物理模拟来执行。于是,在模拟的范围中等待,直至物体的3D模型的移动静止。然后记录物体的现在静止的3D模型的对应图像,并且根据上面已经解释的方法将稳定姿态的标识分配给所述图像。现在能够借助随机选定的初始条件自动重复所述过程,直到不再找到新的稳定姿态或对于找到的每个稳定姿态都存在足够量的图像。
例如,如果对于每个稳定姿态存在2个、10个甚至50个图像,则能够提供足够量的图像。此外,能够确认:如果在尝试10次、50次甚至100次之后都没有找到新的稳定姿态,则不再找到新的稳定姿态。
例如,分配给特定的稳定姿态的图像还能够对应地存储在数据库中。然后,例如能够将所述数据库用于通过与所述图像比较来将特定的稳定姿态分配给新捕获到的物体。
此外,将这些图像可用于:借此训练对应的神经网络,所述神经网络然后在图像评估的范围内可用于物体的新记录的图像。例如,于是能够使用这种神经网络将面上的静止物体的所记录的图像输送给神经网络。然后,通过神经网络的评估的结果能够至少包括但不限于由所述物体采用的稳定姿态的标识。
在根据本说明书的方法的范围内使用稳定姿态的优点例如是:在鉴别、位置确定和/或确定抓取点时,与所有可能的姿态相比,仅需要考虑相对较少的稳定姿态。这能够减少、通常甚至显著地减小在确定位置、鉴别和/或确定抓取点时的计算耗费。
关于物体的稳定姿态的信息例如能够设计和设置为物体的一个或多个映像,其中,物体在映像上分别处于稳定姿态中。在此,还能够将所述稳定姿态的标识分配给每个映像。然后,关于至少一个能实现的稳定姿态的信息例如能够设计和设置为物体的一个或多个映像,其中,将稳定姿态的标识分配给每个映像,物体在所述图像上处于所述稳定姿态中。
此外,关于物体的至少一个能实现的稳定姿态的信息能够设计和设置为机器学习模型(“机器学习”模型),其中,机器学习模型借助于将机器学习方法应用于关于至少一个能实现的稳定姿态的已得出的信息来训练和/或设计。下面将更详细地深入讨论具有这种机器学习模型的可能的设计方案和对应的处理。例如,这种机器学习模型能够设计和设置为神经网络。
在此,将关于物体的至少一个能实现的稳定姿态的信息的使用理解为在计算或得出数据或信息的范围中对这种信息的任何使用。
因此,例如,在鉴别物体的范围中,或也在确定物体姿态的范围中,能够使用比较信息或比较图像的集合,所述比较信息或比较图像示出处于其相应的稳定姿态中的一个或多个物体。然后,能够根据分配给相应图像的信息推导出对应的其他的数据。这种分配给相应的图像的信息能够是关于在其示出的物体、由所述物体采用的稳定姿态或者还有映像上的物体的空间姿态的信息。
在一个替代的设计方案中,例如,机器学习模型(机器学习模型)可借助对应的上述数据来训练,即例如借助映像显示处于其相应的稳定姿态中的一个或多个物体,其中,分别将其他的信息、即例如关于采用的稳定姿态的标识、在其上示出的物体的标识的信息和/或还有关于在映像上采用的真实空间姿态的信息分配给映像。借助这样训练过的机器学习模型,于是例如能够评估所记录的物体的映像。这种图像评估同样是使用关于物体的至少一个能实现的稳定姿态的信息的实例。
以类似的方式,能够使用关于物体的至少一个能实现的稳定姿态的信息例如分别确定捕获到的物体的至少一个物体参数。
因此,例如,经由处于其稳定姿态中的物体的捕获到的映像的所提到的数据库或所提到的机器学习模型能够确定捕获到的物体的至少一个物体参数,使得对于物体得出其稳定姿态的标识、所确认的零点的距离角和/或关于物体支承面的表面法线的转动角。基于所述信息,于是例如能够确认3D模型包括在真实物体中的在那里所确认的模型抓取点的变换的变换数据。借助于所述变换数据,于是能够得出物体的至少一个抓取点。以类似的方式,于是也能够从变化数据和例如关于物体的可接近性的其他信息中得出抓取装置的控制数据。
在另一设计方案中,能够附加地使用以下步骤来得出至少一个抓取点:
-使用至少一个物体参数为物体选定3D模型;
-从物体的3D模型中确定至少一个模型抓取点;
-使用模型抓取点来确定物体的至少一个抓取点。
如上面已经解释的那样,该方法的所述设计方案具有以下优点:通过使用来自鉴别到的物体的3D模型的模型抓取点,能够简化地确定捕获到的物体的至少一个抓取点。因此,在构建物体期间已经确认的抓取点能够随后用于抓取对应的真实物体。此外,例如,使用借助3D模型进行物理模拟,能够自动得出3D模型的一个或多个模型抓取点。在所述设计方案中,例如,不需要用户干预,这进一步简化了至少一个抓取点的确定。
借助所提到的方法,例如,在捕获图像并且例如鉴别物体之后,能够选定所述物体的适配的3D模型。然后例如能够得出为抓取所述物体所需的数据,使得从3D模型获取对应的模型抓取点,并且然后从所述模型抓取点中得出真实物体处的抓取点。例如,这能够设计和设置用于,使得通过将物体的捕获到的姿态与用于抓取装置的3D模型控制数据调准来得出变换数据,使得借助所述变换数据能够将模型抓取点的坐标换算成物体处的对应的抓取点的坐标。
所描述的方法例如具有以下优点:通过使用出自3D模型的模型抓取点能够相对于现有技术简化用于抓取对应的物体的方法。因此,例如能够通过将识别或鉴别到的物体与物体的3D模型调准来确定物体的真实抓取点。以该方式,分别对应物体在空间中的各种位置和姿态,能够分别仅根据样品、即物体的3D模型分别确定适配的抓取点。
该方法的另一个优点是:其还实现自动得出捕获到的物体的抓取点。通过在物体的3D模型中已经能够设置或限定对应的抓取点,能够通过将3D模型与捕获到的物体位置进行调准,将所设的模型抓取点换算为捕获到的物体的真实抓取点,而不需要其他的用户干预,例如通过用户标识或输入可能的抓取点。
3D模型能够是物体的至少基本上代表外部形状的任何数字显示或代表。有利地,3D模型代表物体的外部形状。此外,3D模型还能够包含关于物体的内部结构的信息、物体的部件的可移动性或者关于物体的功能的信息。
3D模型例如能够以3D文件格式存储,例如用借助3D-CAD软件工具创建。这种软件工具的实例例如是SolidWorks(文件格式:.sldprt)、Autodesk Inventor(文件格式:.ipt)、AutoCAD(文件格式:.dwg)、PTC ProE/Creo(文件格式:.prt)、CATIA(文件格式:.catpart)、SpaceClaim(文件格式:.scdoc)或SketchUp(文件格式:.skp)。其他文件格式例如能够是:.blend(Blender文件)、.dxf(绘图交换格式)、.igs(初始图形交换规范)、.stl(立体光刻格式)、.stp(产品模型数据交换标准)、.sat(ACIS文本文件)或.wrl、.wrz(虚拟现实建模语言)。有利地,能够使用如下文件格式,其中,还存储物体的材料特性,即例如物体或其部件的比重、颜色、材料和/或类似信息。通过使用这种3D模型,例如能够对物体执行物理上正确的模拟,例如以确定物体在表面上的一个或多个稳定姿态。
选定物体的3D模型能够例如使用物体的识别信息来进行,其中,至少一个物体参数包括所述识别信息。
例如,还能够使用关于物体的至少一个能实现的稳定姿态的信息来执行物体的3D模型的选定。在此,例如,借助于上述方法流程之一,使用关于物体的至少一个能实现的稳定姿态的信息,能够得出物体的识别信息,并且根据所述识别信息,于是能够例如从对应的数据库中选定对应的3D模型。
在此,3D模型能够例如从不同物体的3D模型的数据库中提取,其中例如能够使用上述得出的识别信息来从所述数据库进行选定。替代地,3D模型也能够由用户选定。在此,例如,用户能够在多个可用的3D模型中选定3D模型。
模型抓取点例如能够通过3D模型的外面处的特定的点或区域的坐标给出。此外,模型抓取点也能够通过抓取面给出。这种抓取面能够例如通过物体外侧上的抓取区域的边界线的描述来限定。
为了确定至少一个模型抓取点,例如能够提出:已经在物体的3D模型中标识一个或多个抓取点或抓取区域并且然后从3D模型中提取所述一个或多个抓取点或抓取区域的坐标。在一个有利的设计方案中,能够自动地这样确定至少一个模型抓取点。但是,此外,至少一个模型抓取点的确定也能够通过用户进行或者能够部分自动化地通过用户支持。
在此,3D模型中的模型抓取点的得出能够例如自动地通过以下方式进行:即例如通过3D模型的机械模拟或模型分析来得出对应的抓取点。例如,然后还能够直接地在3D模型中保留或标识所述抓取点。
此外,还能够在构建3D模型的范围中已经设有和/或标识模型抓取点。
相应的模型抓取点例如也能够后续通过以下方式添加给3D模型:例如将3D模型的相应的区域标记和/或标识为抓取点。例如,这能够手动进行。此外,这也能够替代地通过以下方式自动地进行,即例如确定机械地模拟物体或还有抓取区域的预设的标准来确定对应的抓取点或抓取区域。这种预设的标准例如能够是物体的重心的姿态、物体处平坦区域的存在以及物体的不同区域的机械强度值。
此外,根据本说明书的方法能够设计和设置用于,使得将关于至少一个能实现的稳定姿态的信息的使用设计和设置为机器学习模型的使用,其中,机器学习模型借助于将机器学习方法应用于关于至少一个能实现的稳定姿态的已得出的信息来训练和/或设计。
在此,将机器学习方法例如理解为自动化(“机器的”)的方法,所述方法不通过实现确定的规则生成结果,而是其中,借助机器学习算法或学习方法从多个实例中(自动)鉴别规律性。然后基于所述调节规则产生关于待分析的数据的结论。
这种机器学习方法例如能够设计和设置为监督学习方法、部分监督学习方法、无监督学习方法或者甚至强化学习方法(“Reinforcement Learning”)。
机器学习方法的实例例如是回归算法(例如线性回归算法)、决策树(所谓的“Decision Trees)的产生或优化、神经网络的学习方法或训练方法、聚类方法(例如所谓的““k-means”聚类”)、用于或产生支持向量机(“Support Vector Machines”(SVM))的学习方法、用于或产生顺序决策模型的学习方法或用于或产生贝叶斯模型或网络的学习方法。
特别是在本说明书中,将这种机器学习算法或学习方法应用于特定数据的结果被称为“机器学习”模型或机器学习模型。在此,这种机器学习模型为机器学习算法或学习方法应用于分析的数据的数字存储的或可存储的结果。
在此,机器学习模型的产生能够设计和设置用于,使得通过应用机器学习方法新形成机器学习模型或者通过应用机器学习方法改变或适配已经存在的机器学习模型。
这种机器学习模型的实例是回归算法(例如线性回归算法)、神经网络(“NeuralNetworks”)、决策树(“Decision Tree”)的结果,聚类方法的结果(包括例如所获得的聚类或聚类类别、聚类定义和/或聚类参数)、支持向量机(“Support Vector Machines”(SVM))、顺序决策模型或贝叶斯模型或网络。
在此,神经网络例如能够是所谓的“深度神经网络”、“前馈神经网络”、“循环神经网络”;“卷积神经网络”或“自动编码器神经网络”。在此,将对应的机器学习方法应用于神经网络通常被称为“训练”对应的神经网络。
例如,决策树能够设计和设置为所谓的“迭代二分法3”(ID3)、分类或回归树(CART)或所谓的“随机森林”。
至少在本说明书的上下文中,将神经网络理解为电子装置,所述电子装置包括所谓的节点的网络,其中,每个节点通常与多个其他节点连接。节点也例如被称为神经元、单位或单元。在此,每个节点具有至少一个输入连接和一个输出连接。神经网络的输入节点是能够从外界接收信号(数据、刺激、模式等)的节点。将神经网络的输出节点理解为能够向外界转发信号、数据等的节点。所谓的“隐藏节点(“hidden nodes”)”是神经网络的既不构成为输入节点也不构成为输出节点的节点。
在此,神经网络能够构成为所谓的深度神经网络(“deep neural network”,DNN)。这种“深度神经网络”是一种网络节点分层设置的神经网络(其中,层本身能够是一维、二维甚至更高维的)。在此,深度神经网络至少包括两个所谓的隐藏层,隐藏层仅包括是非输入节点或输出节点的节点。这就是说,隐藏层与输入信号或输出信号没有直接连接。
例如,在此,将所谓的“深度学习”理解为一类机器学习技术,所述机器学习技术将非线性信息处理的多层用于有监督或无监督的特征提取和转换以及用于模式分析和分类。
例如,神经网络还能够具有所谓的自动编码器结构。这种自动编码器结构例如能够适合于降低数据的维度进而识别相似性和共同性。
神经网络例如还能够构成为所谓的分类网络,所述分类网络特别适合于将数据划分为类。这种分类网络例如在手写识别的范围内使用。
例如,神经网络的另外一种可能的结构能够是所谓的“深度信念网络”的设计方案。
例如,神经网络还能够具有上述结构中多种的组合。例如,因此,神经网络的架构能够包括自动编码器结构,以减少输入数据的维度,所述输入数据然后能够与其他网络结构组合,以便例如标识数据减少的维度内的特性和/或异常或对数据减小的维度进行分类。
描述各个节点及其连接的值,包括描述特定神经网络的其他值,例如能够存储在描述神经网络的值集中。这种值集例如为神经网络的一个设计方案。如果在训练神经网络之后存储这种值集,那么借此例如存储训练的神经网络的设计方案。因此,例如可行的是:在第一计算机系统中借助对应的训练数据训练神经网络,然后存储分配给所述神经网络的对应的值集,并且作为训练过的神经网络的设计方案转换到第二系统中。
通常能够通过经由各种已知的学习方法通过将输入数据输入神经网络并分析来自神经网络的对应的输出数据来得出各个节点或其连接的参数值来训练神经网络。以这种方式,能够借助已知的数据、模式、刺激或信号以当今已知的方式来训练神经网络,以便随后能够将如此训练过的网络用于分析其他的数据。
通常,将神经网络的训练理解为:借助于一种或多种训练算法在神经网络中处理用以训练神经网络的数据,以计算或改变在神经网络内的各两个节点之间的连接或神经网络的各个节点的所谓的偏差值(“Bias”)、权重值(“weights”)和/或传递函数(“TransferFunctions”)。
为了训练神经网络,例如根据本说明书训练神经网络,能够使用例如所谓的“监督学习(“supervised learning”)”的方法之一。在此,通过用对应的训练数据进行训练,为网络训练分别分配给所述数据的结果或能力。这种监督学习方法例如能够用于:为神经网络例如训练一个或多个物体的稳定姿态。这能够例如通过为处于稳定姿态中的物体的图像“训练”采用的稳定姿态的标识(上述“结果”)来进行。
此外,也能够使用所谓的无监督训练(“unsupervised learning”)的方法来训练神经网络。对于给定量的输入,这种算法例如产生如下模型,所述模型描述输入并实现从中的预测。在此,例如存在聚类方法,如果数据彼此例如因特征性的模式而不同,则能够借助所述聚类方法将数据分为不同的类别。
在训练神经网络时,例如,如果将可训练的特性或能力分配给数据的一部分,而数据的其他部分则没有,那么也能够将监督和无监督学习方法组合。
此外,所谓的强化学习(“reinforcement learning”)方法能够至少但不限于用于训练神经网络。
例如,需要对应的计算机的相对高计算能力的训练能够在高性能系统上进行,而借助训练过的神经网络进行进一步的工作或数据分析于是完全能够在低性能系统上执行。借助训练过的神经网络进行的这种进一步工作和/或数据分析例如能够在应用模块上和/或在控制装置、可编程逻辑控制器或模块化可编程逻辑控制器或根据本说明书的其他对应装置上进行。
为了借助于机器学习方法训练机器学习模型,能够使用图像集合,所述图像集合显示在平坦面上的分别处于稳定姿态中的确定物体,其中,将在其上采用的稳定姿态的标识分配给每个图像。然后借助所述图像集合来训练机器学习模型。于是随后能够在将训练过的机器学习模型用于捕获到的物体图像的情况下确定所述物体的的稳定姿态。
例如,在所提到的图像集合中,每个图像能够显示物体在给定的或可预设的表面上、尤其在平坦表面上或在基本上水平的平坦表面上在其稳定姿态中的视图。于是,图像集合例如包含分别处于其稳定姿态还有相对于面上的限定的或可限定的初始姿态不同的旋转角度中的物体的多个映像。例如,旋转能够为物体在其上处于其稳定姿态中的面的表面法线来限定。
在此,例如,机器学习模型能够构成为神经网络,其中,在这种情况下,机器学习方法能够是例如用于神经网络的监督学习方法。
在另外的有利的设计方案中,用于训练机器学习模型的图像集合能够显示分别处于不同稳定姿态的不同物体,其中,将关于所成像的识别信息还有关于在其上采用的稳定状态的标识能够分配给每个图像。通过将借助这种图像集合训练的机器学习模型应用于特定的捕获到的物体,然后能够得出物体的识别信息的确定还有由所述物体采用的稳定姿态的标识。
为此,图像集合例如能够设计和设置为,使得每个图像显示在给定的或可预设的表面上、特别是在平坦表面上或在基本上水平的平坦表面上在其稳定姿态中的物体之一的视图。然后,图像集合例如能够包含分别处于其稳定姿态还有相对于限定的或可限定的初始姿态不同的旋转角度中的不同物体的多个映像。例如,旋转能够关于其上物体处于其稳定姿态中的面的表面法线来限定。
在此,机器学习模型例如也能够构成为神经网络,其中,分配的机器学习方法在此也能够例如是用于神经网络的监督学习的方法。
在一个有利的设计方案中还能够提出:使用利用其他机器学习模型的模型抓取点来得出物体的至少一个抓取点,其中,借助于将机器学习方法应用于关于已预设或可预设的初始位置到物体的可能姿态中的可能的变换的变换数据来训练或设计其他机器学习模型。
此外或者替代地能够提出:借助于将图像评估方法应用于物体的捕获到的图像来得出物体的至少一个抓取点。
在此,其他机器学习模型能够按照根据本说明书的机器学习模型来设计和配置。
在另一设计方案中,其他机器学习模型例如能够设计和设置为变换机器学习模型,所述变换机器学习模型设计和设置用于得出所确认的或可确认的物体的初始数据到真实世界中捕获到的物体的位置中的变换数据。此外,在一个有利的设计方案中,其他机器学习模型然后能够设计和设置为神经网络或“随机森林”模型。在另一有利的设计方案中,其他机器学习模型例如还能够设计和设置为所谓的“深度学习”神经网络。
使用其他机器学习模型来得出至少一个抓取点例如能够设计和设置为将物体的捕获到的图像应用于该其他机器学习模型。
这种应用的结果例如能够是用于将物体的已预设的或可预设的初始位置变换成由相机捕获到的物体的采用的姿态的变换数据。
替代地,用于应用其他机器学习模型的输入数据例如还能够是以下数据:关于物体的识别数据、关于物体位于的稳定姿态的标识和/或关于支承面相对于所确认的或可确认的初始姿态的旋转角。在此,物体的识别数据能够是例如关于物体的识别信息、物体周围的虚拟框的描述数据和/或缩放数据。
这样的其他机器学习模型的输出数据然后例如能够是用于将物体从已预设的或可预设的初始姿态以上面提到的方式变换成物体在支承面上的实际位置的变换数据。已预设的或可预设的初始姿态例如能够是对应的3D软件中的物体3D模型的已预设的或可预设的姿态。这种软件例如能够是对应的CAD程序或所谓的3D建模程序。
例如,通过在图像集合中或者将在图像上所示出的物体的3D模型的已预设的或可预设的姿态到图像上的物体的姿态的变换数据分配给每个图像的方式,能够训练其他机器学习模型。替代地或附加地,例如,在图像集合中,将关于所选定的坐标系的一般性的位置数据对于在图像上示出的物体分配给每个图像。在此,将所提出的数据分配给图像集合,例如如在本说明书中在其他位置所解释的那样例如自动地在虚拟环境中进行或手动地进行。
例如,能够使用对于这种应用通常使用的方法作为上述用于得出物体的至少一个抓取点的图像评估方法。这种方法的实例例如包括所谓的SURF、SIFT或BRISK方法。
根据本说明书的方法还能够设计和设置为,使得确定至少一个物体参数还包括得出物体的位置数据。
另外,能够提出:位置数据还包括关于由物体采用的稳定姿态的信息。
如果确定捕获到的物体的至少一个物体参数已经包括得出物体的位置数据,则进一步简化用于抓取装置的控制数据的得出。由此,在该上下文中得出附加的数据,该数据能够必要时加速和/或简化控制数据的得出。
如果位置数据还包括关于由物体采用的稳定姿态的信息,则还简化用于抓取装置的控制数据的得出。如在本说明书的范围中所解释的那样,关于物体位于的稳定姿态的知识简化了例如在物体的身份、空间中的姿态或位置、旋转角和/或物体的重心姿态的数据的分析。
在此,物体的位置数据例如能够包括关于物体在空间中的位置的数据。在此,关于物体位置的这种数据能够例如包括物体在空间中的一个或多个参考点的坐标。例如,关于位置的数据能够包括关于物体的至少三个参考点的坐标。此外,关于位置的数据例如还能够包括例如物体的参考点的坐标以及相对于一个或多个轴线的一个或多个转动角或者旋转角。
在一个有利的设计方案中,物体的位置数据例如能够包括物体的参考点的坐标、关于物体的稳定姿态的信息以及物体的转动或旋转角,特别地包括恰好一个转动角或旋转角。在此,例如能够关于物体位于的面限定转动或旋转角。在此,例如能够关于垂直于所述面的轴线限定转动或旋转角。
此外,在另一有利的设计方案中能够提出:物体的位置数据包括描述围绕物体的虚拟框的数据。于是,位置数据能够除此之外包括关于物体的稳定姿态和/或物体的至少一个转动或旋转角的信息,特别地包括恰好一个转动或旋转角。在另一有利的设计方案中,能够刚好在上述数据中存在物体的位置数据。
围绕物体的这种虚拟框例如能够限定为矩形轮廓,所述矩形轮廓包围物体的至少一个预定的部分,尤其包围整个物体。代替矩形框,例如也能够使用任意的多边形的轮廓,或也还能够使用一般成形的、尤其规则成形的轮廓(例如也为圆形或椭圆形)。
例如,能够使用物体的图像和对应的图像评估方法来得出位置数据。在此,例如,借助于图像得出物体在图像上的位置。然后,例如,能够经由校准相机的位置和相机的观察角来计算或得出物体在真实存放处上的位置。
在此,如已经在本说明书的范围中更详细地解释的那样,物体的位置数据例如能够通过包围物体的虚拟框的数据来给出,例如与物体的旋转角和关于物体的稳定姿态的标识一起给出。
在另一设计方案中,能够提出:使用关于至少一个能实现的稳定姿态的信息,确定至少一个物体参数、得出识别信息、得出位置数据、确定物体的姿态、确定围绕物体的虚拟边界框和/或确定由物体采用的稳定姿态。
如在本说明书的范围中已经多次提及的那样,使用关于物体的至少一个能实现的稳定姿态的信息能够简化至少一个物体参数、识别信息、位置数据、物体的姿态、物体的虚拟边界框的确定和/或简化由物体采用的稳定姿态的确定。
原因之一例如是:为了计算所提出的变量,分别考虑物体的所观察的形状。并且根据发明人的知识,如果不考虑物体的所有可能的姿态,而是考虑如下姿态,物体在所述姿态中处于根据本说明书的稳定姿态中。相对于物体理论上能够采用的所有可能姿态,这减少了相机映像中的物体的可能的待考虑的姿态或标识的数量。特别地如果物体无法采用特别多的稳定姿态,则所述减少有时也会是显著的。
以该方式,进一步简化用于抓取物体的方法。此外,也还能够实现方法的加速,因为由此能够减速可能的计算过程以计算上述的变量。
此外,在根据本说明书的方法中能够提出:在捕获物体的图像时,捕获其他物体,并且在确定物体的至少一个物体参数的范围中也还分别得出关于每个其他物体的其他物体参数。
此外,能够提出:在得出关于其他物体的其他物体参数之后选定物体。
在此,至少一个物体参数或还有各至少一个其他物体参数例如能够是关于相应的物体的标识或关于相应的物体的识别信息。
所述设计方案允许进一步简化该方法,因为以该方式,当还有其他物体处于相机的图像场中时,才能够抓取特定的物体。
在另一有利的设计方案中,例如,能够改进该方法,使得捕获该物体或其他物体的图像,并且然后对每个捕获到的物体得出至少一个物体参数。例如,于是能够根据所述物体参数鉴别每个物体并且在后续的选定中选定物体的步骤。在一个特别有利的设计方案中,为每个物体得出的物体参数能够是或包括物体的识别信息。这使选定物体变得特别简单。
在捕获物体图像时捕获其他物体例如能够设计和设置为,使得在该物体的捕获到的图像上存在其他物体,例如因为所述其他物体紧邻该物体。
此外例如也能够将物体图像的捕获构成为物体的视频记录,然后从所述视频记录中在另一步骤中例如提取或能够提取物体的静止图像。在这种视频的范围中,于是例如也能够捕获其他的物体。例如也能够产生视频,使得例如放置面相对于相机移动,例如构成为运输或传送带。替代地,例如,相机也能够以线性移动或转动移动的方式移动并且以该方式捕获物体和其他物体。
如上面已经阐述的那样,分别得出至少一个其他物体参数能够包括每个其他物体的识别信息。此外,得出每个其他物体的各至少一个其他物体参数能够包括每个其他物体周围的边界框的描述数据。此外,得出每个其他物体的各至少一个其他物体参数也能够包括每个所述物体的位置数据和/或由相应物体采用的稳定姿态。
例如,物体能够通过用户选定。这能够例如通过在现实装置上显示物体和其他物体的捕获到的图像并且然后用户在那里选定待抓取的物体的方式来进行。此外,能够自动地选定物体。例如,特定的待抓取的物体能够通过其识别信息、名称或形状来预设。于是,根据捕获到的物体的已得出的物体参数,系统能够自动选定待抓取的物体。
此外,能够提出:使用根据本说明书的方法得出物体的至少一个抓取点,并且于是随后通过抓取装置来抓取物体,其中,该抓取装置为了抓取物体而在至少一个抓取点处进行接合。
例如,抓取装置在物体处的抓取例如能够进行为,使得例如通过钳子状的抓取器在抓取点的一个或多个地方进行抓取的范围中产生与物体的这种摩擦配合的连接,使得由此能够通过抓取装置移动和/或提升物体。这种摩擦配合的连接例如还能够借助于一个或多个吸力设备来产生,所述吸力设备作用于一个或多个抓取点处。例如也能够经由磁力产生这种摩擦配合的连接,所述摩擦配合的连接于是实现借助于抓取装置来运输物体。
上述目的还通过一种用于抓取物体的系统来实现,该系统包括:用于捕获物体的图像的光学捕获装置;数据处理装置,用于确定物体的至少一个物体参数和/或用于得出用于抓取物体的抓取装置的控制数据,其中,系统设计和设置用于执行根据本说明书的方法。
在此,光学捕获装置、物体的图像、物体的至少一个物体参数、控制数据以及抓取装置例如能够根据本说明书来设计和配置。数据处理装置例如能够是计算机、PC、控制器、控制装置、可编程逻辑控制器、模块化可编程逻辑控制器、边缘设备或类似的装置。
数据处理装置及其元件和/或部件在此还能够根据本说明书来设计和配置。
在一个有利的设计方案中,数据处理装置能够例如包括根据本说明书的机器学习模型。例如,数据处理装置能够设计和设置为可编程存储器控制器,其中,机器学习模型能够例如设置在可编程存储器控制器的中央模块中。替代地,机器学习模型也能够设置在功能模块中,所述功能模块经由可编程逻辑控制器的背板总线与可编程逻辑控制器的上述中央模块连接。
为了执行该方法,数据处理装置能够例如包括对应的执行环境,所述执行环境例如设计和设置用于运行软件,在所述软件运行时执行根据本说明书的方法。
在此,数据处理装置还能够包括多个部件或模块(例如,包括一个或多个控制器、边缘设备、PLC模块、计算机和/或类似设备)。然后,这种部件或模块例如能够经由对应的通信连接、例如以太网、工业以太网、现场总线、背板总线和/或类似设备来连接。在另外的设计方案中,所述通信连接例如还能够设计和设置用于实时通信。
在另一设计方案中,例如能够提出:根据本说明书的系统包括抓取装置,并且该系统还设计和设置用于执行根据本说明书的方法。
在此,例如能够根据上面的描述来设计和配置抓取装置。
此外,能够提出:数据处理装置设计和设置为具有中央模块和其他模块的模块化可编程逻辑控制器,并且还使用该其他模块确定物体的至少一个物体参数。
还能够提出:数据处理装置包括具有中央模块和其他模块的模块化可编程逻辑控制器,并且还使用其他模块来确定物体的至少一个物体参数。
可编程逻辑控制器(PLC)是一种编程并用于调节或控制设施或机器的控制装置。诸如流程控制装置的特定功能能够在这种PLC中实施,使得能够以该方式控制进程或机器的输入和输出信号。可编程逻辑控制器例如在标准EN 61131中定义。
为了将可编程逻辑控制器联接于设施或机器,使用设施或机器的通常连接于可编程逻辑控制器的输出端的执行器还有设施或机器的传感器。原则上,传感器位于PLC输入端处,其中,可编程逻辑控制器通过所述传感器获得有关设施或机器中发生情况的信息。例如如下适用于作为传感器:光栅、限位开关、按钮、增量编码器、料位传感器、温度传感器。例如如下适用于执行器:用于接通电马达的接触器、用于压缩空气或液压的电阀、驱动控制模块、马达、驱动器。
PLC的实现能够以不同的方式和方法进行。这就是说,其能够作为单个电子设备、作为软件模拟、作为软件PLC(或也称作为“虚拟PLC”或PLC应用或PLC-App)或者作为PC插入卡等实现。通常,存在模块化解决方案,在所述模块化解决方案的范围中PLC由多个插接模块组装。
在此,模块化可编程逻辑控制器能够设计和设置为,使得设有或能够设有多个模块,其中,通常除了所谓的中央模块之外,能够设有一个或多个扩展模块,其中,所述中央模块设计和设置用于运行控制程序,例如用于控制部件、机器或设施(或其一部分)。例如,这种扩展模块能够设计和设置为电流/电压供应装置,或者还能够用于输入和/或输出信号或数据。此外,扩展模块还能够设计和设置为用于接管特定任务的功能模块(例如计数器、逆变器、使用人工智能方法(例如包括神经网络或其他机器学习模型)进行数据处理…)。
例如,功能模块也能够设计和设置为用于使用人工智能方法执行动作的AI模块。这种功能模块能够例如包括神经网络或机器学习模型或根据本说明书的其他机器学习模型。
于是,其他模块例如能够设置用于在执行该方法的范围内执行特定任务,例如计算耗费的子任务或计算耗费的特定任务(即例如变换、AI方法的应用等)。为此,其他模块能够例如特定地设计和配置和/或还包括用于对应软件的另外的程序运行环境。
特别地,其他模块例如能够包括机器学习模型或其他机器学习模型。
借助所述设计方案,进一步简化用于抓取物体的系统,因为数据处理装置能够专门适配于所设的抓取任务。特别地,这是可行的,而不必改变例如能够在可编程逻辑控制器的中央模块中的中央的方法运行。然后,特定的子任务能够在其他模块中运行,所述其他模块然后能够根据精确的抓取任务来不同地设计和配置。
在另一设计方案中,上述系统还能够设计和设置用于,使得使用机器学习模型来确定物体的至少一个物体参数并且其他模块包括该机器学习模型。
此外,能够提出:使用其他机器学习模型来得出用于抓取装置的控制数据,并且其他模块包括该其他机器学习模型(162)。
在此,机器学习模型例如能够设计和设置为根据本说明书的机器学习模型。此外,其他机器学习模型例如能够设计和设置为根据本说明书的其他机器学习模型。
此外,至少一个物体参数、物体、控制数据、抓取装置以及得出用于抓取装置的控制数据能够根据本说明书来设计和配置。
机器学习模型例如能够设计和设置为所谓的“识别机器学习模型”。这种识别机器学习模型能够例如设计和设置用于识别物体的位置和/或围绕物体的虚拟框、关于物体的类型或识别信息和/或物体的稳定姿态。此外,根据本说明书的机器学习模型能够包括这种识别机器学习模型。这种识别机器学习模型例如能够设计和设置为所谓的“深度神经网络”。例如,捕获到的物体图像能够设置或用作为用于这种识别机器学习模型的输入数据。这种识别机器学习模型的输出数据于是能够是例如上述参数中的一个、多个或全部参数。
在另外的设计方案中,识别机器学习模型还能够设计和设置用于识别各自多个或所有在捕获到的图像上成像的对象的位置、虚拟框、类型和/或识别信息。例如,如果在捕获到的物体图像上存在其他物体,则能够有利地使用以这种方式形成的识别机器学习模型。
于是,对于每个捕获到的物体,这样设计的识别机器学习模型的输出数据例如能够是关于该物体的上述信息:关于位置和/或虚拟框和/或识别信息的数据。然后,例如,能够在另外的方法步骤中将所述信息用于从所有捕获到的物体中选定待抓取的物体——例如根据已得出的识别信息。然后由所述识别机器学习模型已经得出的物体参数能够在根据本说明书的方法的范围中用于:得出用于抓取物体的抓取装置的控制数据。
此外,机器学习模型例如能够设计和设置为所谓的“角度识别机器学习模型”,所述角度识别机器学习模型至少包括但不限于设计和设置用于识别面上的物体相对于所确认的或可确认的起始位置的旋转角度。根据本说明书的机器学习模型还能够包括这种角度识别机器学习模型。这种角度识别机器学习模型例如能够设计和设置为例如所谓的回归人工智能模型或还有所谓的分类人工智能模型。
物体的捕获到的图像又能够用作为这种角度识别机器学习模型的输入数据。在此,输出数据又能够例如是放置面上的物体相对于确认的或可确认的初始位置的对应的旋转角度,或者包括这种旋转角度。此外,角度识别机器学习模型的输出数据还能够包括上述旋转角度,加上上面从识别机器学习模型的输出数据示例性说明的数据。
在另外的设计方案中,机器学习模型例如能够设计和设置为所谓的“变换机器学习模型”,所述变换机器学习模型设计和设置用于得出物体的所确认的或可确认的初始位置到真实世界中的放置面上的捕获到的物体的位置的变换数据。这种变换机器学习模型的输入数据例如能够是物体的标识数据、物体的稳定姿态和/或放置面上的物体相对于确认的或可确认的初始位置的旋转角度。物体的标识数据在此例如能够是识别信息、围绕物体的虚拟框的描述数据、关于稳定姿态的信息和/或比例数据。
此外,用于这种变换机器学习模型的输入数据还能够是位于平坦面上的物体的捕获到的图像数据。然后,例如能够在第一步骤中从所述图像数据中获取上述输入数据,即例如物体的标识数据、物体的稳定姿态和/或物体的旋转角度,其中,然后根据上面的解释继续进行。此外,位于平坦面上的物体的所提到的捕获到的图像数据也能够直接用作为对应的变换机器学习模型的输入数据。
这种变换机器学习模型的输出数据于是例如能够是用于物体从确认的或可确认的起始姿态到放置面上的物体的真实位置的上面提到的变换的变换数据。物体的这种确认的或可确认的起始姿态例如能够是对应的3D建模程序(例如3D CAD软件)中物体的3D模型的位置。这例如也适用于关于旋转角度使用的起始位置。
这种变换机器学习模型例如能够设计和设置为所谓的“深度神经网络”或还有所谓的“随机森林”模型。
根据本说明书的机器学习模型能够例如包括识别机器学习模型和/或角度识别机器学习模型和/或变换机器学习模型。另外,根据本说明书的其他机器学习模型能够例如包括识别机器学习模型和/或角度识别机器学习模型和/或变换机器学习模型。
在一个有利的设计方案中,根据本说明书的机器学习模型还能够包括例如识别机器学习模型和/或角度识别机器学习模型,或者能够设计和设置为这种机器学习模型。在所述设计方案中,根据本说明书的其他机器学习模型能够例如包括变换机器学习模型或者设计和设置为这种变换机器学习模型。
在另一设计方案中,根据本说明书的系统能够设计和设置为,使得数据处理装置包括边缘设备或者设计和设置为边缘设备(190),并且还使用边缘设备来确定物体的至少一个物体参数。
因为与诸如控制器或PLC的更传统的工业控制装置相比边缘设备通常具有更高的计算性能,所以这种设计方案进一步简化和/或加速根据本说明书的方法。在一个可能的设计方案中,在此能够提出:根据本说明书的方法完全在这种边缘设备上执行。
在一个替代的设计方案中还能够提出:在边缘设备上执行特别计算密集的和/或耗费的方法步骤,而在数据处理装置的另外的部件上、例如控制装置上或可编程逻辑控制器上执行其他方法步骤。这种计算密集的和/或耗费的方法步骤例如能够是使用机器学习技术或人工智能的方法步骤,即例如使用根据本说明书的一个或多个机器学习模型。
例如,边缘设备能够包括用于控制设备或设施的应用。例如,这种应用能够设计和设置为具有可编程逻辑控制器的功能的应用。在此,边缘设备能够例如与设备或设施的另外的控制装置连接或者直接与待控制的设备或设施连接。此外,边缘设备能够设计和设置为,使得其附加地还与数据网络或云连接,或者设计和设置用于与对应的数据网络或对应的云连接。
边缘设备还能够设计和设置用于结合机器、设施或部件(或其一部分)的控制装置实现附加的功能。这种附加的功能例如能够是:
-收集数据并传输到云中,包括例如预处理、压缩、分析
-借助AI方法(例如神经网络)分析所连接的自动化系统的数据。为此,边缘设备能够包括例如机器学习模型,例如根据本说明书的机器学习模型或其他机器学习模型。
在此,具有边缘设备的这种系统还能够设计和设置用于,使得使用机器学习模型来确定物体的至少一个物体参数并且边缘设备包括该机器学习模型。
此外,具有边缘设备的这种系统还能够设计和设置用于,使得使用其他机器学习模型得出用于抓取设备的控制数据,并且边缘设备包括该其他机器学习模型。
在此,机器学习模型例如能够设计和设置为根据本说明书的机器学习模型。其他机器学习模型例如还能够设计和设置为例如根据本说明书的其他机器学习模型。
上述目的还通过一种用于产生用于机器学习模型的训练数据的方法来实现,
其特征在于设有如下方法步骤:
-选定物体,
-选定平坦面之上的物体的开始日期,
-产生物体向平坦面方向的下落移动,
-在物体在平坦面上的移动停止之后,捕获物体的图像,
-将标识分配给图像,其中,该标识包括由物体采用的稳定姿态的识别信息。
在此,机器学习模型例如能够根据本说明书来设计和配置。此外,能够根据本说明书来设计和设置用于产生用于机器学习模型的训练数据的方法。
使用利用所述训练数据训练的机器学习模型实现:提供运行简化抓取物体的方法或系统。如在本说明书的范围中已经解释的那样,根据本说明书,将物体的所考虑的可能的姿态限制于稳定姿态引起:借助于如此构成的系统或方法实现更快、更可靠和/或更高度自动化的抓取。
在一个有利的设计方案中,多次执行所提到的方法——例如分别借助物体的不同的起始数据来执行。以该方式,能够产生具有分配的标识的更多数量的图像来训练机器学习模型。在此,例如能够如此频繁地重复该方法,使得在图像中的至少两个图像或图像中的至少十个图像上示出物体在平坦面上的尽可能多的(有利地全部)能实现的稳定姿态。
在此,能够根据本说明书来设计和配置机器学习模型、物体、图像的捕获以及由物体采用的稳定姿态的识别信息。
此外,起始数据例如能够通过物体在平坦面之上的高度、例如物体的重心的高度、物体在空间中的定向以及物体的初始速度的矢量给出。
下落移动例如能够是在重力影响下的移动。在此,附加的力、即例如摩擦力(例如在空气或液体中)以及电磁力还会影响移动。在一个有利的设计方案中,移动例如通过重力主导。在此,根据起始数据开始下落移动。
在此,机器学习模型例如能够设计和设置为根据本说明书的识别机器学习模型或者包括这种识别机器学习模型。在这种情况下,除了由物体采用的稳定姿态的识别信息之外,分配给捕获到的图像的标识还能够包括例如根据本说明书的其他物体参数。在此,这种其他物体参数能够包括例如关于物体的姿态和/或位置的信息、关于围绕物体的虚拟框的姿态和/或形状的信息、物体的类型和/或关于物体的识别信息。
机器学习模型例如还能够设计和设置为根据本说明书的角度捕获机器学习模型或者包括这种角度捕获机器学习模型。在这种情况下,除了由物体采用的稳定姿态的识别信息之外,分配给捕获到的图像的标识还能够包括例如根据本说明书的其他物体参数。在此,这种其他物体参数能够包括例如平坦面上的物体相对于确认的或可确认的起始位置的旋转角度。
机器学习模型还能够设计和设置为根据本说明书的变换机器学习模型或者包括这种变换机器学习模型。在这种情况下,除了物体采用的稳定姿态的识别信息之外,分配给捕获到的图像的标识还能够包括例如根据本说明书的其他物体参数。在此,这种其他物体参数能够例如包括用于物体从确认的或可确认的起始位置到物体在平坦面上的真实位置的上述变换的变换数据。在此,物体的这种确认的或可确认的起始位置也能够例如是对应的3D建模程序(例如3D-CAD软件)中物体的3D模型的位置。
相应的上述标识参数和/或物体参数能够至少部分地例如通过用户手动得出,例如手动地通过测量得出或借助于至少部分自动化的测量系统得出。此外,这种标识参数能够至少部分自动地例如通过图像评估方法或附加的自动测量系统,即例如光学测量系统、激光测量系统和/或声学测量系统来得出。
在另外的有利的设计方案中,能够通过下面的方法步骤来设计和设置用于产生变换机器学习模型的训练数据的方法:
-选定物体,
-选定平面之上的物体的初始数据,
-产生物体朝平坦面方向的下落移动,
-在物体在平坦面上的移动停止之后捕获物体的图像,
-使用捕获到的图像得出关于该物体的至少一个物体参数,其中,该至少一个物体参数包括物体的标识数据、物体的姿态或位置、关于围绕物体的虚拟框的信息、物体稳定姿态的标识和/或物体在平坦面上的旋转角度,
-将标识分配给已得出的至少一个物体参数,其中,该标识包括用于将物体从确认的或可确认的初始位置变换成物体在平坦面上的真实位置的变换数据。
在此,物体的真实位置例如通过物体的标识数据、物体的姿态或位置、关于围绕物体的虚拟框的信息、物体的稳定姿态的标识和/或物体的旋转角度来描述。
在此,物体的标识数据例如能够是或者包括识别信息、围绕物体的虚拟框的描述数据、关于稳定姿态的识别信息和/或比例数据。
在此,能够根据本说明书来设计和配置变换数据、确认的或可确认的起始位置、物体的旋转角度、物体的稳定姿态的标识以及至少一个物体参数。此外,还能够根据本说明书来设计和配置物体的姿态或位置和/或关于围绕物体的虚拟框的信息。
上述目的同样通过一种用于产生用于机器学习模型的训练数据的方法来实现,
其特征在于,设有如下方法步骤:
-选定物体的3D模型,
-选定虚拟平面之上的物体的3D模型的起始数据,
-模拟物体的3D模型朝虚拟平面方向的下落移动,
-在物体的3D模型在虚拟平坦面上的模拟的移动停止之后,创建物体3D模型的图像,
-将标识分配给所创建的图像,其中,该标识包括由物体的3D模型采用的稳定姿态的识别信息,
-存储训练数据,所述训练数据包括捕获到的图像和分配给图像的标识。
在此,训练数据能够存储在存储器装置中和/或例如存储在用于对应的训练数据的数据库或数据集合中。
在此,例如,能够根据本说明书来设计和配置机器学习模型。此外,用于产生用于机器学习模型的训练数据的所描述的方法能够根据本说明书来设计和配置。
如已经结合上述方法所解释的那样,使用借助所述训练数据训练的机器学习模型实现:提供允许简化地抓取物体的方法或系统。
在一个有利的设计方案中,所提到的方法能够多次执行(例如分别用物体的不同的起始数据执行),以便例如产生具有分配的标识的多个图像以训练机器学习模型。
在此,例如,能够频繁地重复该方法,使得虚拟平坦面上的物体的数字模型的能实现的稳定姿态中的多个(有利地是全部)在至少一个图像上示出。在另外的有利的设计方案中,该方法例如能够频繁地重复,使得虚拟平坦面上的物体的数字模型的能实现的稳定姿态中的多个(有利地是全部)在至少两个或至少十个图像上示出。
在此,同样能够在这里根据本说明书来设计和配置机器学习模型、物体、图像的捕获以及由物体采用的稳定姿态的识别信息。
例如,起始数据能够通过物体在平坦面之上的高度(例如物体的重心高度)、物体在空间中的定向以及物体的初始速度的矢量给出。
例如,下落移动能够被模拟为在重力影响下的移动。此外,在此在模拟中还能够考虑附加的力,即例如摩擦力(例如在空气或液体中)以及电磁力。在一个有利的设计方案中,例如仅在考虑重力的情况下模拟移动。在此,然后根据起始数据开始下落移动的模拟。
机器学习模型例如能够设计和设置为根据本说明书的识别机器学习模型或者包括这种模型。在这种情况下,除了由物体的3D模型所采用的稳定姿态的识别信息之外,所创建的图像的标识还能够包括例如根据本说明书的其他物体参数。在此,这种其他物体参数能够例如是关于物体的3D模型的姿态和/或位置的信息、关于围绕物体的3D模型的虚拟框的姿态和/或形状的信息、物体的类型和/或包括关于物体的识别信息。
机器学习模型例如还能够设计和设置为根据本说明书的角度捕获机器学习模型或者包括这种角度捕获机器学习模型。在这种情况下,除了由物体的3D模型采用的稳定姿态的识别信息之外,分配给捕获到的图像的标识例如还能够包括根据本说明书的其他物体参数。在此,这种其他物体参数能够包括例如虚拟平坦面上的物体的3D模型相对于确认的或可确认的起始位置的旋转角度。
机器学习模型例如还能够设计和设置为根据本说明书的变换机器学习模型或者包括这种变换机器学习模型。在这种情况下,除了由物体的3D模型采用的稳定姿态的识别信息之外,分配给捕获到的图像的标识还能够包括例如根据本说明书的其他物体参数。在此,这种其他物体参数能够例如包括物体的3D模型从确认的或可确认的起始姿态到物体在放置面上的真实位置的上述变换的变换数据。在此,物体的3D模型的这种确认的或可确认的起始姿态也能够例如是对应的3D建模程序(例如3D-CAD软件)中的物体的3D模型的位置。
在一个有利的设计方案中,各上述的标识参数和/或物体参数例如能够自动得出。由于数字模拟环境中的物体的尺寸数据、方位数据和其他描述姿态和/或位置的数据是已知的,(否则无法进行物体模拟、尤其物理模拟),所以能够直接从模拟系统中提取物体的位置、物体的姿态、物体相对于虚拟平坦面的旋转角度、根据本说明书的变换数据和关于物体的3D模型的其他类似的物体参数。因此可行的是:上述用于使用物体的3D模型产生训练数据的方法自动地运行,进而自动地能够产生或产生用于根据本说明书的机器学习模型的训练数据。
但是,相应的上述标识参数也能够至少部分手动地通过用户得出,例如手动地通过测量或借助于至少部分自动化的测量系统得出。此外,这种标识参数能够至少部分自动地例如通过图像评估方法或用于执行在此描述的方法的模拟环境中的附加的自动数字测量系统来得出。
在另外的有利的设计方案中,能够通过以下方法步骤来设计和设置用于产生变换机器学习模型的训练数据的方法:
-选定物体的3D模型,
-选定虚拟平面之上的物体3D模型的起始数据,
-模拟物体(250、350)的3D模型朝虚拟平坦面的方向的下落移动,
-在物体(250,350)的3D模型在虚拟平坦面上的模拟的移动停止之后,创建物体(250,350)的3D模型的图像(132),
-使用所创建的图像得出关于物体的3D模型的至少一个物体参数,其中至少一个物体参数包括物体的标识数据、物体的3D模型的姿态或位置、关于围绕物体的3D模型的虚拟框的信息、物体的3D模型的稳定姿态的标识和/或物体的3D模型在虚拟平面上的旋转角度,
-将标识分配给已得出的至少一个物体参数,其中,标识包括物体的3D模型从确认的或可确认的起始位置到物体的3D模型在虚拟平坦面上的已得出的位置的变换的变换数据,
-存储训练数据,所述训练数据包括至少一个物体参数以及分配给所述物体参数的标识。
在此,训练数据能够存储在存储装置中和/或例如存储在对应的训练数据的数据库或数据集合中。
在此,物体的已得出的位置例如通过物体的3D模型的标识数据、物体的3D模型的姿态或位置、关于围绕物体的3D模型的虚拟框的信息、物体的3D模型的稳定姿态的标识和/或物体的3D模型的旋转角度。
在此,物体的3D模型的标识数据能够是或者包括例如识别信息、围绕物体的3D模型的虚拟框的描述数据、稳定姿态的识别信息和/或比例数据。
在此,能够根据被说明书来设计和配置变换数据、确认的或可确认的起始位置、物体的3D模型的旋转角度、物体的3D模型的稳定姿态的识别信息或标识以及至少一个物体参数。此外,还能够根据本说明书来设计和配置物体的3D模型的姿态或位置和/或关于围绕物体的3D模型的虚拟框的信息。
上述目的还通过一种用于产生机器学习模型的训练数据的方法来实现,
其特征在于,设有如下方法步骤:
-选定物体的3D模型,
-选定虚拟平坦面,
-确定物体的3D模型的姿态,使得物体的3D模型在三个或更多个点中接触虚拟平坦面,
-创建物体的数字模型的图像,
-将标识分配给图像,其中,该标识包括由物体的3D模型采用的稳定姿态的识别信息,
-存储训练数据,所述训练数据包括所创建的图像和分配给图像的标识。
在此,训练数据能够存储在存储装置中和/或例如存储在用于对应的训练数据的数据库或数据集合中。
在此,例如,能够根据本说明书来设计和配置机器学习模型。此外,能够根据本说明书来设计和配置所描述的用于产生机器学习模型的训练数据的方法。
在一个有利的设计方案中,所提到的方法在此也能够多次执行,以便例如产生尽可能大数量的具有分配的标识的图像以训练机器学习模型。在此,例如,能够频繁地重复该方法,使得虚拟平坦面上的物体的数字模型的多个(有利地是全部)能实现的稳定姿态在图像中的至少一个图像上示出。在另外的有利的设计方案中,该方法例如能够频繁地重复,使得物体的数字模型在虚拟平坦面上的尽可能多的(有利地全部)能实现的稳定姿态在图像中的至少两个或至少十个图像上示出。
上述用于产生训练数据的方法还能够被改进,使得相应的方法还分别设计和设置用于训练根据本说明书的机器学习模型,或者用于训练根据本说明书的其他机器学习模型,使得该机器学习模型或该其他机器学习模型使用捕获到的或已得出的图像和分配给所述图像的、用于由物体或物体的3D模型采用的稳定姿态的识别信息来训练。
在此,机器学习模型和/或其他机器学习模型例如能够设计和设置为识别机器学习模型和/或角度识别机器学习模型和/或变换机器学习模型或包括这种机器学习模型。因此,机器学习模型和/或其他机器学习模型能够包括所提到的机器学习模型中的一个、两个或者甚至全部三个的功能。
在另一设计方案中,机器学习模型例如能够设计和设置为识别机器学习模型和/或角度捕获机器学习模型,而其他机器学习模型例如能够设计和设置为变换机器学习模型。
在一个有利的设计方案中,该方法例如能够用于训练根据本说明书的识别机器学习模型、根据本说明书的角度识别机器学习模型和/或根据本说明书的变换机器学习模型。
在此,机器学习模型和/或其他机器学习模型的训练能够例如使用捕获到的物体图像、物体的位置、物体的识别信息、物体的旋转角度和/或关于由物体采用的稳定姿态的标识来进行。在此,为了训练机器学习模型和/或其他机器学习模型,例如将物体的位置、物体的识别信息、物体的旋转角度和/或关于由物体采用的稳定姿态的标识分配给捕获到的物体图像。参数(在此与捕获到的图像)分配更一般地也称为所谓的“标记”。
为了训练构成为识别机器学习模型的机器学习模型,能够例如用物体的位置、物体的识别信息和/或关于由物体采用的稳定姿态的标识来标记捕获到的图像。
此外,为了训练构成为旋转识别机器学习模型的机器学习模型,例如,能够借助物体的位置、物体的识别信息、物体的旋转角度和/或关于由物体采用的稳定姿态的标识来标记捕获到的物体图像。
为了训练构成为变换机器学习模型的机器学习模型,能够借助用于将物体的初始姿态变换成在捕获到的图像上采用的方位的对应的变换数据来标记捕获到的图像。
此外,为了训练构成为变换机器学习模型的机器学习模型,根据本说明书,能够例如借助用于将物体初始姿态变换成在捕获到或所创建的图像上采用的姿态的对应的变换数据来标记至少一个使用捕获到的或所创建的图像得出的物体参数。
上述目的还通过借助用于根据本说明书产生训练数据的方法产生的训练数据来训练机器学习模型、特别是根据本说明书的机器学习模型的用途来实现。
此外,上述目的通过机器学习模型、尤其根据本说明书的机器学习模型来实现,其中该机器学习模型使用训练数据来训练,所述训练数据使用根据本说明书的用于产生训练数据的方法来产生。
此外,用于得出用于抓取装置的控制数据的方法或系统根据本说明书设计和设置用于,使得使用训练数据来训练在执行该方法的范围中在所提到的系统中适用的机器学习模型,所述训练数据使用根据本说明书的用于产生训练数据的方法来产生。
在从属权利要求中得出其他有利的设计方案。
下面示出根据本说明书的方法和/或设备的示例性的可能的设计方案。
所述实施例基于如下问题:在许多制造进程中,部件可经由所谓的“装料器”作为运输系统提供。在此,这种部件例如能够来自外部供应商或来自上游的内部生产进程。例如,对于另外的制造进程需要:所述部件被隔离并且单独地以特定方式操纵或运输。特别是对于其中通过机器人臂进行所述进一步处理的制造方法,需要关于隔离的部件的姿态和取向的精确信息。当然,在这种装料器中,部件的姿态和位置是完全随机的,并且无法以预设方式确认。因此,必须动态得出所述数据,以便能够例如借助机器人臂成功抓取和运输所述部件。
例如,在所述实施例的范围内,根据本说明书的用于抓取物体的示例性的方法和系统能够设计和设置为,使得系统能够定位如下物体或部件,对于所述物体或部件,物体或部件的3D模型可用。例如,这种3D模型能够由3D-CAD软件创建。这种方法例如能够在不同的硬件设备上执行,例如可编程逻辑控制器、模块化可编程逻辑控制器、边缘设备或者还使用云中的计算能力,例如以便做出对应的图像处理。在此,可编程逻辑控制器例如能够设计为,使得使用人工智能或机器学习技术在用于执行人工智能方法的可编程逻辑控制器的特定功能模块中执行方法步骤。这种模块能够包括神经网络。
下面描述的示例性的系统例如能够使用物体的对应的3D模型来识别任何物体的6D取向,使得能够在3D模型中指定的抓取点处可靠地抓取物体。这运行为系统以高的可重复的精度,例如为特定的生产步骤输送对应的输送部件。
用于执行这种方法的系统的一般结构例如能够包括以下提到的部件:
a.)用于要处理的部件的、具有平坦表面的、可选地具有振动分离装置的运输系统;
b.)用于抓取要处理的部件的机器人臂;
c.)相机,用于捕获运输系统上的待处理的部件的、用于对应的相机控制器的图像数据,
d.)可编程逻辑控制器(PLC),用于分别将抓取坐标提供给输送部件并且传输给机器人;
e.)相机控制器,用于鉴别部件(分类)、用于确定其取向(探测/分割)并用于得出抓取坐标。
借此,这种示例性的系统例如能够包括:PLC、相机控制器、相机、在相应的部件上运行的软件以及产生用于所提到的软件的输入值的其他软件。
在捕获具有多个部件的图像后,实例描述的系统设计和设置用于:识别部件,然后选定待抓取的特定的部件并且确定用于待抓取的所述部件的抓取点。为此目的,该软件和其他软件执行以下步骤,例如:
1.)图像分割:在第一步骤中,使用AI模型(“M-Seg”)对图像进行分割。在此,所述分割AI模型M-Seg是根据本说明书的识别机器学习模型的实例。在此认定:每个部件被隔离地考虑,就好像其单独或单个位于放置面或输送装置上。然后,对每个部件得出矩形虚拟边界框(X,Y中的位置),确定物体类型,以及计算X、Y方向上的位置/比例。在此,该位置对应于6D空间的旋转维度中的近似取向,这基于部件的能实现的稳定姿态,如其在下文中解释。所选定的部件、特别是例如分配的虚拟边界框于是限定“感兴趣区域”(ROI),在所述感兴趣区域上使用后续步骤。
2.)在其他的可选的步骤中,计算所选定的部件相对于放置面的旋转角度。这借助所谓的回归和/或分类AI模型(“M-RotEst”)执行。在此,M-RotEst是根据本说明书的角度识别机器学习模型的实例。
3.)在下一步骤中,将第三AI模型(“M(部件ID、采用的稳定姿态、旋转角度)”)应用于所选部件位于的ROI。在此,在前面的步骤中已确定的变量,即部件的类型(部件ID)、采用的稳定姿态、以及部件的已得出的旋转角度用作为输入变量。对于所述第三AI模型,例如能够使用“深度神经网络”、“随机森林”模型或类似的机器学习模型。此外,例如从对应的数据库中选定所选定的部件的3D模型。在其他的步骤中,然后将图像评估方法、即例如SURF、SIFT或BRISK应用于ROI。在此,将所选定的部件的3D模型的识别到的特征在捕获到的部件图像进行比较。在此,所述最后提到的步骤得到在所选定的部件的3D模型和现实中的捕获到的相机图像上的所选定的部件之间的变换数据。然后,能够将所述变换数据用于:将3D模型中标识的抓取点变换到真实空间,使得然后对于所选定的部件提供抓取点的坐标。在此,所述第三AI模型M(部件ID、采用的稳定姿态、旋转角度)是根据本说明书的变换机器学习模型的实例。
下面描述:如何设计或训练上述软件或提到的机器学习模型(例如M-Seg、M-RotEst和M(部件ID、采用的稳定姿态、旋转角度))以执行所描述的方法。
为此,提供待抓取部件的3D模型作为输入,其中,在3D模型中指定或标识用于部件的可能的抓取点。
此外,然后在第一步骤中确定部件在平坦面上的能实现的稳定姿态。在此,这种能实现的稳定姿态是物体处于平衡中且不翻倒的姿态。例如,在硬币的情况下,这也是硬币边缘竖立的姿态。
所述能实现的稳定姿态例如能够通过以下方式得出:即使物体以各种初始条件落下到平坦面上。这能够在现实中进行,或者也能够使用部件的3D模型在对应的物理模拟中进行。然后,在模拟中和在现实中都等待,直至不再移动。然后所达到的位置视作为稳定姿态,并且作为稳定姿态捕获。用于得出能实现的稳定姿态的另外的选项是得出如下位置,在所述位置中所选定的部件在(至少)三个点中接触平坦面,其中,物体然后在任何其他点中都不会穿过该面。然后,分别将唯一的标识分配给以所描述的方式之一得出的稳定姿态。
随后,产生用于分割机器学习模型(M-Seg)的训练数据。在此,训练数据由一组具有捕获到的物体的图像构成,借助物体的相应的位置、识别信息或物体类型以及相应采用的稳定姿态来标记或注释。例如,能够通过在真实世界中将不同物体定位在对应的稳定姿态中的方式来产生所述数据。替代地,也能够将物体的3D模型在光线追踪器软件或游戏引擎中虚拟地布置在稳定姿态中,其中,然后人工产生所述物体的对应的图像。
然后,为物体的对应的图像产生标签。每个物体的标签由矩形的虚拟边界框(x1,y1,x2,y2)、物体类型和采用的稳定姿态的标识组成。
如果使用可选的角度识别模型M-RotEst,则还将所选定的部件相对于放置面的表面法线的旋转角度作为标签分配。在使用模拟以产生这种数据时,例如使用光线追踪器引擎来产生时,能够自动产生所述数据以标记捕获到的图像。
于是,以这种方式产生的整个所述数据都能够用于例如训练深度神经网络,其中,例如能够使用标准架构,例如用于M-Seg模型的YOLO和用于回归或回归模型的卷积神经网络。
在更后续的步骤中,然后产生相应部件在相应的稳定姿态中的基准影响。这又能够使用真实物体来进行,或者也能够通过上述虚拟模拟来产生。在此,使用真实物体的缺点是:必须手动进行标记。在使用虚拟3D模型的情况下,能够自动产生对于标记所需的数据,进而标记也能够自动运行。此外,如果图像由于借助3D模型的物理模拟产生,则还能够更精确地得出变换数据。
然后,所产生的变换数据运行:借助于上述方法在特定部件的3D模型中标识的抓取点变换为真实捕获到的部件的对应的抓取点的坐标,使得抓取装置能够使用真实部件的所述坐标来在对应的抓取点处抓取。
附图说明
下面,参考所附的附图示例性地更详细地解释本发明。
附图示出:
图1示出用于抓取物体的系统的实例;
图2示出具有抓取点和所示出的稳定姿态的3D模型的实例;
图3示出用于得出物体的稳定姿态的方法实例;
图4示出用于训练机器学习模型的方法实例;
图5示出用于产生机器学习模型的训练数据的方法实例;
图6示出用于抓取物体的方法的实例;
图7示出物体的捕获到的相机图像包括所属的3D模型的视图的实例,
图8示出用于抓取物体的系统的第二实例;
图9示出用于抓取物体的系统的第三实例。
具体实施方式
图1示出作为根据本说明书的系统的一个实施例的抓取系统100。示例性的抓取系统100设计和设置用于识别、选定和抓取和运输运输装置110上的物体200。
为此,在图1中示出长方体的抓取物体200,抓取物体在运输装置110内运输至平面的放置面112并且存放在那里。此外,设有相机130用于捕获具有抓取物体200的放置面112,相机与工业PC 140连接。在此,工业PC 140包括图像评估软件,图像评估软件包括神经网络142。使用具有神经网络142的图像评估软件,对由相机130捕获到的图像进行评估,使得识别抓取物体200以及其他可能的物体并且借助下面更详细描述的方法得出用于抓取物体的抓取点的数据。
然后,用于抓取物体200的抓取点的数据从工业PC传输至模块化的可编程逻辑控制器(PLC)150。在那里,数据被进一步处理,并且然后传输给具有抓取器122的机器人120。然后,机器人120使用数据驱控抓取器122,使得抓取器122在为此所设的抓取点处抓取物体200并传送至图1中未示出的进一步的生产步骤。
图2示出长方体的抓取物体200的3D模型250。在此,图2中的长方体的抓取物体200的3D模型250以立体图(图2中最左侧)和以根据本说明书的其三个稳定姿态示出。在图2中,长方形200的3D模型250的六个边用对应的数字标识。在此,分别以从上方的视角示出3D模型250的稳定姿态1、2和3。
此外,在3D模型250中,分别作为黑色长方体示出设置用于抓取对应物体的抓取点255。在此,抓取点255是如下点,在该点处有利地能够由抓取装置120、122抓取对应的长方体200。在此,3D模型250由对应的3D-CAD程序创建。在该程序内,在3D模型250中已经标识对应的模型抓取点255。
图2中示出的“稳定姿态1”示出3D模型250的姿态,其中,3D模型位于窄长边上且与其平行的、图2中用数字1标识的窄长边指向上方。在图2中所示的“稳定姿态2”中,图2中用数字2标识的大长边指向上方。相应地,图2中所示的“稳定姿态3”示出如下状态,其中,3D模型250的图2中用数字3标识的短窄边指向上方。
图2中所示的稳定姿态能够按照根据本说明书的方法来得出。结合下面的图3更详细地解释这种方法的一些实例。
图3示出用于得出一个或多个物体的一个或多个稳定姿态的三种示例性的方法410、420、430。
在第一手动方法410中,在第一步骤412中,选定所确定的物体类型,对于物体类型应当得出一个或多个稳定姿态。
在下一步骤414中,使物体以随机的初始条件落下到平坦面上。在此,随机初始条件包括平坦面之上的随机得出的高度以及所选定的物体的方向和速度任意的初始速度。
此后,在步骤416中等待直至落下的物体不再移动。一旦物体静止,就例如借助相机捕获平坦面上的物体图像。
在下一步骤418中,然后鉴别平坦面上的由物体采用的位置并且得出对于采用的稳定姿态唯一的标识。然后,将对于采用的稳定姿态唯一的标识分配给捕获到的图像。
然后,捕获到的图像与图像上通过物体采用的稳定姿态的唯一的标识的以这种方式得出的组合例如能够用于随后的类似的测量,以便相应地将唯一的标识分配给稳定姿态。因此,例如,能够借助于这种图像标识组合构建关于物体稳定姿态的数据库。
此外,这种图像标识组合能够用于训练根据本说明书的机器学习模型。
在另外的有利的设计方案中,随方法步骤418之后例如借助相同的物体和不同的初始条件又执行方法步骤414。以这种方式,然后又产生新的图像标识组合,然后借助新的图像标识组合能够如上已经描述的那样进行处理。这在图3中用方法步骤418和414之间的箭头来标识。
以这种方式,能够执行该方法直到例如对于数据库或对于训练对应的机器学习模型充分地存在图像标识组合。
如果对于每个可能的物体和这种物体的每个能实现的稳定姿态存在充分的图像标识组合,则这例如会是这种情况。
图3还示出第一自动方法420,其同样用于得出一个或多个物体的稳定姿态。
在此也在第一步骤422中选定如下物体,对于该物体应对应地确定稳定姿态。然后为该物体选定对应的3D模型。例如,能够借助对应的3D-CAD程序来创建或已经创建这种3D模型。
在下一步骤424中,然后使用具有物理模拟的模拟环境(例如具有所谓的“游戏引擎”),使用虚拟面上的物体的3D模型来模拟这种物体到平坦面上的下落。在此,初始条件例如能够在速度和方向方面随机选定。
随后,在步骤426中,继续模拟直至模拟的物体在正常测量精度的范围内不再移动。然后,借助模拟环境产生静止在虚拟平坦面上的物体的3D模型的图像。在此,以如下方式产生图像,即图像对应于在对应于虚拟面的真实平坦面上的对应于3D模型的真实物体的相机记录。
然后,在下一步骤428中,将通过图像上的3D模型采用的稳定姿态的唯一的标识分配给所创建的或所产生的图像。
如在上述实例中,图像标识组合然后能够用于构建对应的数据库或训练对应的机器学习模型。
在一个有利的设计方案中,所提到的方法然后能够通过如下方式执行多次:即然后重新跟随方法步骤428之后进行方法步骤424。在后续的步骤424中,然后例如用不同的初始条件来模拟3D模型的下落。这在图3中通过方法步骤428和方法步骤424之间的对应的连接箭头示出。
以这种方式,如上所述,又能够产生如对于构建对应的数据库或对于训练对应的机器学习模型所需那样多的图像标识组合。此外,图3示出用于得出稳定物体姿态的第二自动方法430。在这种情况下,也在第一步骤432中选定物体,对于物体随后确定稳定的物体姿态。
第二自动方法又使用所选定的物体类型的3D模型来工作。在此,在下一方法步骤434中,在对应的模拟或CAD软件中得出所选定的3D模型在虚拟面上的如下姿态,在该姿态中3D模型在三个或更多个点中接触虚拟平坦面,而3D模型在其他点中都没有穿过平坦面。
与第一自动方法420相比,然后在下一步骤436中从虚拟平坦面上的3D模型的已得出的姿态的每个姿态中产生虚拟平坦面上的3D模型的一个或多个图像。在此,在多个图像的情况下,能够对每个图像使用不同的虚拟相机位置。
在下一方法步骤438中,然后将通过相应图像上的物体采用的稳定姿态的唯一的标识分配给对应的所创建的图像。
然后,标识图像组合能够用于构建物体稳定姿态的对应数据库和/或用于训练一个或多个对应的机器学习模型。
图4示出用于产生识别机器学习模型和/或角度识别机器学习模型的训练数据的方法510、520的两个实例。
在此,在图4左侧所示的第一方法510设计中用于手动或部分自动地得出识别机器学习模型和/或角度识别机器学习模型的训练数据。在此,在第一步骤512中,选定特定的物体类型,对于物体类型应产生对应的训练数据。
在另一步骤514中,在平坦面上得出物体类型的稳定物体姿态。在此,例如,能够使用根据本说明书的方法。
在随后的工作步骤516中,使用处于不同位置、不同稳定姿态和围绕平坦面的表面法线的不同旋转角度的所选定的物体来产生多个图像,或者例如从数据库或图像集合中选定多个图像。
在随后的工作步骤518中,将物体的标识数据分配给相应的图像,表示数据例如是关于围绕物体的虚拟框、物体类型、采用的稳定姿态的标识和/或位置的数据。如果为角度识别机器学习模型产生训练数据,则标识数据还包括旋转角度。
然后,利用其他的物体类型,以方法步骤512开始来执行相同的方法步骤。重复所述循环,直到为所有为了使用对应的机器学习模型所需的物体产生训练数据。
图4右侧上示出的自动的、基于模拟的方法520又在第一方法步骤522中始于选定物体类型和物体类型的对应所属的3D模型。在此,例如,能够根据本说明书来设计和配置3D模型。
此后,在下一方法步骤524中,使用所选定的物体类型的3D模型自动得出稳定物体姿态。例如,能够根据本说明书来进行自动的得出。
在下一方法步骤526中,使用处于不同位置、稳定姿态和旋转角度的所选定的物体类型的3D模型来自动产生一组图像。图像能够例如又根据本说明书来产生,例如使用对应的光线追踪器引擎产生。
在下一方法步骤528中,所产生的图像随后借助对应的标识数据来自动地注释或标记。这种特征数据例如是关于围绕所示出的物体的虚拟框的信息、物体类型、关于物体的稳定姿态的标识和/或物体的位置。如果设有训练数据来训练角度识别机器学习模型,则特征数据还包括旋转角度。所提到的特征数据能够被自动注释或标记,因为通过借助于模拟环境和对应的光线追踪器引擎来虚拟产生图像,数据在产生图像时已经是已知的。
然后,始于方法步骤522,针对其他物体类型执行该方法步骤。执行循环,直到为所有对于使用对应的机器学习模型所需的物体产生训练数据。
在图5中示出两种方法610、620,这些方法是用于产生变换机器学习模型的训练数据的方法的实例。
第一手动方法610在图5的左侧示出。
在此,在第一工作步骤612中,又选定特定的物体类型,然后为物体类型产生对应的训练数据。
在第二工作步骤614中,然后使用所选定的物体类型产生图像,例如在使所选定的物体以任意的初始条件(例如,关于高度和初始速度矢量)下落到平坦面上后产生。
在接下来的可选的步骤616中,然后从所产生的图像中得出物体姿态数据。这种物体姿态数据例如能够是或者包括物体的位置、物体的标识、关于围绕物体的虚拟边界框的信息、旋转角度和/或采用的稳定姿态。
随后,在下一步骤618中,确定用于将所选定的物体的3D模型变换成在所产生的图像上的模型的姿态的变换数据。例如,这能够通过以下方式实现:例如将捕获到的图像与3D模型的显示叠加在计算机屏幕上,并通过用户的手动变换动作来变换或转动、位移和缩放物体的3D模型图像,使得其与在所产生的图像上示出的物体一致。然后能够以本领域技术人员已知的方式从在此使用的变换运算中得出期望的变换数据。
然后,例如将所述变换数据分配给所产生的图像或已得出的物体姿态数据。注释或标记的图像或者注释或标记的姿态数据随后可用于训练对应的变换机器学习模型。
然后,始于处理步骤614,重复方法步骤,直到为所选定的物体类型产生足够的训练数据。循环通过所示出的手动实验方法610的右侧的对应箭头来符号表示。
如果为特定物体产生了足够的训练数据,则随后执行的用于注释图像或姿态数据的方法步骤618在第一方法步骤612中再次开始手动方法610以选定新的物体类型,之后为其他物体类型得出对应的训练数据。循环通过图5所示的手动方法610的左侧的虚线箭头符号表示。
执行手动方法610的上面所示的流程,直到已经为所有相关的物体类型得出足够的训练数据。
在图5的右侧上,示出示例性的自动方法620,协助自动方法能够自动地且基于模拟地产生用于变换机器学习模型的训练数据。
在第一方法步骤622中,在此,也得出特定的物体类型和对此的对应的3D模型。
随后,在下一方法步骤624中,自动地产生处于任意位置、任何旋转角度和任意稳定姿态的所选定的3D模型的图像。例如,这能够借助于物理模拟来进行,其中,模拟对应物体以任意初始条件(例如,关于高度和速度矢量)下落到平坦表面上,然后在物体在模拟中再次静止之后,借助于对应的光线追踪引擎产生物体的图像。图像的这种产生例如能够根据本说明书来设计和配置。
在物体的稳定姿态已知的情况下,能够通过以下方式也产生图像:即物体的3D模型以不同的位置、旋转角度和稳定姿态分别在图像上示出或生成,例如也通过对应的3D建模或3D-CAD工具。
在下一可选的方法步骤626中,从所产生的图像中自动提取物体姿态数据,或者直接从对应的模拟环境或对应的3D建模或3D-CAD工具中提取物体姿态数据。这种物体姿态数据例如又能够包括位置、关于围绕物体的虚拟边界框的信息、旋转角度和/或物体的采用的稳定姿态的标识。
在随后的方法步骤628中,然后自动地产生将物体的3D模型到处于模拟环境中的物体或在产生的图像上所示出的物体的变换数据。这能够例如通过将物体的3D模型导入到模拟环境中和随后自动得出的或间接的变换运算来进行,使得将导入的物体3D模型转移到处于采用的稳定姿态中的位于平坦表面上的物体。于是,变换运算的序列已经能够表示对应的变换数据。此外,替代地,变换的顺序能够以对于本领域技术人员已知的方式转换成变换数据。然后,例如,借助对应的变换数据来注释或标记所产生的图像或为其得出的姿态数据。如此标记的图像或姿态数据于是能够用作对应的转换机器学习模型的训练数据。
如结合图5中的手动方法610已经提到的那样,由此第一方法循环返回方法步骤624才能够为变换机器学习模型产生所选定的物体类型的其他图像进而也产生所述物体类型的其他的训练数据。第一循环在图5中通过自动方法620的方法流程的左侧处的箭头标识。
如果已经为特定的物体类型产生足够的训练数据,则在第二叠加的方法循环中又在第一方法步骤622中开始选定新的物体类型,并且然后针对其他的物体类型执行上面解释的方法。第二叠加的方法循环在图5中在自动方法620的视图的右侧处通过从最后的方法步骤628到第一方法步骤622的对应的虚线箭头来表示。
然后,执行如上所示的整个自动方法620,直到对于所有所需的物体类型有足够的训练数据可用于训练对应的变换机器学习模型。
图6示出使用根据说明书的识别机器学习模型或角度识别机器学习模型和变换机器学习模型从面抓取物体的方法流程的实例。
随后,在此,以图1所示的系统为例更详细地解释图6中所示出的方法。
在第一方法步骤710中,由相机130对位于放置面112上的长方体200记录照片。
在下一方法步骤711中,相机图像被传输给工业PC 140,在工业PC上执行包括对应的识别机器学习模型或者还包括对应的角度识别机器学习模型的对应的图像评估软件。在此,图1所示的神经网络142是这种识别机器学习模型或这种角度识别机器学习模型的实例。
在提到的方法步骤711中,使用识别机器学习模型确定围绕所映射的长方体200的虚拟边界框(所谓的“边界框”)以及捕获到的长方体200的物体类型及其在所记录的图像上的位置和比例以及在此采用的稳定姿态。例如,能够如本说明书中更详细解释的那样设计和配置所提到的参数的这种得出。可选地,还能够使用角度识别机器学习模式,其中于是还得出围绕放置面112的表面法线的旋转角度作为附加的参数。该得出也能够例如根据本说明书来设计和配置。
对于在捕获到的图像上示出多个物体的情况,针对示出的每个物体执行方法步骤711。
在另外的方法步骤712中,例如,选定待由机器人120抓取的物体位于的虚拟边界框。在当前的实例中,所选定的边界框对应于围绕长方体200的边界框。
随后,在下一方法步骤713中,使用对应地针对应用情况训练的变换机器学习模型,产生用于长方体200的3D模型250变换成位于放置面112上的长方体200的变换数据。为此,例如,长方体200的特征性的姿态数据、诸如其位置、关于围绕长方体的虚拟边界框的信息、采用的稳定姿态、相对于放置面112的表面法线的旋转角度或类似的姿态数据被输入到变换机器学习模型中。然后,变换机器学习模型提供对应的变换数据,以将长方体200的3D模型250变换成位于放置面112上的长方体200。
此后,在下一方法步骤714中,确定在长方体200的3D模型250中捕获到的抓取点255的坐标。
然后,在方法步骤713中生成的变换数据在另一方法步骤715中被应用于在方法步骤714中得出的模型抓取点255的坐标,以便随后从中确定用于抓取在放置面112上的长方体200的具体的机器人抓取坐标。在此,对应的机器人抓取坐标设计和设置为,使得机器人120的抓取器122在一个或多个抓取点处抓取长方体200,其中,抓取点对应于长方体200的3D模型250中的模型抓取点255。
在方法步骤711至715例如在工业PC 140中运行期间,在方法步骤715中生成的机器人抓取坐标随后在下一方法步骤716中从工业PC 140传输给PLC 150。
在最后的方法步骤717中,数据随后由PLC 150转换成用于机器人120的对应的控制数据并且被传输给机器人120。然后,机器人在计算出的抓取点处抓取长方体200,以便随后将其运输到期望的存放位置处。
图7在左侧示出两个3D模型250、350,其中,除了图2中已经示出的长方体200的3D模型250之外,还示出了棱锥体的3D模型350。在长方体200的3D模型250中,又标识对应的模型抓取点255,模型抓取点在对应的长方体200处的合适部位处标识,在部位处能够有利地附接用于抓取长方体200的抓取器。对应地,在棱锥体的3D模型350中,标识用于抓取对应的棱锥体的模型抓取点355。
在图7的右侧,示例性地示出相机图像132,在相机图像上捕获位于对应平坦面上的长方体200、210、220和棱锥体300、310。在此,所示的三个长方体200、210、220对应于图7左侧所示的长方体的3D模型250。两个棱锥体300、310对应于图7的左侧所示的棱锥体的3D模型350。
在此,相机图像132上所示的第一长方体200处于长方体200的第二稳定姿态中,如其在图2的解释的范围内示出的那样。在第二稳定姿态中,图2中以数字2标识的大长边指向上方。此外,在相机图像122上在长方体200上标识对应的抓取点205,抓取点对应于图2所示的、处于第二稳定姿态的模型抓取点255。
借助根据本说明书的方法,然后例如能够计算变换数据,借助变换数据能够将对应的模型抓取点255的参数换算成长方体200的抓取点205在相机图像132上的坐标。然后借助变换数据,例如能够得出机器人的控制数据,因此机器人能够例如借助吸力抓取器在抓取点205处抓取长方体200进而运输。
此外,相机图像132示出围绕所示出的长方体200的虚拟边界框202。例如,借助虚拟边界框202,能够针对长方体200限定对应的“感兴趣区域”(ROI)。此外,能够从所示出的长方体200的虚拟边界框202的数据中得出长方体的其他的特征变量,即例如位置、比例因子或还有旋转角度和/或稳定姿态的估计。
以类似的方式,在图7中示出第二长方体210,第二长方体处于如在图2中解释的第一稳定姿态中。在此,图2中用数字1表示的长方体210的短长边指向上方。对应的长方体抓取点215又在相机图像132上示出,对应的长方体抓取点对应于模型抓取点255,其在图2中在映射上对应于长方体的3D模型250的稳定姿态1的视图。此外,在此还示出围绕第二长方体210的虚拟边界框212。
此外,图7在相机图像132上示出第三长方体220,第三长方体又处于根据图2的第二稳定姿态中。在此也再次绘出对应的抓取点225,该抓取点对应于图2中所示的处于第二稳定姿态的模型抓取点255。对应的虚拟边界框222分配给第三长方体220并且在相机图像132上示出。
对应地,相机图像还示出具有在对应的稳定姿态中可见的抓取点305的第一棱锥体300,该抓取点对应于棱锥体模型抓取点355之一。还围绕第一棱锥体300绘出对应的虚拟边界框302,虚拟边界框例如可用于选定棱锥体以随后在抓取点305处进行抓取。
相机图像132还示出对于这种类型的棱锥体300、310处于稳定姿态中的第二棱锥体310。还在相机图像132上捕获到的所述第二棱锥体310上绘出抓取点315,抓取点对应于棱锥体模型抓取点355之一。也为第二棱锥体310在相机图像132上绘制对应的虚拟边界框312。
例如,如果在如图1所示的运输装置110的放置面112上存在根据长方体200、210、220的3D模型250的三个长方体200、210、220以及根据棱锥体300、310的3D模型350的两个棱锥体300、310,则能够捕获这种相机图像132。
通过根据本说明书的图像评估方法,然后例如能够得出虚拟边界框202、212、222、302、312,以及所示出的物体200、210的相应的位置、稳定姿态和旋转角度。于是,例如在对应的旋转步骤中能够选定第一长方体200。
借助于根据本说明书的方法,然后能够从第一长方体200在相机图像132上的已得出的位置数据和参数中来得出变换数据,借助变换数据能够将长方体200的3D模型250变换成现实中的位于相机图像132上的长方体。变换数据然后能够用于将长方体模型抓取点255换算为相机图像132上的长方体200的抓取点205的坐标。使用所选定的长方体200的抓取点205的坐标,然后能够得出用于驱控例如具有吸力抓取器的机器人的机器人数据。借助机器人数据然后能够在长方体抓取点205处抓取长方体200并且运输。
图8示出图1中已经示出的抓取系统100的变型。在此,在图8中示出的抓取系统100中,图1中所示的工业PC 140设定用于通过边缘设备190来进行图像评估,边缘设备同样设计和设置用于评估相机130的图像。在此,例如,边缘设备能够根据本说明书来设计和配置,并且例如除了耦合到PLC 150之外,也还能够与图8中未示出的云连接。在此,还能够提出:用于评估由相机130捕获到的图像或其至少部分的图像的评估方法在云上运行。
图9示出图1和图8中所示的抓取系统100的另一变型,其中,在图9中示出的抓取系统100中由相机130捕获到的图像在PLC 150中评估。为此,PLC 150包括中央控制组件152,中央控制组件具有运行环境154用于运行对应的控制程序,包括但不限于用于驱控运输装置110以及机器人120。此外,PLC 150包括输入/输出组件158,PLC 150经由输入/输出组件与运输装置110以及机器人120通信。PLC 150还包括用于运行用于评估相机130的图像的图像评估方法的功能模块160,其中,功能模块160包括神经网络162,神经网络为例如根据本说明书的识别机器学习模型、根据本说明书的角度识别机器学习模型和/或根据本说明书的变换机器学习模型。
在此,PLC 150的中央模块152、输入/输出模块158以及功能模块160经由内部背板总线156彼此耦合。模块152、158、160之间的通信例如经由背板总线156进行。
在此,例如,PLC 150能够设计和设置为,使得在根据本说明书的方法的范围中,使用机器学习模型的所有工作步骤在PLC 150的功能模块160中运行,而所有其他的工作步骤在所提到的方法的范围中通过在中央模块152的运行环境154中运行的控制程序来执行。
替代地,PLC 150例如还能够设计和设置为,使得在根据本说明书的方法的范围中,与图像、特别是相机130的图像相关的所有工作步骤在功能模块160中运行,而用于控制运输装置110以及机器人120的工作步骤通过在中央控制组件152的运行环境154中运行的控制程序执行。
以这种方式,PLC 150能够非常有效地设计用于运行根据本说明书的方法,因为计算密集型特殊任务、例如所提到的机器学习模型的处理或图像的评估外包给特殊的功能模块160,并且所有其他方法步骤能够在中央模块152中运行。
Claims (14)
1.一种用于得出用于抓取物体(200,210,220,300,310)的抓取装置(120,122)的控制数据的方法,所述方法包括以下步骤:
-捕获所述物体(200,210,220,300,310)的图像(132),
-确定捕获到的所述物体(200,210,220,300,310)的至少一个物体参数(202,212,222,302,312),
-得出用于在至少一个抓取点(205,215,225,305,315)处抓取所述物体(200,210,220,300,310)的抓取装置(120,122)的控制数据,
其特征在于,
使用关于所述物体(200,210,220,300,310)的至少一个能实现的稳定姿态的信息来得出所述物体(200,210,220,300,310)的所述至少一个抓取点(205,215,225,305,315),
其中,所述物体的所述能实现的稳定姿态设计和设置用于,将所述物体的全部姿态数据分配给所述能实现的稳定姿态,所述姿态数据能够通过围绕所述物体位于的支承面的表面法线的旋转和/或位移相互转换,
特别地,使用关于所述物体(200,210,220,300,310)的至少一个能实现的稳定姿态的信息来确定所述至少一个物体参数(202,212,222,302,312)和/或得出用于所述抓取装置(120,122)的控制数据。
2.根据权利要求1所述的方法,其特征在于,还使用以下步骤得出所述至少一个抓取点(205,215,225,305,315):
-使用所述至少一个物体参数(202,212,222,302,312)选定用于所述物体(200,210,220,300,310)的3D模型(250,350);
-从所述物体(200,210,220,300,310)的所述3D模型(250,350)确定至少一个模型抓取点(255,355);
-使用所述模型抓取点(255,355)确定所述物体的所述至少一个抓取点(205,215,225,305,315)。
3.根据前述权利要求中任一项所述的方法,其特征在于,将关于至少一个能实现的稳定姿态的信息的应用设计和设置为机器学习模型(142,162)的应用,其中,通过将机器学习方法应用于关于所述至少一个能实现的稳定姿态的已得出的信息来训练和/或设置所述机器学习模型(142,162)。
4.根据前述权利要求中任一项所述的方法,其特征在于,
使用所述模型抓取点(255,355)对所述物体的所述至少一个抓取点(205,215,225,305,315)的得出,
-利用其他机器学习模型(142,162)来实现,其中,通过将机器学习方法应用于变换数据来训练或设置所述其他机器学习模型(142,162),所述变换数据与已预设的或能预设的初始位置到所述物体的能实现的姿态中的能实现的变换有关,
-或者借助于将图像评估方法应用于所述物体的捕获到的所述图像(132)来实现。
5.根据前述权利要求中任一项所述的方法,其特征在于,
所述至少一个物体参数(202,212,222,302,312)的确定还包括得出所述物体的位置数据(202,212,222,302,312),
特别地,所述位置数据还包括关于由所述物体采用的稳定姿态的信息。
6.根据前述权利要求中任一项所述的方法,其特征在于,
通过使用关于至少一个能实现的稳定姿态的信息,确定所述至少一个物体参数(202,212,222,302,312),得出识别信息,得出位置数据(202,212,222,302,312),确定所述物体(200,210,220,300,310)的姿态,确定围绕所述物体(200,210,220,300,310)的虚拟边界框(202,212,222,302,312),和/或确定由所述物体(200,210,220,300,310)采用的稳定姿态。
7.根据前述权利要求中任一项所述的方法,其特征在于,
在捕获所述物体(200,210,220,300,310)的所述图像时捕获其他物体(200,210,220,300,310),并且在确定所述物体(200,210,220,300,310)的所述至少一个物体参数(202,212,222,302,312)的情况下还分别得出关于所述其他物体(200,210,220,300,310)中的每一个物体的至少一个其他物体参数;
特别地,在得出关于所述物体(200)和所述其他物体(210,220,300,310)的物体参数后,选定所述物体(200)。
8.一种用于抓取物体(200,210,220,300,310)的方法,其特征在于,
使用根据权利要求1至7中任一项所述的方法,得出所述物体(200,210,220,300,310)的至少一个抓取点(205,215,225,305,315),并且随后由抓取装置(120,122)抓取所述物体(200,210,220,300,310),
其中,所述抓取装置(120,122)在抓取所述物体时接合在所述至少一个抓取点(205,215,225,305,315)处。
9.一种用于抓取物体的系统(100),包括:
用于捕获所述物体(200,210,220,300,310)的图像(132)的光学捕获装置(130),
数据处理装置(140,150,190),用于确定所述物体(200,210,220,300,310)的至少一个物体参数(202,212,222,302,312)和/或用于得出用于抓取所述物体(200,210,220,300,310)的抓取装置的控制数据,
其特征在于,
所述系统(100)设计和设置用于执行根据权利要求1至7中任一项所述的方法。
10.根据权利要求9所述的系统,其特征在于,所述系统(100)包括抓取装置(120,122),并且所述系统(100)还设计和设置用于执行权利要求8所述的方法。
11.根据权利要求9或10所述的系统,其特征在于,
所述数据处理装置(140,150,190)设计和设置为具有中央模块(152)和其他模块(160)的模块化的可编程逻辑控制器(150),或者所述数据处理装置包括所述可编程逻辑控制器(150),
并且还使用所述其他模块(160)来确定所述物体(200,210,220,300,310)的所述至少一个物体参数(202,212,222,302,312)。
12.根据权利要求11所述的系统,其特征在于,
使用机器学习模型(162)来确定所述物体(200,210,220,300,310)的所述至少一个物体参数(202,212,222,302,312),并且所述其他模块(160)包括所述机器学习模型(162),
和/或
使用其他机器学习模型(162)来得出用于所述抓取装置(120,122)的控制数据,并且所述其他模块包括所述其他机器学习模型(162)。
13.根据权利要求9或10所述的系统,其特征在于,
所述数据处理装置(140,150,190)包括边缘设备(190),或所述数据处理装置设计和设置为边缘设备(190),并且
使用所述边缘设备(190)来确定所述物体(200,210,220,300,310)的所述至少一个物体参数(202,212,222,302,312)。
14.根据权利要求13所述的系统,其特征在于,
使用机器学习模型(142,162)来确定所述物体(200,210,220,300,310)的所述至少一个物体参数(202,212,222,302,312),并且所述边缘设备包括所述机器学习模型(142,162),
和/或
对用于所述抓取装置(120,122)的控制数据的得出包括对其他机器学习模型(142,162)的使用,并且所述边缘设备包括所述其他机器学习模型(142,162)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21163930.7A EP4063081A1 (de) | 2021-03-22 | 2021-03-22 | Verfahren zum ermitteln von steuerungsdaten für eine greifeinrichtung zum greifen eines gegenstands |
EP21163930.7 | 2021-03-22 | ||
PCT/EP2022/055162 WO2022199994A1 (de) | 2021-03-22 | 2022-03-01 | Verfahren zum ermitteln von steuerungsdaten für eine greifeinrichtung zum greifen eines gegenstands |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117355394A true CN117355394A (zh) | 2024-01-05 |
Family
ID=75143503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280036828.5A Pending CN117355394A (zh) | 2021-03-22 | 2022-03-01 | 用于得出用于抓取物体的抓取装置的控制数据的方法 |
Country Status (3)
Country | Link |
---|---|
EP (2) | EP4063081A1 (zh) |
CN (1) | CN117355394A (zh) |
WO (1) | WO2022199994A1 (zh) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017083574A1 (en) | 2015-11-13 | 2017-05-18 | Berkshire Grey Inc. | Sortation systems and methods for providing sortation of a variety of obejcts |
-
2021
- 2021-03-22 EP EP21163930.7A patent/EP4063081A1/de not_active Withdrawn
-
2022
- 2022-03-01 EP EP22712899.8A patent/EP4284604A1/de active Pending
- 2022-03-01 WO PCT/EP2022/055162 patent/WO2022199994A1/de active Application Filing
- 2022-03-01 CN CN202280036828.5A patent/CN117355394A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022199994A1 (de) | 2022-09-29 |
EP4063081A1 (de) | 2022-09-28 |
EP4284604A1 (de) | 2023-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110648361B (zh) | 一种三维目标物体的实时位姿估计方法及定位抓取系统 | |
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN111085997A (zh) | 基于点云获取和处理的抓取训练方法及系统 | |
Aleotti et al. | Perception and grasping of object parts from active robot exploration | |
Park et al. | Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN) | |
Huang et al. | A case study of cyber-physical system design: Autonomous pick-and-place robot | |
CN112017226A (zh) | 面向工业零件6d位姿估计的方法及计算机可读存储介质 | |
Wojciechowski et al. | Optical scanner assisted robotic assembly | |
JP2022187983A (ja) | 高次元のロボット作業を学習するためのネットワークモジュール化 | |
Hashimoto et al. | Current status and future trends on robot vision technology | |
Ku et al. | Modeling objects as aspect transition graphs to support manipulation | |
JP7373700B2 (ja) | 画像処理装置、ビンピッキングシステム、画像処理方法、画像処理プログラム、制御方法及び制御プログラム | |
CN117355394A (zh) | 用于得出用于抓取物体的抓取装置的控制数据的方法 | |
US20240173855A1 (en) | Method for Generating Training Data for a Machine Learning (ML) Model | |
CN113436293B (zh) | 一种基于条件生成式对抗网络的智能抓取图像生成方法 | |
CN117769724A (zh) | 使用深度学习的对象检测和分类的合成数据集创建 | |
Shukla et al. | Robotized grasp: grasp manipulation using evolutionary computing | |
CN111742349B (zh) | 信息处理装置、信息处理方法以及信息处理存储介质 | |
Zhao | Application of Robot Sorting Technology in Automatic Sorting of 3D Vision Target Pose Manipulator | |
Vargas et al. | Object recognition pipeline: Grasping in domestic environments | |
Castro-Vargas et al. | Detecting and manipulating objects with a social robot: An ambient assisted living approach | |
CN116494248B (zh) | 工业机器人的视觉定位方法 | |
WO2022199953A1 (de) | Verfahren zum ermitteln von steuerungsdaten für eine greifeinrichtung zum greifen eines gegenstands | |
US20230169324A1 (en) | Use synthetic dataset to train robotic depalletizing | |
Tasneem | PATH PLANNING FOR ROBOTIC VISUAL INSPECTION BASED ON THE OBJECT SHAPE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |