CN100590629C - 用于机器人仿真的装置、程序、记录介质以及方法 - Google Patents
用于机器人仿真的装置、程序、记录介质以及方法 Download PDFInfo
- Publication number
- CN100590629C CN100590629C CN200710086060A CN200710086060A CN100590629C CN 100590629 C CN100590629 C CN 100590629C CN 200710086060 A CN200710086060 A CN 200710086060A CN 200710086060 A CN200710086060 A CN 200710086060A CN 100590629 C CN100590629 C CN 100590629C
- Authority
- CN
- China
- Prior art keywords
- model
- robot
- action
- hopper
- thing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
一种机器人仿真装置,以离线方式模拟执行具有视觉传感器的机器人的动作。机器人仿真装置,具备:作业环境模型设定部,其在虚拟作业环境中配置传感器模型、机器人模型以及散装状态的多个工件模型;和动作仿真部,其使传感器模型以及机器人模型模拟执行工件检测动作以及料箱取物动作。动作仿真部,具备:工件模型图像生成部,其使传感器模型摄像工件模型,生成其虚拟图像;工件模型位置检测部,其由虚拟图像确定取出对象工件模型,检测其虚拟位置;和机器人模型动作控制部,其基于虚拟位置,使机器人模型挑选取出对象工件模型。
Description
技术领域
本发明涉及在离线状态下模拟执行具有视觉传感器的机器人的动作的机器人仿真装置。本发明还涉及用于在离线状态下模拟执行具有视觉传感器的机器人的动作的程序以及记录介质。此外,本发明还涉及在离线状态下模拟执行具有视觉传感器的机器人的动作的机器人仿真方法。
背景技术
在使用了机器人、尤其产业用机器人的生产系统中,含有用安装在机器人臂端的机器手来抓住并取出任意堆积的非排列状态(即,“散装”状态)的物体(即,工件)的所谓料箱取物(Bin-Picking)动作的工件搬运作业,一直以来,是在各种各样的局面下进行。一般在含有料箱取物动作的工件搬运作业中,靠近机器手设置在机器人臂端的视觉传感器,从散装状态的多个工件中确定取出对象工件,通过3维计测法来计测取出对象工件的位置以及姿势。机器人基于视觉传感器计测到的取出对象工件的位置以及姿势数据,使机器臂执行最优的运动,从散装状态的工件中取出取出对象工件。
在进行上述的料箱取物动作时,由于从任意配置的工件群中顺次确定的取出对象工件呈多样的位置以及姿势,所以按照取出对象工件变化,要求的机器臂的运动也进行各种变化。因此,通常,使具有视觉传感器的机器人(实机)实际动作,试行对散装状态的工件(实物)的料箱取物动作,这样来进行机器臂的位置以及姿势的示教。在这样的方法中,要预测机器人自身或者机器人抓住的工件与其周边物(取出对象工件以外的工件及工件存放容器等)的冲突(即,相互干扰),通常是困难的。因此,生成的工件搬运作业的动作程序是不考虑这样的相互干扰。
一般,机器人在发生了与周边物的相互干扰时迅速对其进行检测,并控制机器人,使其瞬时动作停止。在含有料箱取物动作的工件搬运作业中,因为较容易发生这种不预期的相互干涉,所以担心频繁反复进行机器人的动作停止会导致作业效率低下。因此现有技术中提出了这样的系统:机器人在由于与周边物的相互干扰等而导致动作停止时,从机器人的动作履历中取得分析其主要原因所需的信息,通过实机机器人或者仿真装置来再现动作停止状态,由此进行机器人的作业区域的重新审视、动作程序的修正等(例如参照特开2005-103681号公报(JP-A-2005-103681))。
在JP-A-2005-103681中公开的现有机器人系统,例如,在机器人执行含有料箱取物动作的工件搬运作业期间,由于与周边物的相互干扰等而导致机器人动作停止时,通过再现其动作停止状态,可以改善系统。即,因为不是通过仿真来事先预测机器人的动作停止,所以难以使机器人的动作程序优化到实际发生动作停止状况。尤其如上所述,在含有料箱取物动作的工件搬运作业中,需要针对呈多样的位置以及姿势的各个工件,使机器臂的运动进行各种变化,而使机器人动作。因此,为了实现工件搬运作业周期时间最短这样的动作程序的最优化,需要反复进行基于实机机器人的仿真,以算出平均的周期时间,其结果是担心系统调试所需的时间以及费用增加。
已知这样的离线示教法,为了使采用了机器人系统的生产现场的工作效率提高,在计算机中具有机器人以及其作业环境的模型,在显示画面上使机器人模型模拟执行希望的机器人动作,由此得到在实机机器人上应该示教的位置/姿势数据以及动作顺序数据。如果将这样的离线示教法应用在执行含有上述的料箱取物动作的工件搬运作业的机器人示教法中,可认为能够显著削减系统调试所需的时间以及费用。可是,用于离线示教含有料箱取物动作的工件搬运作业的有效仿真技术还没有开发。
发明内容
本发明的目的是提供这样一种机器人仿真装置,其以离线方式模拟执行具有视觉传感器的机器人的动作,该机器人仿真装置,可以准确仿真含有料箱取物动作的工件搬运作业,因此,可以预备性地确认机器人与周边物相互干扰,同时,迅速算出工件搬运作业的周期时间,这样可以以短时间以及低成本来生成最优的动作程序。
本发明的其它目的是提供一种程序以及记录了该程序的、计算机可读取的记录介质,该程序以及记录介质是用于以离线方式模拟执行具有视觉传感器的机器人的动作,使计算机具有正确仿真含有料箱取物动作的工件搬运作业的功能。
本发明的其它目的是还提供一种机器人仿真方法,其以离线方式模拟执行具有视觉传感器的机器人的动作,该机器人仿真方法,可以采用计算机来准确仿真含有料箱取物动作的工件搬运作业,因此可以预备性地确认机器人与周边物相互干扰,同时,迅速算出工件搬运作业的周期时间,这样可以以短时间以及低成本来生成最优的动作程序。
为了实现上述目的,本发明提供一种机器人仿真装置,其以离线方式模拟执行具有视觉传感器的机器人的动作,该机器人仿真装置,具备:作业环境模型设定部,其以任意堆积多个工件模型的状态,在虚拟作业环境中配置使视觉传感器、机器人以及工件各自模型化的传感器模型、机器人模型以及工件模型;和动作仿真部,使配置在虚拟作业环境中的传感器模型以及机器人模型,模拟执行对配置在虚拟作业环境中的多个工件模型的工件检测动作以及料箱取物动作;动作仿真部,具备:工件模型图像生成部,其使传感器模型模拟摄像多个工件模型,生成摄像后的多个工件模型的虚拟图像;工件模型位置检测部,其由工件模型图像生成部生成的多个工件模型的虚拟图像,确定取出对象工件模型后,检测取出对象工件模型的虚拟位置;和机器人模型动作控制部,其基于工件模型位置检测部检测到的取出对象工件模型的虚拟位置,使机器人模型模拟执行针对取出对象工件模型的料箱取物动作。
上述的机器人仿真装置,还可以具有周期时间计算部,其算出动作仿真部使传感器模型以及机器人模型模拟执行的工件检测动作以及料箱取物动作的周期时间。
在此结构中,上述机器人仿真装置还可以具有成功率指定部,其指定动作仿真部使传感器模型以及机器人模型模拟执行的工件检测动作以及料箱取物动作的各自成功率。此时,周期时间计算部考虑成功率指定部指定的工件检测动作以及料箱取物动作的各自的成功率,算出周期时间。
在上述机器人仿真装置中,动作仿真部,可以根据预先规定的机器人动作程序,使传感器模型以及机器人模型,分别模拟执行工件检测动作以及料箱取物动作。
另外,在上述的机器人仿真装置中,工件模型图像生成部,可以基于工件模型的3维数据,生成传感器模型摄像后的多个工件模型的2维虚拟图像。
本发明还提供一种机器人仿真程序,其为了以离线方式模拟执行具有视觉传感器的机器人的动作,而使计算机作为以下各部来工作:(a)作业环境模型设定部,其以任意堆积多个工件模型的状态,在虚拟作业环境中配置使视觉传感器、机器人以及工件各自模型化的传感器模型、机器人模型以及工件模型;和(b)动作仿真部,其使配置在虚拟作业环境中的传感器模型以及机器人模型,模拟执行针对配置在虚拟作业环境中的多个工件模型的工件检测动作以及料箱取物动作,该动作仿真部,具备:工件模型图像生成部,其使传感器模型模拟摄像多个工件模型,生成摄像后的多个工件模型的虚拟图像;工件模型位置检测部,其根据工件模型图像生成部生成的多个工件模型的虚拟图像,确定取出对象工件模型,检测取出对象工件模型的虚拟位置;和机器人模型动作控制部,其基于工件模型位置检测部检测到的取出对象工件模型的虚拟位置,使机器人模型模拟执行对取出对象工件模型的料箱取物动作。
本发明还提供一种记录了机器人仿真程序的、计算机可读取的记录介质,该机器人仿真程序,为了以离线方式模拟执行具有视觉传感器的机器人的动作,而使计算机作为以下各部来工作:(a)作业环境模型设定部,其以任意堆积多个工件模型的状态,在虚拟作业环境中配置使视觉传感器、机器人以及工件各自模型化的传感器模型、机器人模型以及工件模型;和(b)动作仿真部,其使配置在虚拟作业环境中的传感器模型以及机器人模型,模拟执行对配置在虚拟作业环境中的多个工件模型的工件检测动作以及料箱取物动作,该动作仿真部,具备:工件模型图像生成部,其使传感器模型模拟摄像多个工件模型,生成摄像后的多个工件模型的虚拟图像;工件模型位置检测部,其根据工件模型图像生成部生成的多个工件模型的虚拟图像,确定取出对象工件模型,检测取出对象工件模型的虚拟位置;和机器人模型动作控制部,其基于工件模型位置检测部检测到的取出对象工件模型的虚拟位置,使机器人模型模拟执行对取出对象工件模型的料箱取物动作。
本发明还提供一种机器人仿真方法,其用于采用计算机以离线方式模拟执行具有视觉传感器的机器人的动作,其具备以下步骤:计算机的作业环境模型设定部,以任意堆积多个工件模型的状态,在虚拟作业环境中配置使视觉传感器、机器人以及工件各自模型化的传感器模型、机器人模型以及工件模型的步骤;计算机的动作仿真部,使配置在虚拟作业环境中的传感器模型以及机器人模型,模拟执行对配置在虚拟作业环境中的多个工件模型的工件检测动作以及料箱取物动作的步骤;动作仿真部使传感器模型和机器人模型模拟执行工件检测动作以及料箱取物动作的步骤,具备以下步骤:使传感器模型模拟摄像多个工件模型,生成摄像后的多个工件模型的虚拟图像的步骤;由生成的多个工件模型的虚拟图像,确定取出对象工件模型,检测取出对象工件模型的虚拟位置的步骤;和基于检测到的取出对象工件模型的虚拟位置,使机器人模型模拟执行对取出对象工件模型的料箱取物动作的步骤。
附图说明
本发明的上述以及其它的目的、特征和优点,通过对与附图相关联的以下最优实施方式的说明会更加清晰。在本附图中,
图1是表示本发明的机器人仿真装置的基本结构的功能方框图。
图2是对安装了本发明的机器人仿真装置的机器人系统的概要进行例示的图。
图3是表示可附设在图1的机器人仿真装置的显示部的显示画面的一例的图。
图4是表示本发明一实施方式的机器人仿真装置的结构功能方框图。
图5是表示图4的机器人仿真装置的仿真步骤的一例的流程图。
图6A是作为在图5的仿真流程中生成的虚拟图像的一例,表示多个工件模型的虚拟图像图。
图6B是作为在图5的仿真流程中生成的虚拟图像的一例,表示照射了激光后的工件模型的虚拟图像图。
图6C是作为在图5的仿真流程中生成的虚拟图像的一例,表示仅激光的虚拟图像图。
图7是表示图4的机器人仿真装置的仿真步骤的变形例的流程图。
图8是表示图4的机器人仿真装置的仿真步骤的其它变形例的流程图。
具体实施方式
以下,参照附图对本发明的实施方式进行详细地说明。在附图中对相同或者类似的构成要素标注共同的参照符号。
参照附图,图1是表示本发明的机器人仿真装置10的基本结构的功能方框图,图2是对采用了机器人仿真装置10的机器人系统12的概要进行例示的图,图3是表示可附设在机器人仿真装置10的显示部14的显示画面的一例的图。机器人仿真装置10,是在离线状态下模拟执行具有视觉传感器16的机器人18的动作,该机器人仿真装置10,例如可以通过在个人计算机(PC)等计算机上安装需要的软件来构成。此外,机器人仿真装置10其自身也可以视为离线示教(或者离线编程)装置。
机器人仿真装置10,具有:作业环境模型设定部24和动作仿真部26。该作业环境模型设定部24,以任意堆积多个工件模型20M的非排列状态(即,“散装”状态),在虚拟作业环境22中配置使视觉传感器16、机器人18以及工件20分别模型化的传感器模型16M、机器人模型18M以及工件模型20M;该动作仿真部26,使配置在虚拟作业环境22中的传感器模型16M以及机器人模型18M,模拟执行对配置在虚拟作业环境22中的多个工件模型20M的工件检测动作以及料箱取物动作。
动作仿真部26,具有:工件模型图像生成部28、工件模型位置检测部30和机器人模型动作控制部32。该工件模型图像生成部28,使传感器模型16M模拟摄像多个工件模型20M,生成摄像后的多个工件模型20M的虚拟图像MI;工件模型位置检测部30,由工件模型图像生成部28生成的多个工件模型20M的虚拟图像MI,确定取出对象工件模型20Mn,检测取出对象工件模型20Mn的虚拟位置MP;机器人模型动作控制部32,基于工件模型位置检测部30检测到的取出对象工件模型20Mn的虚拟位置MP,使机器人模型18M模拟执行对取出对象工件模型20Mn的料箱取物动作。此外,所谓工件模型位置检测部30检测的取出对象工件模型20Mn的虚拟位置MP,可以是仅位置的数据,也可以是位置以及姿势的数据。
在图2所例示的机器人系统中,在具有垂直多关节型臂构造的机器人18的臂前端,安装着抓住工件20的、作为末端执行器的机器手34,并且靠近机器手34设置有可执行工件20的3维计测的视觉传感器16。视觉传感器16,作为例子具有测距器的结构,该测距器具有:摄像装置(例如CCD摄像机)和激光探照灯(点光或者狭缝光)。此外,机器人18以及视觉传感器16的结构,可以采用其它的各种结构,并不被限定在上述的结构中。
多个工件20以散装状态存放在筐型存放容器36中,并将其配置在机器人18的作业环境38的规定位置上。此外,控制机器人18以及机器手34的运动的机器人控制装置(RC)40与机器人18连接,控制工件20的位置(或者位置以及姿势)计测的视觉传感器控制装置(SC)42与视觉传感器16连接。机器人控制装置40和视觉传感器控制装置42,为了数据或指令的收发而相互连接。并且,在机器人控制装置40以及视觉传感器控制装置42上,经由LAN(局域网)等通信线路44连接附设有LCD(液晶显示器)等显示部(D)14的机器人仿真装置10。
机器人18按照机器人动作程序46(图1),在机器人控制装置40的控制下使机器臂以及机器手34高效运动,用机器手34抓住散装的多个工件20后逐个从存放容器36中取出,并转移到作业环境38的其它规定位置上(料箱取物动作)。另外,视觉传感器16按照机器人动作程序46(图1),在视觉传感器控制装置42的控制下,首先2维计测散装状态的多个工件20,确定取出对象工件20n,接着,3维计测确定后的取出对象工件20n,对取出对象工件20n的位置(或者位置以及姿势)进行计测(工件检测动作)。机器人18,基于视觉传感器16计测到的取出对象工件20n的位置(或者位置以及姿势)数据,使机器臂以及机器手34执行最优的动作,如上所述从散装状态的工件20中取出取出对象工件20n。此外,机器人动作程序46作为机器人仿真装置10的仿真结果而生成,在仿真中适当补正机器人(机器臂)18或者机器手34的位置(或者位置以及姿势)数据。
与上述的机器人系统12的结构相对应,在用机器人仿真装置10的作业环境模型设定部24设定的虚拟作业环境22中,如图3中作为显示部14的显示画面的一例所示,在机器人模型18M的机器臂前端上安装着抓住工件模型20M的机器手模型34M,并且与机器手模型34M邻接设置有3维计测工件模型20M的传感器模型16M。另外,多个工件模型20M,以散装状态存放在存放容器模型36M中,并配置在机器人模型18M的虚拟作业环境22的规定位置。关于设置在虚拟作业环境22中的这些模型的数据,也可以作成这样的结构:通过例如机器人仿真装置10自身任意具有的CAD(计算机支援设计)等设计功能来生成,或者还可以作成这样的结构:将通过具有CAD等设计功能的外部装置生成的数据取入机器人仿真装置10中来使用。
根据具有上述结构的机器人仿真装置10,动作仿真部26,使配置在虚拟作业环境22中的传感器模型16M以及机器人模型18M,模拟执行对配置在虚拟作业环境22中的多个工件模型20M的工件检测动作以及料箱取物动作,由此机器人模型18M在料箱取物动作中,可确认(理想的是在显示部14的显示画面上)是否发生对周边物的相互干扰(即,机器人模型18M自身或者机器人模型18M抓住的取出对象工件模型20Mn与取出对象工件模型20Mn以外的工件模型20M或存放容器模型36M等的冲突)。因此,为了不产生这样的相互干涉,可以通过适当补正机器人模型18M(或者机器手模型34M)的位置(或者位置以及姿势)数据,来使机器人动作程序46最优化。
尤其,根据机器人仿真装置10,可以极容易地针对呈多样的位置以及姿势的各个工件模型20M,使机器人模型18M以及机器手模型34M的运动进行各种变化,并反复模拟执行料箱取物动作。因此,可以迅速算出对多个工件模型20M的工件搬运作业所需的周期时间,可以容易地实现使周期时间最短的机器人动作程序46的最优化。其结果可以有效地削减在生产现场的机器人系统12调试所需的时间以及费用。
这样,根据机器人仿真装置10,可准确仿真含有料箱取物动作的工件搬运作业,所以可以一边预备性地确认在实际的机器人系统12中的机器人18与周边物的相互干扰,一边迅速算出工件搬运作业的周期时间,由此可以以短时间以及低成本来生成最优的机器人动作程序46。
在上述结构中,作业环境模型设定部24,在虚拟作业环境22中将多个工件模型20M以散装状态存放在存放容器模型36M中来进行配置,不过将这样的散装状态,在实际的作业环境38中也与难以预测的工件配置相一致地进行模型化,一般是困难的。关于这点,可以采用这样的方法:例如在机器人仿真装置10中,用随机数将多个工件模型20M从存放容器模型36M的底部任意堆积地进行配置,对这些工件模型20M进行上述仿真,并且经由作为其结果生成的机器人动作程序46的某程度的凑试,由此使在实际的作业环境38中的预测困难的工件散装状态模型化。
图4是表示本发明一实施方式的机器人仿真装置50的结构功能方框图。机器人仿真装置50具有用于可迅速算出上述工件搬运作业的周期时间这样的结构,其它基本结构与在图1的机器人仿真装置10中说明的相同,所以在对应的结构要素上标注共同的符号并省略其说明。
机器人仿真装置50除了上述的基本结构之外,还具有周期时间计算部52,该周期时间计算部52算出动作仿真部26使传感器模型16M以及机器人模型18M模拟执行的工件检测动作以及料箱取物动作的、作为整个需要时间的周期时间T。通过这样的结构,机器人仿真装置50准确仿真含有料箱取物动作的工件搬运作业,在考虑了实际的机器人系统12中的机器人18与周边物的相互干扰之后,可以自动迅速地算出工件搬运作业的周期时间T。
遵照图5的流程对具有上述结构的机器人仿真装置50的仿真步骤的一例进行以下说明。
作为前提,机器人仿真装置50,在个人计算机(PC)中安装了所需的软件,图4所示的作业环境模型设定部24以及动作仿真部26,由PC的CPU(中央处理装置)构成。并且,在作业环境模型设定部24设定的虚拟作业环境22(图3)中,对安装在机器人模型18M的臂顶端的传感器模型16M的、摄像装置的视点以及视线方向和激光探照灯的出射点以及照射方向进行定义,另外,在机器人模型18M的近旁配置有存放容器模型36M,该存放容器模型36M,以散装状态存放着多个工件模型20M。
首先,动作仿真部26(机器人模型动作控制部32(图4))在显示部14的画面上,使机器人模型18M发生适当的机器臂运动,在存放到存放容器模型36M中的多个工件模型20M的上方配置传感器模型16M。在其状态下,动作仿真部26(工件模型图像生成部28(图4))使传感器模型16M模拟摄像多个工件模型20M,生成摄像后的多个工件模型20M的虚拟图像MI(图6A)(步骤Q1)。
在上述步骤Q1中,工件模型图像生成部28,可以基于工件模型20M的3维数据54(图1),生成传感器模型16M摄像的多个工件模型20M的2维虚拟图像MI。工件模型20M的3维数据54,可以使用预先通过CAD(计算机支援设计)等设计功能生成、存储在机器人仿真装置50自身或者外部存储装置的数据。这样的虚拟图像MI的生成,可以根据传感器模型16M的摄像装置的视点以及视线方向和上述3维数据54,通过一般计算机绘图的方法来进行。
接着,工件模型位置检测部30(图4),判断在步骤Q1中是否生成1个以上的工件模型20M的虚拟图像MI(步骤Q2),在生成了1个以上的工件模型20M的虚拟图像MI时,从虚拟图像MI中确定取出对象工件模型20Mn(图3)(步骤Q3)。在这些步骤Q2以及Q3中,可以执行从在实际的作业环境38(图2)下视觉传感器16(图2)取得的图像中确定取出对象工件20n时的、基于视觉传感器控制装置42(图2)的2维计测法。一般来说,在散装的多个工件模型20M中,位于最上部的工件模型20M成为取出对象工件模型20Mn。此外,在步骤Q2中判断为没有生成任何虚拟图像MI时,视为在存放容器模型36M中没有存放工件模型20M,并进入到后述的周期时间算出步骤Q9。
当在步骤Q3中确定取出对象工件模型20Mn时,机器人模型动作控制部32在显示部14的画面上,再次使机器人模型18M产生适当的机器臂运动,将传感器模型16M配置到可对取出对象工件模型20Mn照射激光的位置上。在其状态下,工件模型图像生成部28,使传感器模型16M模拟摄像多个工件模型20M,来再次生成虚拟图像MI,以该虚拟图像MI为基础,生成由传感器模型16M的激光探照灯模拟照射激光(例如狭缝光)时的、以取出对象工件模型20Mn为中心的多个工件模型20M的虚拟图像MI′(图6B)。而后,工件模型位置检测部30从虚拟图像MI′中抽出照射了激光的取出对象工件模型20Mn的图像数据,检测取出对象工件模型20Mn的虚拟位置MP(位置数据或者位置以及姿势数据)(步骤Q4)。
在上述步骤Q4中,工件模型图像生成部28,可以基于工件模型20M的3维数据54(图1)生成照射激光时的、以取出对象工件模型20Mn为中心的多个工件模型20M的2维虚拟图像MI′。该虚拟图像MI′的生成,可以根据传感器模型16M的摄像装置的视点以及视线方向、和上述3维数据54,通过一般计算机绘图的方法来进行。另外,工件模型位置检测部30,可以执行在实际的作业环境38(图2)下视觉传感器16(图2)检测取出对象工件20n的位置(或者位置以及姿势)时的、基于视觉传感器控制装置42(图2)的3维计测法。即,XOR运算激光照射前的虚拟图像MI和激光照射后的虚拟图像MI′,抽出仅投影在工件模型20M上的激光的虚拟图像LI(图6C),从该激光的虚拟图像LI中检测取出对象工件模型20Mn的虚拟位置MP。
接着,工件模型位置检测部30,在步骤Q4中判断是否检测取出对象工件模型20Mn的虚拟位置MP(步骤Q5)。在检测到取出对象工件模型20Mn的虚拟位置MP时,机器人模型动作控制部32在显示部14的显示画面上,使机器人模型18M以及机器手模型34M产生适当运动,来模拟执行对取出对象工件模型20Mn的料箱取物动作(步骤Q6)。另外,当判断为没有检测到取出对象工件模型20Mn的虚拟位置MP时,视为3维计测的失败,将该取出对象工件模型20Mn的图像数据从虚拟图像MI的数据中除去(步骤Q7),返回上述的步骤Q3,确定新的取出对象工件模型20Mn,并再次执行3维计测。
接着,机器人模型动作控制部32,在步骤Q6中判断是否可以适当挑选取出对象工件模型20Mn(步骤Q8)。如果可以适当挑选取出对象工件模型20Mn,则返回上述的步骤Q1,动作仿真部26,针对剩下的工件模型20M,执行步骤Q1~Q8的工件检测动作以及料箱取物动作。另外,在判断为不能适当挑选取出对象工件模型20Mn时,视为料箱取物失败,之后返回到上述的步骤Q6,再试行对该取出对象工件模型20Mn的料箱取物动作。
这样,在步骤Q2中被判断为没有工件模型20M的图像之前,返回步骤Q1~Q8并执行。当在步骤Q2中判断为没有工件模型20M的图像时,周期时间计算部52算出对多个工件模型20M的工件检测动作以及料箱取物动作的周期时间T(步骤Q9)。由此,仿真结束。
在上述仿真流程中,有利于动作仿真部26的机器人模型动作控制部32按照预先规定(即,与构成该运动对象的取出对象工件模型20Mn的位置检测相对应的数据补正前的)的机器人动作程序46(图1),使机器人模型18M(含有机器手模型34M)产生模拟运动。此时,机器人模型动作控制部32可以与工件模型位置检测部30检测到的取出对象工件模型20Mn的虚拟位置MP相对应,补正机器人动作程序46,并且按照补正后的机器人动作程序46使机器人模型18M(含有机器手模型34M)模拟执行料箱取物动作。同样,在上述仿真中,有利于动作仿真部26的工件模型图像生成部28以及工件模型位置检测部30,按照预先规定(即,与构成该运动对象的取出对象工件模型20Mn的位置检测相对应的数据补正前的)的机器人动作程序46(图1),使传感器模型16M模拟执行工件检测动作。通过这样的结构,可以促进机器人动作程序46的离线编程的自动化。
但是,在机器人系统12(图2)的实际的工件搬运作业中,在取出对象工件20n的位置检测步骤以及料箱取物步骤中,可以预测由于激光的检测错误或在抓持工件过程中与周边物的干扰等,而导致产生3维计测以及挑选的失败。在这样的情况下,通常,机器人控制装置40(图2)被构成为:使机器人18(图2)再试行针对取出对象工件20n的3维计测以及挑选。其结果是工件搬运作业的周期时间必然增加。
与此相关联,机器人仿真装置50,可被构成为:如在上述仿真流程中说明的那样,在取出对象工件模型20Mn的虚拟位置检测步骤Q4以及料箱取物步骤Q6中3维计测以及挑选失败时,也可以适当协调来进行仿真。此时,如果将3维计测以及挑选失败的频度(即,成功率)预先数据化,并执行与成功率对应的仿真,则得到这样的优点,作为更加近似于实际的工件搬运作业的仿真结果,可以算出遵从实际情况的周期时间。
为了实现预先定量考虑了机器人动作成功率的上述仿真,如在图4中补充所示,机器人仿真装置50,还可以具有成功率指定部56,该成功率指定部56,指定动作仿真部26使传感器模型16M以及机器人模型18M模拟执行的工件检测动作以及料箱取物动作的各自成功率S。此时,周期时间计算部52考虑以成功率指定部56指定的工件检测动作以及料箱取物动作的各自成功率S后,算出周期时间。
如果更详细地说,工件模型位置检测部30以及机器人模型动作控制部32,可构成为:基于成功率指定部56指定的工件检测动作以及料箱取物动作的各自成功率DS、BS,再试行工件检测动作以及料箱取物动作(图5的步骤Q5→Q7→Q3以及步骤Q8→Q6)。并且,周期时间计算部52,加上再试行工件检测动作以及料箱取物动作所需的时间,算出周期时间。
例如,在用成功率指定部56将工件检测动作的成功率DS设定为90%时,工件模型位置检测部30,在对全部工件模型20M的动作仿真(图5)中,以10%的比例模拟发生3维计测的失败,执行步骤Q5→Q7→Q3的再试行流程。同样,在用成功率指定部56将料箱取物动作的成功率BS设定为85%时,机器人模型动作控制部32,在对全部工件模型20M的动作仿真(图5)中,以15%的比例模拟发生挑选的失败,执行步骤Q8→Q6的再试行流程。其结果是周期时间计算部52可以算出含有工件检测动作以及料箱取物动作的再试行时间的周期时间T。
基于具有成功率指定部56的机器人仿真装置50的上述仿真步骤,可以以图7的流程图来表示。如图所示,在该仿真流程中最初用成功率指定部56来指定工件检测动作以及料箱取物动作的各自成功率DS、BS(步骤R1)。接着,动作仿真部26,一边考虑在步骤R1中指定的成功率DS、BS,一边执行上述的步骤Q1~Q9。
在上述结构中,有利于成功率指定部56可以在希望范围内指定工件检测动作以及料箱取物动作的各自成功率DS、BS。此时,周期时间计算部52,与成功率指定部56指定的希望范围的成功率DS、BS相对应,在希望范围内算出时间周期T。通过这样的结构,可以在成功率指定部56指定的范围中确定可实现要求的周期时间T的工件检测动作以及料箱取物动作的各自成功率DS、BS。尤其,如果在指定范围中预先设定检测动作的成功率DS和料箱取物动作的成功率BS的几个组合,则可以容易地确认在采用了哪个组合的成功率DS、BS时周期时间T成为容许值。这样确定的容许范围的成功率DS、BS,可以作为在进行实际的机器人系统12(图2)中的机器人18的作业区域38的重新审视或机器人动作程序46的修正时的、指标来利用。
例如,在用成功率指定部56将工件检测动作以及料箱取物动作的成功率DS、BS都指定为90%以上、且不足100%时,通过将该范围的成功率DS、BS例如以1%分度来进行细分,这样就可以设定总计100种成功率DS、BS的组合。有利于构成为:这样的成功率DS、BS的细分单位也可以通过成功率指定部56来自由地指定。并且,工件模型位置检测部30以及机器人模型动作控制部32,在针对全部工件模型20M的动作仿真(图5)中,执行包含按照希望的组合成功率DS、BS的再试行流程的仿真,周期时间计算部52,算出含有以该成功率DS、BS的再试行时间的周期时间T。这样,针对全部工件模型20M,当包含按照全部组合成功率DS、BS的再试行流程的仿真完成时,算出与全部组合成功率DS、BS对应的周期时间T(在上述例中为100个)。因此,如果从算出的周期时间T中确定要求的周期时间T,则可以确定能实现这个的工件检测动作以及料箱取物动作的成功率DS、BS的组合。
确定容许的成功率DS、BS组合的上述仿真步骤可以表示在图8的流程图中。在该仿真流程中,如图所示,首先用成功率指定部56在希望范围内指定工件检测动作以及料箱取物动作的各自成功率DS、BS,并且适当细分该范围的成功率DS、BS,设定多种成功率DS、BS的组合(步骤R2)。因此,动作仿真部26选择1个成功率DS、BS的组合(步骤R3),接着,一边考虑在步骤R3中选择的成功率DS、BS,一边执行上述的步骤Q1~Q9。在步骤Q9中算出了周期时间之后,动作仿真部26判断是否存在成功率DS、BS组合的剩余(步骤4),当存在剩余时,返回到步骤R3,选择下一成功率DS、BS的组合,当没有剩余时结束仿真。
以上,对本发明最佳的实施方式进行了说明,但是通过个人计算机可以构成机器人仿真装置10,所以本发明还可以如下所述地进行规定。
即,本发明为一种机器人仿真程序,其为了以离线方式模拟执行具有视觉传感器16的机器人18的动作,而使计算机10作为以下各部的工作:(a)作业环境模型设定部24,其以任意堆积多个工件模型20M的状态,在虚拟作业环境22中配置使视觉传感器16、机器人18以及工件20各自模型化的传感器模型16M、机器人模型18M以及工件模型20M;和(b)动作仿真部26,其使配置在虚拟作业环境22中的传感器模型16M以及机器人模型18M,模拟执行对配置在虚拟作业环境22中的多个工件模型20M的工件检测动作以及料箱取物动作,该动作仿真部26,具备:工件模型图像生成部28,其使传感器模型16M模拟摄像多个工件模型20M,生成摄像后的多个工件模型20M的虚拟图像MI;工件模型位置检测部30,其根据工件模型图像生成部28生成的多个工件模型20M的虚拟图像MI,确定取出对象工件模型20Mn,检测取出对象工件模型20Mn的虚拟位置MP;和机器人模型动作控制部32,其基于工件模型位置检测部30检测到的取出对象工件模型20M的虚拟位置MP,使机器人模型18M模拟执行对取出对象工件模型20Mn的料箱取物动作。
另外,本发明为一种记录了机器人仿真程序的、计算机可读取的记录介质,该机器人仿真程序,为了以离线方式模拟执行具有视觉传感器16的机器人18的动作,而使计算机10作为以下各部工作:(a)作业环境模型设定部24,其以任意堆积多个工件模型20M的状态,在虚拟作业环境22中配置使视觉传感器16、机器人18以及工件20各自模型化的传感器模型16M、机器人模型18M以及工件模型20M;和(b)动作仿真部26,其使配置在虚拟作业环境22中的传感器模型16M以及机器人模型18M,模拟执行对配置在虚拟作业环境22中的多个工件模型20M的工件检测动作以及料箱取物动作,该动作仿真部26,具备:工件模型图像生成部28,其使传感器模型16M模拟摄像多个工件模型20M,生成摄像后的多个工件模型20M的虚拟图像MI;工件模型位置检测部30,其根据工件模型图像生成部28生成的多个工件模型20M的虚拟图像MI,确定取出对象工件模型20Mn,检测取出对象工件模型20Mn的虚拟位置MP;和机器人模型动作控制部32,其基于工件模型位置检测部30检测到的取出对象工件模型20M的虚拟位置MP,使机器人模型18M模拟执行对取出对象工件模型20Mn的料箱取物动作。
另外,本发明为一种机器人仿真方法,用于采用计算机以离线方式模拟执行具有视觉传感器16的机器人18的动作,其具备:
作业环境模型设定步骤,该步骤由计算机10的作业环境模型设定部24,以任意堆积多个工件模型20M的状态,在虚拟作业环境22中配置使视觉传感器16、机器人18以及工件20各自模型化的传感器模型16M、机器人模型18M以及工件模型20M;和动作仿真步骤,该步骤由计算机10的动作仿真部26,使配置在虚拟作业环境22中的传感器模型16以及机器人模型18M,模拟执行对配置在虚拟作业环境22中的多个工件模型20M的工件检测动作以及料箱取物动作;动作仿真步骤,具备以下步骤:使传感器模型16M模拟摄像多个工件模型20M,生成摄像后的多个工件模型20M的虚拟图像MI的步骤;根据生成的多个工件模型20M的虚拟图像MI,确定取出对象工件模型20Mn,检测取出对象工件模型20Mn的虚拟位置MP的步骤;和基于检测到的取出对象工件模型20Mn的虚拟位置MP,使机器人模型18M模拟执行对取出对象工件模型20Mn的料箱取物动作的步骤。
以上,将本发明与其最佳的实施方式关联起来进行了说明,但是对本领域的技术人员来说,要理解为在不脱离后述的权利要求所公开的范围的情况下可以进行各种修正以及变更。
Claims (10)
1.一种机器人仿真装置(10;50),其在离线状态下模拟执行具有视觉传感器的机器人的动作,其特征在于,
具备:
作业环境模型设定部(24),其以任意堆积多个工件模型的状态,在虚拟作业环境(22)中配置使视觉传感器(16)、机器人(18)以及工件(20)分别模型化了的传感器模型(16M)、机器人模型(18M)以及工件模型(20M);和
动作仿真部(26),其使配置在所述虚拟作业环境中的所述传感器模型以及所述机器人模型,模拟执行对配置在该虚拟作业环境中的所述多个工件模型的工件检测动作以及料箱取物动作,
所述动作仿真部,具备:
工件模型图像生成部(28),其使所述传感器模型模拟摄像所述多个工件模型,生成摄像后的该多个工件模型的虚拟图像;
工件模型位置检测部(30),其由所述工件模型图像生成部生成的所述多个工件模型的所述虚拟图像,确定取出对象工件模型(20Mn),检测该取出对象工件模型的虚拟位置;和
机器人模型动作控制部(32),其根据所述工件模型位置检测部检测到的所述取出对象工件模型的所述虚拟位置,使所述机器人模型模拟执行对该取出对象工件模型的所述料箱取物动作。
2.根据权利要求1所述的机器人仿真装置,其特征在于,
还具有周期时间计算部(52),其算出所述动作仿真部使所述传感器模型以及所述机器人模型模拟执行的所述工件检测动作以及所述料箱取物动作的周期时间。
3.根据权利要求2所述的机器人仿真装置,其特征在于,
还具备成功率指定部(56),其指定所述动作仿真部使所述传感器模型以及所述机器人模型模拟执行的所述工件检测动作以及所述料箱取物动作的各自的成功率,
所述周期时间计算部,考虑由该成功率指定部指定的该工件检测动作以及该料箱取物动作的、各自的该成功率,算出所述周期时间。
4.根据权利要求3所述的机器人仿真装置,其中,
所述工件模型位置检测部以及所述机器人模型动作控制部,根据用所述成功率指定部指定的所述工件检测动作以及所述料箱取物动作的、各自的所述成功率,再试行该工件检测动作以及该料箱取物动作,所述周期时间计算部,加上在该工件检测动作以及该料箱取物动作的该再试行中所需的时间,算出所述周期时间。
5.根据权利要求3所述的机器人仿真装置,其中,
所述成功率指定部,在希望范围内指定所述工件检测动作以及所述料箱取物动作的、各自的所述成功率,所述周期时间计算部,对应由该成功率指定部指定的该希望范围内的该成功率,在给予的范围内算出所述周期时间。
6.根据权利要求1~5的任意一项所述的机器人仿真装置,其中,
所述动作仿真部,按照预先规定的机器人动作程序(46),使所述传感器模型以及所述机器人模型,分别模拟执行所述工件检测动作以及所述料箱取物动作。
7.根据权利要求6所述的机器人仿真装置,其中,
所述机器人模型动作控制部,对应所述工件模型位置检测部检测出的所述取出对象工件模型的所述虚拟位置,补正所述机器人动作程序,并且按照补正后的该机器人动作程序,使所述机器人模型模拟执行所述料箱取物动作。
8.根据权利要求1~5的任意一项所述的机器人仿真装置,其中,
所述工件模型图像生成部,根据所述工件模型的3维数据(54),生成所述传感器模型摄像后的所述多个工件模型的2维所述虚拟图像。
9.根据权利要求8所述的机器人仿真装置,其中,
所述工件模型位置检测部,针对由所述工件模型图像生成部生成的由所述2维虚拟图像确定的所述取出对象工件模型,模拟执行3维计测。
10.一种机器人仿真方法,其用于在离线状态下用计算机来模拟执行具有视觉传感器的机器人的动作,其特征在于,
具备下述步骤:
作业环境模型设定步骤,其计算机的作业环境模型设定部(24),以任意堆积了多个工件模型的状态,在虚拟作业环境(22)中配置使视觉传感器(16)、机器人(18)以及工件(20)分别模型化了的传感器模型(16M)、机器人模型(18M)以及工件模型(20M);和
动作仿真步骤,其计算机的动作仿真部(26),使配置在所述虚拟作业环境中的所述传感器模型以及所述机器人模型,模拟执行对配置在该虚拟作业环境中的所述多个工件模型的工件检测动作以及料箱取物动作,
所述动作仿真步骤,具备以下步骤:
使所述传感器模型模拟摄像所述多个工件模型,生成摄像后的该多个工件模型的虚拟图像的步骤;
由生成的所述多个工件模型的所述虚拟图像,确定取出对象工件模型(20Mn),检测该取出对象工件模型的虚拟位置的步骤;和
根据检测到的所述取出对象工件模型的所述虚拟位置,使所述机器人模型模拟执行对该取出对象工件模型的所述料箱取物动作的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006066021A JP4153528B2 (ja) | 2006-03-10 | 2006-03-10 | ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 |
JP2006066021 | 2006-03-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101034418A CN101034418A (zh) | 2007-09-12 |
CN100590629C true CN100590629C (zh) | 2010-02-17 |
Family
ID=38024541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710086060A Active CN100590629C (zh) | 2006-03-10 | 2007-03-08 | 用于机器人仿真的装置、程序、记录介质以及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20070213874A1 (zh) |
EP (1) | EP1832947A2 (zh) |
JP (1) | JP4153528B2 (zh) |
CN (1) | CN100590629C (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103921274A (zh) * | 2013-01-15 | 2014-07-16 | 株式会社安川电机 | 识别程序评价装置及识别程序评价方法 |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4413891B2 (ja) * | 2006-06-27 | 2010-02-10 | 株式会社東芝 | シミュレーション装置およびシミュレーション方法並びにシミュレーションプログラム |
JP4226623B2 (ja) * | 2006-09-29 | 2009-02-18 | ファナック株式会社 | ワーク取り出し装置 |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
JP4347386B2 (ja) * | 2008-01-23 | 2009-10-21 | ファナック株式会社 | 加工用ロボットプラグラムの作成装置 |
US20100017026A1 (en) * | 2008-07-21 | 2010-01-21 | Honeywell International Inc. | Robotic system with simulation and mission partitions |
JP5355990B2 (ja) * | 2008-10-30 | 2013-11-27 | 一般財団法人機械振興協会 | 工具衝突防止システム及び工具衝突防止方法 |
JP4653836B2 (ja) * | 2008-12-12 | 2011-03-16 | ファナック株式会社 | シミュレーション装置 |
US8457791B2 (en) * | 2009-03-10 | 2013-06-04 | GM Global Technology Operations LLC | Method for dynamically controlling a robotic arm |
DE102009034244A1 (de) * | 2009-07-22 | 2011-01-27 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Vermessung eines Bauteils |
JP5365443B2 (ja) * | 2009-09-17 | 2013-12-11 | 富士通株式会社 | シミュレーション装置,シミュレーション方法およびシミュレーションプログラム |
US8666533B2 (en) * | 2009-10-09 | 2014-03-04 | Siemens Product Lifecycle Management Software Inc. | System, method, and interface for virtual commissioning of press lines |
JP5282717B2 (ja) * | 2009-10-19 | 2013-09-04 | 株式会社安川電機 | ロボットシステム |
KR100968944B1 (ko) * | 2009-12-14 | 2010-07-14 | (주) 아이알로봇 | 로봇 동기화 장치 및 그 방법 |
JP5665333B2 (ja) | 2010-03-10 | 2015-02-04 | キヤノン株式会社 | 情報処理装置および情報処理装置の制御方法 |
US8655461B2 (en) | 2010-05-25 | 2014-02-18 | Siemens Product Lifecycle Management Software Inc. | Method, system, and non-transitory computer readable storage medium for generating code for a closed-loop controller |
FI20105732A0 (fi) * | 2010-06-24 | 2010-06-24 | Zenrobotics Oy | Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä |
DE102010032917A1 (de) | 2010-07-30 | 2012-04-19 | Brötje-Automation GmbH | Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators |
JP2012135821A (ja) * | 2010-12-24 | 2012-07-19 | Seiko Epson Corp | ロボットシミュレーション装置、ロボットシミュレーション方法、及びロボットシミュレーションプログラム |
JP5659787B2 (ja) * | 2010-12-28 | 2015-01-28 | トヨタ自動車株式会社 | 操作環境モデル構築システム、および操作環境モデル構築方法 |
EP2479630A1 (de) * | 2011-01-25 | 2012-07-25 | Siemens Aktiengesellschaft | Verfahren zur kollisionsfreien Überführung einer Anlage aus einem Scheinausmodus in einen Betriebsmodus |
US20120290130A1 (en) * | 2011-05-10 | 2012-11-15 | Agile Planet, Inc. | Method to Model and Program a Robotic Workcell |
JP5582126B2 (ja) * | 2011-10-13 | 2014-09-03 | 株式会社安川電機 | ワーク取出システム、ロボット装置および被加工物の製造方法 |
JP5977544B2 (ja) * | 2012-03-09 | 2016-08-24 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5838873B2 (ja) | 2012-03-15 | 2016-01-06 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
JP5426719B2 (ja) * | 2012-05-18 | 2014-02-26 | ファナック株式会社 | ロボットシステムの動作シミュレーション装置 |
JP5642738B2 (ja) * | 2012-07-26 | 2014-12-17 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
JP5469216B2 (ja) * | 2012-07-31 | 2014-04-16 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置 |
JP6015282B2 (ja) * | 2012-09-21 | 2016-10-26 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
JP2014124735A (ja) * | 2012-12-27 | 2014-07-07 | Seiko Epson Corp | ロボット制御方法、ロボット制御装置、プログラム、及びロボット |
JP5983442B2 (ja) * | 2013-01-31 | 2016-08-31 | 富士通株式会社 | プログラム、演算装置および演算方法 |
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
CN104112030A (zh) * | 2013-04-19 | 2014-10-22 | 昱亨实业有限公司 | 应用影像处理于自行车车架的自动作业方法与系统 |
JP6016716B2 (ja) * | 2013-06-12 | 2016-10-26 | 三菱電機株式会社 | ビンピッキング性能評価装置及び方法 |
JP5929854B2 (ja) * | 2013-07-31 | 2016-06-08 | 株式会社安川電機 | ロボットシステムおよび被加工物の製造方法 |
JP5788460B2 (ja) | 2013-11-05 | 2015-09-30 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
JP6036662B2 (ja) * | 2013-11-22 | 2016-11-30 | 三菱電機株式会社 | ロボットシミュレーション装置、プログラム、記録媒体及び方法 |
JP5785284B2 (ja) | 2014-02-17 | 2015-09-24 | ファナック株式会社 | 搬送対象物の落下事故を防止するロボットシステム |
JP5877857B2 (ja) | 2014-03-10 | 2016-03-08 | ファナック株式会社 | ワークの取出工程をシミュレーションするロボットシミュレーション装置 |
JP5897624B2 (ja) | 2014-03-12 | 2016-03-30 | ファナック株式会社 | ワークの取出工程をシミュレーションするロボットシミュレーション装置 |
JP5778311B1 (ja) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | ピッキング装置およびピッキング方法 |
JP5829306B2 (ja) | 2014-05-12 | 2015-12-09 | ファナック株式会社 | レンジセンサの配置位置評価装置 |
US20150331415A1 (en) * | 2014-05-16 | 2015-11-19 | Microsoft Corporation | Robotic task demonstration interface |
DE102014214365A1 (de) * | 2014-07-23 | 2015-07-16 | Carl Zeiss Industrielle Messtechnik Gmbh | Verfahren zum Auffinden fehlerhafter Messabläufe in einem Koordinatenmessgerät und Vorrichtung zur Ausführung dieses Verfahrens |
CN107077339B (zh) * | 2014-10-02 | 2021-09-14 | 西门子公司 | 利用紧密耦合逻辑和物理仿真的3d图形编辑器中的编程自动化 |
US9955294B2 (en) * | 2015-01-13 | 2018-04-24 | Senaya, Inc. | Aircraft container tracking device |
CN104942808A (zh) * | 2015-06-29 | 2015-09-30 | 广州数控设备有限公司 | 机器人运动路径离线编程方法及系统 |
DE102016015936B4 (de) * | 2015-07-31 | 2024-08-29 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsysem zum Lernen eines Werkstückaufnahmevorgangs |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
KR102094439B1 (ko) * | 2015-08-25 | 2020-03-27 | 카와사키 주코교 카부시키 카이샤 | 산업용 원격조작 로봇시스템 |
CN105269565B (zh) * | 2015-10-30 | 2017-04-05 | 福建长江工业有限公司 | 一种六轴磨抛工业机器人离线编程及修正方法 |
JP6052372B2 (ja) * | 2015-11-12 | 2016-12-27 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
JP6516663B2 (ja) * | 2015-12-10 | 2019-05-22 | 学校法人立命館 | 機械システムの生産性能評価装置及び機械システムの生産性能評価方法 |
CN109152615B (zh) * | 2016-05-23 | 2021-08-17 | 马科外科公司 | 在机器人手术过程期间识别和跟踪物理对象的系统和方法 |
JP6392817B2 (ja) * | 2016-08-04 | 2018-09-19 | ファナック株式会社 | シミュレーション装置 |
CN106271265A (zh) * | 2016-10-09 | 2017-01-04 | 安徽瑞祥工业有限公司 | 一种汽车生产线焊装点焊机器人离线系统 |
JP6497374B2 (ja) * | 2016-10-27 | 2019-04-10 | 株式会社安川電機 | ロボットシステム、ロボットシステムの制御方法、動作指令生成装置及びプログラム |
JP6450727B2 (ja) | 2016-10-28 | 2019-01-09 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
JP6765291B2 (ja) * | 2016-12-16 | 2020-10-07 | コマツ産機株式会社 | シミュレーション装置、シミュレーション方法およびシミュレーションプログラム |
JP6846950B2 (ja) * | 2017-03-03 | 2021-03-24 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6785687B2 (ja) * | 2017-03-03 | 2020-11-18 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2018144155A (ja) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6823502B2 (ja) * | 2017-03-03 | 2021-02-03 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6846949B2 (ja) * | 2017-03-03 | 2021-03-24 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6889574B2 (ja) * | 2017-03-03 | 2021-06-18 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
EP3600795A1 (en) | 2017-03-30 | 2020-02-05 | Soft Robotics, Inc. | User-assisted robotic control systems |
JP6857101B2 (ja) * | 2017-07-31 | 2021-04-14 | 株式会社キーエンス | ロボットシミュレーション装置及びロボットシミュレーション方法 |
JP6894829B2 (ja) * | 2017-11-22 | 2021-06-30 | 株式会社日立プラントコンストラクション | 構造物撤去シミュレーション方法 |
DE102017011897B4 (de) * | 2017-12-21 | 2021-07-01 | Kuka Deutschland Gmbh | Detektion von Objekten mithilfe robotergeführter Sensoren |
JP6693981B2 (ja) | 2018-02-19 | 2020-05-13 | ファナック株式会社 | ロボットの動作をシミュレーションするシミュレーション装置 |
JP6879238B2 (ja) * | 2018-03-13 | 2021-06-02 | オムロン株式会社 | ワークピッキング装置及びワークピッキング方法 |
US10967507B2 (en) * | 2018-05-02 | 2021-04-06 | X Development Llc | Positioning a robot sensor for object classification |
JPWO2020050405A1 (ja) * | 2018-09-07 | 2021-09-02 | Ntn株式会社 | 作業装置 |
CN110370268B (zh) * | 2018-09-11 | 2021-07-30 | 北京京东乾石科技有限公司 | 箱内拣选的方法、装置和系统 |
JP7163115B2 (ja) * | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
DE102018126310B3 (de) * | 2018-10-23 | 2019-11-07 | Roboception Gmbh | Verfahren zum Erstellen eines Objektmodells zum Greifen eines Objekts, computerlesbares Speichermedium und Robotersystem |
JP7346133B2 (ja) * | 2019-07-29 | 2023-09-19 | 株式会社キーエンス | ロボット設定装置及びロボット設定方法 |
KR20210040613A (ko) | 2019-10-04 | 2021-04-14 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
US11554482B2 (en) | 2020-07-16 | 2023-01-17 | Hitachi, Ltd. | Self-learning industrial robotic system |
SE2030327A1 (en) | 2020-10-28 | 2021-12-21 | Zenrobotics Oy | Waste Sorting Robot with gripper that releases waste object at a throw position |
DE102021102128A1 (de) | 2021-01-29 | 2022-08-04 | SIM Automation GmbH | Greifer, Handhabungsroboter und Verfahren zur Handhabung einer Vielzahl von Bauteilen |
US11911919B2 (en) * | 2021-03-05 | 2024-02-27 | Mujin, Inc. | Method and computing system for performing grip region detection |
CN113524187B (zh) * | 2021-07-20 | 2022-12-13 | 熵智科技(深圳)有限公司 | 一种工件抓取顺序的确定方法、装置、计算机设备及介质 |
KR102528797B1 (ko) * | 2021-08-10 | 2023-05-03 | 세메스 주식회사 | 기판 이송 어셈블리 및 방법 |
CN113848759A (zh) * | 2021-10-11 | 2021-12-28 | 江苏汇博机器人技术股份有限公司 | 一种机器人搬运仿真系统及其搬运方法 |
US11919161B2 (en) * | 2021-10-15 | 2024-03-05 | Fanuc Corporation | Grasp generation for machine tending |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0772844B2 (ja) * | 1985-10-23 | 1995-08-02 | 株式会社日立製作所 | ロボット教示装置 |
US4998050A (en) * | 1988-06-13 | 1991-03-05 | Nissan Motor Co., Ltd. | System and method for teaching robots |
JP2611530B2 (ja) * | 1990-10-02 | 1997-05-21 | 株式会社デンソー | 産業用ロボットの制御装置及びその制御方法 |
US5657429A (en) * | 1992-08-10 | 1997-08-12 | Computer Motion, Inc. | Automated endoscope system optimal positioning |
US5524180A (en) * | 1992-08-10 | 1996-06-04 | Computer Motion, Inc. | Automated endoscope system for optimal positioning |
JPH11134017A (ja) * | 1997-10-27 | 1999-05-21 | Honda Motor Co Ltd | オフラインティーチング方法 |
US6424885B1 (en) * | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
JP3537362B2 (ja) * | 1999-10-12 | 2004-06-14 | ファナック株式会社 | ロボットシステム用グラフィック表示装置 |
US20010043721A1 (en) * | 2000-03-21 | 2001-11-22 | Sarnoff Corporation | Method and apparatus for performing motion analysis on an image sequence |
JP3782679B2 (ja) * | 2001-05-09 | 2006-06-07 | ファナック株式会社 | 干渉回避装置 |
US6587752B1 (en) * | 2001-12-25 | 2003-07-01 | National Institute Of Advanced Industrial Science And Technology | Robot operation teaching method and apparatus |
WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
JP2004306182A (ja) * | 2003-04-04 | 2004-11-04 | Hitachi Eng Co Ltd | 画像処理を用いたロボットのシミュレーションシステム |
JP3834307B2 (ja) * | 2003-09-29 | 2006-10-18 | ファナック株式会社 | ロボットシステム |
JP3732494B2 (ja) * | 2003-10-31 | 2006-01-05 | ファナック株式会社 | シミュレーション装置 |
JP4168002B2 (ja) * | 2004-04-07 | 2008-10-22 | ファナック株式会社 | オフラインプログラミング装置 |
-
2006
- 2006-03-10 JP JP2006066021A patent/JP4153528B2/ja not_active Expired - Fee Related
-
2007
- 2007-03-08 EP EP07004786A patent/EP1832947A2/en not_active Withdrawn
- 2007-03-08 CN CN200710086060A patent/CN100590629C/zh active Active
- 2007-03-09 US US11/715,959 patent/US20070213874A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103921274A (zh) * | 2013-01-15 | 2014-07-16 | 株式会社安川电机 | 识别程序评价装置及识别程序评价方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2007241857A (ja) | 2007-09-20 |
CN101034418A (zh) | 2007-09-12 |
JP4153528B2 (ja) | 2008-09-24 |
US20070213874A1 (en) | 2007-09-13 |
EP1832947A2 (en) | 2007-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100590629C (zh) | 用于机器人仿真的装置、程序、记录介质以及方法 | |
US11409260B2 (en) | Runtime controller for robotic manufacturing system | |
US11103997B2 (en) | Software interface for authoring robotic manufacturing process | |
CN104858876B (zh) | 机器人任务的可视调试 | |
JP6458713B2 (ja) | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム | |
US10571896B2 (en) | Natural machine interface system | |
US11511415B2 (en) | System and method for robotic bin picking | |
CN113039499B (zh) | 通过自主机器支持任务的对象标记 | |
Kokkas et al. | An Augmented Reality approach to factory layout design embedding operation simulation | |
JP2019171501A (ja) | ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム | |
JP2024003150A (ja) | シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法 | |
CN109557895A (zh) | 信息处理装置、信息处理方法以及计算机可读记录介质 | |
JP7151713B2 (ja) | ロボットシミュレータ | |
EP3673334B1 (en) | Method for engineering autonomous system with reusable skills | |
TW202103875A (zh) | 動作規劃圖像產生之使用者介面、系統、方法及物件 | |
JP7447568B2 (ja) | シミュレーション装置およびプログラム | |
Tonello et al. | WorkCellSimulator: A 3D simulator for intelligent manufacturing | |
JP2019171499A (ja) | ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム | |
Solberg et al. | Utilizing Reinforcement Learning and Computer Vision in a Pick-And-Place Operation for Sorting Objects in Motion | |
JP7424122B2 (ja) | シミュレーション装置およびプログラム | |
Sun et al. | Direct virtual-hand interface in robot assembly programming | |
Robles | Virtual Simulation of Robotic Operations Using Gaming Software | |
Marchionna | Performance evaluation of operational space control and visual servoing for complex 3D robotic arm applications | |
Lucchesi | Collision-Free Cobot Interaction: A machine vision approach for real time human-obstacle avoidance | |
JP2019171500A (ja) | ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |