CN110394779A - 机器人的模拟装置 - Google Patents
机器人的模拟装置 Download PDFInfo
- Publication number
- CN110394779A CN110394779A CN201910328534.XA CN201910328534A CN110394779A CN 110394779 A CN110394779 A CN 110394779A CN 201910328534 A CN201910328534 A CN 201910328534A CN 110394779 A CN110394779 A CN 110394779A
- Authority
- CN
- China
- Prior art keywords
- operator
- model
- movement
- cooperation
- simulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 claims abstract description 45
- 238000012360 testing method Methods 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 50
- 230000009471 action Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 1
- 240000002853 Nelumbo nucifera Species 0.000 description 1
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0167—Emergency system, e.g. to prevent injuries
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种机器人的模拟装置,用于协作机器人与人协作来进行的协作作业的模拟,该模拟装置具备:佩戴于模拟地执行协作作业的操作人员的头部佩戴型显示装置、检测操作人员在实际空间中的位置的检测部、在头部佩戴型显示装置显示在三维虚拟空间中配置了包含协作机器人模型的机器人系统模型的图像的三维模型显示部、和基于执行协作作业的协作机器人的动作程序与检测出的操作人员的位置在三维虚拟空间内使协作机器人模型模拟地进行动作的模拟执行部。
Description
技术领域
本发明涉及执行由协作机器人与人协作来进行的协作作业的模拟的模拟装置。
背景技术
公知有在画面中配置三维地表现协作机器人、工件、人以及周边设备的协作机器人模型、工件模型、人模型以及周边设备模型并进行模拟的系统(例如,参照日本特开2017-024113号公报)。
日本特开2017-024113号公报的模拟装置在虚拟空间内配置机器人、工件、周边设备以及人的模型并进行模拟。在协作机器人与人协作来进行的协作作业的模拟中,期望通过模拟可靠地发现协作机器人与人接触或成为过近的状态的可能性。
发明内容
本公开的一个方式为一种模拟装置,用于协作机器人与人协作来进行的协作作业的模拟,该模拟装置具备:头部佩戴型显示装置,其佩戴于模拟地执行上述协作作业的操作人员;检测部,其检测上述操作人员在实际空间中的位置;三维模型显示部,其在上述头部佩戴型显示装置中显示在三维虚拟空间中配置了包含协作机器人模型的机器人系统模型的图像;和模拟执行部,其基于执行上述协作作业的上述协作机器人的动作程序与由上述检测部检测出的上述操作人员的位置,在上述三维虚拟空间内使上述协作机器人模型模拟地进行动作。
附图说明
本发明的目的、特征以及优点,通过与附图相关的以下的实施方式的说明进一步变得清楚。其中,
图1是表示一个实施方式的机器人模拟系统的整体结构的结构图,
图2是机器人模拟系统的功能框图,
图3是本实施方式的模拟动作的流程图,
图4是表示开始模拟动作时的虚拟空间内的机器人系统模型的显示状态的图,
图5是表示作为动作路径信息而显示表示协作机器人模型的接下来的动作方向以及速度的图像的例子的图,
图6是表示作为动作路径信息而显示表示协作机器人模型的接下来的动作的动作轨迹的例子的图,
图7是表示作为动作路径信息而显示图形表示协作机器人模型的动作程序(示教点)的图像的例子的图,
图8是表示作为动作路径信息而显示表示协作机器人模型的接下来的动作的预览图像的例子的图,
图9是表示在模拟动作中,操作人员与机器人模型过近的情况下显示警告消息的状态的图,
图10是表示作为检测操作人员的位置、动作的检测装置使用穿戴型检测装置的情况下的机器人模拟系统的结构的构成图。
具体实施方式
以下,参照附图,对本发明的实施方式进行说明。在全部附图中,对对应的构成要素标注相同的附图标记。为了使理解变得容易,这些附图适当地变更了比例尺。另外,附图所示的形态是用于实施本发明的一个例子,本发明不限定于图示的形态。
图1是表示一个实施方式的机器人模拟系统100的整体结构的构成图。机器人模拟系统100是用于进行协作机器人与人的协作作业的模拟的系统。如图1所示,机器人模拟系统100具备作为佩戴于操作人员90的头部的头部佩戴型显示装置的头戴式显示器80、执行模拟动作的模拟装置50、和检测操作人员90的位置、动作的检测装置70。头戴式显示器80以及检测装置70通过无线连接或者有线连接连接于模拟装置50。
模拟装置50具有包含协作机器人、工件以及周边装置的机器人系统的三维模型数据,具有生成将这些机器人系统模型配置于三维虚拟空间的图像并显示于头戴式显示器80的显示部83(参照图2)的功能。图1的虚线的框线图示了在虚拟空间(头戴式显示器80的显示部83)作为模拟立体物显示协作机器人模型20M、工件模型10M以及周边装置模型11M的图像的例子。此外,模拟装置50能够由具有CPU、ROM、RAM、存储装置、有线或者无线的网络接口、外部设备接口、操作部、显示部等的通常的计算机构成。以下说明的模拟装置50的各种功能通过模拟装置50的CPU执行模拟程序等各种程序而被实现。检测装置70检测实际空间内的操作人员70的位置、动作。通过该结构,模拟装置50能够根据实际空间内的操作人员90的位置、动作,求得虚拟空间内的协作机器人模型20M与操作人员90的相对位置关系,根据该相对位置关系生成机器人系统模型的显示图像。因此,操作人员90在实际空间内移动,由此能够在显示于头戴式显示器80的虚拟空间内接近机器人系统模型、或者远离机器人系统模型。
图2是机器人模拟系统100的功能框图。如图2所示,模拟装置50具备位置计算部501、三维模型显示部502、模拟执行部503、动作路径信息显示部506以及警告报告部507。
检测装置70例如是以视觉方式检测操作人员的视觉传感器,发挥拍摄操作人员90来检测操作人员90的位置、动作的功能。具体而言,检测装置70具有对拍摄到的图像进行解析,检测图像内的操作人员90的位置、动作、以及操作人员90的手的动作的功能。作为检测图像内的人体、手的位置的方法,能够使用进行与模型图像的匹配等本领域中公知的各种检测方法。检测装置70向模拟装置50提供检测出的操作人员90的位置、动作。
位置计算部501基于从检测装置70提供的操作人员90在实际空间中的位置、动作,计算虚拟空间中的协作机器人模型20M与操作人员90的相对位置。位置计算部501也具有作为计算虚拟空间中的协作机器人模型20M与操作人员90的相对距离的距离计算部的功能。协作机器人模型20M、工件模型10M以及周边装置模型11M通过三维模型显示部502配置于在虚拟空间内设定的坐标系上的预定的位置。位置计算部501将从检测装置70提供的操作人员90的位置(在实际空间内设定的坐标系上的位置)转换成在虚拟空间内设定的坐标系上的位置,由此,计算虚拟空间内的协作机器人模型20M与操作人员90的相对位置。
三维模型显示部502基于由位置计算部501计算出的虚拟空间内的操作人员90与协作机器人模型20M的相对位置,生成将协作机器人模型20M、工件模型10M以及周边装置模型11M配置于虚拟空间内的图像数据。三维模型显示部502将生成的图像数据发送至头戴式显示器80,在头戴式显示器80的显示部83显示基于图像数据的图像(将机器人系统模型配置于虚拟空间的图像)。
模拟执行部502执行机器人系统模型的模拟动作。在本说明书中,模拟动作是指根据动作程序、操作人员的示教输入,使机器人系统模型模拟地进行动作。模拟执行部502从位置计算部501取得虚拟空间内的操作人员90与协作机器人模型20M的相对位置,使用于协作的作业的模拟动作。通过使用该相对位置,也能够在模拟动作过程中在操作人员90与协作机器人模型20M过近的情况下,在虚拟空间内显示警告。
另外,模拟执行部502也可以使用操作人员90与协作机器人模型20M的相对位置,由此对协作机器人模型20M给予接下来的安全动作的至少一个。
(M1)在模拟动作过程中,在操作人员90接近协作机器人模型20M的情况下,使协作机器人模型20M的动作速度降低。
(M2)在模拟动作过程中,在操作人员90与协作机器人模型20M接触的情况下,使协作机器人模型20M停止。
(M3)在模拟动作过程中,在操作人员90按压协作机器人模型20M的情况下,使协作机器人模型20M与操作人员90的动作一致地动作。
此外,上述的动作能够通过对由检测装置70拍摄到的操作人员90的动作进行解析,检测操作人员90的手的动作而实现。
动作路径信息显示部506从动作程序取得作为与机器人模型20M的动作有关的信息的动作路径信息。动作路径信息也可以包含协作机器人模型20M的动作履历。动作路径信息显示部506具有将动作路径信息作为图像显示于虚拟空间(头戴式显示器80的显示部83)的功能。作为一个例子,动作路径信息显示部506在协作机器人模型20M进行接下来的动作前(例如,即将进行接下来的动作前),显示该动作的动作路径信息。由此,操作人员90能够知晓协作机器人模型20M接下来要采取的行动,能够识别接下来应该进行的作业。
警告报告部507基于虚拟空间内的操作人员90与协作机器人模型20M的相对距离,对于操作人员90警告与协作机器人模型20M过近。例如,当在虚拟区间内协作机器人模型20M与操作人员90的相对距离变为预定值以下的情况下,警告报告部507在头戴式显示器80的显示部83显示警告消息。此外,这样的警告也可以通过警告音而进行。在该情况下,警告报告部507也可以从设置于头戴式显示器80或者模拟装置50的扬声器发出警告音。
头戴式显示器80具有进行对从三维模型显示部502提供的图像数据进行处理而显示于显示部83的图像处理的图像处理部81、和与操作人员90的双眼对应地设置的显示部83。作为一个例子,图像处理部81生成双眼视差图像并显示于显示部83。由此,操作人员90能够将机器人系统模型识别为伪立体物。
图3是本实施方式的模拟动作的流程图。图3的模拟动作通过模拟装置50的CPU执行存储于模拟装置50内的存储装置的模拟程序而实现。此外,模拟程序能够储存于能够由计算机读取的各种存储介质(ROM、RAM、闪存、HDD、CD-ROM、DVD-ROM等)。作为一个例子,通过使预先准备的协作机器人的暂定的动作程序在图1的机器人模拟系统100中运行,以发现动作程序、协作作业中的改善点为目的来执行图3的模拟动作。在模拟动作过程中,协作机器人模型20M也可以根据状况,设定为进行上述的(M1)~(M3)的安全动作。
若操作模拟装置50,启动模拟程序,则首先通过三维模型显示部502将机器人模型20M、工件模型10M以及周边装置模型11M显示于虚拟空间(头戴式显示器80的显示部83)(步骤S1)。这里,图1的虚线框线内所示的图像显示于头戴式显示器80的显示部83。
接下来,开始通过检测装置70检测操作人员90的位置、动作的动作(步骤S2)。由检测装置70检测的操作人员90的位置、动作被提供至模拟装置50。接下来,模拟执行部503使用由检测装置70检测出的操作人员90的位置、动作,开始模拟动作(步骤S3)。在模拟动作中,协作机器人模型20M根据动作程序进行动作。另外,操作人员90模拟执行协作作业中的人的作业。这里,作为协作作业的一个例子,协作机器人模型20M进行搬运工件模型10M并交给人的动作,操作人员90进行从协作机器人模型20M接受工件模型10M的动作。
图4示出了开始模拟动作时的虚拟空间内的机器人系统模型的显示状态。如图4所示,在操作人员90佩戴的头戴式显示器80的显示部83中,显示机器人模型20M开始把持并搬运工件模型10M的状态的图像。操作人员90根据作业步骤,进行从机器人模型20M接受工件模型10M的动作。
在模拟动作的执行过程中,动作路径信息显示部506基于虚拟空间中的操作人员90与协作机器人模型20M的相对位置,生成表示协作机器人模型20M的动作路径信息的图像,并显示于虚拟空间(步骤S4)。通过显示动作路径信息,能够使操作人员90掌握协作机器人模型20M接下来如何动作。因此,操作人员90不必掌握作业步骤,也能够适当地执行模拟。以下,对动作路径信息的显示例子进行说明。
图5示出了作为动作路径信息而显示表示协作机器人模型20M的接下来的动作方向以及速度的图像101的例子。作为一个例子,图像101在抓完工件模型10M的协作机器人模型20M即将开始移动前被显示。由此,操作人员90能够瞬时掌握协作机器人20M接下来动作的方向以及速度。
图6示出了作为动作路径信息而显示表示协作机器人模型20M的动作的动作轨迹102的例子。作为一个例子,动作轨迹102在协作机器人模型20M即将开始移动前或者移动过程中被显示。由此,操作人员90能够在协作机器人20M开始动作前掌握轨迹整体。
图7示出了作为动作路径信息而显示图形表示协作机器人模型20M的动作程序(示教点)的图像103的例子。此外,图像103中的P1~P4表示示教点,连结示教点P1~P4之间的直线表示路径。作为一个例子,图像103在协作机器人模型20M即将开始移动前或者移动过程中被显示。由此,操作人员90能够在协作机器人20M开始动作前掌握路径整体。
图8示出了作为动作路径信息而显示表示协作机器人模型20M的接下来的动作的预览图像104的例子。预览图像104是配置于协作机器人模型20M的接下来的动作位置的协作机器人模型20M的伪图像。作为一个例子,预览图像104在抓完工件模型10M的协作机器人模型20M即将开始移动前被显示。由此,操作人员90能够可靠地识别协作机器人20M接下来采取的动作。此外,作为预览图像,也可以显示机器人模型20M移动至接下来的位置的动画。
返回图3的说明,在模拟动作过程中,在操作人员90与机器人模型20M过近的情况下(即,在虚拟空间内的机器人模型20M与操作人员90的相对距离变为预定值以下的情况下),警告报告部507显示警告(步骤S5)。图9示出了警告信息的显示例。在图9的例子中,警告消息106与机器人系统模型的图像一同显示于头戴式显示器80的显示部83。通过在模拟动作中显示这样的警告,能够避免模拟执行过程中的操作人员90与协作机器人模型20M的接触、接近。
此外,由于在模拟动作过程中掌握了虚拟空间内的操作人员90的位置,因此模拟执行部503例如也可以在模拟动作中进行确认在协作机器人模型20M将工件模型10M搬运至目的位置时,操作人员90是否在接受工件模型10M的位置的处理。或者,当在协作作业中包含有协作机器人模型20M从操作人员90接受工件模型10M的动作的情况下,模拟执行部503也可以确认在协作机器人模型20M进行接受工件模型10M的动作时,操作人员90是否存在于能够交接工件模型10M的位置。即,模拟执行部503也可以执行以操作人员90的协作动作与协作机器人模型20M的基于动作程序的动作是否容易地协调的观点进行确认的处理。
能够将上述的通过模拟动作发现的协作机器人模型20M与作业人员的接触的可能性等利用于动作程序的变更、作业步骤的重新考虑。例如,考虑为了避免协作机器人模型20M与作业人员的接触而变更动作程序(示教点),或者对作业人员的作业步骤添加用于等待协作机器人移动的步骤。或者,也能够重新考虑周边装置、工件的配置。模拟执行部503也可以具有基于操作人员90与协作机器人模型20M的相对距离,例如以避免操作人员90与协作机器人模型20M的接触的方式,自动地变更协作机器人模型20M的动作路径的功能。此外,也可以同时显示上述的动作路径信息的图像101(动作方向以及速度)、动作轨迹102、图像103(动作程序)、预览图像104中的二个以上。
如以上说明的那样,根据本实施方式,操作人员能够边模拟体验人与协作机器人协作的作业边执行模拟,因此能够更进一步高效地制作准确的动作程序、作业步骤。
以上,对本发明的实施方式进行了说明,但本领域技术人员知晓能够不脱离后述的请求专利保护的范围的公开范围而进行各种修正以及变更。
在上述的实施方式中,示出了作为检测操作人员90的位置、动作的检测装置使用视觉传感器的例子,但检测装置不限定于这样的例子。图10是表示作为检测操作人员90的位置、动作的检测装置使用穿戴型检测装置170的情况下的机器人模拟系统100a的结构的构成图。此外,图10中作为参考,在括弧内示出了穿戴型检测装置170的功能框图。机器人模拟系统100a除了作为检测操作人员90的位置、动作的检测装置使用穿戴型检测装置170这点以外,具有与上述的机器人模拟系统100相同的结构。穿戴型检测装置170具有在与身体的多个部位(手指部、臂部、躯体部、脚部等)对应的部分设置例如由加速度传感器、角速度传感器等构成的动作传感器75的结构,通过无线通信向模拟装置50提供由各动作传感器75捕捉到的操作人员90的身体的各部位的动作、位置。在操作人员90穿戴这样的穿戴型检测装置170的结构的情况下,也能够与上述的实施方式的情况相同地执行在图3中说明的模拟动作。在机器人模拟系统100a的情况下,也能够获得与上述的实施方式相同的效果。
此外,穿戴型检测装置170也可以是具有分别配置于与身体的多个动作部位对应的位置的电动执行器76的驱动机构(例如,辅助身体的各关节部分的动作的电动执行器的驱动机构)的结构。此时,在检测到操作人员90的身体部位与协作机器人模型20M在虚拟空间内的接触的情况下,穿戴型检测装置170能够使与该身体部位对应的位置的电动执行器76动作而对操作人员90的动作产生载荷。例如,在操作人员90用手按压协作机器人模型20M的动作的情况下,穿戴型检测装置170也可以使操作人员90的手的部分的电动执行器76动作而对操作人员90的手的动作施加载荷。作为一个例子,模拟执行部503也可以基于操作人员90的三维虚拟空间内的位置,在检测到操作人员90的身体部位与协作机器人模型20M在三维虚拟空间内的接触的情况下,向穿戴型检测装置170发送检测信号。穿戴型检测装置170根据来自模拟执行部503的检测信号,使与该身体部位对应的位置的电动执行器76动作而对操作人员90的动作产生载荷。
图1所示的机器人模拟系统100也能够用于由操作人员90进行对于协作机器人模型20M的示教输入来制作动作程序的模拟动作。例如,形成将操作人员90能够手持操作的外部控制器连接于模拟装置50的结构。在该情况下,操作人员90边观察显示于头戴式显示器80的显示部83的协作机器人模型20M的图像,边手动操作外部控制器来进行示教输入。
另外,为了解决本公开的课题,能够提供以下的各种方式及其效果。此外,以下的方式的说明中的编号与本公开的附图的附图标记对应。
例如,本公开的第一方式为一种模拟装置50,用于协作机器人与人协作来进行的协作作业的模拟,该模拟装置50具备:头部佩戴型显示装置80,其佩戴于模拟地执行上述协作作业的操作人员90;检测部70,其检测上述操作人员90在实际空间中的位置;三维模型显示部502,其在上述头部佩戴型显示装置80中显示在三维虚拟空间中配置了包含协作机器人模型20M的机器人系统模型的图像;和模拟执行部503,其基于执行上述协作作业的上述协作机器人的动作程序与由上述检测部检测出的上述操作人员90的位置,在上述三维虚拟空间内使上述协作机器人模型模拟地进行动作。
根据上述第一方式,操作人员能够边模拟体验人与协作机器人协作的作业边执行模拟,因此能够更进一步高效地制作可靠的动作程序、作业步骤。
另外,本公开的第二方式在上述第一方式的模拟装置50的基础上,进一步具备动作路径信息显示部506,该动作路径信息显示部506从上述动作程序取得表示上述协作机器人模型20M的动作的动作路径信息,在上述协作机器人模型20M开始上述动作前使上述动作路径信息作为图像显示于上述三维虚拟空间。
另外,本公开的第三方式在上述第二方式的模拟装置50的基础上,上述动作路径信息包含上述协作机器人模型的动作方向以及速度的至少某一个。
另外,本公开的第四方式在上述第二方式或者第三方式的模拟装置50的基础上,上述动作路径信息包含上述协作机器人模型的动作轨迹。
另外,本公开的第五方式在上述第二方式~第四方式中任一个的模拟装置50的基础上,上述动作路径信息包含上述协作机器人模型的示教点。
另外,本公开的第六方式在上述第二方式~第五方式中任一个的模拟装置50的基础上,上述动作路径信息包含上述协作机器人模型的上述动作的预览图像。
另外,本公开的第七方式在上述第一方式~第六方式中任一个的模拟装置50的基础上,进一步具备:距离计算部501,其基于由上述检测部检测出的上述操作人员的位置,计算上述协作机器人模型与上述操作人员在上述三维虚拟空间内的距离;和警告报告部507,其在由上述距离计算部计算出的上述距离变为预定值以下的情况下,进行警告的报告。
另外,本公开的第八方式在上述第一方式~第七方式中任一个的模拟装置50的基础上,上述检测部70是以视觉方式检测上述操作人员的视觉传感器。
另外,本公开的第九方式在上述第一方式~第七方式中任一个的模拟装置50的基础上,上述检测部是以物理方式检测上述操作人员的身体的运动的穿戴型检测装置170。
另外,本公开的第十方式在上述第九方式的模拟装置50的基础上,上述穿戴型检测装置170具备分别配置于与身体的多个动作部位对应的位置的执行器,在基于由上述检测部70检测出的上述操作人员90的位置检测到上述操作人员90的身体部位与上述协作机器人模型在上述三维虚拟空间内的接触的情况下,上述模拟执行部503向上述穿戴型检测装置170发送检测信号,上述穿戴型检测装置170根据来自上述模拟执行部503的上述检测信号,使与上述身体部位对应的位置的上述执行器动作来对上述操作人员的动作产生载荷。
Claims (10)
1.一种模拟装置,用于协作机器人与人协作来进行的协作作业的模拟,其特征在于,
所述模拟装置具备:
头部佩戴型显示装置,其佩戴于模拟地执行所述协作作业的操作人员;
检测部,其检测所述操作人员在实际空间中的位置;
三维模型显示部,其在所述头部佩戴型显示装置中显示在三维虚拟空间中配置了包含协作机器人模型的机器人系统模型的图像;和
模拟执行部,其基于执行所述协作作业的所述协作机器人的动作程序与由所述检测部检测出的所述操作人员的位置,在所述三维虚拟空间内使所述协作机器人模型模拟地进行动作。
2.根据权利要求1所述的模拟装置,其中,
所述模拟装置进一步具备动作路径信息显示部,所述动作路径信息显示部从所述动作程序取得表示所述协作机器人模型的动作的动作路径信息,在所述协作机器人模型开始所述动作前使所述动作路径信息作为图像显示于所述三维虚拟空间。
3.根据权利要求2所述的模拟装置,其中,
所述动作路径信息包含所述协作机器人模型的动作方向以及速度的至少某一个。
4.根据权利要求2或3所述的模拟装置,其中,
所述动作路径信息包含所述协作机器人模型的动作轨迹。
5.根据权利要求2~4中任一项所述的模拟装置,其中,
所述动作路径信息包含所述协作机器人模型的示教点。
6.根据权利要求2~5中任一项所述的模拟装置,其中,
所述动作路径信息包含所述协作机器人模型的所述动作的预览图像。
7.根据权利要求1~6中任一项所述的模拟装置,其中,
所述模拟装置进一步具备:
距离计算部,其基于由所述检测部检测出的所述操作人员的位置,计算所述协作机器人模型与所述操作人员在所述三维虚拟空间内的距离;和
警告报告部,其在由所述距离计算部计算出的所述距离变为预定值以下的情况下,进行警告的报告。
8.根据权利要求1~7中任一项所述的模拟装置,其中,
所述检测部是以视觉方式检测所述操作人员的视觉传感器。
9.根据权利要求1~7中任一项所述的模拟装置,其中,
所述检测部是以物理方式检测所述操作人员的身体的运动的穿戴型检测装置。
10.根据权利要求9所述的模拟装置,其中,
所述穿戴型检测装置具备分别配置于与身体的多个动作部位对应的位置的执行器,
在基于由所述检测部检测出的所述操作人员的位置检测到所述操作人员的身体部位与所述协作机器人模型在所述三维虚拟空间内的接触的情况下,所述模拟执行部向所述穿戴型检测装置发送检测信号,
所述穿戴型检测装置根据来自所述模拟执行部的所述检测信号,使与所述身体部位对应的位置的所述执行器动作来对所述操作人员的动作产生载荷。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084230A JP6863927B2 (ja) | 2018-04-25 | 2018-04-25 | ロボットのシミュレーション装置 |
JP2018-084230 | 2018-04-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110394779A true CN110394779A (zh) | 2019-11-01 |
Family
ID=68276430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910328534.XA Pending CN110394779A (zh) | 2018-04-25 | 2019-04-23 | 机器人的模拟装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11192249B2 (zh) |
JP (1) | JP6863927B2 (zh) |
CN (1) | CN110394779A (zh) |
DE (1) | DE102019002928B4 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110815189A (zh) * | 2019-11-20 | 2020-02-21 | 福州大学 | 基于混合现实的机器人快速示教系统及方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11529737B2 (en) | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
US20210237116A1 (en) * | 2020-02-03 | 2021-08-05 | Ross-Hime Designs, Inc. | Robotic marking system |
WO2023106353A1 (ja) * | 2021-12-07 | 2023-06-15 | 川崎重工業株式会社 | 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム |
JP7149440B1 (ja) | 2022-04-21 | 2022-10-06 | 三菱製鋼株式会社 | 操作装置 |
WO2023243373A1 (ja) * | 2022-06-17 | 2023-12-21 | パナソニックIpマネジメント株式会社 | 溶接ロボットシステムおよび溶接支援方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0966476A (ja) * | 1995-08-29 | 1997-03-11 | Hitachi Ltd | 感触再現装置及びこれを用いたマニピュレータシステム |
CN106457570A (zh) * | 2014-06-06 | 2017-02-22 | 纳博特斯克有限公司 | 作业机器人示教数据生成装置以及示教数据生成方法 |
JP2017094466A (ja) * | 2015-11-26 | 2017-06-01 | 株式会社デンソーウェーブ | ロボットモニタシステム |
JP2017100206A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット安全システム |
CN106808496A (zh) * | 2015-11-25 | 2017-06-09 | 电装波动株式会社 | 机器人安全系统 |
US20170372139A1 (en) * | 2016-06-27 | 2017-12-28 | Autodesk, Inc. | Augmented reality robotic system visualization |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU1328597A (en) * | 1995-11-30 | 1997-06-19 | Virtual Technologies, Inc. | Tactile feedback man-machine interface device |
DE10305384A1 (de) * | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
JP4850984B2 (ja) * | 2009-12-28 | 2012-01-11 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
EA032658B1 (ru) * | 2013-07-15 | 2019-06-28 | Вр Электроникс Лимитид | Способ интерактивной физиологической синхронизации пользователя с виртуальной средой |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP6426547B2 (ja) | 2015-07-21 | 2018-11-21 | ファナック株式会社 | 人間協調型ロボットシステムのロボットシミュレーション装置 |
US9919427B1 (en) * | 2015-07-25 | 2018-03-20 | X Development Llc | Visualizing robot trajectory points in augmented reality |
US9964765B2 (en) * | 2015-09-11 | 2018-05-08 | The Boeing Company | Virtual display of the real-time position of a robotic device to a human operator positioned on an opposing side of an object |
US10712566B2 (en) | 2015-11-26 | 2020-07-14 | Denso Wave Incorporated | Information displaying system provided with head-mounted type display |
JP6589604B2 (ja) * | 2015-12-01 | 2019-10-16 | 株式会社デンソーウェーブ | ティーチング結果表示システム |
US20170368691A1 (en) * | 2016-06-27 | 2017-12-28 | Dilili Labs, Inc. | Mobile Robot Navigation |
WO2018151908A1 (en) * | 2017-02-16 | 2018-08-23 | Walmart Apollo, Llc | Systems and methods for a virtual reality showroom with autonomous storage and retrieval |
US10362299B1 (en) * | 2017-08-28 | 2019-07-23 | Disney Enterprises, Inc. | System for introducing physical experiences into virtual reality (VR) worlds |
-
2018
- 2018-04-25 JP JP2018084230A patent/JP6863927B2/ja active Active
-
2019
- 2019-04-08 US US16/377,250 patent/US11192249B2/en active Active
- 2019-04-18 DE DE102019002928.3A patent/DE102019002928B4/de active Active
- 2019-04-23 CN CN201910328534.XA patent/CN110394779A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0966476A (ja) * | 1995-08-29 | 1997-03-11 | Hitachi Ltd | 感触再現装置及びこれを用いたマニピュレータシステム |
CN106457570A (zh) * | 2014-06-06 | 2017-02-22 | 纳博特斯克有限公司 | 作业机器人示教数据生成装置以及示教数据生成方法 |
CN106808496A (zh) * | 2015-11-25 | 2017-06-09 | 电装波动株式会社 | 机器人安全系统 |
JP2017094466A (ja) * | 2015-11-26 | 2017-06-01 | 株式会社デンソーウェーブ | ロボットモニタシステム |
JP2017100206A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット安全システム |
US20170372139A1 (en) * | 2016-06-27 | 2017-12-28 | Autodesk, Inc. | Augmented reality robotic system visualization |
KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110815189A (zh) * | 2019-11-20 | 2020-02-21 | 福州大学 | 基于混合现实的机器人快速示教系统及方法 |
CN110815189B (zh) * | 2019-11-20 | 2022-07-05 | 福州大学 | 基于混合现实的机器人快速示教系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190329411A1 (en) | 2019-10-31 |
JP2019188531A (ja) | 2019-10-31 |
DE102019002928B4 (de) | 2022-12-22 |
DE102019002928A1 (de) | 2019-11-07 |
US11192249B2 (en) | 2021-12-07 |
JP6863927B2 (ja) | 2021-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110394779A (zh) | 机器人的模拟装置 | |
JP6810093B2 (ja) | ロボットのシミュレーション装置 | |
JP6723738B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11498216B2 (en) | Remote control manipulator system and control device | |
JP2012218120A (ja) | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 | |
CN105278673B (zh) | 用于辅助操作者测量物体的部分的方法 | |
JP5062774B2 (ja) | 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体 | |
CN108604393A (zh) | 信息处理系统、信息处理装置、信息处理方法以及程序 | |
JP2015215259A (ja) | レンジセンサの配置位置評価装置 | |
JP4932048B1 (ja) | 作業支援システム | |
JPWO2011080882A1 (ja) | 動作空間提示装置、動作空間提示方法およびプログラム | |
JP6554865B2 (ja) | 配線・配管設計装置及び方法 | |
CN109116807B (zh) | 复合现实模拟装置以及计算机可读介质 | |
JP2008100315A (ja) | 制御シミュレーションシステム | |
CN109843514A (zh) | 用于碰撞检测的方法和自治系统 | |
JP2010271928A (ja) | 作業アシストシステム及び作業アシスト方法並びに該作業アシスト方法を記録した記録媒体 | |
US20220011750A1 (en) | Information projection system, controller, and information projection method | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
KR102259762B1 (ko) | 안전 사고 예방을 위한 가상 현실을 활용한 크레인 협동 작업 훈련 시스템 | |
JP4649554B1 (ja) | ロボット制御装置 | |
JP2017146228A (ja) | 溶接位置検査システム | |
JP2016218916A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7443014B2 (ja) | ロボットアーム試験装置 | |
US11403830B2 (en) | Image processing device, image processing method, and program | |
JP5594088B2 (ja) | 製造ラインの検討システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |